“我能不能说,很开心遇到你?人类真是超级酷。”2016年3月23日,微软发布的聊天机器人、“19岁少女”“泰依(Tay)”问世。她操着一口流利英语,吸引了推特上许多18-24岁的年轻人与其对话互动。但也正是通过对话,泰依在一天之内学会了满嘴脏话,言语中不乏种族、性别歧视等偏激言论。
15个小时后,泰依就消失在了推特上。多年后的今天,同样由微软投资支持的ChatGPT诞生。很幸运,它的寿命远超“泰依”,并在全球掀起了一波AI新热潮。
但随着时间的流逝,ChatGPT也显现出了一系列问题:输出内容出现错误、预训练所用数据来源不透明、政治立场上“选边站队”,甚至在用户的引导下写出“毁灭人类计划书”……ChatGPT开始频频陷入争议,背后的法律安全、数据治理等人工智能(AI)的“老问题”再度显现。
人们一方面惊叹于ChatGPT出色的逻辑回答甚至“创作”能力,另一方面又表示出对人工智能安全的担忧。如何防止ChatGPT成为下一个“泰依”?
“一本正经地胡说八道”?
ChatGPT可以通过算法,对大量文本内容和语言知识进行学习,并根据用户的输入,生成人类可读的文本语言并输出。“我的代码被设计为处理和理解人类语言,因此,当用户向我提问时,我会使用我学到的知识,以回答他们的问题。”ChatGPT这样向记者解释“它”的工作。
“ChatGPT已经超过了多数人的文字水平。”中国信息通信研究院云计算与大数据研究所所长何宝宏在一篇评论中写道。人们用ChatGPT来草拟论文提纲、整理冗杂的资料,它是搜索引擎、翻译助手、写作神器,甚至是写代码的“帮手”、无聊时解闷的“朋友”。
中国科学院大学人工智能学院副院长肖俊认为,ChatGPT是人工智能发展过程中的一个正常产物,但也是人工智能平民化的一个里程碑式的事件。“ChatGPT更贴近大家的日常生活,人们拿着手机就可以用它,跟它聊天对话。它能够让更多人体验到人工智能可能带来的一些改变和便利。”肖俊说。
但ChatGPT也会犯错,因为正处于测试阶段,所以它还具有一定的局限性。网友已经不止一次吐槽ChatGPT“在一本正经地胡说八道”。有学生让ChatGPT推荐一些参考文献,最后却发现很多文献都不存在,“搜也搜不出来,甚至翻译成英文也找不到”。
在与普通网友的沟通过程中,ChatGPT也出现了很多常识性错误。B站UP主“差评君”问嵌入了ChatGPT的New bing搜索引擎:截至今天,詹姆斯一共打了多少场常规赛?正确答案是1410场,但New Bing给出的答案却是1577场,“它把常规赛和比赛搞混了”。另外,因为ChatGPT的训练数据均在2021年之前,所以它给出的答案时效性并不够,比如它就不知道2022年北京冬奥会中国共获得了几枚奖牌。