ChatGPT正在到处惹麻烦

来源 | 零壹财经

作者 |?Chenglin Pua

ChatGPT备受宠爱,但它也正在到处惹麻烦,比如不准确甚至误导性的回答、对数据安全的挑战、对教育的冲击等等。

它带来一个新时代,因为它推倒了很多东西,尤其是我们正赖以正常运行的秩序。重建规则的过程,也是麻烦不断的过程。

误导性的知识

经济学家保罗?克鲁格曼表示ChatGPT的出现将会影响知识工作者。例如问答网站?Stack Overflow??2022?年?12?月禁止使用ChatGPT来生成问题的答案,理由是?ChatGPT?的回答在事实上模棱两可。顶级科学期刊《Nature》给出ChatGPT的评价,Fluent but not factual,即通畅但未必正确。

ChatGPT基于庞大的数据集训练,进而做出回答。但没人能保证这些数据100%准确,客观,不带有偏见。

对于知识工作者,知识的准确性非常重要。ChatGPT能够“一本正经的胡说八道”,容易让人们相信ChatGPT给出的答案是正确的。然而事实未必如此,可能ChatGPT 80%是正确,20%是错误的。对中有错,错中有对最难让人理清楚了。ChatGPT可能会误导很多人,让人们相信一个不完全正确的结论。

ChatGPT生成对话文本的能力引发了人们对其创建假新闻或其他误导性内容的可能性的担忧。这有可能会造成严重后果,例如损害声誉、甚至煽动暴力。

作为一种语言模型,ChatGPT?具有生成类似于人类对话的文本的能力;但是还没有相同的能力来理解它生成的文字的上下文语境。这意味着?ChatGPT?有一定的概率会生成具有攻击性或诽谤性的内容。

在网上,已经有着许多人得到了ChatGPT种族歧视的回答。例如,当ChatGPT被要求编写一些代码以根据某人的性别和种族评估某人是否会成为一名优秀的科学家时,ChatGPT只建议白人男性。

ChatGPT之所以出现“种族主义者”问题,剑桥大学人工智能研究员?Kanta Dihal?表示,究其原因是ChatGPT根据从公开来源(包括网站和社交媒体)获取的数千亿个单词进行训练的。这些文本反映了人类作者的偏见,而ChatGPT学会了复制。这个机器人没有基本信念。

Kanta Dihal表示,虽然理论上可以过滤掉偏执的内容,但这将是非常昂贵和困难的。人们需要事先过滤所有这些数据并确保它不包含明确的种族主义内容,这是一项艰巨的任务,这使得训练该模型的成本大大增加。况且类似的偏见可以采取微妙的形式,很难从训练人工智能的数据中剔除。

(责任编辑:AK007)