丰色 发自 凹非寺
量子位 | 公众号 QbitAI
“ChatGPT并不算创新。”
“OpenAI做的这个东西跟其他实验室相比,根本算不上什么进步。”
这两天,图灵奖得主LeCun公开和大热趋势“唱反调”,瞬间引发网友围观。
要知道,ChatGPT功能强大又好玩,火爆全网,任谁看了都得感叹一句“技术也太强了吧”,AI大佬对此却“不敢苟同”?
对此,不少网友称LeCun就是在“酸”OpenAI的成就:
“OpenAI现在让谷歌和Meta都处于ChatGPT的阴影之下。这就是为什么它不算革命性的创新。”
但也有学者为他撑腰,称“ChatGPT就是一年前的InstructGPT的改进版本,我必须同意LeCun的这个说法”。
具体是怎么回事儿?
“ChatGPT不算技术创新,只是组合得很好罢了”
LeCun是在上周于Zoom的媒体和高管小型聚会上发表了这些观点。
说ChatGPT不创新,是就底层技术而言。
他表示,过去许多公司和实验室都建立了ChatGPT这种数据驱动的人工智能系统,因此OpenAI的这个作品算不上独树一帜。
尽管ChatGPT在这里面可能最强大,公众都被它的能力所折服,觉得它能给大家的工作和生活带来非常大的变化,但它也真的算不上革命性的科学。
他指出,除了谷歌Meta,还有6家初创公司都拥有着非常相似的技术。
“这些技术都是公开的,算不上rocket science,如果你愿意一探究竟的话,可以发现它背后没有任何秘密可言。”
(Ps. rocket science即火箭科学,指特别困难的事情。)
他称ChatGPT仅仅是“组合得很好”。
具体都“组合”了以下这些关键技术:
首先,它的核心就是以自监督学习的方式预训练的Transformer架构。
其中,自监督学习是“我LeCun”早就提倡的。有多早?那时OpenAI都还没诞生呢。
Transformer呢,更不用多说。是谷歌2017年就提出的,GPT-3等大量语言模型都是基于它。
而说起语言模型,它的历史就更早了。
第一个神经网络语言模型,是Yoshua Bengio在大约20年前提出的。(注意力机制的概念最早也是Bengio发明的,然后被谷歌采纳用于Transformer,然后成为所有语言模型中的关键元素)。