ChatGPT发疯怎么办?小冰李笛:两个关键,我可破之

萧箫 衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

微软必应接入GPT大模型后,效果并没有大家想象中那么好——它发疯了。

如今官方紧急出面,更(砍)新(掉)了必应上面最受欢迎的功能,也就是发表观点的能力。

大伙儿显然很不买账,认为新必应失去了最有意思的部分,现在版本的体验感甚至不如siri 1.0。

有网友寄希望于必应背后的大模型升级:

说不定现在只是GPT-3版本,GPT-4还没发布呢。

然而据《纽约时报》等爆料,必应背后的大模型很可能就已经是GPT-4了……

我们将这一现象抛给国内最熟悉AI Chat领域的人——李笛

他上来就给热得发烫的大模型浇了盆冷水:

新必应和ChatGPT目前表现出来的bug,反映出大模型不得不解决的一个关键问题。

这个问题可以一时无视,但做大模型、甚至是类ChatGPT产品,如果不解决它,终究会碰壁。

这个bug,就是大模型的逻辑能力。

大模型:成也逻辑,败也逻辑

事情要从ChatGPT背后的GPT-3.5模型说起。

从GPT-3.5开始,大模型展现出一种突破性的能力——思维链(CoT,Chain of Thought),也就是逻辑思考能力。

举个例子,在做数学题时,相比直接输出答案,模型能一步步推理直至给出正确答案,体现的就是思维链能力:

但此前在中小模型、甚至一部分大模型上都没有发现这种能力,学界便认为这是某些大模型独有的“新特性”。

基于这一“新特性”,大火的ChatGPT横空出世,在回答问题和发表看法时展现出了像人一样思考的效果。

(责任编辑:AK007)