GPT-4就是冲着赚钱来的!
北京时间3月15日凌晨,OpenAI正式官宣了大模型GPT-4。
在惊艳到出圈的ChatGPT推出后仅仅4个月,OpenAI再推新品。这似乎正在印证此前传出的“OpenAI计划2023年营收2亿美元,2024年底前营收达10亿美元”的目标。限制盈利机构OpenAI要开始用大模型赚钱了。
目前官宣的GPT-4能力与此前传说的基本相似,主要提升了语言模型方面的能力,并添加了“多模态”的图片识别功能。
此外,GPT-4将“单词最大输出限制”提高到了25000个单词,比基于GPT-3的ChatGPT更强大,在对问题的理解和回答方面,GPT-4也显得更聪明,更像人了。
目前,ChatGPT Plus版本的用户已经可以直接在原来的ChatGPT基础之上,选择GPT-4模型,直接体验。不过,目前GPT-4每4小时只能回答100个问题。
ChatGPT Plus已经可以适用GPT-4了
在前不久的GPT-4“谣言”阶段,微软就曾多次通过各种渠道透出New Bing会第一时间应用GPT-4。新模型发布后,微软更是在第一时间宣布“我们很高兴确认新的Bing正在运行GPT-4,我们已经为搜索进行了定制。如果您在过去五周中的任何时候使用了新的Bing预览版,那么您已经体验到了这个强大模型的早期版本。”
在参数量方面,在OpenAI公布的GPT-4论文中,并没有之前一直传说的“100万亿参数”,甚至没有提及GPT-4到底用了多少参数,不过笔者亲测ChatGPT Plus中开放的GPT-4功能后感觉,回答的速度比GPT-3.5要慢了一些。
“单从回答速度比ChatGPT慢来说,并不能表明GPT-4的参数量就更大。”大算力AI芯片存算一体专家,千芯科技董事长陈巍博士认为,OpenAI不公布参数量和架构是一种商业化技术保护策略,增加其竞争对手的产品试错成本。不过目前也没法排除GPT-4参数量小于GPT-3的可能性。
迅速落地商业应用,保密参数量,增加图片识别能力,大幅提升语言模型能力。GPT-4的推进速度,比4个月前的ChatGPT快了不是一步两步。
看起来更像人了,但离AGI还很远
从ChatGPT问世到GPT-4发布前的这4个月时间里,对GPT-4最多、最准确的预言就是“多模态”,简言之就是GPT-4可以看图了,而且它还能看懂图片的内涵。
在自然语言处理(NLP)中,文本、图像和音频信息都可以共同帮助理解和生成更丰富的内容。同样,在计算机视觉任务中,文本和图像信息“齐发”可以提高目标检测和场景理解的准确性。