AI向善之惑:要不要给大模型装上“红绿灯”?

3月18日消息,随着ChatGPT迅速破圈,AIGC(AI Generated Content)被看作继PGC、UGC之后新型利用AI技术自动生产内容的生产方式。而AIGC的快速迭代演变,让大模型应用落地有了新领域,国内企业纷纷跟进大模型研究应用。大模型在带来变革性体验的同时,也带来内容安全、隐私保护、侵权、结果合法性等诸多隐忧,在鼓励创新的同时,如何规范科技向善?

大突破带来新问题

AIGC推动人工智能从感知理解世界到生产创造世界。内容创作模式由早期专业制作(PGC)、用户制作(UGC)发展到AI辅助用户制作(AIUGC),再到目前AIGC(人工智能创作内容)。备受关注的OpenAI近日发布的GPT-4,即是一个多模态大模型(接受图像和文本输入,生成文本)。

在国内,大型互联网公司早已进入大模型研究领域,随着AIGC的火热,国内企业在大模型的布局也纷纷浮出水面。我国超大模型不仅不落后于国外同类产品,在某些领域还能实现反超。

专家预测,到2030年,合成数据(Synthetic data)将取代真实数据成为AI模型所使用数据的主要来源。“架构统一、模态统一、任务统一的通用多模态大模型逐渐成为人工智能研究的一大趋势。”京东集团副总裁、IEEE Fellow何晓冬在接受《通信产业报》全媒体记者采访时表示,多模态大模型是人工智能技术从限定领域的弱人工智能迈向通用人工智能路径的重要途径。通用多模态大模型将逐渐在人工智能领域扮演着基础模型的角色。

当前人工智能技术三要素包括数据、算法、算力,然而数据往往是静态的、算法是单一任务驱动。何晓冬认为,未来会升级为场景、系统、算力新三要素,包括复杂交互智能场景及其产生的动态数据、多任务协同和多算法融合的系统和能支撑复杂场景与系统的新型算力,从而让计算机能深度地理解真实世界及解决重大的真实问题,提升智能系统的通用性、适应性和任务完成率。新一代融合性智能需要能基于“活的”交互场景去迭代和发展,包括人与智能体的交互、以及多智能体之间的交互,将成为人工智能的一个新发展趋势。

尽管大模型本身还存在一些技术挑战和不完善,但人们已经看到了其威力,甚至已对现行治理带来了不利影响。

隐私、偏见、侵权……

全球前2%顶尖科学家榜单入选者、联通数科首席AI科学家廉士国向《通信产业报》全媒体记者表示,一方面,它并不是按照人类创作内容的方式学习的,并未学习到创作的本质

(责任编辑:AK007)