近两年生成式AI、大模型发展迅速,甚至很多领域已经超过了人类,作为一款工具来说带来了极大的方便。
需要注意的是,在科研等过程中,过度使用AI并不是一件好事。
比如,研究人员可能会误导性地将AIGC生成的文本作为自己的创作,或者仅仅依赖AIGC并因此产生不可靠的研究成果,甚至其中还可能会侵犯他人的成果。
科技部发文规范AI使用,禁用AIGC直接生成申报材料
据科学技术部消息,科技部监督司近日编制印发《负责任研究行为规范指引(2023)》,提出不得使用生成式人工智能(AIGC)直接生成申报材料,不得将生成式人工智能列为成果共同完成人,同时强调科研人员应把科技伦理要求贯穿到研究活动的全过程。《指引》适用对象包括科研机构、高等学校、医疗卫生机构、企业及其科研人员,有关规范要求覆盖科技活动的主要环节和过程。
针对成果发布问题,《指引》强调,公布突破性研究成果和重大研究进展应经所在科研单位同意。未经科学验证或同行评议的研究成果,科研人员不得向公众传播;不得将已发表的论文或其中的数据、图片等再次发表,不得将多篇已发表论文各取一部分拼凑出“新成果”后发表。
《指引》的主要特点是什么?
一是体现共识度。《指引》充分吸纳了我国科技界长期形成的、具有广泛共识的学术规范和行为准则,同时又借鉴了国外有益经验、体现国际惯例。
二是注重覆盖面。《指引》的适用对象包括科研机构、高等学校、医疗卫生机构、企业及其科研人员,有关规范要求覆盖科技活动的主要环节和过程。
三是力求操作性。《指引》所提科学道德准则和学术研究规范是科研单位、科研人员应普遍遵循的,有关内容及文字表述力求简练易懂、可以落地,具有较强操作性。
生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。
GAN、CLIP、Transformer、Diffusion、预训练模型、多模态技术、生成算法等技术的累积融合,催生了AIGC的爆发。算法不断迭代创新、预训练模型引发AIGC技术能力质变,多模态推动AIGC内容多边形,使得AIGC具有更通用和更强的基础能力。
从计算智能、感知智能再到认知智能的进阶发展来看,AIGC已经为人类社会打开了认知智能的大门。通过单个大规模数据的学习训练,令AI具备了多个不同领域的知识,只需要对模型进行适当的调整修正,就能完成真实场景的任务。