生成式AI不得侵害个人信息权益 AI安全行业市场前瞻与未来投资

生成式AI不得侵害个人信息权益

今年7月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,自8月15日起施行。办法指出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。

明确提供和使用生成式人工智能服务应当尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性等。

推动数字经济与先进制造业、现代服务业深度融合,促进人工智能安全发展。北京大学计算机学院教授黄铁军表示,今天ChatGPT有强大的智能,影响深远,未来3年,除语言外,大模型正在迅速扩展视觉、听觉、具身、行动等通用智能,影响将更大。

根据中研普华研究院撰写的《2023-2028年中国AI安全行业市场前瞻与未来投资战略分析报告》显示:

AI安全行业市场前瞻与未来投资

AI技术的不断进步在推动各行各业持续发展的同时,也给安全行业带来了全新的挑战。AI越来越强,风险与日俱增。如何构建安全的AI,现在还没有完整准确的答案。面对AI越来越强的智能程度,人类面临全新的挑战。

人工智能在赋能产业过程中,带来的风险挑战有数据安全问题、算法安全问题、应用安全问题和行业安全问题。

当前,新一轮科技革命和产业变革正在萌发,在5G、大数据、云计算、深度学习等新技术的共同驱动下,人工智能(AI)作为新型基础设施的重要战略性技术加速发展,并与社会各行各业创新融合,引发链式变革。特别是在网络空间安全防护领域,人工智能在威胁识别、态势感知、风险评分、恶意检测、不良信息治理、骚扰诈骗电话检测、灰黑产识别等方面有其独特的价值和优势,应用需求呈现跨越式发展,产生了显著的溢出效应。

为探索解决行业安全应用前沿问题,打造AIinSecurity(人工智能赋能安全)最佳实践“样板间”,并推动全球信息通信行业对人工智能在在安全领域形成共识,形成普及应用和规模发展,提升网络空间智能安全防护水平。

(责任编辑:AK007)