人脸识别、语音识别、智能算法推送……当前,人工智能(AI)技术加速融入社会生活,2023年年初,ChatGPT更是以其丰富的知识与出色的自然语言交互能力,引起了现象级的关注。伴随着智能产业的蓬勃发展,各式各样的海量数据也在人们的生活中被大量收集、存储和利用。数据安全和隐私保护问题由此成为人工智能系统在开发和应用中面临的严峻挑战。
AI安全风险陡增迅速成全球业界共识
近年来,随着数字化智能化的深入,新的技术不断衍生出新的安全风险,数字安全风险进入了快迭代、高智能、全覆盖的新阶段。尤其是2022年末AI大模型横空出世,AI安全风险陡增迅速成为全球业界的一致共识,AI安全成为主流的安全关切,并逐渐形成了一个新的安全技术研究领域。
随着人工智能发展加速,由此引发的问题逐渐摆上台面。
AI技术的应用给我们带来了许多便利,但同时也引来了一系列的安全隐患。AI安全工作组的成立加强对AI技术安全的研究和防护,保障人们在使用AI技术时的安全和隐私。
2023年6月,欧洲议会通过了《AI法案》授权草案,草案内容包括用于监督人工智能基础模型的分级管理办法。
2023年10月,由中国全国信息安全标准化技术委员会组织,面向社会公开征求《生成式人工智能服务安全基本要求》意见。同月,日本首相岸田文雄在日本京都发表演讲,公布面向生成式人工智能的监管计划。
2023年11月,英国全球第一届人工智能安全峰会在英国召开,与会各国讨论了当下全球人工智能治理的问题。中国科技部副部长吴朝晖率团参会并在峰会开幕式上发表讲话,并在会后联合发布《宣言》,该《宣言》成为“第一份关于有必要监管AI发展的全球声明”。
斯坦福大学发布的《2023年人工智能指数报告》中提到,对127个国家的立法记录调研的结果显示,包含“人工智能”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。该报告对自2016年以来81个国家的人工智能法律法规记录的分析也同样表明,全球立法程序中提及人工智能的次数增加了近6.5倍。
据中研产业研究院《2024-2029年中国AI安全行业市场全景调研与发展前景预测报告》分析:
事实上,为了应对AI安全风险,我国从业机构已经开始探索安全科技以加强AI技术的潜在风险研判和防范。例如,2023年9月,蚂蚁集团推出了“蚁天鉴”大模型安全一体化方案,其中包括大模型安全检测平台“蚁鉴2.0”和大模型风险防御平台“天鉴”,为大规模AI模型的安全保障带来了全新的突破。