12月14日,中国网络空间安全协会人工智能安全治理专业委员会学术年会(2023)在京召开,三六零(601360.SH,下称“360”)集团受邀分享大模型安全风险和治理方案。
360首席运营官叶健在分享中指出,人工智能大模型作为产业数字化重要推动技术,带来发展的同时也面临前所未有的安全挑战,大模型安全成各方关注的重点。叶健认为,大模型发展主要面临的安全问题包括:以网络安全、数据安全为主的技术安全问题,大模型“杜撰”能力、提示注入攻击等带来的内容安全问题,以及可控性等长期安全问题。
作为国内唯一兼具数字安全和人工智能能力的跨界科技企业,360已着手攻克大模型安全难题,并遵循“安全、向善、可信、可控”四原则推出企业级AI大模型解决方案,支撑近十个核心场景的垂直大模型训练和部署交付。
360集团创始人周鸿祎曾表示,解决大模型安全问题一定要在技术上有所突破,不能单靠大模型企业自觉自律,还需要安全公司潜心研究,寻找解决方案。
作为人工智能大模型领军企业,360积极推动国产大模型生态建设及技术发展,曾被中国人工智能产业发展联盟授予“安全治理委员会副组长单位”以及大模型安全风险防范能力系列评估规范“核心参编单位”,被工信部中国电子技术标准化研究院授予“国家人工智能标准化总体组大模型专题组”组长单位,被工信部信通院授予“人工智能重点实验室大模型工作组”副组长单位,同时作为中国网络空间安全协会人工智能安全治理专业委员会首批成员单位,参与大模型语料库和安全评测,推动大模型国家标准体系建设。