人脸识别、语音识别、智能算法推送……当前,人工智能(AI)技术加速融入社会生活,伴随着智能产业的蓬勃发展,各式各样的海量数据也在人们的生活中被大量收集、存储和利用。数据安全和隐私保护问题由此成为人工智能系统在开发和应用中面临的严峻挑战。
在享受人工智能带来高效和便利的同时,如何进一步扎紧守护个人隐私和公共数据安全的藩篱?
人工智能数据安全挑战诸多
在人工智能不断走入人们的工作和生活场景时,数据的采集、存储和应用也越来越面临诸多风险。“概括来说,数据安全问题体现在五个方面:可复制、易泄露、来源广、危害大、监管难,这是由数据的特性决定的。
在具体危害表现上,一方面,最常见的是对数据保密性的侵害,如在金融领域,通过网络窃取人工智能系统用户的交易账单、理财情况来了解其个人资产状况和基于在线行为的支付意愿,从而快速有效地定位金融诈骗的受害者和目标群体;或是通过各种网络漏洞,窃取大量用户的指纹、虹膜、面孔、身形等个人隐私信息数据用于犯罪;也有一些手机应用软件违法违规收集用户个人信息等用于商业目的。
另一方面也有对数据完整性和可用性的侵害,如通过技术手段对大数据进行窜改、造假和干扰,对投入应用的人工智能系统输入非真实的训练数据,以获得与目标背道而驰的结果。“利用所获取的数据,也可能出现更改、拼接、制作高度逼真的假视频或音频,用于视频、语音诈骗乃至扰乱社会治安稳定等情况,这一问题因此也越来越受到各国的高度关注。”北京师范大学互联网发展研究院院长助理、网络法治国际中心执行主任吴沈括说。
实际上,人工智能数据采集、存储、利用等方面所面临的威胁,不仅侵害公民的合法权益,更加不利于人工智能相关产业的发展。山东大学信息科学与工程学院教授刘治举例,如研发智能超声技术——运用机械手臂进行胸腔和腹腔的超声波扫描,需要为系统提供大量的人体超声扫描数据,但若训练数据中掺杂着许多非正常或不规范的样本,则最终的技术效果将大受影响,这也成为影响人工智能技术落地的一个关键因素。
作为数字时代“抵御风险”的关键能力,AI安全可信技术的研究和应用,将被广泛地应用于反欺诈、反洗钱、反赌博、数字身份识别、企业联合风控等领域,极大地助力企业提升风险控制能力。