ChatGPT与GPT已走进大众的视线,我国众多的互联网大厂也正火速切入这一赛道。不可否认,GPT等人工智能应用极大提升了生产力、便利了大众的生活,但其也是一柄双刃剑,不久前甚至还出现诱导人类自杀的事件,由此产生的科技伦理问题也引发了全球的关注与担忧。
令人欣慰的是,我国已开始筹谋提前化解人工智能的科技伦理风险。日前,科技部公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)的意见,其中明确提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,部分算法模型、自动化决策系统需要专家复核。分析认为,虽然伦理审查短期内会影响产品商业化的效率,但从长期来看,有助于人工智能行业可持续的健康发展,让我国在这一领域形成可持续的全球竞争力。
设立审查委员会
科技部本次发布的《办法》提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。
此外,在《办法》的附录中还提到了“需要开展专家复核的科技活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。
“ChatGPT与GPT等应用越来越广,也与我们的生活越来越近,我们在科技伦理方面也遇到了前所未有的挑战。”浙江理工大学数据法治研究院副院长郭兵认为,《办法》比较大的亮点在于,进一步对更广泛的科技伦理审查问题做了规定,并引入了专家复核制度。
事实上,在ChatGPT诞生之前,我国就已经出台与人工智能伦理的相关规范和标准。2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。
“目前我国科技伦理的审查,也正由传统的完全自律逐渐演变成为法定的义务。”郭兵介绍说,在2021年11月1日起施行的《个人信息保护法》中,已经明确规定了科技平台有义务设置独立的第三方机构对其个人信息的处理活动进行监督;其第五十八条则规定,提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当按照国家规定建立健全个人信息保护合规制度体系,成立主要由外部成员组成的独立机构对个人信息保护情况进行监督。
“但《个人信息保护法》并未要求企业邀请何种外部人员,而科技领域、AI领域专业性较强,《办法》通过法定的专家参与机制的设计,能够更好地保障人工智能伦理审查的效果。”郭兵进一步解释说。