欧盟委员会周三公布了规范人工智能(AI)应用的严格法规草案,内容包括禁止大部分的监视行为、剥削儿童或弱势群体、部署潜意识讯息或建立社会信用体系,试图为AI关键技术建立国际标准。违反规定的企业将面临最高6%的全球营业额,或是3000万欧元(1亿4851万令吉)的巨额罚款,以价高者为准。
草案将限制人工智能在自动驾驶汽车、雇用决定、银行贷款、学校收生选择和考试评分等活动中的使用;执法和司法系统这些关乎人们安全或基本权利的“高风险”领域,草案也将涵盖。AI的某些用途将被完全禁止,包括在公共场所进行面部实时识别,但基于国家安全等目的可能会作出一些豁免。
该草案将要求在高风险领域应用人工智能的公司向监管机构提供安全性证明,包括风险评估和解释AI如何作出决策的文件,公司还必须保证系统的创建和使用时有人类监管。某些应用程式,例如客户服务上的聊天机械人、制造难以分辨是否经修改图像的软件等,提供者必须让客户清楚知道,他们所面对的是电脑生成的产物。
外媒形容该份108页的草案,是在AI这种新兴技术成为主流之前,对其进行规范的一种尝试。该规则不单对亚马逊、谷歌、脸书和微软这些已投入大量资源开发人工智能的主要科技公司产生了深远的影响,也影响到许多使用AI开发药物、承保保险和判断信用度的其他公司。草案还可能影响到各政府在刑事司法、分配公共服务等方面使用AI。
欧盟委员会掌管数码政策的执行副主席韦斯塔杰说:“就人工智能而言,信任是必须的,并非可有可无。有了这些具里程碑意义的规定,欧盟将带头发展新的全球规范,以确保AI是可信赖的。”