欧盟委员会作为全球监管机构,于4月21日发布了一份提案,旨在规范欧盟范围内的人工智能使用。这份提案的发布,标志着欧盟在人工智能监管领域迈出了重要一步。
人工智能的经济潜力巨大,欧盟委员会预测,未来十年,欧盟公共和私人对人工智能的投资将达到每年200亿欧元。这还不包括欧盟为应对新冠疫情而设立的1340亿欧元数字转型基金,其中一部分也将用于人工智能领域。此外,欧盟还将考虑来自欧盟以外的针对欧盟居民的人工智能投资,因为这些规则将适用于欧盟范围内所有的人工智能使用,而不仅仅是欧盟企业或政府。
欧盟的人工智能规则提案并非一蹴而就,而是经过三年时间,由官僚、行业专家和公众共同参与,经过多次协商和讨论才最终形成。这份提案还需要经过欧洲议会(欧洲议会曾提出该提案)的审议才能成为法律。欧盟成员国通常需要数年时间才能将欧盟层面的法规转化为本国的法律条文。
这份提案将人工智能相关活动划分为四个等级,并对每个等级制定了不同的监管措施。第一等级是“不可接受的风险”,一些人工智能的使用将被完全禁止,例如在公共场所进行实时远程生物识别(即面部识别),除非国家法律允许并进行额外监管,以及更严格的记录和人工监督。此外,提案还禁止潜意识行为修改和社会评分应用程序。违反规定的企业将面临高达其全球年收入6%的罚款。
提案接下来定义了“高风险”类别,该类别取决于系统的目的以及潜在的危害程度和可能性。提案中列举的例子包括招聘、信用评估和司法系统。对于这类人工智能应用,规则要求使用高质量数据集,记录其可追溯性,与用户共享信息,并进行人工监督。根据提案,欧盟将建立一个这类系统的中央登记处,并要求在部署之前获得批准。
“有限风险”活动,例如在网站上使用聊天机器人或深度伪造,将受到较少的监管,但需要添加警告标签,以便用户可以选择是否使用。最后,对于被认为“最小风险”的应用,将不会受到监管。
正如政府提出新的复杂规则手册时经常发生的那样(这份提案长达108页),行业和民间社会组织的最初反应更多地集中在行业监管的存在和范围,而不是规则的具体内容。一家由科技公司资助的智库告诉《华尔街日报》,这可能会让“在欧洲构建人工智能变得不可行”。而以隐私为重点的民间社会组织,例如欧洲数字权利组织(EDRi)则在一份声明中表示,该“法规允许公司进行过度的自我监管”。
“我认为,这份法规背后的一个想法是试图平衡风险,让人们对人工智能感到兴奋,并重新获得信任,”牛津大学人工智能治理研究员丽莎-玛丽亚·诺伊德特说。她同时也是柏林魏茨曼研究所的研究员。2019年劳埃德船级社基金会的一项调查发现,全球公众对人工智能的恐惧和兴奋情绪大致相当。
“我可以想象,如果你有一个经验丰富的庞大法律团队,这可能会有所帮助,”诺伊德特说,这可能需要在“保持对初创企业的友好性”和“成功地控制大型企业”之间取得“艰难的平衡”。
人工智能研究员莫娜·斯隆和安德烈亚·伦达在VentureBeat上撰文指出,这些规则在监管人工智能在批准和发布后的表现方面较为薄弱,忽略了“人工智能相关风险的一个关键特征:它无处不在,并且正在不断出现,通常在开发和部署后以不可预测的方式演变”。
欧盟已经从其2018年颁布的《通用数据保护条例》(GDPR)对全球科技和隐私的影响中吸取了教训。的确,一些网站仍然向欧洲用户显示一个页面,告诉他们网站所有者不愿遵守GDPR,因此欧洲用户无法看到任何内容。但大多数网站已经找到了适应的方法,以便进入这个拥有4.48亿人口的统一市场。
“我认为我们不应该从GDPR推广到拟议的人工智能规则,但可以合理地假设,这样一部大型立法将对欧盟以外产生影响,”诺伊德特说。对于其他地方的立法者来说,遵循一个模板比复制欧盟在研究、社区参与和规则制定方面的巨额投资要容易得多。
虽然科技公司及其行业组织可能会抱怨需要遵守即将出台的人工智能规则,但《注册》专栏作家鲁珀特·古德温建议,他们最好专注于组建行业组织,这些组织将在未来影响规则的实施和执行:“你可能已经加入了人工智能伦理或评估的行业组织之一;如果没有,那么就把它们视为影响力将从中产生的种子。”