欧盟AI监管新规:界定“AI”与禁用用途
欧盟正在积极推进人工智能(AI)监管政策,近期完成了《AI法案》的最终草案。为了使规范更加完善,欧盟近日启动了一项公开咨询,旨在明确界定哪些软件可以被称作“AI”,从而在AI系统与较为简单的软件之间划出清晰的界线。此举旨在防止过度约束基础应用,并保护公众安全。
据悉,此次咨询主要聚焦于两个方面:一是“AI系统”的定义。欧盟希望通过征询AI产业、商界、学术界和民间社会的意见,确保法案关键定义的清晰性,并收集具体的软件案例,以界定哪些软件应该排除在法案的范围之外。
二是AI的“禁用用途”。新法案中列出了被视为“不可接受风险”的使用场景,例如部分高风险使用场景,如中国的社会信用体系已被禁止,这类系统被视为对人权的威胁,可能侵犯隐私或限制自由。通过此次咨询,欧盟希望广泛收集各界对禁用用途的意见,并获得有关实际案例的反馈,以便在未来的指导中进一步细化条文。
值得注意的是,中国的社会信用体系是一个由政府推动的国家级信誉管理系统,旨在根据个人、企业和政府的行为来评估和记录其社会信用。例如,如果一个人因为小额未缴的债务或轻微的违法行为而被评为低信用分数,可能会影响其日常生活和基本权利。
对于企业而言,该法案可能要求调整AI产品的设计和销售方式,某些功能可能需要修改或删除以符合禁用类别,虽然这可能会增加符合规定的成本,但也推动了透明和负责任的开发方向。
对于普通公民来说,该法案则提供了更强的隐私和自由保障。通过管制高风险AI用途,欧盟致力于保护公民免受数据滥用或潜在偏见的影響。
对于AI开发者来说,该法案强调需要更加注重伦理和隐私标准,这将推动负责任的AI发展方向,可能启发更多创新、安全的解决方案。
此次咨询期将持续至2024年12月11日,欧盟将在之后分析反馈意见,最终指导文件预计将于2025年初发布,以进一步明确AI系统的定义和禁用用途规范。