欧盟发布AI法案高风险系统关键指南

政策· 3 分钟阅读0 阅读

欧盟委员会近日发布关键指南,明确了《人工智能法案》中高风险AI系统的分类标准及合规要求。该指南被视为企业合规的重要里程碑,帮助企业在2026年8月法案全面生效前做好准备。高风险系统需满足严格义务,违规可能面临高额罚款。

欧盟在其《人工智能法案》全面实施的漫长进程中,迎来了一个关键节点。欧盟委员会需在2026年2月2日前发布指南,明确如何对“高风险”AI系统进行分类,以及提供商应如何实施相关监控计划。这份指南被广泛视为一个实用的里程碑,帮助企业在8月法案更广泛适用之前,判断其工具是否会被归类为高风险。

虽然《人工智能法案》对高风险系统的许多严格要求要到2026年8月2日才会生效(某些用作受监管产品安全组件的AI则要到2027年8月2日),但欧盟委员会的分类指南预计将立即影响合规计划的制定——特别是对于从境外向欧盟市场销售或部署AI的公司而言。欧盟数字战略

欧盟委员会大楼与欧盟旗帜

在欧盟的框架下,高风险AI通常涵盖在敏感领域使用的系统,这些系统的算法输出可能实质性地影响人们的权利或机会——例如就业、教育、获取基本服务和福利,以及某些执法场景。欧盟委员会的AI法案服务台指出,第6条包括附件III中的使用案例以及与第三方合格评定相关的产品关联场景,但在系统不会“实质性地”影响决策的情况下可获有限豁免。AI法案服务台

一旦高风险规则适用,欧盟委员会表示此类系统必须满足严格的上市前义务,包括风险评估和缓解、使用高质量数据集以减少歧视性结果、可追溯性日志记录、详细的技术文档、为部署者提供清晰信息、人工监督措施,以及强大的准确性、稳健性和网络安全控制。合规框架通常要求在投放市场前进行正式的合格评定步骤,并在欧盟数据库中登记高风险系统。欧盟数字战略

业界人士将2月的指导意见截止日期定义为“从意图到执行”的关键时刻,认为更明确的分类规则将减少跨境AI部署的不确定性,并有助于在8月截止日期之前将治理措施落实到位。联想集团、ServiceNow, Inc.和Snowflake Inc.的高管在TechRound汇编的声明中表示,企业越来越多地将AI治理作为嵌入产品工作流程、文档和监控中的运营要求。

罚款仍然是核心压力点。多份合规指南指出,《人工智能法案》允许对某些禁止行为处以最高3500万欧元或全球年营业额7%的罚款,对其他违规行为则设有较低级别的处罚,这凸显了为什么2026年的分类决策预计将同时影响产品路线图和风险偏好。

想了解 AI 如何助力您的企业?

免费获取企业 AI 成熟度诊断报告,发现转型机会