Linux 内核项目近日发布官方指南,正式允许开发者使用 AI 编程工具辅助内核开发,但要求人类提交者承担全部法律责任。新规要求提交者亲自审查 AI 生成代码,并添加“Assisted-by”标签注明工具信息。此举旨在应对 AI 工具在开发者中的普及,为开源项目提供责任划分模板。
Linux 内核项目正式制定了 AI 辅助贡献的相关规则,发布官方文档,允许开发者在内核开发的各个环节使用 AI 编程工具——同时将全部法律和技术责任归于人类提交者。

这份指南现已正式收录于 Linux 内核官方文档,由英伟达(NVIDIA)旗下的稳定版内核维护者 Sasha Levin 起草,并得到 Linus Torvalds 的支持。该政策源于 2025 年东京内核维护者峰会上达成的共识,并于上周合并入内核代码仓库。YouTube 视频
根据新规,AI 智能体被明确禁止添加 Signed-off-by 标签。只有人类才能为《开发者原创证书》(Developer Certificate of Origin)背书——这是贡献者承诺其代码符合内核 GPL-2.0 许可证的法律机制。提交者必须亲自审查所有 AI 生成的代码,确保许可合规,并对该贡献承担全部责任。
此外,贡献者还须添加一个新的“Assisted-by”归属标签,注明所使用的 AI 工具名称、模型版本及任何专项分析工具——例如:“Assisted-by: Claude:claude-3-opus coccinelle sparse”。
Torvalds 和 Levin 已明确表示,该政策是为“善意行为者”设计的,并承认无论制定何种规则,恶意行为者都不会主动披露 AI 的使用情况。正如对这一做法的某个总结所言:“你在 AI 代码上签字确认,你就对其负责。在法律层面,这一点向来如此,只不过现在白纸黑字写明了。”YouTube 视频
此举的出台,恰逢 AI 工具已深度融入开发者日常工作流程之际。近期一项调查显示,84% 的开发者如今都在使用 AI 编程工具,内核维护者也已将一套名为 Sashiko 的 AI 代码审查系统纳入工作流程。资深内核维护者 Greg Kroah-Hartman 在三月份指出,围绕 Linux 安全与代码审查的 AI 相关活动在近几周“明显激增”。
Linux 内核的做法或许可以为其他面临类似问题的开源项目提供参考模板。该政策绕开了“以受版权保护的材料训练的 AI 所生成的代码能否合法获得 GPL 授权”这一争议性问题,转而聚焦于一个更具实操性的核心:一旦出现问题,谁来承担责任。社区讨论中已有人指出尚未解决的版权隐患,但内核团队选择以透明度和人的责任感作为核心准则。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断