Linux 内核维护团队近日正式公布 AI 生成代码使用准则,首次明确允许开发者在提交内核代码时使用 GitHub Copilot 等 AI 辅助编程工具。根据新规,凡因 AI 生成代码引发的漏洞或安全问题,责任仍由提交者本人承担。团队要求开发者在提交中注明代码是否由 AI 生成,以确保透明度和可追溯性。该政策经过数月讨论敲定,创始人 Linus Torvalds 表示,AI 工具应被视为辅助工具而非风险源。相比之下,NetBSD、Gentoo 等开源项目仍禁止使用 AI 生成代码,理由包括训练数据版权不明及原创声明(DCO)合规风险。此次调整旨在在保证代码质量与安全的同时,兼顾开发效率与责任机制,反映出 Linux 社区对 AI 编程工具的审慎开放态度。