LLVM 社区发布了针对人工智能(AI)辅助贡献的新政策,核心是“人类在环”原则。该政策要求所有贡献者必须亲自审查并充分理解由 AI 工具生成的代码或文本,并能为其质量负责。此举旨在确保贡献的价值,防止将验证工作的负担转移给项目维护者,同时禁止未经人类批准的自动化代理直接向项目提交内容。
核心政策:“人类在环”原则
LLVM 的新政策允许贡献者使用任何工具,前提是始终有人类参与并主导整个过程。这意味着贡献者必须对自己提交的内容有深入的理解,不能在代码审查时以“我不知道,这是 AI 生成的”为由推卸责任。
- 审查责任: 贡献者在提交前必须阅读和审查所有 AI 生成的代码或文本。
- 作者身份: 无论使用何种工具,贡献者本人永远是内容的作者,并需要准备好在审查过程中回答相关问题。
- 透明度: 鼓励贡献者透明地标注使用了 AI 工具的贡献。
- 禁止完全自动化: 此政策明确禁止自动化代理(如 AI 机器人)在没有人类监督和批准的情况下直接操作项目(例如创建拉取请求或自动回复)。
这项政策的一个重要含义是,它禁止了在没有人类批准的情况下自主行动的代理。
为什么需要这项政策:规避“榨取式贡献”
制定此政策的主要原因是,处理低质量的贡献会消耗维护者宝贵的时间和精力。社区将那些对项目价值小于其审查成本的贡献称为 “榨取式贡献” (Extractive Contributions)。
AI 工具的出现加剧了这个问题,因为它使得生成大量看似合理但未经深思熟虑的内容变得更加容易。项目的黄金法则是:一项贡献为项目带来的价值应该超过维护者审查它所需付出的精力。 如果维护者认为某项贡献是“榨取式”的,他们有权拒绝审查,以保护自己的时间和精力。
社区讨论与关键观点
社区对此政策展开了热烈讨论,形成了几个主要观点:
担忧政策过于严格: 有成员认为,一刀切的政策可能会扼杀一些有益的自动化场景。他们建议为那些能够处理特定、可预测任务的 AI 工具设立一个例外申请通道。
AI 生成内容的冗长问题: 另一位成员指出,AI 生成的文本往往过于冗长。即使内容正确,但其“文字墙”的形式也大大增加了审查者的阅读负担,降低了审查效率。
质量优先,无需例外: 许多人支持立即实施该政策,他们认为当前最紧迫的问题是应对大量低质量的 AI 生成内容。
“我们目前面临的问题不是有很多急需集成的 AI 工具,而是审查者正在被大量 AI 输出的贡献所困扰,而这些贡献的提交者对自己提交的内容缺乏足够理解。”
关于包容性的辩论: 有人提出,严格的政策可能会排斥那些希望借助 AI 做出贡献的非程序员。他们提出了一个“港口”模型,主张项目应建立一个流程来帮助“提炼”有价值但尚不完美的贡献,而不是像“堡垒”一样直接拒绝。
对“港口”模型的反驳: 另一些核心成员则强烈反驳,他们认为 LLVM 作为一个 foundational 的编译器项目,质量和稳定性是最高优先级。他们强调,LLVM 需要的是能够通过深入讨论来学习和成长的贡献者,而不是那些只想通过 AI 快速提交代码却不愿投入精力理解其背后原理的人。
“我们需要的是那些积累了经验、能够审查代码、并通过讨论学习和教导他人的贡献者。我们需要那些拥有多年与 LLVM 互动所培养出的良好品味的人。”
最终共识
尽管存在不同意见,但社区的普遍共识是,当前提出的“人类在环”政策是一个务实且必要的起点。它为维护者提供了抵制低质量贡献的有效工具,保障了项目的核心利益。大家同意先实施该政策,如果未来出现值得信赖的高度自动化工具,届时再对政策进行修订。