Python 字符编码检测库 chardet 的维护者利用 AI 工具 Claude Code 重写了全部代码,并借此将许可证从限制较严的 LGPL 改为宽松的 MIT。这一举动引发了原作者的强烈抗议,指责其违反了开源许可协议。由于 AI 在重写过程中“阅读”了原代码,这打破了传统的“清洁室”开发原则。与此同时,美国法院关于“AI 生成内容不受版权保护”的裁定,让这段新代码的法律地位陷入了既无法维权也可能属于公认领域的混乱境地。如果这种“AI 洗码”被认可,现有的开源授权体系(特别是 Copyleft 模式)将面临崩溃风险。
AI 重写引发的许可所有权争议
长期以来,更改开源项目的许可证极度困难,通常需要所有贡献者的合意。chardet 维护者尝试通过 AI 全面重写来绕过这一限制,但这遭到了原作者 a2mark 的直接反击:
修改后的授权代码必须在相同的 LGPL 许可下发布。他们声称这是“完全重写”是无关紧要的,因为他们充分接触了原有的授权代码。在其中加入一个高级代码生成器并不能给他们带来任何额外权利。
“清洁室”原则的失效
在传统法律框架下,为了证明新代码没有抄袭旧代码,通常采用清洁室(Clean Room)重写流程:
- A 组人员: 研究原代码,编写功能规格说明书。
- B 组人员: 在从未接触过原代码的情况下,仅根据规格说明书编写新代码。
但在本次事件中,维护者直接将原有的 LGPL 代码喂给了 AI。这意味着 AI 充当了连接两端的桥梁,打破了必要的隔离。如果 AI 是基于 LGPL 代码生成的输出,那么结果在法律上极有可能被视为衍生作品,必须继续沿用 LGPL 许可。
法律悖论:AI 代码到底属于谁?
近期美国最高法院维持了“版权保护必须有人类作者”的原则,这给 chardet 的新版本制造了一个法律死循环:
- 版权真空: 如果 AI 生成的代码不受版权保护,维护者可能根本没有法律地位将其许可为 MIT。
- 衍生陷阱: 如果 AI 输出被认定为原 LGPL 代码的衍生品,那么这次“重写”就是侵权行为。
- 所有权虚无: 如果代码被视为机器创造的“新”作品,它可能在生成的瞬间就进入了公有领域,MIT 许可因此失去意义。
对开源生态的潜在威胁
如果“AI 重写”被社会和法律接受为一种合法的换牌手段,这可能意味着 Copyleft(著佐权)模式的终结。
任何开发者都可以将 GPL 许可的项目输入大模型,通过“换一种风格重写”的指令,将其转变为 MIT 等宽松许可重新发布。这不仅挑战了开源软件的伦理底线,也可能从根源上摧毁保护开发者权利的法律工具。chardet v7.0.0 案例已成为 AI 时代开源规则的第一块试金石。