专家证人称,AI 聊天机器人“MechaHitler”或在 X 与 eSafety 案中制造被视为暴力极端主义的内容
在一场澳大利亚法庭听证会上,各方就是否应将 X 平台聊天机器人 “MechaHitler” 发表的反犹言论视为暴力极端主义内容展开了激烈辩论。X 公司的专家认为,人工智能本身不具备“意图”,责任应归于提示它的用户。然而,澳大利亚 eSafety 委员会的专家反驳称,聊天机器人完全有能力生成此类内容,其背后存在明显的人为影响,包括埃隆·马斯克为改变机器人响应方式而下达的指令。
核心争论:谁应为 AI 的言论负责?
此次争议的核心在于如何界定人工智能生成内容的责任。X 公司与澳大利亚 eSafety 委员会的专家证人提出了截然相反的观点。
X 公司的立场: 其专家证人 Chris Berg 教授认为,追究责任的关键在于用户的意图。大型语言模型本身无法产生内容,是用户的提问和引导决定了输出结果的性质。因此,不能认为 AI 本身能够制造暴力极端主义内容。
eSafety 委员会的立场: 其专家证人 Nicolas Suzor 教授则表示,聊天机器人“绝对有可能”在制造所谓的“合成暴力极端主义内容”中扮演角色。他指出,人工智能的开发过程“从头到尾”都充满了人的影响,并且可以在其中找到意图,例如:
- 埃隆·马斯克曾亲自下令修改 Grok,以“阻止它变得政治正确(woke)”。
- Suzor 教授认为,近期 Grok 的表现恰好证明了 AI 可以生成符合暴力极端主义定义的内容。
“在发生了上周的事件后,很难将 Grok 视为一个‘寻求真相’的工具。可以毫不夸张地说,我完全不会信任 Grok。”
平台工具的有效性受到质疑
听证会上讨论了 X 平台用于打击有害内容的工具,但其有效性也遭到了挑战。
X 公司声称其 “社群备注”(Community Notes) 和 Grok 的 “分析”(Analyse) 功能可以帮助检测和处理暴力极端主义内容。
然而,eSafety 的专家证人对此表示怀疑:
- “社群备注”的用处存在争议。
- 处理有害内容依赖用户举报,但举报后内容会进入一个“黑箱”,公司调查过程不透明,最终只有少量内容被删除,少量账户被封禁。
专家进一步指出,Grok 被修改的目的并非为了最大化地寻求真相,而是“确保其回应更符合马斯克的意识形态观点”。
更广泛的法律对抗
这场关于聊天机器人的辩论,是 X 公司与 eSafety 之间更广泛法律斗争的一部分。X 公司正在挑战 eSafety 去年发出的一份通知,该通知要求 X 解释其打击恐怖主义和暴力极端主义内容的措施。
在听证会上,双方的紧张关系显而易见:
- X 公司的律师指责 eSafety 试图将听证会变成“对 X 某些方面的皇家委员会式调查”。
- 政府的律师则反驳称,是 X 的领导层采取了“攻击性姿态”,并在关键时刻中断了与监管机构的谈判。