全球呼吁为AI划定红线,国际AI政策缺失引发警钟
超过200位前国家元首、诺贝尔奖得主及人工智能领域的领袖共同签署了一项全球倡议,呼吁各国政府在2026年底前就AI的“红线”达成国际协议。该倡议旨在主动防范AI可能带来的大规模、不可逆转的风险,例如禁止AI冒充人类或自我复制,并强调需要建立一个有实际约束力的全球机构来定义、监督和执行这些规则,而不是依赖企业自愿的承诺。
全球呼吁划定AI“红线”
一项名为“AI红线全球倡议”的行动获得了广泛支持,呼吁各国政府就人工智能(AI)绝不能跨越的界限达成国际共识。
- 核心目标: 在 2026年底前 达成一项关于AI“红线”的国际政治协议。
- 关键人物: 签署者包括计算机科学家杰弗里·辛顿(Geoffrey Hinton)、OpenAI联合创始人沃伊切赫·扎伦巴(Wojciech Zaremba)等顶尖专家。
- 倡议内容: 明确禁止某些AI行为,例如 禁止AI冒充人类 或进行 自我复制。
“如果各国还不能就他们想用AI做什么达成一致,他们至少必须就AI绝不能做什么达成一致。”
主动预防,而非事后补救
该倡议的核心思想是在重大事故发生前采取行动,而不是被动应对。其目标是预防那些大规模且可能无法挽回的风险。
尽管目前存在一些区域性的AI规则,如欧盟的《AI法案》和中美之间关于核武器控制的协议,但全球范围内尚未形成统一共识。
企业自律远远不够
倡议者认为,仅仅依靠AI公司内部的“自愿承诺”或责任政策是不足以实现有效监管的。
- 当前缺陷: 企业自愿制定的政策 缺乏真正的执行力。
- 未来方向: 最终需要一个独立的、“有牙齿”(有实际约束力)的全球机构来定义、监督和执行这些红线。
安全与创新并不矛盾
有观点认为,严格的监管会阻碍经济发展和技术创新。然而,加州大学伯克利分校的教授斯图尔特·罗素(Stuart Russell)对此表示反对。
“就像核电开发商在知道如何防止核电站爆炸之前不会去建造它一样,AI行业也必须选择一条不同的技术路径,一条从一开始就内置安全性的路径。”
他强调,发展用于经济和社会的有益AI,与开发我们无法控制的通用人工智能(AGI)是两码事。认为“想要医疗诊断就必须接受毁灭世界的AGI”的说法,在他看来是“胡说八道”。