美国最高法院一方面赋予政府极大的经济监管权,另一方面对言论自由提供了极强的宪法保护。由于大型语言模型(LLM)的核心产出是文字和语言,这在法律层面应当被视为“言论”而非单纯的“工业产品”。如果法院遵循既有的法律逻辑,现有的言论自由判例将成为 AI 行业的强大护盾,使政府的监管难以成立。然而,最高法院在未来判决中是否能保持逻辑一致性,依然是法律界关注的悬念。
经济监管与言论自由的对垒
自“新政”以来,美国政府在经济领域的监管权力几乎不受限制。但在言论自由领域,情况截然不同:
- 经济层面: 1942年的 Wickard v. Filburn 案确立了政府对州际贸易的广泛干预权。如果单纯将 AI 视为一种“产业”,政府可以轻易对其进行限制。
- 言论层面: 宪法对表达自由的保护处于历史高位。1969年,法院将监管标准提升至“迫在眉睫的非法行为”测试,这意味着除非言论会立即引发犯罪,否则政府无权干涉。
- 先例参考: 1973年的 Miller v. California 案甚至让饱受争议的内容也获得了宪法保护。这表明,即便某项技术产出的内容不被大众喜爱,它依然享有极高的法律防御。
AI 的本质:它是语言,而非单纯的工具
大型语言模型(LLM)的缩写已经揭示了其本质:它们是语言模型。
- 产出即言论: AI 行业的主要产出是文字、图像和视频,这些在宪法框架下都属于高度受保护的表达形式。
- 监管的非法性: 一旦承认 AI 的输出是言论,政府对 AI 的监管在法律上就会变得极其困难。
- 法律地位: 从法律逻辑上看,政府没有权力像监管普通商品那样监管 AI,正如它不能随意监管《纽约时报》一样。
只要承认 AI 的输出是言论,那么对 AI 的绝大部分监管从法律角度来看都是违宪的。
现实挑战:法律逻辑与政治现实
尽管法律原理上 AI 应当受到保护,但实际预测中仍存在变数:
- “迫在眉睫”的门槛: 即使是 AI 威胁论者也必须承认,目前的 AI 风险远未达到法律定义的“迫在眉睫”的程度。
- 法院的连贯性: 专家们普遍认为,除非通过专门的宪法修正案,否则政府很难合法地限制 AI。
- SCOTUS 的变数: 尽管法学专家们认为 AI 应该受言论自由保护,但最高法院(SCOTUS)在面临此类新技术的重大挑战时,是否会为了政府利益而牺牲法律一致性,目前仍无定论。
核心结论: 现有的宪法解释体系为 AI 建立了一道厚重的言论自由防火墙。除非司法逻辑发生剧变,否则任何试图限制 AI 发展的政府行为都将面临严苛的宪法审查。