Synth Daily

AI 链接,2026年5月12日

本文探讨了人工智能(AI)对信息消费、公众认知及社会监管带来的多方面影响。核心观点认为,AI 正将信息来源从分散的网络引向更集中的模式,同时公众对 AI 的错误持有不合理的“零容忍”双重标准。文章指出,AI 产业正经历爆炸式增长,其能力和改进速度都在加速。在监管方面,真正的风险并非来自 AI 本身,而是来自可能滥用技术的人类,因此需要建立独立的监督机构来制衡政府的监控权力。

AI 正在改变信息消费模式

人们对信息消费的方式正在发生结构性变化。越来越多的人可能正用 AI 的答案,来替代过去从分散、多元的网络信息源中获取信息的方式。

  • 信息集中化:这种转变可能导致我们未来的信息环境,无论好坏,都更倾向于一种 经过中心化筛选的视角

  • 趋同性答案:在训练过程中,AI 模型被刻意引导,使其回答与主流专家共识保持一致,并避免采纳边缘观点。这进一步强化了信息的集中化趋势。

我们对 AI 过于苛刻

人们在评判 AI 和人类时,存在明显的双重标准。

当 AI 产生幻觉时,我们说:“看,你不能相信 AI。”但我们对人类却不这样。当我们信任的人偶尔犯错时,我们会用“人非圣贤,孰能无过”来为他们开脱。

这种对 AI 要求完美,却对人类错误予以宽容的心态,扭曲了我们对 AI 价值、风险和应用的客观评估。自动驾驶汽车的例子也说明了这一点:人们总在问“自动驾驶汽车是否会出事故?”,而不是“自动驾驶汽车和人类司机谁出的事故更多?”。这种对机器“犯一次错就会永远犯错”的认知,可能并非理性。

AI 产业的爆炸式增长

AI 公司的收入和模型能力正以惊人的速度增长,这预示着未来的变化将比现在更加迅猛。

  • 收入爆炸:OpenAI 的年收入在 2025 年间从 55 亿美元猛增至 214 亿美元。Anthropic 的收入增长率甚至超过了麦当劳、万事达卡等巨头。

  • 能力加速提升:AI 模型不仅在变得更好,它们 “变得更好”的速度也在加快。甚至,“‘变得更好’的速度加快”这个过程本身也在加速。

当前这种令人眩晕的变化速度,很可能是我们未来将见到的最慢速度。

关于监管与风险的思考

虽然有人主张监管 AI 以应对其潜在的灾难性风险,但真正的风险源头更值得关注。

  • 风险源于人类真正的灾难性风险来自作恶的人,AI 只是可能增强他们能力的工具。因此,问题的核心不在于“AI 带来的风险”,而在于“人类带来的风险”。

  • 以监督制衡监督:防止风险的最佳方式可能是监视(surveillance)。但为了防止政府滥用监控权力,必须建立一个独立的“监视审计机构”(Surveillance Auditor)。这个机构负责审查情报部门等机构是否在有效利用监视工具的同时,没有侵犯公民权利。这虽非完美方案,但在所有糟糕的选项中,它可能是第二差的选择。