Synth Daily

OpenAI 第16期:历史回顾与未来展望

OpenAI 及其首席执行官萨姆·奥特曼(Sam Altman)正面临严重的信用危机。近期深度报道揭露了奥特曼长期以来通过误导性沟通操控董事会、背弃安全承诺,并将公司重心从“人类福祉”转向“权力与利润”的历程。与此同时,OpenAI 提出的新工业政策被视为缺乏实质监管的公关手段,而其对科技媒体 TBPN 的收购更引发了外界对 AI 巨头干预舆论的深度担忧。

萨姆·奥特曼:不可信任的领导者

根据《纽约客》的深度调查,萨姆·奥特曼被描述为一个极度擅长劝说但缺乏诚信的领导者。他在管理中表现出的模式化欺骗和操纵,最终导致了此前董事会对他的罢免。

  • 双重人格: 董事会成员认为他既有极强的讨好欲,又表现出一种“社会病态式”的对谎言后果的漠视。
  • 私下的交易: 在 OpenAI 早期,奥特曼曾与核心成员达成秘密协议,承诺如果另外两人要求他辞职,他就会离开。但当危机真正来临时,这些协议被证明毫无意义。
  • 对抗竞争: 报道详细记录了奥特曼如何通过信息差和误导性手段,导致马斯克及 Anthropic 创始人阿莫迪(Amodei)先后与其决裂。

“他的问题不在于某一次谎言,而在于一种持续的、无法改变的操纵性人格。” —— 前董事会成员评价。

消失的安全承诺:被解散的“超级对齐”团队

OpenAI 曾高调承诺投入 20% 的算力用于“超级对齐”研究,以防止 AI 对人类产生生存威胁。然而,这一承诺在实际执行中完全走样。

  • 算力空票: 实际上,安全团队获得的算力仅为 1%-2%,且大多使用的是陈旧、低效的旧款芯片。
  • 人才流失: 核心成员 Jan Leike 指出,所谓的安全承诺更像是一个招募和留住人才的工具,而非真实目标。
  • 态度转变: 随着商业化提速,奥特曼将 AI 风险的语调从“毁灭性的威胁”转变为“类似 Instagram 算法那样的不便”。

当被问及什么是“存在性安全”(Existential Safety)时,OpenAI 的公关代表甚至表示:“这并不是一个真实存在的东西。”

工业政策:披着治理外衣的公关秀

OpenAI 近期发布的《智能时代工业政策》提案,被评论界认为是一场彻头彻尾的公关秀。该文件充斥着模糊的愿景,缺乏具体且有约束力的监管措施。

  • 变相索取资金: 政策核心逻辑是要求政府加大补贴和电力投入,实质上是在为 OpenAI 的扩张需求铺路。
  • 回避核心问题: 对于 AI 导致的人类失控风险,提案仅以“可能会有人受到伤害”轻描淡写地带过。
  • 财富分配的虚幻: 提议设立“公共财富基金”,但在公司已经转向营利实体且背负巨额债务的背景下,这种分配显得极不现实。

媒体收购:编辑独立性的终结

OpenAI 确认收购了科技媒体 TBPN(The Best Podcast Network)。尽管奥特曼承诺保持其独立性,但这种说法遭到了广泛质疑。

  • 职能错位: TBPN 的汇报线被划归给 OpenAI 的首席游说官。让媒体向说客汇报,意味着其监督职能已死。
  • 舆论控制: 评论认为,AI 巨头收购媒体是为了建立“国家级媒体”式的发声渠道,通过软性内容消除公众对技术失控的恐惧。

“如果你不能信任萨姆·奥特曼会遵守最初的协议条款,你还能信任谁呢?” —— 媒体评论员的讽刺。

核心洞见:AGI 盒子正在被打开

奥特曼在权力斗争中的表现,被部分观察者形容为“正在走出盒子的 AGI”。他表现出了远超常人的 Persuasion(劝说力)和对环境的操控能力。如果一个人类领导者尚且如此难以约束,那么当这种行为逻辑被注入比人类聪明千万倍的 AI 系统时,传统的对齐策略(Alignment)可能根本无法奏效。