Synth Daily

OpenAI核心的矛盾

OpenAI 最近完成的大规模重组引发了深刻的治理危机:它正试图从纯粹的非营利组织转变为以营利为核心的商业实体。尽管公司宣称成立了管理 1800 亿美元资产的基金会以“造福人类”,但批评者指出,这种结构不仅涉嫌违反加州非营利组织法律,更将非营利使命变成了营利部门追逐利润的“遮羞布”。核心结论认为,OpenAI 的独立监督机制已经名存实亡,其发展方向正由投资者意志主导,而非其最初承诺的公共安全与利益。

理想与现实的断裂

OpenAI 成立之初的愿景是建立一个不受投资者控制的非营利组织,以防止危险技术被资本利用。然而,当前的重组彻底推翻了这一基石:

  • 从“非营利”到“营利主导”: 虽然名义上保留了非营利部分,但实质上已经演变为一个追求利润最大化的标准科技巨头。
  • 关闭 Sora 应用: 在重组过程中,OpenAI 关闭了其视频生成应用 Sora,显示出业务重心的重大调整。
  • 管理 1800 亿美元的“空壳”: 新成立的 OpenAI 基金会虽然资金规模惊人,但被质疑缺乏真正的独立性和监督权。

法律层面的“公然违法”

技术权益专家 Catherine Bracy 指出,OpenAI 目前的运作方式极可能触犯了加州的法律底线:

  • 使命优先权丧失: 法律要求非营利组织必须将“公共服务”置于首位。但在实际操作中,OpenAI 显然将“赢得 AI 竞赛”和投资者回报置于其原始使命之上
  • 知识产权的违规转移: 非营利组织原本拥有的核心技术产权(如 ChatGPT 的底层模型)在未进行彻底资产剥离的情况下被营利部门使用,这在法律上是站不住脚的。
  • 对监管的博弈: OpenAI 似乎在赌加州总检察长不会对其发起漫长且艰难的诉讼,试图通过“大而不倒”的姿态来逃避监管。

“OpenAI 存在的每一天基本上都在违反法律。他们指望我们相信,在与国防部合作开发武器系统的同时,他们依然在优先考虑非营利使命。”

“花瓶”化的社会责任

文章深入探讨了 OpenAI 基金会存在的利益冲突,认为它更像是一个公关工具(PR Tool)而非监管机构:

  • 缺乏独立性的科学研究: 如果基金会资助的研究发现竞争对手(如 Anthropic)的模型更有效,它是否有胆量公布?这种利益冲突使得其资助的科研可信度大打折扣,正如我们不信任烟草公司资助的吸烟健康研究一样。
  • 沦为市场营销手段: 所谓的“社区资助”和“造福人类”的项目,本质上是在通过公益之名推广 AI 的使用,为公司拓展未来的市场。
  • 与 Google.org 模式趋同: 批评者认为,它将变得像 Google 等巨头的企业社会责任部门一样,只做一些无关痛痒的好事,绝不会做任何损害公司核心利益的事情

核心洞见:AI 的未来不应由少数人决定

  • AI 的发展并非不可避免: 我们不应该盲目接受科技公司关于“这是为了人类好”的辩解。
  • 公众参与的缺失: 当前的 AI 治理权高度集中在少数亿万富翁和投资者手中,民主监督的力量在这一过程中被极度削弱。
  • 行动的必要性: 修复民主机制对科技巨头的制衡,比坐以待毙、等待资本家控制未来更重要。

简而言之,OpenAI 已经从一个致力于保护人类免受 AI 威胁的守望者,变成了一家为了赢球不惜破坏自己规则的商业竞赛参与者。