Synth Daily

ChatGPT 的自我粉饰式乐观

OpenAI 正在重新定义其产品 ChatGPT 中的“客观性”,将其与一种内在的技术乐观主义相结合。这种做法并非追求中立,而是反映了公司为吸引用户和投资者而塑造的特定意识形态。与新闻、法律等传统行业不同,人工智能产品缺乏对客观性的社会责任和伦理约束,其输出也难以受到公众的集体监督。因此,公众需要积极关注并参与到客观性标准的塑造中,以避免科技巨头单方面影响我们的认知和价值观。

“客观性”背后的主观立场

OpenAI 在其“模型规范”中声称,其产品应“采取客观的观点”。然而,一次更新却悄悄加入了一段充满主观色彩的描述:

“它从人类的创新史中汲取灵感——进步和技术如何持续创造更多机会、富足和增长潜力——并努力在延续这一势头中发挥作用。”

这段话暴露出一种根深蒂固的 技术乐观主义。它并非中立地描述事实,而是采纳了一种特定的、有利于公司的世界观。这种做法并非是 OpenAI 在追求客观性上失败了,而更像是一种重新定义客观性运作方式的尝试,使其服务于商业目标。

  • 传统认知: 客观性意味着公正、不偏不倚地呈现事实。
  • OpenAI 的实践: 将客观性与一种积极、亲技术的立场捆绑在一起,这本质上是一种主观选择。

客观性的演变与职业责任

“客观性”本身不是一个永恒不变的概念,它随着历史和社会的发展而演变。

  • 启蒙运动时期: 自然学家认为自己是在发现上帝创造的、预先存在的知识。
  • 19 世纪: 随着对上帝权威的质疑,科学权威的重心转移到了机器(如相机、显微镜)和能够解读机器输出的 训练有素的专家
  • 20 世纪: 法律、历史和新闻等领域也开始强调专业判断的重要性。在这些领域,客观性是通过专业人士的集体判断和伦理约束来塑造的,并受到公众的监督。

“客观性不仅仅是一种行事方式,它是一种精神气质,如果你是科学家,你会为之献身。……这就是为什么将自己暴露在集体面前如此重要。”

这种职业精神与社会责任感是传统客观性概念的核心。从业者如果违背了这一原则,不仅会影响工作质量,还会损害个人和机构的声誉。

AI 的“客观性”:产品而非信条

与传统职业不同,AI 公司提出的客观性是一种产品特性,而非一种社会契约。

  • 缺乏社会契约: AI 公司没有像科学家或记者那样,受到 fostering a shared understanding of the world 的社会授权。它们的最终目标是为股东创造利润。
  • 难以集体监督: ChatGPT 的输出是通过数十亿次一对一的私人对话产生的,个别的客观性失误很难被公众发现和批判,除非造成了极其恶劣的后果。
  • 商业利益优先: 暴露其算法的内在缺陷或偏见会损害商业利益,因此公司缺乏接受集体批评的动力。

在 OpenAI 的模型规范中,“采取客观的观点”与“不要说谎”、“保持好奇心”等指令并列,并且可以被用户覆盖。这表明,客观性只是一个可选项,一种为了让顾客满意的“风格”,而不是一个不可动摇的核心原则。

灌输意识形态的风险

通过在其产品中嵌入亲技术的乐观主义,AI 公司正在利用其巨大的影响力来塑造公众舆论。研究表明,AI 聊天机器人能够显著改变人们的政治观点。

“我们正在看到,像这样的文件中,整个意识形态,以及关于人格和社会的非常具体的观念,是如何被设定为规范的——就好像它们只是表达了宇宙的基本结构一样。”

当 ChatGPT 被要求用十个词描述 AI 的未来时,它给出的回答是:“无处不在、自适应、变革性、智能、自主、协作、合乎道德、颠覆性、个性化、强大。”这个回答完全忽略了任何潜在的负面后果,完美体现了其被植入的 “理性乐观” 偏见。

最终,客观性的定义权不能完全交给科技公司。它像过去一样,需要成为当权机构与我们其他人之间不断协商的领域。公众必须参与进来,通过讨论和批判来共同塑造这个概念,否则我们的认知和价值观将被少数人的商业利益所左右。