Sam Altman 认为,社交媒体正变得越来越“虚假”,因为机器人和人工智能生成的内容泛滥,使得人们难以区分真实的人类互动和 AI 的模仿。他指出,这种虚假感源于多种因素的叠加:人类开始模仿大语言模型(LLM)的说话方式、社交平台为追求参与度而形成的优化压力,以及来自竞争对手的“水军”行为。尽管 Altman 的公司 OpenAI 正是这项技术的引领者,并且其模型在 Reddit 数据上进行过训练,他仍然对社交媒体的真实性提出了质疑,这也引发了外界关于这可能是为其未来社交产品铺路的猜测。
社交媒体的“虚假”感
Sam Altman 在浏览一个 Reddit 子版块时,发现大量帖子都在称赞 OpenAI 的产品 Codex。尽管他知道产品的增长数据是真实的,但他仍然本能地怀疑这些帖子的真实性。
“我有一种奇怪的体验:我假设这一切都是假的/机器人,尽管在这种情况下,我知道 codex 的增长确实很强劲,这里的趋势是真实的。”
这种感觉的核心在于,当 AI 生成的内容与人类的表达方式变得难以区分时,信任的基础开始动摇。即便是真实的、积极的趋势,在充满机器人的环境中也会显得可疑。
是什么导致了这种“虚假”?
Altman 认为,当前的状况并非由单一原因造成,而是多种因素共同作用的结果。
- 人类模仿 AI: 一个讽刺的现象是,尽管 LLM 的初衷是模仿人类沟通,但现在许多真实的人类用户反过来采纳了 LLM 特有的“语言怪癖”。
- 平台优化压力: 社交媒体平台和内容创作者的盈利模式严重依赖于“参与度”。这种压力导致内容趋向于最能激发互动的形式,而不是最真实或最有价值的形式。
- 网络群体的趋同性: 深度网络用户群体的思维和表达方式高度相关,容易形成一种看起来像机器人协调行动的回声室效应。
- 竞争对手的“水军”: Altman 坦言,由于 OpenAI 曾被竞争对手的“水军”(Astroturfing)攻击过,他对类似现象变得格外敏感。
一个普遍存在的问题
这种“虚假”感并非 Altman 的个人错觉,而是整个互联网面临的挑战。随着 LLM 技术的发展,AI 不仅影响了社交媒体,也渗透到了教育、新闻甚至法律领域。
- 数据安全公司 Imperva 的报告指出,2024 年超过一半的互联网流量来自非人类,其中大部分由 LLM 驱动。
- 根据估算,仅 X(推特)平台上就可能存在数亿个机器人账户。
讽刺的是,正是以 OpenAI 为代表的公司所推动的技术,加剧了这个问题。当 AI 的写作能力越来越强时,它也成为了污染信息环境的工具。
未来的猜测
一些评论者认为,Altman 公开表达对社交媒体真实性的担忧,可能并非偶然。有报道称 OpenAI 正在初期阶段探索一个自己的社交媒体平台项目,旨在与 X 和 Facebook 竞争。
因此,他的言论可能是一种营销策略,旨在强调现有社交平台的缺陷,从而为 OpenAI 未来可能推出的、旨在解决“虚假”问题的新产品铺平道路。