Synth Daily

吹哨人爆料:Meta 和 TikTok 放任有害内容上位,只为拉高互动率

社交媒体巨头为了争夺用户注意力,正在进行一场牺牲用户安全的“算法军备竞赛”。多位内部举报者揭露,Meta 和 TikTok 为了应对竞争和拉高股价,蓄意放宽了对仇恨言论、阴谋论等“边缘有害内容”的算法限制。这些平台明知这类内容会引发愤怒并刺激互动,却在资源分配上向增长倾斜,而非保护用户。举报者警告,这种利润驱动的模式正在加剧社会分裂,甚至导致青少年被算法“激进化”。

利润驱动下的“安全让步”

在 TikTok 的爆发式增长压力下,Meta 等竞争对手选择了降低安全门槛以换取留存率。举报者提供的数据和证词描绘了一个利润高于福祉的企业环境:

  • Meta 的权衡: 为了追赶 TikTok 并在短期内提升收入,Meta 曾指示工程师放宽对“边缘有害内容”的限制。一名工程师坦言:“管理层告诉我们,这是因为公司股价下跌了。”
  • 资源错配: 在推出 Instagram Reels 时,Meta 投入了 700 名员工 负责业务增长,却拒绝为负责儿童安全和选举诚信的团队增加区区 10 几名专员。
  • 故意忽略: 内部研究显示,Instagram Reels 上的霸凌、骚扰和暴力内容比例远高于主信息流,但安全建议往往因会阻碍“互动率”而无法推行。

TikTok:政治关系高于儿童安全

尽管 TikTok 在公开场合强调用户保护,但内部投诉处理机制却揭示了截然不同的优先级:

  • 优先保护政客: 内部仪表盘显示,TikTok 优先处理涉及政治人物的投诉(即使只是被嘲讽),却将涉及未成年人受性勒索、人口贩卖和恐怖主义的严重举报设为较低优先级。
  • 规避监管: 这种优先级的设定旨在通过维护与政治人物的关系,来降低平台被封禁或受规避监管的风险。
  • 员工的绝望告诫: 一名负责安全审核的员工对家长给出了直接的建议: > “删掉它。让孩子尽可能长时间地远离这个 App。”

算法黑箱与“激进化”陷阱

算法的设计逻辑并非为了传播真相,而是为了最大化用户在线时长。

  • “快餐式”投喂: 内部文档指出,算法默认用户喜欢那些能引发愤怒的内容。Facebook 内部研究承认:“我们可以选择不作为,继续给用户喂‘快餐’,但这长久不了。”
  • 工程师的盲区: 负责推荐引擎的工程师表示,他们眼中的内容只是一个“ID数字”,他们并不关心内容的具体性质,只关心加速算法。
  • 现实伤害: 19 岁的 Calum 描述了自己从 14 岁起如何被算法“激进化”,不断被推送令其愤怒的种族主义和仇女内容,导致其现实价值观被彻底扭曲。

核心洞见

  • “边缘内容”是留存利器: 处于违规边缘的内容(如歧视、阴谋论)往往互动率最高,平台因贪恋流量而不愿将其彻底屏蔽。
  • 激励机制错位: 算法的财务激励与“连接世界”的企业使命完全背离,目前系统本质上在奖励那些损害观众福祉的行为。
  • 安全团队的弱势: 在社交媒体公司内部,负责增长的团队拥有绝对话语权,而安全团队的建议常被视为业务增长的“绊脚石”。

“没有人说你要对社会所有的极化现象负责。我们只是说你参与其中了,而且是以一种原本可以避免的方式在推波助澜。” —— 前 Crowdtangle 创始人 Brandon Silverman