法庭文件指控 Meta 低估儿童风险并误导公众

法庭文件揭露,Meta 被指控为了追求用户增长和利润,系统性地将商业利益置于儿童安全之上。诉讼方指控 Meta 故意隐瞒其产品对青少年心理健康造成伤害的内部研究,对平台上的性交易内容采取高容忍政策,并向公众和国会谎报其对风险的了解程度。核心论点是,尽管 Meta 内部早已意识到其产品具有成瘾性和危险性,但高层管理人员却一再阻止和推迟关键安全功能的实施,导致大量未成年人遭受有害内容和不当接触的侵害。

对有害内容的高容忍度

诉讼文件指控 Meta 对平台上的严重违规内容,尤其是性交易和儿童性虐待内容,采取了令人震惊的宽松政策,并且未能提供有效的举报渠道。

    • 高门槛封号政策: 内部证词显示,对于涉嫌性交易的账户,Meta 曾采取“17次违规才封号”的政策。一名前安全主管称,这一标准在行业内“非常、非常高”。
    • 举报渠道缺失: 尽管平台声称对儿童性虐待内容“零容忍”,但却没有为用户提供直接举报此类内容的简便途径,而举报垃圾邮件等问题却很简单。

“Meta 从未告诉家长、公众或学区,它不会删除那些从事了超过十五次性交易的账户。”

故意隐瞒事实并误导国会

Meta 被指控不仅知晓其产品对青少年的负面影响,还刻意向立法者隐瞒了这些发现。

    • 停止负面研究: 2019年,一项内部“停用研究”发现,停止使用 Facebook 和 Instagram 一周的用户,其焦虑和抑郁水平有所下降。Meta 随后以研究存在偏见为由叫停了该项目,并未公布结果
    • 向国会撒谎: 2020年,当参议院司法委员会书面询问其平台使用率与青少年抑郁、焦虑之间是否存在关联时,Meta 的回答只有一个词:“没有”。

一名员工对公司隐瞒研究结果的做法表示担忧,并将其与烟草公司的行为相提并论:

“如果结果是坏的,我们不发表,然后它泄露出去了,这会不会看起来像烟草公司做研究,知道香烟有害,然后把信息自己藏起来?”

延误安全措施,将增长置于首位

为了维持用户增长和参与度,Meta 多年抵制和推迟实施重要的青少年安全保护措施,即使这些措施已在内部被反复建议。

    • 推迟默认私密账户: 尽管内部研究人员早在 2019 年就建议将所有青少年账户默认设置为私密,但增长团队预测这会导致每年损失150万活跃青少年用户,因此该功能被推迟多年。直到 2024 年,这项功能才全面推出。
    • 助长不当互动: 在推迟安全设置的四年里,青少年用户经历了数十亿次与陌生人的不必要互动。内部审计发现,Instagram 的“你可能认识的人”功能在一天之内就向青少年推荐了140万个潜在的不当成人账户

积极吸引低龄用户

文件指控 Meta 将吸引和留住年轻用户作为其核心业务目标,甚至包括了那些低于其平台规定年龄的儿童。

    • 将青少年视为关键任务: CEO 马克·扎克伯格曾提出将“青少年使用时长”作为首要目标。2024 年的内部文件仍然指出,“获取新的青少年用户对 Instagram 的成功至关重要”。
    • 针对13岁以下儿童: Meta 被指控研究“5-10岁”用户的心理和行为,并探索为他们设计产品。内部数据显示,平台上有数百万13岁以下的用户。

一名员工对此策略感到厌恶,写道:

“哦好的,我们现在要去追逐<13岁的孩子了?……这感觉就像几十年前(和今天)的烟草公司。我们好像在说‘我们必须趁他们年轻时把他们钩住’。”

为指标牺牲心理健康功能

Meta 被指控曾开发旨在减轻青少年心理健康压力的功能,但最终因担心影响收入和用户指标而放弃或削弱了这些功能。

    • 放弃“隐藏点赞”: 一项名为“雏菊计划”的举措旨在通过隐藏点赞数来减少用户的社交比较压力。然而,在测试发现该功能对 Facebook 的指标(包括广告收入)“非常不利” 后,公司最终放弃了全面推行。
    • 恢复“美颜滤镜”: 公司曾因美颜滤镜加剧身体焦虑而禁用它们,但在发现禁令会产生“负面的增长影响”后,于第二年恢复了该功能。

未能有效移除有害内容

即使 Meta 的人工智能系统能够高精度识别违反政策的内容,公司也未能自动将其删除,导致大量有害内容在平台上流传。

    • 高确定性仍不删除: 即使人工智能以 100% 的置信度识别出儿童性虐待或饮食失调内容,这些内容也不会被自动删除,仍需人工审核。
    • 自残内容泛滥: 对于美化自残的内容,只有当AI的确定性超过94%时才会被自动删除,导致大量此类内容留存在平台上,被青少年看到。