Synth Daily

Roblox 只是问题表象,更糟糕的病根还在后面

Roblox CEO David Baszucki 在一次访谈中对儿童安全问题表现出不耐烦,这一态度揭示了科技行业一个更深层次的系统性问题。许多科技巨头,包括 Meta 和 TikTok,都存在类似模式:为了追求用户增长而系统性地忽视平台安全,即便内部员工早已发出警告。如今,公众和监管的压力似乎正在减弱,这些公司更倾向于否认和推卸责任,导致儿童等弱势用户群体的安全问题难以得到根本解决。

熟悉的漠视态度

Roblox CEO 在被问及平台的儿童安全问题时,其轻蔑和恼怒的态度并非个例,而是科技行业高管面对批评时的常见反应。他们倾向于淡化问题的严重性、归咎于平台规模巨大,或试图转移话题。

尽管 Roblox 声称每年投入数亿美元用于安全,但其长期存在的安全漏洞却十分明显:

  • 联系无限制: 在平台历史的大部分时间里,成年人可以自由地联系和发送消息给任何未成年用户。
  • 年龄验证缺失: 长期缺乏有效的年龄验证,任何儿童都可以谎报年龄为13岁以上,以绕过内容限制。
  • 过滤系统易被绕过: 用于屏蔽不当聊天和个人信息的过滤器,通过简单的拼写变体就能轻松规避。
  • 家长控制形同虚设: 儿童只需创建一个声称自己年满13岁的新账户,就能绕过家长控制。

这些设计上的选择,本质上是在用户增长儿童安全之间做出了取舍。如果公司优先考虑儿童的最佳利益,本可以很早就采取更严格的措施,例如默认阻止成年人与未成年人无限制联系,或在法规强制之前就引入年龄验证。

自2018年以来,仅在美国就有至少二十几人因在 Roblox 上结识并侵害受害者而被捕。同时,已有超过35个家庭就儿童受害问题对该公司提起了诉讼。

增长优先于安全:一个行业通病

Roblox 的问题只是冰山一角,这种将增长置于安全之上的文化在整个科技行业普遍存在。当面临潜在危害时,这些平台的反应模式惊人地一致:拖延、否认、转移视线

  • Meta (Facebook/Instagram): 新的法庭文件指控,该公司“出于对增长的担忧,多年来一直拖延阻止儿童掠夺者联系未成年人的内部努力”。内部员工早已意识到产品的成瘾性以及对青少年心理健康的负面影响,并将其比作烟草公司的行为。
  • TikTok: 面对短视频损害儿童学业表现的担忧,其解决方案是推出更多的应用内“数字健康功能”,这反而可能鼓励用户在应用上花费更多时间。
  • OpenAI: 公司发现,让其AI模型不那么“谄媚”会损害用户参与度,于是便着手开发新功能,试图将参与度调回高位。

在这些公司内部,敢于发声的员工往往被边缘化。一名 Meta 员工在公司决定不公布其产品对心理健康负面影响的研究时,发出了这样的警告:

“如果结果很糟糕,我们不发表,然后信息泄露了……这会不会看起来像烟草公司做了研究,知道香烟有害,然后把信息自己藏起来?”

然而,这些警告一再被高层忽视。

失效的问责机制

曾经,来自公众、立法者和媒体的压力是促使科技平台做出改变的有效工具。在2017年左右的科技行业反思浪潮中,平台确实在内容审核、网络安全等方面进行了有意义的投资。

但如今,这种制衡似乎正在失效。平台对外界的批评表现出越来越强的蔑视和抵制。羞耻感,这个曾经约束高管行为的强大社会规范,几乎已经消失。取而代之的是否认、挑衅和迎合投资者。

平台希望人们只根据其宣称的意图来评判它们,而几乎从不根据其产品对用户产生的实际后果来评判。

当下的危险在于,科技平台正一边兜售着愈发天马行空的未来愿景,一边却对管理好当下、解决其产品造成的现实伤害显得兴趣寥寥。Baszucki 的访谈之所以引人注目,是因为它再次提醒我们,这种漠视责任的态度在科技行业的领导层中是多么普遍。