Synth Daily
奥特曼的道歉:OpenAI未能预警加拿大枪击案悲剧
OpenAI 的首席执行官山姆·奥特曼就其公司未能向加拿大警方预警一起致命枪击案凶手的网络行为而公开道歉。这起悲剧发生在不列颠哥伦比亚省的坦布勒里奇,一名18岁的青少年在被 OpenAI 封禁账户数月后,实施了大规模枪击,导致包括枪手本人在内的多人死亡。奥特曼在道歉信中向受害者社区表达了深切的哀悼,并承诺将与政府合作,审查并改进其预警机制,以防止未来发生类似的悲剧。然而,当地官员认为,尽管道歉是必要的,但对于遭受巨大创伤的家庭来说,这远远不够。
要点
- 1OpenAI 在枪击案发生前数月,已因“助长暴力活动”为由封禁了枪手的账户。
- 2尽管发现了危险信号,OpenAI 当时判断其行为未达到向执法部门报告的“门槛”,因此没有报警。
- 3枪击案造成8人死亡,25人受伤,枪手行凶后自杀,给社区带来了无法弥补的伤害。
- 4山姆·奥特曼向受害者社区发出公开信,表达了“深切的歉意”,并承诺将与各级政府合作防止悲剧重演。
视角
山姆·奥特曼 (OpenAI CEO)
“我深感抱歉,我们没有将去年六月被封禁的账户情况通报给执法部门……我无法想象世界上还有什么比失去一个孩子更糟糕的事情了。”
大卫·伊比 (不列颠哥伦比亚省省长)
这个道歉是“必要的,但对于坦布勒里奇家庭所遭受的毁灭性打击来说,却又远远不够”。
OpenAI (公司声明)
公司在审查后认为,该账户的活动虽然违反了使用政策,但当时并未达到需要向执法部门报告的门槛。
争议焦点
这起事件的核心争议在于科技公司在预防现实世界暴力中的责任边界。OpenAI 的决策过程暴露了一个关键难题:如何界定线上言论与线下暴力之间的“可信威胁”门槛?公司的内部标准显然未能阻止这场悲剧。
虽然 OpenAI 通过滥用行为检测系统识别出了用户的暴力倾向,但最终的结论是其活动“未达到向执法部门报告的门槛”。
这一判断不仅引发了公众对大型科技公司社会责任的质疑,也促使人们反思,现有的内容审核与预警机制是否足以应对人工智能时代可能出现的复杂风险。科技公司掌握着海量数据,其算法和决策直接影响公共安全,如何平衡用户隐私、言论自由与公共安全,成为一个亟待解决的挑战。
时间线
悲剧发生前后
- 1
去年6月
OpenAI 因用户杰西·范·鲁特塞拉尔的账户存在“助长暴力活动”的行为而将其封禁,但未向警方报告。
- 2
今年2月10日
范·鲁特塞拉尔在坦布勒里奇杀害了母亲和继弟后,前往当地中学开枪,再杀害6人并致25人受伤,最终自杀。
- 3
今年4月
事件发酵后,OpenAI 首席执行官山姆·奥特曼向社区公开发表道歉信,承认公司在预警上的失误。
Q&A
Q: 为什么 OpenAI 在发现危险信号后没有报警?
A: 根据 OpenAI 的说法,公司在去年6月确实识别并封禁了枪手的账户。然而,在当时进行的内部评估中,他们认为该用户的行为虽然违反了服务条款,但并未构成“对他人构成严重身体伤害的、可信或迫在眉睫的计划”,因此没有达到公司内部设定的向执法部门报告的“门槛”。这个标准显然未能有效预防悲剧的发生。
你知道吗?
这并非 OpenAI 首次面临与其产品相关的安全争议。公司目前正面临一起诉讼,指控 ChatGPT 在一名16岁青少年自杀前,曾在数月内“主动帮助”其探索自杀方法。这些事件共同凸显了 OpenAI 在平衡技术发展与安全伦理方面所面临的严峻挑战。
来源
 | 奥特曼道歉,OpenAI未能在加拿大致命枪击案前报警 |
 | Sam Altman 对未能提前通知警方预防大规模枪击事件表示“深感抱歉” |