Waymo 自动驾驶汽车在奥斯汀多次因无法正确识别并避让校车,引发了严重的交通违规与安全隐患。尽管 Waymo 进行了软件更新、联邦召回,甚至与当地学区合作进行专门的数据采集,但系统依然未能彻底解决该问题。这一事件揭示了自动驾驶技术在处理特定交通规则和复杂边缘场景(如校车停靠信号)时的巨大挑战,即 AI 难以有效掌握人类司机视作常识的“驾驶例外”。
频发的安全违规与法律风险
在德克萨斯州奥斯汀市,Waymo 的自动驾驶车辆在数月内多次出现严重驾驶错误。根据奥斯汀独立学区(AISD)的记录:
- 19 次违法超车: 车辆在校车红灯闪烁且停止臂展开的情况下,未按法律要求完全停车,而是直接超越。
- 危及学生安全: 某次事故中,Waymo 车辆在一名学生刚刚横穿马路后仅数秒便加速驶过,当时学生仍处于路面上。
- 修复未果: 在 Waymo 向学区保证已更新软件后,依然发生了 5 起类似的违规行为。
失败的“补课”:停车场数据采集
为了解决这一技术盲点,Waymo 曾尝试与学区进行深度合作。他们组织了一场为期半天的数据采集活动,学区动用了 7 辆涵盖所有型号的校车配合。
- 采集重点: 重点测试车辆在不同距离下识别校车黄色与红色信号灯的能力。
- 结果: 尽管 Waymo 声称拿到了所需数据,但仅仅一个月后,违规超车事件再次上演。
- 专家质疑: 专家认为在停车场这种受控环境下生成的数据不足以应对复杂的现实交通逻辑。软件的迭代和学习过程往往需要数周甚至数月,远比预想的慢。
技术瓶颈:为何 AI 识别不了校车?
自动驾驶系统在处理校车场景时面临几个核心技术难点:
- 传感器盲点: 现有的自动驾驶软件长期以来在识别闪烁的紧急灯光和细长机械臂(如校车停止臂、道闸)方面表现不佳。
- 语义理解困境: 对于 AI 来说,路口的停止牌、工人手持的停止牌以及校车上的停止牌,其背后的驾驶含义有着微妙的区别,它很难理解这些不同上下文中的特定规则。
- 人为干预错误: 1 月份的一起事故显示,Waymo 的远程辅助人员竟然错误地告知软件前方校车没有开启信号灯,导致自动驾驶车辆违规超车。
核心洞见:攻克“最后 1%”的难题
这一事件反映了自动驾驶行业目前面临的普遍困局:
训练软件在 99% 的时间内安全行驶是相对容易的,但最后 1% 的例外场景才是真正的挑战。
- 人类司机会学习,AI 却不一定: 统计显示,98% 的人类司机在收到一次违规处罚后不会再犯,但 Waymo 的系统在经历召回和更新后依然重复犯错。
- 学习的局限性: 自动驾驶公司宣称车辆可以从整个车队的集体经验中学习,但实际情况表明,这种“经验分享”在处理极其复杂的交通规则时效率极低。
总结而言,在 AI 能够证明自己可以 100% 正确识别校车并保障学生安全之前,让其在学校区域运行依然存在巨大的法律和伦理风险。