Synth Daily

特斯拉FSD表现好是它的功劳,出问题却要你背锅

特斯拉的全自动驾驶(FSD)系统在宣传上表现出一种矛盾:当系统运行良好时,功劳归于技术;一旦发生事故,责任则往往推给驾驶员。尽管名为“全自动驾驶”,但它仍是SAE二级辅助驾驶系统,要求驾驶员时刻保持专注并随时准备接管。然而,特斯拉首席执行官最近表示可能允许驾驶时分心,这一转变或将削弱公司以往的免责说辞,使其在未来的法律纠纷中面临更大的责任。

功劳归特斯拉,责任归驾驶员

特斯拉长期以来的模式是,为 FSD 软件的成功邀功,同时又在出现问题时将责任归咎于驾驶员。尽管 FSD 和 Autopilot 承诺最终实现完全自动驾驶,但目前它们仍属于 SAE 二级驾驶辅助系统

  • 二级系统定义:驾驶员必须始终保持注意力,并对车辆的所有行为负最终责任。
  • 特斯拉的宣传:公司不断宣称 FSD 将在短期内实现完全自动驾驶,这种宣传让许多用户误以为车辆可以“自己开”。
  • 现实情况:驾驶员必须坐在驾驶位,时刻关注路况,并随时准备接管车辆。

这就形成了一种矛盾:当 FSD 表现出色时,特斯拉会将其作为技术优越性的证明。但当事故发生时,特斯拉则强调这是二级系统,驾驶员应负全责

对自动驾驶等级的简单说明

为了理解责任划分,了解 SAE 自动驾驶等级至关重要。

  • 0-2 级:驾驶员对车辆负全部责任。特斯拉的 Autopilot 和 FSD 目前均属于 2 级
  • 3 级:在特定条件下,车辆可以负责驾驶。例如,奔驰的 DRIVE PILOT 系统。
  • 4-5 级:在特定或所有条件下,车辆完全负责驾驶,无需人类干预。例如,Waymo 的无人驾驶出租车属于 4 级

尽管马斯克承诺 FSD 最终将达到 5 级(例如,让汽车从纽约自动开到洛杉矶),但目前所有已发布的版本都停留在 2 级。

特斯拉如何利用数据

特斯拉经常发布数据,声称其 FSD 系统比人类驾驶更安全,事故间隔里程更长。然而,这些数据存在一些问题:

  • 缺乏独立验证:数据由特斯拉单方面提供,未经第三方机构进行严谨的科学研究。
  • 数据经过筛选:这些安全数据是在 人类驾驶员随时监控 的前提下得出的。它衡量的是“FSD + 人类驾驶员”的组合安全性,而非 FSD 系统的独立安全性。
  • 忽略关键指标:当把驾驶员从驾驶位移到乘客位(作为“安全监控员”)时,系统的安全性数据会急剧下降。

法律上的挑战

在与 FSD 或 Autopilot 相关的事故中,特斯拉的首要策略是声称驾驶员负有全部责任,因为他们在使用前已同意保持专注。

这就像是“薛定谔的 FSD”:当特斯拉需要它承担责任时,它就是先进的自动驾驶系统;当特斯拉不想承担责任时,它就只是一个需要人类监督的辅助工具。

然而,这种策略并非总是奏效。例如,在佛罗里达州的一起致命车祸中,法官虽然认定驾驶员负有主要责任,但仍判决 特斯拉承担 33% 的责任。判决的部分原因是马斯克长期以来对 FSD 能力的夸大宣传,误导了公众认知。

未来的责任转变

特斯拉的处境可能很快会发生变化。马斯克近期在股东大会上表示,可能会在“一两个月内”允许驾驶员在使用 FSD 时发短信。

  • 政策的改变:这意味着特斯拉可能放松或取消对驾驶员注意力的监控系统。该系统目前会通过车内摄像头监测驾驶员,如果发现其长时间不看路,就会发出警告并停用 FSD。
  • 潜在的法律后果:如果特斯拉官方明确允许驾驶员分心,那么在未来的事故诉讼中,公司将很难再以“驾驶员未能保持专注”为由推卸责任。
  • 削弱自身辩护:首席执行官公开鼓励驾驶员将视线离开道路,这无疑为未来原告方的律师提供了有力证据,证明特斯拉对其系统过度自信,并鼓励了不安全的驾驶行为。

这一转变可能使特斯拉在法律上陷入更被动的境地,难以再继续玩“薛定谔的 FSD”这个游戏。