文/于欣烈
最近特斯拉的一起自动驾驶交通事故炸了锅。一辆开启AutoPilot功能的Model S撞上一辆卡车,车主不幸身亡。我看到不少打着Self-Driving、无人驾驶或自动驾驶事故致死的标题,引发不少关于无人驾驶的悲观讨论。但事实并不是这样。事故车辆启用的AutoPilot并不能代替司机驾驶车辆,只是一种辅助驾驶功能,要求司机掌控方向盘而不是电脑。
关于事故的具体介绍和AutoPilot需要驾驶员手握方向盘等使用条件,建议大家看下特斯拉官方声明,掌握一些基础知识才能有效讨论。事故的具体责任,还需要美国国家公路交通安全管理局调查后判定,根据现有的信息,我有些自己的看法:1.特斯拉不应在量产车上提供Beta版服务特斯拉一直称AutoPilot还处于测试阶段,并不完善。尽管特斯拉说明了AutoPilot启用时驾驶员需要双手握好方向盘,以及自动驾驶功能不能识别的一些情况。但很多用户是普通人,并没有能力来判断,当时路况条件是否符合要求,或者自己是否适合使用AutoPilot。
AutoPilot的主要功能推出后,很多用户认为它无所不能。不管是不是特斯拉宣传过度,用户对自动驾驶的理解失控了。各种疯狂的Model S“大撒把”视频一度风靡视频网站。
吓坏了的Musk多次口头警告用户,并在年初的一次升级里,限制了AutoPilot部分功能。但这项测试服务仍被保留在几万辆车上。关于汽车的行驶和安全,不应该存在 Beta 服务。
2.放弃使用部分自动驾驶按照汽车产业的划分,自动驾驶被分为四个阶段:辅助驾驶、部分自动驾驶、高度自动驾驶和完全自动驾驶。目前一些高配置汽车上,会有偏道提醒等功能,这属于辅助驾驶。
特斯拉的AutoPilot 还属于部分自动驾驶——这是风险最大的阶段。在部分自动驾驶下,要求我们开车时,一方面要相信雷达、传感器和自动刹车系统能对路况做出反应;另一方面还要高度集中,在自动驾驶功能失效时,接管对车子的控制。但特斯拉忽视了人性。
一旦我发现前车刹车后AutoPilot总能很好的自动减速,建立起信任后自己的惰性就会发生作用——启动 AutoPilot的情况下,我就不会集中注意力,每次都及时对前车做出反应。可你又告诉我,别信赖它,它时灵时不灵。我的内心是崩溃的。且不论我们普通人能不能做到这么机敏。在这两种状态下的切换,就需要至少几十秒的时间。在发生意外的一刹那,根本来不及切换。所以我认同谷歌的做法,开发出一辆完全依赖自动驾驶功能的汽车,不需要一个普通人在两种模式下不断切换。即便是两种模式切换,也要清晰地区分人在驾驶(基础辅助驾驶功能)和完全自动驾驶。要么我在开车,要么机器在开车。避免半自动驾驶这种混合模式中,人性带来的负面影响。
3.不要再把辅助驾驶功能叫做“自动驾驶”
关于这起事故有很多讨论热点:用激光雷达是否可以避免事故;启用“AutoPilot”时,事故责任的判定等等。但特斯拉最大的“恶”却少有人明确提出来——它把一项辅助驾驶功能,直接命名为“自动驾驶 AutoPilot”。这样的名字直接误导了用户对驾驶一辆车的理解。
在汽车行业内,自动驾驶被分为了四个阶段:辅助驾驶、部分自动驾驶、高度自动驾驶和完全自动驾驶。
特斯拉的“AutoPilot”功能一般被视为第二阶段,即部分自动驾驶。官方也对外宣称这并不是一套完全自动驾驶系统,并且承认它目前还处于测试阶段……但特斯拉把这样一套还处于测试阶段的半自动系统,激进地命名为“自动驾驶”并推向了几万名普通车主。
普通消费者没多少人理解四个阶段的区别,他们也不在乎。他们中很多人会按字面意思去理解。尽管特斯拉在OTA“自动驾驶”功能时会有一堆声明,告诫用户这是一套辅助驾驶系统,要把手放在方向盘上等等。但普通用户在Youtube上看到各种大撒把式“自动驾驶”视频时(特斯拉CEO Elon Musk的前妻都发布过这样的视频),他们会丧失辨别能力。
对特斯拉“自动驾驶”理解的失控,可能并非特斯拉的错。但这就是市场,这就是用户。
这让我想起一位朋友,作为智能硬件工程师,他对用户的误操作和抱怨怒不可遏,“他们不好好看说明书吗?”
Elon Musk已经成为了这个时代光环最耀眼的企业家。从电动汽车、新能源到太空火箭,他的天赋和努力,创造了一个又一个的奇迹。作为一名可以改变世界的企业家,Musk或许应该意识到,他同时会改变很多普通人的日常生活。我想他应该听听前辈贝索斯的那段演讲:“聪明是一种天赋,而善良是一种选择,选择比天赋更重要。”