驾驶员|信任问题,自动驾驶技术面临的挑战
文章插图
文章插图
撰文 / 朱 琳编辑 / 钱亚光设计 / 师玉超来源 / Autonews,作者:Pete Bigelow
舒服的小睡,预示着一个令人不安的问题。
在谷歌自动驾驶汽车项目进行的早期,该公司员工(你可以称他们为beta测试人员)被允许开着配备自动驾驶技术的汽车回家。
该项目的领导者们发现,同伴们如此迅速地过度信任了这项还处于萌芽阶段的技术——他们选择放松注意力,并盯着手机,而不是观察前方的道路。
“我们的发现相当可怕。”Waymo的前首席执行官约翰·克拉弗西克(John Krafcik)回忆起2017年的测试时说。“他们已经失去了观察周围环境的意识。”Waymo是该项目的商业化后续。
Waymo前首席执行官约翰·克拉弗西克▼
文章插图
一个测试者在方向盘后面打瞌睡,这让谷歌官员感到不安,他们放弃了对这种涉及人机结合的自动驾驶技术的追求,转而采用一种不让人类参与驾驶的自动驾驶路线。
其他公司,比如特斯拉,仍然看好人机共存,而对于将自动化引入汽车的同时仍需要人类承担操作责任的担忧,几乎没有消除。
特斯拉在2014年推出了Autopilot驾驶员辅助系统的硬件,并在2015年通过OTA升级启用了这一功能。2021年,这家汽车制造商以同样的方式发布了其“完全自动驾驶”(Full Self-Driving)系统。
文章插图
2021年10月下旬,该公司的市值超过了1万亿美元,这在很大程度上要归功于这些功能,这两个功能在该公司狂热的车主中激发了相当大的热情。特斯拉在财务上的成功,让行业专家(至少在某些方面)怀疑Waymo是否做出了错误的决定。
然而,从安全的角度来看,担忧仍在增加。
文章插图
自动化自满
美国国家交通安全委员会(NTSB)调查了多起涉及Autopilot的致命事故,并创造了“自动化自满”(automation complacency)这个词,来描述人类驾驶员过于信任驾驶辅助系统(并非自动驾驶系统)的行为。
美国国家公路交通安全管理局(NHTSA)的联邦调查人员在2021年的大部分时间里对Autopilot和高级驾驶辅助系统进行了进一步调查。
2021年4月,该机构的撞车事故特别调查小组开始调查五年间发生的39起事故,这些事故造成了12人死亡,其中33起事故涉及特斯拉汽车。
文章插图
最近,NHTSA开始对12起事故展开更严格的调查,在这些事故中,启动了Autopilot系统的特斯拉汽车撞上了停放的急救车辆。
2021年9月,特斯拉对其Autopilot软件进行了OTA升级,而现在监管机构想知道,这家汽车制造商为何进行了升级,却没有发起召回。
亚利桑那州立大学社会创新未来学院教授安德鲁·梅纳德(Andrew Maynard)表示,监管机构刚刚才开始考虑软件定义汽车的安全影响,这本身就是个问题。
“如果一家制造商说,‘我们推出了一种新型制动系统,我们不太确定它是否会起作用,但我们会把它放在一些汽车上,看看会发生什么,’没有人会认为这是可以接受的。”他说,“从监管角度来看,这是完全不可接受的。那么为什么软件可以这样做,而硬件却不行呢?”
文章插图
注意力不集中
在驾驶辅助系统方面,这是几个没有明确答案的挑战之一,因为专家们认为驾驶辅助功能(而不是自动驾驶系统)至少在未来十年将成为主导技术,至少在传统车主购买和维护的车辆中是如此。
- 苹果|苹果最巅峰产品就是8,之后的产品,多少都有出现问题
- 2.2亿花粉升级后,鸿蒙系统暴露出新问题,华为至今没有回应
- mybatis|2.2亿花粉升级后,鸿蒙系统暴露出新问题,华为至今没有回应
- 西宁最新返乡政策来了
- 工厂|为Intel单独建3nm工厂?台积电回应合作问题:不过度依赖单一客户
- 2022年买手机,目前就这3部手机最值得入手,用个三五年不是问题
- 联想|又一消息传来,柳传志的问题终于暴露!
- 华为|5G问题解决了?华为多款5G手机现货,关键是价格还降了
- 安卓|关于安卓淘汰32位应用,你关心的问题都在这了
- meta|Facebook广告投放时,你遇到过这些问题吗?