机器之心报道编辑:杜伟、小舟过去十年|全民自动驾驶5年内真的会来吗?这是Lyft的自动驾驶2.0( 二 )


Autonomy2.0
Autonomy2.0是一种ML优先的自动驾驶方法 , 专注于实现高可扩展性 。 它基于三个关键原则:i)闭环模拟 , 即模型从收集的真实驾驶日志中学习;ii)将SDV分解为端到端的可微分神经网络;iii)训练规划器和模拟器所用的数据是使用商品传感器大规模收集的 。
数据驱动的闭环反应模拟
Autonomy2.0中的大部分评估都是在模拟中离线完成的 。 基于规则的模拟具有一些局限性 , 这与Autonomy1.0对路测的依赖形成鲜明对比 。 但这并不意味着Autonomy2.0完全放弃了路测 , 不过其目标在开发周期中不太突出 , 主要用于验证模拟器的性能 。 为了使模拟成为开发道路测试的有效替代品 , 它需要三个属性:适用于任务的模拟状态表征;能够以高保真度和强大的反应能力合成多样化和逼真的驾驶场景;应用于新的场景和地域时 , 性能随着数据量的增加而提升 。
机器之心报道编辑:杜伟、小舟过去十年|全民自动驾驶5年内真的会来吗?这是Lyft的自动驾驶2.0
文章图片
模拟结果必须非常真实 , 因为模拟和现实之间的任何差异都会导致性能估计不准确 , 但它不需要是照片般逼真的[29] , 而是只关注规划器的表示 。 该研究推断 , 为了达到高水平的真实感 , 模拟本身必须直接从现实世界中学习 。 最近 , [28]展示了如何使用鸟瞰图表示从先前收集的真实世界日志中构建逼真的和反应性的模拟 。 如图4所示 , 然后可以部署此模拟将任何日志转换为反应式模拟器 , 用于测试自动驾驶策略 。
从人类演示中训练出来的完全可微的堆栈
Autonomy1.0具有手工设计的基于规则的组件 , 以及感知、预测、规划和模拟之间的人类可解释接口 。 与之不同 , Autonomy2.0堆栈完全可以通过人类演示进行训练 , 因此其复杂性与训练数据量成正比 。 为了训练这样一个系统 , 需要满足几个条件:每个组件 , 包括规划 , 都需要可训练且端到端的可微分;可使用人工演示进行训练;性能与训练数据量成正比 。
下图5是完全可微的Autonomy2.0堆栈架构 , 可以从数据进行端到端的训练 , 而无需设计单个块和接口 。 其中 , d、h、f和g是可学习的神经网络 。 d和h给出了规划发生的场景的潜在表示 。 f代表SDV和场景中代理的策略 。 g是状态转移函数 。 I_0是网络的输入 , 而{I_1,··,I_3}在训练期间提供监督 。
机器之心报道编辑:杜伟、小舟过去十年|全民自动驾驶5年内真的会来吗?这是Lyft的自动驾驶2.0
文章图片
大规模低成本数据采集
到目前为止讨论的系统使用人类演示作为训练数据 , 即具有由人类驾驶员选择的相应轨迹的传感器数据作为监督 。 要解锁生产级性能 , 这些数据需要具备:足够的规模和多样性以包括罕见事件的长尾;足够的传感器保真度 , 即用于收集数据的传感器需要足够准确才能有效地训练规划器和模拟器;足够便宜 , 可以以这种规模和保真度收集 。
机器之心报道编辑:杜伟、小舟过去十年|全民自动驾驶5年内真的会来吗?这是Lyft的自动驾驶2.0】虽然最近第一个带有人类演示的公开数据集已发布 , 但这些数据仅限于几千英里的数据 。 观察长尾可能需要收集数亿英里的数据 , 因为大多数驾驶都是平安无事的 , 例如在美国 , 每百万英里大约有5起撞车事故 。
应该使用哪些传感器呢?感知算法的最新进展表明 , 在KITTI基准测试[44]上 , 高清和商用传感器(如相机和稀疏激光雷达[42])之间的感知精度差距缩小了 , 如下表1所示 。
机器之心报道编辑:杜伟、小舟过去十年|全民自动驾驶5年内真的会来吗?这是Lyft的自动驾驶2.0
文章图片
表1:收集数据时面临传感器可扩展性和保真度之间的权衡 , 这会直接影响感知精度 。