一场事先避免的车祸——特斯拉Autopilot进阶之路

Nicholas · 2016-12-29
从毫米波雷达,到Tesla Vision,特斯拉的避障算法正日益精进。

文:郑晓康

编辑:卢姿伊

汽车平稳地在高速公路上飞驰,前方视野良好,突然车子发出刺耳的警报声,伴随警报声的还有明显的车速下降,虽然这位Model X车主也在专心致志地盯着路面,但这次是车比他还早地踩下了刹车。此时,前方发生了一起追尾交通事故。

这不是科幻片中的场景,这辆加持“未卜先知”能力的汽车来自荷兰的一位特斯拉Model X车主。车主Hans Noordsij称,特斯拉在Autopilot系统启动时主动探测非常有效,并提前介入了制动让车子停下来。在整个过程中,雷达探测到了前车之前的路况,比车主反应还快,先踩了一脚刹车。这也是正是我们在视频中看到的,这辆特斯拉在碰撞发生之前就发出了警报。

它甚至提前算出了碰撞!

一时间社交媒体上对特斯拉Autopilot系统的称赞不绝于耳。但可能人们不知道的是,这一前向碰撞功能用到的是毫米波雷达,在视频中的跟车场景中,正是毫米波雷达发挥作用的典型场景。毫米波雷达是Autopilot自动辅助驾驶硬件的组成部分,2014年10月首次推出,并在今年9月12号升级为了增强版。

而这场升级便是是源于7个月前那场著名的车祸。

如果我们把时间拨回到今年5月,会发现当时的Autopilot 系统正因为一起车祸深陷于舆论的口诛笔伐之中:

来自美国俄亥俄州的 40 岁男子 Joshua Brown,驾驶 Model S 到一个十字路口时,与一辆大型拖车发生意外碰撞事故后死亡。当时,Model S 的 Autopilot 自动驾驶模式处于开启状态。据特斯拉官方回应,强烈的日照和白色车身是 Autopilot 系统不能检测出障碍的原因之一。

5月至今,大半年过去,特斯拉的Autopilot系统经历了怎样的蜕变?

以Model X为例,第一代特斯拉Autopilot系统有着这样的配置:来自Mobileye的前置摄像头位于挡风玻璃中间;来自博世的毫米波雷达,位于保险杠下方;12 个超声波传感器,分布在车身四周。来自Mobileye视觉识别芯片eyeQ3。

要探究两则新闻一悲一喜结局迥异的原因,便是9月12日发布的Autopilot系统8.0的更新。

据公开资料,在此之前的每一代Autopilot系统都是以主摄像头作为主要传感器,以图像数据分析为主、雷达数据分析为辅的计算逻辑。Mobileye 摄像头的视觉识别功能非常出色,但是在雨雾天气下,摄像头的性能会受到环境能见度制约。根据特斯拉在悲剧发生后给出的说法,依靠摄像头作为主要传感器在某些极端情况下主摄像头及视觉识别系统无法识别前方障碍物,比如那场悲剧中“强烈的日照和白色车身”就让系统出现了误判。这让特斯拉开始考虑利用现有硬件提升Autopilot系统安全性能的可行性。

从9月12日推送的Autopilot系统8.0开始,特斯拉将把雷达用作Autopilot系统的主要传感器,利用信号处理技术建立汽车周围环境的计算机模型。此外Autopilot8.0还包含了雷达建模技术,并开始收集数据提高雷达性能。所有特斯拉汽车将开始利用新软件收集信息,并上传到中心数据库。

毫米波雷达

也就是说,在此次更新中,特斯拉开始把雷达作为核心传感器,同时希望把雷达的性能发挥到极致。而对雷达性能进行挖掘的一个重要做法,就是提高帧数,判断障碍物状态:

“减少误识别的第二部分包括整合每隔0.1秒获取的雷达快照,汇编成为现实场景的"3D"影像。(通常)通过单一影像帧,很难知道物体是移动的,静止的,或者只是反光造成的虚像。通过比较包含车辆速度、预期轨迹信息的连续影像帧,车辆可以分辨前方物体是否是真实的,同时预估发生碰撞的概率。”

再看看前面那场悲剧,也就是说,在Autopilot系统8.0中,特斯拉通过充分压榨雷达的性能终于解决了少数摄像头在极端情况下误判的问题,反过来说,如果没有解决这个问题,那这个大版本更新又如何能冲淡人们对Autopilot系统安全性的担忧?

但事实上毫米波雷达存在着很多问题,比如识别人像不如摄像头,对木质和塑料物体的识别存在严重问题。另外任何凹型的金属表面(比如,一个易拉罐?)都会被识别为“大型的危险障碍物”。针对这些问题,特斯拉通通做了细致的优化。为了解决误识别障碍物从而导致频繁刹车制动问题,新系统对现有硬件进一步挖掘,让雷达可以探测到的周边的物体(数量)达到以前的六倍,并且有能力在每一个物体上获得更多细节信息。

六倍于之前系统的探测物体,再加上毫米波雷达擅长穿透周围的障碍,以及探测更远距离以外的障碍的固有特性,今天这则新闻的路况几乎可以说是雷达应用的最佳场景了,避免车祸的发生也就显得合情合理了。

Tesla Vision

对雷达性能的深度挖掘似乎解决了发展自动辅助驾驶系统遇到的难题,然而同时也带来了新的难题,由于特斯拉把此前车祸原因归结为Mobileye的摄像头和视觉识别芯片误判,直接导致特斯拉与昔日合作伙伴Mobileye反目成仇,最终二者分道扬镳。

摆在特斯拉面前的难题是为随后面世的新车所需的视觉处理芯片及系统寻找新的合作伙伴,或者干脆自研——毕竟视觉处理芯片市场的优秀企业并不多

果然,今年9月,特斯拉证实了自家Tesla Vision项目的存在。再加上今年早些时候,特斯拉招募了AMD知名微处理器工程师Jim Keller为Autopilot硬件工程副总裁、以及几位来自苹果等公司世界级芯片架构师,Tesla Vision项目打造一套基于Nvidia CUDA并行计算平台的端到端计算视觉框架计划逐渐浮出水面。

据特斯拉发言人表示,该系统能够从摄像头传感器采集原始数据,然后由特斯拉汽车控制和进行影像处理。它将结合深度神经网络训练,并配合特斯拉近期发布的雷达处理技术不断优化。也就是说,Tesla Vision项目将与Autopilot8.0的雷达探测技术紧密结合,通过官方服务器收集大量的行驶数据积累,让Autopilot变得越来越“聪明”、越来越安全,并为即将推出的无人驾驶系统的研发铺路。

举个简单的例子,在我们前段时间对Autopilot 8.0的评测中,在进行变道操作时,依然需要人来打转向灯,此后车辆会在确认盲区没车没有危险的情况下,进行相应变道。当然了,你也能想见,在变道还需要人来打灯的情况下,特斯拉就更不可能知道从哪个路口上下高速/环路,进行左拐、右拐等操作了,现在要想到达目的地,仍需要人来决定走哪条车道、如何走。

而在Tesla Vision的设想中,车辆可以自行变道、进行相应车道的选择、上下高速路口,也就是说,人类驾驶员输入起止点,就能一键到达目的地的场景已经进入特斯拉蓝图了。

不过,还是那句话,在没有无人驾驶技术完全成熟之前,我们是事故负责人,照着特斯拉的指示做到“手握方向盘,随时准备接管车辆”,不必非要玩脱了吧。

我是36氪汽车小组负责人卢姿伊,负责特斯拉、无人驾驶、新能源、车联网、出行及后市场,欢迎直接与我联系,微信:17701221940

Attention!!!36氪汽车小组正在招募实习生一枚,负责自动驾驶方面新闻,包括但不限于特斯拉、Google、Uber以及各大车厂自动驾驶项目,自动驾驶创业公司等。有技术背景,能举一反三、并深入浅出地解读趋势。定期做汽车行业整合报告。

+1

好文章,需要你的鼓励

参与评论
登录后才能参与讨论哦...
后参与讨论
提交评论0/1000

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

下一篇

2016已足够精彩,2017更值得期待!

2016-12-28

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

为你推送和解读最前沿、最有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚集全球最优秀的创业者,项目融资率接近97%,领跑行业