1. 首页
  2. 大牛说
  3. 携千元级300线激光雷达向Velodyne隔空喊话,这家华人初创公司要出道了

携千元级300线激光雷达向Velodyne隔空喊话,这家华人初创公司要出道了

如果在无人驾驶的战场上划出几个“分战场”,激光雷达分战场,无疑是战争最激烈、也最受关注的分战场之一。尤其是,进入2017年第四季度之后,战局更加激烈,一轮轮的“你方唱吧我登场”陆续上演:

10月上旬,通用收购了激光雷达初创公司Strobe,希望将价格降至100美元;

10月下旬,福特收购了激光雷达初创公司Princeton Lightwave,希望开发出用户“负担得起”的激光雷达;

11月上旬,激光雷达头牌厂商Vedodyne推出了128线激光雷达VLS-128,探测距离相较于其64线激光雷达提升一倍;

再然后,是在12月12日,硅谷的华人初创企业Innovusion宣布推出1000美元价位的300线混合固态激光雷达Hi Def LiDAR,在探测清晰度和数据融合方面取得重大进展。 

或许是因为“家世不够显赫”,Innovusion的300线Hi Def LiDAR在发布后未能像Velodyne VLS-128那样迅速成为业界“热点”,但这种“冷处理”,似乎无法阻止Innovision试图后来居上、改写激光雷达产业版图的雄心。 

不光看得远,而且还“看得细”

在无人驾驶汽车上,与摄像头相比,激光雷达是可靠性更高的传感器,这一点已基本不存在多少争议,但在百度做过一年时间的传感器集成工作并深度测评了各项新型传感器技术后,鲍君威发现,现有的激光雷达仍有其自身的局限性,哪怕是“段位最高”的Velodyne 64线激光雷达,也很难用做L4级无人车的主传感器。 

能作为主传感器的激光雷达,失误率一定要达到几亿分之一,甚至是几十亿分之一才行,但市场上现有的激光雷达,却往往存在以下“陷阱”——因为分辨率不够,在探测障碍物时很容易出现“漏洞”;

能看见前面”有个东西“,但无法识别出究竟是个“啥东西”;

厂商标的“探测距离”,也只说“能看多远”,却没说清能看到的是这个距离上的什么东西(是一块转,还是一辆车?小汽车,还是大卡车?),很容易造成误解。 

在发现这些痛点后,鲍君威于2016年11月份离开百度,创办了Innovusion并担任CEO,专注于激光雷达及传感器融合技术。在经过一年多时间的闭关修炼后,鲍君威和他的团队终于推出了自己的首款产品Hi Def LiDAR,并试图“与天公试比高”。 

由于Velodyne VLS—128目前尚无公开的实际应用案例,详细的产品参数也要等到下个月的CES展上才公开,因此,Hi Def LiDAR现阶段主要是将Velodyne HDL—64作为“参照系”。 

无人驾驶汽车在复杂的场景下(如城市道路)行驶,需要一个安全的“刹车距离”,以保障在遇到紧急情况时有足够的决策时间。通常,车辆在市区开时很容易达到时速60公里,按需要1-2秒的刹车时间算,安全的刹车距离应在50米以上,这就需要传感器能检测到50米外的行人“长什么样”。 

图片版权属于Innovusion 

假定车辆在以64公里的时速行驶,距车辆50米处的地方有行人,上面左图的“人类司机眼里的行人”为原始数据;中图理那一组不连续的稀疏点,就是HDL—64“眼里的行人”;右图那一组更密集的点,则是300线的Hi Def LiDAR“眼里的行人”。 

因为能检测到更多的细节,避免“漏检”,因此,Hi Def LiDAR也更有能力保护“乱穿马路的小孩”的安全。把小孩换成“横卧”在马路中间的一辆自行、一个石墩或其他障碍物,车辆甚至可以避免自身“受伤”。 

高速场景下,车辆需要更远的“刹车距离”。

图片版权属于Innovusion 

假定车辆以105公里的时速行驶,105米处有一辆红色的车,上面左图是“人类司机眼中的车”,中图那些稀疏的点是Velodyne HDL—64“眼里的车”,而右图那些密集的点则是300线的Hi Def LiDAR“眼里的车”。 

中图最下面那两个点,对应的是“车轮”,鲍君威的疑虑是,假如很不巧,这两个点没有被HDL—64探测到,那么,在激光雷达只“看见”最上面那一行点的情况下,它还能“认得出”那是一辆车吗? 

鲍君威指出,传统的激光雷达的一个常见的问题是,扫描出来的线条纵横分布不均匀,有的地方密,有的地方很稀疏。比如,载着传统的Velodyne HDL—64的无人车在城市道路上“看到”的场景是这样的:

图片来自Velodyne官网

而载着Innovusion的300线激光雷达的无人车“看到”的斯坦福校园却是这样的:

图片版权属于Innovusion 

对比可发现,第二幅图中,不仅扫描出的图景更加“丰富多彩”(颜色代表反射值,对很多定位算法会有很大帮助 ),而且,线条也更加密集。 

线条稀疏有什么不好呢?有的地方没扫描到,没有数据,比如,假如车辆是在高速公路上飞快行驶,前面有一块小砖头,恰好处于两条光线中间的空隙中,没有被检测到,这个时候,车辆当然会继续“目中无砖”地开过去,结果,轻则爆胎,重则翻车。 

而Innovusion的Hi Def LiDAR通过300线的密集扫描,让障碍物很难“见缝插砖”,极大地提高了无人车在高速场景下的行车安全性。 

这款“300线”的核心竞争力 

忍不住好奇,Hi Def LiDAR凭啥这么牛?在衡量一款激光雷达性能好坏最重要的“探测距离”和“角分辨率”这两个参数上,Hi Def LiDAR都有着卓越的表现。 

先说探测距离,在城市道路场景下,激光雷达的探测距离只要能达到70-80米就差不多了,但如果车辆要以120公里的时速在高速公路上行驶,探测距离至少要达到150米才算安全。Hi Def LiDAR的探测距离恰好就是150米,似乎正是为了“高速”这个特定目标而设定的,相比之下,HDL—64的探测距离是,“能看见120米处的车或树”。 

角分辨率,指探测目标上最邻近的两个激光点到激光发射器之间的连线所形成的夹角,这个夹角越小,探测的清晰度就越高。HDL—64的光束不是均匀分布的,在中间最密集的那个地方,纵向角分辨率为0.4度,而Hi Def LiDAR在各处的纵向角分辨率均为0.13度 。 

因为具有更高的分辨率、更强的图像处理能力,Innovusion将Hi Def LiDAR定义为“图像级激光雷达”。用户可根据这款图像级激光雷达提供的数据,直接对目标进行分类——通常,激光雷达只能告诉决策中心”前面有个东西“,却不能具体说清那个东西究竟是什么;而根据“图像级激光雷达”的数据,则可以识别出哪个是行人,哪个是电瓶车,哪个是汽车。 

鲍君威认为,只有达到了“图像级”的识别水平,激光雷达才有资格“取代人眼”,做L4级无人车的主传感器(Velodnye VLS—128在纵向视角最密的部分也基本达到了)。 

Hi Def LiDAR达到“图像级”的水平,再与摄像头融合,可以给点云加上彩色摄像头的颜色。 

不同于无人驾驶方案供应商通常是将摄像头获取的数据跟激光雷达获取的数据进行后融合,Innovusion则是在硬件层次就将激光雷达和视觉传感器在像素级进行前融合,这极大地提高了感知算法的可靠性和运行效率。 

常见的那种“多传感器融合”,是方案供应商从感知、定位 、决策控制到执行的算法都自己做,传感器从外部购买,再把各传感器检测到的数据汇总到中央处理器里。但这个数据汇总之后在软件层融合的过程,常常需要几十毫秒、上百毫秒的延迟——如果不同厂商做的传感器没有同步的机制,还需要额外花很大力气做同步;同步不好的话,同一个物体会由于运动造成不同传感器探测到的空间位置的不一致,给后续融合造成额外的困扰 。 

越原始的数据,融合后效果越好。 

我们大家理解的“点云”,其实并不是激光雷达的原始数据。光电信号经过模拟数字转换,形成原始数据,原始数据再经过进一步分析计算之后才会形成点云。这里的原始数据可能比点云的数据多1000倍,也就是说,超过点云数据900倍的原始数据,都在传感器里“藏着掖着”,没有被输送到中央计算系统——这些数据如果被充分利用起来的话,会有助于提高系统对外部环境的感知能力。 

而硬件端的融合,则可以充分利用起这些数据,再加上“像素级”激光雷达和摄像头分辨率的自然匹配,极大地减少了三维空间重构以及物体探测的可靠性。 

同时,硬件端的融合还减少了对计算量的要求,提高了运算处理的效率。 

站在摄像头的角度看,跟激光雷达在硬件端融合,检测到的信息就直接是三维的,不像之前那样只能检测到二维信息,然后第三维“靠猜”了;站在激光雷达的角度,跟摄像头的融合,检测到的信息直接带有颜色,可以分类,不需要后端再处理一次了。 

从产品性能的角度,节省结算量,就是提高效率;而站在用户的角度,节省计算量,就可以降低功耗、降低对硬件端的性能要求,进而降低成本。 

鲍君威的目标是,今后Innovusion能通过持续提高图像处理技术帮用户节省计算,进而,让用户可以把花2000美元买的英伟达Drive PX2的计算力用在进一步提高系统的可靠性和决策的智能性上。 当然,这还只是一个目标,还有待于继续努力才能实现。 

易集成,价格容易被市场接受 

除性能更强之外,传统的机械激光雷达还有两个很明显的问题:一直要360度旋转,不方便和整车集成 。这也是新生的激光雷达供应商们需要克服的问题。 

Hi Def LiDAR被做成了“混合固态”,前向视角类似摄像头。并且,Hi Def LiDAR的尺寸要小得多,长度和普通智能手机相当,很容易被集成到整车上。 

在后续的生产中,Innovusion还可以根据整车厂的需求对Hi Def LiDAR的尺寸和形状做适当调整。 

Hi Def LiDAR的水平可视角度为100度,如果要做到360度全覆盖,一辆车上得安装四台;若再加上冗余,则需要5个。 

Innovusion将Hi Def LiDARD 量产价格定在1000美元。 

特斯拉的整套自动驾驶方案Autopilot的价格为5000美元,据《建约车评》了解,其中计算平台Drive PX2的成本2500美元外,计算可知,传感器部分的售价为2500美元;对比之下,鲍君威认为,作为L4级无人驾驶汽车的主传感器,Hi Def LiDAR 只要把价格定在一两千美元之间,市场都是可以接受的。 

Hi Def LiDARD将在下个月拉斯维加斯的CES展上正式亮相。预计样品可在2018年上半年出来。 

附:Hi Def LiDARD的缔造者,是什么来头? 

成立一年的初创公司,居然敢“叫板”资深的Velodyne,人们自然会好奇,Innovusion的缔造者,都是什么来头? 

我们在本文开头说过,鲍君威在创办Innovusion前曾经在百度负责传感器融合技术,并带领团队对各项新型传感器进行深度测评,在这段时间,他对自动驾驶对传感器技术的需求有了深刻理解。其实,跟鲍君威同时创办Innovusion的,还有Innovusion现在的CTO李义民——他于2008—2011 年间在Velodyne 作为工程团队核心成员研发激光雷达,并于2016 年初加入百度自动驾驶事业部,担任传感器团队技术负责人。 

在2014年加入百度之前,鲍君威跟精密光学仪器打了十几年交道。他自北大物理系毕业后就去加州大学柏克莱分校读硕士和博士,并在读博士期间和两位师兄共同开发了可称之为“显微光学雷达”的Scatterometry 技术,创立Timbre Technologies, Inc。 

Timbre Technologies, Inc在2001 年被Tokyo Electron 并购。在随后的十几年里,鲍君威带领Tokyo Electron 在硅谷的光学测量部门将Scatterometry 从原理模型变成可实际应用的精密测量设备,引领了Scatterometry 技术及其它精密光学传感器在先进半导体生产制程中的广泛应用。 

Innovusion  CTO李义民也是个精密电子及测试仪器方面领域的“老司机”了。他自本科到博士期间,一直就读于北京大学无线电系,1999 年赴美在美国Argonne 国家实验室做博士后,随后在多家硅谷光通信及精密仪器公司开发技术,包括光纤激光器、超声波探测器、陀螺仪、电子显微镜及原子力显微镜等。 

激光雷达是一种精密光学传感器, 一定需要由有丰富精密仪器开发经验的人做——激光雷达的原理并不复杂,真正困难的是,如何在那么小的空间里放进去那么多的精密部件,内部架构如何设计、怎么扫描、怎么接受、光路是怎样的等等 。 

除鲍君威和李义民外,Innovusion还有多名成员都在精密光学设备领域有丰富经验的⼯程师,平均工作经验近二十年。 

鲍君威认为,这个拥有“跨界”知识(既懂自动驾驶市场的需求,又懂精密光学仪器)的团队,才是Innovusion真正的壁垒。

撰稿:苏清涛

来源:第一电动网

作者:建约车评

本文地址:https://www.d1ev.com/kol/59931

返回第一电动网首页 >

收藏
62
  • 分享到:
发表评论
新闻推荐
大牛作者

建约车评

热爱汽车,热爱自主,信奉科技,信奉市场。为你带来前瞻科技和产业深度报道。微信号: jianyuecheping

  • 252
    文章
  • 14103
    获赞
阅读更多文章
热文榜
日排行
周排行
第一电动网官方微信

反馈和建议 在线回复

您的询价信息
已经成功提交我们稍后会联系您进行报价!

第一电动网
Hello world!
-->