为期三天的谷歌 I/O 开发者大会于5月8日在美国开幕。在主题演讲上,CEO Sundar Pichai和各产品线负责人讲解了自家的AI、安卓系统、谷歌助手等产品的进展。其中 AI 作为大会的主题,贯穿谷歌现有的所有产品线,其中包括安卓P,谷歌Maps以及无人驾驶汽车Waymo。
Waymo CEO John Krafcik在介绍谷歌自动驾驶取得的新进展时,专门强调Waymo自动驾驶系统使用TPU后,性能提高了15倍。搭载了谷歌AI技术的Waymo无人车已经具备实时感知物体、判断其他车辆行动的能力,通过机器学习预测行人或车辆在横穿马路、闯红灯等行为,防止在过十字路口时撞到闯红灯的人和车。人工智能的介入使无人驾驶的错误下降了100多倍;同时表示无人驾驶汽车将率先登陆美国的凤凰城。
谷歌是第一家同时投资无人驾驶和AI领域的公司,在无人驾驶方面,这是Waymo首次登上谷歌I/O大会,并且在大会上阐述如何通过谷歌的机器学习技术来解决无人驾驶当中的问题。Waymo表示,物体感知和行动预测将是无人驾驶技术最关键的两个方面。
诚然,随着AI技术的不断发展,汽车的自动驾驶也在不断升级。从之前Level1(以下简称L1,以此类推)的辅助驾驶到现在部分汽车L3的有条件自动化,甚至通过深度学习将来走向L5的完全自动化,可以说这是无人驾驶的终极梦想,也意味着汽车在任何情况下都能实现全自动操作。
且不说未来汽车驾驶的L5的完全自动化,仅在L3这一层面上各个车企的发展就困难重重。谷歌作为全球科技行业的领军企业,研究无人驾驶已有8、9年时间。为了让 Waymo 无人驾驶车上路,谷歌在公路上做了超过600万英里的测试,每天都有2.5万辆车在测试;同时在公司开发的仿真系统中已经行驶50亿英里,并且目前团队还在探索无人驾驶在雪天的行驶。
如果还有哪家科技巨头正在无人驾驶汽车领域挑战谷歌,那百度必定处于其中。尽管百度目前在总测试续航里程和器件技术方面没有谷歌Waymo抢眼,但覆盖范围较广,并不局限于乘用车。百度在2016年就已经在中国芜湖实地测试无人驾驶旅行车和大巴,并计划在用5年时间实地测试百度的无人驾驶汽车系统。无人驾驶是一个循序渐进的过程,好车从来都不会败给时间。
L3的汽车雨后春笋,L4的小巴遍地开花。5月8日,上海交大的无人小巴在校园进行试运行。只要微信扫码就可实时呼叫小巴接站,小程序可直接算出小巴准确抵达时间。这款无人小巴采用L4级自动驾驶系统,车上没有方向盘、油门刹车踏板,系统能自动观察环境,进行转向和加减速控制,也能通过多传感器融合方式实现自动驾驶。
为什么校园无人小巴能实现L4水平的自动驾驶,而乘用车却很难做到?仅从外部环境考虑,大概有几个方面的可能性:首先,现有的无人驾驶汽车过度依赖GPS进行定位,仅从国内大环境来说,一方面是路况复杂,另一方面GPS的发展水平是否符合无人驾驶的要求也很难说。再次,行人的交通安全意识并不完全规范,这也增加了L4自动驾驶的危险性。最后,L4自动驾驶的汽车车速比校园无人小巴要快的多,在不能完全保证躲避行人以及克服各种恶劣环境影响的前提下,低速行驶又无法保证出行效率,那汽车的功能性就会大打折扣。等等。诸多因素叠加在一起,L4自动驾驶必将会经历一个辛苦的蜕变之路。
事物的发展是前进性与曲折性的统一,无人驾驶在发展的道路上坎坷不断,所谓“一将功成万骨枯”。先不考虑未来AI的自主性以及黑客的侵袭问题,在目前来说积极朝L3水平发展的无人驾驶系统,单单在安全性和可靠度上就令人唏嘘不已。
且不说李彦宏超酷的“无人驾驶”五环违章实线变道,也暂不提本田小轿车和处于自动驾驶状态的Waymo测试车的乌龙碰撞,相信大家对3月的Uber事件还记忆犹新,正在测试的一辆Uber自动驾驶SUV撞死了一名过马路的女士。调查显示,涉事的Uber无人驾驶车实际上在事故发生前已经成功识别到路上的行人,但是在识别后,决策系统决定予以忽略,不采取车辆躲避措施,而最终酿成了悲剧的发生。这也是全球范围内首例自动驾驶汽车致人死亡的事故。
如果AI有思想,大概一定会被质问为什么草菅人命,可惜它现在还无法自主回答,否则也不会义无反顾地撞过去。讨伐转向Uber,Uber首席执行官达拉·科斯罗萨西在5月10日举行的Uber Elevate上表示,Uber自动驾驶汽车经过调整后将会在未来几个月内重新回归,并“将尽可能安全。”尽管人们还是会对犯过“错误”的“孩子”心存芥蒂,但纵观AI发展趋势,无论是从无人驾驶的发展历程来说,还是从受众的适应过程来说,这种情况都太正常不过:Uber事件只会加速无人驾驶前进。
其实众人都道无人驾驶难。但难的并不是把车开起来,而是难在复杂环境下,保证出事故的概率低到一个可以接受的水平。更简单的说,难的不在从0到99%,而是从90%到99.9999%。汽车行业保证极端情况的可靠性占了行业价值链的很大比重。
很多时候这只不是一个科技问题,更像是一个伦理问题。具体来说,开车这件事情,假如人的可靠性是70%,那么自动驾驶的可靠性则高达99.9%;而从伦理学角度看,人类可以接受同类有30%的错误率,但却无法接受机器0.1%的失误率。人可以犯错但机器不行,这也成了无人驾驶发展最为严苛的发展标准。
来源:汽车公社
本文地址:https://www.d1ev.com/news/qiye/68725
以上内容转载自汽车公社,目的在于传播更多信息,如有侵仅请联系admin#d1ev.com(#替换成@)删除,转载内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网,如有侵权请联系admin#d1ev.com(#替换成@)删除。