近日,一组研究人员决定,不管是人类驾驶员还是自动驾驶车辆都倾向于优先考虑自己车辆的安全性,而不是周围环境的安全性。人类很自私,人工智能的行为很像人类,也就是说,两者应该适用于同一解决方案:需要学会懂礼貌。
自动化的人类行为总是有些麻烦,特别是当涉及重型机械并且生命受到威胁时。例如,我们不希望自动驾驶车辆模仿人类的“路怒症”。但我们确实希望自动驾驶车辆可以模仿我们对意外事件的反应能力。特斯拉的自动驾驶(Autopilot)软件无意取代人类驾驶员,但其未能识别一辆大卡车因为卡车不是朝着汽车计算机预期的方向驶来,此行为被记录了下来了。但是,大多数人类驾驶员犯这样错误的可能性倒是很小。
我们如何让自动驾驶车辆比人类驾驶得更好,而且更好地处理人类在道路上的不完美行为呢?据加州大学伯克利分校(University of California at Berkeley)的研究人员所说,他们改变了自动驾驶车辆的动机。该研究团队表示:“提议自私的自动驾驶车辆关心自己的安全和驾驶质量是不够的,他们还应该对其他驾驶员有礼貌,这一点至关重要,因为人类并不是完全理性的,他们的行为将受到自动驾驶车辆的影响。我们提倡自动驾驶车辆应该最小化给其他驾驶员带来的不便。”
正如之前所提到的,人类都是自私的,一旦人类发现自动驾驶车辆总是因保护人类犯错误,人类就会利用它们,更具体地说,利用它们的奖励机制,如此一来,人类驾驶的车辆总是可以先行。在自动驾驶世界里,总是优先考虑人类驾驶员会使自动驾驶车辆,至少从理论上来看,更慢、效率更低。一般来说,经常避开的自动驾驶车辆将永远无法到达任何地方。并且,如果自动驾驶车辆总是试图最大限度地实现“目标”,获取“奖励”,最终可能变得更加地激进,因为他们像人类一样收集了更多的驾驶数据。
为了解决此问题,研究人员想出了一个办法来测量和量化有些人类驾驶员会采用的“礼貌”机制。毕竟,人类驾驶员也不总是在街上大吼大叫的。此办法的工作方式是:研究人员使用算法对人类驾驶员和自动驾驶车辆的潜在行为进行成本/效益分析。当人类驾驶员与自动驾驶车辆互动时,他们会考虑以下三个场景:
1. 如果自动驾驶车辆不在,人类驾驶员会怎么做;
2. 如果自动驾驶车辆只是在帮助人类驾驶员,人类驾驶员会怎么做;
3. 如果自动驾驶车辆只是在做它之前做的事,人类驾驶员会怎么做
该研究团队将上述场景转变成计算机可以理解的数学语言,然后由算法完成其余工作。从本质上来看,研究人员已经定义和量化了礼貌程度,并且还找到了一种让人工智能(AI)在优化训练时考虑到礼貌的办法。目前,研究人员正在教人工智能找到人类攻击性及被动性的中介点,应该可以让自动驾驶车辆更容易处理人类驾驶时做出的非理性的行为。
该研究工作仍处于早期阶段,在不加剧我们正尝试解决的问题的基础上找到结合机器和人类驾驶员的方法仍需要很长时间。
来源:盖世汽车
本文地址:https://www.d1ev.com/news/jishu/74772
以上内容转载自盖世汽车,目的在于传播更多信息,如有侵仅请联系admin#d1ev.com(#替换成@)删除,转载内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网,如有侵权请联系admin#d1ev.com(#替换成@)删除。