1. 首页
  2. 资讯
  3. 市场
  4. 弗劳恩霍夫开发视觉语言模型 实现驾驶员和汽车的相互理解

弗劳恩霍夫开发视觉语言模型 实现驾驶员和汽车的相互理解

盖世汽车

盖世汽车讯 据外媒报道,根据自动化程度优化车辆与驾驶员之间的通信是弗劳恩霍夫(Fraunhofer)与其他公司合作开展的一项研究项目的目标。研究人员将用于监控车辆内部的传感器与语言模型相结合,形成所谓的视觉语言模型,旨在提高未来汽车的便利性和安全性。

弗劳恩霍夫开发视觉语言模型 实现驾驶员和汽车的相互理解

图片来源:弗劳恩霍夫

“警告,如果您现在继续阅读,您可能会在蜿蜒的道路上感到恶心。五分钟后,我们将上高速公路,那时会更容易晕车。”或者:“即将下雨,我们需要关闭自动驾驶。请准备好独自驾驶一段时间。很抱歉,但您现在需要将笔记本电脑存放在安全的地方。安全第一。”几年后,汽车可能会以非常类似的方式与驾驶员进行交流。

随着汽车自动化程度的提高,人们需要重新思考汽车与人类的互动方式。为此,弗劳恩霍夫光电、系统技术和图像开发研究所IOSB(Fraunhofer Institutes for Optronics, System Technologies and Image Exploitation IOSB)和工业工程研究所IAO(Industrial Engineering IAO)的研究团队与大陆集团、福特和奥迪等十家合作伙伴以及一系列中型企业和大学达成合作,共同开展KARLI项目。KARLI是德语首字母缩写词,代表未来汽车中“用于自适应、响应和水平兼容交互的人工智能(Artificial Intelligence for Adaptive, Responsive and Level-compliant Interaction)”。

目前共有六个不同的自动化级别:无自动化(L0)、驾驶辅助(L1)、部分自动化(L2)、条件自动化(L3)、高度自动化(L4)和全自动(L5)。“在KARLI项目中,我们正在开发适用于L2至L4级自动化的AI功能。为此,我们记录驾驶员的行为,并设计出适用于每个级别的不同人机交互,”卡尔斯鲁厄弗劳恩霍夫光电、系统技术和图像开发研究所IOSB的项目协调员Frederik Diederichs解释道。

不同级别的交互

根据自动化级别,驾驶员要么需要专注于道路,要么专注于其他事物。他们有十秒钟的时间重新掌控方向盘,或者在某些情况下根本不需要再次干预。这些不同的用户需求以及根据道路情况在不同自动化级别之间切换的能力使得定义和设计适合每个级别的交互成为一项复杂的任务。此外,交互和设计必须确保驾驶员始终了解当前的自动化级别,以便他们能够正确履行职责。

来源:第一电动网

作者:盖世汽车

本文地址:https://www.d1ev.com/news/shichang/236231

返回第一电动网首页 >

收藏
56
  • 分享到:
发表评论
新闻推荐
热文榜
日排行
周排行
第一电动网官方微信

反馈和建议 在线回复

您的询价信息
已经成功提交我们稍后会联系您进行报价!

第一电动网
Hello world!
-->