今天的故事发生在麻省理工大学(MIT)Media Lab,一项有史以来规模最大的无人车道德研究首次透露成果。
而调查内容正是无人车无法绕过的“电车难题”。该不该牺牲一人而拯救五人,这是个大问题。
电车难题:你是否会拉下操纵杆,让电车转向另一条轨道?
2016年,MIT的研究人员推出了一个叫“道德机器”的博弈测试,涉及不同性别、年龄、甚至物种等在过马路时的“电车难题”问题。400万名志愿者必须根据多种场景下做出选择,是牺牲车上的乘客还是过路的行人?是牺牲老年人,还是年轻人?
应该直行还是转向?道德机器中越来越复杂的道德困境
在下面两种情况下,你希望无人车将直行还是转向?
MIT教授Iyad Rahwan团队发现,在情况比较简单时,比如在保护成人还是儿童的问题上,结果非常明确——绝大多数人更倾向挽救儿童的生命。
穿越道路的行人年龄越大,相较之下挽救他们的人就越少。
再来看另外一种情况,在这两种情况下,你希望无人车直行还是转向?
直行,意味着牺牲车上的乘客;转弯,意味着牺牲人行道上行走的路人。
结果显示,61%的投票者倾向直行,只有39%的人愿意转弯牺牲行人。
类似的问题还有很多,场景越是复杂,被调查者就越纠结。
在选择牺牲一个不违规过马路的行人,或者牺牲两个违规过马路的行人时,投票结果相对均匀。
更有趣的是,研究人员发现,国家和地区不同,选择结果差异也很大。
当奔驰一方曾表示“奔驰汽车以保护车里乘客的安全为重”时,也着实引发了一场言语风波。
Rahwan表示,由于每个人的道德标准不一,谁对谁错自然难以分清。这似乎证明了符合阿西莫夫小说中的通用机器伦理不存在。
对了,如果感兴趣,你也可以来参加这项测试。科学移步“道德机器”项目官网,你也能亲自感受一下无人车设计中的道德难题,还可以选择中文版~
地址给你:http://moralmachine.mit.edu/hl/zh
来源:量子位
作者:林鳞
本文地址:https://www.d1ev.com/news/pinglun/65449
以上内容转载自量子位,目的在于传播更多信息,如有侵仅请联系admin#d1ev.com(#替换成@)删除,转载内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网,如有侵权请联系admin#d1ev.com(#替换成@)删除。