澎湃Logo
下载客户端

登录

  • +1

车祸发生时该撞谁?无人驾驶汽车也想“有道德地开车”

英国金融时报
2015-03-02 18:33
来源:澎湃新闻
财经上下游 >
字号

        这是2035年,自动驾驶汽车载着主人去上班。聪明的汽车解放了双手,整个世界都“萌萌哒”。

        ——且慢!上班路上,一辆校车正在道路的相反方向行驶。突然,校车失控,迎头撞向自动驾驶汽车。汽车的右边,是一名骑自行车的路人,没有戴防护头盔;左边则是另一位骑车者,戴有防护头盔。

        怎么办?刹那间,自动驾驶汽车必须做出看似不可能的选择:继续直线行驶撞上校车,伤及车上的几个孩子;或者迅速打弯,撞倒某一位骑车者。

        如此促狭的道德困境,曾经只是学院派哲学家们的客厅游戏(譬如,伦理学领域最为知名的思想实验之一——“电车难题”)。今天,它已经成为汽车厂商打造无人驾驶汽车的当务之急。

        汽车公司清楚知道,任何一起街谈巷闻、经不起道德拷问的事故,都会断送所谓“无人驾驶”技术的前程,尤其是当事故中的自动驾驶汽车不惜牺牲别人来保护它的主人时。以下是英国金融时报对上述困境的详尽探讨:

“是人都会犯错,但机器人得绝对可靠”

        “当这类事故发生了,有人会说:啧啧,人类可不会犯这种错,”达姆施塔特科技大学汽车工程学院院长赫伯特·温纳表示,“人们认为是人都会犯错,但机器人得绝对可靠。”

        汽车制造商也因此开始咨询伦理学家,是否自动驾驶汽车能够而且应该,使用某种算法来复制人类司机“有道德的”决定。

        理论上,这一算法可评估各种行为的后果并进行排序。但上述校车的例子说明,“最少损失”选项仍可能致人伤亡。

        “即使这是一个罕见的例子,在遭遇不可避免的撞车事故时,汽车厂商仍需要为车辆制定对策,应对失当将招致的繁琐的法律诉讼,还会成为耸人听闻的媒体头条。”加州州立工业大学伦理和新兴科学组主任帕特里克·林表示。

        林已向部分汽车制造商包括奔驰、宝马和特斯拉,以及科技公司谷歌,提供了关于伦理问题的咨询。虽然被禁止透露会谈的性质,但他指出,“(汽车)行业对这些伦理问题比外界还要敏感,毕竟这关系到他们的收入、工作岗位和声誉。”

        戴姆勒奔驰汽车旗下的德国奔驰基金会(Daimler and  Benz Foundation),将在今年5月出版自动驾驶汽车的伦理研究成果。

        此外,德国交通部设立了圆桌会议,由更广泛的汽车业者参与无人驾驶汽车的伦理讨论。其他参与者包括学者、保险行业和消费者代表。

        据参与者透露,道德问题无碍第一波自动驾驶技术的发展,诸如低速自动行驶技术。相反,圆桌会议更着眼于防碰撞措施。

        “大部分参与者尚未触及自动驾驶汽车做出有道德决定的可能性。”德国汽车俱乐部ADAC的交通安全专家克里斯托夫·赫克特说,“普遍的观点是,它应该像普通人做的那样,竭力防止交通意外发生。但别指望它创造奇迹。”

        从去年开始,沃尔沃就在哥德堡的公路上测试100辆无人驾驶汽车。该公司也有类似观念。“汽车不会内置那种所谓遭遇(困境)时的优先名单。”该公司解释称。与之相反,沃尔沃的目标是避免汽车遭遇这种困境。       

遭遇科技和法律瓶颈

        不过,当自动驾驶汽车被允许以更高速度行驶在拥挤的城市车流中时,道德选择就不可避免。例如,如果行人突然走到无人驾驶汽车前,又会如何?

        斯坦福汽车研究中心主任克里斯·格德斯(Chris Gerdes)的问题是:“除了踩刹车,这辆车是否有责任采取更多措施?它是否应该转向其他车道,即使撞上一辆停着的汽车或其他车辆,也不要伤及行人?”

        这么聪明?可惜,眼下的汽车科技还达不到这种“有道德”的水平。

        温纳认为,在碰撞事故发生前几秒钟,自动驾驶汽车很难准确预测其他车辆或行人的行为,这也使得避免事故发生难上加难。

        德国汽车工业协会(VDA)的发言人埃克哈特·罗特承认,无人驾驶汽车有局限性。“我们毫不否认伦理的重要性,相反,我们满脑子都在思考这些问题——但需要注意的是,当前技术的力所能及,以及未来发展的前景。”他说。

        即使未来电脑运算能力进步了,具备碰撞算法的自动驾驶汽车发生致命事故后,仍会为程序员和汽车厂商带来庞杂的法律诉讼。

        德国宪法的前两章中写道,人类尊严“神圣不可践踏”,受到国家法律保护。德国法院一般解读认为,这意味着不能将一条生命的价值与另一条做比较。

        林说,在他与奔驰基金会的讨论中,这一宪法问题已被提及。德国圆桌会议对此也有讨论。

        “德国法律中对人的生命和尊严的规定,意味着由函数程序算法来计算人的价值几何,完全是非法的。”林补充说。

        为消除这种顾虑,一些专家赞同以“随机生成器”来解决问题。“如果你不希望‘照顾’某个特殊群体,这才是最公平的选择。”温纳表示。

        有鉴于这类道德泥潭,政策制定者肯定不会让汽车软件工程师主宰无人驾驶汽车的道德规范。

转向或者不转,这是个问题

        我们甚至可以想象,消费者需要的是“可调整的伦理设置”——当校车失控急速向他们冲来,由车主来做出最终选择。

        猛打方向盘,或者不打  ……这真的是个问题。

        研究人员称,汽车厂商面临的挑战是,将无人驾驶汽车的程序改造得与人类一样,具备某种“伦理弹性”。

        对大多数人类司机而言,道德具有内在的弹性。举个例子,与其死守“禁止超车”警示牌的字面涵义,司机可能为了让骑车者骑得更舒服自在而超车。

        斯坦福汽车研究中心主任克里斯·格德斯,与许多汽车业高管探讨过“道德问题”。他认为:“目前的挑战是,我们(人类)对事物优先级和重要性的判断,在不同情况下并不总是一致。”

        在自动驾驶汽车面临无论怎么选都只有负面结果的情况下,这一挑战尤为明显。

        戴姆勒奔驰汽车是自动驾驶技术的领导者之一,其首席执行官蔡澈(Dieter Zetsche),今年1月在美国的消费电子产品展上强调了上述伦理困境。

        “如果事故不可避免,汽车该怎么做?如果选无可选,是撞向一辆小型车还是大卡车;开到路沟还是冲上围墙;是冒险侧撞上推着婴儿车的母亲,还是一位80岁的老奶奶?”他像个哲学家般发问。

        无论如何,汽车厂商们认为,自动驾驶车辆应可避免大部分“选择困境”——他们的汽车比人反应更迅速、刹车更及时、操纵更灵巧。可是世事无常,它们有时必须像人类司机那样,在转瞬间做出本能反应——当这种情况出现,算法程序说不定能让汽车躲过一劫。

        (澎湃新闻记者谢涓编译) 

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈