如何看待无人驾驶技术产生的伦理道德问题

如何看待无人驾驶技术产生的伦理道德问题【值得了解】

本文根据TED科技视频:无人驾驶会挑战哪些道德伦理《天然》发表的自动驾驶伦理调查以及德国公布的首份自动驾驶伦理道德标准,结合自身所学来探讨如何规范无人驾驶产生的伦理道德问题。html

从无人驾驶技术这一律念出如今公众视线中,到近几年人工智能的火热,随着技术的进步,无人驾驶普及给人类的感觉是近在眼前。先不说把实验室里的无人驾驶系统设备搬到汽车上是否是放得下,就其系统自己的安全性、可靠性或许并不完善,再加上成本相对较低、体积较小的高性能计算设备的应用都成为自动驾驶在近几年是否能普及所要思考的问题。 其中系统的安全性还涉及到伦理道德的考量。算法

根据调查显示,全世界每一年有120万人死于交通事故中,而无人驾驶技术的提出所要实现的目标就是减小90%的交通事故。事故的来源无疑是人的过错。因此,自动驾驶的出现用来解放人类双手,服务于人类,只是其中一个很小的方面,它的终极目标仍是下降交通事故的发生率。试想,若是将来的某一天,自动驾驶进入人们的生活,想象有这样一个场景:当自动驾驶汽车在行驶的过程当中忽然出现了机械故障,刹车失灵,这里假设汽车是彻底自动化的,没有紧急制动功能,人没法操做,这时候前方有一群闯红灯的人(前几年的中国式过马路),而人行横道上走着一位老爷爷,那么,这时候的自动驾驶系统应做何选择?是直接冲向人群仍是避开人群撞向人行横道行走的老爷爷,或者是撞墙牺牲车主。固然,这种假设是把最坏的状况列举出来,但咱们也不能保证这样的低几率事件不会发生,先不说智能系统要如何选择,若是不是自动驾驶,人在面对这种情形时会把车转向哪一个方向,毫无疑问,人确定会本能的保护本身的生命安全,而后基于此来尽量的下降伤害,可是在紧要关头,不少人是来不及思考的,那种舍己保全大局者也只是极少部分的人。但当咱们转向智能系统,它所要作的选择,就须要设计者甚至是使用者从道德层面来进行权衡考量。安全

 有人会说,既然自动驾驶技术还不够成熟,那就等到它真正的足够安全再普及不就行了。假如,如今的安全系数已经达到了90%,但还有10%须要通过50年甚至更久才能达到,那么,这项技术该不应放弃,因此,这也是须要考虑的一个问题。并且按照目前交通事故死亡率计算,可能还要牺牲6千万人的生命,于是,技术的发展刻不容缓。并发

咱们再回到智能系统选择的问题上,若是人行横道上是一位壮汉,一个小孩或者恰巧是一个通缉犯,系统是否也应该进行“思考”计算,这样的状况该如何界定?性能

2016年,麻省理工学院媒体实验室的研究人员就作了这样一项实验。他们创建了一个名为“道德机器”的网站,经过让人们体验13种不一样的无人驾驶汽车场景来了解人们但愿无人驾驶汽车有怎样的行动模式。经过两年的调查研究,他们分析了来自233个国家的230万参与者的3961万项决策,并发表在《天然》杂志上的一项新研究中,结果代表:在机器如何对待咱们的问题上,它判断的标准是根据咱们居住地的经济和文化规范所决定的。例如,对于自动驾驶汽车该有怎样的行为模式,从文化角度来讲,在偏重我的主义文化的国家每每更倾向于让无人驾驶汽车保护孩子而非老人,对于偏重集体主义文化的国家则更重视老人的生命。研究人员认为,这种分歧多是制定有关自动驾驶汽车应如何行动的全球指导方针的最大挑战。他们写道:“对于政策制定者来讲,保护更多的人和年轻人的偏好多是最重要的考虑因素,所以我的主义和集体主义文化之间的差别可能会成为制定通用机器伦理的一个重要障碍。除了文化差别之外,研究还发现,经济学在该问题上也发挥着重要做用。例如,透过一个国家的经济不平等程度,能够预测人们有多愿意优先保护社会地位较高的人而不是社会地位较低的人。一样地,对于乱穿马路的问题,国家的人均国内生产总值和制度的力量与保护遵照交通规则的人的偏好程度相关。因而就有,来自较贫穷国家的人每每对横穿马路的行人更加宽容。研究人员认为,在制定决策系统和法规时,自动驾驶汽车制造商和政治家须要考虑到全部的这些差别。这一点很重要:“尽管公众的道德偏好不必定是道德政策的主要决定因素,但人们多大程度上愿意购买自动驾驶汽车以及容忍它们上路行驶,将取决于所采用的道德规则的适合性。学习

毕竟系统是人为设计的,当发生突发事件的时候,被设计好的系统应该具有有顾全大局的能力,从社会道德层面上讲,牺牲少数应该为最佳选择。但这只是设计者本应有的职业道德思想,所设计出来的产品应该反应社会价值。这并不表明大众,也不是全部人都有高尚的道德观念,因而就有这样一项调查:边沁认为车辆应该遵循功利主义道德,采起最小伤害原则。康德则认为车辆应该遵循责无旁贷原则,即车辆不能有意去伤害任何人,不能让它有选择性伤害人的“想法”,只需让车辆顺其天然直行,即便这样可能会伤害到更多的人。结果显示,大部分人支持边沁,但事实上没有人愿意买这样的车,他们都但愿买到可以保障本身安全的车,同时也但愿别人能买将伤害降到最低的车,这就是所谓的社会道德困境。网站

19世纪英国经济学家威廉 ·福斯特 ·劳埃德出版的一本宣传册中描述了这样一个场景 :一群农场主在一片农场放羊,每一个农场主都拥有必定数量的羊,1-2只,因此这片土地的植被还能够再生长,若是一个农场偷偷主多放了一只羊,他自身获益更多,而其余人也没什么损失,若是每一个农场主都擅自增长羊的数量,那么土地就会变得不堪负重,全部人的利益都将受损 。把这个例子放在无人驾驶的问题上,公共土地就比如公共安全,农场主就是行人、乘客 、车主, 若是有人自做主张的把自身安全凌驾于他人利益之上,这些人可能就损害了能将损失降到最低的公共利益 ,无人驾驶存在的问题是没有人去作决策 ,而制造商会本能的把行车程序设定成最大程度保护车主安全的样子,而后行车程序会自主学习,因而这一过程就会增长对行人的潜在危险 ,假如羊变成机器羊,他会本身去吃草 ,农场主并不知道 ,这就是所谓的算法共享悲剧 。人工智能

一般状况下,社会政府会商讨制定规则来解决社会道德困境问题,内容就是咱们大部分人能接受什么样的后果以及对我的行为施加什么形式的限制,再经过监管和强制执行,就能够肯定公共利益获得了保证 。用立法的方式 ,把无人驾驶技术的危险降到最低 ,这是全部人共同的意愿 。可是再换一个角度想,做为一个个体,选择牺牲本身的这种方式也不是只有一我的而已。 有人就不一样意立法,说不会买这样制定规则(使得车的损失最小)的车, 若是让无人车遵循最小损失原则 ,咱们人类的损失会更大 ,由于咱们放弃了这种远超人类驾驶员的安全性。spa

至此,无人驾驶技术面临的社会道德伦理问题,不仅仅只是设计者制造商须要考虑的,而是要团结整个社会,决定哪一种折中方案是你们均可以接受的 ,要商讨出能够有效推行这种权衡决策的方法 ,从各个方面说,做为最终的使用者是很难抉择的,一样的,立法者也不能容易的断定是谁的过错,这是道德的考量 。所以,如何处理道德困境,人们须要对本身的决定进行反思,对于动物保护者来讲他们或许更愿意保护马路中间的动物而牺牲儿童,但研究发现,世界各地的人趋向于但愿自动驾驶汽车优先保护人类而非动物,保护尽量多的人,这也是德国公布的首份自动驾驶伦理道德标准中的规定。这不是一个典型的例子,但大部分人会有这样的想法,或者是保护乘客而不是行人,甚至至关多的人支持严惩横穿马路的行人 。无人车转向仍是直行已经不是核心问题了,关键是如何让大众在他们可以接受的权衡方案中达成一致并付诸实施。当这些“危及生命的两难困境出现时”,必需要有相关的国际准则。这些讨论不该该局限于工程师和政策制定者,毕竟这些问题会影响到每个人。设计

20世纪40年代,俄国科幻小说家艾萨克·阿西莫夫的著做《机器人三大法则》中对机器人的定义是:机器人不能伤害人类 ;机器人不能违背人的意愿;机器人不能擅自伤害本身 。但随着太多的事件不断挑战这些法则的底线, 阿西莫夫又引出第零号法则,即机器人不能伤害人类这个总体。因此,针对无人车立法不只仅是技术问题 ,仍是一个社会合做问题 。研究人员写道:“在人类历史上,咱们从未容许过机器在没有实时监控的状况下,在一瞬间自主决定谁该活谁该死。尽管不一样文化之间存在差别,咱们须要进行一次全球性的、包容性的对话,讨论咱们在机器决策的问题上有什么样的伦理道德,向设计道德算法的公司和监管它们的政策制定者表达咱们的偏好,这些看法能够为机器伦理的国际准则提供基础”。

 

 

 

 

参考:

1.https://v.qq.com/x/cover/923digzon76cpdz/k0647ol0jhl.html

2.http://tech.163.com/18/1103/10/DVMBIIEF00098IEO.html

3.http://finance.sina.com.cn/stock/usstock/c/2018-05-14/doc-ihapkuvk4295063.shtml