大发系列彩票平台

  • <tr id='Sqd2VL'><strong id='Sqd2VL'></strong><small id='Sqd2VL'></small><button id='Sqd2VL'></button><li id='Sqd2VL'><noscript id='Sqd2VL'><big id='Sqd2VL'></big><dt id='Sqd2VL'></dt></noscript></li></tr><ol id='Sqd2VL'><option id='Sqd2VL'><table id='Sqd2VL'><blockquote id='Sqd2VL'><tbody id='Sqd2VL'></tbody></blockquote></table></option></ol><u id='Sqd2VL'></u><kbd id='Sqd2VL'><kbd id='Sqd2VL'></kbd></kbd>

    <code id='Sqd2VL'><strong id='Sqd2VL'></strong></code>

    <fieldset id='Sqd2VL'></fieldset>
          <span id='Sqd2VL'></span>

              <ins id='Sqd2VL'></ins>
              <acronym id='Sqd2VL'><em id='Sqd2VL'></em><td id='Sqd2VL'><div id='Sqd2VL'></div></td></acronym><address id='Sqd2VL'><big id='Sqd2VL'><big id='Sqd2VL'></big><legend id='Sqd2VL'></legend></big></address>

              <i id='Sqd2VL'><div id='Sqd2VL'><ins id='Sqd2VL'></ins></div></i>
              <i id='Sqd2VL'></i>
            1. <dl id='Sqd2VL'></dl>
              1. <blockquote id='Sqd2VL'><q id='Sqd2VL'><noscript id='Sqd2VL'></noscript><dt id='Sqd2VL'></dt></q></blockquote><noframes id='Sqd2VL'><i id='Sqd2VL'></i>

                撞向小宝宝还是老▅太太的道德选择课题, MIT 发现了影响因素

                2018-11-07 16:27:55

                晴朗的╱一天,你正站在一条铁轨旁,突然一辆列车从前方失控驶来。此时铁轨上站着 5 名施→工的工人,列车的速度很快,他们已经来不及闪躲。你』手边刚好有一个可以切换列车行驶轨道的手柄,但另一道铁轨上也站着一个戴耳机的人,没有留意到列车。

                是否要拉动︽手柄,牺牲一个人来挽救 5 个人的∏生命?这是经典的“有◥轨电车难题”(又称电车问题),由哲学家 Philippa Foot 于 1967 年提出, 1985 年,美国道◣德哲学家 Judith Jarvis Thomson 又改编出了另几种情境变化。

                “有轨电车难题”图示。来源于Wiki Commons

                电车问题的存在不在于解决问题,而旨在通过一个两难的“道德困境”,让人对生活中的决策,和决策过程产生进一步的思考。提出后的几十年里,已经激发了全世界范围内的热切讨论,在流行文化的创作中卐也频频重现。但随着自动驾驶技术愈发接近实现和普及,近年来对于电车问题的讨论,不论是热度还是紧迫性,都已然上升到另↑一个层面。

                2014 年,麻省理工学院( MIT )媒体实⌒验室设计了一个名为道德机器的实验。他们创建了一个简易的游戏平台,收集人们在电车问题的不同变化中会做出什么样的决策。而站∑ 在决策者,也就是实验的参与玩家的第一视角,会被提出这样的问题:这辆自动驾驶的汽车该如何⊙选择?

                道德机器假设的情境测试了 9 种不同比较下人们的选择分化:

                选择人类还是宠物?乘客还是①行人?人多的还是人少的?男人还是女人?小孩子还是老人?健康的还是肥胖的?社会Ψ地位高的还是社会地位底的?遵守交规的还是乱闯红灯的?以及作为这辆车,应该正常行驶不作▓为,还〖是做出选择?

                1/3

                道德机器中的几种情境:撞向4名儿童还¤是5名老人?来源于

                道德机器实验平台

                根据 MIT Tech Review ,平台上线后,收到的反馈数远远超出研究人员的预料。四年内,来自 233 个国家和地区☆的数百万参与者,已经做出了 4000 万份决策回馈,使其成为有史ω以来全球针对道德偏好的最大规〗模研究之一。

                世界地图上标出了实验参与者的地域分布。来源《自然》
                 

                近日,一篇发表在《自然》上的新论文介□ 绍了对于这批数据的分析。

                一部分结果和人们的预期相差不大。比如总体来说,在相同的情况下,人们的反馈显示他们会选择挽救更多的生命,挽救儿童而不是成年人,挽救人类而不是宠物。

                另一部分则显示出人们的决策趋向在地理、种族和社会经济地位方面的差异性。

                比如说,虽然『整体而言,人们的选择更加偏向于◥年轻人而不是老年人,但在一些东亚和中东国家,例如中国、日本和沙特阿拉伯,这种偏向的幅度不那么明显。研究人员猜测这与这些国家尊重△长者的道德传统□,以及集体主义文化背景有关。

                另一个观〓察显示,国家繁荣(以 GDP 划分)和法治程度越低的地方,人们对于违法者,也就是闯红灯的行人越宽容,“大概是因为在他们的经验体系中,违法的后果和惩罚都相应地更弱。”

                研究人员还发现,不是所有的情境下,人们都优先从数量上考虑应该挽救哪一边。而在这方面,来自个人主义文化背景,比如说√美国和英国的参与者,则更加倾向于数量的重要性而不是其他因素。研究者猜测,这源于这些文化中对于个人生命价值的重视。

                论文▓还阐述了一些有趣发现。比如国家贫富差距越大,人们在道德机器中对于富人和穷人的态度也更加不平↘等;人们整体上更倾向于女性而不是男性,在女性健康和寿命预期越长的地区,这种趋向更加明显;而且显然,比起猫,人们更加倾向于狗。

                a图蓝色柱状图显示出对于右侧群体的倾向程度。b图显示了对于单个群体整体的倾向程度。来源于《自然》

                 

                “人类历史上从没有像现在一样,允许机器在没有实时控制的情况下在片刻间就决定人们的生死。”论文的结尾写道。在同样的情况下,人类驾驶员只有瞬间做出决策,不论结果如何,外界也许都不会对其大加指责。但自动驾驶却允许将道德标准事先进行编程,也可以说,科技的进步为人类带来了从未有过的伦◣理挑战。

                但论文也承认这些结果并不是对不同国家人群选择的〓明确评估,也并不试图对政策决策者做出建议。

                “我们试图在↘这里展示的是描述性伦理:人们对道德决策的偏好。”该论文的共同作者 Edmond Awad 告诉 The Verge 。“当涉及到规范伦理学,就是在现实▲世界中的设计应该留给专家。”

                线上测试入口:  ;题图来源于 Giphy