马克·埃斯波西托,谢慈铭,乔舒亚·恩特斯明赫尔,奥雷莉·让:由谁决定演算法的决策?

订户
赠阅文章
订户专享 赠阅文章

早报新添“赠阅文章”功能!凡早报VIP会员,每月可赠阅 5 篇订户专享文章。

了解更多

字体大小:

在过去几年里,麻省理工学院主持的“道德机器”(Moral Machine)研究,调查了公众对人工智能应用程序在不同环境中,应当如何表现的偏好。从数据得出的一个结论是,当自动驾驶汽车遇到生死攸关的情况时,人们认为它应该如何应对,在很大程度上会取决于此人来自何处,以及他对事故所涉及的行人或乘客的了解。


例如,在自驾车版本的经典“有轨电车难题”(trolley problem)中,有些人可能更希望汽车在伤害他人之前,先撞到一个被定罪的杀人犯,或者在撞到小孩之前,先撞到老人。还有一些人可能认为,自驾车应该简单地掷骰子,以避免由数据主导的歧视。


一般来说,此类窘境都是事后留给法庭去审判或警方调查去决断。但就自驾车而言,选择将在几毫秒内完成,意味着几乎没有足够的时间来做出明智的决定。重要的不是我们所知道的,而是汽车所知道的。问题在于应该让自驾车拥有关于周围人的哪些信息,是否应该允许企业提供不同的道德体系,以追求竞争优势?

订阅登录,以继续阅读全文!

LIKE我们的官方脸书网页以获取更多新信息