在过去几年里,麻省理工学院主持的“道德机器”(Moral Machine)研究,调查了公众对人工智能应用程序在不同环境中,应当如何表现的偏好。从数据得出的一个结论是,当自动驾驶汽车遇到生死攸关的情况时,人们认为它应该如何应对,在很大程度上会取决于此人来自何处,以及他对事故所涉及的行人或乘客的了解。
例如,在自驾车版本的经典“有轨电车难题”(trolley problem)中,有些人可能更希望汽车在伤害他人之前,先撞到一个被定罪的杀人犯,或者在撞到小孩之前,先撞到老人。还有一些人可能认为,自驾车应该简单地掷骰子,以避免由数据主导的歧视。
一般来说,此类窘境都是事后留给法庭去审判或警方调查去决断。但就自驾车而言,选择将在几毫秒内完成,意味着几乎没有足够的时间来做出明智的决定。重要的不是我们所知道的,而是汽车所知道的。问题在于应该让自驾车拥有关于周围人的哪些信息,是否应该允许企业提供不同的道德体系,以追求竞争优势?