最近有一篇论文报道了一项全球道德偏好调查,涉及到无人驾驶汽车在不可避免的事故中应该决定救哪一边。研究成果结合了全球参与者贡献的4000万个决策,或为人工智能(AI)普遍接受的道德标准的制定提供参考信息。
无人驾驶汽车不仅应该能够导航路线,还应该在不可避免的事故中应对道德困境。因此,有必要制定一套伦理准则来指导AI系统处理此类场景。如果无人驾驶汽车势必投入大量使用,首先要确定社会普遍接受的道德标准。
麻省理工学院的Iyad Rahwan和他的同事们建立了一个名为“道德机器”的大型在线调查平台,来统计世界各地人们的道德偏好。实验参与者被置于不可避免的事故现场,当时无人驾驶汽车正在双向街道上行驶。每个场景都会将行人和乘客置于不同的危险之中,而汽车可以选择不断变换车道或转向另一条车道。参与者必须选择拯救谁,并决定汽车的路线。在这个实验中记录了大约4000万个这样的决定。
研究人员已经确定了许多共同的道德偏好,例如拯救大多数人而不是少数人,拯救年轻人而不是老年人,以及拯救动物。作者还发现了不同文化中道德偏好的差异。例如,来自中南美洲国家、法国、前法国海外领地和现法国领地的参与者表现出首先拯救妇女和强壮个人的强烈偏好。来自收入差距较大国家的参与者在决定拯救谁时,往往会考虑他们的社会地位。相关论文发表于《自然》在线。
最后,研究人员指出,在让汽车做出道德选择之前,有必要进行全球对话,并将人们的偏好告知那些实施监管的道德算法设计公司和政策制定者。