最近,伦理学家Patrick Lin在一篇文章中表示,在未来的无人驾驶汽车中加入一个可编程的道德按钮,并不是解决这项新科技带来的道德上的不适应的最佳方案。不过,直接忽视你的道德选择的无人驾驶汽车难道不是更糟糕吗?显然,对于这个问题有一个中庸的解决方案,我们只消看看现代医疗就能找到答案。
首先,我们先来做一个思想实验,这个实验与Patrick Lin文章中的那个差不多,叫做“隧道问题”:你坐在一辆疾驰在单行道山路上的无人驾驶汽车里,这辆车正以飞快的速度靠近一个狭窄的隧道。就在你所乘坐的汽车进入隧道前的一刻,一个小孩冒了出来,并走到了路中间,正好挡住了隧道的入口。这时刹车已经来不及避免事故。无人驾驶汽车只有两个选择,一是直接冲过去,但这会导致小孩死亡;二是快速转向撞向隧道的任意一边,但这会让你丧生。
现在,你问问自己,汽车是应该直接冲过去还是转向,由谁来做这个决定?汽车厂商?用户?立法者?
最近,机器人道德倡议组织Open Roboethics Initiative就这一问题对公众进行了一项调查。调查显示,77%的受访者认为应该由用户自己或者立法者来做这个决定。认为应该由汽车制造商和设计师做决定的受访者只有12%。
我们应该对这个调查结果感到惊讶吗?也许不应该。这个“隧道问题”引发了一个深刻的道德问题,而且是个没有正确答案的问题。在这种情况下,个人内心的道德责任感,对于是选择冲过去还是转向有着重要的影响。
根据Bernard Williams等哲学家的观点,我们的道德责任感有时会胜过其它道德方面的考虑,即使是违反直觉的,比如牺牲大多数人成全少数人。在这个隧道问题上,如果直接否认个人拥有自己的道德偏好,将决定直接预先植入到汽车中,很有可能会违背用户的信念。这绝对不合适。
一个现成的解决方案
在医疗领域,当必须做出道德选择的时候,标准的做法是护士和医生通知病人,并告知他们所有合理的治疗选项,然后让病人在知情的情况下做出符合自己偏好的选择。这个知情同意书达成的过程,遵循了个人有权利对自己的身体做出决策的理念。医疗领域的知情同意书已经在道德上和法律上获得了认可,对于哪些未与病人达成知情同意书而私自替病人做选择的医护工作者将面临不作为的指控。
知情同意书并非一开始就是医疗领域的标准做法。以前,更通行的做法是医生代表病人在重要治疗决策中做选择,医生们常常以这是医疗计划的一部分来欺骗病人。
知情同意书的引入并非为了简化办事流程。事实上,这个做法反而让整个医疗过程的决策变得相当复杂。知情同意书让病人的负担明显加重,因为他们必须在各种选项中做出艰难的抉择。同时,这个做法也让医护工作者有了另一种不作为的可能性。此外,这个做法还增加了医疗机构的成本,因为医生需要花时间与病人进行艰难的交谈,还需要完成一些文书的签署工作。由于医疗领域是一个专业性非常强的领域,因此医生在告知病人选项的时候,往往非常艰难,作为外行的病人也很可能根本无法理解医生所说的那些医学概念。
你也可以认为,知情同意书将责任全部转移到了病人的身上。反对者认为,知情同意书是不公平的,它将个人至于各种艰难、难以理解的选择之中,由于缺乏相应的知识使得个人在选择面前陷入了手足无措的境地之中。
然而,尽管知情同意书带来了一些挑战和各种麻烦,但是很难想象人们会愿意回到那个医生和护士可以在没有事先征求他们同意的情况下,替他们做出道德选择的年代。
那么我们又为什么要接受无人驾驶汽车的设计者和工程师,在遇到前文所述的隧道问题的时候在未征得我们明确同意的情况下,代表我们做出道德选择呢?解决这个道德问题的一个可行的解决方案就是,在工程领域效仿在医疗行业久经考验的做法——引入标准完善的知情同意书。当然,实现这一点的其中一种方式(还有很多其它方式)就是在无人驾驶汽车中植入各种合理可行的道德选项,由用户自行选择设置。
是时候重新考虑机器人的责任了?
很显然,无论机器人学家如何设计机器人,只要出了事律师还是会起诉人,而非机器人。此外,如果我们依然遵循传统的产品责任法的话,那么毫无疑问引入这种道德设置选项一定会让用户和厂商面临更多的新型责任诉讼,正如知情同意书的出现在医疗领域引起的各种纠纷一样。
尽管如此,还是有越来越多的人相信我们需要在法律上重新认真思考,我们是否对无人驾驶汽车和其它类型的机器人实行了合理的管制。
首先,我们可以考虑将制造商未能及时与用户在涉及道德选择的问题上达成知情同意书的情况,视为产品存在缺陷。正如当医生未能在执行一种医学治疗前与病人达成知情同意书时,将被视为不作为一样,我们也可以认为如果制造商在无人驾驶汽车的设计和其它技术方面对用户个人的具体道德偏好不尊重的话,将需要对由此引起的问题承担一定的责任。这个方案可能会让无人驾驶汽车的设计复杂度增加。不过,谁说过制造机器人是一件很简单的事情吗?
我们必须拥抱复杂
如果我们在工程上引入一个健全的知情同意书制度,将可以避免很多麻烦的事情。当然,在给予用户的道德设置选项的数量上需要做些限制。因为如果你给用户的选择中包含“如果挡路的是个女人就直接撞过去”的话,将会显得非常荒谬。与此同时,如果允许用户选择牺牲自己以保护小孩的生命,将显得相当合理。只要这是符合用户的道德价值取向。即使这个任务比较复杂,但是对于哪些选项应该限制,还是很容易识别的。
机器人以及他们所引起的道德问题,极其复杂。但是如果我们想要转变我们对于工程和设计的道德思考,并且合理应对日益壮大的机器人行业所带来的问题的话,我们就必须认真关注和思考这个极其复杂的问题,而不是逃避。这个思维上的转变意味着我们必须拥抱复杂,因为道德和法律从来都是复杂的。不幸的是,即使在混乱中加入秩序,也不一定能够造就一个简单的世界。
星期四, 09/04/2014 - 09:10
#1
当机器人遇到道德选择时,应该由谁来做决定?
道德责任感有时会胜过其它道德方面的考虑
机器有自我道德意识 不久好了
一个思想实验
写个 道德模型,让机器人参考