在美国科幻小说家艾萨克.阿西莫夫的短篇小说《Run around》中,机器人Speedy被科学家派去执行危险任务,几个小时之后却被发现在原地绕圈圈,口中重复无用的指令。原来是Speedy遇到了“道德危机”,根据机器人三大法则,机器人必须服从人类的命令,而又不得造成自己的伤害。法则三让他折回,而法则二促使他前进,在进还是退这个问题上陷入了两难。
故事背景设定在2015年,虽然看起来好像担心还为时过早,但实际上,无人驾驶汽车的出现、军用机器人的到来,家用机器人即将投入使用都预示着我们即将迎来一个人机合作的时代。随之而来的是必须要面对的机器人道德冲突难题。在不久的未来,无人驾驶汽车会面临这样的道德选择:在无法避免事故的情况下,是选择撞行人还是撞墙壁?
这个问题没有正确答案。机器人专家认为即使有,要根据复杂实况设定机器人要采取的方案和计划也是不切实际的。
Tufts大学的计算机科学教授,MatthiasScheutz说,要根据所有可能出现的情况设计出“if,then,else”的复杂系统几乎是不可能的。这也是问题的困难所在:你不能列出所有的情况和应对措施。相反,Scheutz试图将机器人的大脑设计得能像人脑做出理性的道德判断。其团队获得由美国海军研究办公室(ONR)拨放的750万美元资助,对人道德选择时的思考过程进行深入研究,并将尝试在机器人身上进行模拟推理过程。
在为期五年的项目结束时,科学家们必须对机器人的道德决定做出演示。其中一个例子是机器人医生接受命令为医院提供紧急救援物资,路上遇到一个受重伤的士兵,机器人应该停止任务帮助士兵吗?对于Scheutz的团队来讲,机器人所做的决定是对还是错,远没有他做决定的过程重要。机器人是否可以权衡各方面因素进行选择,并对选择进行解释。“我们可以看到机器人变得越来越成熟,越来越复杂,越来越自主”,他说,“我们不希望在未来社会里看到这些机器人对道德选择无动于衷。”
RonArkin,曾与军方合作过的乔治亚理工学院著名伦理学家,写出了机器人的第一个道德体系。对于ONR的资助,Arkin和他的团队提出了一种新方法。不同于为机器人设定道德约束,Arkin的团队研究婴儿的道德发展。这些经验将被运用到Soararchitecture(一种机器人认知系统)中。他们希望机器人在道德问题上可以比人类做出更好的选择,驾驶员可没时间在撞车一瞬间计算潜在的伤害。
在这之前,机器人还要面对另外一个挑战,即如何从环境中收集大量的信息,比如,有多少人在场,每人所扮演的角色。目前机器人的感知十分有限,如何在战场分清敌友,以及评估灾难受害者的身体和精神状况都仍是一个难题。