网讯:在1968年上映的经典科幻电影《2001太空漫游》中,宇宙飞船的计算机HAL面临着两难选择。程序指令要求他履行飞船调查木星附近人造物的任务,同时还要求不向宇航员透露任务的真正目的。为了解决这个矛盾,HAL杀害了宇航员。
也日益普遍,从飞机驾驶舱到手术室不一而足。客机很久以前便可自动降落。无人驾驶火车也很平常。沃尔沃的V40轿车在堵车时实际上可做到自动驾驶,当它感觉到即将撞车时会紧急刹车,福特的B-Max也可做到这一点。完全自动驾驶的汽车正在全球各地进行试验。谷歌(微博)的无人驾驶汽车已在美国行进了25万英里,内华达州成为美国对公共道路无人驾驶立法的第一个州。几天前在巴塞罗那,沃尔沃展示了一列自动驾驶汽车上路。
随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。武器系统目前还有人类最后把关,但随着系统进一步复杂化,很可能变为自动执行命令的设备。
当科技发展到这一天时,机器人将面临伦理两难处境。黄蜂机器人该向据信为军事目标隐匿的建筑(同时也可能是民用避难所)开火吗?无人驾驶汽车该避让行人吗?——如果这样做意味着将损害其它车辆或给车内人员带来危险。抢险救灾的机器人该将现场的实情告诉大家吗?——如果告知实情有可能造成公众恐慌。这类问题导致了“机器伦理学”的兴起,研究赋予机器人判断对错的能力,让他们面临上述两难困境时能做出恰当的选择。