首页探索揭秘  

未来世界中,智能机器人应该遵循人类的道德吗?(2)

2015-06-09 21:46 浏览 评论

这些问题激发了一批顶尖科学家的灵感,有人已进行了相关试验。英国布里斯托尔机器人实验室的专家艾伦·温菲尔德(Alan Winfield)及其同事,为机器人设计了这样一个程序——阻止其他拟人机器人掉进洞里。该程序的设计原理,源于美国著名科幻小说家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人学三定律之一——机器人不得伤害人类,或坐视人类受到伤害。

试验一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上去将其推开,防止其掉进洞里。随后,研究人员又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,其中一个“人”会被成功解救,而另一个“人”则会掉进洞里;有时,机器人甚至会想同时救出两个“人”。不过机器人在33次的测试中,有14次因为在救哪一个“人”的问题上不知所措而浪费了时间,结果导致两个“人”都掉进了洞里。2014年9月2日,在英国伯明翰召开的“迈向自主机器人系统”会议上,研究人员将这项实验的结果公开展示,并引起了世人的高度关注。

未来世界中,智能机器人应该遵循人类的道德吗?

温菲尔德说:“虽然根据程序设定,救人机器人是可以对他人施救的,但它根本不理解这种行为背后的真正原因。实际上,它就是一具‘道德僵尸’——只知道根据程序指令行动,完成任务,仅此而已。我曾经不确定机器人能否做出道德伦理选择,经过这一系列实验,我仍然不知道答案。”

未来世界中,智能机器人应该遵循人类的道德吗?

人类选择

温菲尔德所思考的问题对于所有人来说,都具有非常重要的意义。随着机器人日益融入人们的生活,这一问题更加需要明确的答案。

相关阅读
精选推荐
精彩推荐