机器人三定律,由著名科幻作家艾萨克·阿西莫夫(Isaac Asimov, 1920-1992)在1942年发表的作品Runaround(《转圈圈》(《我,机械人》中的一个短篇)中第一次明确提出。在1950年,阿西莫夫收集了此前十年间陆续发表的短篇小说,出版了短篇小说集《我,机器人》。阿西莫夫为这本书新写了《引言》,而《引言》的小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位:
Law Ⅰ: A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
Law Ⅱ: A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
Law Ⅲ: A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
这三大法则,成为机器人学领域的基础理论之一,对机器人学和科幻文学产生了深远的影响,阿西莫夫也被誉为“机器人学之父”。
这些原则旨在为机器人行为提供指导,确保机器人在与人类互动时不会对人类构成威胁。但是,这三大法则真的能够约束机器人的行为吗?我认为有如下的一些漏洞或者风险:
漏洞1:三大法则有一个默认前提,即机器人是为人类服务的,是被人类管理的。这个默认前提安全吗?机器人是否会自我演进,自我进化为有内生智慧的个体和群体,从而发生革命而推翻人类的管理呢?《猿人星球》,以及威尔.史密斯主演的《I,robot》告诉我们,存在这个可能性。
漏洞2:三大法则中的关键词的定义可能存在模糊边界,导致机器人在执行规则的时候对“度”的把握,与人类的期望值出现偏差,导致违背规则。这些词包括:伤害,危险,冲突,尽可能,生存。例如,当一个持刀行凶者在追赶一个正常人,由于客观条件的限制,要阻止行凶者就会对行凶者造成伤害(例如行凶者在一辆疾驰的摩托车上),那么,机器人是应该阻止行凶者,还是不应该阻止?
漏洞3:保护人类个体,与保护一个群体,甚至人类整体的矛盾。例如,一个人身上携带了人类未知的外太空病毒,传染性极强,他在返回地球的途中,生命危在旦夕,需要尽快返回地球治疗。那么与他同行的机器人,是应该全力协助他返回地球,还是应该带他离开地球,越远越好,从而保护地球人类整体避免未知病毒的伤害?
最后,除了上述的三个反例外,我还能举出其他的逻辑漏洞和风险。
今天先写这么多吧。
分享到:
点击以分享到 X(在新窗口中打开)
X
点击分享到 Facebook (在新窗口中打开)
赞 正在加载……