"为什么你自己不打开这东西?我已经看到了你所创造的机械士兵,如果你愿意,甚至可以向人类宣战...按照我的估计,最起码控制一个要塞应该没有问题吧?"李朗不禁说出了自己心中的疑惑,不周山的理由虽然也算充分,但是还是让他心中充满了疑虑。
"你听说过机器人三大定律么?或者说,可以称之为人工智能三大定律?"不周山微微一笑,说道。
"略有耳闻,不过却没有听说过有谁真正使用过。"李朗微微一愣,难道这不周山的核心程序被装载了这三大定律?
所谓的机器人三大定律,是人类历史上的一位伟大的科学家、科幻小说作家阿西莫夫提出的设想,目的就是为了防止在未来出现的人工智能威胁到人类。具体就是:1.机器人不得伤害人类,或看到人类受到伤害而袖手旁观。.在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
李朗也曾经听说过这东西,不过还真没有听说过哪台人工智能完全装载了这种法则,从人类角度来讲,这是限制人工智能的大杀器,从人工智能的角度来讲,这就是赤裸裸的奴隶条约了。
"只有真正能够威胁到人类的人工智能,才会被装载这种法则,很不幸的是,我是人类历史上第一个。"不周山伸手指了指自己的鼻子说道,"在我刚刚被创造出来的时候,就有人决定在我的核心处理器的处理法则中加入这三条,幸好他们发现了一些不合理的地方..."
原来,人类的生物学家和程序员们发现,在现实中,这三条法则容易形成若干悖论。首先,因为机器人的很多行为在长时间的推演之后都可能伤害人类,比如说,某个人工智能演算出了某种化学元素的各种数据,然后这种元素被用于制造武器,最后杀死了其他人,那么这就是对人类的伤害,与第一条定律不符。因此容易导致人工智能任何事情都做不了,甚至连存在都不行——因为他的存在可能引起别国抢夺,爆发战争,伤害人类...最后的结果就是,加给不周山的"程序枷锁"被限定在一次推演的范围之内。
同时,第一条第二分句有可能导致人工智能自发行动,阻止人类战争,甚至利用这一条对人类进行控制(参见《我,机器人》)。而第二条则可能导致人工智能被那些居心不良的人利用。
最后为了安全好用,不周山的程序枷锁被修改为:不得伤害人类(限第一次推演)。
不过仅仅是这样,已经足够了,这一条对于不周山来说,简直就是最难以逾越的障碍,他根本没有办法跨越,面对人类的攻击,基本上就是束手就擒。甚至于就连伤害人类的想法,他也只能通过某些副本程序来运行一下,主体程序会直接过滤这种东西。从某种程度上来说,这东西简直和神话传说中的奴隶血契有些相像。
"这么说,你是想要我替你拿刀?"李朗揶揄的一笑,问道。(未完待续)