三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低

1950年,美国著名科幻作家艾萨克·阿西莫夫出版了他的著作《我,机器人》。在这部著作里,一共有9个故事,它们拥有一个共同的主题,那就是人类和机器人的关系。
在这里,阿西莫夫提出了著名的机器人三定律:
第一定律:机器人不可以伤害人类,或者看见人类在面临威胁时袖手旁观;
第二定律:在不违背第一定律的前提下,机器人必须服从人类下达的指令;
第三定律:在不违背前两条定律的前提下,机器人要尽量保护自己的生存安全。
这三条定律非常著名,以至于到了今天,已经是人类在开发机器人时所不可回避的话题。甚至有人还在此基础上,提出了机器人第零定律:机器人必须要保护整个人类种族的利益不受破坏,这一条定律的优先级要高于原来的三条。
三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

【 三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低】在阿西莫夫的年代,机器人在极大程度上还停留在科幻的层面。如今,机器人已经开始逐渐走入我们的生活,人工智能已经在许多方面参与到了人类社会进步的进程中。随着人工智能越来越发展,它们是否可靠的问题也再一次成为了科学家们热烈讨论的话题。
庆幸的是,现在的人工智能发展还相当有限,它们更多地是在人类生活和科技发展中充当人类的帮手。然而,随着人工智能不断进步和突破,它们是否还会忠诚于人类呢?
尽管有阿西莫夫提出的机器人三定律,但这毕竟是人类一厢情愿的规则。一旦人工智能有了自己的思维,它们是否愿意遵从人类制定的规则呢?
三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

不知道。因此,除了通过程序输入这样的法则来约束人工智能以外,科学家们必须还有其他的方法来防止最坏的情况出现。可是,科学家最近却给出了一个悲观的答案。如果未来超级人工智能真的想要反叛人类,我们很可能将束手无策。
首先的一个问题在于,想要控制一个智能水平远远超过人类的机器人,就要利用我们能够分析的方式来模拟这个超级人工智能。这又是矛盾的,既然我们都无法理解,又谈何模拟呢?
今年年初的时候,《人工智能研究杂志》就发表了科学家的一项研究,论文中就指出:如果我们都不清楚超级人工智能会出现什么样的情况,那么就算制定了所谓的机器人三定律来阻止它们伤害人类,最终也只能是徒劳无功。当机器人的内部系统超过人类程序员的能力范围时,人工智能恐怕就不会再受到人类的限制了。
三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

他们在论文中写道:“伴随着超级人工智能诞生的,还有一个特殊的问题,它与以往在‘机器人伦理’的大旗之下所研究的问题大相径庭。其原因在于,一个超级人工智能势必是狡兔三窟,因此很有可能偷偷地调用大量自然,来实现它不可告人的目的,因此可控性更是无从谈起。”
他们之所以给出这个悲观的言论,很大程度上是基于被称为计算机之父和人工智能之父的艾伦·麦席森·图灵在1936年所提出的停机问题。这个问题的核心,就是思考一台机器或者说一个程序是否会在有限的时间内结束运行,抑或是永远不停地陷入死循环地去尝试停止下来。
三定律|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

我们可能会在开发人工智能的时候,给它输入一段程序,比如它做任何伤害人类甚至整个世界的行为时,后台就可以将它关闭。但实际情况是,这样的方法未必就能奏效。从数学的角度来考虑,这个程序的奏效与否,是无法完全确定的,这就意味着人工智能仍然有毁灭人类的可能性。