首页 » 人工智能:改变世界,重建未来 » 人工智能:改变世界,重建未来全文在线阅读

《人工智能:改变世界,重建未来》机器人学的三大法则

关灯直达底部

人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:我们需要在这个领域建立一种伦理规范。简而言之,如果我们要建造思考的机器,难道我们不应努力使其成为考虑周到的机器吗?然而它仍然与科幻小说有着难解难分的关系,因而也就不必奇怪在科幻作家艾萨克·阿西莫夫的作品中有许多在人工智能中植入道德感的著名例子。阿西莫夫的“机器人学的三大法则”首次出现在其1942年的短篇小说《环舞》(Runaround)中,这篇小说最初发表于《惊世科幻》(Astounding Science Fiction)三月刊中。这三大法则通常简称为“阿西莫夫法则”,常为人们引用的法则内容如下:

1. 机器人不得伤害人,也不得见人受到伤害而袖手旁观。

2. 机器人应服从人的一切命令,但不得违反第一法则。

3. 机器人应保护自身的安全,但不得违反第一、第二法则。

尽管已经过去70多年了,但“阿西莫夫法则”依然统管着阿西莫夫的科幻小说同行们。2014年1月,当谷歌收购深度学习公司DeepMind时,一切发生了重大变化。作为交易的一部分,谷歌必须成立人工智能伦理委员会,目标是确保对人工智能这项技术的明智使用。尽管关于该委员会构成的公开细节寥寥无几,但是建立这样一个防护措施是一个重要的基准。2015年夏季,DeepMind应用人工智能主管穆斯塔法·苏莱曼(Mustafa Suleyman)承认,在这个领域公众看待人工智能的方式已经发生了转变。“故事已经从‘人工智能如此失败不令人恐怖吗?’转变至‘人工智能如此成功不令人恐怖吗?’”在一场深度学习大会上,他曾如是说道。

谷歌不是唯一认为必须确保人工智能承担责任的研究团体。由于过去10年间深度学习与其他人工智能的统计形式已经成为规范,纽约伦斯勒理工学院认知科学系主任塞尔默·布林斯乔德(Selmer Bringsjord)发起了一场一个人的战争,支持回归到从头到尾基于逻辑的人工智能。“我不做任何统计学上的事情,”在描述他在实验室的工作时,他告诉我,“我非常不喜欢它,认为它正将我们引入歧途。”

对于布林斯乔德而言,之所以需要回归从头到尾有逻辑的人工智能,是因为依靠“数学上令人费解”的统计工具本质上是愚蠢的行为。“你希望系统能够阐述其行为的依据和正确性吗?”他说:“我们应该希望更加复杂的人工智能系统能够证明,它们根据获得的输入,其所作所为是正确的决定。”

有逻辑的人工智能可能意味着《连线》和《快公司》的篇章中那种引人注意的技术推出过程应该放慢,但布林斯乔德认为,创造具有清晰推理过程的人工智能是最重要的,因为这个过程事后可以分析。近斯关于有逻辑的人工智能的一个例子出现在位于纽约哈德逊河东岸的布林斯乔德实验室中。这个展示中,一台计算机尽力破解“三个智者”出的难题,实验由三个小型类人机器人辅助进行:这一实验可能意味着人工智能自我意识的萌芽。在这个难题中,三个机器人被告知,两个机器人服用了停止说话的“哑药”。它们的任务是找出其中仍然可以说话的那个机器人。三个机器人都试图说“我不知道”,但只有一个实际发出声音。当它听到自己的机器声音时,这个机器人明白它就是那个没有被禁止发声的机器人。“对不起,我现在知道了。”它说,“我能证明我没有吃哑药。”随后它写下了关于这个难题的有条理的数学证明,并把它保存起来。布林斯乔德进行了相同测试的不同版本,或者任何旨在解决其他哲学难题的测试,他认为这些测试将形成一个人工智能可以利用的日益完善的技巧或功能指令系统。

由于围绕用于战争的自动人工智能武器进行的工作越来越多,人们迫切需要像布林斯乔德这样的工作项目。2014年,在塔夫茨大学和布朗大学成立了一个多学科综合小组,小组和布林斯乔德合作,获得了海军研究办公室的资助,去探索能否为可能用于战争的自主机器人赋予是非感。尽管这种探索得到的不是一个“友好的人工智能”,但它可能会使机器人在战场上做出符合伦理的决定。设想一下,比如,一个正将伤兵运往战地医院的机器人军医遇到另一个腿上受伤的士兵。权衡停止执行救助任务的利弊,能否在战场采用牵引疗法止疼以及其他难题,对于人类来说已然是个难以驾驭的复杂问题了,更不用说对于机器了。

这样的问题可能越来越成为常态。设想一下,如果一个生产自动驾驶汽车的公司决定,当其生产的车辆检测到前方即将发生碰撞时,它的车辆可以猛地驶出道路,从而保护驾驶员,这将会发生什么情况呢?这一操作非常合理,如果是人类在驾驶车辆,多数人也会做出这样的决定。然而,如果你的车正停在红灯前,但这时它发现后面的一辆车快速驶来,这时将会怎样?你的车知道可能要发生追尾事故,随后它就驶出了马路……并正好冲进了一群放学回家的学生当中。司机避开了一个小追尾和潜在的会扭伤脖子的事故,但结果却是三个学生死于非命、两人受伤。即使最忠诚的车迷也难以为这种成本和收益的互换进行辩护。而这些正是人工智能研究人员开始认真对待的问题。