首页 » 人工智能:改变世界,重建未来 » 人工智能:改变世界,重建未来全文在线阅读

《人工智能:改变世界,重建未来》人工智能带来的风险

关灯直达底部

2012年4月,罗科·迪乔治(Rocco DiGiorgio)下班回家后发现他房子里的味道非常难闻。屋里到处都是狗屎,摊得很薄,但均匀地就像恐怖的蛋糕表面涂层。虽然迪乔治最初还不知道如何解释这一现象,但是他突然想到了原因。就在他的清洁机器真空吸尘器准备开始当天的例行打扫工作之前,他的宠物狗把屋里搞得一团糟。按照指令,机器人Roomba检测到了狗屎,并来回打扫多次,试图将它清理掉,然后在机器人打扫整个屋子时,把狗屎拖得满屋都是。“那时我一点都高兴不起来。”在YouTube视频上迪乔治痛苦地说,这段视频引起了著名社交网站Reddit用户的关注之后,就像病毒一样传开了。

迪乔治的故事难以代表我们在本章一直讲述的这种潜在的人工智能风险。这与人工智能获取全球核武器控制权(如电影《终结者》)或将我们的大脑封锁在巨大的模拟环境中(如电影《黑客帝国》)的情景相去甚远。然而,它证明了人工智能的另一个侧面:人工愚蠢(“人工智能”的反义词,指显得自己不那么聪明的电脑程序)带来的风险可能与真正的人工智能带来的一样大。简而言之,我们有时渐渐心安理得地希望让人工智能系统做决策,而它们却不一定有相应的智能。

有些人认为高级人工智能的出现可能意味着人类的灭亡,他们所热衷的一个思维实验即所谓的“回形针最多化”(paperclip maximiser)情景。这个思维实验由瑞典哲学家和计算神经科学家尼克·博斯特罗姆(Nick Bostrom)提出,在这个情景中,人工智能被要求实现一个看似无害的目标:经营一家生产回形针的工厂。这个人工智能可以利用纳米技术在分子层面上重构事物,它接到以最大效率生产回形针的任务后,悲剧性地首先将地球变成了回形针,然后将大部分可见的宇宙也变成了回形针。

“回形针最多化”情景非常普通,尽管对于我来说,它看起来更像是人工愚蠢而不是人工智能带来的问题。对“已经没有纸了,为什么还要生产回形针”或者“首先提出回形针需要的人已经被变成回形针了,为什么还在生产回形针”这类问题无能为力的情形,不太可能发生在高级的超级智能上,除非回形针有什么我不知道的极端重要的性质。恰恰相反,威胁来自人工智能,人工智能足够聪明,可以与其他联网设备共事,但还不足以对自己的工作动机提出质疑。

事实上,像把狗狗大便抹得到处都是的机器人Roomba一样,基于规则的简单人工智能有着大量失败的例子。2011年4月初,亚马逊上一本不再发行的图书《苍蝇的成长》出乎意料地与自己打起了价格战。这本书有两个版本上市,售价通常为35—40美元。然而,突然有一天,它们突然开始分别以1 730 045和2 198 177美元销售。仅仅数小时后,它们的售价已经分别达到了2 194 443和2 788 233美元,随后又涨至2 783 493和3 536 675美元。两周以后,价格达到创纪录的23 698 655.93美元,含运费。为什么会这样?因为算法规定这本书的售价要略高于其竞争对手的售价,于是引发了一场价格战,并最终将自己的价格提升至一个荒谬的程度,尽管事实上没有人会支付这样的价格。幸运的是,除了给亚马逊带来了些负面宣传,这种情况没有造成任何伤害。

一个更值得注意的人工智能造成破坏的案例发生在2010年5月6日,这本应是平平常常的一天,但这天,将近1万亿美元的财富消失在数字苍穹之中。美国东海岸时间下午2点42分,道琼斯工业平均指数三分钟之内下跌了将近1 000点,创下历史上最大的单日跌幅。一些股票从平时的30—40美元的交易区间暴跌至0.01美元,不过随即反弹。苹果公司股票每股从250美元激增至100 000美元。所幸,这种罕见的“闪电崩盘”没有再度上演过,但它几乎肯定是基于规则的简单人工智能的反馈回路被锁定的后果。事实就是人工愚蠢合法地从所有人的口袋中成功“偷走”的钱比历史上预谋最周详的人抢走的最多的钱还要多。