埃博拉听起来就像一场可怕的噩梦,禽流感和非典也让我脊背阵阵发凉。但然而最让我害怕的,却是人工智能。
只要有足够的资源,人类就可以解决前面的三个难题。而人工智能,却是由人类创造的,并且很快可能就会变得无法阻挡。
先解释一下什么是人工智能。拿出你的iPhone,打开Siri询问天气或股票,或者告诉它“我喝醉了”。Siri的回答即体现了“人工智能”。
到目前为止,这些人工智能机器还是非常可爱和无辜的,但是随着他们在社会有了更多的用武之地,也许过不了多长时间,这些机器就会失控。
最开始,可能会出现一些轻微的故障。像是一台非法入侵的电脑使股票市场暂时失控,造成了数十亿美元的经济损失。又或是因为软件更新出了差错,导致一辆无人驾驶的汽车突然停在了公路上。
但很快,这些小故障可能就会升级为可怕的甚至是灾难性的事故。一个原本依靠程序来治疗癌症病人的医疗机器人,会不会得出这样的结论:消灭癌症的最好方式就是消灭人类,因为是人类的基因导致了癌症的发生。
《超级智能》(Superintelligence)一书作者尼克·博斯特罗姆(Nick Bostrom)为我们提供了很多关于世界末日的假想情境。比如,理想状态下,在一个可以自我复制的纳米机器人能帮助人体对抗疾病或是消灭地球上的放射性物质。然而,“一旦心怀不轨的人拥有了这项技术,可能会导致地球上的生命灭绝”。
支持人工智能的人们认为,只要程序员设置了保障措施,这些事情就不会发生。但还是让我们面对现实吧:为了阻止电脑系统在每次查看电子邮件时崩溃,程序员们就花了接近半个世纪的时间。他们如何去管理一支完全意义上的机器人军队?
恐惧的并不只有我一个人。来自硅谷的未来学家艾伦·马斯克(Elon Musk)最近发表言论称,人工智能“可能比核武器更危险”。地球上最聪明的人之一史蒂芬·霍金(Stephen Hawking)也写道,人工智能的诞生“是人类历史上最大的事,不幸的是,也可能是最后的一件大事。”许多计算机专家和科幻作家也害怕一个流氓机器人横行霸道的未来。
人工智能存在的问题主要有两个。第一,在不久的将来,我们将创造出可以像人类那样做出决定的机器人,但这些机器人没有并且永远也不会有道德。
第二,很久很久以后,一旦我们构建了像人类一样聪明的智能机器系统,这些智能机器将能够构建更加智能的机器,通常被称为超智。专家称,当机器的增长速度成倍增加时,事情真的会失控。对于一个我们还未构建出来的东西,我们没有办法设计任何保障措施。
“人类能够引导未来并不是因为我们是这个星球上最强大或者发展最快的生物,而是因为我们是最聪明的。”《最后的发明:人工智能与人类时代的终结》(Our Final Invention: Artificial Intelligence and the End of the Human Era)一书作者詹姆斯·巴特(James Barrat)说,“所以,如果地球上出现了一些比我们聪明的生物,那么它们将取代我们的统治地位。”
让人更难理解的是,我们实际上并不了解具有超常智慧的机器究竟是什么样子的。“一艘潜水艇会游泳吗?当然,但是它不会像一条鱼那样游,”巴特先生说。“飞机会飞吗?是的,但它不像一只鸟那样飞行。人工智能不会和我们一模一样,但它将是终极智慧版本的人类。”
也许最可怕的问题是军方将如何使用这些技术。不难想象各国会进行军备竞赛,竞相制造杀人机器。
哈佛大学法律和人权观察的高级研究员邦尼·多彻蒂(Bonnie Docherty)表示,人工智能武器的制造竞赛,让人想起早期的核武器制造竞赛,在这些智能武器被用在战场上之前,我们应该先着手制定相关条约。
“如果现在不停止这种类型的技术研究,必将导致一场军备竞赛,”多彻蒂女士曾写过几个关于危险的机器人杀手报告。她说:“如果一个国家发展这项技术,那么另一个国家也会跟着发展。缺乏道德且致命的机器不应该被赋予屠杀的权力。”
那么,我们该如何确保所有这些末日的情形不会出现?在某种情况下,我们可能无法阻止他们。
但是我们可以阻止一些来自谷歌的潜在混乱。今年的早些时候,这个搜索引擎巨头收够了总部位于伦敦的神经科学研发公司深层思维(DeepMind)。两家公司成立了一个人工智能安全和伦理委员会,旨在确保这一技术的安全开发。
深层思维公司的创始人兼首席执行官黛米斯·哈萨比斯(Demis Hassabis)在视频采访中表示,任何人工智能的制造者,包括政府和企业,都应该做同样的事。“对于他们所做的事将会导致怎样的伦理后果,人类应该提前想清楚。”