书摘:我们的思维是否越来越机器化

作者:齐亚德·马拉尔
2017-05-03 15:58:19

书摘:我们的思维是否越来越机器化
《如何思考会思考的机器》封面,图片来源:湛庐文化 

在众多关于未来图景的想象里,总有些老生常谈的成分。如“一周三天”、个人喷气飞行背包、无纸化办公室等大部分预测的着眼点都是遥远的未来,而不是这些概念对当代人的生活有何意义。当有人伸手指向未来时,我们最好往回看看是谁的手。

关于通用人工智能可能与否,长久以来也引发了诸多猜测,乌托邦论调与反乌托邦论调都有。有关该主题的一些预测仅仅在最近几个月就吸引了大量关注和热度(足够在Edge上发起一个甚至更多话题了),这或许将揭示出有关我们自己与我们文化的一些真相。

我们早已知道,从狭义上讲,机器比人类更聪明。问题是,机器能不能、应不应该以某种方式仿效人类更广义的思维方式?即使是在如国际象棋这样已经相对简单的领域中,计算机与人类的思维还是存在着显著的差异。

有着成熟公式和明确解答方法的那些“驯化的问题”(如计算一座山峰的高度),对狭隘、蛮力式的思维来说可谓正中下怀。有时候我们甚至需要更狭隘的思维方式,例如在巨大的数据中挖掘相互关联,这时对深层原因的过多思考反而会碍事。

但我们面对的许多问题(从消灭不平等到给孩子选所好学校)都很“邪恶”,因为它们没有绝对正确或错误的答案(尽管我们希望它们有更好或更坏的答案)。这些问题各自都有其独特的语境,并且它们复杂重叠的起因还会基于所采用的不同水平解读而发生改变。这类问题无法与狭隘的计算思维很好地匹配。在模糊了现实与价值界限这一点上,它们倒是挺像被纷乱的情绪搅浑的思考(这些思考反映了构想出上述问题的人类思维)。

对付“邪恶”的问题需要奇特的人类判断,即便这些判断在某种意义上显得违背逻辑——特别是在道德圈里。虽然认知心理学家乔舒亚·格林(Joshua Greene)和伦理学家彼得·辛格(Peter Singer)通过逻辑规劝我们采取计算机能够复制的后果主义心智框架,但人类从遗漏中分辨行动以及模糊意图与结果的天生倾向(正如双重效应原则那样)意味着:如果我们想要更确定的答案,就需要能够满足人类本能判断的解决方案。

也正是人类思维的这一特点(由进化压力所塑造),在机器与人类思维之间划开了一条鸿沟。没有偏好的思维方式就没有动力,但机器本身并不具备这些特性。只有理解前因后果的心智才能产生出动机。因此,如果目标、欲望、价值是人类心智才有的特性的话,那么超级人工智能难道不是那些将自身偏好写进程序的人手中的工具而已吗?

如果目前关于人工智能与机器学习的那些五花八门的预测果真能告诉我们什么,我觉得肯定不会是“短期之内机器就能模拟人类心智”之类的答案。如果需要人类心智,更简单的方法是生育、培养更多的孩子。实际上,这些预言提醒我们,我们的兴趣点正在发生变化。

我们为纯粹计算已经实现和将要实现的成就感到敬畏,这是可以理解的;我很乐于跳上一辆无人驾驶的虚拟现实乐队彩车,向着已经被“过度预测”的未来横冲直撞。然而这种敬畏正在使我们的文化发生倾斜。数字化文字共和国正在放任“工程”成为我们这个时代思维方式的比喻。在它的背后躺着那个曾经志得意满,现在满怀焦虑地需要更多文字、更少口语的思维方式。我们正在清算自己的行为,并为曾经笨拙而毫无结论的混乱思考感到难为情。听说英国教育部最近建议想要飞黄腾达的青少年最好远离艺术与人文、亲近STEM(科学、技术、工程、数学)学科,我一点都不觉得惊讶。某种变化过程的过分直白,让狭隘思维再度闪耀着新鲜而又让人上瘾的光泽。

但是,伴随着整个学科领域的探索被狭隘思维的标准判定为成功或失败,一些东西失去了,一种新的隔阂形成了。我们需要思考真,也同样需要思考善与美,甚至要思考“邪恶”。这就需要那些更好地反映我们不完美的词汇(无论是缺陷还是特性)。与此同时,将这些“邪恶”问题转化为驯化问题的欲望虽然情有可原,却只会让我们将自我驯化。

 

注:本文摘自《如何思考会思考的机器》。该书系《对话最伟大的大脑·大问题系列》丛书之一。

 

标签: