两位机器人法律和科技哲学领域的专家称,随着机器人走进家门,它们可能会盗取你不愿公开的秘密。
今年2月,韩国一位女士正睡在地上,她家的机器人吸尘器竟将她的头发吸住,她只得拨打急救电话求救。这或许并非史蒂芬·霍金(Stephen Hawking)警告过的那种反乌托邦式的未来——未来人工智能将“毁灭人类”——但也的确凸显出,将机器人引入家庭存在潜在危险。
智能技术带来恶果的例子不少,不过通常是人工智能欺骗了人类,而不会造成人身危险。罪犯们设计的恶意程序在社交网站和网上其他地方随处可见。例如,手机约会应用Tinder上,经常有程序假装是真人,试图哄骗用户使用网络摄像头或泄露信用卡信息。所以,若说这些不可信任的程序很快就会以实体形式出现,也并非异想天开。
另外,越来越多的证据表明,人们很容易向拟人机器人——特别是以小孩的形象出现的机器人——吐露自己心底埋藏最深、最不可见人的秘密。但这些机器人可爱的面孔背后,藏着的却是开发代码。那么,我们该如何保护自己,不被这些两面派的机器人伤害呢?
机器人吸尘器也可能伤人(图片来源:Karlis Dambrans/Flickr/CC BY 2.0)
一旦开始在家中使用机器人,就得控制好你自己的预期。电影和营销可能会让我们以为,我们能与自己的机器伙伴无碍互动。但事实上,要想让机器人变得像电影里刻画得一样有社会意识,恐怕还需一段时日。有时,我们以为机器人在自主行动,但其实只是人类操作员在进行远程控制。由于期望与现实之间有落差,因此我们要注意,不要被这样的表面假象所欺骗。
有时,这些没有感知能力的设备会让消费者感到非常放心,以至于他们会向设备吐露私人信息。但如果知道有真人在操作的话,他们绝不会这么做。这种情况下,对机器真正操控者的判断错误就会成为一个十分严重的问题。“云端男友”(Invisible Boyfriend)服务就是个例子。订阅这个服务后,整整一个月都会有一个“虚拟情人”给你的手机发送浪漫短信和语音信息。该公司原本想开发全自动化的虚拟情人,但由于技术尚未成熟,因此这些充满爱意的你来我往,其实都是由真人操作的。然而,并不是所有的使用者都知道这一点。加之外界把人工智能吹得天花乱坠,之前也有过智能程序成功骗过使用者、让他们相信程序是真人的先例,一些人可能就会错误地相信,自己收到的话语是电脑合成的。
这些例子传达的信息很清楚:随着机器人互联网化,对自然语言的反应能力越来越高,我们应特别警惕,一定要分清自己到底是在和什么、和谁进行对话。