20世纪90年代中期,斯坦福大学正在进行的研究将改变我们对计算机的思考方式。媒介方程实验很简单:参与者被要求与一台有社交行为的计算机互动几分钟,之后他们被要求对互动进行反馈。

参与者可以在他们刚刚工作过的同一台电脑(1号)或房间对面的另一台电脑(2号)上提供这种反馈。研究发现,在2号电脑上回答问题的参与者对1号电脑的批评远远多于在他们工作过的同一台机器上回答问题的人。

在第一台电脑上回答问题的人似乎不想当面伤害电脑的感情,但在背后谈论它却没有问题。这一现象被称为计算机作为社会行为者(CASA)范式,因为它表明,人们对表现为甚至是模糊的社会性的技术作出社会性的反应是硬性规定。



谷歌会杀死银行吗?

银行如何与大科技竞争

CASA现象继续被探索,尤其是在我们的技术变得更加社会化的时候。作为一名研究人员、讲师和机器人的全能爱好者,每当有人感谢一个机器人,给它分配一个性别,或试图用人类或拟人化的理由来证明它的行为,我都会在工作中观察到这种现象。

在我的研究中,我看到的是,虽然很少有人会幻想机器人是人,但我们往往会像对待另一个人一样尊重它们。
社会倾向

虽然这听起来像是《黑镜》剧集的开头,但这种倾向恰恰使我们能够享受与机器人的社会互动,并将它们置于照顾者、合作者或伴侣的角色。

把机器人当作人对待的积极方面,正是机器人专家把它们设计成这样的原因--我们喜欢与人互动。随着这些技术变得更像人,它们变得更有能力影响我们。然而,如果我们继续遵循目前的机器人和人工智能部署的路径,这些技术可能会出现远比乌托邦更糟糕的情况。

汉森机器人公司生产的索菲亚机器人上过《60分钟》节目,获得了沙特阿拉伯的荣誉公民身份,拥有联合国的称号,并与演员威尔-史密斯约会。虽然索菲亚无疑突出了许多技术上的进步,但很少有人能超越汉森在营销方面的成就。如果索菲亚真的是一个人,我们会承认它作为一个影响者的作用。

然而,比机器人或人工智能成为反社会的代理人更糟糕的是--以目标为导向,没有道德或人类的判断力--这些技术成为哪个组织或个人控制它们的大规模影响力的工具。

如果你认为剑桥分析公司的丑闻很糟糕,那么想象一下,如果Facebook的影响力算法有一张伴随的、像人一样的脸,它们能做什么。或者一千张脸。或者一百万张。说服力技术的真正价值不在于其冰冷的、经过计算的效率,而在于其规模。

最近科技界的丑闻和曝光,让我们很多人对这些企业巨头感到无能为力。幸运的是,许多问题可以通过透明度来解决。

有一些基本问题对社交技术来说是很重要的,因为我们在与另一个人互动时也会期待同样的答案,尽管往往是隐性的。谁拥有或设定这项技术的任务?它的目标是什么?它可以使用什么方法?它可以访问哪些数据?

由于机器人有可能很快利用超人的能力,颁布一个看不见的主人的意志,而且没有显示出揭示其意图的语言或非语言线索,我们必须要求明确地回答这些类型的问题。

作为一名机器人专家,我经常被问到这样的问题:"机器人什么时候会接管世界?"以至于我已经形成了一个固定的答案。"只要我告诉他们。" 然而,我的笑话是由一个重要的教训支撑的:不要把人类的决定当作机器的替罪羊。

我认为自己是机器人的同情者,因为我认为机器人被不公平地指责为人类的许多决定和错误。重要的是,我们要定期提醒自己,机器人不是你的朋友,不是你的敌人,也不是介于两者之间的东西。机器人是一种工具,由一个人挥舞着(无论距离有多远),并且越来越多地被用来影响我们。