科技公司不仅仅是想用面部识别来识别你,他们还想在人工智能的帮助下读懂你的情绪。不过对于很多科学家来说,关于计算机理解情感能力的说法从根本上来说是有缺陷的,而剑桥大学的研究人员打造的一款浏览器内的小网页游戏旨在说明原因。
 

 
前往emojify.info,你可以看到你的情绪是如何通过你的网络摄像头被电脑 "读 "出来的。游戏将挑战你产生六种不同的情绪(快乐、悲伤、恐惧、惊讶、厌恶和愤怒),人工智能将试图识别这些情绪。然而,你可能会发现,软件的读数远未达到准确的程度,经常会将甚至是夸张的表情解释为 "中性"。而且即使你真的产生了一个微笑,让电脑相信你很开心,你也会知道你是在假装。
 
这就是这个网站的意义,创建者Alexa Hagerty说,他是剑桥大学Leverhulme未来智能中心和存在风险研究中心的研究员:证明很多情感识别技术的基本前提,即面部动作与感觉的变化有内在联系,是有缺陷的。
 
"这些技术的前提是,我们的面部和内心的感受是以一种非常可预测的方式相关联的。"Hagerty告诉The Verge。"如果我微笑,我很开心。如果我皱眉,我就会生气。但APA在2019年对证据进行了这次大审查,他们发现人们的情感空间不能轻易地从他们的面部动作中推断出来。" 哈格蒂说:"在游戏中,你有机会快速移动你的脸部来冒充六种不同的情绪,但关键是你内心并没有感受到六种不同的东西,一个接一个的连续。"

该网站上的第二个小游戏通过要求用户识别眨眼和眨眼之间的区别来推动这一点--这是机器无法做到的。"你可以闭上眼睛,它可以是一个不自主的动作,也可以是一个有意义的手势,"Hagerty说。
 
尽管存在这些问题,但情感识别技术正在迅速获得牵引力,有公司承诺,这种系统可以用来审查求职者(给他们一个 "可雇佣性分数"),发现潜在的恐怖分子,或评估商业司机是否困倦或昏昏欲睡。(亚马逊甚至在自己的货车上部署了类似的技术)。
 
当然,当我们从人们的脸上读出情绪时,人类也会犯错,但把这项工作交给机器也有特定的缺点。首先,机器不能像人类一样读出其他的社会线索(如眨眼/眨眼的二分法)。机器还经常做出人类无法质疑的自动化决策,并且可以在我们没有意识到的情况下进行大规模的监控。另外,与面部识别系统一样,情感检测AI通常具有种族偏见,例如,更频繁地评估黑人的脸部表现出负面情绪。所有这些因素都使得AI情感检测比人类读取他人情感的能力更令人担忧。
 
"危险是多方面的,"Hagerty说。"对于人类的错误沟通,我们有很多选择来纠正。但是,一旦你在自动化的东西,或者阅读是在你不知道或程度的情况下完成的,这些选择就会消失。"