绪AI是好是坏目前尚无定论,广泛应用亟待建立伦理规范
随着情绪对人类行为的影响日益被认识,整个社会对于情绪识别技术的需求越来越大。有人说,AI可以检测出人的情绪,但即使技术上可行,这是否一定是件好事?尤其是在做法律相关的决定时,机器识别情绪是否真的公正可靠?更何况,人类真的愿意让AI“读心”吗?
■江泽珍/编译
“你还好吗?”“我很好。”20年前的一天,刚从埃及来到英国求学不久的瑞娜·卡利乌比独自在公寓里给她的丈夫回复短信。
实际上,卡利乌比心里很难过,因为她和丈夫相隔千里已有好几个星期了。如果她丈夫在她身边的话,只需一眼就能知道她并不开心,可惜他看不到……
这样的场景似乎经常在生活中发生。就在那段时日里,卡利乌比意识到,技术感知不到人类的情绪有多冰冷。于是,她梦想能研发出一台情绪智能电脑,或者更直白地说是一台“读心机器”。
从2009年起,卡利乌比创办了一家名叫Affectiva的公司,致力于研发可识别人类情绪的人工智能系统。和她有着同样想法的创业者不在少数,如果这类系统研发成功,那么这种情绪AI技术将会表现出惊人的应用潜力——电脑可以识别出人们是否在驾驶时分心,也可以知道人们怒气冲冲回复一封邮件后是否会后悔,又或者什么时候会情绪低落。
事实上,具备类似功能的系统已经诞生。只是,这些系统真的达到它们应有的水准了吗?而且我们真的想让机器知道自己的感受吗?
机器识别情绪
有效预测带来真金白银
为了实现自己的梦想,卡利乌比使用了一套可通过数据学习完成特定任务的AI系统。机器是如何学习的?以识别猫为例。一开始,研究人员会告知AI图片上是否有猫,在学习了图片上大量猫的颜色、形态和其他特征之后,系统就能自动分辨图片上是否有猫了。
就原则而言,识别人类的情绪和识别猫一样,是能够被AI掌握的。不过,真正要能识别情绪,实际上要比识别猫困难千百倍。卡利乌比说:“这项技术需要天天与人打交道,要能识别,更要了解人类。”
视频通话和其他一些通讯软件并不能实现真正面对面交流的效果,因为人们很难远距离看出对方的情绪。随着越来越多的人开始在家办公,人们对情绪AI技术的需求日益增加。有了这项技术,我们可以判断观众是无聊还是兴奋,或是介于两者之间。
情绪计算——让机器可以识别、解释和模仿人类情绪——这个领域已经发展了很多年,但某些方面的研究仍处于起步阶段。尽管在机器模仿情绪方面,还有很长的研究之路要走,但在机器识别情绪方面,科研人员似乎已经实现了目标。
Affectiva公司自成立以来,就与一些营销公司合作,帮助它们了解观众对于视频和其他营销内容的反应。Affectiva会记录下人们看了海报或投屏广告后的面部表情,通过表情的变化,系统会对一则广告是否成功进行预测。做这件事的不只Affectiva一家公司,伦敦的Realeyes公司也和一些广告商合作,他们负责测试观众的注意力。
一些公司宣称自己的技术可以单从声音来判断人们的情绪。洛杉矶的Behavioral Signals技术公司研发出了一款软件,能从说话者的语调中对其情绪进行判断。它的算法包含了音调、音量、节奏、语调,以及其他的语音特征。该公司首席执行官拉那·古杰拉表示:“我们的关注点在于语言的表达方式,不会将语音转换为文本。”
这种技术对一些企业来说相当实用,尤其是一些客服电话量巨大的公司。Behavioral Signals公司声称,能够在通话后30秒内判断对方是否会采取特定的行动,例如承诺还清债务。
他们已经把这项技术卖给了欧洲的一家大型银行。银行会通过语音分析,对来电者和呼叫中心的工作人员进行匹配,那些愤怒的顾客会被自动分配给那些极其镇定的工作人员。古杰拉说:“一年之内,银行呼叫中心的绩效提高了20%,这相当于赚到了3亿美元。”
古杰拉透露,他们正在与另一家公司合作,希望能借助AI技术检测出带有抑郁症状的声音信号,它能根据说话人的语音判断其自杀的可能性,这对医生和看护者来说很有用。虽然这项技术目前还在试验阶段,但已开始在临床来电接诊中提供辅助。
领悟真实情感
并不像识别情绪那么简单
显而易见,情绪AI是有用的。但是,算法真的能领悟人类的感情吗?情绪AI公司的内部算法是不对外的,因此无法对这些技术的准确性进行评估。即便如此,情绪识别科学仍可以提供一些线索。
我们知道,面部表情是可以被分类的。20世纪中期,美国心理学家保罗·埃克曼提出,面部运动与许多情绪状态有关。在埃克曼的面部动作编码系统(FACS)中,情绪状态有七类:愤怒、恐惧、厌恶、快乐、悲伤、惊讶和轻蔑。它们被称为“基本情绪”,通常人们可以从面部表情对其进行判断。一项研究还表明,人们在判断基本情绪时,正确率达到了77%。
FACS是很多情绪AI公司设计算法时用到的编码系统。以此构建起的情感AI技术可以通过人的面部动作,判断观众是无聊还是兴奋,或是介于两者之间。但这里有一个很大的漏洞:即使系统识别出一个人处于愤怒的状态,却并不意味着做出这一表情的人是真的在生气。
美国东北大学心理学家莉莎·巴瑞特就对这项技术的有效性持怀疑态度。近日,她和同事完成了一篇关于现有研究的文献综述,讨论了特定面部表情和内心情感状态之间是否存在联系。他们得出的观点是“证据不足”,比如皱眉这个动作可以和生气、困惑、专心等很多情绪相关。而且,不同文化背景下,表情所传达的含义也有很大差异。
我们都想像麦克白夫人一样能读懂他人,但现实中完全理解一个人的表情并非易事。如果人类都做不到,AI能做到吗?尤其当我们知道AI公司是靠什么来设计算法后,这些技术的可靠性就更需要进一步验证。巴瑞特认为,情绪更像“插曲”,人体中没有一个叫做“愤怒”的大脑信号,脸上也不可能有一个可辨的“愤怒”表达方式。
对这项技术持怀疑态度的不仅仅是巴瑞特。澳大利亚皇家墨尔本理工大学的玛格丽特·莱希和她的同事对这类系统的准确性进行了测试,发现其平均准确率仅为60%,这并不能算是一个很好的结果。
一些情绪AI的支持者们也承认,AI系统只是识别出表情和语调代表的情绪,但这并不一定代表当事人的真实情感。
Affectiva公司的另一创始人罗莎琳德·皮卡德也是情绪AI的支持者之一,目前她是美国麻省理工学院情感计算小组的负责人。在1995年的一篇论文中,她写道:“我并不建议人们直接用AI来测量情感状态,但是人们可以用它来测量这些状态的可观察变量。”
另一些人觉得巴瑞特是在偷换概念,一个人或AI在没有情境信息的时候是无法准确判断情绪的,但现实生活不会这样。情绪AI学习的是人们面对特定事情后所做出的反应。比如,看一个搞笑短视频,在这样的情境下,笑容就是笑容,一个非常简单的表达开心的方式。
AI读心会存偏见
亟需建立伦理法律规范
如果这项技术被广泛应用会怎样?专家在对一些从事情绪计算研究的公司所研发的技术进行分析后发现,情绪AI中存在一些偏见。
美国马里兰大学的劳伦·鲁对两家大公司研发出的两个情绪AI系统进行了测试。她给这两个系统分别提供了一些黑人和白人篮球运动员照片。在2018年的一篇论文中,她写道:“两个系统都做出了黑人运动员比白人运动员更具有消极情绪的判断。”当学者希望这两家公司对此进行回应时,其中一家说他们非常注重公平性,并且在不符合标准的情况下不会使用这种算法,而另一家则拒绝回应。
美国纽约大学一家AI研究所在一份年度报告中列举了一系列情绪系统,其中一个系统的开发公司声称自己的面部识别技术可以帮助调查人员检测出愤怒、压力或焦虑等情绪。但研究所的报告指出,这项技术总体上没有科学依据。
我们与之互动的技术是否需要了解人类的情感?美国华盛顿法学院的叶万·赫特森认为,不应对大众广泛地运用情绪AI技术,尤其是在做法律相关的决定时。他说:“一旦情绪AI判断出错,会引起严重问题。”
但还是有很多人希望通过提高情绪AI的精确度来改善这些问题,目前认为最有效的方法就是给AI提供更多的背景信息。
试想,当我们让AI来判断做鬼脸表情背后的情绪是开心还是绝望时,如果它能同时获得“这个人正在和朋友聊天”的信息,那么它给出“开心”结论的几率会更大——当AI得到的背景信息越多,它得出结果的准确率可能就越高。所以,情绪AI系统需要我们的声音信息、肢体动作信息、脸部表情和周围环境信息(比如和我们在一起的人以及大家在做什么)。
这项研究听起来还有很长的路要走,但在智能汽车上,情绪AI的应用已经开始起步。卡利乌比和她的同事正在研发可以监控车内人员行为的AI系统。她说:“我们把AI的检测范围扩大到了人的行为活动,比如你是否正拿着手机,孩子们是否在后座上打架等等。”
最终,这种系统可以成为自动驾驶车的一部分。汽车制造商丰田已经制造出了一辆原型车,该车搭配了美国斯坦福国际研究所研发的情绪AI系统。其他汽车制造商也正在与不同的情绪AI系统公司合作,未来两三年内将可能推出多个商用系统。
所有情绪计算的关键就在于,计算机能否准确检测出我们的情绪。虽然它们的可信度有待提高,但毋庸置疑的是,这方面的需求越来越大。情绪AI是好是坏,目前还没有定论,但只要有需求,这项研究一定还会继续向前发展。