人类复杂的小情绪,人工智能分得清吗

如题所述

早年间,人工智能(Artificial intelligence,AI)还仅仅存在于天马行空的科幻电影当中,如今它已在生活各处崭露头角——波士顿动力开发出了能跑能跳的机器人,Google开发的AlphaGo因战胜众多围棋高手而名声大噪,升级版AlphaGo Zero更是在不看任何棋谱、自我对弈40天后就超越了所有旧版本。如此“聪明”的AI在面对人类复杂多变的情绪时,是否也能准确辨认呢?

AlphaGo Zero超越了所有旧版本
不存在的“基本情绪”20世纪90年代初期,情绪科学中的主流观点认为存在六种基本情绪:恐惧,伤心,愤怒,开心,惊讶和厌恶。世界上每个人都亲身经历过这些情绪,并且可以清楚地分辨它们。提出这一观点的是心理学家保罗·艾克曼(Paul Ekman),他还主张人类表情的意义是具有普遍性的,不会因为文化或者地域不同而有所差异。

基于艾克曼的模型,自体心理学专业的博士生莉莎·巴雷特(Lisa Barrett)针对情绪对人类自我感知的影响展开了一系列研究,却得不到设想的结果。经过实验对比和反复论证后,她终于发现艾克曼的模型是错的——根本就不存在所谓的六种“基本情绪”,人类的情绪要远远复杂得多。
如果艾克曼对于情绪的定义是错误的,那么究竟什么是情绪呢?这不仅是一个学术问题,更是关乎未来的核心问题——我们以后能制造出一个像人类一样感知情绪的AI吗?

“情感”机器人Pepper。图片来源:Unsplash


巴雷特的研究让我们看到:情绪不再是稳定的。就像我们即使穿越回古代,由于不同的生活和历史背景,也很难设身处地地想人所想。与此同时,情绪的普遍性也受到挑战——心理学研究中一直存在着“WEIRDs”问题,即白人(White),受过教育的(Educated),来自于工业化(Industrialized)、富裕(Rich)、民主(Democratic)的国家。这些都是典型北美或欧洲心理学专业本科生的真实写照,由于他们不仅是研究者,也是实验被试的主力军,因此大量的心理学研究结果都存在偏见,也大大降低了人类表情、声音音调以及其他行为的多样性。
为了解决这个问题,巴雷特与另一位心理学家詹姆斯·罗素共同建立了“心理学情绪建造”模型。这一模型的理论是基于情绪的产生机制:大脑先提取包括感受、外部世界的状况、家庭和文化的影响等等众多因素,经过进一步加工,最终“建造”出情绪。这使得与情绪相关的表情、声音和行为不仅仅会随着文化不同而改变,甚至在人与人之间都存在着微小的差异。
AI能否“身临其境”?那么我们真的能建造出一台机器来识别人类的所有情绪经历吗?情绪历史学家托马斯·迪克森(Thomas Dixon)对此表示很乐观,他认为对于AI来讲,情绪产生的机制可能类似于对大脑提取的众多因素进行加权计算。因此只要想办法弄清不同文化、不同个体各因素的权重系数,“情绪公式”也就迎刃而解了。


然而,情绪并非仅是简单的静态加成运算。人类大脑对于他人情绪的识别是通过观察他人的身体动作和面部表情,并结合当时的场景来完成的。这就引入了“情境”这个动态因素。
比如,看看下图中这个人的面部表情和举起的胳膊。

挥拳头和皱眉头的司机
光看照片,你觉得他是有路怒症?还是在为心爱的球队得分而挥拳庆祝?如果将来我们的自动驾驶车辆中配备了情绪识别AI,能够在感知到司机路怒时强行停车,那么问题就来了:为了庆祝而高举的拳头可能会把我们困在路边。

温馨提示:答案为网友推荐,仅供参考