根据涉及UCL的一项新研究,在阅读人们脸上的情绪时,人工智能仍然落后于人类观察者。
根据《PLOS One》上发表的发现,这种差异在自发地表达情感方面尤其明显。
由都柏林城市大学领导的研究小组研究了八个“开箱即用”的自动分类器,用于面部表情识别(可以识别面部人类表情的人工智能),并将其与人类观察者的表情识别性能进行了比较。
研究人员发现,人类对情感的识别准确度为72%,而在测试的人工智能中,研究人员观察到的识别准确度在48%至62%之间变化。
首席作者达米恩·杜佩(DamienDupré)博士(都柏林城市大学)说:“声称能够从面部表情识别人类情绪的AI系统现在很容易开发。但是,大多数人工智能系统都是基于无定论的科学证据,即人们在面部表情中表达情绪。一样的方法。
“对于这些系统,人类的情感只可以归结为六种基本情感,但它们不能很好地应对混合情感。
“使用这种系统的公司需要意识到,获得的结果并不是衡量所感受到的情绪的指标,而仅仅是衡量一个人的面部与应该对应于这六种情绪之一的面部相匹配的程度。”
这项研究涉及从两个大型数据库中采样的937个视频,这些视频传达了六种基本情绪(幸福,悲伤,愤怒,恐惧,惊奇和厌恶)。选择了两个著名的动态面部表情数据库:纽约宾厄姆顿大学的BU-4DFE和达拉斯德克萨斯大学的另一个。两者都在情感类别方面进行了注释,并且包含姿势或自发的面部表情。所有检查的表情都是动态的,以反映人类面部行为的现实本质。
自发性情感行为的AI分类准确率始终较低,但姿势表达的差距缩小。最好的两种人工智能系统在识别姿势方面也很熟练。
为了评估情感识别的准确性,该研究比较了人类裁判与八种商用自动分类器的性能。
共同作者,UCL心理学和语言科学学院的Eva Krumhuber博士补充说:“人工智能在识别人们的面部表情方面已经走了很长一段路,但是我们的研究表明,在识别真正的人类情感方面仍有改进的空间。”
在PLOS一个研究是由研究人员在都柏林城市大学,UCL,不来梅大学和贝尔法斯特女王大学进行。
Krumhuber博士最近领导了另一项研究,该研究发表在《情感》杂志上,该研究比较了十四种不同的动态面部表情数据库在情感识别方面的人与机器。这项规模较小的研究使用了不同的方法来分析机器数据,发现AI在识别情感方面可与人类媲美。