情绪AI是否已成为我们汽车和其他设备的关键组成部分?

分析师预测未来几年情绪AI将出现巨大增长,尽管估计差异很大。

一个2018研究市场研究未来(MRFR)预测,“情感分析”的市场,其中包括视频,语音,和他人之间的面部分析技术,将价值高达$ 25十亿全球2025年Tractica已经取得了较为保守的估计在他自己的分析中,但仍然预测到2025年“情绪识别和情绪分析”市场将达到38亿美元.Gartner的研究人员预测,到2022年,10%的个人电子设备将拥有情感AI功能,无论是在设备本身或通过基于云的服务。市场将受到从消费者体验和娱乐到医疗保健和汽车领域的用例的推动。

然而,技术本身仍然有很大进步。在2019年对1000项关于从人类面部表情推断情绪的研究进行的荟萃分析中,一组科学家得出结论,我们的面部和情绪之间的关系更加复杂,符合眼睛。该研究发表在“ 公共利益心理学科学 ”杂志上,并由华盛顿邮报报道。

在接受“华盛顿邮报”采访时,东北大学心理学教授Lisa Feldman Barrett参与了这项研究,他说:“大约有20%到30%的时间,人们会做出预期的面部表情,”比如笑得开心......但其余时间,他们没有。“他们不是以随机的方式移动他们的脸。他们以特定于情况的方式表达情感。”

简而言之,如果情绪AI会对其产生的崇高期望产生影响,那么我们需要非常复杂地理解我们的面孔和声音如何与我们的情绪相对应。

在同一篇文章中,情感AI公司Affectiva的联合创始人兼首席执行官Rana el Kaliouby 将情感AI空间描述为一个不断发展的空间。她同意情绪化人工智能技术尚未达到广泛部署所需的复杂程度,但她表示希望有一天能够实现更多的研究,并且更好地教育行业和消费者关于情绪AI的局限性。

Affectiva已经成为情感AI领域的领导者之一。该公司主要致力于将其情感AI应用于车辆 - 想象一个汽车能够以各种方式响应驾驶员和乘客情绪的世界,从调整音乐和温度,甚至自我拉动并提供紧急的路边援助。

感情AI要走多远?我们如何到达那里?

在2019年世界驾驶大会和会议上的讲话之后,Affectiva的高级产品经理Abdelrahman Mahmoud坐下来与Design News讨论情感AI研究的现状以及推动技术发展所需的条件。

Abdelrahman Mahmoud:很多研究都集中在情感的原型表达上,如喜悦,愤怒和惊喜。但从根本上说,我们认为情绪表达不仅仅是那些五六种原型情绪。这就是为什么作为一家公司,我们不仅仅关注这些情绪。我们实际上首先关注不同的面部肌肉,就像人们如何表达微笑一样。

DN:关于最近对情感AI的研究,你能谈谈贵公司的情况吗?

Mahmoud:从研究的角度来看,有很多关注多模态[方法],用于识别挫折之类的事情。我们已经做了很多内部研究,我们知道你需要一种多模态方法来尝试解决这个问题。

早期我们只使用面部或声音进行了大量研究,我们已经看到,如果我们使用两者的数据,准确性会急剧上升 - 这很直观,但我们只需要对其进行验证。这是我们现在多模式努力的主要焦点 - 检测沮丧和困倦等信号,这些信号在汽车中非常重要。

DN:他们是否一直在研究身体语言或职位等学习方面的工作?例如,想象一个人表现出的挫折感较少,但肩部或手部的紧张情绪更多?

Mahmoud ::脸上和声音中都有强烈的信号。但在某些情况下,确保添加手势会有所帮助。请记住,汽车生态系统非常注重优化成本,这意味着您没有足够的空间来添加可以执行不同操作的大量模型。

DN:意味着您要捕获的信息与车辆内可放置的摄像头之间必须保持平衡?

马哈茂德::对于我们来说,总是选择将大部分强烈给出关于正在发生的事情机舱的指示信号的问题。它可能不是完整的图片,但你想尽可能接近。但我们认为这是短期的。从长远来看,汽车内部的计算能力和更好的计算平台将改变我们可以捕获的数量。

DN:市场分析一直在谈论很多关于超越汽车的情感AI的用例。Affectiva本身甚至与软银达成协议,为机器人提供人工智能。你认为汽车仍然是情感AI最大的机会所在吗?

Mahmoud ::我们可以在很多市场中部署一般的情感认知或情感AI。我们实际上并没有将汽车视为机器人等非常独特的市场。之所以如此,是因为现在汽车的HMI [人机界面]有很多关注点。

传统上,OEM并没有真正关注HMI,你看到汽车中非常丑陋的HMI并没有真正直观的设计。最近,人们越来越关注汽车中的人机界面将如何变化。如果汽车中的HMI不直观,那么推动更多的自主性,驾驶员只需切换到他们可以与之交互的下一个直观HMI,即他们的手机。

而且你看到与手机市场的平行关系,那里有很多关注用户界面,因为这是不同硬件制造商的主要差异化因素。这与机器人非常相似,因为机器人的人机界面是最能从情感识别中受益的东西。关于汽车的一个很酷的事情是你可以更大规模地测试HMI,因为机器人市场在部署方面仍然是一个有限的市场。

DN:在你在Drive的演讲中,你谈到了上下文在情感识别方面是一个非常重要的方面。你能详细说明一下吗?

马哈茂德::肯定是有大量的研究,我们一直在做与关于如何将不同的面部肌肉在特定情境下的情绪转换合作伙伴。事情就是检测情绪真的很重要。例如,令人沮丧的是,一个基本的面部表情是微笑,这是违反直觉的,但是当他们感到沮丧时,人们会微笑。

背景是混合和多模态方法很重要的原因。你可以让一些机器学习检测诸如人们如何表达微笑或者人们如何移动他们的面部肌肉,但是那时需要有一层考虑到某些环境以便理解差异沮丧之间或只是微笑。

DN:您是否会说情境识别是现在情感AI的重要缺失部分?

马哈茂德::我认为我们还很远,从人类的一种直觉的,只要有一个AI能够只分析所有这些不同的信号,并理解情绪。但这是一个活跃的研究领域。但是对于情感识别模型,您只需要了解您正在部署它们的上下文以及它们的训练内容,这与您能想到的任何机器学习模型非常相似。