仿人面部表情机器人已经越来越多。或许你也听说过一些真的吓人的机器人。比如头图中这位,她是四月中科大发布的高颜值的美女机器人“佳佳”,看起来与真人一般无二,而且能交流有表情。

这些机器人如果只是花瓶而无实用的话,恐怕就只能满足猎奇之需了。不过,目前研究者也在发掘这些机器人的实际用途。

加州大学的研究人员给他们找到了一个新的用武之地。他们让仿人面部表情机器人,来帮助医务人员提升诊断技能。

现在虽然有病人模拟器(robotic patient simulators ,RPS)来训练医生。临床医生可以通过RPS的实践来提升他们的临床技能。RPS可以呼吸、流血、产生药物反应,甚至可以说话。但是它们有一个很大的缺陷——脸不能动,不能表达情感。

于是,研究人员就创建了一个橡胶皮肤的机器人,可以通过变化面部表情来表达真正的人类情感。

第一行,是人们表达三种情绪的样本帧视频,分别是痛苦、愤怒和厌恶,第二行,是菲利普K D仿人机器人表达同样的情绪,

第三行,菲利普K D机器人表达相应的情绪

加州大学圣地亚哥分校计算机科学和工程教授Laurel Riek博士在领导这个研究小组,设计了一个仿人机器人,可以表达疼痛、恶心、痛苦的情绪。他们还创建了一个虚拟化身来培训另一个。

为了设计这款机器人,研究人员使用了一款脸部跟踪软件,从视频中提取面部特征,来表达上述三种自然状态下的、非表演的情绪。

左侧是科幻作家Philip K Dick的虚拟化身,右侧是仿Philip K Dick的人形机器人,由Hanson Robotics制作

研究发现,对那些没有医学背景的病人而言,临床医生不太擅长发现他们的痛苦和愤怒。从我们实际的生活经验中也经常见到,你不能准确地描述你自己的感觉,但是你的表情会最真实地体现你的痛苦、厌恶等等各种情绪。因此,如果医生可以很好阅读病人情绪的话,无疑让医患之间的沟通更加方便,更加准确,也更有效率。

然而事实却并不乐观。

临床医生只有在54%的情况下检测到虚拟化身的痛苦,而非临床医生在83%的情况下都能检测出来。这种变化往往从他们进入医学院的第三年开始,巧合的是,也就是从这时起,他们的课程转向了病人护理。

从左到右,依次是厌恶、幸福、痛苦和愤怒。这些样本数据来自于 Binghamton Pittsburgh 4D Spontaneous Expression Database。这个数据库充满了各种各样的现实的表情。

研究人员写道,临床医生们可以从他们的研究中获益。他们正在开发新的培训工具,来提高学生阅读病人情绪的技能。

这个研究发现,相比于虚拟化身而言,所有被试者识别仿人机器人的准确率都会更高一些。

此外,厌恶是最容易被被试者弄错的情绪。对虚拟化身,临床医生正确识别出厌恶的概率只有20%,非临床医生只有12%。

面部跟踪软件会提取66面部特征来映射三个情绪:痛苦、愤怒和厌恶

研究人员写到,他们工作的局限之一,是机器人的鼻子和脸颊部分不能体现皱纹。因此,他们不能映射某些点重要的面部表情来表达痛苦和厌恶。

检测精度低的另一个原因是,这些面部表情的视频实际上是来自于一些自然数据集。这意味着这些表情是被引发的情绪,而不是现实生活自然而然展现出的情绪。

举个例子,录制视频时,那些悲伤(sadness)情绪是通过一些展现紧急状况的 视频来引发的。痛苦(pain)是让参与者把手浸泡在冰凉的水引起的。因此,这样得来的样本就会跟实际生活中情形存在一定偏差。

但是实际生活中情绪对于研究而言也存在一些弊端。因为这些情绪往往是复杂的,掺杂了较多的其他情感,因此,在展现某些情绪的强度上不如诱发产生的情绪的数据集(acted datasets)。

尽管有这些问题,相比与RPS而言,这个仿人机器人还是展现出了较为明显的优势。研究人员计划,在今年晚些时候,模拟医疗场景中,对加州大学圣地亚哥分校医学院的学生进行测试。

希望这个仿人机器人在现实的医疗场景中发挥作用,将来也能变得更好,从而让临床医生更懂病人。这样一来,医患之间的沟通也会更加顺畅,让病人减少一份不知道怎么描述感觉的尴尬,也让医生多一份白衣天使的魅力。

这个仿人机器人能教医生读懂病人情绪,改善医患关系简直妥妥的 |发现

发表评论

电子邮件地址不会被公开。 必填项已用*标注