当前位置:新葡萄娱乐在线网站 > 国际资讯 > 机器人也会有喜怒哀乐,为什么有些人形机器人

机器人也会有喜怒哀乐,为什么有些人形机器人

文章作者:国际资讯 上传时间:2019-09-01

随着如今的发展越来越迅速,那些以前我们觉得不可能的事情,现在正在慢慢实现着,智能机器人在这几年的兴起,相信大家都是有目共睹的。

现如今随着科技不断发展,曾经这么幻想机器人的时代,也终于随之而来。机器人研发至今,现在已经有了非常大的进步。曾经,我们也给大家介绍过,许多智能机器人的设计和发明,大部分智能机器人还是处于一个不完善的状态,它们的外形以及很多地方都还不能达到仿真人的特性。

最近,登上“早安英国”(英国电视台ITV一档晨间节目)的机器人Sophia引起了网友热议。主持人和一众网友纷纷在推特上评论Sophia十分怪异吓人。

机器人也会有喜怒哀乐?

图片 1

图片 2

图片 3Sophia做客英国电视节目。图片来源:Good Morning Britain/ITV

图片 4

然而今天带大家看到的这款机器人,相信会让你眼前一亮的,她不仅有人类的样貌,还有人类的感觉,如果你弄疼她,她还会有相应的一些反应。

不过最近,日本著名的医学大学昭和大学,与机器人生产商tmusk格力,研发出了一款新型的智能机器人昭和花子,似乎就打破了人们对于传统机器人的认知。据了解,这款名为昭和花子的智能机器人,是完全仿照真人而设计的。它的高度达到了1.54米,体重达到了42公斤。因为她的皮肤采用特殊材料打造,所以在触摸起来感觉和真人是非常相似的。

图片 5节目主持之一皮尔斯·摩根在推特上评论:“奇怪……非常,非常奇怪。”图片来源:twitter.com

图片 6

图片 7

图片 8

Sophia奇怪在哪?这还得从它的来头说起。

2015年,一个名叫buddy的机器人被研发,它可以使用正面的8英寸平板来显示它的面部和表情

这个机器人就是在前不久,由东京最著名的医科大学昭,和日本一家著名的机器生产商tmsuk,联合研发的一款用于医疗上的机器人,名叫昭和花子,这款机器人和人类拥有着相似的皮肤,和人类相似的外貌,从外表看和人没有太大的区别,但是有一点它和人类拥有相同的触觉,如果你一不小心碰疼了她,他会通过自己的表情和和声音传达出它的感觉。

除此之外,这款昭和大学机器人还可以像人类一样,通过各种表情和声音,来表达自己的情绪和状态。就是说如果不小心碰疼了她,她就会发出痛苦的叫声以及表情,来表达自己的痛处。而之所以制作出了这样一款机器人,研发人员表示,这是为了专门提供昭和大学牙科实习生们练习使用的。

Sophia是什么?

Sophia是美国公司Hanson Robotics设计研发的表情机器人,外表以奥黛丽•赫本和创始人大卫•汉森(David Hanson)妻子为原型[1]。它眼睛里安装的摄影机使其可以识别人脸和辨别人类的表情变化,进而在与人互动中做出相应的表情。Sophia能模拟出多达62种人类表情, 甚至包括脸红[2]

图片 9Sophia的部分面部表情变化。图片来源:CNBC

注视Sophia的神情,你也许已经可以理解网友们的感受:

图片 10

其实,早在Sophia之前,Hanson Robotics这家致力于制造“能进行教学、服务、娱乐並与人建立深层关系的机器人”的公司就已经研发了不少表情机器人。例如以已故美国科幻小说大师菲利普•K•迪克为原型的机器人和爱因斯坦机器人。它们均能辨识和模仿人类情绪[3]

图片 11“爱因斯坦”机器人。图片来源 : hansonrobotics.com

这些表情机器人目前还被用于自闭症儿童的交流并且取得了一定的成果。Hanson Robotics创始人大卫•汉森认为,在不久的将来,机器人能变得有创造力、想象力、共情能力甚至能变得比人类更加睿智。

除了Hanson Robotics以外,其他机器人公司也相继研发了能表达情绪的类人型机器人,例如日本机器人公司Kokoro和日本先进工业科技研究院合作研发的Kurokawa机器人,也能做出12种表情[4]

图片 12Kurokawa和Actroid-F机器人。图片来源:memolition.com

虽然这些“情绪机器人”都有超高的仿真性,但观看它们和人互动的视频常使不少观看者觉得背脊发凉。

这股寒意来自哪里?

如果机器人也会有情绪和表情,它在无法完成任务时,肯定会表现出沮丧,而当被别人夸奖了,肯定也会兴高采烈。

图片 13

图片 14

跌入“恐怖谷”的情绪机器人

一个影响深远的解释是,这些情绪机器人的样子落在了“恐怖谷” (uncanny valley)内。

1970年,日本机器人专家森政宏提出了“恐怖谷”理论假设[5],指人类对机器人的好感度会随着机器人和人的相似度而提高,然而当相似度到达一定程度时,我们的情感反应会突然逆转为负面,机器人和人的差别会被放大,显得非常可怖。但随着相似度的继续增加,我们的情感反应会由负转正。在好感度和相似度的关系图里,这段数值低谷被称为“恐怖谷”。

图片 15恐怖谷理论示意图。图片来源: commons.wikimedia.org

情绪是人类复杂情感的表述,但人们一直期待机器人也能拥有类似的功能,就像是风靡全球的钢铁侠一样,可以傲娇得飞扬跋扈,也会难过得垂头丧气,而非冷冰冰的机器式的回应。

不仅如此它还可以模仿人类的多种声音,比如咳嗽干呕以及人类舌头活动的样子,也会做出很多丰富的表情,机器人昭和花子的出现,是为了帮助医科大学的牙科医生进行练习所用,这个机器人也不会作用于商业的模式,正是因为昭和花子的出现,使医学生对于面对患者的紧张大大减少。

也就是说,通过这款机器人实习生们就可以练习娴熟的技术,不会在面对病人的时候而感到胆怯了!除此之外,研发团队还表示,未来还会继续深入的研发这款机器人更多的功能,从而达到多个领域,造福人类。

“恐怖谷”真的存在吗?

这个问题在学术界一直存在争议,部分研究能观察到恐怖谷现象,但另一些研究却并没有发现好感度转为负向的“低谷”阶段,而只观察到人类的好感度随着机器人的人类相似度(human likeness)上升而增加[6]

在最新的一项研究中,研究者选取了80张现实存在的机器人的照片作为实验材料,而非此前惯用的人脸/机器人合成图。实验参与者需要给每张机器人照片的类人程度以及好感度评分。

图片 16实验中选取的真实机器人图片。图片来源:doi.org/10.1016/j.cognition.2015.09.008

结果表明,随着机器人的人类相似度上升,人们对机器人的好感度先上升,再转向负面,最后攀升回高好感度,与恐怖谷理论吻合 [7]

图片 17实验结果:横轴为机器-人类分值(即类人程度),纵轴为好感度。实验结果表明,随着机器人的类人程度上升,好感度先上升再陷入低谷,最后回升。拟合曲线和恐怖谷理论描述的趋势一致。图片来源:doi.org/10.1016/j.cognition.2015.09.008

这样的机器人是不是会更容易和人类打成一片?近日,一项研究更证实了人们心中对机器人拥有情绪的渴望。

图片 18

图片 19

可是,为什么会有“恐怖谷”?

近年来,随着电脑动画技术和AI技术的发展,恐怖谷理论逐渐成为科学界的关注热点。但关于为什么会出现恐怖谷现象,科学界对此也未有定论。目前,针对恐怖谷现象的解释,心理学和人机交互学提出了以下几种理论。

  • ### 范畴模糊理论(categorization ambiguity)

观察者对观察对象的范畴认知会影响他对观察对象的感知,这种现象在心理学中被称为“范畴感知(categorical perception)”。不管机器人的样子有多不同,它们总能被归入“人类”或“非人类”这两个范畴之一,因此人们可以准确归类机器人。

范畴模糊理论认为,类人型机器人落在了“人类”和“非人类”范畴界限之间,人们判断它们属于哪个范畴的能力大大下降,从而引起人们对类人型机器人的负面情绪。

2013年,苏黎世大学教授Cheetham和Jancke让人们判断一系列合成的面孔照片是否属于人类 [8],发现范畴模糊现象的确存在,然而,随后的实验探究这种感知困难是否和负面情绪相关联,均没有得到阳性结果。也就是说,范畴理论并没有很好地解释恐怖谷现象。

图片 20研究者利用真实人脸和电脑头像人脸(avatar face)合成照片,通过调整两者比例得出一系列和真人相似度不同的脸部照片,再要求被试辨识照片属于“人”还是“非人”。结果显示,两者比例接近时,被试判断用时最长。图片来源:doi:  10.3791/4375

  • ### 感知不协调理论(perceptual mismatch)

感知不协调理论则认为,认知程度的不协调可引起负面情绪,如一张很真实的人脸上突然有一双死鱼眼。 有研究[6]发现,当脸部和眼睛的类人程度不一致,或给真人脸部配上一双人工放大的眼睛,都能引起强烈的负面情绪。

图片 21将人像眼睛依不同比例放大的实验图。图片来源:doi.org/10.1016/j.chb.2008.12.026

另一个实验则发现,当脸部和声音不协调时(例如机器人的脸部搭配真人的声音,或真人的脸部搭配合成的声音),人们会有最强的负面情绪[6]。不过,上述理论针对的主要都是高仿真外表带来的影响。像Sophia这样能够模拟情感反应的机器人所引起的恐怖感觉,又是否仅因为它们的外表像人呢?

  • 心灵感知理论(mind perception)

最新的一派科学家提出了“心灵的恐怖谷”(uncanny valley of mind)的概念。这些持有心灵感知理论的学者认为,机器之所以变得恐怖,是因为它们的外表暗示了它们和人一样,有感觉和感受。

在大部分人的世界观里,人的特点是拥有“心灵”,而人类和机器的分别就在于是否有情绪和感觉。因此,心灵感知理论假设当一个类人型的机器被感知到是有情绪和感觉时,人们对机器人的心理预期被打破,新的认知和旧的认知出现冲突,他们就会出现认知失调(cognitive dissonance),从而产生紧张、厌恶和恐惧等负面感情反应。

在德国开姆尼茨工业大学教授杨•斯坦(Jan Stein)和彼得•奥勒(Peter Ohler)的实验中,被试们用虚拟现实(virtual reality, VR)观看两个人对话的3D录像。录像中两个角色评论了天气,女人表达了没有空闲时间的沮丧,男人对女人的烦躁和沮丧表达了同情。一半的被试被告知这两个人物是有人类控制的,而另一半被告知人物是由电脑控制的。在这两组里面,又分别有一半人被告知对话是念稿的,一半被试则被告知对话是即兴的。结果那些认为他们看了两个电脑即兴对话的被试们感到了比其余三组都要高的诡异感。

图片 22实验被试在虚拟现实中观看这一场景并评判厌恶程度。图片来源:J.-P.Stein, P. Ohler., Cognition 160

在这个实验中,虚拟人物的外貌是不变的,改变的对象只有人们对它们的认知。这表明了不管机器人的外表是否像人,当机器自发地表达出情绪时,恐怖谷现象就会出现。对此,杨•斯坦和彼得•奥勒提出了“”人类独特性威胁假说(threats to human distinctiveness hypothesis)——我们普遍认为人类的特性在于拥有心灵(灵魂),而当机器表现出拥有和人一样的心灵时,人们会觉得人类的独特性受到了威胁,因而产生厌恶情绪[9]

由此可见,不管机器人的样子有多像人类,它们的情绪反应有多真实,一旦我们知道了它们非我族类,还是有可能出现毛骨悚然的感觉。

人类喜欢与表达情绪的机器人工作

同时老师可以从机器人的面部表情判断出,来判断出学生学习的情况,从而指出学生有哪些不足,这给学生们提供了非常大的方便,虽然这一款机器人,没有用作于商业用途,但是昭和花子制造者算要把这款机器人进行更强的升级,能让他拥有更多的功能从而可以让更多人受益于这个机器人,相信在将来这款机器人一定能够给人类带来不小的好处,如果这款机器人能受广泛推广,以后大家去医院会能接受到更加熟练的医术了。

机器人能走出恐怖谷吗?

Sophia机器人的研发者大卫•汉森也承认恐怖谷现象的存在。但他相信,有很多的审美因素影响了人们对机器人的感觉,而找到那个恐怖和讨人喜欢之间的平衡点,就能创造出能和人类建立情感联系的机器人[10]

不过,如果人们确实是因为感知到机器人有心灵而产生恐惧,或许那个审美上的平衡点就不存在了。

正如最早提出心灵感知理论的心理学家科特•格雷(Kurt Gray)在论文的最后总结道:“我们很乐意机器人为我们工作,但却不会希望机器人能有感情。” [11]

图片 23

英国伦敦大学学院在一项研究中,让一台机器人作为家政助手来帮助志愿者完成一些简单家务。在这一过程中,研究人员设定了一个机器人失误的程序:机器人在协助志愿者煎鸡蛋的过程中,被设定把鸡蛋掉到地上,并试图去补救这一失误。

图片 24

参考资料:

  1. Mori, Masahiro, Kari F. MacDorman, and Norri Kageki. "The Uncanny Valley: The Original Essay by Masahiro Mori." (2012).
  2. Kätsyri, Jari, et al. "A review of empirical evidence on different uncanny valley hypotheses: Support for perceptual mismatch as one road to the valley of eeriness." Frontiers in psychology 6 (2015).
  3. Mathur, Maya B., and David B. Reichling. "Navigating a social world with robot partners: A quantitative cartography of the Uncanny Valley." Cognition146 (2016): 22-32.
  4. Cheetham, Marcus, and Lutz Jancke. "Perceptual and category processing of the Uncanny Valley Hypothesis' dimension of human likeness: some methodological issues." Journal of visualized experiments: JoVE 76 (2013).
  5. Stein, Jan-Philipp, and Peter Ohler. "Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting." Cognition 160 (2017): 43-50.
  6. Gray, Kurt, and Daniel M. Wegner. "Feeling robots and human zombies: Mind perception and the uncanny valley." Cognition 125.1 (2012): 125-130.

与其他机器人不同的是,这台机器人拥有人类的外表,能够做出快乐、悲伤等表情,还能使用简单的语言与志愿者互动。当它出现失误后,它会表达歉意,并呈现出内疚的表情。

机器人的发展与进步为人类提供了很大的益处,希望在以后的将来,有更多类似于昭和花子的机器人诞生,从而造福更多人类。

文章题图:CNBC

(编辑:Calo)

图片 25

最终,研究人员发现,与高效且完美的机器人相比,志愿者更愿意与这个干活慢半拍且拥有并不完美的有表情的机器人合作,这其中的原因自与机器人可以表现歉意、后悔等人类表情有关。因为机器人的“情绪”表达可以降低人们对它们工作中失误的不满,从而加深两者间的信任。

而信任,一直以来被认为是人类与机器人合作中一个很大的障碍。

中国科学技术大学教授陈小平一直致力于机器人的研究,近几年,他率领研究人员研发的可佳机器人频频见诸媒体,其中一个子系列叫“佳佳”,其应用范围包括商场导购。作为一个在商业购物场所引导人群购物的角色,表情也是陈小平等人试图让可佳拥有的功能之一。

“我们过去研制的‘佳佳’一代、二代机器人具有像人的声音和外貌,但没有表情。这些机器人可以为用户提供导览、导购服务,对话流畅,可以正确回答用户的很多问题,并提供大量有用的信息。经过500多人的试用,我们发现,虽然我们预期的服务功能都可以实现,但用户对机器人性能的评价并不高。为此,我们给‘佳佳’三代机器人配备了微表情,以及用户表情识别和身份识别能力。测试表明,‘佳佳’三代的人机交互效果得到了显著改善,对用户的吸引力大大增强。”陈小平介绍道。

因此,带表情的机器人已经成为近几年的研究热点之一。

随着科技发展,现代的机器人已经可以产生类似或接近人类的多种面部表情,如“高兴”“害羞”“内疚”等。对于仿人外形的机器人来说,表情生成有一定的技术难度,特别是在材料、工艺、机理等方面,所以目前已经实现的主要是“微表情”,也就是“表情动作”比较小的表情,如“微笑”。

“说话时的口型匹配也属于微表情的范围,目前也实现了。但是如果让机器人实现比较夸张的表情,如‘大笑’‘大怒’等,难度就会大大增加了。”陈小平表示。

让机器人拥有情绪是否是天方夜谭?

2013年,一篇刊登在《Nautilus》科学杂志上的一篇有趣且详细的文章提出一个问题,是否可以制造一个有情绪机器人?而要回答这个问题,首先要弄清楚情绪到底是什么?

文章的作者Neil Savage在文章中写道:情绪并不是无法解释的,情绪只不过是人类对于周围环境改变的自动反应,这种反应归根究底是人类为了适应生存而做出的进化。

对此,神经学家也一直在努力,试图找到情绪与现代医学的证据。美国的神经科学家Antonio Damasio和其研究团队为了解情绪在人不同决策当中扮演的角色,便以一连串赌博游戏,来测量受试者他们一些肉眼难辨的生理反应,即人在感到恐惧时会出现“微汗的肤电反应”。

结果显示,一般人会放弃令自己产生恐惧的高风险赌博决策,转去损害性较低的决定。相反,那些中央前额叶受损的受试者在高风险赌博决策中几乎没有趋利避害的反应,导致他们经常选择高风险的赌博决策,即使他们意识到这些决策会带来更大的损失。科学家由此推论,不能在现实环境中经验情绪,是没有可能得到“理性”的判断。

另一名神经系统科学家Joseph Ledoux则将情绪比作有生命物体的生命电路,不管是人类还是单细胞阿米巴虫,都具有这种电路。但人类的大脑结构和情绪反应要比阿米巴虫复杂的多,甚至可以说比其他所有生物都要复杂。

既然人类的情绪表达机制如此复杂,那么让机器人做出表情,似乎有些困难。不过,陈小平认为,与让机器人拥有表情相比,让它们判断合适表现出哪种表情更难。

“一般而言,为了让机器人做出恰当的表情,必须解决三个关键问题:第一,当前处于什么场景?第二,用户有什么表现?第三,在当前情况下,根据人类的常识,做出什么样的表情才是恰当的?与实际做出表情相比,解决这些问题则更复杂,更困难,也更重要。”陈小平说。

拥有表情与判断做何种表情是两个境界

同时,陈小平认为,如果只关注机器人的表情问题可能会导致机器人研究本末倒置。因为让机器人拥有表情并不是研究最核心的问题,“研发机器人的目的不是为了让机器人做错事的时候会表现出内疚并道歉,而是为了能够成为人类的助手。”

陈小平进一步解释说,如果人们把注意力全局限在人机情感交互上是不妥当的。事实上,对于有表情能力的机器人而言,因为机器人“先天”不具备情绪反应能力,为了做出某种表情,机器人首先必须能够判断:什么表情是恰当的?

比如在英国发布的这项研究中,当前场景是机器人给人帮忙却做错了事,而根据人类的常识,这种情况下做错事的一方应感到内疚,并主动道歉。虽然这项研究没有直接提及用户的表现的判断,但这种判断通常是包含在这类问题之中的。

所以,固定一种场景,固定一种用户表现,固定一种机器人表情反馈,这是不需要智能的,也难以实际应用,因为表情总是与场景、用户和常识相关。如果让机器人自己去判断当前它所处的场景,分析用户的表现,并相应地决定自己做出什么样的行为和表情才是符合人类常识的,则是非常有挑战性的,是需要智能的,也是具有广泛应用的。

“换句话说,做出一种行为和表情不需要多少智能,但知道什么情况下做什么样的行为和表情是符合人类常识的,往往需要很高的智能。”陈小平说道。

本文由新葡萄娱乐在线网站发布于国际资讯,转载请注明出处:机器人也会有喜怒哀乐,为什么有些人形机器人

关键词: