为什么有些人形机器人看起来格外诡异?

2017年07月24日 14:51 果壳网

微博 微信 空间

添加喜爱

最近,登上“早安英国”(英国电视台ITV一档晨间节目)的机器人Sophia引起了网友热议。主持人和一众网友纷纷在推特上评论Sophia十分怪异吓人。

Sophia奇怪在哪?这还得从它的来头说起。

Sophia是什么?

Sophia是美国公司Hanson Robotics设计研发的表情机器人,外表以奥黛丽?赫本和创始人大卫?汉森(David Hanson)妻子为原型[1]。它眼睛里安装的摄影机使其可以识别人脸和辨别人类的表情变化,进而在与人互动中做出相应的表情。Sophia能模拟出多达62种人类表情, 甚至包括脸红[2]。

注视Sophia的神情,你也许已经可以理解网友们的感受:

其实,早在Sophia之前,Hanson Robotics这家致力于制造“能进行教学、服务、娱乐並与人建立深层关系的机器人”的公司就已经研发了不少表情机器人。例如以已故美国科幻小说大师菲利普?K?迪克为原型的机器人和爱因斯坦机器人。它们均能辨识和模仿人类情绪[3]。

这些表情机器人目前还被用于自闭症儿童的交流并且取得了一定的成果。Hanson Robotics创始人大卫?汉森认为,在不久的将来,机器人能变得有创造力、想象力、共情能力甚至能变得比人类更加睿智。

除了Hanson Robotics以外,其他机器人公司也相继研发了能表达情绪的类人型机器人,例如日本机器人公司Kokoro和日本先进工业科技研究院合作研发的Kurokawa机器人,也能做出12种表情[4]。

虽然这些“情绪机器人”都有超高的仿真性,但观看它们和人互动的视频常使不少观看者觉得背脊发凉。

这股寒意来自哪里?

跌入“恐怖谷”的情绪机器人

一个影响深远的解释是,这些情绪机器人的样子落在了“恐怖谷” (uncanny valley)内。

1970年,日本机器人专家森政宏提出了“恐怖谷”理论假设[5],指人类对机器人的好感度会随着机器人和人的相似度而提高,然而当相似度到达一定程度时,我们的情感反应会突然逆转为负面,机器人和人的差别会被放大,显得非常可怖。但随着相似度的继续增加,我们的情感反应会由负转正。在好感度和相似度的关系图里,这段数值低谷被称为“恐怖谷”。

“恐怖谷”真的存在吗?

这个问题在学术界一直存在争议,部分研究能观察到恐怖谷现象,但另一些研究却并没有发现好感度转为负向的“低谷”阶段,而只观察到人类的好感度随着机器人的人类相似度(human likeness)上升而增加[6]。

在最新的一项研究中,研究者选取了80张现实存在的机器人的照片作为实验材料,而非此前惯用的人脸/机器人合成图。实验参与者需要给每张机器人照片的类人程度以及好感度评分。

结果表明,随着机器人的人类相似度上升,人们对机器人的好感度先上升,再转向负面,最后攀升回高好感度,与恐怖谷理论吻合 [7]。

可是,为什么会有“恐怖谷”?

近年来,随着电脑动画技术和AI技术的发展,恐怖谷理论逐渐成为科学界的关注热点。但关于为什么会出现恐怖谷现象,科学界对此也未有定论。目前,针对恐怖谷现象的解释,心理学和人机交互学提出了以下几种理论。

范畴模糊理论(categorization ambiguity)

观察者对观察对象的范畴认知会影响他对观察对象的感知,这种现象在心理学中被称为“范畴感知(categorical perception)”。不管机器人的样子有多不同,它们总能被归入“人类”或“非人类”这两个范畴之一,因此人们可以准确归类机器人。

范畴模糊理论认为,类人型机器人落在了“人类”和“非人类”范畴界限之间,人们判断它们属于哪个范畴的能力大大下降,从而引起人们对类人型机器人的负面情绪。

2013年,苏黎世大学教授Cheetham和Jancke让人们判断一系列合成的面孔照片是否属于人类 [8],发现范畴模糊现象的确存在,然而,随后的实验探究这种感知困难是否和负面情绪相关联,均没有得到阳性结果。也就是说,范畴理论并没有很好地解释恐怖谷现象。

感知不协调理论(perceptual mismatch)

感知不协调理论则认为,认知程度的不协调可引起负面情绪,如一张很真实的人脸上突然有一双死鱼眼。 有研究[6]发现,当脸部和眼睛的类人程度不一致,或给真人脸部配上一双人工放大的眼睛,都能引起强烈的负面情绪。

另一个实验则发现,当脸部和声音不协调时(例如机器人的脸部搭配真人的声音,或真人的脸部搭配合成的声音),人们会有最强的负面情绪[6]。不过,上述理论针对的主要都是高仿真外表带来的影响。像Sophia这样能够模拟情感反应的机器人所引起的恐怖感觉,又是否仅因为它们的外表像人呢?

心灵感知理论(mind perception)

最新的一派科学家提出了“心灵的恐怖谷”(uncanny valley of mind)的概念。这些持有心灵感知理论的学者认为,机器之所以变得恐怖,是因为它们的外表暗示了它们和人一样,有感觉和感受。

在大部分人的世界观里,人的特点是拥有“心灵”,而人类和机器的分别就在于是否有情绪和感觉。因此,心灵感知理论假设当一个类人型的机器被感知到是有情绪和感觉时,人们对机器人的心理预期被打破,新的认知和旧的认知出现冲突,他们就会出现认知失调(cognitive dissonance),从而产生紧张、厌恶和恐惧等负面感情反应。

在德国开姆尼茨工业大学教授杨?斯坦(Jan Stein)和彼得?奥勒(Peter Ohler)的实验中,被试们用虚拟现实(virtual reality, VR)观看两个人对话的3D录像。录像中两个角色评论了天气,女人表达了没有空闲时间的沮丧,男人对女人的烦躁和沮丧表达了同情。一半的被试被告知这两个人物是有人类控制的,而另一半被告知人物是由电脑控制的。在这两组里面,又分别有一半人被告知对话是念稿的,一半被试则被告知对话是即兴的。结果那些认为他们看了两个电脑即兴对话的被试们感到了比其余三组都要高的诡异感。

在这个实验中,虚拟人物的外貌是不变的,改变的对象只有人们对它们的认知。这表明了不管机器人的外表是否像人,当机器自发地表达出情绪时,恐怖谷现象就会出现。对此,杨?斯坦和彼得?奥勒提出了“”人类独特性威胁假说(threats to human distinctiveness hypothesis)——我们普遍认为人类的特性在于拥有心灵(灵魂),而当机器表现出拥有和人一样的心灵时,人们会觉得人类的独特性受到了威胁,因而产生厌恶情绪[9]。

由此可见,不管机器人的样子有多像人类,它们的情绪反应有多真实,一旦我们知道了它们非我族类,还是有可能出现毛骨悚然的感觉。

机器人能走出恐怖谷吗?

Sophia机器人的研发者大卫?汉森也承认恐怖谷现象的存在。但他相信,有很多的审美因素影响了人们对机器人的感觉,而找到那个恐怖和讨人喜欢之间的平衡点,就能创造出能和人类建立情感联系的机器人[10]。

不过,如果人们确实是因为感知到机器人有心灵而产生恐惧,或许那个审美上的平衡点就不存在了。

正如最早提出心灵感知理论的心理学家科特?格雷(Kurt Gray)在论文的最后总结道:“我们很乐意机器人为我们工作,但却不会希望机器人能有感情。” [11]

参考资料:http://www.hansonrobotics.com/robot/albert-einstein-hubo/http://www.cnbc.com/2016/03/16/could-you-fall-in-love-with-this-robot.htmlhttp://www.hansonrobotics.com/http://memolition.com/2016/09/02/creepy-examples-of-the-uncanny-valley/Mori, Masahiro, Kari F. MacDorman, and Norri Kageki. "The Uncanny Valley: The Original Essay by Masahiro Mori." (2012).K?tsyri, Jari, et al. "A review of empirical evidence on different uncanny valley hypotheses: Support for perceptual mismatch as one road to the valley of eeriness." Frontiers in psychology 6 (2015).Mathur, Maya B., and David B. Reichling. "Navigating a social world with robot partners: A quantitative cartography of the Uncanny Valley." Cognition146 (2016): 22-32.Cheetham, Marcus, and Lutz Jancke. "Perceptual and category processing of the Uncanny Valley Hypothesis' dimension of human likeness: some methodological issues." Journal of visualized experiments: JoVE 76 (2013).Stein, Jan-Philipp, and Peter Ohler. "Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting." Cognition 160 (2017): 43-50.http://www.tmtpost.com/1019932.htmlGray, Kurt, and Daniel M. Wegner. "Feeling robots and human zombies: Mind perception and the uncanny valley." Cognition 125.1 (2012): 125-130.文章题图:CNBC

(编辑:Calo)

推荐阅读
聚焦
关闭评论