人工智能有了幽默感很危险?可能会因“有趣”杀人

人工智能有了幽默感很危险?可能会因“有趣”杀人
2019年04月04日 08:46 新浪科技
图为在东京国家新兴科学与创新博物馆展出的类人型机器人“Alter”。计算机科学家和语言学家称,随着机器变得越来越聪明,幽默感也许是使人类区别于机器的最后一项特征。  图为在东京国家新兴科学与创新博物馆展出的类人型机器人“Alter”。计算机科学家和语言学家称,随着机器变得越来越聪明,幽默感也许是使人类区别于机器的最后一项特征。
图为首席研究员诺姆•斯洛尼姆站在人工智能机器Project Debater旁边。该机器即将在接下来于旧金山展开的辩论赛中与两名人类对决。斯洛尼姆在程序中加入了幽默元素,但机器有时会在不合适的时机开玩笑。  图为首席研究员诺姆•斯洛尼姆站在人工智能机器Project Debater旁边。该机器即将在接下来于旧金山展开的辩论赛中与两名人类对决。斯洛尼姆在程序中加入了幽默元素,但机器有时会在不合适的时机开玩笑。

  新浪科技讯 北京时间4月4日消息,据国外媒体报道,专家警告称,被设计拥有幽默感的机器人可能很难理解究竟什么叫“好玩的事情”,甚至可能因此而杀人。

  研究人员指出,人工智能机器无法真正掌握开玩笑的时机,也不具备对玩笑的鉴赏力。这除了让它们开不合时宜的玩笑之外,还可能招致灾难性后果。自动化软件可能会把杀人当成一件好玩的事情,所以,让人工智能具备理解幽默的能力是一件很有必要的事情。

  德国达姆施塔特大学计算机科学家与语言学家崔斯坦•米勒(Tristan Miller)称,这能增进机器与人类之间的联系,尤其是如果能让他们理解何为讽刺的话。这也许还能促进不同语言之间自动化翻译的发展。

  但一些专家对机器人能否理解幽默仍持怀疑态度,“人工智能永远无法像人类一样理解玩笑,”德克萨斯农工大学一名研究幽默的计算语言学家基吉•汉佩尔曼(Kiki Hempelmann)表示,“就人工智能而言,它们并不需要幽默,完全不具备开玩笑的情境。教会人工智能幽默是很危险的,因为它们可能会把严肃的事情误当作玩笑,还可能在不合时宜的情况下使用幽默。邪恶的人工智能甚至可能因此而杀人,因为它们觉得这很好玩。”

  幽默是一个复杂的概念,需要有大量情境信息作为支撑,而专家认为,我们很难让机器人具备这种能力,米勒博士补充道:“创造性语言——尤其是幽默——是计算机智能最难掌握的领域之一。因为幽默要依赖众多现实世界的知识,包括背景知识和常识知识。而计算机没有这些现实经历,它们只知道你告诉它们的事情。”

  哥伦比亚大学计算机科学家、脱口秀表演家艾莉森•毕肖普(Allison Bishop)指出,计算机学习主要寻找规律,但喜剧表演则致力于寻找接近规律的事情,并对其稍作调整,使之既搞笑逗趣、又不乏尖利。毕肖普认为,幽默必须“足够让人们感同身受,又足够出人意料。”

  对喜剧演员来说,这一点能产生工作安全感。毕肖普博士称,她哥哥成为了一名全职喜剧作家时,父母都很高兴,因为这意味着他不会被机器取代了,“我愿意相信,人类有一种理解有趣事物的天赋。”

  俄勒冈州立大学计算机科学家希瑟•奈特(Heather Knight)打造了一台能表演喜剧的机器人Ginger,帮助她设计能够更好地与人类互动、尤其是对人类行为做出反应的机器。她发现,人们最喜欢机器人表现出谦逊的幽默感。

  例如,Ginger在人类所写的笑话与故事的基础上进一步发挥,开了个莎士比亚和机器的玩笑:“你们要是用刀剑刺我的电池包,我不是也会流出碱性液体的吗?”(原句为《威尼斯商人》台词:你们要是用刀剑刺我们,我们不是也会出血的吗?)

  幽默与人工智能如今是一片不断增长的学术领域。有些计算机无需人类帮助,就能自己写作或理解双关语。而计算机科学家称,这是因为双关语往往以发音相似、但意思不同的单词为基础。普渡大学计算机科学家茱莉亚•雷兹(Julia Rayz)指出,一旦超出这一范围,计算机就很难做到这一点了。

  “它们能理解双关语——或者说算是理解吧,”雷兹博士表示,“而就算对我们来说,大多数双关语也都需要大量背景知识才能理解。”不过毕肖普博士指出,双关语有一定的数学元素,这些是能被计算机所理解的。

  雷兹博士历时15年时间,试图让计算机能够理解幽默。但据她表示,结果只能说差强人意,有一次,她让计算机读取两组不同的句子。其中有些是笑话,有些则不是。结果计算机将一些不被人类视为笑话的句子划入了“笑话”一类。雷兹博士问计算机为何这么选择时,计算机的回答从技术角度来看毫无问题。但这些句子其实一点也不好笑,也无法给人留下深刻印象。

  IBM研发的人工智能曾经在国际象棋和知识竞赛《危机时刻!》(Jeopardy!)中打败了人类。但它新参与的“Project Debater”挑战则困难得多,因为该竞赛以语言为基础,人工智能需要打败有条理的人类辩论。

  该项目的首席研究员、前喜剧作家诺姆•斯洛尼姆(Noam Slonim)在程序中加入了幽默成分,认为偶尔讲个小笑话在辩论中是有帮助的。但这项功能在初始测试中起到了反作用:系统在错误的时间、或者以错误的方式开了玩笑。如今,该项目限定每次辩论中只能尝试开一次玩笑,这些玩笑往往就比较谦逊了。

  “我们知道,好的笑话必须把握好各种细微差别,还要掌握好时机,”斯洛尼姆表示,“而这些很难被自动化系统理解。”斯洛尼姆指出,正因为如此,幽默或许会成为未来图灵测试的关键。图灵测试是对机器智能展开的终极测试,如果独立评估员无法判断与自己互动的是人类还是机器,就视为测试通过,机器能做到的事与人类还存在巨大差距,在语言和幽默两方面都是如此。(叶子)

 

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片