设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

AI是如何忘记一张脸的:如何教会AI学会忘记?

2019-06-24 08:39:05    创事记 微博 作者: 脑极体   

  欢迎关注“创事记”微信订阅号:sinachuangshiji

  文/宋欣仪

  来源:大数据文摘(ID:BigDataDigest)

  我们都会遗忘,但是遗忘的过程是什么样子的?从一闭眼就能浮现的那张清晰的脸庞到那一团模糊不清的影子,是眉毛先消失还是眼睛先不见?

  最近,一位艺术家想用AI展现这个过程。

  她创建了一张算法生成的脸,然后通过逐渐关闭个别神经元,让AI慢慢忘记这张脸,并把这个过程可视化为了一段视频。

  一层一层拨开AI的心

  忘记的过程可能是丑陋的

  视频的名字叫做"What I saw before the darkness“,为我们展示了一个AI的心灵运作过程。

  视频中最开始展现的面孔由生成对抗网络(GAN)生成,GAN是一种机器学习程序,可以从现有照片中学习以产生新事物。通过这种方式GAN训练了数以百万计的肖像,可以生成逼真的人脸。

  网络相互连接的神经元决定了这张脸的特征:眼睛,肤色,形状,头发,类似于人类大脑使用神经元网络来构建面部的心理图像。

  而项目的创作者试图教会AI忘记。通过逐渐关闭个别神经元,然后重复这个过程,直到AI完全“忘记”这张脸。

  视频展现的效果有点让人毛骨悚然。起初看起来好像是生成的人脸正在迅速老化。无数细小的线条出现在她的眼睛下方和脸部周围,她的头发开始变薄和变淡。

  几秒钟后,出现了一些完全不同的东西。她的皮肤逐渐变成绿色的色调,而随着神经元继续变暗,她的特征开始消失。

六十秒内,这张脸完全腐烂了,只剩下一些白色和棕色的色调。六十秒内,这张脸完全腐烂了,只剩下一些白色和棕色的色调。
最后会变成线条然后完全变黑。最后会变成线条然后完全变黑。
通过AI看人类脑海中的橡皮擦通过AI看人类脑海中的橡皮擦

  创作者介绍这个项目的灵感是源于对人类感知的思考,人类所看到的一切其实都是大脑对周围世界的再解释。一个人无法直接进入外部现实,只能通过在大脑再构建一个图像的方式接触世界。

印象派画家莫奈的代表画作《议会大厦》印象派画家莫奈的代表画作《议会大厦》

  克劳德·莫奈的画作在他的晚年风格发生了变化,他晚期的画笔触逐渐变得模糊,而且色调会偏向混乱的绿色和黄色。人类的眼睛和大脑以及连接它们的网络随时间会经历变化或者说是恶化,而通常我们人类不会注意到这一变化。

  虽然说大脑里有一个全新的被建构的世界,但是它不是空中楼阁,凭空捏造的。在某些方面,深度神经网络与视觉系统非常相似,神经网络是非常神秘的东西,他们作出的一些决定可能连创造它们的专家都无法解释。

  这个项目可以帮助模拟世界在人们心中发生变化的过程,通过倒推神经网络的工作步骤,通过系统地删除神经元,看看哪些图片对AI的世界是重要的,也许可以成为揭开人工智能的面纱,打开黑匣子的一个办法。

  关于记忆

  遗忘是一种能力

  一个比较流行的比喻解释了为什么人们会忘记:人们的大脑的容量会饱和,因此,我们需要忘记一些东西给大脑腾出更多的存储空间。

  遗忘不仅仅是一次失败的记忆,这是一个积极的过程,可以帮助大脑获取新信息并更有效地做出决策,遗忘是人的能力。

  记忆帮助我们了解这个世界,而不仅仅是记住它。用这种方法,我们似乎保留了有用的、有价值的和相关的记忆,同时忘记了低价值的信息。对于人类而言,遗忘可以通过减少过时信息对我们决策的影响来增强灵活性。还可以防止过度拟合特定的过去事件,促进概括(神经元)有效值。为了地适应生活,人类需要能够战略性地忘记。

  忘记可能是AI进步的关键

  尽管忘记有时候会使我们感到沮丧,但人类忘记的能力正是我们优于人工智能的地方。计算机记忆即电脑内存,通常是指存储信息和找回信息的容量,以及存储这些信息的计算机物理组件。当计算机的某些内存不再被任务需要时,计算机将“忘记”这些数据,释放空间供其他任务源。

  AI存储记忆的一种方法是象征性的记忆表征,其中,知识是由逻辑事实来表示的(如“鸟会飞”,“Tweety是鸟”,因此“Tweety可以飞”)。这些高度结构化的人造表示虽然可以很容易地删除,就像在电脑上删除一个文件。但是机器学习算法不知道需要什么时候保留旧信息,什么时候抛弃过时的信息。不仅如此,它还会面临着与“遗忘”有关的几个问题。

  一个是“过学习”的问题。“过学习”指的是当一个学习机器存储了源于以往经验的过于详细的信息时,阻碍了其概括和预测未来事件的能力。另外有时人造神经网络的神经元在学习过程的早期采用不良的激活模式,会损害AI的未来学习能力。

  还有一个问题是“灾难性遗忘”。 比如如果教一个说英语的孩子学习西班牙语,孩子会很容易把学习英语的方法应用到西班牙语的学习中,比如名词,动词时态,句子构建,同时忘记那些不相关,比如口音,喃喃自语,语调。人类可以同时进行遗忘和学习。

  相反,如果训练神经网络学习英语,则参数需要适用于英语。如果还想同时教它西班牙语,对西班牙语的新改编将覆盖神经网络以前为英语获得的知识,有效地删除所有内容并重新开始。这被称为“ 灾难遗忘 ”,也是神经网络的一个局限。

  伦理方面的考量也是一个问题。人类死后他们的数据要怎么处理?一旦那个人死了,是否能够用这些数据再训练AI然后复制出另一个他?缺乏适用的法律、规则,没有设定好的边界,我们留下了一个没有人控制的分散系统。算法不能选择忘记什么,而负责它们的人可能没有权利或解决问题的能力。

  廉价的信息存储代价和AI无穷的容量相结合,打造出了一个看似非常有吸引力的工具,但背后的问题是大量数据持续的收集,而没有简单的方法来“忘记”数据。

  教会AI遗忘

  要创造更好的人工智能,首先要了解我们的大脑在关于什么是值得记住的,什么是要遗忘的方面是如何做决定的。

  然后应用到AI,就像人一样,人工智能应该记住重要和有用的信息,同时忘记低价值,无关紧要的知识。然而,确定什么是相关和有价值的信息,除了手头的任务之外,还加入包括如伦理,法律和隐私问题等因素。

  学会遗忘是人工智能面临的重大挑战之一。虽然它仍然是一个新的领域,但科学家最近已经探索了一些关于如何克服这一局限的常识性理论,比如循环神经网络LSTM,它使用特定的学习机制来决定要记住哪些信息,要更新哪些信息,以及在任何时候注意。

  还有谷歌DeepMind的研究人员提出的EWC算法,该算法模仿突触合并的神经运作过程。在神经网络中,使用多个连接(如神经元)来执行任务。EWC将某些连接编码为关键,从而保护它们不被覆盖/遗忘。

蓝线=标准深度学习,红色和棕色线=在EWC的帮助下进行改进蓝线=标准深度学习,红色和棕色线=在EWC的帮助下进行改进

  但是未来真正的转变还需要领导人工智能开发,技术专家,伦理学家,研究人员,学者,社会学家,政策制定者和政府的私人实体的共同合作。

  相关报道:

  https://futurism.com/how-to-make-ai-forget/ 

  https://hackernoon.com/machine-un-learning-why-forgetting-might-be-the-key-to-ai-406445177a80

  https://www.vice.com/en_us/article/evym4m/ai-told-me-human-face-neural-networks

  https://www.wired.com/story/the-next-big-privacy-hurdle-teaching-ai-to-forget/ 

分享到:
保存   |   打印   |   关闭