设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

Google发布AI七原则:不开发武器,但会继续与军方合作

2018-06-08 11:14:45    创事记 微博 作者: 量子位   

  欢迎关注“创事记”的微信订阅号:sinachuangshiji

  文/夏乙 一璞

  来自:量子位(ID:QbitAI)

  终于,Google亮明了态度。

  在经历了数个月的风波之后,在数千员工发起联名抗议之后,在学界大牛纷纷联署反对之后,在各大媒体深入曝光内幕之后,Google终于调整了自己政策。

  今天早间,Google CEO正式发布了使用AI的七项原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。

  不过,Google也表示,将会继续与政府和军方展开AI合作,例如网络安全、培训以及征兵等领域。

  “我们认识到,这种强大的技术引发了同样强大的问题,AI的开发和使用将会对未来多年的社会产生重大影响。”Google CEO皮查伊(Sundar Pichai)写道。

  另外,Google制定的原则还要求公司职员及客户“避免给人带来不公正的影响”,尤其是与种族、性别、性向以及政治或宗教信仰有关的影响。

  皮查伊称,对于违反上述原则的应用,Google保留封禁的权利。

  同时,Google云CEO戴安·格林(Diane Greene)也在官方博客上发布了一篇文章,来介绍如何在Google Cloud上践行Google的AI原则。

  她特别提到,Google将不再延续Project Maven的合同。但是“正在与‘我们的客户’合作,以求用对他们来说长期有效、又不和我们的AI原则冲突的方式,负责地履行我们的义务,”

  各方评价

  看见这份《原则》,不少Google员工给出了很愉快的评价。

  Google现任AI负责人Jeff Dean除了在Twitter上分享Google发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南Responsible AI Practices,指导科学家和工程师们在构建AI产品的时候应该注意什么。就是这个:
https://ai.google/education/responsible-ai-practices

  DeepMind联合创始人穆斯塔法(Mustafa Suleyman)自己没有发表观点,而是在Twitter上转发了人权观察组织(Human Rights Watch)Mary Wareham的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。

  Keras作者François Chollet说,对于AI创业公司来说,这个是一个很好的例子,表明你可以对产品中道德问题的潜在影响进行前瞻,每个AI创业公司都应该起草一份这样的东西,不要等到危机四起才动手。

  Google大脑研究员Dumitru Erhan评价得非常简短,简单说了一句“看见这个出来了好开心”,大概代表了很多Googler的心声,二进宫的Ian Goodfellow也转发了。

  但是对于这份原则,并不是所有人都买账。

  《纽约时报》认为,由于Google此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Project Maven的合同之外,尚不清楚。

  ZDNet也在评论中指出,即便Google说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。

  原则全文

  皮查伊在名为《Google人工智能:我们的原则》的博文中写到:从垃圾邮件筛查到医疗诊断,人工智能可以帮助人们完成许多事情,这是我们致力于AI研发的原因。但这种强大的技术也会带来问题,人工智能的应用将会对未来社会带来深远影响。

  然后他公布了七项人工智能指导原则:

  AI应用目标:

  我们相信AI应当

  1、对社会有益。

  2、避免制造或加剧偏见。

  3、提前测试以保证安全。

  4、由人类担责。

  5、保证隐私。

  6、坚持科学高标准。

  7、从主要用途、技术独特性、规模等方面来权衡。

  我们不会将AI应用于:

  1、制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;

  2、武器或其他用于直接伤害人类的产品;

  3、收集使用信息,以实现违反国际规范的监控的技术;

  4、目标违反被广泛接受的国际法与人权原则的技术。

  在博文最后,Google CEO写道:我们相信这些原则是Google和AI未来发展的正确基础,这与我们2004年发布的价值观一致。我们在此明确表示Google更看重AI的长远发展,即便需要为此付出短期的权衡。

  “We said it then, and we believe it now。”

  风波回顾

  去年秋天,Google开始秘密与美国国防部接洽,合作Project Maven项目,根据双方的秘密协议,Google原本要为美军无人机提供顶尖AI技术。

  包括李飞飞在内的高管团队,当时就此事展开了激烈的内部讨论。讨论的核心就是,不能让外界获知此事,否则会影响Google的声誉。

  不过纸终究包不住火。

  这一项目在内部开展后,Google员工们开始发起抵制。

  3月,Google内部3000多名员工联名上书,抵制与五角大楼的合作。4月,事件进一步发酵,包括Bengio等上百名学者、科学家二次上书,数十名员工因此离职,要求Google退出Maven项目,并且起草政策声明Google永远不会开发战争技术。

  随后媒体也介入,深扒此事。

(声明:本文仅代表作者观点,不代表新浪网立场。)

文章关键词: 网络文化

分享到:
保存   |   打印   |   关闭