只看颜色不看脸?谷歌Photos把黑人当成大猩猩

2015年07月02日10:26   新浪科技 微博    收藏本文     

  新浪科技讯 北京时间7月2日上午消息,谷歌堪称人工智能和和机器学习领域的领导厂商,但该公司本周发布的Photos应用却犯下了大错,表明他们的电脑仍有很多东西需要学习。

  Web开发者杰基·阿尔西尼(Jacky Alcine)发现,这款应用将两位黑人用户的照片标记为“大猩猩”,并将截图发布在Twitter上。他在推文中写道:“Google Photos,你太混蛋了。我朋友不是大猩猩。”

  谷歌随后对此道歉,并表示将调整算法,以修复这一问题。

  “我们对此感到震惊,并致以真诚的歉意。”谷歌发言人说,“图片自动标记功能显然还有很多改善空间,我们希望今后能避免此类错误再次发生。”

  “大猩猩”标签出现在谷歌Photos应用的搜索功能中,这是谷歌几周前发布的一款产品。当用户搜索照片时,谷歌会推荐几个由机器学习自动归纳的类别,该公司已经移除了“大猩猩”这一类别,因此同样的建议之后不会再次出现。

  “我们正在做很多工作,还有很多问题有待解决。但我们会努力的。”谷歌首席社交架构师Yonatan Zunger通过Twitter向阿尔西尼回复道。他还补充说,谷歌正在努力改善肤色识别技术,在给照片中的人添加标签时将会更加小心。

  此事凸显出人工智能和机器学习技术的不足,尤其是用于普通消费市场时。谷歌通常会发布一些仍然存在瑕疵的产品,然后逐步通过软件更新修正问题。这种模式可以尽快向用户推出产品,但如果出现严重漏洞,也会引发用户的不满。

  谷歌今年早些时候推出了一款YouTube Kids应用,使用自动过滤器、用户反馈和人工评估的方式过滤成人内容。但该系统仍然放过了一些不当视频,引发了用户的不满。谷歌发言人当时称,“几乎不可能实现100%的精确度。”

  谷歌推出Photos应用时也承认该应用并不完美,但“大猩猩”标签却集中凸显了这套系统的短板。

  “我们需要彻底改变机器学习系统,以便提供更多的背景信息,使之理解人类所看重的文化敏感问题。”人工智能创业公司Sentient Technologies首席科学家巴巴克·霍加特(Babak Hodjat)说。

  他表示,机器学习并不理解不同错误之间的差异,把黑猩猩错看成大猩猩没有问题,但如果把人错看成黑猩猩,就会非常冒犯。

  谷歌的系统或许没有“看过”足够多的大猩猩图片,未能了解具体差异,也无法明白这种错误的严重性。

  “人类对于具有重要文化意义的偏差非常重视。”霍加特说,“机器却无法做到这一点,他们无法理解这种背景信息。”

  为谷歌机器学习系统提供更多图片可以起到一定的帮助,但也必须在特定的设置下对这类系统展开更加谨慎的训练。

  谷歌表示,随着更多的图片加载到Photos中,加之越来越多的人修复错误标签,这套照片归类算法的效果将逐步提升。谷歌表示,该公司之所以发布这款应用,一定程度上是为了让人们为其提供更多照片,以便提升整体识别率。

  谷歌的语音搜索功能也采用了类似的模式。该服务最初有很多识别错误,但随着使用量的加大,识别率已经逐步改善。(书聿)

  扫一扫,一起坐看风云变幻。扫描下方二维码关注新浪科技官方微信(也可微信搜索:techsina或新浪科技)。

文章关键词: 谷歌图片识别种族歧视

分享到:
收藏  |  保存  |  打印  |  关闭

已收藏!

您可通过新浪首页(www.sina.com.cn)顶部 “我的收藏”, 查看所有收藏过的文章。

知道了

0
收藏成功 查看我的收藏
猜你喜欢

看过本文的人还看过