设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

华人研究员发力AI顶会NeurIPS:参与近半论文,摘得十年经典奖

2019-12-11 09:43:00    创事记 微博 作者:   

原标题:华人研究员发力AI顶会NeurIPS:参与近半论文,摘得十年经典奖 来源:硅星人

From: 光谱 杜晨 硅星人

文 | 杜晨    编辑 | Vicky Xiao

神经信息处理方面的顶级学术会议 NeurIPS 2019 本周在加拿大温哥华如期召开。

作为人工智能和机器学习领域的顶级会议之一,NeurIPS 和 ICML、ICLR、AAAI 等大会并驾齐驱。如果说人工智能是科技行业的第一热词,那么年底召开的 NeurIPS 就像是人工智能圈子的新年联欢晚会。它迄今已有31年的历史,自从深度学习技术兴盛以来,更加成为学术界和产业界都重点关注的学术会议。

今年也是如此。学术和工业界人士悉数出席,从大牛到新秀一个不落;别说口头、墙报,就算论文被这场大会收录,就已经足以证明作者的实力。

此前,NeurIPS 大会卖票一直采取先到先得,去年仅12分钟即告售罄,出现了就连入围论文作者也一票难求的情况。今年,大会采取了抽签制,并且为接收论文的作者预留了门票,注册参会人数就超过了1.3万人。

华人学者参与过半论文

业界人士指出,和 CVPR 等其他学术会议不同,NeurIPS 一直不是华人很耀眼的大会。

不过,AMiner 对接收论文进行数据挖掘后发现,今年有华人参与的论文数量达到了656篇,占了全部接收论文的近半比例。

其中,华人在多达471篇论文中担任第一作者,占华人参与论文的72%、全部接收论文的三分之一。

微软的朱泽园 Allen Zhu 在今年以第一作者身份发表了4篇论文,和去年持平;华人作者中接收论文数量最多的为优必选首席科学家陶大程(8篇)和普林斯顿研究员杨卓然(7篇)。

其中,微软资深首席研究员 Lin Xiao 的论文 Dual Averaging Method for Regularized Stochastic Learning and Online Optimization在本届大会上还荣获经典论文奖 (Test of Time Award)。

这一奖项专门颁发给那些发布十年之久,在今天仍具有重要意义的论文。

Lin Xiao 供职于微软研究院人工智能实验室(雷德蒙德),研究方向目前包括大规模优化的理论和算法、机器学习的随机和在线算法,以及平行和分布式计算。

新技术趋势亮眼

据学术搜索和社交网络挖掘平台 AMiner 的统计[1](或点击“阅读原文”查看),本届 NeurIPS 大会的提交论文数量达到了6743篇,较去年提升39%,同比增速有所下滑。

尽管提交论文数量继续增长,接收仅 1428 篇,论文接收率并没有太大变化,达21.2%,较去年的20.8%小幅提升。

从获奖论文的角度来评价,本届大会最受关注的技术包括:

1)在存在 Massart 噪声的情况下提高机器学习效率;

2)对一致收敛 (uniform convergence) 无法解释深度学习泛化的研究;

3)在不损失精度的前提下降低机器学习算法的计算复杂度;

许多在圈外也具有一定知名度的机器学习大师也在本届大会上发布了多篇论文。曾在硅星人/PingWest品玩举办的 SYNC 大会演讲的 UC伯克利分校教授 Pieter Abbeel,以及刚荣获图灵奖的 Yoshua Bengio,各发表了9篇论文。

同获图灵奖的 Geoff Hinton 在本届大会入选3篇论文。在过去的十年里,Hinton 在 NIPS 只发表了11篇文章,引用量高达6.7万次,排名第二。他的两位学生 Ilya Sutskever 和 Alex Krizhevsky(AlexNet 的共同发明者)的论文引用量排名第一、第三。

斯坦福李飞飞参与了两篇论文。

Pieter Abbeel

海外Google独领风骚,国内依然大学领先

从机构角度,已经很难定义属于工业界还是学术界的 Google(包括 DeepMind)继续独领风骚,入选多达171篇论文,远超 MIT(92篇)、CMU(85篇)和斯坦福(85篇)等知名院校——或许,最适合做研究的地方真的在公司,而不在学校了?

国内机构,大学还是比公司稍强一些,论文数量清华最多,北大其次,浙大第三;工业界腾讯第一,后面是阿里、百度等公司。有趣的是,创新工场也也有一篇关于“数据下毒”的论文入选。

值得一提的是,由于此前的大会名称 NIPS 涉及性别歧视,大会决定将名称更换为 NeurIPS。与此同时,NeurIPS 也宣布了全新的 logo,和之前的版本相比看起来更平易近人了:

来看看本届 NeurIPS 各奖项获奖情况:

杰出论文奖 (Outstanding Paper Award)

获奖:Distribution-Independent PAC Learning of Halfspaces with Massart Noise https://arxiv.org/abs/1906.10075

By: Ilias Diakonikolas, Themis Gouleakis, Christos Tzamos

这篇论文研究了在训练数据中有未知的、有界的标签噪声的情况下,如何为二分类问题学习线性阈值函数。论文推导出一个在这种情境下非常高效的学习算法,解决了一个基础的、长期存在的开放性问题:在有Massart噪声的情况下高效地学习半空间;这也是机器学习的核心问题之一,这篇论文带来了巨大的进步。

提名:Nonparametric Density Estimation & Convergence Rates for GANS under Besov IPM Losses https://papers.nips.cc/paper/9109-nonparametric-density-estimation-convergence-rates-for-gans-under-besov-ipm-losses.pdf

By: Ananya Uppal, Shashank Singh, Barnabas Poczos

Fast and Accurate Least-Mean-Squares Solvers https://arxiv.org/abs/1906.04705

By: Alaa Maalouf, Ibrahim Jubran, Dan Feldman

杰出新方向论文奖 (Outstanding New Directions Paper Award)

获奖:Uniform Convergence May Be Unable to Explain Generalization In Deep Learning https://arxiv.org/abs/1902.04742

By: Vaishnavh Nagarajan and Zico Kolter

为了解释过参数化深度网络令人惊讶的良好泛化性能,近期的论文为深度学习开发出了各种泛化边界,这些边界都是基于一致收敛理论上的基本学习技巧。许多现有的边界在数值上都很大,通过大量的实验,作者揭示了这些界限的一个更值得关注的方面:实际上,这些边界可以随着训练数据集的增大而增大。

提名:Putting An End to End-to-End: Gradient-Isolated Learning of Representations https://arxiv.org/abs/1905.11786

By: Sindy Löwe, Peter O'Connor, Bastiaan Veeling

Scene Representation Networks: Continuous 3D-Structure-Aware Neural Scene Representations https://arxiv.org/abs/1906.01618

By: Vincent Sitzmann, Michael Zollhoefer, Gordon Wetzstein

经典论文奖 (Test of Time Award)

Dual Averaging Method for Regularized Stochastic Learning and Online Optimization https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/xiao10JMLR.pdf

By: Lin Xiao

该研究提出了用于在线最优化求解的RDA(Regularized Dual Averaging)方法,是Lin Xiao在微软10年的研究成果。该方法是Simple Dual Averaging Scheme一个扩展,并更有效地提升了特征权重的稀疏性。

本文数据来源:

[1] AMiner NeurIPS 2019 论文数据集 https://www.aminer.cn/conf/nips2019/statistics

(声明:本文仅代表作者观点,不代表新浪网立场。)

分享到:
保存   |   打印   |   关闭