有“计算机界诺贝尔奖”之称的 ACM AM 图灵奖(ACM A.M. Turing Award)今日公布 2018 年获奖者,
由引起这次人工智能革命的三位深度学习之父——蒙特利尔大学教授 Yoshua Bengio、多伦多大学名誉教授 Geoffrey Hinton、纽约大学教授 Yann LeCun 获得,他们使深度神经网络成为计算的关键。
(来源:ACM)
今日,AI 早超越了 “炒作” 的阶段,已经向全球及多个行业展现了实际的技术突破及应用能力,毫无疑问,这三位学者厥功至伟。
这三位人工智能界的大神级学者,都是在 80 年代前后投入深度神经网络的研究领域,在当时,这绝对是个冷门的领域。但就同 Geoffrey 在过去接受媒体采访时所提到的,将他引上这条超过 40 年研究之路的不是别的,就是对 “人脑的好奇”。在过去接受彭博(Bloomberg)的一次访问中,Geoffrey Hinton 就曾提到, “如果你真的想了解一个非常复杂的装置,比如大脑,那你就自己造一个”,这样的一个念头,让他就此进入人工神经网络研究的世界。
有同样的想法的不只 Geoffrey Hinton,Yann LeCun 也是如此。Yann LeCun 得知获得殊荣后,Facebook 博客也刊登了他的看法,Yann LeCun 指出,“我们三个人进入这个领域不仅仅是因为我们想要建造智能机器,我们只是想了解“智能”,包括“人类智能”,“我们正在寻找智能和学习的基本原则,并通过构建智能机器来了解我们自己”。
ACM 表示,这三位学者共同开发该领域的概念基础,并验证了令人惊艳的表现,为工程进展带来了贡献,证明了深度神经网络的实际优势。近年来,深度学习方法在计算机视觉、语音识别、自然语言处理和机器人技术带来了惊人突破,其影响也已经蔓延到计算机以外太多其他领域,数学家物理学家化学家生物学家也都开始用深度学习加速科研。
Yoshua Bengio,蒙特利尔大学计算机科学与运筹学系全职教授,也是深度学习“三巨头”中唯一一位仍全身心在学术界工作的大牛。他的诸多科研积累,包括深度学习架构、循环神经网络(RNN)、对抗算法、表征学习,影响和启发了后来的大量研究者,将深度学习应用到自然语言处理、计算机视觉等人工智能的各个主要领域,对近年来深度学习的崛起和发展起到了巨大的推动作用。目前,他是仅存的几个仍然全身心投入在学术界的深度学习教授之一,为人工智能培养了许多杰出的下一代人才。
Geoffrey Hinton,谷歌副总裁兼工程研究员,Vector Institute 的首席科学顾问,多伦多大学的名誉大学教授。他在80年代把以前没有受重视的反向传播(BP)算法引入了神经网络,使得复杂神经网络的训练成为可能,直到今天,反向传播算法依然是训练神经网络最重要的算法。之后,他又在1983 年发明玻尔兹曼机(Boltzmann Machines),以及在 2012 年改进了卷积神经网络的,并在著名的 ImageNet 评测中取得惊人成绩,在计算机视觉领域掀起一场革命。
Yann LeCun,Facebook人工智能研究院负责人,纽约大学数据科学中心的创始人之一。他最广为人知的工作是CNN(卷积神经网络)。Yann LeCun,将反向传播算法引入了CNN,并且发明了权值共享、池化等技巧,让CNN真正更为可用,现在,CNN已经广泛用于计算机视觉、语音识别、语音合成、图片合成以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等行业应用方向。他还在 1998 年开发了 LeNet5——首个被大规模商用的 CNN,并制作了被Hinton称为“机器学习界的果蝇”的经典数据集 MNIST 。更难能可贵的是,他坚持了约20年,才迎来了 CNN 如今的繁荣。
起伏30年,深度学习终获最高认可
80 年代,人工神经网络被引入作为帮助计算机识别模式和模拟人类智能的工具,到 21 世纪初,专研此法的这三位学者仍是小众,虽然他们重新点燃 AI 社区对神经网络的兴趣,尽管一开始遭到怀疑,但随着算力的突破,他们的想法终于迎来技术大跃进,从学术界异类甚至是边缘成为主流范式。三位获得此殊荣的学者将在 6 月 15 日于 ACM 年度颁奖宴会上正式获得 2018 年图灵奖。“
AI 是当今科学界发展最快的领域之一,也是社会上最受关注的话题,”ACM 总裁 Cherri M. Pancake 说,“人工智能的成长及其带来的优点,很大程度上归功于深度学习的最新进展,而这些就是奠基于 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 的研究,数十亿人使用这些技术,智能手机的用户可以体验自然语言处理和计算机视觉领域的进步,这在过去 10 年是不可能实现的,除了我们每天使用的产品之外,深度学习的新进展也为科学家提供了强大的新工具,从医学、天文学到材料科学等。
对于三位大牛获奖,AI 行业或科研圈的多数人都表示祝贺, “实至名归”、”众望所归”更是许多人乍听这个消息的第一反应。
DeepTech 采访了数位 AI 领域科研工作者,一位青年科学家表示,“三位可说众望所归,是对深度学习的历史地位的确认”,他进一步解释,过去机器学习在实务上有很好的性能表现,但理论上则有人认为缺乏坚实理论基础,但 ACM 将图灵奖授与三人,显示对他们贡献给予肯定。另一位科研工作者则指出,深度学习给计算机领域带来巨大的新突破,影响已经蔓延到计算机以外太多其他领域,如数学家、物理学家、化学家、生物学家,也都开始用深度学习加速科研,“这种影响力的迅速突破非常少见”。
Google 高级研究员兼 Google 高级研究员 Jeff Dean 也表示,“深度神经网络为现代计算机科学带来了大跃进,也帮助计算机视觉、语音识别和自然语言理解这些长期问题,取得实质进展,” Jeff Dean 说。“这些进步的核心是 30 多年前 Yoshua Bengio、Geoffrey Hinton 和Yann LeCun 开启的基本技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。“
机器学习、神经网络和深度学习为何能独领风骚?
在传统计算中,计算机程序使用明确、逐步的指令来指导计算机,但在深度学习中,计算机并没有明确被告知该如何解决特定任务,如对象分类。相反地,它使用学习算法来提取数据中的模式(pattern),涉及数据的输入,例如图像的像素、标注、到输出。研究人员面临的挑战是开发有效的学习算法,能够修改人工神经网络中连接的权重,所以可抓取数据中的相关模式。
Geoffrey Hinton 从 80 年代早期就致力在 AI 领域倡导机器学习方法,研究人类大脑如何发挥作用,应将其应用在机器学习系统的开发。受到大脑的启发,他和其他人提出“人工神经网络”作为机器学习研究的基石。
在计算机科学中,“神经网络”是指由在计算机模拟“神经元”的一层一层组成的系统。这些“神经元”与人类大脑中的神经元相似,通过加权连接相互影响,并通过改变连接上的权重,可以改变神经网络执行的计算,三位大牛提出使用多层构建深层网络的重要性,因此也称为“深度学习”。
三位大牛 30 年努力所奠定的概念基础和工程进步,受惠于 GPU、计算机的普及以及对大量数据集而取得显著进展,Yann LeCun 在 Geoffrey Hinton 的指导下进行博士后工作,Yann LeCun 和 Yoshua Bengio 在 90 年代初都任职于贝尔实验室,尽管没有一起工作,他们的研究也激起了相互影响。
他们三人持续探索机器学习与神经科学和认知科学的交叉,特别是他们共同参与 CIFAR 的机器和大脑学习计划。
这一次 ACM 选择深度学习理论,在深度学习领域又选择了这三位先驱,其实有更深层的意义。因为,在深度学习和神经网络领域具有突出贡献的绝不止这三位学者,而他们并称为三巨头的原因,也并不只是因为他们投入研究的时间长达40年,更是因为他们始终保有对神经网络的兴趣,在他们的名字广为世人所知的几十年时间里,他们甘于用掉人生大部份的时间坐冷板凳做研究,才推动了神经网络走向复兴。
图丨Yoshua Bengio (来源:DT君)
深度学习“三驾马车”的具体技术成就
图灵奖被认为是计算机领域的“诺贝尔奖”,奖项名字设以纪念世界计算机科学先驱艾伦·图灵(A.M. Turing),于 1966 年设立,获奖者须在计算机领域具有持久而重大的先进性的技术贡献。这次,ACM 也总结了 3 位 2018 年图灵奖获得者的主要技术成就:
1、Geoffrey Hinton
反向传播(Backpropagation):1986 年与 David Rumelhart 和 Ronald Williams 共同撰写的论文—“Learning Internal Representations by Error Propagation”, Geoffrey Hinton 证明反向传播算法允许神经网络发现它们自己的数据内部表征,使得使用神经网络被视为可以解决过去被认为超出范围的问题。反向传播算法是当今大多数神经网络的标准。
玻尔兹曼机(Boltzmann Machines):1983 年与 Terrence Sejnowski 合作, Geoffrey Hinton 发明了 Boltzmann 机器,这是第一个能够学习不属于输入或输出的神经元内部表征的神经网络。
卷积神经网络的改进:2012 年, Geoffrey Hinton 与他的学生 Alex Krizhevsky 和 Ilya Sutskever 使用整流线性神经元(rectified linear neurons)和丢弃正则化(dropout regularization)改进卷积神经网络。在著名的 ImageNet 竞赛中,他和学生几乎将对象识别的错误率减少一半,并重塑计算机视觉领域。
2、Yoshua Bengio
概率模型(Probabilistic models of sequences):在20世纪90年代,Bengio将神经网络与概率模型相结合。相关成果AT&T / NCR用于阅读手写支票的系统所采用,被认为是20世纪90年代神经网络研究的巅峰之作。现代深度学习语音识别系统正在扩展这些概念。
引入高维词矢量和注意力机制(High-dimensional word embeddings and attention:):2000年,Bengio撰写了具有里程碑意义的论文“神经概率语言模型”,引入了高维词矢量。 他的见解对自然语言处理产生了巨大而持久的影响,包括语言翻译、问答等。他的团队还引入了一种注意力机制,带来了机器翻译的突破。
生成式对抗网络(Generative adversarial networks):自2010年以来,Bengio关于生成式深度学习的论文,特别是与Ian Goodfellow共同开发的生成性对抗网络(GAN),引发了计算机视觉和图形学的革命。基于这种技术,计算机可以创建图像,也被认为机器开始在一定程度上拥有人类智能标志——创造力。
3、Yann LeCun
卷积神经网络(CNN):20世纪80年代,LeCun开发了卷积神经网络,该神经网络模型已经是图像识别、机器视觉领域的基本框架模型之一。在20世纪80年代后期,他在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。现在,卷积神经网络已经成为了业界标准技术,广泛用于计算机视觉、语音识别、语音合成、图片合成以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等行业应用方向。
改进反向传播算法:LeCun提出了反向传播算法的早期版本(backprop),并根据变分原理对其进行了简洁的推导。
拓展神经网络应用范围:LeCun把神经网络变成了可实现大量不同任务的计算模型,其早期的许多工作,现在已成为AI基础概念。例如,在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。
附:近5年的图灵奖获奖名单