北京时间10月8日下午5点45分左右,2024年诺贝尔物理学奖颁奖,授予John J. Hopfield 和 Geoffrey E. Hinton,以表彰他们“通过人工神经网络实现机器学习的基础性发现和发明”。这是复杂系统、统计物理中的经典模型“伊辛模型”(Ising Model)及其扩展引发的又一次诺奖。文末附带集智俱乐部关于统计物理、神经网络、人工智能等方向的读书会、科普百科和文章等资料。
John Hopfield @The Nobel Prize in Physics 2024
John Hopfield 1954 年在斯沃斯莫尔学院获得学士学位,1958 年在康奈尔大学获得物理学博士学位。他在贝尔实验室理论组工作了两年,随后在加州大学伯克利分校(物理学)、普林斯顿大学(物理学)、加州理工学院(化学和生物学)任教。John Hopfield 1969 年获美国物理学会奥利弗・巴克利奖,1973 年当选美国国家科学院院士,2001 年获国际理论物理中心(ICTP)狄拉克奖章。
Geoffrey E. Hinton@The Nobel Prize in Physics 2024
Geoffrey Hinton,2018年图灵奖得主,被誉为"深度学习之父"。他在神经网络和机器学习领域的开创性工作,为人工智能的革命性进展奠定了基础。Hinton的反向传播算法和对比散度算法等贡献,极大地推动了深度学习技术的发展和应用,对语音识别、图像处理等领域产生了深远影响。他的研究不仅在学术界受到高度评价,也对工业界产生了重大影响,推动了谷歌、苹果等公司的技术进步。Hinton对AI伦理和潜在风险的深刻洞察,为确保技术负责任的发展提供了重要指导。他的持续研究和对教育的重视,不断激励着新一代研究者,推动着人工智能技术的创新和进步。
类Ising模型再获诺奖: 从Ising模型到人工神经网络
张江 | 作者
这次的诺贝尔物理学奖和复杂科学的关系十分密切,这主要体现在 Hopfield 提出的神经网络模型可以看作是复杂系统、统计物理中的经典模型——“伊辛模型”(Ising Model)的一种推广。伊辛模型很好地体现了复杂系统中普遍存在的有序与无序竞争。二维的伊辛模型可以看作是展现有序-无序临界相变现象(也称作混沌与秩序的边缘)的最小模型。
伊辛模型的一个通俗版本就是观点动力学模型:假设有一个村落,大家开始选村长,是张三还是李四?假设每个村民都会受周围四个邻居的影响,邻居选张三多,则该村民也倾向于投票张三。当然,每个村民也存在一定的个性,也就是说它可能会以一定的倾向不去顾及周围邻居的选择,而完全按照自己的意愿来投票。就这样,每一周期,每个村民就去看看周围邻居的选择,然后决定自己的投票。这样演化下去,村民的投票选择就会形成一定的动态。调整独立选择倾向性参数,会得到不同的动态结果。如果倾向性高,则系统演化会非常随机;如果倾向性低,则系统会演化到所有村民都只选择某一个选择上;存在一个临界的倾向性,系统展现出高度的复杂性:每个村民会对到底选张三还是李四而犹豫不决,反复改变。
图1. 二维的伊辛模型,每个小箭头就代表一名村民,向上代表选择张三,向下选择李四。每个村民受到上下左右四个邻居,以及是否倾向于自己的意愿选择的影响。
Hopfield 网络是对伊辛模型的扩展。首先,每个神经元就是一个村民,其次他们生活在高度发达的网络社会,因此每个神经元之间的链接是一个全连接的网络。
其次,村民之间的链接不再是一成不变的,而是会随着神经网络的训练过程而发生演变。训练的最终目标就是要让整个网络上各个神经元经过类似村民投票规则的演化所形成的最终状态能够满足一定的要求的分布形式,如上图左边黄色,右边绿色的分布,从而让网络具备一定的记忆能力。
当然,这种网络还和今天常见的前馈类型的神经网络相差太远,于是,Hinton 就在 Hopfield 模型基础上做了扩展,得到一种能够区分输入和输出的二分网络,其中一部分接收输入数据,另一部分则起到记忆作用,这种网络称为“受限的玻尔兹曼机”(Restricted Boltzmann machine)。将多种这样的网络串联起来,还可以形成深度的网络,这也构成了第一个可以被称为“深度神经网络”的架构。
今年的两位诺贝尔物理学奖获得者是 John Hopfield 和 Geoffrey Hinton,他们基于物理学工具提出的方法为机器学习的强大能力奠定了基础。John Hopfield 提出的联想记忆(associative memory),可以存储和重建数据(包括图像和其他类型的数据)中的模式。Geoffrey Hinton 发明了可以自主发现数据属性的方法,从而执行诸如识别图片中特定元素等任务。
当我们谈论人工智能时,通常指的是使用人工神经网络的机器学习。这项技术最初受大脑结构的启发。在人工神经网络中,大脑的神经元由具有不同数值的节点表示。节点之间通过类似突触的连接相互影响,影响可以增强或减弱。通过对同时具有高数据的节点之间的连接进行加强等方式,可以对人工神经网络进行训练。今年的获奖者自上世纪80年代以来在人工神经网络领域开展了重要工作。
人工神经网络最初是受大脑神经元的启发
John Hopfield 发明的 Hopfield 网络,专门用于存储和重建模式。我们可以将节点想象为像素,整个 Hopfield 网络就对应一副图像。Hopfield 网络利用了物理学中描述材料特性的自旋方法(自旋是使每个原子成为微小磁铁的属性)。借鉴物理学中描述自旋系统能量的方式,可以对 Hopfield 网络作为一个整体进行描述,并通过寻找节点之间的连接值进行训练,从而保存具有较低能量的图像。当 Hopfield 网络接收到失真或不完整的图像时,它会按照一定的策略遍历节点并更新其值,从而降低网络的能量。这样,Hopfield 网络就能逐步从存储的图像中找到与输入图像最相似的图像。
John Hopfield 提出的联想记忆(associative memory)可以存储和重建数据中的模式。
Geoffrey Hinton 以 Hopfield 网络为基础发明了一种新的网络——玻尔兹曼机(Boltzmann machine)。玻尔兹曼机能够通过学习识别给定数据类型中具有特征的元素。Hinton 借助统计物理的工具——统计物理主要研究由大量粒子组成的系统的整体行为和性质——通过输入在运行过程中可能出现的示例对玻尔兹曼机进行训练。训练好的玻尔兹曼机可以用来对图像分类,或生成与训练示例的模式类似的新图像,Hinton 在此基础上进一步发展,开启了当前机器学习的爆炸性发展。
诺贝尔物理学委员会主席 Ellen Moons 表示:“获奖者的工作已经带来了巨大的益处。在物理学中,我们在开发具有特定属性的新材料等广泛的领域使用人工神经网络。”
|