量子前沿英雄谱|跨学科学霸:Surya Ganguli

151 0 2024-08-27 发布者: 社区官方

Surya Ganguli,斯坦福大学应用物理学教授,谷歌客座研究教授,量子神经网络科学家。美国国家科学基金会职业奖、MMLS的西蒙斯研究员奖、McKnight学者奖、 James S. McDonnell基金会人类认知学者奖、 Alfred P. Sloan ...

 

Surya Ganguli,斯坦福大学应用物理学教授,谷歌客座研究教授,量子神经网络科学家。美国国家科学基金会职业奖、MMLS的西蒙斯研究员奖、McKnight学者奖、 James S. McDonnell基金会人类认知学者奖、 Alfred P. Sloan基金会奖等奖项获得者。

斯坦福大学应用物理学教授,量子神经网络科学家Surya Ganguli教授

(图片来源:斯坦福大学

 

从数学到物理,从物理到神经网络

 

Ganguli是一名学霸。在短短的五年时间里,他从麻省理工完成了电气工程与计算机科学、数学、物理学的本科学业,并拿到了电气工程与计算机科学的硕士学位。

 

有趣的是,在成为量子信息科学家之前,Ganguli曾一度对人工智能专业“大失所望”。

 

作为一名早在孩童时代就立志成为一名从事人工智能领域的科学家,Ganguli在少年时翻阅了市图书馆几乎所有的人工智能类书籍。恰巧的是,这些书皆是出自麻省理工教授之手,于是在1993年,Ganguli以全班第一的成绩进入麻省理工开始了专业学习生涯。

 

但是很快,就在第一堂人工智能专业课上,充满学术激情的Ganguli被泼了一盆“冷水”:“我永远不会忘记教授对‘我们不应该尝试对大脑进行逆向工程吗?’的回答——不不不,忽略大脑,它只会让你感到困惑。你需要做的就是弄清楚大脑正在运行的软件程序。”

 

众所周知,对大脑进行逆向工程已经成为人工智能的明日之光。教授的教学理念使Ganguli受到了严重冲击,以至于他开始怀疑是否还有继续从事人工智能的必要。

 

“在那段迷茫时期,我开始在数学、物理和计算机科学领域探索,并主修了这三个专业。”而正是在这一多学科学习阶段中,Ganguli从物理学家理查德·费曼的演讲中深受启发,开始对量子力学和物理学充满向往。

 

1998年,Ganguli前往加州伯利克利分校继续进行物理和数学研究生专业学习,并选择攻读弦理论博士学位。

 

之所以选择弦理论作为研究领域,Ganguli解释道:“我认为弦理论是物理学中最基本的学科。形象化来说,弦理论意味着每个粒子将变成不同类型的物理学分类,如一种振动模式变成了引力子,另一种振动模式变成光子……以量子力学的方式,你可以真正地将这两件事统一起来。这是一个数学上自洽的理论。”

 

在即将完成博士学业时,Ganguli遇到了一个重要的转折点——这是一场思想战斗:是成为一名更偏理论的数学家,还是一名更偏工程应用科学家?对于Ganguli来说,决定二者之间的选择结果的,是年少时的梦想。

 

“最终,在计算神经科学的魅力冲击下,我再次坚定了对神经科学和机器学习的研究信念。”

 

于是,2004年在获得博士学位后,Ganguli陆续进入USCF医疗机构、加利福尼亚大学Sloan-Swartz理论神经生物学中心开展博士后工作,并正式开始了系统地学习和研究神经网络领域。

 

人工智能的“钉子”与“进化”

 

2012年,Ganguli进入斯坦福大学担任应用物理学教授并带领神经动力学和计算实验室,致力于开展逆向工程神经元和突触网络在多个空间和时间尺度上协作促进感官知觉、运动控制、记忆和其他认知功能的研究。

 

Surya Ganguli右(图片来源:网络)

以“猴子如何进行视觉空间注意力分配”课题为起点【1】,Ganguli在神经网络、深度学习领域开展了众多实验和理论研究,并产出了大量成果。

 

Ganguli指出,“实验神经科学的显著进步,使我们能够同时观察许多神经元的活动,来了解大脑的瞬间集体动力学如何实例化学习和认知。然而,从大型、高维神经数据集中有效地提取这种概念性理解需要在理论驱动的实验设计、数据分析和神经电路建模方面同时取得进展。

 

在实验方面,Ganguli开展的研究涵盖“利用无监督张量分量分析时间扭曲提取描述”,“单个实验电路的学习状态”,“深度线性神经网络中学习的非线性动力学的精确解”;“通过突触智能持续学习的可能性”,“神经科学的深度学习框架”,“使用非平衡热力学的深度无监督学习”,“环境边界作为网格单元的纠错机制”等。

 

谈及机器学习在数据标记、数据工程任务等方面的限制,Ganguli讲道:AI算法的数据‘饥饿’如同击中了头部的钉子。要知道,机器学习在于预测,而用于解决预测的神经网络的内部表示,实际上对后续训练机器学习任务也非常有用。

 

他认为,当前机器学习的预测能力值得肯定,但是不应仅仅是被动训练数据,机器学习的下一个前沿是:构建现实模型的业务,使用这些现实模型来想象未来并做出决策,查看违规行为以修改现实模型,积极进行实验。

 

2021年,Ganguli团队在人工智能领域取得重要成绩【2】:为研究物理体对AI的价值,他们设计了一种深度进化强化学习计算框架,证明了物理化是人工智能进化的关键。为更形象地表现,他们还设计了一个虚拟生物体在虚拟环境中执行学习任务的实验,展示了人工智能的自我进化能力。作为业内首次,他们提出的通过改变物理形态加速机器学习的研究引起了热烈反响。

 

人工智能迈向量子神经网络

 

伴随量子技术在近二十年来的快速发展,计算科学与应用正在发生前所未有的变化。“我们正在见证物理学、计算科学和神经生物学之间发生跨领域的激动人心的相互作用。

 

Ganguli讲道:“一方面,我们可以利用在理论物理学和应用数学中发展起来的复杂系统分析的力量,以阐明控制生物和人工神经网络进行学习和发挥作用的设计原则;另一方面,我们可以利用新的物理学来实例化和分析使用原子自旋和光子构建新型的量子神经形态计算机。

 

在量子神经网络的魅力吸引之下,Ganguli在近些年来开始将光量子技术路线作为主要研究方向。在光量子神经网络方面,Ganguli与斯坦福大学的众多专家科学研究团队一起开展了大量关键性的研究。

 

2020年,Ganguli与斯坦福大学Yoshihisa Yamamoto教授、Hideo Mabuchi教授以及东京大学神经智能国际研究中心Timothée Leleu教授的联合研究成果《"Coherent Ising Machines: Quantum optics and neural network perspectives》(相干伊辛机器:量子光学和神经网络观点)登上《Applied Physics Letters》期刊。他们阐述了量子神经网络和相干伊辛机等量子机器这一新研究领域,并创造性地提出了光量子神经网络实现的两种方式。

 

最近,Ganguli团队在神经元信号结构方面的研究取得了新进展,相关研究成果登录国际顶级期刊《Nature》【3】。在实验中,该团队展示了其用来解释信号的计算机模型“解码器”对神经噪声具有鲁棒性,并再次验证脑噪声是有结构的。Ganguli表示,尽管相关噪声的重要性尚不清楚,但当在实验中考虑噪声时,将能够提升解码器的准确性。这是朝着制造新机器迈出的关键一步。

参考文献:

【1】Surya Ganguli et al.,"One-Dimensional Dynamics of Attention and Decision Making in LIP"Neuron58,(2008).

【2】Agrim Gupta et al., "Embodied intelligence via learning and evolution"Nature Communications12,(2021).

【3】Sadegh Ebrahimi et al.,“Emergent reliability in sensory cortical coding and inter-area communication”,Nature,37(2022).

返回顶部
返回顶部