跳转到内容
学习 > 学习文档
本文内容

案例解析:均衡传播算法

均衡传播算法借鉴生物神经网络的局部学习规则,通过模拟大脑突触的双阶段动态平衡,使玻尔兹曼机等能量模型摆脱传统对比散度的低效束缚。这种“神经动力学+概率建模”的耦合,不仅为生成式AI提供了更接近生物学习范式的训练框架,更在量子退火硬件上展现出指数级加速潜力,有望推动更高效、节能的神经计算硬件的发展。

本节将以均衡传播算法为例,讲述量子计算在人工智能领域的应用与创新。

附视频讲解均衡传播与CIM驱动的神经网络创新应用

1. Ising模型

1.1 伊辛模型的基本概念

Ising模型最初是为解释铁磁相变现象提出的经典物理模型。其核心结构由二维晶格上的离散自旋系统构成:每个晶格节点ii=1,2,3,...)具有±1两种自旋状态,相邻节点间通过耦合权重Jij连接。系统总能量可表示为:H=i,jJijsisj,其中求和范围覆盖所有连接节点对。

以图示的三节点系统为例:节点s1s2s1s3分别通过权重为2和5的边连接,当自旋状态分别为(+1,+1,1)时,系统总能量计算为:

H=i,jJijsisj=J12s1s2J13s1s3=3(+1)(+1)(4(1)(+1))=7

1.2 伊辛模型与神经网络

Ising模型是一个有着广泛应用的模型,我们来看一下它和神经网络之间的一些联系。Ising模型的自旋演化机制与神经网络神经元更新规则存在深刻关联。在Ising系统中,相邻自旋通过耦合作用相互影响:

H(σ)=i,jJijσiσjμihiσi

当耦合系数Jij>0时,系统倾向于使相邻自旋方向一致(铁磁耦合);当Jij<0时则促使自旋方向趋于相反(反铁磁耦合)。系统会逐渐演化到平衡态,这个过程中系统能量会降低。而对于神经网络而言,神经元的更新规则类似于自旋的演化:

fQ(x)=ijqijxixj

若输入神经元激活值为+1且连接权重为正,则该信号将促使下游神经元趋向正激活状态。以水果分类任务为例,构建包含重量、颜色两个输入特征,隐藏层及苹果/橘子输出层的神经网络。该网络通过层级连接权重计算特征组合,最终实现分类决策。值得注意的是,这种网络拓扑结构既可表征传统神经网络,也可映射为Ising模型的晶格结构,揭示了两者在计算本质上的相通性。

实际上,Ising模型的求解是很困难的,属于NP-hard组合优化问题,传统算法面临指数级复杂度挑战。本文后面将详细讨论Ising模型的高效求解方案——相干伊辛机(Coherent Ising Machine, CIM)。2018年《Science》报道的CIM突破性研究显示,CIM的光学计算架构在求解2000自旋问题时,速度较经典模拟退火算法提升近两个数量级,为复杂优化问题提供了物理计算的新的解决方案。

2. 均衡传播

2.1 均衡传播与反向传播

为深入理解均衡传播(Equilibrium Propagation, EP)的创新性,需系统对比其与传统反向传播(Backpropagation, BP)的算法差异。传统反向传播算法需要构建完整的计算图,通过链式法则将输出端的误差信号逐层逆向分解,每个神经元的权重更新都严格依赖于后续层的梯度信息:给定损失函数L(θ)=𝔼[(fθ(x),y)],其梯度计算遵循L/θ=/fθ·fθ/θ

与反向传播相比,均衡传播具有如下图所示的优势。均衡传播建立在能量基模型(Energy-Based Models, EBMs)框架下,将网络视为动态系统,其状态演化由能量函数E(s,θ)驱动,最终收敛于能量极小点s=argminsE(s,θ)。在能效比和硬件友好性方面,均衡传播均表现优异,而且这种只依赖局部信息的学习规则,和我们的真真实实的人类神经更加符合。

2.2 均衡传播的训练过程

均衡传播的训练过程主要分为四个阶段:初始化参数、自由阶段、约束阶段和更新权重阶段。

(1)初始化参数: 网络由节点(神经元或自旋变量)和连接权重构成,节点状态si{1,+1}表示激活状态,权重Jij定义节点间的相互作用强度。初始,权重Jij随机赋值,输入层节点固定为数据x,输出层目标为y

(2)自由阶段(Free Phase): 系统在输入数据x驱动下自发演化至平衡态。此阶段能量函数仅包含网络内部相互作用,不进行约束也没有任何标签输入

Eθ(s)=i<jJijsisjibisi

节点状态遵循梯度动力学方程:

dsidt=Eθsi=jJijsj+bi

t 时,系统收敛至稳态 s0,此时输出层 sY为网络对输入x自然响应(无监督预测)。该阶段演化过程如下图所示:

(3)引导阶段(Nudge Phase): 在自由阶段基础上,对输出层施加目标导向的约束,修正能量函数:

Eθβ(s)=Eθ(s)+βC(sY,y)

其中约束项C(sY,y)=12iY(siyi)2将输出层节点sY拉向目标标签y。对其计算梯度可得:

Eθβsi=Eθsi+βCsi

因此,其动力学方程为:

dsidt=Eθβsi=EθsiβCsi={jJijsj+bi,iYjJijsj+bi+β(yisi),iY

参数β>0控制目标约束强度。系统演化至新平衡态sβ,输出层被“牵引”至目标y。值得注意的是,由于隐层节点的反向传播效应,输入层状态也会发生适应性调整,也即模型的全网络协同优化特性。该阶段演化过程如下图所示:

(4)参数更新: 通过对比两阶段的差异,计算梯度:

ΔJij1β(siβsjβsi0sj0)

此规则仅依赖相邻节点的状态乘积差异,符合局部学习特性。权重更新方向使约束项C(sY,y)最小化,推动网络输出逼近目标。理论分析表明(Scellier et al.,2022),当约束强度β和参数更新步长ε满足ε,β0时,更新量收敛于传统梯度:

θt=θt1εβθC(s(θt1,xt),yt)+O(ε2β+εβ2)

也就是说,尽管均衡传播仅利用局部信息,其梯度方向与反向传播的全局梯度一致,但规避了链式求导的计算开销。

数学注记: 上述结论源于对扩展能量泛函

E(u,θ,s,x,y,ε,β)=uθ22ε+E(θ,x,s)+βC(s,y)

的优化过程,通过交替求解

θι1=argminθminsE(uι,θ,s,xι,yι,ε,0)θt=argminθminsE(ut,θ,s,xt,yt,ε,β)

可导出参数更新量与损失函数梯度的一致性关系。

3. 均衡传播与CIM

3.1 借助CIM实现均衡传播

将均衡传播映射到CIM硬件实现时,需解决连续梯度与离散状态的适配问题。CIM通过物理系统的稳态演化实现均衡传播(EP):耦合权重θij作为可训练参数保持连续值域,支持梯度更新;而神经元状态si在CIM实现中被离散化为±1(CIM通过0/π相位编码),但在微分方程框架下可保留连续激活值。这种特性使算法在硬件部署时利用二值状态的高能效特性,同时在软件仿真时保持传统神经网络的表达能力。 梯度计算通过自由阶段(s0)与扰动阶段(sβ)的状态差异实现,具体公式为:

Δθijsi0sj0siβsjββ

其中β为输出约束强度。以CIM为例,每个光学参量振荡器对应神经元,其振荡相位编码±1状态。训练过程通过马赫-曾德尔干涉仪调制耦合强度:自由阶段锁定输入光子模式记录稳态相位s0,扰动阶段注入调控光强诱导新平衡态sβ,梯度通过光电探测器测量两阶段外积差异并反馈更新权重。

在CIM硬件上实现均衡传播的实证研究中,我们构建了面向MNIST手写数字识别的专用架构。输入层采用28×28=784个光学参量振荡器,其相位状态直接编码图像像素强度(+1对应墨迹区域,1表示空白)。隐层设置120个可调谐耦合节点,输出层创新性地采用40节点扩展编码方案——每个数字类别分配4个节点,通过多数表决机制提升分类鲁棒性。实验采用1000个训练样本和100个测试样本的子集,在CIM平台上完成端到端训练。结果显示训练集准确率达98%,测试集准确率为88%,性能差距主要源于训练数据规模限制。值得注意的是,当输出约束强度β=0.1时,单次参数更新耗时仅3.2ms,较同等规模GPU训练提速约200倍。

3.2 伊辛模型与玻尔兹曼机

玻尔兹曼机(BM)与均衡传播(EP)均以能量最小化为核心范式,但其建模目标与实现路径存在本质差异。玻尔兹曼机的概率分布定义为:

p(v,h)=1ZeE(v,h),E(v,h)=i,jwijvihjiaivijbjhj

其中可见层v与隐藏层h的状态服从概率分布,训练目标为最大化可见层数据的对数似然:

argmaxxDlogp(x)

这一过程通过调整能量曲面使训练样本处于低能谷,本质上属于无监督特征学习。与之对比,均衡传播则构建监督学习导向的能量函数:

E(s)=i<jθijsisj+ibisi+βsouty2

其中β项引入目标导向的约束势场,其训练通过自由阶段(β=0)与引导阶段(β>0)的平衡态差异生成确定性梯度:

Δθij1β(si0sj0siβsjβ)

二者的核心区别体现在:

维度玻尔兹曼机均衡传播
学习范式无监督生成模型监督学习框架
梯度估计概率采样(MCMC)确定性平衡态差异
硬件适配性需高温退火(模拟退火)直接利用Ising机基态搜索

3.3 实验架构与结果

本部分使用MNIST进行伊辛机实现均衡传播的实证研究。MNIST 数据集是机器学习和深度学习领域中最经典的基准数据集之一,由 Yann LeCun 等研究者于 1998 年创建,包含60,000个训练样本和10,000个测试样本,主要用于手写数字识别任务。每个样本是28×28像素的灰度图像,对应0到9的数字类别。

针对MNIST/100的子集(1000训练样本,100测试样本)构建专用架构:

  • 输入层:28×28=784个光学参量振荡器,相位编码像素强度(+1为墨迹,1为空白);
  • 隐层:120个可调谐耦合节点;
  • 输出层:40节点扩展编码(每数字类别分配4节点)。

实验结果表明,EP算法在训练集上达到了98.8% 的准确率,在测试集上达到了88.8% 的准确率。

4. 应用与展望

4.1 均衡传播的应用

均衡传播(EP)的发展深度融合了硬件创新与算法优化,已经在跨学科领域展现独特优势。

图片生成 :结合均衡传播(EP)和Hopfield网络的变分自编码器(VAE)训练,用于生成建模任务研究利用Hopfield网络的对称性,设计了一个模型同时作为编码器和解码器。实验表明,该方法在生成图像质量上与传统反向传播训练的VAE相当。

神经网络模拟:均衡传播被用于训练脉冲神经网络(SNN),这是一种更接近生物神经网络的计算模型,将脉冲信号与能量最小化相结合。基于均衡传播的权重更新表现出尖峰时间依赖性可塑性(STDP),与生物学机制相契合。

4.2 均衡传播的展望

均衡传播(EP)作为一种基于物理系统的机器学习范式,其核心优势在于通过硬件与算法的深度协同实现高效训练。

硬件加速领域,未来可进一步探索与光子、超导量子比特等新型计算架构的结合,突破传统冯・诺依曼瓶颈。

跨学科应用方面,EP的能量最小化机制与物理系统的自组织特性高度契合,可扩展至化学分子结构优化、热力学系统相变预测等领域。例如,在生物医学中,通过构建蛋白质相互作用的Ising模型,EP可高效求解蛋白质折叠问题,其离散状态特性恰好匹配生物分子的二态性特征,有望推动交叉学科的突破性进展。

算法改进层面,当前EP在梯度计算中依赖两阶段状态差异的近似(Δθij(si0sj0siβsjβ)/β),未来可引入动态β调节策略以平衡训练稳定性与收敛速度。同时,结合连续激活值的微分方程框架,探索离散-连续混合训练模式,既能保留硬件优势,又可提升复杂任务的表达能力。

基于 MIT 许可发布