神经网络发展新方向
神经网络作为人工智能领域的核心工具,有两个重要分支:前馈神经网络和能量神经网络。
前馈神经网络强调信息单向逐层计算,能量神经网络受物理学启发,强调系统通过演化向能量最低的稳定态收敛。

前馈神经网络的进化
能量神经网络的困境
能量神经网络的觉醒

量子计算激活能量神经网络
玻尔兹曼机训练难点
玻尔兹曼机由2024年诺贝尔物理学奖得主Geoffrey Hinton提出,通过模拟物理系统的能量最小化过程训练网络,使神经元状态按照玻尔兹曼分布(高温随机探索,低温稳定收敛)进行概率更新。由于玻尔兹曼机具备全连接结构,其训练过程需要不断从复杂的玻尔兹曼分布中采样,导致计算复杂度随神经元数量呈指数级增长,本质属于NP-hard问题。
量子计算机解决采样难题

自由定义和训练玻尔兹曼机
Kaiwu-PyTorch-Plugin创新性地将PyTorch和相干光量子计算机的采样优势结合,借助PyTorch灵活定义神经网络的能力、量子计算并行特性提供的指数级加速,实现自由定义和训练能量神经网络—玻尔兹曼机&受限玻尔兹曼机(Restricted Boltzmann Machines, RBM)。
量子玻尔兹曼机的实用价值
QBM inside VAE = 更强的数据表征生成器(QBM-VAE)





变分自编码器(VAE)是一种用于数据生成和聚类分析的生成模型。基于相干光量子计算机这一原生的玻尔兹曼分布采样器,可构建量子玻尔兹曼机(QBM)增强的深度变分自编码器(QBM-VAE)模型,大幅提升VAE的编码表征能力,使其能够捕获以往难以识别的深层数据特征。在单细胞转录组学分析(一种在单细胞水平检测基因表达以揭示细胞异质性和功能差异的技术)中,QBM-VAE可显著提升聚类精度,检测到传统方法无法辨识的新型细胞亚型(具有独特特征的新致病因素),为靶点发现提供新线索。
QBM-VAE作为通用方法已在多个相关数据集中得到验证,有望揭示科学研究中的大量隐藏数据特征,推动下游科学发现。相干光量子计算机的高效玻尔兹曼分布采样优势为模型性能优化和快速收敛提供保障,使QBM-VAE的大规模训练成为可能。

自然世界产生的真实数据极其复杂,如生物组学、化学反应、材料模拟等,具有高噪声、高批次效应、复杂分布等特性,基于该数据进行概率深度学习建模往往造成模型“失真”

与经典连续隐空间表征不同,离散化表征与真实生物数据、化学能量空间等场景的非连续特性更能对应


通过在不同结点规模的玻尔兹曼机网络比较了基于量子硬件和模拟器的求解效率,随着采样结点数的增加,CIM的采样效率优势明显,在不同模拟器参数下CIM低能量景观效率至少为模拟器的十万倍。

原有模型的基于独立同分布的高斯先验假设很难真实描述真实复杂数据特征,基于该分布假设的模型训练得到参数网络泛化较差并且保真度低
重磅产品:Kaiwu-PyTorch-Plugin
用PyTorch自由定义能量神经网络,以量子玻尔兹曼机拓展AI研究新边界
产品定位
打破能量神经网络发展局限
能量神经网络作为AI神经网络的重要分支,其潜力尚待充分挖掘。本插件旨在:
降低研究门槛:
提供易用的PyTorch接口,支持快速实验验证能量神经网络的新思路
突破计算瓶颈:
结合量子计算技术解决能量神经网络训练中的计算难题
推动范式创新:
支持探索超越传统前馈神经网络架构的新型基础模型
支持全拓扑网络结构配置
与其他仅支持受限玻尔兹曼机的量子计算硬件不同,本插件支持:
全连接玻尔兹曼机:
打破二部图结构限制,支持任意节点间的全连接
灵活拓扑配置:
支持自由定制网络结构,探索更多可能性
混合架构设计:
支持能量模块与传统神经网络模块的无缝集成