生命与智能的共生革命:生成式生物学与生物启发AI的进展

Dorian
2026-03-12 00:22:20
生命科学
行业动态

进入21世纪第三个十年,人工智能(AI)与生命科学的交叉融合已从单向工具辅助转变为双向知识流动与协同演化。一方面,生命科学中的高维复杂性为AI提供了最具挑战性的研究场景,催生了以AI生成与创造生命结构为核心的“生成式生物学”(generative biology)这一新兴学科,该领域利用分子或细胞语言模型从海量生物数据中学习序列-结构-功能的映射关系,实现新型分子、生物线路乃至生命系统的自动化设计与生成。另一方面,随着传统冯·诺依曼架构在能效与可扩展性方面的局限日益凸显,AI从自然界数十亿年的演化机制中汲取灵感,推动“生物启发人工智能(bio-inspired AI)”蓬勃发展,通过模拟神经系统、免疫机制与群体智能等生命特性,改善鲁棒性、泛化能力和能效。


这两个领域并非独立发展,而是存在深刻的共生与互动关系:生成式生物学借助AI实现对生命的理解与创造,而生物启发AI则借鉴生命原理以构建更为强大的智能体系。这种协同演进正成为推动AI和生命科学两大学科发展的重要引擎,亦是驱动更多学科发展的源动力。基于此,本文就其进展进行了盘点,旨在通过剖析关键技术突破与典型研究进展等方式,共同探讨这一共生体系对未来科学研究范式的重构路径。




1 人工智能与生命科学交互赋能的底层逻辑


AI与生命科学的融合源于二者在信息处理、系统组织与认知逻辑等多个层面上的深刻同构性。这种同构性构成了二者交互赋能的理论基石,使计算智能能够模拟、理解乃至创造生命,同时也让生命系统的设计逻辑反哺AI的发展。其互动主要体现为信息处理范式的类比、系统性复杂性的共同语言以及双向知识迁移的螺旋上升(图1)。



图1 生命科学与人工智能的双向赋能循环架构图


注:图片创作中部分运用了AI元素。


1.1 信息处理范式类比


从信息处理范式的角度看,AI以算法和算力为核心,通过对海量数据的训练来构建预测模型、识别模式并作出决策,本质上是基于统计与计算的符号操作与概率推理。生命系统的核心是依托遗传信息(DNA/RNA)和蛋白质等生物大分子,以序列编码、折叠结构和动态交互实现对细胞内外环境信号的感知、处理、存储与响应,并驱动生命活动。尽管物质载体和运作机制不同,二者在信息层面展现出高度相似性:DNA序列如同程序代码,蛋白质序列折叠类似复杂的优化计算,细胞信号转导通路如同逻辑电路网络。AI中的深度学习通过模拟人脑神经元网络的连接与权重调整来理解数据中的复杂模式,体现了生命系统与智能算法在信息处理规律上的深层共性。


1.2 系统性复杂性的共同语言


生命系统并非孤立的分子堆积,而是一个由DNA、RNA、蛋白质、代谢物和细胞等众多组分在多层次上相互作用、相互调控而形成的复杂自适应系统(complex adaptive system,CAS)。理解生命的关键在于把握这些组分之间的动态关系和网络结构,而非将每个组分割裂开来独立研究。系统生物学(systems biology)正基于这一理念,强调将生物学作为一个整合的网络系统来研究,旨在揭示涌现出的系统属性和动态行为。而AI,特别是深度学习和图神经网络(graph neural networks, GNNs),为研究这种复杂性提供了理想的数学框架和计算工具。GNNs能够直接对生物分子相互作用网络、基因调控网络和代谢网络等进行建模,通过在图结构上传递和聚合信息来捕捉节点的局部邻域和整个图的拓扑结构特征,从而预测蛋白质功能、疾病亚型和药物靶点等。


1.3 双向知识迁移的螺旋上升


在“正向循环”中,AI作为强大的分析工具赋能生命科学。AI模型能够处理海量的、高维度的、异构的生物医学大数据,捕捉传统统计方法难以揭示的深层模式与潜在因果关系,从而加速基础生物学发现(如基因功能预测)、转化医学研究(如精准肿瘤分型和个性化治疗)以及驱动药物研发(如AI驱动的靶点发现和分子设计)。


在“反向驱动”中,对生命系统运行机制的深化认识不断为AI的理论构建与架构革新提供启发。生物系统经过亿万年的自然选择与进化,其信息处理机制展现出极高的能效、鲁棒性、自适应性和可扩展性,这些都是当前AI系统所欠缺的。例如,在线生物计算平台预示着未来算力可能从硅基向碳基拓展,为构建超低能耗、与生物环境深度耦合的AI系统提供了可能。这种从“AI理解生命”到“生命启发AI”的知识迁移,不仅推动了AI技术的代际跃迁,也加深了我们对生命本身的理解,形成了一个相互促进、螺旋上升的良性循环。AI模型通过摄取并解析海量多组学数据,具备了自主挖掘潜在规律与构建科学假说的能力,并通过与自动化实验平台耦合形成“干湿闭环”系统,实现了从虚拟计算预演到实体实验验证的高效迭代。


2 生成式生物学的创新发展


生成式生物学的发展,标志着生物学研究范式的根本性转变:从传统的“观察与发现”模式,跃迁至“设计与创制”的全新阶段。生成式生物学的核心思想在于,利用以生成对抗网络(generative adversarial networks,GANs)、扩散模型(diffusion models,DMs)和大型语言模型(large language models,LLMs)为代表的AI生成模型,学习生命物质的内在规律与数据分布,并在此基础上创造自然界中不存在或具有特定改良功能的DNA、RNA、蛋白质乃至完整生命体。其发展正在从分子、细胞到个体等多个尺度上,系统性地改变生命科学的实践(图2)。



图2 生成式生物学从分子到个体与生态的多尺度发展


注:图片创作中部分运用了AI元素。


2.1 分子层面的智能设计与机制解析


在传统生命科学的多尺度研究图景中,长期面临海量数据的读取、转化与利用瓶颈,尤其在核酸、蛋白质与小分子三类关键对象的研究中,蕴含着基因变异及功能注释、蛋白质工程设计、药物成药性设计等关键信息。如何把“海量、异质、带噪”的分子数据转化为可计算、可生成、可验证的知识与设计能力,成为分子层面探索的根本性瓶颈。在生成式生物学出现前,人类掌握了海量的基因序列所蕴含的生命密码,却无法高效破译其对应的三维生命形态,更难以预测结构与功能间的复杂关系。传统X射线晶体学和核磁共振(NMR)等实验方法虽是金标准,但过程耗时、成本高昂,且对膜蛋白等关键靶点常常无能为力。分子动力学模拟等计算方法虽能提供理论洞见,但受限于算力,无法在庞大的构象空间中有效搜索,导致对蛋白质折叠的预测精度长期停滞不前。这一系列的数据鸿沟导致了传统基于结构的药物设计效率低下,新药发现如同在黑暗中摸索,靶点确证、先导化合物发现和优化等环节充满巨大的不确定性和高昂的试错成本。


生成式AI的出现,为破解上述难题提供了革命性的方法论。它不再试图从第一性原理出发进行复杂的物理模拟,而是将问题转化为一个基于海量数据的“模式识别与生成”问题。例如,以AlphaFold系列模型为代表的生成式AI,通过深度学习网络从数亿已知的蛋白质序列和结构中学习进化约束和物理规律,实现从一维氨基酸序列“生成”高精度的三维结构坐标。这是一种根本性的范式转移,AI通过学习自然演化留下的“解题思路”,绕过了传统计算方法的算力壁垒。在蛋白质与酶设计领域,RFdiffusion模型通过在RoseTTAFold结构预测网络基础上引入扩散生成过程,能够在给定拓扑约束下直接生成满足期望特征的蛋白质骨架,并进行序列优化。该方法不仅能生成新型可折叠结构,还能实现金属结合位点、对称寡聚体、自组装结构以及特异性蛋白绑定体等功能设计,部分设计体与靶标构象在冷冻电镜结构下几乎与模型预测完全重合,展现出原子级的设计精度。


更进一步,新一代的基础模型将结构构建、功能预测与多模态数据整合至统一架构,不仅能“看懂”结构,还能“预测”功能,如突变效应、蛋白质-蛋白质/蛋白质-小分子相互作用。在药物设计环节,基于图神经网络(GNN)、变分自编码器(VAE)及扩散模型的生成算法,则将传统“筛选”模式升级为“创造”模式。它们在满足化学规则和药理特性的前提下,针对特定靶点的三维口袋结构,主动“生成”海量化学空间中前所未有的、具有高成药潜力的候选分子,并同步预测其合成路径,实现了从“大海捞针”到“按图索骥”的跨越。目前上述应用已经融入合成生物学分子线路“设计-构建-测试-学习”循环(DBTL)等领域,显著压缩了合成和筛选的候选空间,促成“干湿结合”的闭环实现。基于Python编写的布朗动力学模拟器(简称PyRID框架)能够在可控时间内模拟蛋白质-RNA-小分子等多组分网络的扩散、结合、构象与反应路径,并给出完整基准脚本与数据,成为药物靶标发现、相分离研究、核酸药物筛选与合成生物网络设计的产业落地支点。企业也正以基础模型为核心构建可编程生物学平台,通过与基因治疗、细胞治疗或抗体药物管线的结合,把AI生成能力嵌入临床级开发流程。例如,围绕体内造血干细胞碱基编辑器的合作[20]以及由算法与高通量实验平台驱动的生成式抗体项目,标志着从单一模型应用迈向“平台化、流水线化”的商业路径。


值得注意的是,生成式AI在分子层面的设计应用中同样存在尚未解决的盲区。例如,大量依赖预测结构(如AFDB)的训练集可能引入与真实序列-结构关系不一致的偏差,从而影响模型的泛化能力。同时,FoldBench基准测试提示,“全原子结构预测”在新分子、变构口袋、抗体-抗原及复杂核酸等任务中仍存在短板。因而,英伟达团队先形成彼此匹配并能被折叠器一致复现的数据对,在此基础上训练/微调全原子生成模型,以提升结构多样性与协同设计性,同时让训练信号变成“可折回、可共设计”的稳定约束,而不只是单边提升结构标签置信度。


2.2 数字细胞的智能建模与工程调控


继分子层面后,如何把多源读数统一成可解释、可干预的细胞状态,同时克服表征不统一、数据天然不完美、从相关到机制的断层与跨数据集泛化难的问题,成为生成式生物学所面临的第二项挑战。传统生物学在细胞异质性解析中长期面临分辨率困境与因果关系的不确定性。单细胞转录组与空间多组学技术(scRNA-seq、ATAC-seq、空间转录组学)虽能提供前所未有的细胞分辨率数据,但面临传统生物信息学方法层面的根本性瓶颈。一方面,批次效应与缺失值问题导致跨实验数据整合困难,手工校正难以捕捉细胞状态的连续谱系,且高内涵细胞成像产生的海量形态学数据依赖人工特征提取,无法发现细微但生物学意义显著的表型模式。另一方面,扰动响应预测缺乏从“分子变化”到“功能结局”的因果推理能力,药物筛选仍依赖高通量实验的穷举式验证。例如,在细胞类型注释任务中,传统聚类方法对稀有细胞亚群的识别率不足30%,且无法解释批次间差异的生物学来源。


由此,面向单细胞的基础模型应运而生,试图通过统一的表征学习与生成建模框架,支撑细胞类型划分、轨迹推断及扰动响应模拟等任务。例如,以变分自编码器、正规化流和扩散模型为代表的深度生成框架,能够在潜在空间中捕捉细胞状态的连续谱系,支持多种任务以提升稳定性和可扩展性。进一步来说,一些单细胞基础模型,则用于学习可迁移的“细胞语言表示”,在批次校正、细胞类型识别和扰动响应预测等任务上具有明显优势。同时,深度学习方法已被广泛用于识别空间功能域、发现空间变异基因、进行缺失表达补全、重建三维组织结构以及推断细胞-细胞相互作用。例如,部分方法通过卷积网络或图神经网络在“表达+坐标”的联合空间学习局部结构,从而自动划分组织的功能区域。也有工作利用深度模型对多张空间切片进行对齐和三维堆叠,构建具有空间连续性的组织表达地图。将深度学习引入基于细胞成像的高内涵筛选与表型分析后,可以提升无监督聚类、表型相似性度量和小分子作用模式(MOA)推断的灵敏度和通量。当前,“Cell Painting”等通用表型测定方案结合自监督学习与异常检测模型,已被用于在大规模化合物库中识别细微但生物学意义显著的活性化合物,为表型药物发现提供数据驱动的新路径。


因为多模态单细胞数据让“细胞状态”首次足够可表征,生成式与基础模型让“状态空间”可学习且可生成,而科学与产业都迫切需要“对扰动的机制级反事实预测”来降低实验搜索成本。因此,虚拟细胞建模成为前沿热点,标志着从数据分析向机制推理演进的能力又进一步。Arc Institute举办的首届虚拟细胞挑战赛(Virtual Cell Challenge)引发了关于单一转录组模态在虚拟细胞及药物发现应用中的价值与局限的广泛讨论[39]。C-COMPASS方法则为非程序员研究者提供了自动重建蛋白质组与脂质组细胞器空间分布的深度学习工具,突破了脂质缺乏“细胞器标志物”的瓶颈,为虚拟细胞建模与AI驱动药物筛选奠定了关键基础。2025年提出的以VCWorld为代表的“生物世界模型”,将虚拟细胞扰动预测重构为基因级机制推理,通过LLM与生物知识图谱结合,能够在小样本下泛化并给出可解释的推理链条,在DEG预测准确率和稀有基因识别能力上均显著优于传统深度模型。这些应用已向三条路径延展。一是在基础研究中,通过单细胞与空间多组学的深度分析,解析细胞异质性、细胞命运决定和微环境信号。二是在药物发现与安全性评估中,结合扰动性单细胞测序和高内涵成像,构建“扰动-细胞表型-结局”因果链条。三是在细胞与基因治疗领域,对工程化细胞产品的表型和组学特征进行建模。行业正在把AI从“数据分析工具”推进为“可模拟、可解释、可迁移的细胞级决策底座”,并逐步沉淀成可复用的平台能


2.3 器官层面的智能仿真与疾病建模


生成式生物学在细胞层面的方法学进展为“可干预的状态空间”奠定了基础,而当问题上移到器官维度,则面临模型能否在跨设备/跨人群的真实数据中可信泛化,并对真实治疗策略实现可校准的干预模拟等问题,这也为AI在临床阶段的应用带来直接且广阔的干预决策空间。近年来,深度学习已成为医学影像分析的基石,在影像重建、病灶检测、分割和预后评估等方面形成了比较成熟的技术体系。


首先,在医学影像和器官功能评估方面,深度学习模型可以在病理数据和病理切片上自动完成器官和病灶的分割、特征提取和风险评分,用于多种生理状态分析,在部分任务上甚至超过一般放射科医师的水平。美国超2/3的放射科部门已程度不一地运用AI工具,美国食品药品监督管理局(FDA)批准的智能医疗器械中3/4用于影像场景。例如AI冠脉影像系统X1-FFR可在无需导丝或血管扩张药的情况下基于单次造影推断血流分数,并与腔内成像集成。DeviceGuide系统利用AI将术中X光与超声融合成3D导航视图实现心脏瓣膜介入的“实时术中导航”。基于稀疏采样数据的深度生成模型能够重建接近全视场的高分辨率视网膜图像,在结构相似性与细节保真度方面接近金标准。


其次,器官芯片与类器官技术则为AI提供了体外模拟的物理载体,由此产生的海量流体力学参数、传感器读数及高内涵成像数据依托机器学习与深度学习实现模式识别与参数反演。最新的“AI+类器官+器官芯片”混合框架,一方面利用深度学习自动评估芯片上的表型与毒性读数,辅助高通量药物筛选;另一方面尝试将体外模型与数字仿真、人群数据连接,构建“人在芯片上的混合数字平台”。美国、英国等已把AI赋能的器官芯片和3D生物打印组织写入减少动物实验的国家路线图,将其视为药物安全性评价和毒理测试的重要替代路径。


再次,利用患者个体的影像资料、生理信号和实验室检查数据构建可用于假设性干预模拟的虚拟器官或系统。在心血管领域,研究者已能够基于心脏的多源数据构建个体化的心血管数字孪生模型,用于模拟不同药物剂量、节律控制策略或康复负荷对血流动力学变化及预后风险的影响。数字孪生的医学应用从单一器官扩展到整个机体乃至医疗机构层面的资源配置与流程优化,相关综述开始从“从细胞到全身系统”的尺度系统讨论数字孪生在医疗中的潜力与挑战。


最后,深度学习在脑-机接口(BCI)中被用于解码神经信号,实现运动意图、语言或情绪状态的预测,用于运动功能重建、意识障碍评估和神经康复等场景。Synchron将AI辅助的信号解码与可穿戴设备结合,支持瘫痪患者通过意念操作家庭设备;Neuralink等公司则通过高通量植入电极探索更丰富的人机交互能力。


2.4 个体与生态层面的精准干预与系统预测


推及到个体与生态层面,核心挑战在于如何跨越医学决策与政策决策、个体健康与群体生态、人体健康与环境健康之间的多维数据鸿沟。AI的应用已深入电子病历与多模态临床数据、可穿戴设备与居家监测、公共卫生监测网络,以及农业与自然生态系统中的生物多样性数据等多维分析。然而,这种多维度数据与模型的深度耦合也暴露了数据的迁移与公平性、隐私伦理与监管约束,以及因果推断、时空建模与不确定性量化等问题,需要系统性的技术突破与范式整合。


在个体健康领域,最关键的瓶颈在于静态、非结构化的电子健康记录(EHR)与动态、实时的真实世界生理数据之间存在巨大的“信息断层”,导致传统评分工具难以精准预测复杂疾病风险。为此,生成式AI通过构建非影像临床数据基础模型与多模态大语言模型(M-LLMs),系统归纳病历摘要、临床问答及病程记录,并结合传感器等穿戴设备实现数据的连续化采集。多项大规模验证实验已证实了该范式的优越性:Delphi-2M模型在40万名英国生物样本库参与者和190万名丹麦患者数据上训练后,其在心血管及代谢疾病的长期风险预测上显著优于传统临床评分工具。同时,苹果心脏研究(Apple Heart Study)与Fitbit等的研究表明,结合AI算法的消费级穿戴设备在房颤筛查与复发监测上已具备接近植入式医疗器械的诊断性能。这一进展标志着医疗AI正从单一的“文本助手”迈向深度嵌入临床工作流的决策部件,并促使监管机构重新界定健康设备与医疗器械的边界。


在公共卫生与传染病防控领域,核心痛点在于传统临床监测存在滞后性与覆盖盲区,难以捕捉早期传播信号。针对此痛点,AI技术通过整合气象、人口流动及社交媒体等多源数据,特别是结合基于污水的流行病学监测(WBE),利用机器学习模型对病毒核酸数据进行时空建模。实证研究显示,污水AI监测模型能够比临床确诊数据提前数天甚至数周捕捉到新冠病毒及Mpox等病原体的社区传播趋势,有效填补了检测资源不足带来的盲区。这一技术突破推动了环境与人群一体化监测模式的形成,使其正被多个国家纳入常态化公共卫生体系,成为个体临床数据之外另一条不可或缺的AI赋能数据管道。


延伸至生态与环境健康领域,科学瓶颈主要表现为海量环境监测数据(如图像、音频)与有限的人工筛查能力之间的矛盾,导致生物多样性评估严重滞后。为此,边缘计算AI与计算机视觉技术被集成至遥感平台、无人机及野外相机陷阱中,同时结合深度学习进行被动声学监测,以实现自动化的物种识别与行为追踪。对比实验表明,嵌入式AI算法不仅大幅减少了人工筛图的工作量,还能在大尺度上实时、准确地捕捉夜行昆虫、鸟类及海洋哺乳动物的群落变化。这一进展不仅实现了生态监测的规模化部署,更为研究环境暴露与人群健康之间的长期关联提供了标准化的数据基础,最终推动了“从分子到生态”的AI×生命科学全链条闭环的构建。


2.5 跨层级研究范式突破及多场景应用


2025年以来,多模态基础模型的成熟与广泛应用,也驱动了跨层级研究的突破。生命科学领域长期面临从微观分子机制到宏观系统功能的巨大“信息断层”,难以实现跨尺度的全景解析。针对这一瓶颈,科研机构构建了贯穿“数据-算法-平台”主轴的全栈研究体系,利用多模态大模型打破数据孤岛。例如,腾讯生命科学实验室实现了从分子到细胞、组织再到系统的多尺度整合,有效连接了微观与宏观生物学特征;伦敦国王学院开发的“医疗版GPT”则实现了涵盖诊断、疗效监测与药物研发的跨流程数据融合。这一范式转变最终推动了欧盟启动跨国虚拟研究院RAISE,将AI方法转化为公共科研基础设施,显著增强了区域在科学计算与生命科学领域的结构性竞争力。


传统生物实验长期受制于“假设-验证”周期长、人工操作通量低以及实验数据无法实时回流模型的效率瓶颈。为此,“干湿闭环”系统引入了“人工智能科学家”(AI co-scientist)与自动化实验平台的深度耦合,建立了“数字实验”循环迭代模式。在Wake Bio的抗冻保护剂研发中,AI从亿万级候选分子中高效筛选,通过实验结果的实时反馈不断修正模型假设;CRISPR-GPT等系统则实现了基因编辑与酶活性测定的全自动执行。这种自动化与智能化的结合,不仅实现了数据流的实时闭环,更为系统生物学研究提供了可扩展的标准化实验基础设施。


在药物研发与精准医疗领域,核心痛点在于递送系统的精准设计、药物靶点的“不可成药性”以及临床前毒性评估的黑箱效应。生成式AI结合属性预测功能,针对性地破解了序列结构与生物功能之间的复杂映射难题。对比实验显示,AI设计的脂质纳米颗粒(如RNAi-396和RNAi-PMA)在体内分布与安全性上均优于临床常用的SM-102;AI预测CRISPR编辑结果的准确率突破90%,并成功对全基因组非编码变异进行功能注释。这一系列突破推动了产业里程碑式发展:AI优化抗体药物进入Ⅲ期临床,基于数字器官模型的安全性评估获得ARPA-H资助,Recursion公司的AI筛选药物在家族性腺瘤性息肉病治疗中取得显著临床疗效。


在农业与医疗运营场景中,主要挑战在于复杂表型与基因组关联的低效筛选,以及医疗资源在物理空间与数据流转上的割裂。应对这些挑战,深度学习平台与Agentic AI架构通过跨模态数据整合实现了流程重构。在农业方面,基于图像-基因组关联的平台将作物抗逆性筛选效率提升了30%以上,推动了AI育种的产业化进程。在医疗方面,AI重建技术赋能低场便携式MRI实现ICU床旁扫描,规避了转运风险;Inferenz与DeepHealth等平台则通过嵌入式AI实现了从预约、检查到支付风控的全流程闭环管理,为碎片化医疗体系提供了可审计、智能化的架构范例。


3 生物启发AI的创新发展


在追求更具通用性、更强鲁棒性和更高能效的下一代AI系统的道路上,生命系统的复杂性与自适应特征正成为算法与架构创新的重要灵感。进入2025年,“生物启发AI”的研究路径已从结构模拟迈向原理重构,在类脑计算、神经形态硬件和自适应算法等方向取得了突破性进展,形成与“AI赋能生命科学”并行的创新维度。


3.1 类脑智能与神经形态计算的发展


类脑智能与神经形态计算可理解为在算法、网络结构与硬件体系上系统地借鉴大脑的工作原理,可分为物理结构与动力学启发,以及行为与认知启发两大类型,其核心是以神经科学发现驱动新一代AI的设计空间。


当前主流深度神经网络依赖全局误差信号与反向传播,与生物神经系统的局部可塑性机制存在显著差异。脑启发学习研究主要涵盖基于突触可塑性的局部或三因素学习规则、基于能量或自由能最小化的学习框架,以及利用神经记录数据约束训练过程的神经对齐方法。在预测编码范式中,网络分层生成预测与误差信号,并通过局部修正实现学习。多种预测编码算法与传统前馈网络的对比显示,生物启发学习规则在模拟听觉错配反应、先验形成等范式时呈现更接近生物神经的“脑样”特征。部分研究还从脑网络动力学中借鉴结构设计,例如振荡同步图网络将图节点建模为耦合振荡器,通过类似脑电节律的相位同步进行图计算,不仅在性能上优于标准图神经网络,还提供脑节律与结构层次对应的物理解释。


神经形态计算则试图在器件与传感端复制神经系统的计算风格。“从智能感知到神经电子学”框架利用类突触器件、脉冲神经元阵列和多模态传感网络在硬件上实现事件驱动、稀疏编码与在位学习。有机忆阻器与电解质栅控晶体管等人工突触器件可表现短时与长时可塑性,被用于构建低功耗神经形态芯片及端侧“感知-计算一体化”节点;类视网膜事件相机与仿生HDR传感阵列在传感端实现稀疏化与边缘检测,为高速、低功耗机器视觉提供物理基础。在多模态神经形态电路中,机器人可在多次配对后形成条件反射式回避行为,将经典行为学嵌入硬件系统。最新“电刺激+瞬时冷冻”脑成像技术可在毫秒级冻结突触活动并以冷冻电镜实现递质释放的三维解析,为高精度神经机理建模与类脑计算平台奠定基础。


在传统芯片中,GPU擅长通用且成熟生态支持的大规模并行与矩阵计算,但功耗与系统工程压力显著;TPU则在面向张量计算的规模化深度学习中具备更优能效,但通用性与生态开放度受限。神经形态芯片(如Intel Loihi2、IBM TrueNorth)强调事件驱动与“有信号才计算”的范式,更适合稀疏事件流、低占空比、实时在线的边缘感知与控制等场景,但其模型/编程范式与主流深度学习存在差异,生态与可复用基准仍在演进,且对“密集矩阵、持续满载”的大模型工作负载并非天然优势。生物混合芯片(如DishBrain/CL1,“Organoid Intelligence”方向)结合生命科学实验平台与计算,在研究意义上贴近生命科学,但工程化尚早,缺少与GPU/TPU同口径的性能/能效基准,并面临稳定性、可重复性、规模化培养及伦理合规等挑战。这四类芯片的能效评估口径差异显著(对比详见表1):GPU/TPU以TFLOPS、TOPS及TFLOPS/W衡量数值运算吞吐与功耗;神经形态芯片则以每次突触脉冲事件的能耗评估事件驱动效率,粒度区别于乘加操作,可减少无效计算与数据搬运;生物混合系统的功耗通常指整机或实验架级消耗,“人脑与超算功耗对比”更偏概念性对照。


表1 四类计算范式的能效口径与适用场景对比表



随着类脑算法与神经形态硬件的不断涌现,如何评估系统的“脑样程度”成为新的研究焦点。基于预测编码训练的网络在多个经典神经范式中的响应与真实脑数据高度相似,可通过神经对齐度而非单纯任务性能来评估模型的“类脑程度”同样地,也有研究提出利用个体化脑成像与行为数据对通用模型进行微调,使其内部表征在不同受试者之间的差异与真实大脑相匹配,从而同时服务于认知神经科学与工程AI;在“同等科学解释力/同等任务质量”的约束下,这种“用更少的外部算力换来更强的生物约束”的路线,正是绿色AI能够在类脑研究场景中落地的关键。


3.2 仿生优化算法的研究发展


生命科学为AI与具身智能提供了丰富的启发性设计思路,其中遗传算法、免疫与自适应防御计算,以及群体智能优化算法构成了仿生优化研究的重要分支。


遗传算法(genetic algorithms,GA)作为模拟生物进化过程的典型方法,已由早期的参数搜索工具演化为适用于高维、非凸与大规模多目标问题的通用优化框架。近年来,研究聚焦于算子自适应与自组织机制,通过动态调整交叉与变异强度以提升全局与局部寻优的平衡性。在“神经演化”(neuroevolution)领域,遗传算法通过演化策略优化深度神经网络结构与权重,突破了人工设计的局限,在强化学习与机器人控制任务中展现出突出的鲁棒性。同时,基于遗传算法的提示词演化为LLM优化提供了新思路,利用种群迭代机制对提示方案进行变异与选择,无需梯度更新即可提升模型性能并显著降低微调成本。在工业计算与制造领域,代理模型(surrogate-assisted)与遗传算法的结合进一步优化了高计算成本问题的求解效率,提供了解决昂贵黑盒函数的有效途。


人工免疫系统(artificial immune systems,AIS)基于免疫学中的多层防御、自体识别与记忆机制,形成了阴性选择、克隆选择、免疫网络和危险理论等模型;其在工业自适应与异常检测中展现出较高的鲁棒性与分布式学习特性。阴性选择算法的演化显著提升了高维与非线性场景下的检测性能,克隆选择与网络调节机制使系统具备多样性维持与动态响应能力。结合深度学习、特征降维与集成学习,AIS在复杂网络流量分析与入侵检测任务中实现了准确率和稳定性的双提升。在边缘计算与物联网中,免疫启发算法有助于构建资源受限环境下的自适应防御与快速响应框架,并在智能制造领域形成免疫样维护体系,提高设备韧性与预测性维护能力。此外,其应用还包括脑电(EEG)异常检测与心理健康评估等。


群体智能优化算法通过模拟生物群体的协调与交互行为,如鸟群觅食、蚁群路径规划和蜂群协作等,展现出解决复杂优化问题的高效能力。其中粒子群优化(PSO)和蚁群优化(ACO)在工程设计、路径规划、任务调度等问题中得到广泛应用,而近期的人工蜂鸟算法(AHA)则通过模拟蜂鸟空中悬停与敏捷飞行动作,在多模态优化场景中表现出优于传统元启发式算法的性能与稳定性。整体而言,仿生优化算法正从单纯的自然启发式方法迈向跨学科融合的智能优化体系,在数据驱动建模、复杂系统控制和自主学习领域形成新的方法学支撑。


3.3 分子计算与生物混合智能


分子计算与生物混合智能以生命系统为计算介质:在分子层面利用DNA与化学反应网络执行算法,在更高层面使用细胞、类器官乃至小型神经网络承担信息处理任务。近年来,研究逐步形成从分子逻辑到活体计算硬件的连续谱系,将DNA计算和分子神经网络与类脑智能和湿件计算连接起来。


DNA分子凭借并行性与可编程性被用于构建分子逻辑电路、阈值单元与分类器,可在溶液中直接完成模式识别与决策,为“分子级分类器”提供了系统性框架。在此基础上开发的DNA决策树系统以化学反应呈现可解释的判别过程。进一步的研究在分子层面实现神经网络式计算,以及利用链置换反应构建DNA卷积网络与增强矩阵网络,在商品分类和癌症风险预测等任务中实现分子计算原型。基于化学反应网络(CRN)的分子学习框架则为细胞内或体外学习型反应系统提供了方法学基础。


生物混合智能则直接将活体神经网络作为计算资源,“类脑智能(OI)”融合了类器官与AI的优点,微流控、电生理与AI技术体系取得了突破性进展,潜在应用范围涵盖高效计算、环境监测、碳捕集以及毒理学研究。其中,在脑类器官布设多电极阵列,能够执行语音识别等任务,展示了活体三维神经网络作为计算节点的可行性。FinalSpark公司2024年推出Neuroplatform平台,该平台构建了一个由16个脑类器官阵列组成、接入微流控和电极系统的在线生物计算平台,通过神经形态计算架构实现远程访问和实时控制,实现了活体神经网络与硅基硬件的无缝交互。这种协同不仅解决了传统神经形态芯片在复杂动态任务中的学习能力局限,还为类器官提供了可编程的输入输出接口,使其能够执行语音识别和模式分类等任务。2025年的一项突破性研究进一步表明,通过将类器官的突触可塑性机制与神经形态芯片的在线学习算法耦合,系统在能耗仅为传统GPU的1/1000时,仍能保持对动态环境的快速适应能力。这种“湿件-硬件”协同范式为构建高能效、自适应的AI系统提供了新路径,并在神经疾病建模和药物测试中展现出独特优势。总体而言,在生物启发AI的创新进程中,神经拟态计算与生物混合系统之间展现出双向赋能的协同趋势。这种协同作用不仅体现在硬件层面的集成,更延伸到算法与机制,在“脑机协同演进”等前沿研究中展现出生物智能与机器智能深度融合的范式转变。


4 人工智能与生命科学的融合现状及面临的挑战


4.1 全球战略布局与治理体系构建


在AI与生命科学的深度融合中,多国(地区)通过制定顶层设计、建设基础设施、推动跨界合作,加速科研创新链与产业转化链的高效衔接,并在伦理、安全与公平等方面建立制度保障。


英国政府与Google DeepMind启动覆盖科研、清洁能源与公共服务的AI战略合作,核心举措包括在本土建设首个自动化研究实验室,优先为科研机构开放AlphaFold、AlphaGenome等前沿工具。欧盟委员会宣布启动COMPASS-AI项目,面向医疗健康等高敏感行业打造跨国专家共同体与实践社区。美国卫生与公众服务部(HHS)推出的《人工智能战略》构建了覆盖公共卫生监测、医保支付、药品监管和内部管理的系统性AI应用蓝图,强调安全、公平、可解释性与数据隐私保护的原则。该战略不仅将生成式AI与机器学习技术嵌入疾病监测、欺诈识别和药品安全评估等核心业务,还提出通过培训与工具建设提升政府雇员的AI应用能力,标志着AI从试点项目上升为公共部门的核心生产力工具。


在产业化治理中,除前述的医药、农业等应用场景外,政策鼓励下的“AI+生物制造”模式不仅优化了生产效率,还推动了国际制药供应链的智能化升级。Pow.Bio与Bühler合作的连续精密发酵平台,将AI驱动的实时参数调控嵌入大规模发酵生产,显著提高产能利用率并降低成本。mAbxience与惠普联合构建的生物制药数字孪生平台,则实现了批次质量预测与生产过程自优化。此外,在公共卫生与应急响应领域,AI驱动的疾病监测与情报系统正在重塑防控模式,如新加坡Temasek支持的PathGen平台实现了提前预警;美国疾控中心(CDC)自2023年起部署AI技术于54个场景,提升了公共卫生响应能力。


4.2 技术局限性与监管挑战


尽管AI与生命科学的交叉融合应用已取得突破性进展,但技术落地的“最后一公里”仍面临多维度的挑战。这涉及了监管主体的责任界定、生成式模型在处理生物复杂系统时的本质缺陷以及算法适用边界等问题。


4.2.1 “黑箱”困境下的责任归属与监管真空


生成式AI在药物研发和临床诊断中的广泛介入,引发了责任界定与监管滞后的全球性问题。其核心症结在于模型的“黑箱”特性切断了结果与推理链条的线性联系,导致故障或事故难以在算法开发者、数据提供方与终端使用者之间明确归责。近期美国FDA内部AI工具“Elsa”在新药审批中生成虚假科研报告,引发信任危机。WHO的报告指出法律不确定性被多数国家视为医疗AI推广的首要障碍,但仅极少数国家建立明确的责任标准。除责任问题外,跨国合作中生物数据隐私与算法偏见风险日益凸显,在跨境数据流动与国家生物安全之间建立平衡成为监管核心议题。


4.2.2 AI幻觉的风险识别与可信验证机制


生成式AI的“幻觉”问题不仅表现在输出错误,更在某些场景中表现为具有累积破坏力的“腐蚀性幻觉”,可能产生违背构效关系的分子骨架,或生成在物理条件下无法稳定存在的蛋白质折叠态,引发连续的实验偏差与推断失真。


面对AI幻觉带来的输出失真问题,必须引入多模态实验验证体系,构建“算法增强-实验验证”的双重防线。在算法层面,“思维链推理”(CoT)与“搜索增强生成”(SAG)等策略可降低幻觉发生率。同时,外部知识注入显著提升模型可靠性:DrugGPT借助临床知识库与协作机制优化药物推荐;知识图谱增强框架(KGT)通过结构化语义约束减少医学问答中的事实性错误。在实验验证层面,构建多模态验证体系与“干湿闭环”反馈机制是关键。AI生成结果应快速导入高通量自动化实验,实时回传实验数据以进行模型微调,从而在物理真实世界中过滤虚假阳性、提高结果可重复性。


4.2.3 算法范式在生物学复杂场景中的适应性匹配


AI模型的高效运行高度依赖于清晰的规则边界与高质量的数据支撑,这与生物学系统固有的模糊性及非线性的“暗物质”特征构成了内生性矛盾。在处理未知靶点药物发现或生态系统动态预测时,算法泛化不当常导致模型过拟合或失效。因此,明确不同算法的适用条件与能力边界成为提升模型可靠性的关键前提。


在未知靶点药物发现中,传统基于构效关系的分子对接方法局限显著。近年来,大语言模型通过生物序列的海量预训练实现突破。例如,ProtT5成功识别出传统方法遗漏的DDR3结合口袋,大幅提升筛选准确度。多模态Transformer进一步整合序列与非结构化文献数据,在衰老相关疾病研究中验证了零样本学习的潜力。针对全基因组规模筛选,DrugCLIP通过深度对比学习实现了虚拟筛选效率的指数级提升。然而,现有公开数据集在覆盖“全新”生物学空间上的局限,仍可能导致模型在捕捉复杂结合口袋特征时产生泛化偏差。


在对物理可解释性要求较高的任务中,“AI+物理”协同范式表现出更强适应性。在G蛋白偶联受体(GPCR)药物设计中,模型结合分子动力学与自由能微扰方法显著提高了预测的物理可信度。类似地,将AlphaFold与AI辅助蛋白质工程结合能实现在结构稳定基础上的基因编辑效率提升。


在宏观复杂系统中,如生态动态预测或罕见病演化,元学习框架通过跨任务迁移提取动态特征,使模型能在数据稀缺条件下实现精准预判。基于概率图与图神经网络的模型则从多元时间序列中显式建模因果结构,为多靶点网络及微环境互作分析提供更高鲁棒性。


此外,算法在生物学复杂体系中的适应性还受制于数据层面的多尺度异构与质量分布不均。跨尺度数据融合时,单一尺度建模难以充分捕获多层次生物过程。如MICrONS项目,其构建了目前最完整的视觉皮层“结构-功能-转录”多模态图谱,奠定了从突触连接规则到计算原理的跨尺度解析范式;NEURD软件则借助神经元三维网格向智能图结构的转换,实现电镜数据中形态特征的多尺度自动提取与校正,显著提高了毫米级连接组分析的效率与可扩展性。这类研究为跨尺度数据融合提供了重要的实证路径,但同时也揭示出在异构数据的时空对齐和模型迁移精度方面仍存在系统性瓶颈。进一步来看,生物数据质量的参差不齐与负面结果的缺失同样限制了模型的泛化能力。大量数据集未针对机器学习需求设计,加之学术发表倾向于正向结果,导致模型难以学习失败样本的特征。为缓解这一偏倚,“Avoidome”项目开始系统收集药物代谢动力学相关负面数据,用于训练模型识别并规避潜在失效结构。


5 展望


生成式生物学与生物启发AI的深度融合正驱动着科学范式的重大转变。未来,跨尺度建模能力与多模态基础模型的发展将实现从分子到生态系统的统一模拟与预测,切实贯通“分子-细胞-器官-个体-生态”的全链条认知。“干湿闭环”系统的完善将加速从虚拟设计到实体验证的迭代进程,使“AI科学家”成为科研流程的核心推动力,大幅提升新药研发、精准育种和疾病干预的效能。


与此同时,数据异质性、模型可解释性及伦理治理仍构成主要挑战。生命系统的可编程性与智能体的自主性带来隐私与安全风险,亟需建立全球协同的治理体系,在促进创新与控制风险之间实现平衡,以科学责任和社会共识为基础推动可持续的科技生态建设。


在应用方面,医疗健康领域将率先受益。基于个体多组学数据构建的数字孪生体系可推动主动健康管理的实现;AI赋能的器官芯片与类器官技术将优化药物评估并减少动物实验;公共卫生领域的智能预警系统将强化疾病和环境风险的预测和响应能力。


与此同时,数据异构性、模型可解释性、算法公平性及伦理治理仍构成技术落地的主要挑战。生命系统的可编程特征与智能体的自主决策能力,为隐私保护、生物安全以及人类主体性带来了新的风险与争议。未来的技术演进必须在全球范围内构建协同治理体系,在激励创新与控制风险之间形成动态平衡,以科学责任与社会共识为基础推动安全、可持续的创新生态发展。


--------- End ---------


文章改编转载自微信公众号:智药邦


原文链接:https://mp.weixin.qq.com/s/EsyxGW9smk5nDctn5AXxOw

62
0
0
0
关于作者
相关文章
  • 0.7-4微秒!Nature头条揭秘蛋白质折叠的“瞬间完成”之谜 ...
    撰文丨王聪编辑丨王多鱼排版丨水成文蛋白质的功能与其通常形成的复杂三维结构密切相关。例如,有 ...
    了解详情 
  • Nature Communications | 伊辛模型解码神经元熵流与高效计算 ...
    日本团队在《Nature Communications》2025 年 16 卷发表《 State-space kinetic Ising model rev ...
    了解详情 
  • PackDock:基于扩散模型侧链组装的柔性蛋白质 - 配体对接新方法 ...
    理解蛋白质–配体相互作用是生命科学诸多领域的基础:从阐明细胞过程到开发疾病新疗法,都 ...
    了解详情 
  • AI逆向设计改写材料研发——从性能到结构,生成新材料成功率提升 ...
    MIT 等团队在《Nature Materials》发表综述《 Artificial intelligence-driven approaches for&n ...
    了解详情 
领取成功
本月5个550bit真机配额已发放给您,配额将在2个月后到期,请及时使用哦~
活动中心
联系我们
二维码
返回顶部
返回
活动中心

完成任务,轻松获取真机配额

×
每日必做
新手任务
长期任务
其他任务
快速回复 返回顶部 返回列表
玻色有奖小调研
填写问卷,将免费赠送您1个1000bit真机配额
(单选) 您是从哪个渠道得知我们的?*
您是从哪个社交媒体得知我们的?*
您是通过哪个学校的校园宣讲得知我们的呢?
取消

提交成功

真机配额已发放到您的账户,可前往【云平台】查看

量子AI开发者认证

考核目标

开发者能够成功搭建Kaiwu-PyTorch-Plugin项目基础环境,并成功运行示例代码,根据示例提示,输出指定的值并填写至相应的输入框中。

通过奖励

5个一年效期的1000量子比特真机配额

专属「量子AI开发者」社区认证标识

开发者权益

每月固定权益:5个550量子比特真机配额
前往考核

第一步

按照README提示成功安装Kaiwu-PyTorch-Plugin库环境依赖
前往GitHub

第二步

运行 community-assessment 分支下的 run_rbm.py 代码示例

第三步

理解示例代码,手动打印并填写如下数值:

正相采样的状态

负相采样的状态

正相的能量值

负相的能量值

*

提交答案

开发者权益

每月固定权益:5个550量子比特的真机配额

恭喜您完成考核

您将获得量子AI开发者认证标识及考核奖励

1000 bit*5

配额

Quantum AI Developer Certification

Assessment Objectives

Developers should successfully set up the basic environment for the Kaiwu-PyTorch-Plugin project, run the QBM-VAE sample code, and calculate the correct FID value based on the random seed value provided by the system.

Pass Rewards

10 quotas for 550-qubit real quantum machines with a one-year validity period

Exclusive "Quantum AI Developer" Community Certification Badge

Developer Benefits

Fixed Monthly Benefits: 5 quotas for 550-qubit real quantum machines
Proceed to Assessment

Step 1

Install the environment dependencies for the Kaiwu-PyTorch-Plugin library according to the README instructions
Go to GitHub

Step 2

Replace the Seed Value

Your seed value is

Step 3

Enter the FID Value You Calculated

*

Submit Answer

Developer Benefits

Fixed Monthly Benefits: 5 quotas of 550-qubit real machines

Congratulations on Completing the Assessment

You will receive the Quantum AI Developer Certification Badge and Assessment Rewards

550bit*10

Quotas