李国杰院士AI4S里程碑式重大成果综述
来源:计算杂志
李国杰
中国科学院计算技术研究所
人工智能( artificial intelligence, AI )自诞生以来,主要向 2 个方向发展。一是模仿人的认识、思考和行动,能像人一样听说读写并与周围世界互动,要解决的问题的边界是模糊的,问题没有精确的定义;二是解决边界清楚、定义精确的高维复杂问题,这类问题往往在科学上有重大意义。一方面,近几年由 ChatGPT 带动的生成式人工智能主要以模仿人类认知为目标,核心技术是文字、图像内容生成,聚焦推理能力提升和多模态融合集成,主要用于互联网交互、办公、机器人等领域。这一方向已得到高度重视,龙头企业正在投入巨额资金建立预训练数据中心和网络智能服务平台。另一方面,以 DeepMind 公司的 Alpha 系列大模型为代表,积极探索智能化科研( AI for Science, AI4S )的应用,在解决生物、材料、能源等复杂问题的科学研究上也取得了重大突破,但大众对这方面的进展还不太关心。本文对 AI for Science 这几年取得的里程碑式的突破做较全面的综述,希望能引起各界的广泛关注。
发展模仿人的人工智能,可以实现某些知识处理的自动化,替代一部分简单重复的脑力劳动。从发展经济的角度来看,主要的作用是提高效率。目前的人工智能主要还是一种使能( enable )技术,即锦上添花的技术,不是像物理、化学、生物一样的直接探索和理解客观世界的科学技术,所以有人说人工智能是蛋糕上的奶酪,蛋糕还是其他的科学技术。所谓提高效率大多是 1 到 N 的贡献,不是 0 到 1 的原始性突破。效率的提高总是有上限的,集成电路产业的发展遵循摩尔定律,极大地提高了芯片的效率,但发展几十年后也遇到了天花板。基础研究的重大发现可以带来整个社会的革命性变迁。如果突破了核聚变的核心技术,实现了商业化应用,能源短缺问题就会彻底解决,碳排放问题也就迎刃而解。 AI for Science 有望通过人机协作,作出突破性的科学发现。一旦人工智能推动基础研究取得原理性的重大突破,人工智能就不再是蛋糕上的奶酪,而是能够直接影响蛋糕的形成和品味。也就是说,先用人工智能推动科学技术研究,再用新的科学技术推动经济和社会发展,比在人类的生产和生活中直接采用现在的人工智能技术,可能会获得更大的效益。因此,我们不能只局限于发展“像人”的人工智能技术,应当更加重视解决复杂科学技术问题的人工智能技术。
AI for Science 取得成功的案例比较多,篇幅有限,不能一一介绍。经过广泛的搜索查询,并与 GPT-4o 、 DeepSeek 、文心一言等人工智能网站进行深入的讨论以后,每个领域我挑出两三件里程碑式的成果进行介绍。
数学
困扰学 界长达 132 年的李雅普诺夫函数的构 造取得里程碑式突破
李雅普诺夫函数( Lyapunov function )是判断动力系统全局稳定性的关键工具。例如三体问题中,若存在此类函数,即可证明系统的长期稳定性。 1892 年,李雅普诺夫证明,如果可以找到一个函数 V ,在平衡时具有严格的最小值,在无穷大时函数值为无限大,沿系统轨迹, V 单调下降,那么这个系统就是全局渐近稳定的。李雅普诺夫函数的存在被证明是大系统稳定性的必要条件,但他未能提供寻找函数 V 的方法。自该理论提出以来,学界始终缺乏系统化构造方法,成为持续 132 年的数学悬案。
Meta 公司与巴黎理工学院的科研团队采用基于 Transformer 的 AI 模型,将此问题转化为序列到序列的翻译任务,在李雅普诺夫函数构造领域实现了三大突破 [1] :
1 )构造效率革命:在随机多项式系统测试中, AI 成功构造李雅普诺夫函数的比例达 10.1%~11.8% ,是传统平方和( sum of squares, SOS )工具( 0.7%~1.1% )的 10 倍以上,且推理速度提升近 70 倍( AI 仅需 13.9 s ,传统方法需 935 s )。
2 )非多项式系统突破:在传统方法完全失效的非多项式系统测试中, AI 仍能发现 1.7% 的李雅普诺夫函数,首次实现该领域零的突破。
3 )数据驱动范式:通过“逆向生成”技术(从随机李雅普诺夫函数反向构造动力系统), AI 在分布外测试集上保持 73% 准确率,显著优于传统方法。
AI 方法成功构造出几十年来人类找不到的李雅普诺夫函数,证明许多系统是稳定的。尽管现在还没有找到李雅普诺夫函数的通用构造理论,仍是依赖数据驱动的黑箱模型,但这一成果在工程、航空、自动化等领域具有巨大的实际意义,它使得过去只能依赖人类直觉的稳定性分析首次实现自动化,在学术和工业界都是历史性突破。
AI 在数学领域取得的其他重大成果
在数学领域,人工智能近年来取得的进展超出人们的意料。除了李雅普诺夫函数的构造外,还有一些成果也令人惊叹。
AlphaTensor 和 AlphaEvolve 发现矩阵乘法新算法 [2]
现在高中代数的选修内容已经包括矩阵乘法。采用常规的向量内积方法做矩阵乘法,复杂度是 O ( n 3 ), 2 个 4 × 4 的矩阵相乘,需要做 64 次乘法标量运算。许多学者都在做矩阵乘法的快速算法研究,迄今为止最快的施特拉森( Strassen )算法做 2 个 4 × 4 的矩阵相乘,需要 49 次乘法运算,这个纪录已经保持了 56 年,无人打破。
2022 年谷歌公司推出了一款专门优化矩阵乘法的底层乘法次数的软件 AlphaTensor ,在“模 2 域”计算中做到只需 47 次乘法。所谓“模 2 域”是指“对 2 取模的整数集合”,在这个域中,所有加法和乘法运算都对 2 取模。 2025 年谷歌推出更通用的 AlphaEvolve 平台,在更广泛的复数 / 实数域上,找到并证明了一个可递归适用的 4 × 4 矩阵乘法方案,仅需 48 次乘法,打破了 Strassen 算法保持 56 年的纪录。
AlphaTensor 和 AlphEvolve 都是放弃直接计算输出元素的“蛮力”点积,转而计算一组精心设计的“共享中间值”的乘积(如以某些矩阵元素的加权和或差为共享中间值),再通过线性组合还原结果。这种方法减少了总的乘法次数,但增加了加法次数(加法比乘法计算代价低,所以整体更高效)。矩阵乘法是机器学习、计算机图形学、量子物理的基石,许多超级计算机天天都在做矩阵乘法,节省一次乘法运算就会带来极大的节约,明显加速 AI 训练、密码学等领域的研究。该成果标志着 AI 从理论数学的“解题工具”已跃升为“发现工具”。
深度势能原子间势函数预训练模型( DPA-1 )
北京大学的鄂维南教授是最先提出 AI for Science 的科学家,他创建了北京科学智能研究院并担任首任院长。该研究院与北京深势科技有限公司等单位联合研发的深度势能原子间势函数预训练模型( DPA-1 ),被誉为自然科学界的“ GPT ”。这一覆盖元素周期表近 70 种元素的深度学习模型,实现了 100 亿原子规模的第一性原理精度分子动力学模拟,较传统方法效率提升百万倍。其螺旋状元素分布可视化结果与周期表完美对应,验证了模型的可解释性。 DPA-1 已开源至 DeepModeling 社区,为材料科学、能源等领域提供基础设施级支持,加速新工业软件研发。值得指出的是,此成果的前身曾在 2020 年获得计算机领域的戈登·贝尔奖( ACM Gordon Bell Prize ,被誉为“超算领域的诺贝尔奖”),获奖论文的第一作者是目前在中国科学院计算技术研究所工作的贾伟乐研究员。 2022 年,他通过高性能计算与 AI 结合,将第一性原理精度模拟规模提升至 170 亿原子,计算效率较 2020 年又提升了 1000 倍。
AlphaGeometry 2 在国际数学奥林匹克几何题单独测试中超越金牌水平
2024 年由 AlphaProof (用于代数 / 数论推理的模型)与 AlphaGeometry 2 (用于几何推理的模型)组合的 AI 系统,参加国际数学奥林匹克竞赛( International Mathematical Olympiad, IMO ),总成绩是 28 分,获得银牌,比金牌只差 1 分。 2025 年 AlphaGeometry 2 未以参赛者身份参与 IMO ,但做了能力升级单独测试,通过解决过去 25 年 IMO 几何题库中 84% 的题目,获得 42 分的好成绩,证明其解题能力超越人类金牌得主平均水平(金牌得主平均分 40.9 分 1 )。 AI 在几何推理上长期是弱项, AlphaGeometry 2 的突破意味着 AI 在“高阶思维”方面有了显著进展。 AlphaGeometry 2 的方法说明 AI 能自动“理解”问题并生成公式化证明,为将来更大规模的数学自动化提供了新的路径。
物理
AI 辅助控制核聚变 [3]
核聚变有望彻底解决全球能源供应问题,过去人们估计核聚变走向应用还需要 20~30 年。人工智能辅助核聚变控制,大大加速了核聚变技术的研发,有可能在未来 5~10 年内取得关键性进展,推动核聚变更快进入实用化阶段。人工智能辅助核聚变控制是 AI for Science 的皇冠级应用。
核聚变三大核心参数(温度、密度、约束时间)中,约束时间的稳定性是当前最大瓶颈。托卡马克( Tokamak )中核聚变的温度高达上亿摄氏度,如何约束极高温度的等离子体不熔化容器是首要问题。当等离子体进入高约束模式时,边缘区域会形成陡峭的压强和温度梯度。当这种梯度超过临界值时,会触发边缘局域模( edge localized mode, ELM )爆发。 ELM 爆发时释放的热脉冲(类似太阳耀斑)可侵蚀偏滤器靶板,缩短部件寿命,威胁装置安全。因此,预测爆发类型,通过等离子体形状控制实现“可控 ELM ”,将为未来聚变堆的稳态运行奠定基础。
2022 年, DeepMind 与瑞士等离子体研究所合作,首次实现强化学习在核聚变装置的端到端控制,突破了传统控制系统的局限性。传统控制方法依赖人工设计的反馈控制器,需针对不同等离子体配置(如位置、电流、形状)进行繁琐的参数调优,难以适应复杂动态场景。 DeepMind 的强化学习技术使等离子体形状控制精度提高 65% ,电流长期偏差大幅降低。 2024 年 2 月,普林斯顿等离子体物理实验室也在《自然》( Nature )上发表论文,其开发的三维场优化系统,通过强化学习算法实时调整磁场分布,能提前 300 ms 预测等离子体“撕裂模不稳定性”,使反应堆能及时调整参数避免中断。实验数据显示,能量约束时间提升 30% ,等离子体温度突破 1.5 亿摄氏度大关。 AI 控制器响应速度达毫秒级,较传统比例−积分−微分( proportional-integral-derivative, PID )控制系统快 1000 倍。目前,该系统已应用于国际热核聚变实验堆( International Thermonuclear Experimental Reactor, ITER ),使商业化聚变发电的可行性大幅提升。
中国环流三号装置通过 AI 优化,将控制策略生成时间从数天压缩至 0.5 h ,实验迭代效率大幅提升。德国 Proxima Fusion 公司利用 AI 优化仿星器设计,计划 2031 年实现聚变反应产生的能量比输入能量高 10 倍,将商用时间表提前 10 年。
深度学习求解 Navier-Stokes 方程
Navier-Stokes 方程是流体力学中最重要的方程,在工程设计和气候模拟等领域有广泛应用。 2024 年,麻省理工学院联合英伟达开发出物理嵌入的生成对抗网络 PhyGAN ,结合变分自编码器( variational autoencoder, VAE )与残差网络,将流体微团的动量、能量守恒条件编码为损失函数,通过对抗训练优化涡旋结构的生成,首次实现对三维 Navier-Stokes 方程的高保真实时求解。该模型通过引入守恒律约束,在计算流体动力学( computational fluid dynamics, CFD )中达到比传统有限元法快 1000 倍的运算速度,同时将湍流预测误差从 15% 降至 0.5% ,湍流模拟精度提升 3 个数量级。这一重大成果彻底改变了航空航天、气象预测和心血管模拟等领域对复杂流体的建模方式,仅风力发电机翼型优化一项有望每年减少 30 亿美元研发成本。
化学
AlphaFold 3 蛋白复合体结构预测 [4]
DeepMind 推出的 AlphaFold 蛋白质结构预测智能软件是 AI for Science 的开创性成果,引起的结构生物学领域的科研范式变革,消除了科学家对人工智能认识上的障碍,照亮了智能化科研前进的道路。 2021 年发布的 AlphaFold 2 已预测了超过 100 万个物种的 2.14 亿个蛋白质三维结构,几乎涵盖了地球上所有已知蛋白质,预测精度达到原子级别。 DeepMind 已将 2.14 亿个蛋白质三维结构预测结果开放给科研者使用,推动结构生物学研究进入普及化时代。 2024 年 5 月发布了新的版本 AlphaFold ,这一版本引入 Pairformer + diffusion 模型,能准确预测蛋白质−蛋白质、蛋白质− DNA/RNA 、带配体、离子的多组分复合体结构。该模型构建了首个“分子互动宇宙”,包含超过 10 亿种生物分子相互作用模式。
结构的可预测性使结构设计成为可能,药物筛选效率提升数十倍。在 KRAS G12C (原癌基因 KRAS 在第 12 个密码子处发生了单点突变)抑制剂设计中, AlphaFold3 揭示传统 X 射线晶体学无法捕捉的变构位点,助力美国安进公司开发出 Sotorasib 药物,将晚期肺癌患者生存期延长 6.2 个月。在新冠药物研发中, AlphaFold3 成功预测奥密克戎变异株刺突蛋白与血管紧张素转化酶 2 ( angiotensin converting enzyme2, ACE2 )受体的结合自由能变化,为广谱疫苗设计提供关键数据。这项技术使药物靶点发现周期从 3~5 年压缩至 6~8 个月。基于在蛋白质结构预测等领域的开创性贡献, DeepMind 公司的创始人戴密斯·哈萨比斯( Demis Hassabis ) 2024 年获得诺贝尔化学奖。
AI 在化学领域取得的其他重大成果
中国科学技术大学推出的“机器人化学家”
中国科学技术大学江俊教授团队自 2014 年起率先提出“机器人化学家”这一概念,于 2022 年成功研发全球首个数据智能驱动的“ AI 化学研究平台”,在软硬件层面全面超越欧美同类装置。这一平台通过数据驱动,构建数字化知识图谱,实现化学研究的端到端“闭环”: AI 提出假设→机器人验证→数据反馈→模型迭代,可用于新材料发现、催化剂优化、药物合成、能源材料(如制氢催化剂)等需要海量实验的复杂体系。
该系统将试错成本降低至传统方法的 1% ,突破人类认知, 7 × 24 小时持续拓展知识边疆,并能发现新规律。仅用 6 周时间就能完成人类化学家需 2000 年才能完成的计算量,成功研制出火星陨石中制氧的智能催化剂;在光催化制氢实验中, 1 天内完成 50 种催化剂的 1365 次实验迭代,效率提升 100 倍,验证了机器人化学家在复杂材料研发中的高效性;意外发现 2 种非经典路径的有机反应,被人工验证具有工业应用潜力。该成果被《科学》( Science )评价为“解决化学领域‘经验依赖困境’的关键路径”。目前该平台已开放部分云服务( ChemBrain Cloud ),全球研究者可提交研究需求。
Meta 分子图谱预测 100 万种反应路径
2022 年, Meta AI 发布 Molecular Transformer 模型,基于 Transformer 架构的分子图注意力机制,对有机反应的逆合成路径预测准确率达 98% ,实现逆合成分析的革命性突破。此模型的核心技术是将分子结构转换为简化分子线性输入规范( simplified molecular input line entry system, SMILES )字符串,通过多头注意力捕捉原子间的电子云相互作用,结合蒙特卡洛树搜索筛选最优路径。该模型在斯克利普斯研究所的验证中,成功规划出抗疟疾药物青蒿素的高效合成路线,步骤比传统方法减少 40% 。这一研究成果的潜在影响是,药物合成周期从平均 6 个月缩短至 2 周,据估算到 2030 年可推动全球化工业年产值增长 1200 亿美元。
生物
AI 驱动的 RNA 病毒发现模型 LucaProt [5]
在生物学领域,除 AlphaFold 3 外,人工智能已催生多项颠覆性突破,阿里云与中山大学联合研发的 LucaProt 模型是最具影响力的进展之一。这一突破不仅重构了病毒学研究范式,在基础科学认知与产业应用层面也产生了深远影响。 LucaProt 模型通过生物大模型 +Transformer 架构,突破传统序列比对局限,实现了通用特征提取和任务特定特征筛选两大核心功能。 AlphaFold 3 是做蛋白质结构预测,而 LucaProt 首次实现“病毒圈”系统性探索,填补了生命科学的一个关键空白。此项研究成果登顶国际顶级期刊《细胞》( Cell )封面 。
LucaProt 实现了病毒库扩容,从全球 10487 份环境样本中发现 180 个病毒超群(扩容 8 倍)和 161979 种 RNA 病毒(扩充 30 倍);发现史上最大 RNA 病毒(含 47250 个核苷酸),揭示病毒多样性的全新维度;证明传统方法仅能识别“冰山一角”, AI 可捕捉“暗物质”病毒,推动病毒圈认知边界外扩;新病毒检测成功率超 95% ,显著优于传统方法。此项成果可推动生物医药降本增效,有巨大的经济意义。 AI 技术可预测病毒抗原表位,优化信使核糖核酸( mssenger RNA, mRNA )序列设计,加速针对新发疫情的疫苗响应;通过靶点筛选、分子设计、毒性预测等环节,可将候选药物优化周期缩短 50% 以上。
DNA 序列 AI 模型 AlphaGenome
2003年,人 类基因组测序完成,让人类首次窥见了 DNA 的全貌。但如何破译这些指令,了解一个微小 DNA 变异如何改变生命轨迹,至今仍是生物学的未解之谜。 2025 年 6 月,谷歌 DeepMind 团队重磅发布 AlphaGenome 模型,彻底改写了这一局面。此模型标志着基因组学研究从“碎片化工具”迈向“统一智能解码”的新阶段,被 Nature 杂志评价为“基因组 AI 显微镜”。
AlphaGenome 大模型可一次读取 100 万个 DNA 碱基,并能以单个碱基的分辨率进行精细分析,预测基因变异如何改变分子的功能。人类基因约有 30 亿个碱基,但其中只有不到 2% 的序列,用于编码蛋白质,其余 98% 被称为基因组非编码区,它们对调控基因的活性至关重要,包含了大量与疾病相关的变异位点。许多罕见的遗传性疾病,如脊髓性肌萎缩和某些类型的囊性纤维化等,病因就可能源于 RNA 剪接过程的错误。 AlphaGenome 首次实现了直接从 DNA 序列出发,预测剪接点,并将其用于变异效应预测。这为深入理解遗传变异对 RNA 剪接的后果提供了前所未有的视角。
蛋白质结构预测系统 ESMFold 等其他重大成果
2022 年, Meta AI 公司发布了基于大型语言模型的蛋白质结构预测系统 ESMFold ,首次展示了无需多序列比对( multiple sequence alignment, MSA )即可准确预测蛋白质三维结构的能力,极大提升了预测速度和适用性。 ESMFold 仅使用单个蛋白质的氨基酸序列,依靠 Transformer 模型中的上下文表示,就能预测蛋白质结构,速度比 AlphaFold 2 快 60 倍,预测一个蛋白仅需几秒钟,适用于大规模筛选。 Meta AI 公司使用 ESMFold 对 6 亿多个未知蛋白质序列进行了结构预测,并构建了一个“蛋白质宇宙图谱”( Protein Universe Atlas ),其中包含大量前所未见的蛋白质折叠方式。这是人类历史上最大规模的蛋白质结构预测项目,预测结果已开放共享,有望极大促进新型酶、疫苗、抗生素等领域的发现 , 有助于揭示微生物、极端环境生物中的未知功能蛋白质,可能带来生物科技新突破。 ESMFold 可以处理“孤儿蛋白”( orphan protein ),即没有同源序列的新发现蛋白质,填补了 AlphaFold 的盲区。它不仅提高了预测速度和覆盖面,还大幅拓展了我们对未知蛋白质世界的理解,被视为是继 AlphaFold 之后, AI 在生命科学中的又一标志性突破。
AI 不仅能辨别结构,还能创造“自然进化未触及”的功能分子,让生物工程进入“超自然”时代。 2025 年 1 月,使用 ESM-3 ( Evolutionary Scale from Meta-3 )模型,研究团队通过模拟 5 亿年的“进化过程”,设计出一种自然界不存在、序列与最近天然蛋白质相似率仅 58% ,但可在实验室中正常发光的人工蛋白质——全新型荧光蛋白 ESMGFP 。
笔者在许多场合都强调智能化科研( AI for Research, AI4R ),这是因为人工智能不但能驱动纯基础研究( AI4S ),而且能带动应用基础研究、前沿高技术研究的范式变革,甚至改变工程科学研究的方式。鉴于 AI4S 这一术语已广泛流行,本文也采用 AI4S 这一术语,但它的含义已经扩大到 AI for Research 。下面几节都是 AI 在技术研究领域的里程碑式突破。
材料
减少 70% 锂用量的新型固态电池电解质材料
目前电动汽车采用的锂电池大多是液态电解质,容易发生爆炸和燃烧,而且锂是一种较稀少的材料,供应链有风险,全球都在研发减少锂使用量的固态电池。 2024 年,微软公司联合美国能源部西北太平洋国家实验室( Pacific Northwest Nat ional Laboratory, PNNL )发布重大成果,他们采用人工智能与高性能计算技术,在微软 Azure Quantum Elements 平台只花了不到 80 h 就模拟了 3200 万种材料组合,将候选范围缩小至 18 种(若采用传统方法需耗时 20 年以上)。随后 PNNL 团队依托自动化实验平台完成从前驱体到原型纽扣电池的合成与测试,合成了最佳候选物——一种氯化锂钠钇材料(代号 N2116 )。这种材料相较于其他业界领先的固态电解质,锂含量减少了约 70% 。现在基于新材料的电池已能点亮灯泡,也许经过 3~5 年的努力,就可以大规模产业化。若能成功商用,将推动电动汽车成本下降 30%~40% ,大大缓解锂资源短缺风险。这一突破不仅可能重塑电池行业,更标志 AI 驱动的材料科学革命进入实质应用阶段。传统材料发现和验证常以“年”为单位; AI + HPC + 自动化实验把闭环压缩到“周”级,展示了人工智能技术的强大威力。微软的这一平台已用于碳捕获吸附剂和催化剂筛选,预示未来能源材料(钠 / 锌电池、氢储存、燃料电池 膜等)可进入“计算−合 成−表征”高速循环,为新能源技术迭代按下了“倍速键”。
AI 预测高温超导材料氢化镧 [6]
超导技术在电力传输、磁悬浮列车和量子计算机等领域有巨大的应用潜力,是各国竞相争夺的前沿高技术,但找到常温常压下的超导材料非常困难,科技界已经努力了几十年。 2025 年,谷歌公司 DeepMind 团队与芝加哥大学合作,采用人工智能模型在高温超导材料领域取得突破性进展。该团队利用 AI 模型筛选出的氢化镧( LaH 10 ),在高压下具有接近室温超导特性,后续实验验证其在− 23 ° C 、 170 GPa 的条件下实现超导,这是目前已知的实现超导的最高温度纪录。这一研究成果推动了高温超导理论从经典巴丁− 库珀− 施里弗( Bardeen-Cooper-Schrieffer, BCS )理论向量子效应主导的新范式转变,首次明确原子核量子波动对高温超导稳定性的贡献,为设计新型量子材料提供理论依据。这一研究也突破传统“试错法”耗时瓶颈, AI 模型将传统试错法效率提升 10 倍以上,显著缩短了研发周期。新高温超导材料的发现推动凝聚态物理研究进入“ AI 预测 + 实验验证”、 AI 与量子物理交叉研究的新范式,为材料基因组计划提供了技术支撑。通过结合量子模拟与机器学习,研究团队不仅揭示了氢化镧的高温超导之谜,更为设计下一代室温超导材料开辟了新路径。这一成果标志着材料科学正在向“理性设计”时代跨越。
AI 在材料领域的其他重大成果
劳伦斯伯克利国家实验室与谷歌公司 DeepMind 合作的 A-Lab 系统,正在重塑材料研发流程。该平台集成机器人合成、高通量表征和 AI 决策引擎,可自主完成“假设生成−实验验证−结果分析”闭环。在 6 个月的无人值守运行中, A-Lab 成功发现 41 种新型无机化合物,包括高压相氮化钛超导体,其超导临界温度达 40 K ,较传统方法提升 60% 。该系统的核心突破在于“逆向设计”能力:通过生成对抗网络( generative adversarial network, GAN )提出突破常规的材料组合,再利用贝叶斯优化指导实验合成。在钙钛矿太阳能电池材料研发中, A-Lab 发现的新型 FAPbI3 变体将光电转换效率提升至 32.8% ,刷新世界纪录。这项技术使新材料发现成本降低 90% ,研发周期从数年缩短至数周。
2023 年 11 月, DeepMind 与 劳伦斯伯克利国家实验室合作推出材料发现系统 GNoME ( Generative Network for One Million Elements ),短时间内生成并验证了超过 220 万种新晶体材料,其中 71% 通过机器人实验证实为可稳定合成的晶体材料,新发现的晶体材料已公开,供全球科研者共享。
制药与医疗
至 2024 年,全球累计有上百种 AI 设计的新药进入临床试验阶段,覆盖纤维化、肿瘤、抗感染等领域,但尚未有 AI 设计的药物完成全部临床阶段获批上市。
有望成为全球首个上市的 AI 原创新药: INS018_055 ( Rentosertib ) [7]
有望全球最先上市的 AI 原创新药是英矽智能科技(上海)有限公司研发的,该公司是一家跨国运营的 AI 制药企业,其法律实体注册于上海,总部设在香港,技术起源于美国,在全球多个地区布局了研发团队,拥有超过 150 位资深科学家和 AI 研发人员。公司从成立之初便聚焦于利用生成式 AI 、量子计算等前沿技术重构药物研发流程。英矽智能自主研发了 Pharma.AI 平台,涵盖三大核心模块:靶点发现引擎、分子生成与优化工具,临床试验预测系统。该平台实现了从靶点发现到临床试验的全流程覆盖,将传统药物研发周期从平均 4.5 年缩短至 18 个月,显著提升了效率。
英矽智能研制了多款 AI 新药,其中一款 INS018_055 (通用名: Rentosertib )已进入临床二期,这是目前全球唯一进入临床二期的 AI 新药。这款新药用来治疗一种慢性、进行性、致命的肺部疾病——特发性肺纤维化( idiopathic pulmonary fibrosis, IPF )。英矽智能的 Pharma.AI 平台生成 80 个候选分子即锁定高选择性抑制剂,而传统方法需合成数千分子。此药的研发破除了“ AI 仅限于早期研发”的质疑。 2025 年 INS018_055 新药 IIa 期试验结果发表于《自然·医学》,显示药物在双盲、安慰剂对照试验中初步验证了新药的安全性和有效性。若Ⅲ期试验顺利,该药物有望在 2026 — 2027 年上市,开启 AI 制药的新纪元。
结合 AI 与物理模型的 Hermite 药物设计平台
北京深势科技有限公司推出的 Hermite 药物设计平台是目前在 AI 驱动药物研发领域最具影响力的研发平台之一,尤其是在分子建模和量子力学层面的精确模拟方面具有世界领先的技术。此平台覆盖了从分子设计、构象采样到自由能计算的全流程 Deep Potential 方法已被国际认可,曾登上 Nature 封面。 Hermite 已服务中国和海外的多家创新药企,已用于多个临床前药物研发。 Hermite 在设计人类免疫缺陷病毒( human immunodeficiency virus, HIV )药物过程中,通过 AI 模拟计算出最佳构象,达到实验验证的精度,明显缩短研发周期。应用于多靶点抗肿瘤药物设计,如 KRAS 、 EGFR 等“难成药”靶点, Hermite 给出了多个候选结构已进入药企验证阶段。
乳腺癌早期的医疗平台 Med-PaLM 2
斯坦福大学与谷歌研究院联合开发的 Med-PaLM ,在乳腺癌早期诊断中创造历史。该模型通过分析 3000 万份电子病历和 100 万张病理切片,建立多模态疾病预测框架。在双盲测试中,其灵敏度达 97.3% ,较人类专家提升 3 倍,漏诊率从 9.4% 降至 2.7% 。模型通过联邦学习实现跨机构数据协作,在保护患者隐私的同时完成了知识蒸馏。
在临床应用中, Med-PaLM 2 已部署于全球 50 余家医疗机构。在梅奥诊所的实际筛查中,模型提前 18 个月预测出阿尔茨海默病风险,使干预窗口期延长 4 倍。这项技术标志着医疗 AI 从“辅助诊断”向“主动健康管理”的范式转变,相关算法框架正拓展至心脏病、肿瘤等 200 余种疾病领域。
集成电路设计
“启蒙 2 号”处理器芯片全自动设计大模型 [8]
高端集成电路(芯片)是人类设计的最复杂的产品,芯片设计是科技界的皇冠明珠,传统设计需要耗时数月甚至数年,极具挑战性。芯片硬件设计包含逻辑设计、电路设计、物理设计等多个关键步骤。由于芯片设计要求的可靠性极高,人们往往认为容易出现“幻觉”的生成式人工智能技术难以在芯片设计中发挥作用。但是,中国科学院计算技术研究所推出的高端处理器芯片全自动设计系统打破了这一传统观念。
2022 年 5 月,中国科学院计算技术研究所成功地利用人工智能技术设计出全球首款全自动生成的 32 位 RISC-V CPU ——“启蒙 1 号”。设计周期缩短至传统设计方法的 1/1000 ,仅用 5 h 就生成了 400 万逻辑门,全自动芯片设计的规模远超国外同行。 2025 年 6 月,中国科学院计算技术研究所和软件研究所联合发布“启蒙 2 号”系统,全系自动设计的 RISC-V CPU 芯片规模已达到 1700 万个逻辑门,性能与 ARM Cortex A53 相当,并能为芯片自动配置操作系统、编译程序、高性能算子库,完成芯片硬件到系统软件的全链条全自动设计,性能优于人类专家设计水平。其中, CodeV-R1 在 Verilog 硬件代码生成领域,可训练参数已达到 70 亿( 7B 量级)个,这是当前国际最优水平。这项研究有望改变处理器芯片软硬件的设计范式,不仅能大幅提升设计效率、缩短设计周期,同时可以针对特定应用场景需求实现快速定制化设计,灵活满足芯片设计日益多样化的需求。
AI 协助的通用进化式编程代理 AlphaEvolve
2025年5 月,谷歌公司 DeepMind 团队发布 AI 芯片设计系统 AlphaEvolve ,用于自动生成和优化芯片的电路结构与布图。 AlphaEvolve 融合了 Gemini 大语言模型与自动评估器,通过“变异—测试—选择”的进化循环,自动生成、验证并迭代芯片设计。谷歌采用强化学习算法优化 TPUv5 芯片的布局布线,使布线效率提升 60% ,芯片功耗降低 40% ,算力密度提升 30% ,设计周期从人类专家的数周压缩至数小时。
传统电子设计自动化( electronic design automation, EDA )工具依赖人的经验和规则, AlphaEvolve 引入“ AI 创新建议”模式,有望取代部分规则设计模块,为低功耗、高性能芯片设计提供实质支持,将推动全球设计生态更新迭代。 AI 辅助设计 EDA 工具已经成为发展趋势。据台积电数据, AI 优化后的设计在首次流片中成功率提升 20% 以上。估计 2025 年 AI 辅助设计将使芯片流片次数减少 40% ,年节省研发费用超 50 亿美元。
AI4AI
人工智能的递归自我进化( recursive self-evolution of AI itself, AI4AI ) 是指 AI 系统具备设计、优化、甚至训练下一代更强 AI 的能力,从而形成持续的“智能跃迁”链条,也被称为 AI4AI 。有些学者认为这是实现“超级人工智能( artificial super intelligence, ASI )的核心路径。目前已实现“ AI 辅助设计 AI ”第一阶段,正在探索第二阶段“自我设计与优化”,直接利用 AI 生成神经网络结构和训练策略,下一步的目标是用现在的 AI 系统主动设计比自身更强的 AI 系统。
谷歌公司 DeepMind 团队 2023 年推出的 AlphaCode 2 自动编程系统是 AI4AI 标志性成果,能在无需人类干预的情况下,阅读自然语言任务描述,自动生成、测试、优化并重写复杂算法代码,在编程竞赛中胜过 99.5% 的人类程序员,它标志着 AI 系统已开始胜任编写下一代 AI 的部分任务。 DeepMind 团队明确表示:“这是一条通往 AI 帮助构建更强 AI 的路线。”
在此之前的 2000 年,谷歌公司 Brain 团队推出的 AutoML-Zero 是 AI4AI 的“理论胚胎”。它能从几乎空白的指令集合开始,通过进化算法,让 AI 自动发现学习规则、模型结构和训练方法。算法从最简单的线性模型开始,可逐步“进化”出随机梯度下降( stochastic gradient descent, SGD )、梯度归一化、双线性模型等复杂技术。 AutoML-Zero 证明了 AI 可从基础规则中自发涌现复杂智能。 AutoML-Zero 是 AI 起源的概念性实验成果,还不具备工程实用性。
由于笔者认识和检索能力的局限性,可能遗漏了一些 AI for Science 的重大成果。 AI 技术发展日新月异,今后肯定会不断地冒出新的重大成果,也许再过几个月,这篇综述文章就过时了。但上述成果已经足以显示 AI4S 前所未有的威力和改变世界的巨大潜力,上述里程碑式的重大成果在人类科技发展史上会留下痕迹。
AI for Science 的巨大潜力和挑战
充分认识 AI for Science 的巨大潜力
AI for Science 正在推动科技进入加速发展的新时代,知识创造的速度将呈现指数级增长,基础研究体系必将重构,有可能引发新一轮科技革命,甚至带动第四次工业革命。总的来讲,我国科技界对这一场即将到来的科研范式变革的认识还不到位,还有不少学者对人工智能的巨大潜力持怀疑态度。我们必须摆脱“还原论”的思想束缚,发展新的认知理论,从人机协作的高度深刻理解当前人工智能的“不可解释性”,将大模型的“幻觉”改造成科学发现的源泉,开拓基础研究的新局面。
科技界一些先行者有敏锐的“嗅觉”,已经预感到人工智能在科学发现上会做出意想不到的贡献。菲尔兹奖得主、著名数学家陶哲轩最近给出预测:
1 ) 2026 年, AI 将成为数学家的好帮手,成为值得信任的数学研究者;
2 ) 10 年内, AI 将提出重要数学猜想,数学界的“ AlphaGo ”时刻到来;
3 )菲尔兹奖这样的顶尖成果,对 AI 而言,不过是时间问题,不是能力问题。
以 Transformer 为代表的第三波人工智能,目前主要是实现技术突破,并未刻意模拟人脑,但其数学结构(注意力、层次化向量表征等)客观上触及了认知功能的某些抽象原则。也有人认为,目前的人工智能技术是一种非常粗糙但意外有效的“神经信息处理的近似模型”。 Transformer 可能意外地“激发了人类认知方式的一个向量近似空间”。 Transformer 的向量空间是统计驱动的,而人脑的语义表征可能融合感知、运动、情感等多模态信号。两者路径不同,但最终可能收敛到某种高效的语义编码方式。
技术发展领先于理论的现象具有规律性。历史上的蒸汽机、电动机的发展表明,技术实践可通过试错和工程创新领先于科学,快速取得突破。技术走在理论前面是可能的,而且是科学技术进步的常见路径,其根源在于实践需求的紧迫性、认知过程的阶段性及理论发展的滞后性。我们不能因为暂时“不知其所以然”就忽视技术的发展,当然也不能停留在技术攻坚层次,同时要致力于基础理论探索,理论突破最终会将技术推向更通用更完善的新高度。
发展 AI for Science 仍面临巨大挑战
由于对人工智能的估计过于乐观,历史上曾导致人工智能两次进入寒冬。近几年媒体上也有不少对人工智能做出非常乐观的预测。可能是基于商业利益的考虑,一些龙头企业的负责人在鼓吹 2 年内就会实现通用人工智能。也有一些学者预言人工智能 10 年内能治愈所有的疾病。一些奇点理论家、未来学家认为, AI 的递归自我改进能力将改变技术发展范式,人工智能将是人类发明的最后一项技术。这些预测并没有充分的科学依据。实际上,和其他技术一样,人工智能技术也有其局限性, AI for Science 的发展仍面临巨大的挑战。
目前 AI for science 的标志性成果大多是在指数爆炸的解空间中,通过压缩维度和模式识别,发现可行解或相对最优解,出人意料的结果给人“偶然”发现的感觉。但这种“偶然”不是纯粹的随机撞大运,而是建立在强大的表示学习、策略搜索、以及巨大算力和数据之上的“系统性搜索”。它是一种受控的、可复现的技术性偶然。但这种“搜索解空间”的技术路线也有明显的局限性。 AI 能找到最优解,通常前提是:已经定义了良好的“目标函数”,能获得高质量训练数据或可模拟环境, AI 的预测能力高度依赖训练数据的分布。 AI 模型常常只在“训练分布”内表现优异,一旦数据分布超出边界,预测能力就会显著下降。若科学问题的解空间未被充分采样(如极端物理条件、罕见化学反应), AI 可能无法泛化。目前 AI for Science 最受人诟病的还是缺乏可解释性。 AI 模型可能找到了一个最优策略,但 不能告诉我们为什么。这就限制了科学理解的深化和理论的推广与泛化。正如诺贝尔物理学奖得主弗兰克·维尔切克( Frank Wilczek )所言:“ AI 最好的角色是充当科学 家的‘灵感喷射器’,但它仍需人类去理解‘为什么’”。
真正的理论性科学发现,需要识别决定系统行为的核心变量,刻画变量之间的确定性或统计因果关系,构造简洁的数学形式表达。从目前的技术趋势看, AI 正处于从“经验性工具”向“理论性发现者”过渡的门槛期。 AI 在复杂系统中识别模式的能力远超人类,但在变量构造、因果理解、理论表达方面与人类还有相当大的距离。目前 AI 还无法自主提出具有跨学科意义的科学问题,也缺乏“直觉跳跃”能力,其“创新”多为已有知识的重组。短期内 AI 更适合作为“超级显微镜”扩展人类科学家的探索边界,而非独立发现规律。今后若能在可解释性和因果建模上取得突破, AI 有可能参与重构科学理论。在相当长的时间内, AI 无法替代科学家的核心能力−提出“好问题”与构建“大理论”。未来科研范式将是“ AI+ 人类”的共生系统: AI 负责解空间的遍历与优化,人类负责规律的提炼与升华。这不仅是技术挑战,更是一次认知范式的跃迁。
1 在 2025 年 7 月举行的国际数学奥林匹克竞赛( IMO )中, Google DeepMind 公司和 OpenAI 公司的大模型都达到了金牌级水平
参考文献
[1] Alberto Alfarano, François Charton, Amaury Hayat. Global Lyapunov Functions: A Long-Standing Open Problem in Mathematics, with Symbolic Transformers[C]// Advances in Neural Information Processing Systems 37. New York: Curran Associates, 2024: 93643−93670.
[2]Alhussein Fawzi, Matej Balog, Aja Huang, et al. Discovering Faster Matrix Multiplication Algorithms with Reinforcement Learning[J]. Nature, 2022, 610(7930): 47−53.
[3]Jaemin Seo, SangKyeun Kim, Azarakhsh Jalalvand, et al. Avoiding Fusion Plasma Tearing Instability with Deep Reinforcement Learning[J]. Nature, 2024, 626: 746−751.
[4]John Jumper, Richard Evans, Alexander Pritzel, et al. Highly Accurate Protein Structure Prediction with Alphafold[J]. Nature, 2021, 596: 583−589.
[5]Xin Hou, Yong He, Pan Fang, et al. Using Artificial Intelligence to Document the Hidden RNA Virosphere[J]. Cell, 2024, 187(24): 6929−6942. e16.
[6]M. I. Eremets, V. S. Minkov, A. P. Drozdov, et al. High-Temperature Superconductivity in Hydrides: Experimental Evidence and Details[J]. Journal of Superconductivity and Novel Magnetism, 2022, 35(4): 965−977.
[7]Nupur Gupta, Jay B. Wish. Hypoxia-Inducible Factor Prolyl Hydroxylase Inhibitors: A Potential New Treatment for Anemia in Patients with CKD[J]. American Journal of Kidney Diseases, 2017, 69(6): 815−826.
[8]Rui Zhang, Yuanbo Wen, Shuyao Cheng, et al. QiMeng: Fully Automated Hardware and Software Design for Processor Chip[EB/OL]. (2025−06−05)[2025−07−14]. https://arxiv.org/html/2506.05007v1.
李国杰
CCF名誉理事长、会士, CCCF 前主编。中国工程院院士。中国科学院计算技术研究所研究员。主要研究方向为计算机体系结构、并行算法、人工智能、计算机网络、信息技术发展战略。lig@ict.ac.cn
引用格式
中文引用格式: 李国杰. AI4S 里程碑式重大成果综述[J]. 计算, 2025, 1(4): 6−15.
英文引用格式: Guojie Li. Review of Landmark Achievements in AI for Science[J]. Computing Magazine of the CCF, 2025, 1(4): 6−15.


共有 0 条评论