问题——科学研究对智能模型提出更高门槛。当前,大模型通用语言理解与生成上进展迅速,但科研场景长期面临“数据形态多、专业语义深、流程链条长”的难题。分子结构、基因序列、遥感与地球物理数据、材料表征图谱等信息各有表达体系,跨学科任务往往还要求模型检索、推理、计算与实验设计之间形成闭环协同。如何让模型既懂自然语言,又能理解科学图像与时序信号,并在复杂科研流程中稳定执行,成为推动科研智能化落地的关键瓶颈。 原因——跨领域复杂度倒逼模型容量与工程体系升级。上海AI实验室研究团队指出,多学科科学知识的组织方式与一般文本知识不同,专业符号体系更密集、约束更强、推理链更长,单一领域模型的容量与表示能力难以同时覆盖多个学科任务。团队基于对多领域任务的对比观察认为,面向多学科的科学模型在参数规模上需要显著扩容,才能容纳跨领域的知识表示与推理能力。在该判断下,研究团队将模型扩展至万亿参数规模,并将其定位为科学多模态基础模型,强调在通用能力之外强化科学理解、科学推理与工作流执行能力。 影响——为科研“通用底座+专业工具链”提供新路径。公开信息显示,Intern-S1-Pro可同时处理自然语言文本、科学图像以及时间序列等数据形态,并具备一定的任务规划与执行能力,可用于支持复杂科学工作流程。在任务覆盖上,该模型面向化学、材料科学、生命科学、地球科学等方向的多类评测与应用场景,宣称在百余项专业科学任务中表现突出。这类能力组合的意义在于:一上,有望降低跨学科信息整合成本,缩短研究人员数据清洗、特征提取与初步分析上的时间;另一上,为“从问题提出—文献与数据汇聚—建模与推理—方案生成—验证与迭代”的链式科研流程提供统一的底层能力,有助于推动科研从单点工具辅助向流程化、系统化协同演进。 对策——以架构创新提升万亿级训练可控性与效率。万亿参数模型的难点不仅在“做大”,更在“稳定可用”。研究团队围绕大规模扩展带来的训练不稳定、资源利用不均等问题提出工程化解决思路。其一,通过“专家扩展”路径进行规模提升,并引入分组路由机制,将专家模块按组均匀分配,在任务激活时从各组选择合适专家协同工作,以减轻负载集中导致的效率损耗与性能波动。其二,通过引入直通估计器等训练策略,在保持前向计算稀疏激活、提高推理与训练效率的同时,尽可能让更多专家在反向学习阶段获得有效梯度信号,避免“部分专家学不到、能力分化加剧”的问题。公开对比结果显示,这类负载均衡与训练信号设计在大规模扩展中对性能稳定具有显著作用:在相近扩展设置下,采用改进机制的方案能够维持甚至略超基准表现,而传统做法可能出现明显退化。总体看,这些设计指向同一目标:让超大模型从“参数规模领先”走向“可训练、可复现、可部署”。 前景——科研智能化进入“多模态+工作流”竞争阶段。业内普遍认为,科研场景的下一阶段不再仅比拼单项能力,而在于能否形成跨模态理解、严谨推理与工具调用的组合能力,并在真实科研流程中可控运行。随着科学数据持续增长与实验自动化、计算平台升级加速,科学大模型有望在药物发现、材料筛选、气候与地球系统研究、生命科学数据解析等领域释放更大价值。但同时也需看到,科研应用对可靠性与可解释性要求更高,模型输出必须与专业知识、实验与计算验证机制紧密衔接,避免“看似合理但不可验证”的结论进入决策链条。下一步,推动模型与科研机构的高质量数据资源、实验平台、计算软件与评测体系深度融合,建立可追溯的验证框架与持续迭代机制,将成为从实验室成果走向规模化应用的关键。
万亿参数模型不仅是技术突破,更预示着科研方式的变革。当机器能够理解科学逻辑,人类探索未知的能力将大幅提升。该成果表明:只有坚持原始创新与系统工程并重,才能在AI与基础学科的交叉领域取得领先。