首页资讯

WAIC 2025大黑马,一个「谢耳朵AI」如何用分子式超越Grok-4

时间:2025-07-29 22:08 作者:十点听风

WAIC 2025大黑马,一个「谢耳朵AI」如何用分子式超越Grok-4



机器之心发布

机器之心编辑部

当马斯克的 Grok-4 还在用 “幽默模式” 讲冷笑话时,中国的科学家已经在用书生 Intern-S1 默默破解癌症药物靶点的密码 —— 谁说搞科研不能又酷又免费?

自从去年 AI 预测与设计蛋白质结构获得诺贝尔奖,AI for Science 这一领域关注度达到了新高度。

特别是近两年在大模型强大能力加持下,我们期待能够出现帮助我们作科研的 AI 利器。

现在,它来了。

7月26日,上海人工智能实验室(上海AI实验室)发布并开源『书生』科学多模态大模型Intern-S1,多模态能力全球开源第一,文本能力比肩国内外一流模型,科学能力全模态达到国际领先,作为融合科学专业能力的基础模型,Intern-S1综合性能为当前开源模型中最优。



基于 Intern-S1 的『书生』科学发现平台 Intern-Discovery 亦于近日上线,助力研究者、研究工具、研究对象三者能力全面提升、协同演进,驱动科学研究从团队单点探索迈向科学发现 Scaling Law 阶段。

中国开源模型通过算法优化(如动态精度调节、MoE架构)和开源协作生态,在性能接近甚至超越国际上领先闭源模型的同时,大幅降低算力需求。如,DeepSeek-R1以开源模式对标OpenAI的闭源o1模型,凭借独创的强化学习技术和群组相对策略优化(GRPO),在数学推理等任务上达到相近性能,但训练成本远低于后者;Intern-S1在科学推理任务上超越xAI的Grok 4,同时训练算力消耗仅为Grok 4的1%,展现了更高的计算效率。

性能领先的开源科学多模态模型

重构科研生产力

Intern-S1以轻量化训练成本,达成科学/通用双维度性能突破。

在综合多模态通用能力评估上,Intern-S1 得分比肩国内外一流模型,展现跨文本、图像的全面理解力。该评估为多项通用任务评测基准均分,证明其多场景任务中的鲁棒性与适应性,无惧复杂输入组合挑战。

在多个领域专业评测集组成的科学能力评测中,Intern-S1领先Grok-4等最新闭源模型。评测覆盖了物理、化学、材料、生物等领域的复杂专业任务,验证了模型在科研场景的强逻辑性与准确性,树立行业新标杆。







当大模型在聊天、绘画、代码生成等场景中持续取得突破时,科研领域却仍在期待一个真正“懂科学”的AI伙伴。尽管当前主流模型在自然语言处理、图像识别等方面表现出色,但在面对复杂、精细且高度专业化的科研任务时,依然存在明显短板。一方面,现有开源模型普遍缺乏对复杂科学数据的深度理解,难以满足科研场景对精度、专业性和推理能力的严苛要求。另一方面,性能更强的闭源模型存在部署门槛高、可控性弱等问题,导致科研工作者在实际应用中常面临高成本、低透明的现实挑战。

在2025世界人工智能大会(WAIC 2025)科学前沿全体会议上,上海AI实验室发布了『书生』科学多模态大模型Intern-S1。该模型首创“跨模态科学解析引擎”,可精准解读化学分子式、蛋白质结构、地震波信号等多种复杂科学模态数据,并具备多项前沿科研能力,如预测化合物合成路径,判断化学反应可行性,识别地震波事件等,真正让 AI 从“对话助手”进化为“科研搭档”,助力全面重构科研生产力。

得益于强大的科学解析能力,Intern-S1在化学、材料、地球等多学科专业任务基准上超越了顶尖闭源模型Grok-4,展现出卓越的科学推理与理解能力。在多模态综合能力方面,Intern-S1同样表现亮眼,全面领先InternVL3、Qwen2.5-VL等主流开源模型,堪称“全能高手”中的“科学明星”。

基于Intern-S1强大的跨模态生物信息感知与整合能力,上海AI实验室联合临港实验室、上海交通大学、复旦大学、MIT等研究机构协同攻关,共同参与构建了多智能体虚拟疾病学家系统——“元生”(OriGene),可用于靶标发现与临床转化价值评估,已在肝癌和结直肠癌治疗领域上分别提出新靶点GPR160和ARG2,且经真实临床样本和动物实验验证,形成科学闭环。

体系化的技术创新为Intern-S1的能力突破提供了有效支撑。自书生大模型首次发布以来,上海AI实验室已逐步构建起丰富的书生大模型家族,包括大语言模型书生·浦语InternLM、多模态模型书生·万象InternVL、强推理模型书生·思客 InternThinker等。Intern-S1融合了『书生』大模型家族的优势,在同一模型内实现了语言和多模态性能的高水平均衡发展,成为新一代开源多模态大模型标杆。

Intern-S1在国际开源社区引发了关注,不少知名博主纷纷为其点赞,并称“几乎每天都能看到来自中国的新开源Sota成果——纪录每天都在被刷新。”





创新科学多模态架构,深度融合多种科学模态数据

受数据异构性壁垒、专业语义理解瓶颈等因素制约,传统的通用大模型在处理科学模态数据时面临显著挑战。为了更好地适应科学数据,Intern-S1新增了动态Tokenizer和时序信号编码器,可支持多种复杂科学模态数据,实现了材料科学与化学分子式、生物制药领域的蛋白质序列、天文巡天中的光变曲线、天体碰撞产生的引力波信号、地震台网记录的地震波形等多种科学模态的深度融合。通过架构创新,Intern-S1还实现了对科学模态数据的深入理解与高效处理,例如,其对化学分子式的压缩率相比DeepSeek-R1提升70%以上;在一系列基于科学模态的专业任务上消耗的算力更少,同时性能表现更优。



“通专融合”合成科学数据,一个模型解决多项专业任务

科学领域的高价值任务往往高度专业化,不仅模型输出可读性差,且不同任务在技能要求与思维方式上差异显著,直接混合训练面临此消彼长的困境,难以实现能力的深度融合。为此,研究团队提出通专融合的科学数据合成方法:一方面利用海量通用科学数据拓展模型的知识面,另一方面训练众多专业模型生成具有高可读性、思维路径清晰的科学数据,并由领域定制的专业验证智能体进行数据质量控制。最终,这一闭环机制持续反哺基座模型,使其同时具备强大的通用推理能力与多项顶尖的专业能力,真正实现一个模型解决多项专业任务的的科学智能突破。



联合优化系统+算法,大规模强化学习成本直降10倍

当前,强化学习逐渐成为大模型后训练的核心,但面临系统复杂度和稳定性的重重挑战。得益于训练系统与算法层面的协同突破,Intern-S1研发团队成功实现了大型多模态MoE模型在FP8精度下的高效稳定强化学习训练,其强化学习训练成本相比近期公开的MoE模型降低10倍。

在系统层面,Intern-S1研究团队采用了训推分离的RL方案,通过自研推理引擎进行FP8高效率大规模异步推理,利用数据并行均衡策略缓解长思维链解码时的长尾现象;在训练过程中同样采用分块式FP8训练,大大提升训练效率。后续,训练系统也将开源。

在算法层面,基于Intern·BootCamp构建的大规模多任务交互环境,研究团队提出Mixture of Rewards混合奖励学习算法,融合多种奖励和反馈信号,在易验证的任务上采用RLVR训练范式,通过规则、验证器或者交互环境提供奖励信号;在难验证的任务上(如,对话和写作任务)采用奖励模型提供的奖励信号进行联合训练。同时,训练算法还集成了上海AI实验室在大模型强化学习训练策略上的多项研究成果,实现了训练效率和稳定性的显著提升。



工具链全体系开源,免费开放

打造更懂科学的AI助手

书生大模型自2023年正式开源以来,已陆续迭代升级多个版本,并持续降低大模型应用及研究门槛。书生大模型首创并开源了面向大模型研发与应用的全链路开源工具体系,覆盖数据处理、预训练、微调、部署、评测与应用等关键环节,包含低成本微调框架XTuner、部署推理框架LMDeploy、评测框架OpenCompass、高效文档解析工具MinerU,以及思索式AI搜索应用MindSearch等在内的核心工具全面开源,已形成涵盖数十万开发者参与的活跃开源社区。

近期,上海AI实验室进一步开源了多智能体框架Intern·Agent,可广泛应用于化学、物理、生物等领域的12种科研任务,在大幅提升科研效率的同时,亦初步展现出多智能体系统自主学习、持续进化的潜力,为人工智能自主完成算法设计、科学发现等高端科研任务开辟了全新探索路径。

基于Intern-S1的『书生』科学发现平台Intern-Discovery亦于近日上线,助力研究者、研究工具、研究对象三者能力全面提升、协同演进,驱动科学研究从团队单点探索迈向科学发现Scaling Law阶段。

未来,在研究范式创新及模型能力提升的基础上,上海AI实验室将推进Intern-S1及其全链条工具体系持续开源,支持免费商用,同时提供线上开放服务,与各界共同拥抱更广阔的开源生态,携手打造更懂科学的AI助手。



Top

1、30金27银17铜!教育部向大运会中国体育代表团致贺信,全运会体育代表团名单

2、郭明錤:特斯拉AI6芯片预计用三星2nm工艺,特斯拉model 3芯片

3、四川4名自驾游客误入青海冷湖无人区,被困2天后获救,青海冷湖属于哪个州

小编推荐

当前文章:http://www.share.tuanjian7.cn/SSD/detail/hqihoj.html

相关阅读

网友评论

我要评论

发表
取消

十点听风