机器之心 07月28日 07:11
全能高手&科学明星,上海AI实验室开源发布『书生』科学多模态大模型Intern-S1 | WAIC 2025
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

2025世界人工智能大会上,上海AI实验室发布并开源了“书生”科学多模态大模型Intern-S1。该模型融合了语言和多模态性能,富集多学科专业知识,重点强化了科学能力,是首个融合专业科学能力的开源通用模型,其综合性能最优。Intern-S1首创“跨模态科学解析引擎”,能精准解读化学分子式、蛋白质结构、地震波信号等复杂科学数据,并在多项科学任务上超越顶尖闭源模型Grok-4。此外,它还支持多种科学模态的深度融合,通过“通专融合”方法解决科学数据处理的挑战。在技术层面,Intern-S1实现了大规模强化学习的低成本高效训练,并构建了活跃的开源社区。上海AI实验室将持续开源Intern-S1及其工具体系,支持免费商用,助力科学研究迈向新阶段。

🌟 **首个开源科学多模态大模型Intern-S1:** 上海AI实验室发布的Intern-S1,是全球首个融合专业科学能力且开源的通用多模态大模型。它在语言和多模态能力上达到高水平平衡,并集成了多学科专业知识,旨在解决传统单一模态分析在科学发现中的局限性,为科研提供强大的AI伙伴。

🔬 **强大的跨模态科学解析能力:** Intern-S1的核心优势在于其“跨模态科学解析引擎”,能够精准理解和处理化学分子式、蛋白质结构、地震波信号等复杂的科学数据。这使得AI能够从“对话助手”进化为“科研搭档”,例如预测化合物合成路径、判断化学反应可行性、识别地震波事件等,显著提升科研效率和精度。

🚀 **超越顶尖模型的科学推理:** 在多项专业科学任务基准上,Intern-S1的综合性能超越了顶尖闭源模型Grok-4,尤其在化学、材料、地球科学等领域展现出卓越的科学推理和理解能力。同时,在多模态综合能力方面,它也全面领先其他主流开源模型,如InternVL3和Qwen2.5-VL,成为“全能高手”中的“科学明星”。

💡 **“通专融合”的数据合成与训练:** 为解决科学数据异构性和专业语义理解瓶颈,Intern-S1采用了“通专融合”的技术路线。通过合成通用科学数据和由专业模型生成的、具有高可读性的科学数据,并结合专业验证智能体进行质量控制,实现了模型既有强大的通用推理能力,又具备多项顶尖的专业能力,能够一个模型解决多项专业任务。

🌐 **坚持开源与社区共建:** 上海AI实验室坚持将Intern-S1及其全链条工具体系(包括数据处理、预训练、微调、部署、评测等)开源并免费商用。这一举措降低了AI在科研领域的应用门槛,并通过活跃的开发者社区,共同推动AI技术在科学发现中的创新与发展,构建更懂科学的AI助手。

7月26日,2025世界人工智能大会(WAIC 2025)正式开幕。在当天下午举行的科学前沿全体会议上,上海人工智能实验室(上海AI实验室)发布并开源『书生』科学多模态大模型Intern-S1

在科学发现过程中,传统的单一模态分析往往难以全面捕捉复杂现象,尤其是在跨学科领域的深度探索中更加显著。Intern-S1融合了书生大模型家族的优势,在同一模型内实现了语言和多模态性能的高水平均衡发展,并富集多学科专业知识,重点强化了科学能力,为首个融合专业科学能力的开源通用模型,其综合性能为当前开源多模态大模型中最优。


基于Intern-S1的『书生』科学发现平台Intern-Discovery亦于近日上线,助力研究者、研究工具、研究对象三者能力全面提升、协同演进,驱动科学研究从团队单点探索迈向科学发现Scaling Law阶

Intern-S1体验页面:

https://chat.intern-ai.org.cn/(点击文末阅读原文直达)

GitHub链接:

https://github.com/InternLM/Intern-S1

HuggingFace链接:

https://huggingface.co/internlm/Intern-S1-FP8

ModelScope链接:

https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1



更强大的开源科学多模态模型,重构科研生产力 当大模型在聊天、绘画、代码生成等场景中持续取得突破时,科研领域却仍在期待一个真正“懂科学”的AI伙伴。尽管当前主流模型在自然语言处理、图像识别等方面表现出色,但在面对复杂、精细且高度专业化的科研任务时,依然存在明显短板。一方面,现有开源模型普遍缺乏对复杂科学数据的深度理解,难以满足科研场景对精度、专业性和推理能力的严苛要求。另一方面,性能更强的闭源模型存在部署门槛高、可控性弱等问题,导致科研工作者在实际应用中常面临高成本、低透明的现实挑战。

Intern-S1首创“跨模态科学解析引擎”,可精准解读化学分子式、蛋白质结构、地震波信号等多种复杂科学模态数据,并具备多项前沿科研能力,如预测化合物合成路径,判断化学反应可行性,识别地震波事件等,真正让 AI 从“对话助手”进化为“科研搭档”,助力全面重构科研生产力。

得益于强大的科学解析能力,Intern-S1在化学、材料、地球等多学科专业任务基准上超越了顶尖闭源模型Grok-4,展现出卓越的科学推理与理解能力。在多模态综合能力方面,Intern-S1同样表现亮眼,全面领先InternVL3、Qwen2.5-VL等主流开源模型,堪称“全能高手”中的“科学明星”。

基于Intern-S1强大的跨模态生物信息感知与整合能力,上海AI实验室联合临港实验室、上海交通大学、复旦大学、MIT等研究机构协同攻关,共同参与构建了多智能体虚拟疾病学家系统——“元生”(OriGene),可用于靶标发现与临床转化价值评估,已在肝癌和结直肠癌治疗领域上分别提出新靶点GPR160和ARG2,且经真实临床样本和动物实验验证,形成科学闭环。

体系化的技术创新为Intern-S1的能力突破提供了有效支撑。自书生大模型首次发布以来,上海AI实验室已逐步构建起丰富的书生大模型家族,包括大语言模型书生·浦语InternLM、多模态模型书生·万象InternVL、强推理模型书生·思客 InternThinker等。基于“通专融合”的技术路线,上海AI实验室的研究团队通过持续的体系化技术创新,成功打造了Intern-S1,成为新一代模型标杆。

创新科学多模态架构,深度融合多种科学模态数据受数据异构性壁垒、专业语义理解瓶颈等因素制约,传统的通用大模型在处理科学模态数据时面临显著挑战。为了更好地适应科学数据,Intern-S1新增了动态Tokenizer和时序信号编码器,可支持多种复杂科学模态数据,实现了材料科学与化学分子式、生物制药领域的蛋白质序列、天文巡天中的光变曲线、天体碰撞产生的引力波信号、地震台网记录的地震波形等多种科学模态的深度融合。通过架构创新,Intern-S1还实现了对科学模态数据的深入理解与高效处理,例如,其对化学分子式的压缩率相比DeepSeek-R1提升70%以上;在一系列基于科学模态的专业任务上消耗的算力更少,同时性能表现更优。

“通专融合”合成科学数据,一个模型解决多项专业任务科学领域的高价值任务往往高度专业化,不仅模型输出可读性差,且不同任务在技能要求与思维方式上差异显著,直接混合训练面临此消彼长的困境,难以实现能力的深度融合。为此,研究团队提出通专融合的科学数据合成方法:一方面利用海量通用科学数据拓展模型的知识面,另一方面训练众多专业模型生成具有高可读性、思维路径清晰的科学数据,并由领域定制的专业验证智能体进行数据质量控制。最终,这一闭环机制持续反哺基座模型,使其同时具备强大的通用推理能力与多项顶尖的专业能力,真正实现一个模型解决多项专业任务的的科学智能突破。

联合优化系统+算法,大规模强化学习成本直降10倍当前,强化学习逐渐成为大模型后训练的核心,但面临系统复杂度和稳定性的重重挑战。得益于训练系统与算法层面的协同突破,Intern-S1研发团队成功实现了大型多模态MoE模型在FP8精度下的高效稳定强化学习训练,其强化学习训练成本相比近期公开的MoE模型降低10倍。

在系统层面,Intern-S1研究团队采用了训推分离的RL方案,通过自研推理引擎进行FP8高效率大规模异步推理,利用数据并行均衡策略缓解长思维链解码时的长尾现象;在训练过程中同样采用分块式FP8训练,大大提升训练效率。后续,训练系统也将开源。

在算法层面,基于Intern·BootCamp构建的大规模多任务交互环境,研究团队提出Mixture of Rewards混合奖励学习算法,融合多种奖励和反馈信号,在易验证的任务上采用RLVR训练范式,通过规则、验证器或者交互环境提供奖励信号;在难验证的任务上(如对话和写作任务)采用奖励模型提供的奖励信号进行联合训练。同时,训练算法还集成了上海AI实验室在大模型强化学习训练策略上的多项研究成果,实现了训练效率和稳定性的显著提升。

坚持开源,免费开放,打造更懂科学的AI助手书生大模型自2023年正式开源以来,已陆续迭代升级多个版本,并持续降低大模型应用及研究门槛。书生大模型首创并开源了面向大模型研发与应用的全链路开源工具体系,覆盖数据处理、预训练、微调、部署、评测与应用等关键环节,包含低成本微调框架XTuner、部署推理框架LMDeploy、评测框架OpenCompass、高效文档解析工具MinerU,以及思索式AI搜索应用MindSearch等在内的核心工具全面开源,已形成涵盖数十万开发者参与的活跃开源社区。

近期,上海AI实验室进一步开源了多智能体框架Intern·Agent,可广泛应用于化学、物理、生物等领域的12种科研任务,在大幅提升科研效率的同时,亦初步展现出多智能体系统自主学习、持续进化的潜力,为人工智能自主完成算法设计、科学发现等高端科研任务开辟了全新探索路径。

未来,在研究范式创新及模型能力提升的基础上,上海AI实验室将推进Intern-S1及其全链条工具体系持续开源,支持免费商用,同时提供线上开放服务,与各界共同拥抱更广阔的开源生态,携手打造更懂科学的AI助手。

科学走进生活,Intern-S1案例展示借助深厚的科学底蕴,Intern-S1在面对生活中的科学问题时也是得心应手。如下图所示,刁钻的验证码也难不倒模型,能准确地从各种有趣的混淆图片中分辨出黑洞。

在面对艺术作品时,在感性欣赏之余,Intern-S1还能以科学的逻辑和知识体系对艺术画作进行理性赏析,以科学的方式“读懂”艺术。


今天看啥地址:http://www.jintiankansha.me/t/9NLdzTtXNx

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

书生Intern-S1 科学大模型 多模态AI 开源模型 科研生产力
相关文章