← 返回信息流
大模型·更新于 2026/05/15 10:09

Intern-S2-Preview:35B 科学多模态模型通过任务缩放逼近万亿参数性能

上海 AI Lab 发布 Intern-S2-Preview,一个 35B 参数的科学多模态基础模型。不同于传统参数和数据缩放,该模型探索"任务缩放"——通过增加科学任务的难度、多样性和覆盖度来解锁模型能力。基于 Qwen3.5 继续预训练,采用从预训练到强化学习的全链条训练管线,在多个核心专业科学任务上达到与万亿参数级 Intern-S1-Pro 相当的性能。技术亮点包括:RL 阶段引入共享权重 MTP(Multi-Token Prediction)配合 KL 损失,减少训练与推理行为不匹配,显著提升 MTP 接受率和 token 生成速度;同时采用 CoT 压缩技术缩短推理响应长度。该模型也是首个同时具备材料晶体结构生成能力和强通用能力的开源模型。

速读

35B参数的Intern-S2-Preview通过任务缩放实现万亿参数性能并开源材料晶体生成模型

相关源 (1)