
InternLM团队近日正式开源轻量级多模态推理模型Intern-S1-mini,这款仅8B参数的”科研利器”融合了Qwen3-8B语言模型与0.3B视觉编码器InternViT,以精巧架构实现强大性能。尤为引人注目的是,其预训练数据超5万亿token,其中半数来自化学、物理等科学领域,使其具备解析分子式、规划合成路径等专业能力,为跨学科研究提供全新工具。
性能测试显示,该模型在MMLU-Pro、AIME2025等权威基准中全面领先,ChemBench得分76.47,MatBench达61.55,蛋白质序列分析任务ProteinLMBench亦有58.47分表现。这种”减参数不减能力”的特性,使其在保持轻量化的同时,文本、图像、视频多模态处理能力均跻身第一梯队。更令人惊喜的是,模型默认开启的”思考模式”(通过enable_thinking指令切换),赋予其类人的推理交互体验,用户可灵活调整响应深度。
行业专家评价其为”科学明星”,其开箱即用的专业能力已应用于上海AI实验室的Intern-Discovery科学发现平台。在材料设计、药物研发等场景中,模型能同步处理实验数据与文献资料,显著提升科研效率。随着多模态AI向轻量化、专业化发展,这款”科研六边形战士”或将成为推动科学发现Scale Law的关键引擎。
原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.co/article/731854.html