近日,上海人工智能实验室(Shanghai AI Laboratory)正式发布开源轻量级多模态推理模型Intern-S1-mini,该模型凭借80亿参数的紧凑架构与专业科学数据处理能力引发行业关注。作为Intern-S1的轻量化版本,其核心由Qwen3-8B语言模型与0.3B参数的InternViT视觉编码器构成,通过5万亿token的多模态数据预训练(含2.5万亿科学领域token),在保持通用任务性能的同时,显著提升了化学分子式解析、蛋白质序列分析及材料合成路径规划等专业场景的准确率。
技术特性方面,Intern-S1-mini采用动态分词器设计,可直接处理分子式、蛋白质序列等科学数据格式,其ChemBench测试分数达76.47,MatBench与ProteinLMBench分别取得61.55和58.47的优异表现。相较于传统模型,该架构对科学数据的压缩效率提升70%以上,在MMLU-Pro、MMMU等基准测试中超越同类轻量级模型。值得注意的是,模型默认开启”思考模式”(可通过enable_thinking指令切换),增强了人机交互的灵活性。
应用场景上,该模型已展现出在自动驾驶图像识别、医疗影像分析等领域的潜力。其轻量化特性尤其适合资源受限环境下的快速多模态数据处理,同时为智能客服、虚拟助手等AI服务提供了新的技术路径。目前模型代码及预训练权重已通过GitHub、Hugging Face等平台开源,相关技术细节同步发布于arXiv预印本平台。
© 版权声明
文章版权归作者所有,未经允许请勿转载。