上海人工智能实验室(上海AI实验室)于2025年8月31日正式开源发布多模态大模型书生·万象InternVL3.5系列,涵盖10亿至2410亿参数的九种尺寸版本,标志着开源多模态模型技术迈入新阶段。该系列通过级联式强化学习(Cascade RL)、动态视觉分辨率路由及解耦部署架构三大核心技术,实现推理能力、部署效率与通用性能的全面升级。
旗舰模型InternVL3.5-241B-A28B在多学科推理基准MMMU中以77.7分刷新开源模型最高记录,同时在多模态通用感知基准MMStar(77.9分)和OCRBench(90.7分)上超越GPT-5的75.7分与80.7分。文本推理方面,该模型在AIME25和MMLU-Pro测试中分别达到75.6分和81.3分,显著领先现有开源多模态模型。通过级联强化学习框架,全系列模型推理性能较上一代平均提升16分,其中2410亿参数版本综合推理得分达66.9分,优于Claude-3.7-Sonnet的53.9分。
技术层面,动态视觉分辨率路由机制可智能分配计算资源,将单次推理延迟从369毫秒压缩至91毫秒;解耦部署架构实现视觉与语言处理的并行计算,推理速度提升4.05倍。模型还强化了GUI智能体操控、具身空间推理等智能体核心能力,并采用混合专家模型(MoE)架构,在H800硬件上实现每秒100token的推理吞吐。
该系列已开源全部参数版本,相关代码与模型权重发布于GitHub及HuggingFace平台。此次发布为开发者提供了从边缘设备到云端服务器的全场景适配方案,有望推动智能客服、工业质检、医疗影像分析等领域的应用创新。
© 版权声明
文章版权归作者所有,未经允许请勿转载。