英伟达推出Nemotron 3开源AI模型系列,以MoE与Mamba-Transformer混合架构提升多智能体协作效率 英伟达推出Nemotron 3开源AI模型系列,涵盖Nano、Super和Ultra规格,采用混合潜在专家(MoE)与Mamba-Transformer混合架构,提升多智能体跨行业协作效率。该系列支持... AI产品动态# AI基础设施# Mamba-Transformer# MoE架构 2个月前
腾讯混元大模型全球品牌升级:正式更名Tencent HY 2.0,参数达4060亿 腾讯正式将混元大模型更名为Tencent HY,并推出2.0版本:采用混合专家(MoE)架构,总参数4060亿,激活参数320亿,支持256K上下文,具备复杂指令遵循、代码生成等能力。模型已接入元宝... AI产品动态# AI模型# MoE架构# TencentHY 2个月前
腾讯发布混元语言模型HY 2.0:4060亿参数MoE架构,支持256K上下文,领跑国产大模型 腾讯于2025年12月5日推出混元语言模型Tencent HY 2.0系列,采用混合专家架构,总参数4060亿,激活参数320亿,支持256K超长上下文。模型在数学推理、科学计算、代码生成等任务中表现... AI产品动态# AI大模型# MoE架构# 国产人工智能 2个月前
月之暗面Kimi智能助手K2模型全面解析:万亿参数MoE架构实现200万字上下文处理 深度解析月之暗面Kimi智能助手最新技术进展:K2模型采用万亿参数MoE架构,实现200万字超长上下文处理,响应速度提升40%。揭秘商业化布局与Multi-Agent功能'OK Computer',了... AI产品动态# AI商业化# K2模型# Kimi智能助手 3个月前
谷歌Gemini 3官宣2026年发布:瞄准GPT-5技术差距,智能代理能力将迎重大突破 谷歌正式宣布Gemini 3将于2026年发布,目标直指缩小与GPT-5技术差距。新一代模型将突破300万token上下文,强化智能代理自主决策能力,深度整合Workspace与地图生态,为企业级AI... AI产品动态# AI大模型# GPT-5# MoE架构 3个月前
Cursor 2.0重磅发布:首款自研编码模型Composer引领AI编程新纪元 Cursor 2.0正式发布,推出首款自研编码模型Composer,采用MoE混合专家架构,实现每秒200-250个token生成速度,复杂任务处理时间缩短至30秒,效率提升400%,支持8个Agen... AI产品动态# AI编程# Composer模型# Cursor 3个月前
蚂蚁集团开源全球首个万亿参数推理大模型Ring-1T-preview,多项测试超越GPT-5 蚂蚁集团开源全球首个万亿参数推理大模型Ring-1T-preview,在AIME、CodeForces等测试中超越GPT-5,采用MoE架构和自研强化学习系统,为中小企业提供零成本万亿级AI推理能力。 AI产品动态# MoE架构# Ring-1T# 人工智能 4个月前
李开复:DeepSeek开源模式是中国AI不落后美国的关键 零一万物CEO李开复深度解析DeepSeek开源策略如何推动中国AI发展。文章探讨开源生态构建的价值、560万美元低成本训练技术突破,以及开源模式对全球AI竞争格局的重塑影响。 AI新闻资讯# AI开源# DeepSeek# GPT-4o 4个月前
蚂蚁百灵开源Ring-mini-2.0:轻量级AI推理模型,16B参数激活1.4B实现高效性能 蚂蚁百灵开源Ring-mini-2.0 AI推理模型,采用高效MoE设计,仅激活1.4B参数实现强大推理性能,支持128K长文本处理,吞吐量超500 token/s,助力企业降低AI应用成本。 AI产品动态# AI优化# AI开源# MoE架构 5个月前
2025全球大模型开源生态报告:中美路线分化、AI编程工具爆发与技术边界突破 2025年外滩大会AI开源论坛发布《全球大模型开源生态报告》2.0版,深度解析中美开源路线分化、AI编程工具爆发增长与技术边界突破三大趋势,涵盖114个开源项目与36万开发者数据,为AI行业提供关键洞... AI新闻资讯# AI开源# AI编程工具# GPT 5个月前