AMD联手IBM与Zyphra成功训练全球首个大型MoE模型ZAYA1,AI算力格局生变 AMD与IBM、Zyphra合作成功训练全球首个基于AMD硬件的大型混合专家模型ZAYA1。该模型采用1024块MI300X GPU,创新CCA注意力机制降低40%计算复杂度,在STEM任务性能接近Q... AI产品动态# AI算力# AMD# GPU 5天前
AI人才服务商Mercor完成3.5亿美元C轮融资,估值突破100亿美元 美国AI初创公司Mercor完成3.5亿美元C轮融资,估值突破100亿美元。资金将用于扩充全球高端技术人才库、优化AI专家匹配算法,为OpenAI、Meta等企业提供大模型训练专业支持。 AI新闻资讯# AI初创公司# AI融资# Mercor 1个月前
OpenAI前CTO团队发布《模块流形》研究,大模型训练效率提升40% OpenAI前CTO团队发布《模块流形》研究成果,提出通过流形约束优化神经网络训练的新方法,实现大模型训练效率提升40%,为解决Transformer权重矩阵高维失控问题提供创新方案。 AI新闻资讯# AI研究# OpenAI# Transformer架构 2个月前
阿里云发布磐久128超节点AI服务器,国产AI基础设施实现重大突破 阿里云在2025云栖大会发布自主研发磐久128超节点AI服务器,实现Pb/s级带宽与百纳秒级延迟,推理性能提升50%,支持万卡级GPU部署,满足千亿参数大模型训练需求,推动国产AI基础设施升级。 AI产品动态# AI基础设施# AI服务器# 云计算 2个月前
上海AI实验室开源XTuner V1训练引擎,昇腾联合优化助力大模型效率突破 上海AI实验室开源XTuner V1大模型训练引擎,联合昇腾384超节点实现训练吞吐量提升5%与算力利用率突破20%。了解国产AI基础设施技术优势与开源工具链应用。 AI产品动态# MoE模型# XTunerV1# 上海AI实验室 3个月前
商汤科技SenseCore与华为昇腾384超节点完成全面适配,国产AI算力基础设施获关键突破 商汤科技SenseCore与华为昇腾384超节点完成全面适配,实现国产AI算力基础设施关键突破。该合作提升大模型训练与推理效率,为金融、制造、医疗等行业提供高效算力底座,加速AI商用落地。 AI产品动态# AI基础设施# AI算力# 华为昇腾 3个月前
DeepSeek公开大模型训练技术细节:预训练与优化训练双阶段突破,能耗降低30% DeepSeek公司公开大模型训练技术细节,涵盖预训练与优化训练双阶段,采用MoE架构和FP8混合精度,降低能耗30%,在数学推理和代码生成任务中表现突出,为AI行业提供技术参考与工程实践样本。 AI新闻资讯# AI技术# DeepSeek# MoE架构 3个月前
腾讯推出大模型训练库WeChat-YATT,多模态训练效率提升15% 腾讯推出大模型训练库WeChat-YATT,专注强化学习与多模态优化,支持中文语境预训练并降低15%硬件消耗。了解其分布式框架、云集成能力及在微信智能客服等场景的应用前景。 AI产品动态# AI基础设施# WeChat-YATT# 多模态AI 3个月前
英伟达紧急追加30万片H20芯片订单,应对中国市场AI算力需求激增 英伟达紧急追加30万片H20芯片订单应对中国180万颗需求缺口。分析政策波动下供应链紧张、溢价采购现象及算力概念股表现,揭示AI芯片自主可控的长期趋势。 AI新闻资讯# AI算力# H20芯片# 中国科技企业 4个月前
华为昇腾384超节点亮相2025世界人工智能大会,革新AI算力架构 华为在2025世界人工智能大会上首次展出昇腾384超节点,通过高速总线互联技术实现384卡大带宽低时延互联,算力使用率提升50%,支持MoE并行推理,加速大模型训练与行业应用落地。 AI产品动态# AI算力# 世界人工智能大会# 华为 4个月前