OpenAI前CTO团队发布《模块流形》研究,大模型训练效率提升40% OpenAI前CTO团队发布《模块流形》研究成果,提出通过流形约束优化神经网络训练的新方法,实现大模型训练效率提升40%,为解决Transformer权重矩阵高维失控问题提供创新方案。 AI新闻资讯# AI研究# OpenAI# Transformer架构 1天前
谷歌Gemini大模型能耗报告发布:文本生成单次仅0.24瓦时,Gemma 3轻量版同步亮相 谷歌发布Gemini大模型能耗报告:文本生成单次仅耗电0.24瓦时,同步推出轻量级Gemma 3 270M模型。深度解析其Transformer架构优化、40%能耗降低技术,及在移动端多模态处理场景的... AI产品动态# AI能耗# Gemma3# Transformer架构 1个月前
英伟达DLSS 4技术正式上线:基于Transformer架构的革命性图形增强 英伟达DLSS 4技术正式上线,基于Transformer架构实现8倍性能提升,支持多帧生成与光线重建,RTX 50系列显卡独占功能,超100款游戏适配,重新定义游戏画质与流畅度标准。 AI产品动态# AI渲染# DLSS4# Transformer架构 3个月前