谷歌发布Titans与MIRAS大模型架构:突破Transformer限制,推动AGI进程

谷歌近期正式发布全新大模型架构Titans和MIRAS,标志着自2017年Transformer问世以来AI基础架构领域的重大突破。在2025年NeurIPS大会上,谷歌DeepMind团队首次公开了Titans的技术细节,该架构通过仿生设计整合了短期记忆、长期记忆与注意力机制三大核心模块,可支持超过200万token的上下文处理能力,显著突破了传统Transformer在长序列任务中的记忆瓶颈。

Titans架构的核心创新在于其长期神经记忆模块,该模块通过参数化方式对历史信息进行抽象编码,使模型能够模拟人类认知过程中的主动记忆与遗忘机制。实验数据显示,在语言建模、常识推理及基因组分析等任务中,Titans的性能表现均优于传统Transformer和线性RNN架构。值得注意的是,其测试时计算(test-time computation)机制通过动态分配计算资源,有效提升了推理效率。

同期发布的MIRAS架构则专注于多模态交互场景,采用分层注意力机制解决跨模态对齐问题。谷歌研究院透露,这两个架构已应用于新一代对话系统和时序数据分析平台,预计将在2026年实现商业化部署。此次技术迭代被业界视为通向通用人工智能(AGI)的关键一步,DeepMind CEO Demis Hassabis在技术发布会上强调,新架构将重新定义AI模型处理复杂认知任务的能力边界。

© 版权声明

相关文章