Meta发布REFRAG技术:RAG推理效率提升30倍,AI处理速度实现重大突破

Meta超级智能实验室(Meta Superintelligence Labs, MSL)近日发布了一项突破性技术,显著提升了大型语言模型检索增强生成(Retrieval-Augmented Generation, RAG)任务中的推理效率,速度提升幅度超过30倍。这项研究成果以论文《REFRAG: Rethinking RAG based Decoding》的形式公开,标志着Meta在人工智能领域的技术创新迈出重要一步。

REFRAG技术的核心在于通过轻量级模型对冗长上下文进行高效压缩,生成简洁摘要后再交由主解码器处理。这一方法大幅减少了模型需要处理的信息量,从而降低了计算负载和响应延迟。实验数据显示,在上下文压缩比达到16倍的情况下,该技术不仅超越了现有最优模型CEPE的性能,同时保持了近乎无损的准确性。

Meta超级智能实验室成立于2025年6月,位于加利福尼亚州门洛帕克,其成立背景与Meta首席执行官马克·扎克伯格对Llama 4模型性能的不满直接相关。为加速技术突破,实验室引入了包括Scale AI创始人Alexandr Wang在内的多位顶尖人才,并设立了四大核心研发团队,分别专注于大语言模型开发、基础理论研究、产品化应用及底层设施建设。

值得注意的是,REFRAG并非简单优化现有流程,而是通过”持续预训练”机制重构了RAG的解码逻辑。研究团队设计了专门的信息重建任务来训练模型,确保在压缩过程中关键语义细节得以保留。这种创新方法在多项基准测试中均展现出卓越性能,特别是在系统吞吐量和响应延迟方面实现数量级提升。

该技术的发布正值全球AI行业激烈竞争之际,Meta此举被视为强化其技术领先地位的重要战略。分析人士指出,REFRAG框架的实际应用将显著降低企业部署大语言模型的成本门槛,尤其在需要实时处理海量文档的金融、医疗和法律等领域具有广阔前景。

© 版权声明

相关文章