百度AI助手极速模型全量上线:生成速度提升5倍,成本降低30%

AI产品动态9小时前发布 AI视野

百度搜索AI助手近日完成重大技术升级,其自主研发的极速模型已于8月29日实现全量上线。此次升级在保持搜索效果与DeepSeek V3.1版本持平的基础上,实现了生成速度提升5倍、调用成本降低30%的突破性进展。

技术团队通过对大模型推理环节的系统性优化,显著提升了服务响应效率。实测数据显示,该模型使首token返回时间缩短39%,回答输出速度提升达500%,创下行业新纪录。这一优化不仅大幅降低算力消耗,更将单次调用成本控制在原体系的70%,实现性能与经济效益的双重突破。

据内部测试报告,新模型在医疗、法律等专业领域的复杂查询场景中,仍能维持原有准确率水平。百度方面表示,此次技术迭代是其”AI普惠化”战略的重要实践,旨在通过底层架构优化降低大模型应用门槛。目前该能力已覆盖全部搜索用户,日均处理请求量突破亿级规模。

行业分析指出,此次升级标志着国产大模型在工程化落地层面取得实质性进展。相较于国际同类产品,百度极速模型在响应速度指标上已建立明显优势,为搜索场景的实时交互体验树立了新标杆。

© 版权声明

相关文章