谷歌推出Gemini Search Live语音搜索功能,开启多模态交互新时代

AI产品动态15小时前发布 AI视野

谷歌近日正式推出基于Gemini模型的Search Live语音搜索功能,标志着搜索引擎进入多模态交互新时代。该功能于6月19日在美国率先上线,支持iOS和Android平台,用户需在Google Labs中启用AI模式即可体验。

这项创新技术实现了自然语言对话式搜索的突破。用户启动Live图标后,可通过连续语音交互获取信息,系统会以生成式语音回应并保持上下文记忆。典型应用场景包括:在整理行李时询问衣物防皱技巧,系统即时给出专业建议的同时,允许用户切换应用而不中断对话。所有交互记录将保存在AI模式历史中,支持语音转文字及文本续聊。

技术层面,Search Live搭载Gemini 2.5 Pro模型,具备百万级token上下文处理能力,在HLE、AIDER等高端推理测试中超越同类产品。其动态知识图谱技术可实时更新200亿实体关系,使搜索结果时效性提升300%。为平衡性能与隐私,谷歌采用联邦学习方案确保数据本地化处理,并通过云端协同计算降低40%终端功耗。

商业影响方面,行业分析显示该功能将加速搜索市场变革。预计2025年语音搜索占比将达65%,广告主可通过对话场景实现精准营销,如在防晒霜推荐中自然植入合作品牌。目前功能支持24种语言,计划年底扩展至100种语言覆盖全球90%人口。

谷歌同时透露,未来数月将整合实时摄像头交互功能,打造”语音+视觉”的全新搜索维度。不过该技术仍面临挑战,包括多语言本地化适配和端侧算力优化等问题。随着OpenAI、Anthropic等企业相继布局语音交互领域,搜索引擎市场正从流量竞争转向体验创新竞赛。

© 版权声明

相关文章