谷歌这次可是给全球超过200个国家和地区的用户送来了大惊喜,它宣布了一项重磅功能——“Search Live”,这个名字一听就知道,和搜索、动态相关。其实这项升级可以看作是Google想让移动搜索不再只是干巴巴地搜图片和文字了,而是能直接和现实环境实时互动。用户只需要打开Android或者iOS上的Google应用或者Lens,通过摄像头和语音指令就能和系统聊天。不过别小看了这个系统背后的技术,它依赖的是全新的Gemini3.1Flash Live模型,这个模型能理解多种语言的音频和语音。这样一来,对话变得更自然了,反应也更快了。 使用起来也很简单,你把手机摄像头对准物体提个问题,比如复杂的家具怎么组装,或者植物是什么种类。系统马上就能用语音回答你,还会给你推荐相关网页链接。这就好比把物理世界和数字世界连接起来了。谷歌做这个动作是有大原因的。现在外面竞争激烈呢!比如Luma AI推出的Uni-1模型就想在图像处理上跟谷歌较量一番。OpenAI那边也没闲着,正打算把ChatGPT整合到浏览器里打造超级应用。谷歌当然要把它的移动端入口给守住了。这次它用Gemini3.1Flash Live的轻量级和高响应特性,在这场比赛里占了先机。 这个功能普及之后意味着AI助手不再是“被动”的工具了,而是变成了“主动”的伙伴。通过把计算机视觉和实时语音处理结合起来,谷歌正在改变我们获取信息的方式。这一波操作也给整个搜索行业指明了新的方向:往空间智能和多模态交互发展。