Gemini接管搜尋、全家桶秒變通用Agent,以及GoogleGlassissoback!|直擊GoogleI/O

作者:王兆洋,Jessica,週一笑
圖:王兆洋
誰也沒想到,Google I/O現場的最高潮來自“復活”的Google Glass有些翻車了的即時demo。

2025年5月20日,Google的年度開發者大會Google I/O在加州山景城舉辦。
與去年在舉辦之前一天被OpenAI“狙擊”不同,今年的Google I/O,劍拔弩張的氛圍讓位給了派對的氛圍,在ChatGPT帶來的狼狽之後,Google已經回到了自己的節奏。
是的,它回到了飽和式釋出的節奏。當天Google一口氣釋出了至少十多個AI相關的更新,而其中大多數和Gemini有關。
簡單說,Google主要做了四件事:展示Gemini在多模態上的遙遙領先;給Gemini AI助手做全方位的更新;讓Gemini徹底接管搜尋,並讓全家桶變成通用Agent;以及令人興奮的AI+AR眼鏡。
這些釋出個個重要,但因為AI模型層面本身的進展在過去幾年已經吊足了大家胃口,以及Google在此次大會之前已經發布了Gemini最新的大迭代,現場似乎顯得平靜。

直到Google Glass的“復活”。它透過live demo徹底點燃了現場。
1
Google Glass is so back
當天的Google I/O一共只有三四個Live demo,而最後出場的Android XR眼鏡,是最讓人興奮的一個。
在喧囂的I/O後臺,演示者Nishta戴上了這款看起來與普通眼鏡無異的Android XR眼鏡,為觀眾帶來第一視角的體驗。
她先是對著鏡子喝了一口咖啡,透過語音指令傳送簡訊、設定手機靜音,詢問眼鏡裡內建的Gemini,她看到的牆壁上的樂隊與這個劇場的關係,而這一切的答案和互動,都透過眼鏡上即時懸浮顯示,呈現在她眼前。

而且,像極了故意對當年Google Glass太超前而被公眾質疑的call back,當展示者戴著眼鏡從後臺出發,遇到的第一個人對她說:“你眼鏡在閃爍,我是在直播裡麼?”然後很開心的參與了互動,而不是說“摘掉你的Google Glass”。
是的,這一切都是為了展示眼鏡裡Gemini視覺記憶能力:當來到主舞臺後,Nishta隨口問起之前喝過的咖啡,Gemini竟然憑藉杯子上模糊的印記,準確報出了咖啡店的名字“Blooms Giving”。接著咖啡店的圖片、3D步行導航地圖、給朋友傳送的咖啡邀約,都透過很有Google特色的懸浮互動完成。
最後他們甚至做了一個即時的“有風險出錯”的演示——Nishta和臺上的Shahram分別用印地語和波斯語進行對話,而兩人鏡片上即時滾動出英文的字幕。而在展示中,這部分的確卡頓了,但即便最終有些翻車,現場卻依然一片掌聲和歡呼。因為這基本就是接下來所有人期待的AI發展方向。
當Gemini的一切能力都可以跟現實世界,物理環境互動,並且透過視覺和語音的端到端的方式可以擁有記憶、執行和行動能力後,將解鎖太多可能。
據Google介紹,Android XR 智慧眼鏡將搭載 Gemini Live AI 助手,透過鏡頭、麥克風和可選的內建顯示器,實現語音互動、拍照、地圖導航、即時翻譯等功能。
同時它也將與 Gentle Monster、Warby Parker 等時尚品牌合作。目前沒有公佈價格和上市時間,但谷歌確認今年會開放平臺,供開發者為 XR 生態構建應用。
1
Gemini接管Google的一切
在眼鏡點燃現場之前,Google I/O更像是Google一個密集的AI軍火展示。
今年坐在Google IO的圓形劇場裡,你能非常直觀感受到一年時間對於今天的AI來說,能發生多少事情。
當Google CEO Sundar Pichai站上當天的舞臺,Google面前已經沒有了OpenAI的偷襲攪局,Llama被DeepSeek徹底打亂陣腳,微軟的Build仍讓人擔心它和OpenAI的關係,而Gemini自己的多模態能力則在一年的不停突破後站穩了領先,天天被唸叨的搜尋業務沒有被Perplexity們沖垮,廣告基本盤更是在最近財報裡仍在超預期增長,歸因也是“因為AI”。

甚至人們都快忘了,在Google I/O上接過Pichai話筒的,已經是“諾貝爾化學獎得主”Demis Hassabis。

在當天的Google I/O上,Pichai的開場Keynote回到了久違的Google味兒,一切是Google自己的節奏而不是慌慌張張的應對。
“通常,在 I/O 大會召開前的幾周,我們不會透露太多資訊,因為總會把最重磅的模型留到大會上釋出。”Pichai說。“然而在Gemini 時代不同了 。現在,我們很可能在IO前就釋出了最智慧的模型,或者提前一週公佈像 AlphaEvolve 這樣的突破 。我們的目標是儘快將最出色的模型和產品交付到大家手中 。我們速度前所未有的快 。”
在Pichai的開場分享裡,是一連串體現速度的數字。
Gemini 應用月活躍使用者超過 4 億;Gemini 應用中 2.5 Pro 使用量增長了 45%;產品和 API 每月處理的token數從去年同期的 9.7 萬億增長到超過 480 萬億,增長了 50 倍;超過 700 萬開發者正在利用 Gemini 進行構建,是去年同期的 5 倍;Vertex AI 上 Gemini 使用量增長了 40 倍。
而模型上,Pichai甚至直接喊出Google已經遙遙領先。
自第一代 Gemini Pro 模型釋出以來,它的Elo 分數提升了 300 多分。(衡量大模型能力的ELO是一種透過模型之間兩兩匿名對比(類似下棋)的結果,來計算和更新各個模型相對實力排名的方法);第七代 TPU Ironwood 比上一代效能提升了 10 倍。每個 pod 提供 42.5 exaflops 的計算能力。
AI的滲透也帶來Google產品的增長。
Search 中的 AI 概覽已覆蓋超過 15 億使用者。 目前已在 200 個國家和地區推出;在美國和印度等最大市場,推動顯示它們的查詢型別增長超過 10%;AI mode早期測試者提出的查詢長度是傳統搜尋的 2 到 3 倍。
去年,Pichai就已經開始形容Google的員工已經是“geminier”,而今年的I/O當天正是Gemini(雙子座)季節的第一天,他開玩笑形容在Google內部來說,每天都是Gemini季節。
甚至在他的演講保留環節“統計AI出現次數”的環節,Gemini正式超過了AI成為他說的最多的單詞。

對Google來說,走出ChatGPT猛攻之下的狼狽,一切都靠Gemini的反殺。
而Demis Hassabis顯然就是讓這一切發生的那個人,當他出場,後面的AI生成的影像甚至都是一隻山羊——GOAT(greatest of all time)。

當天Hassabis的分享部分,其實更像是一場諾貝爾得主回家見面會,他回顧了他從最初痴迷用AI做乒乓球遊戲,到Google的Transformer、AlphaGo,再到Gemini的歷程。言外之意,向全AI界喊話,Google永遠是你大爺。
而這位新晉諾獎得主也更加直白了,他表示他的最終目標是做出一個世界模型,而Gemini現在無比接近這個願景。
對於更強的 2.5 Pro,谷歌帶來了一個全新的“深度思考模式”(Deep Think),專門用來處理數學、程式設計這類複雜問題。它融合了最新的 AI 推理研究成果,包括並行思維技術,能在面對複雜問題時更像人一樣“多角度思考”,給出更周到、更靠譜的答案。目前只開放給少數使用者測試。
此外,一個比較新的功能是,谷歌正在為 Gemini 2.5 Pro 和 2.5 Flash 增添更自然對話體驗的原生音訊輸出能力,而Gemini多模態可能接入的最新影片生成模型Veo 3,在影片質量上繼續突破,且首次具備了原生音訊生成能力,使用者可以一句話生成匹配音效、背景環境聲乃至角色對話的影片內容,並在文字理解、物理效果模擬和口型同步方面表現優異 。
而在榜單方面,Gemini 2.5 Pro和Gemini 2.5 Flash Preview版本分別佔據了大模型競技場評測榜單的前兩名。

顯然,Gemini堅持死磕原生多模態的技術路線,以及利用Google老本行搜尋能力來增強模型研究能力的產品路線,含金量還在增加。
對於Google來說,Gemini的模型能力+以Gemini app為核心的全能的單一AI通用助手+Gemini“接管”的Google全家桶,就是它此刻的AI戰略。
Hassabis 也對Gemini App提出了自己的終極想法:“我最終極的目標是讓Gemini成為一個全能的助手。”
而通往這個目標路上,最近的一個突破,是之前還只是展示階段的AI Agent專案Project Astra開始正式進入現實世界。

“這是通往AGI的一個關鍵節點。”Hassabis說。“現在它的音訊能力,記憶能力都得到了提升。”
Project Astra以Gemini Live的新身份開始進入Gemini App。在現場,他展示了一個修理腳踏車的案例:
使用者呼喚出Gemini,讓她幫忙上網找到Huffy山地車的使用者手冊,並根據指令翻到剎車相關的特定頁面;接著從YouTube上篩選出修復滑絲螺絲的教學影片,直接播放給你看。更厲害的是,Gemini Live甚至能翻閱你過去的郵件,從你和腳踏車店的聊天記錄裡找出那個讓人頭疼的六角螺母的準確尺寸,並在牆上工具箱裡高亮出對應的型號。
當發現還需要一個備用張力螺絲時,Gemini Live迅速遵照指令,給最近的腳踏車店打電話問有沒有貨。
演示中還有一個重要細節,當用戶的一位朋友閃現在門口,喊他去吃午飯時,Gemini自動停止了說話,而等對方離開後,在使用者提醒下,繼續無縫銜接地彙報了腳踏車店的回電內容。
這些技術的最終趨勢,是讓Gemini變得更加主動。
在矽星人參加的一個小型溝通會上,Hassabis提到他對AI助手必須更加主動的看法。
“如果你看看今天的工具,我會說它們大多是被動反應式的。也就是說,你透過查詢或問題來輸入,然後它做出回應。所以是你把所有的資訊都投入到系統中。我們希望下一代和我們的AI助手能夠做到的是,讓它們具有預測性,能夠提前提供幫助。例如,如果你要進行長途飛行,它可能會為你推薦一本適合在飛機上閱讀的好書。或者,如果你有某種健身目標,它可能會主動提醒你今天要去跑步,或者建議你做一些與你長期目標相關的事情。所以我們認為,當這些主動型系統和代理系統能夠預測你想要做什麼時,它們的感覺會非常不同。”
Gemini app當天也宣佈了大量更新。
包括Gemini live 功能的全面開放,它能更加即時,而且此前的小範圍測試資料已經顯示,人們比用打字會有5倍長的互動時間。同時,隨著Project Astra變成成熟產品,攝像頭即時互動和螢幕讀取的能力也在Gemini裡免費開放。
Gemini裡的Deep Research模式接下來允許以使用者自己上傳資料,之後更是可以在Google全家桶裡打通使用你的各種資料庫。此外Canvas 更新了更強的程式設計模式,最新的影像模型Imagen 4也接入Gemini。
而除了Gemini自己的app上的更多功能,Google能讓Hassabis實現“統一的主動Agent”這個想法,更關鍵因為Google有它積攢了多年的強大的搜尋+全家桶。而且,Hassabis已經為自己贏得了用Gemini更深入“接管”這些全家桶的權力。

與Project Astra從實驗室走向Gemini相似,此前Google的Project Mariner也變成了Gemini裡的Agent mode。
“我們認為智慧體(agents)是結合了高階 AI 模型智慧和工具訪問許可權的系統,因此它們可以在您的控制下代表您執行操作 。”Pichai說。Google引入了一種名為“教學與重複”的方法,即只需向它展示一次任務,它就能學習未來類似任務的計劃 。
“Agent mode可以同時完成多達十種不同的任務。這些智慧體可以幫助您查詢資訊、進行預訂、購買商品、做研究等等——所有這些都可以同時進行。”Hassabis說。“而且我們還會把它推廣到更多產品,首先從瀏覽器開始。”
當天Google宣佈,Chrome將接入Gemini並擁有類似諸多通用Agent產品展示的功能,它能直接在你的瀏覽器頁面中開始工作,幫你自動完成你指定的目標任務。
Google透過API提供Agent Mode的能力,同時有它建立的開放的 Agent2Agent 協議,能讓智慧體之間相互通訊,當天Google還宣佈,它的 Gemini API 和 SDK 將相容目前最流行的Agent與工具之間的協議 MCP 。
一切都集齊了。那些基於Google的API做出來的AI瀏覽器、需要不停呼叫瀏覽器的通用Agent產品們,可能要想想自己如何和Google的親兒子Chrome這樣的產品競爭了。
而Google接下來的計劃是,它的全家桶都會在擁有了Computer use和Astra這樣的Agent能力後的Gemini加持下,瞬間變成一個通用Agent。
在Google的理解,Agent可能根本就不是一個單獨產品,而是任何AI產品的基礎功能。

1
搜尋徹底Gemini化
Google在OpenAI最初的衝擊中,一度讓人感覺英雄遲暮,而外界關注它能否轉身成功的關鍵之一就是它是否能對自己躺著賺錢的基礎——搜尋業務動刀。
而現在看來,它的動作還是很快的。
“僅僅是一年時間,人們用搜索的方式已經深刻地改變了。”Google搜尋負責人Elizabeth Reid說。“人們開始問更長的問題。因此我們把Gemini和搜尋對世界資訊的理解合併到一起。”
當天全美的Google使用者會看到Google多年來又一次大的改變,在首頁的第一個tab的位置,變成了AI Mode。相比於小規模試驗性質的AI Overview,這是又一個大的自我革新的動作。
AI Mode的一個最大變化,其實是Gemini的AI能力和Google搜尋的技術的更深入的融合,Google稱在底層技術上,它使用查詢扇出 (query fan-out) 技術,它會將問題分解為子主題,並同時替使用者自動發出多個查詢。這使得AI Mode能夠比傳統的Google搜尋更深入地探索網路,幫助使用者發現網路上更多的內容,找到更好的答案。此外,deep search模式也加入到AI Mode的選項裡,可以在搜尋裡也製作深度的報告。
“這就是Google搜尋的未來。從資訊到智慧。”Elizabeth Reid說。
Gemini對搜尋核心業務的“接管”,也讓Google此前一直想做但有所停滯的一些業務可以有新的做法。比如電商。
Google shopping基本也是建立在搜尋入口流量之上的業務,此前也不溫不火,而此次基於Gemini的改造,它有了一個全新的互動。
在I/O現場,Shopping 得到了少有的live demo機會。Google展示了一個虛擬試衣(Virtual Try-on)功能。現場掀起了一陣小高潮。

以往我們線上購物時,只能看著模特圖腦補自己穿上身的樣子,生怕買了不合適。如今,只需上傳一張自己的全身生活照,Google專門訓練過的更瞭解人們身形和衣服褶皺的模型,會透過先進的身體對映和服裝形變技術,將商品“穿”在你的數字分身上,褶皺、垂墜感都無比逼真,讓人隔著螢幕也能清楚判斷上身效果。
挑中款式和尺碼後,還可以設定期望價格,讓Chrome的AI Agent去盯著價格,當低價出現後,agent自動下單,把支付介面推送給你由你最後操作支付。
Google把所有最重要的入口位置都給了Gemini,當然也希望它能啟用Google已有的各種業務。
1
Flow 和彩蛋
Gemini系列模型在多模態上的瘋狂進展,最直接惠及的就是創作者。
Google此次也更新了影像模型Imagen 4,和影片模型Veo 3。
影片生成模型Veo 3懂物理規律、生成電影級的影片畫面之外,還能同步創作出自然語音對話和逼真的環境音效 。在製作一位飽經滄桑的男子獨自在波濤洶湧的大海上航行的影片時,Veo 3除了完美渲染海浪動態、人物面部細微的情感變化,還為他配上了一段富有磁性的內心獨白,意境十足。另一段森林中老貓頭鷹和小獾的對話影片,更是活靈活現。
這些能力讓Google特意單獨又推出了一個app——Flow。它可以讓普通人也能一句話輕鬆創作出有聲音又對白有畫面的專業級影片 。

它融合了Google最頂尖的AI技術——影片生成模型Veo、影像生成模型Imagen以及強大的Gemini智慧,在釋出會當天已正式上線。
當然,這些背後是燃燒的token。
Google也在Flow的展示後,公佈了新的套餐定價。
它將原本的 AI Premium 訂閱正式更名為 “谷歌AI Pro”,並推出了全新的高階版 “谷歌AI Ultra”,月費高達 249.99 美元。Pro 版月費仍為 19.99 美元。

而就像一部大片一樣,Google I/O也有諸多彩蛋,它並不是放在結尾,而是藏在了密集的釋出之中。
一個有意思的一帶而過的彩蛋,是Gemini的Diffusion 模型,它不是用在圖片上,而是用在文字生成上。這讓它的生成速度快的驚人。在現場的展示上,輸入完成後,它幾乎是瞬間完成了輸出。
“傳統的自迴歸語言模型一次生成一個詞或者token。這種序列化的過程可能會很慢,並且會限制輸出的質量和連貫性。擴散模型的工作方式則不同。它們並非直接預測文字,而是透過逐步最佳化噪聲來學習生成輸出。這意味著它們可以非常快速地對一個解決方案進行迭代,並在生成過程中糾正錯誤。這使得它們在編輯等任務中表現出色,包括在數學和程式碼相關的場景下。” Gemini團隊介紹。
而除了速度,這種嘗試也在暗示著Gemini在模態融合之外,對模態生成和多模態推理融合的潛在的發力方向。
你現在可以在網站上加入waitlist來試用這個模型。

這是一場資訊量巨大的Google I/O,Google正在回到自己的節奏,這些強大的更新,和更清晰的思路,讓人感覺可能AI最終真的是所有人努力半天,Google拿走勝利的遊戲。

點個愛心,再走


相關文章