一文讀懂Google2025I/O大會:在搜尋引擎的”廢墟“上,重建AI驅動的新王國?|亮馬橋小紀嚴選

小紀有話說:
谷歌終於找回了自己的節奏感。
北京時間2025年5月21日凌晨,Google I/O 2025大會如期開幕。與往年充滿未來願景的“暢想”風格不同,本屆大會更像一場自信而務實的技術展示。
在大會上,一共釋出了十餘款新產品,輕量級的Gemini 2.5 Flash模型不僅速度驚人,更兼具強大的推理能力;Veo 3影片生成系統首次實現了畫面與聲音的一體化生成,比Sora更進一步;而Android XR則證明谷歌不滿足於當下,已經在為下一代計算平臺佈局。
在被OpenAI壓制了近兩年後,谷歌終於找回了節奏,不再滿足於被動追趕,而是選擇主動顛覆。它正在主動摧毀那個為其貢獻每年1750億美元收入的搜尋引擎帝國,試圖在廢墟上重建一個AI驅動的新王國。
文章來源:騰訊科技 公眾號
騰訊科技《AI未來指北》特約作者|博陽 木木
編輯|萌萌
超級省流版:
1)速覽本次大會發布十餘款新品:
基礎模型:
  • Gemini 2.5 Flash新版:毫秒級推理、稀疏MoE路由,效能更強
  • Gemini 2.5 Pro + Deep Think:“多鏈自審”推理模式,思考更深入,效果提高
  • Imagen 4:新版影像模型,4K畫質、1.2s 文生圖,文字排版零失真
  • Veo 3 + Flow應用:最新版影片生成模型,支援1080p,60幀輸出,首個支援原生對話、音效同步生成的影片模型。Flow可用於剪輯
  • Stitch:自然語言直接轉化為前端UI
搜尋側:
  • AI Mode:更高階的AI搜尋模式,可以應對複雜問題,並可以繼續追問
  • Shopping Graph 2.0:AI搜尋購物推薦引擎,包含5000億SKU、支援虛擬試衣
  • Deep Search:類似OpenAI的深度研究功能,能提供更復雜、系統化的資訊
  • Search Live:可透過即時攝像頭進行問答、搜尋,物體標註
安卓+硬體:
  • Android XR與智慧眼鏡:谷歌與XREAL合作推出了支援Android XR的智慧眼鏡,具備即時導航、翻譯和攝像功能
Agent:
  • Project Mariner:谷歌版的計算機應用Agent,可以瀏覽網頁,網頁自動填表、訂票 / 訂位“一鍵代辦”
其它小工具:
  • Google Meet即時翻譯:新增了即時AI翻譯功能,支援多語言交流,提升會議效率
  • Google Beam:原Project Starline專案更名為Google Beam,提供基於AI的3D視訊通話體驗,計劃與HP合作推出相關裝置
  • Gmail智慧回覆:引入了AI個性化回覆功能,使回覆內容更貼近使用者語氣
2)本 I/O大會最值得關注的部分:
  • 谷歌搜尋主動求變,全新的AI Mode上線,今起在美國市場推出
  • Gemini 2.5 Flash輕量級模型釋出,2.5 Pro隨後將至
  • Veo3、Imagen 4這兩個多模態模型,讓谷歌有了挑戰OpenAI的另一個支柱
  • Android XR正式版亮相,谷歌重新下場做智慧眼鏡,試圖挑戰AR眼鏡的終極形態
谷歌用AI革了自己的命
本次釋出會最重要的一個章節,就是AI搜尋引擎的全面上線。它幾乎佔了釋出會一半時間的。當AI Mode從螢幕上出現開始,谷歌最賺錢、也最脆弱的業務宣佈進入“自我革命”模式。

截至今天,Perplexity AI已經存在了五百多天,ChatGPT的搜尋功能也已推出超過兩百天。儘管谷歌在去年五月就推出了AI摘要功能,但那只是淺嘗輒止,僅能處理簡單問題。而這次的AI Mode則是一場全面的改革,將聊天機器人的對話能力直接嵌入到搜尋體驗中,能夠回應複雜問詢並支援連續對話。
這一層轉化,相當於用AI機器人替代掉谷歌搜尋,革了自己的命。
但為什麼今天谷歌要進行這場革命?
首先是技術成熟度。以Gemini 2.5 Pro為底層模型,谷歌引入的“query fan-out”技術——將複雜問題分解為數十個子查詢並行處理,並行訪問知識圖譜、即時排行和Gmail語料等,再彙編成一段多模態長答覆。

從技術路徑來看,這一策略與OpenAI的DeepResearch思路高度重合。雖然稱不上顛覆性創新,但作為行業領軍者,谷歌選擇跟進這一技術方向顯然是必要的戰略佈局。
雖然技術基本成熟,但華盛頓郵報的記者在現場實驗時也發現了一些小問題。他詢問AI Mode在舊金山某家餐廳點什麼菜好,AI給出了一份分點列出的答案並祝他用餐愉快,卻未提及該餐廳已永久停業——這一事實在谷歌地圖上明確標註。
儘管這一功能仍不完美,但相比2024年I/O大會上基於Gemini 1.5 Pro推出的AI Overview初版——那個曾鬧出“吃石頭補鈣”等離譜錯誤的階段,如今的準確性和可靠性已顯著提升。

第二個主要原因在於,如果再不主動“革自己的命”,搜尋入口就會被競爭對手改寫。
傳統“關鍵詞+連結列表”模式,正被“自然語言對話+結構化答案”取代。Perplexity使用者平均每次搜尋進行3.2輪追問,這種深度互動正在培養新的使用者習慣。而微軟透過Copilot已實現Windows系統級搜尋入口替代,直接截流谷歌搜尋請求。
根據Semrush報道,Perplexity 2024年4月訪問量達到1.2億。本月初,蘋果高管在反壟斷案中作證稱,AI產品導致Safari瀏覽器搜尋量首次下降,隨後,Alphabet市值蒸發1500億美元。分析師們開始重新評估谷歌的市場地位。投研機構伯恩斯坦認為,若將AI聊天機器人納入考量,谷歌的搜尋市場份額可能已降至65%至70%。富國銀行甚至預測,這一數字可能在五年內跌破50%。
在搜尋市場份額被AI聊天機器人蠶食的危機下,谷歌選擇了最激進的道路——革自己的命,而不是等著被別人革命。
第三點原因,就是谷歌準備好了對應的商業模式。
相比於搜尋技術本身,谷歌的AI廣告技術仍領先於同行。
搜尋業務貢獻了Alphabet超過半數的收入,僅2024年就產生約1750億美元,因此谷歌不僅要改變,還要確保改變依然能創造收益。AI Mode巧妙地將“Sponsored”標記的廣告內容嵌入對話右側或結尾,內部資料顯示,被AI回答引用的網頁點選率高於傳統藍色連結。
如果說貼片廣告策略是續命,那麼 這次I/O大會上釋出的Shopping Graph 2.0則像一場主動進攻。它包含種草、推薦、下單三個環節。

在種草上,谷歌宣稱,新圖譜擁有500億商品節點,每小時重新整理20億條價格與庫存資訊。比如在AI Mode裡,使用者輸入「七月去雲南的防水雙肩包」,系統會啟動二次fan-out——先爬雨季耐磨面料,再調歷史價格,組合成視覺瀑布流。這看起來和小紅書相當像了,小紅書靠演算法掌握你的喜好給你推薦,谷歌則靠你在它生態中的資料。

而在購物環節,Shopping Graph 2.0則能幫使用者進行即時比價,結合使用者的個人愛好和品味推薦最優選擇,相當於直接變身成“什麼值得買”。
Shopping Graph 2.0還提供了虛擬試衣:上傳全身照,AI用專門的服裝擴散模型模擬布料摺痕與光影,支援「掃一掃就穿上」的效果。淘寶這麼多年一直努力的AI化方向,也讓谷歌學會了。

買單環節則交給Agentic Checkout:使用者設定心儀價格,谷歌在後臺監控降價並可“一鍵代購”,手續費區間1.5~2%,與Apple IAP(蘋果公司為iOS/macOS生態系統提供的應用內購買服務) 異曲同工。

這麼看來,谷歌不光是想用AI把原有的搜尋廣告業務延續下去,而是甚至要把整個購物鏈條中除了商品供應的部分都吃進去。

野心很大,但效果卻不能保證。《每日郵報》的SEO經理曾在WAN-IFRA世界新聞媒體大會上拿出反證:當AI Overview出現時,MailOnline的桌面CTR從 13%掉到5%以下,換言之,谷歌要在“使用者無需點選”與“廣告仍需曝光”之間再走一次鋼絲。
除了這個最核心的AI Mode升級外,谷歌還把Deep Search補齊了。相對於對手GPT而言,可用攝像頭即時捕捉畫面進行的Search Live功能顯得更有吸引力。
而能夠更好地呈現賽事、商務資料圖表的Data Lens則需要等到夏季才上線。

未來,加了AI Mode的谷歌搜尋和Gemini到底有什麼不同呢?一是產品化,在搜尋中,谷歌可能會更明確地規範回答模式,比Gemini要嚴謹。另外就是雙賽道,把Search當高速公路,而Gemini App是試車場。
比如複雜圖表、財務曲線先在Gemini折騰,等錯誤率壓低到可接受,再到Search上Data Lens。畢竟,Search是35%利潤率的現金奶牛,谷歌不願冒“一次崩潰毀口碑”的風險。
Gemini有贏的機會
但訂閱模式可能是個坎
基礎LLM模型方面,Gemini在本次大會上的升級並不特別亮眼。當前的AI行業已進入“周更”節奏——就在I/O大會前一週,Alpha Evolve突然釋出新架構;而Pro版本的最新迭代也早在5月6日便搶先上線。這種按月甚至按周計時的模型軍備競賽,正在消解傳統釋出會“憋大招”的營銷價值。

但這次基礎模型也帶來了一些小更新。比如,Gemini 2.5 Flash的升級版,按DeepMind負責人Demis Hassabis所說,“在幾乎所有維度上都更出色”,而效率還提升了22%。它還提供了一個原聲功能,能捕捉使用者說話時的微妙差別,以更具表現力的方式模擬話語。
另一個更有意思的模型是Gemini Diffusion,它用Diffision架構做出了一個語言模型,與標準的Transformer模型不同,它不直接預測文字,而是透過學習逐步細化噪聲來生成輸出。其能力與Gemini 2.5 Flash相近,但速度極快。
根據谷歌的現場演示,你幾乎看不清它的處理過程。這可以說是一個正規化級的嘗試,但釋出頁提供的資訊非常稀少,頗有神秘感。

還有一個是Gemini 2.5 Pro的Deep Think模式,會悄悄生成多條推理鏈,讓它們互相交叉審稿,再把投票最高的一條遞給你。這能幫助Gemini在學術與推理基準上平均再抬3-6分。

如果說語言模型的升級仍只是“後臺換引擎”,那這次Gemini更新的升級版Canvas聯合畫布則讓其前臺呈現能力也大幅加強。它能直接產出漂亮的Markdown、CSV、PSD,甚至純手繪草圖。看演示比Claude的Artifact還好,更強於在這方面一直比較蹩腳的GPT。
谷歌還在其上更進一步推出了自己開發的前端模型產品Stitch——輸入一句「做一張暗色系新聞卡片,能自適應移動」,Stitch就能給你三張預覽,還奉上完整React+Tailwind程式碼,並自帶ESLint、Playwright測試,保證點開即跑。

這意味著一個人就能完成過去UI設計師、前端工程師、測試工程師的流水線;也意味著在“視覺化”與“可執行”之間,谷歌搭起了其他模型廠商尚未閉合的那截索橋。
這次更新中,明顯可以谷歌找到了自己真正贏過其他競對的“銀彈”之一——多模態。

前一陣OpenAI用GPT-4o的生圖功能為OpenAI帶來了相當大的流量。谷歌這次就用心的Imagen 4補齊,畫面夠精緻,而且生成速度還是Imagen 3的十倍。

而更激進的是Veo 3的釋出,這個模型相當驚豔。除了AI影片生成更加逼真、統一外,它能一次性產出1080p@60fps畫面與原生對白和音效,第一次以單一模型的形式給了畫面聲音。
這對於仍需“影片+後配音”的其他AI影片陣營而言,這是一次降維打擊。

圍繞Veo 3,谷歌還推出Flow,一個讓創作者把8秒AI片段拖進時間線、即時拼接的“故事機器”。它可以把不同的素材(影片、圖片等)組合進行編排、生成。使用者可以控制鏡頭、一致性、還可以延展生成。這比起Sora的Story Board而言,更接近一套實用的剪輯工具。這套工具把AI後期剪輯的門檻從Premiere降到了普通使用者可以使用的水平。

可以看到,現在基本上所有的AI流行影片都是有臺詞和聲音的,但在這之前,需要使用者掌握多種AI工具的混合使用能力。但現在,Gemini App裡就可以直接用上Veo 3,生成帶聲音的影片,再加上Flow的簡單剪輯,一下子門檻拉到底,很有可能能再現GPT-4o生圖帶來的全民創作熱潮。
然而普及的關鍵瓶頸在於谷歌的訂閱策略設計。在本次I/O大會上公佈的Ultra訂閱方案中,使用者需支付高達249美元/月的費用才能解鎖Veo 3全功能、完整版Flow剪輯、Deep Think及Mariner 10多工併發能力。相比之下:
  • 14.9美元/月的Pro訂閱僅提供Veo 2基礎版和Flow簡化剪輯
  • 免費使用者則完全無法使用影片生成功能
  • 即便是Pro使用者,也只能訪問Gemini 2.5 Pro基礎模型和Deep Research功能
這種將最具破圈潛力的影片生成能力嚴格限制在高階訂閱的策略,與OpenAI逐步開放GPT-4o多模態能力的做法形成鮮明對比。

至於大家都很關注的Agent能力,谷歌這次I/O並沒有特別激進的佈局。
去年I/O還在做“認桌角橡皮擦”實驗的Project Astra,今年學會了給修車鋪打電話。一段現場影片裡,使用者把爆胎的腳踏車推到攝像頭前,Gemini標出破洞、呼叫Astra撥號附近車行詢價,並完成下單購買。

這是谷歌為“最終AI私人助手”畫的餅。它的其中一部分能力會逐步透過Gemini Live實現。
當前實際落地的是谷歌版Computer Use/Operator——Project Mariner。除了可以瀏覽網頁,完成一些基礎工作外,它還可以幫使用者購買棒球比賽門票或線上購買雜貨,而無需訪問第三方網站——他們只需與谷歌的AI代理聊天,它就會訪問網站併為他們採取行動。
不過在這次釋出會上,谷歌倒是明確了自己的to C Agent戰略,它把這一切概括成三個P:Personal(個性化),Proactive(預測性),Powerful(能力)。

個性化靠谷歌生態中的Gmail 、Docs、地圖、及Gemini和搜尋的私域記憶。預測性則是建立在個性化的資料之上,透過你的日程和既往習慣去預測你未來可能需要被提醒、或許要做的事情。能力則由Deep Think與Gemini 2.5 Pro這種頂尖模型支撐。

這個戰略無疑是最適合谷歌的,因為除了谷歌和蘋果之外,可能沒有任何人能夠聯合如此多的生態部件去構築使用者的個性化資訊。缺乏這些資訊,預測性就無從談起。而能力,現在Apple Intelligence是沒有的,只有谷歌有。
因此,在實現終極個人化智慧助理(Agent)的競賽中,谷歌憑藉其生態優勢,將成為最具競爭力的玩家之一。
谷歌要挑戰AR眼鏡的終極形態
Meta和雷朋在第二代智慧眼鏡上合作的成功,將虛擬現實世界從Apple Vision Pro那虛假的繁榮中拉了回來。
日本著名漫畫家鳥山明曾說過,AR眼鏡才是虛擬現實和人工智慧結合的終極,於是在今年的I/O大會上,Google決定親自下場,手把手地教蘋果做AI時代的穿戴裝置。
而這一次的下場,也是繼2024年12月Android XR作業系統亮相至今,Google首次在正式場合談論並展示這套「面向未來」的穿戴系統。
在Google看來,智慧眼鏡(包括頭戴式的頭顯裝置)是Gemini的絕佳載體,藉助智慧眼鏡上攝像頭,麥克風等的多媒體輸入,配合Gemini多模態大模型生成式的能力,Google希望智慧眼鏡的未來是所見即所得的。
 Android XR的出現,意味著Google給第三方裝置廠商搭建好了軟體平臺,讓自己和合作夥伴都可以做自己最擅長的事情,就像他們在過去20年時間裡,在智慧手機上做的事情一樣。
這種合作分為兩種形式,包括了Google第一方的產品,就像競爭對手Meta和雷朋所做的事情一樣。Google在主題演講中宣佈將與三星、Gentle Monster和Warby Parker合作,打造人們真正想戴的智慧眼鏡。

三星Project Moohan

另外,第三方廠商還可以根據自己的需求打造個性化的產品,Google提供系統級的平臺支援。Google也對外展示了兩款Android XR的第三方裝置,包括對標Apple Vision Pro的三星 Project Moohan和XREAL的Project Aura。

Google現場演示了結合Gemini後的智慧眼鏡的功能。比如,它可以幫助佩戴者完成即時的翻譯對話、影像記憶、地圖導航、拍照、資訊撰寫傳送等等。

在這之中,Gemini展示了它和2012年Google推出第一款智慧眼鏡Google Glass時最大的不同,AI本身具有的學習能力幫助現場演示的使用者在給咖啡拍照的瞬間記住了咖啡的品牌,這種能力在人工智慧時代,將會成為AI穿戴裝置的基礎。
對於Google而言,這一次Android XR的正式釋出,標誌著Gemini的業務範圍從手機、電視和汽車擴充套件到頭戴式顯示器裝置上。很顯然這家公司受到了Meta在智慧眼鏡裝置上成功經驗的啟發,Android XR的出現有可能加速AI智慧眼鏡的普及。
願景是好的,但實現的過程還需要繼續努力。Google在演示AI眼鏡即時對話翻譯的時候,不出意外地翻車了,Gemini卡住造成了眼鏡即時視窗的「宕機」。

演示的失敗將人們拉回到了現實,目睹這一幕的觀眾禮貌性地鼓了掌,可能在他們看來,距離Google給使用者構築的AI虛擬現實世界成型還為時尚早,問題的出現是意料之中的事。
這很契合當下AI所面臨的處境,幾乎所有參與其中的人都認為AI是「未來」,但「未來何時能來」,將會成為AI發展過程中,無時無刻都需要直面的問題。
2024年決定推出Android XR時,很顯然Google就已經想好了重新下場打造智慧眼鏡。如今AI的出現,讓Google距離智慧眼鏡的「終極」又近了一步。
這次它們能成功嗎?
所有變革都是豪賭
這場I/O大會或許會被載入谷歌的公司史冊,作為它從搜尋巨頭向AI時代轉型的關鍵節點。就像喬布斯在2007年的iPhone釋出會改變了移動計算的軌跡一樣,皮查伊在2025年的這場演講可能同樣改變了資訊獲取的未來方向。
谷歌正在押注一個大膽的命題:AI不僅能增強搜尋,而是將徹底重塑搜尋的本質。這既要讓AI提供足夠有價值的直接答案,又不能完全消除使用者點選廣告和第三方網站的動力。它必須在“AI回答一切”和“保留搜尋廣告生態”之間找到微妙平衡。
隨著AI Mode在美國正式上線,這場實驗即將接受最嚴苛的市場檢驗。谷歌能否在這場自我革命中既守住現有業務,又成功轉型為AI時代的領導者,將在未來幾個季度內揭曉答案。
無論結果如何,有一點已經清晰無疑:資訊獲取的黃金時代已經結束,AI驅動的新正規化正在形成。在這個轉折點上,谷歌選擇了主動擁抱變革,而不是固守過去的輝煌。
正如歷史反覆證明的那樣,能夠成功自我革命的公司,往往能在下一個時代繼續領跑。
*原標題:Google2025 I/O大會一文讀懂:重回智慧眼鏡戰場,用AI革自己的命。頭圖及封面圖來源於“ivy”。
溫馨提示:雖然我們每天都有推送,但最近有讀者表示因平臺推送規則調整,有時候看不到我們的文章~
歡迎大家進入公眾號頁面,右上角點選“設為星標”點亮⭐️,收藏我們的公眾號,新鮮內容第一時間奉上!
*文章觀點僅供參考,不代表本機構立場


相關文章