英偉達的晶片主導地位正被侵蝕,OpenAI租用谷歌TPU,為首次大規模使用“非英偉達”晶片。
週六,據媒體報道,作為全球最大的人工智慧晶片客戶之一,OpenAI近期開始租用谷歌的TPU晶片為ChatGPT等產品提供算力支援,這是該公司首次大規模使用非英偉達晶片。
據知情人士透露,此次合作安排使得OpenAI緩解對微軟資料中心的依賴,同時為谷歌的TPU提供了挑戰英偉達GPU市場主導地位的機會。OpenAI希望透過谷歌雲租用的TPU晶片降低推理計算成本。
隨著ChatGPT付費訂閱使用者從年初的1500萬增長至超過2500萬,加上每週數億免費使用者的使用,OpenAI的算力需求正在快速攀升。
值得一提的是,越來越多公司正在開發推理晶片以減少對英偉達的依賴並長期降低成本。亞馬遜和微軟,以及OpenAI和Meta等大型AI推理晶片都已啟動自主研發推理晶片的計劃,見聞此前文章提及,微軟造芯計劃受挫,Maia 100目前僅用於內部測試,Braga的AI 芯片面臨至少六個月的延遲,且預計其效能將遠低於英偉達Blackwell晶片。

OpenAI需求激增推動轉向谷歌晶片
OpenAI主要透過微軟和甲骨文租用英偉達伺服器晶片來開發訓練模型併為ChatGPT提供算力。 據瞭解,該公司去年在此類伺服器上的支出超過40億美元,其中訓練和推理成本各佔一半,預計2025年在AI晶片伺服器上的支出將接近140億美元。
谷歌TPU轉向的直接推動因素是今年早些時候ChatGPT影像生成工具的爆紅,這給OpenAI在微軟的推理伺服器帶來了巨大的壓力。為了應對不斷增長的計算需求和成本壓力,OpenAI首先尋求了谷歌雲的支援。
據谷歌雲員工透露,谷歌雖然向該競爭對手開放其強大的TPU晶片,但還是會將更強大的TPU保留給自己的AI團隊開發,然後供Gemini模型使用。
谷歌大約10年前就開始研發TPU晶片,並從2017年開始向訓練自有AI模型的雲客戶提供這一服務。除了OpenAI外、蘋果、Safe Superintelligence和Cohere等公司也一直租用谷歌雲的TPU,部分原因是這些公司的一些員工在谷歌工作,熟悉TPU的運作方式。
據知情人士透露,同樣是全球最大AI晶片客戶之一的Meta近期也考慮使用TPU。
此外,谷歌雲還向其客戶出租英偉達支援的伺服器,因為英偉達晶片是行業標準,這樣做帶來的收益仍然比出租TPU多得多。開發者對控制這些晶片的專用軟體更加熟悉。谷歌此前已向英偉達訂購了超過100億美元的最新Blackwell伺服器晶片,並於今年2月開始向部分客戶提供。
⭐星標華爾街見聞,好內容不錯過⭐
本文不構成個人投資建議,不代表平臺觀點,市場有風險,投資需謹慎,請獨立判斷和決策。
覺得好看,請點“在看”
