奧特曼還在抱娃,GPT-4.5已經被網友開噴了…

自打 DeepSeek 全球爆火以後, AI 圈裡都跟按了快進鍵一樣,都好頓加速。
別的不說,光這一週就有馬斯克的 Grok 3 ,Anthropic的 Claude 3.7 Sonnet ,阿里的通義 QwQ-Max-Preview ,騰訊的 Turbo S ,月之暗面的 Kimi-1.6-IoI-High ,谷歌的 Gemini Code Assist 啥的一大堆東西,還有個 DeepSeek 開源周,簡直是仙之人兮列如麻。
而就在昨晚,回回被拿出來鞭屍,每次都自稱在憋大的的 OpenAI 終於憋出來了,掏出了 GPT 系列的船新版本, GPT-4.5 。

 按奧特曼的說法,這回這個 GPT-4.5 是一種不同型別的智慧,其中有著他從未感受過的奇妙之處,這將是第一個讓你感覺在和一個有思想的人說話的模型。

不過,自打兩個月前哥們連著十幾天,次次半夜兩點追他們無聊釋出會,說實話奧特曼有點傷了哥們的心了。

 所以咱其實對這個 GPT-4.5 也沒報啥期望,甚至釋出會上奧特曼人都沒來,說是回家帶孩子去了,對,就他跟他老公倆男的生的那個娃。

反正整體看下來,我只能說 GPT-4.5 這波算是 “ 唐唐 ” 亮相了。
這倒不是哥們尬黑,其他網友們對這玩意多數也是這個看法,外網上甚至有個 GPT-4.5 是不是垃圾的討論,因為就連紅脖子們也不看好 GPT ,都投票給了馬斯克的 xAI 。
所以這玩意到底怎麼個拉法呢,不賣關子,咱直接說結論,那就是 GPT-4.5 效能不行,而且價高。
同樣是昨晚釋出,但他跟 su7u 屬於是完全反著來。
先說效能吧,在一個 OpenAI 官方給出的基準測試裡, GPT-4.5 在科學,數學,編碼能力上都比不上自家去年發的 o3-mini ,基準測試也只比 4o 好 5% 。
也就是說, GPT-4.5 在 AIME 和 GPQA 等困難的學術基準測試上,相比自家 o3-mini 都是不太夠的,更別說跟 DeepSeek-R1 和 Claude 3.7 Sonnet 這些放一個怪物房了。
拋開官網的資料,拿網友們的實測來看, GPT-4.5 跟同在這周釋出的 Claude 3.7 也相差不小。

 比如在思維理解和導圖生成上, Claude 幾乎可以搬到 ppt 上做插圖了,但 GPT-4.5 畫的圖就跟我小學微機課上的作業一樣。。。

更離譜的是,這玩意的執行速度還很慢。。。
但這還不是最離譜的,真正讓它挨噴的,其實是它的價格。
按他們官方的資料, GPT-4.5 每百萬 Tokens 價格是 75 美元,跟 4o 相比整整漲了 30 倍,更別說跟 DeepSeek 比了,那直接能達到 280 倍。。。

 要是再算上 DeepSeek 的折扣,甚至能相差 1000 倍以上!

但搞笑的是, OpenAI 的官網文章還說 GPT-4.5 “ 無法完全替代 GPT-4o ” 。
不過人家 OpenAI 官方倒是不太在意這個,他們覺得 GPT-4.5 真正厲害之處,在於它的語言能力。

 他們在官網的部落格裡說, GPT-4.5 可以在對話中分析人類情感需求,提供情緒價值這方面是現在最牛的。

 “ 它將對世界的深刻理解與更佳的協作相結合,可以形成一種模型,該模型可以在更適合人類協作的熱情而直觀的對話中自然地整合想法。GPT-4.5 能夠更好地理解人類的意思,並以更細緻入微的 “ 情商 ” 來解讀微妙的暗示或隱含的期望。 ” 
就比如說你沒考好,跟他一說他就會先安慰你,但 4o 就很直男的直接給你一堆方案。
可是咋說呢,這看起來確實有人情味了些,但調教出一個有情商的 AI 似乎沒法證明它真的就比別家強。

 拿位元組的豆包來說,你給它發這句它也回答的挺人性的,甚至還能打電話。

不止咱們,外網網友也對 OpenAI 紛紛發推,那它跟 DeepSeek r1 和 Grok 做比較,公開表示陰陽。
說實話這也能理解,勞資花了市場上最貴的錢,結果它是要演算法有情商,要推理有情商,要應用有情商。。。
前 OpenAI 員工,國外知名 AI 分析師Andrej Karpathy 發了個文章說, GPT-4.5 相比前代的訓練成本是提高了整整十倍的,但智商並不如推理模型,而是把重點放在了 AI 的情商上。
雖然 Andrej對 GPT-4.5 的情商挺滿意的,說這是 GPT-3.5 到 4.0 的進步;但他也指出, GPT-4.5 並不是推理模型,而且可能是 OpenAI 最後一代非推理模型了。

 這麼一來,等到 OpenAI 在 4.5 的基礎上再搞下一代推理模型,估計才會有更好的表現。

不過從這一點上說,以後可能大部分 AI 的方向,都將會徹底轉向推理。
一方面, GPT-4.5 的這次亮相,其實某種意義上可以說,傳統只靠大力出奇跡,狂堆算力的 Scaling Law (規模法則 )已開始減速了。
而另一方面,開源模型陣營這邊,在這個方向上已經上道了。
不說別的, DeepSeek 開源周這幾天,每天都把自家 V3 和 R1 訓練推理過程中的核心出裝,都免費曬出來給大家用。
比方說第一天的 FlashMLA 架構,相當於把自己調教英偉達 GPU 的招給教了,手把手教你榨乾 H800 的算力資源;

 後面幾天還陸續開放了 DeepEP 、 DeepGEMM 、 DualPipe 、 EPLB 這一堆資料庫和演算法;最後還給了個用來壓榨固態硬碟效能的 3FS 和 Smallpond 資料處理框架。

而在類似 GitHub 的社群, AI 領域的開發者們這幾天也是高興壞了, DeepSeek 這些開源資料幾乎每天都在 GitHub 熱榜上坐莊,這波可以說是新的 “ 源神 ” 了。

 一邊 GPT-4.5 表現平平,一邊 DeepSeek 搞得是人人有槍,這樣一來,以後的 AI 訓練估計很難再看到傳統的算力競賽了,更低本高效的訓練估計會變成王道。

撰文:納西
編輯:江江 & 面線
美編:煥妍
圖片、資料來源
OpenAI 、 X 等,部分圖源網路


相關文章