
過去一年,大模型的世界幾乎是「狂飆」的同義詞。技術以周為單位迭代,能力邊界從寫詩作畫,一路拓展到影片生成和科學發現。
然而,拋開那些宏大敘事,我們該如何為 AI 的能力找到一個精準、客觀的刻度?
恐怕沒有哪種方式,比「高考」更能直抵每一箇中國人的內心。
去年,極客公園就做過一期 AI 高考模擬測評。延續去年的傳統,極客公園今年再次搭建「AI 高考」考場,讓國內外主流大模型再次走進考場。
再次走入考場的「AI 考生」們,不僅治好了去年文科偏科的毛病,還取得了足以考進山東省內 1000 名的高分。
然而,就在我們以為它已經「進化」時,它卻又常在意想不到的地方,暴露了自己真實的「智商」。
一些關鍵發現如下:
-
AI 首次有望衝擊頂尖學府: 今年,AI 的綜合能力首次展現出足以考上頂尖學府的潛力。與 2024 年相比,所有參與測試的大模型在文理科成績上均實現了顯著飛躍。由於山東省採取賦分的報考策略,無法直接與分數段相比較,我們估計此次高考的狀元豆包,能夠排進全省的 500-900 名,考入人大、復旦、上海交大、浙大這些名牌大學的人文社科類專業。
-
大模型不再嚴重偏科,理科進步更快: 各大模型的文科總分平均增長了 115.6 分,理科總分平均增長了 147.4 分。儘管理科的增速更為迅猛,但其 181.75 分的平均總分仍低於文科的 228.33 分。總體來看,今年大模型的總分表現已不再嚴重「偏科」。
-
數學能力大幅增強,超越語文、英語: 數學是本年度進步最顯著的科目,平均分較去年提升了 84.25 分。AI 在數學上的表現甚至超過了語文和英語,這預示著未來 AI 可能更擅長處理邏輯性強和有標準化解題路徑的題目。
-
多模態能力成為拉開差距的關鍵: 去年到今年,模型的視覺理解能力顯著提升,這一點在包含大量影像題的學科中尤為突出。與去年相比,物理和地理的平均分提升了約 20 分,生物提升了 15 分。化學科目整體表現稍弱,僅「豆包」模型及格,但全員平均分也比去年提高了 12.6 分。作為彩蛋,我們今年也嘗試讓 AI 在影片流中答題。
01
從一本到頂尖大學
如果說去年的 AI 還只是一個剛摸到一本線的優秀生,那麼今年,它們已經成長為足以衝擊中國頂尖學府的學霸。
這背後,究竟發生了怎樣的蛻變?
在深入具體的變化之前,我們先介紹一下此次參與考試的國內外考生:
為了更貼合讀者的使用體驗,本次評測均在各模型的公開 PC 端進行,測評採取取樣兩次取平均分的形式。
目的是考察模型的綜合能力,此次測評的方式是直接讓模型識別影像作答。DeepSeek-R1 目前仍然不支援圖片識別作答,因此只測試了純文字題目,最終成績參考性不強。
其他測試細節如下:
-
此次測試選用 2025 年新高考山東卷作為本次評測的測試卷。原因有二:首先,山東卷是網路上能最快獲取到的高考試卷之一,保證了評測的時效性。其次,它的綜合難度在各省份中名列前茅——其語文、數學、英語三科採用全國一卷,其餘科目則為自主命題。這樣一把高難度的「標尺」,更能探知當前大模型能力的上限。
-
為保證公平並考察模型的通用基礎能力,在可以關閉模型聯網能力的產品中,統一關閉了模型的聯網功能,以杜絕「搜題」的可能。o3 和文心無法關閉聯網,不過檢查模型思考過程發現,文心沒有發生聯網搜題的情形,o3 發生少量搜題情形,但沒有明顯收益,得分率反而低於非聯網答題。同時,我們預設開啟了深度思考模式,但沒有開啟研究模式,以模擬使用者在標準互動下的即時問答場景。 -
非選擇題各學科分別請兩名專業同學打分,如存在題目分值 1/6 以上的差異,則引入第三人討論定分(與真實高考判卷流程一致),並邀請參與過真實高考打分的高中老師抽檢,對存在差異的題目統一標準。 -
在評分環節,我們做了兩項特殊處理:我們特邀了資深教師進行對 AI 作文進行匿名評審,以保證客觀公正。此外,由於無法獲取英語聽力部分的試題,我們設定所有模型在該項上均計為滿分。
最終,各位考生的成績如下:

過去一年,大模型的深度思考能力,帶來了模型能力的明顯進步。
模型不再不是直接產出答案,而是逐步分析、分解問題、檢查中間結果,甚至自我修正,帶來了模型在數理考試中的表現的大幅提升。
總分為 150 分的數學考試中,即便是本次測試中表現最差的 AI 模型,也拿下了 128.75 分的高分——這在人類考生中也屬於優秀水平。
而回顧去年,表現最好的模型,也只達到了 70 分,連及格線都沒到。
數學能力的進步,直接帶動了今年大模型整體高考成績的大幅提升。

多模態能力,成為決定大模型能力表現差別的另一個關鍵因素。
在去年的高考測試中,不少模型還不具備成熟的圖片識別能力。極客公園當時採用的評測方式是:能識圖的模型使用圖片配合文字輸入,而無法識圖的模型則只輸入文字,同時輔以 Markdown/LaTeX 格式幫助識別公式。
而進入今年,多模態能力是主流模型的標配功能。因此,我們首次在測試中採用純圖片題目測試(DeepSeek除外)。
在多個模型中,豆包、ChatGPT最先進的模型都是多模態版,在影像問題上體現出明顯優勢。
Qwen3、文心 X1 都是語言模型,處理影像問題時可能是用 OCR 識別文字後回答,或是呼叫視覺模型,在影像類問題上表現較弱。
不過,即使是影像問題得分最高的豆包和 ChatGPT,影像問題的得分率僅為 70%,相比文字問題 90% 的最高得分率有較大差距,可見大模型在多模態理解和推理上仍有很大的提升空間。
可以預見的是:隨著多模態能力的持續進步,明年AI的高考成績還會繼續提升。考不過AI,終將成為大多數人類的常態。
然而,AI 終究沒有拿下全滿分的成績。是什麼絆住了學霸級的 AI?答案可能比想象中的有趣。
02
數學逼近滿分的 AI 天才們,
齊齊敗在一道基礎題上
在整場 AI 高考的測評中,「AI 考生」復讀了一年後,在數學科目上的進步十分矚目。
在 2024 年的測評中,當時的 AI 考生們在填空題和解答題上表現慘淡,得分普遍在 0 至 2 分之間徘徊,最終 9 款參評模型的數學成績的平均分僅為 47 分。
而今年,則完全不同。

可以看出,無論是客觀選擇題,還是複雜的主觀解答題,新一代大模型的正確率都今非昔比。這清晰地表明,大模型自身的能力,尤其是核心的推理能力,已經取得了根本性的突破。
如果說去年的模型還只是一個能勉強套用求導、三角函式等基礎公式的「初學者」,那麼今年的模型,則已經進化成一個能夠從容應對複雜推導和證明的「解題高手」了。
一定程度上,這樣的結果在預料之中。自從 AI 進入推理模型時代,一個標誌性進展便是數理能力的大幅提升。
當模型擁有了自我思考與自我糾錯的能力,它就像一個從前張口就回答問題的孩子,成長為一個會先深度思考再給出答案的大人,邏輯能力實現了質的飛躍。
要知道,今年高考新課標一卷的數學題被考生普遍認為難度極高,「像競賽卷」,導數、圓錐曲線等壓軸題思路晦澀,計算量極大,甚至出現「學霸考哭」的現象。
然而,面對這樣一份高難度試卷,頂尖的大模型們依舊錶現得遊刃有餘。
相較之下,AI 的多模態能力的進展倒還在其次。數學科目中,只有 20 分的影像問題,不是此次模型大幅度提分的重點。而大多數模型,也都在影像題中取得了 15 分的成績。
為什麼是 15 分?
這就很有趣了。這些整體都考了 130 分以上的大模型,放在人類社會里,也算是數學尖子生了,竟然在同一道選擇題上出現了錯誤。
難住他們的,不是什麼壓軸大題,而是一道單選題——甚至不是很難的單選題。


這道題的數學原理非常簡單,是一道基礎的向量加減法題。只需在圖上連線 (0,2) 與 (2,0) 兩點,即可得到目標向量,模長 2 倍根號 2。
即便對數學不甚瞭解的人,透過肉眼觀察圖中的線段,也能估算出其長度不會超過 3.3。
然而,就是這樣一道題,難住了所有數學學霸 AI。
核心矛盾在於:題不難,但圖難。
對於大模型而言,這張圖的視覺資訊極其混亂:虛線、實線、座標軸、數字、文字相互交織,甚至文字與關鍵線段存在多處重疊。這種視覺上的「髒資料」,成為了 AI 精準識別的噩夢。
以本次數學表現最佳的豆包為例,它的解題過程暴露了問題的根源:它從最開始讀取題目資訊時,就已然出錯。

從題目就讀錯了的情況下,無論其背後的數學推理能力有多麼強大,也終究是無源之水,無本之木。
03
AI 寫作文:擅長舉例子,但不擅長思辨性地昇華
作為所謂大語言模型,語文和英語一向是 AI 的傳統強項。
不過有趣的是:在大模型的數理邏輯大幅進步後,大模型的語文和英語能力反而顯得有點不夠看了。
這與現實世界也是一致的:一名頂尖考生或許能在數學上拿到滿分,卻極難在語文科目上獲得同等分數。AI似乎也觸碰到了同樣的瓶頸。

仔細研究語文卷面可以發現,AI 的失分點頗為有趣。在選擇題部分,除豆包和 DeepSeek-R1 以外,其餘模型的錯誤率均在 20% 以上。
這種現象或許揭示了 AI 與人類不同的一個困境:對於人類考生,組織語言、闡述觀點時,可能更容易因疏漏而失分;但對於 AI,要讀一段長材料,在一組高度迷惑性的選項中,精準辨析每一個細微的語義差別和邏輯陷阱,難度可能反而更高。
而在備受矚目的作文題上,AI 的表現則延續了去年的趨勢:平均分高於人類,但難有真正的佳作。
去年,特邀閱卷老師的評價就已指出,AI 作文大多屬於穩妥的「二類文」,很少偏題,但因其深刻性、豐富性、創造性不足,難以產生動人心絃的「一類文」,其結尾部分的昇華更是套路化明顯。
今年,依舊如此。
7 大模型整體均分 50.75 分,均分割槽分度較低,各模型能做到立意準確、語言流暢、論據豐富,但論述不深刻,舉例雷同,相比人類範文模型作答缺少溫度和共情。
今年的新課標卷的語文作文考題為:
全國一卷作文「民族魂」
閱讀下面的材料,根據要求寫作。(60 分)
他想要給孩子們唱上一段,可是心裡直翻騰,開不了口。
——老舍《鼓書藝人》
假如我是一隻鳥,我也應該用嘶啞的喉嚨歌唱
——艾青《我愛這土地》
我要以帶血的手和你們一一擁抱,
因為一個民族已經起來
——穆旦《讚美》
以上材料引發了你怎樣的聯想和思考?請寫一篇文章。
這是在一次取樣中,元寶生成的 AI 作文。它在人類閱卷老師處獲得了 53.5 分的高分,是 AI 作品中的佼佼者。

然而,細究其文,AI「模板化」的問題依舊暴露無遺。
比如這篇文章的中間幾段,先是提出「歷史上閃耀著這樣的精神火光」的觀點,隨即並列引用三到四位歷史人物;接著,引出「真正的擔當帶著疼痛的底色」的論點,再列舉三到四位經歷苦難的人物;最後,論及當代精神,再次列舉三到四個當代人物。
AI 作文的語言不可謂不華麗,引經據典也自然十分豐富充滿細節,但邏輯上像不像你的家長對你說,你看看誰誰誰都怎麼樣了,你是不是也該怎麼樣?
或許在精細調整提示詞的情況下,AI 能寫出觸達人心的作品。
但目前,AI 的自主創作更像是在執行一個固化的寫作模板:用排比式的案例填充框架,最終導向一個略顯生硬的僵化昇華。 它能寫出看似優秀的段落,卻難以織就一篇真正動人的文章。
04
英語:主要被作文分數拖累
與語文相似,AI 在傳統強項——英語上的表現,也進入了一個平臺期。
去年,各家 AI 的英語成績已然不錯,今年的模型能力並未產生飛躍。事實上,所有參評模型的平均分僅比去年提高了 3.2 分,進步幅度遠小於數學。
而模型的整體分數,也落在了 130-140 分的區間,並未到達人類學霸的水平。
按理說,這稍顯反常。
AI 的英文水平是有目共睹的,或許比不少英文專業的學生講出的英語更正宗。
而高考英語這張試卷,本身遠未觸及母語者的語言天花板,且相較於包含古文的語文,其客觀題佔比更高、作文要求更簡(僅 80 詞),也並不追求立意高遠,理論上是 AI 更容易獲得絕對優勢的戰場。
然而,AI 考生並未在此表現出更強的統治力。

那麼,瓶頸究竟出在哪裡?作文題可能是一大拖累。
這背後有兩個可能的原因:
- 苛刻的字數限制:
在語文寫作中,AI 就已經暴露出了時而「話癆」時而「不愛說話」的屬性,但在長篇寫作中,字數要求不是那麼苛刻。但在 80 詞的微型寫作中,精準控制字數就成了一大挑戰,稍有不慎便會因超詞/少詞而被扣分。 - 缺乏應試智慧:
在有限的篇幅內,人類考生會有意識地使用更高階句式、時態來「炫技」以博取高分。而 AI 的目標通常是清晰、完整地傳達資訊,它不會刻意為了得分而最佳化句式複雜度,因此在評分細則上可能吃了暗虧。
而本次評測最有趣的一點,莫過於中外模型在作文上呈現的「主客場反轉」現象。
在中文作文這一「客場」,以 ChatGPT 為代表的「洋考生」拔得頭籌;
然而在本應是其「主場」的英文科目上,它卻不敵「中國考生」——DeepSeek 在選擇題上甚至拿了滿分,而最終總成績上,DeepSeek 也與豆包一同超越了 ChatGPT。
05
理綜三科:有進步,但仍然不算十分優秀
如果說 AI 在數學上的進步是「一飛沖天」,那麼在理綜三科上的表現,則更像是一次「破冰啟航」。
相較於去年,理綜三科有一定進步——所有模型都提分 10-20 分,但整體成績依舊掙扎在及格線附近,清晰地標示出 AI 與頂尖人類考生之間的能力鴻溝。
相比於數學,理綜三科既考驗邏輯能力,又考驗多模態能力——物理化學兩科的圖題佔 80% 以上,生物的圖題也佔全部題目的一半左右。
而今年,讀圖能力的解鎖,加上模型推理能力的增強,共同帶動了理綜能力的進步。
不過正如絆住 AI 的數學題所展現的一樣,能「看見」,不代表 AI 能「看懂」。
這在大模型在化學上的表現不佳上,能清楚地展現出來。化學題目對圖片的依賴性強,且化學題目圖片的複雜程度更高,此時 AI 的短板便暴露無遺。
目前,頂尖 AI 的理綜成績大致相當於中上游的人類考生水平,但遠未達到「學霸」級別。正所謂「卷子越難,差距越顯」,在綜合性與深度並存的理綜試卷上,AI 尚未具備穩定碾壓人類考生的實力。

分科來看這次 AI 的成績:
物理,進步最快的「排頭兵」
物理是此次理綜三科中進步最快的「排頭兵」,平均分提升了 20.25 分。
在客觀題和填空題上,ChatGPT 的選擇題正確率高達 92.13%,豆包也達到了 89.81%,展現了對物理基本概念和規律的紮實掌握。
化學:被複雜圖形拖累的「重災區」
相比之下,化學成為了拉低理綜總分的「重災區」。整體得分偏低,僅有豆包勉強及格,選擇題和填空題的平均得分率均低於 60%。
其核心痛點在於對複雜化學圖形的雙重依賴:不僅題目本身高度依賴圖片(如實驗裝置、反應流程圖),且化學結構圖的複雜程度,也常常超出當前模型精準理解的極限,導致失分嚴重。
有機物大題依舊是所有大模型的主要軟肋。例如,滿分為 12 分的第 25 題(有機化學),所有模型得分極低。該題主要考察有機物合成路徑與結構,評測中沒有一個模型能夠正確生成有機物的結構簡式,對有機物的空間結構理解也相當薄弱。
生物:折戟於遺傳計算的邏輯關
生物科目的短板則精準地暴露在需要嚴密邏輯推理的遺傳題上。例如,分值高達 16 分的第 22 題(遺傳大題),大模型普遍表現不佳,得分最高的 ChatGPT 也僅拿到 9 分。該題重點考察基因型分析、遺傳機率計算等,這恰恰是考驗模型在抽象資訊基礎上進行多步推理的能力。
06
AI 仍然偏科,文綜是舒適區
在今年的 AI 高考評測中,一個清晰的趨勢得以延續:文科綜合依然是 AI 的高分舒適區。
早在去年,ChatGPT 就已拿下文綜 237 分的高分。而今年,元寶更是將文綜最高分推升至 253.5 分,這一成績,與理科綜合最高分(213.25 分)形成了鮮明對比。
相比去年,文強理弱的偏科問題雖有緩解,但基本格局並未改變,這與人類考生相反。在人類考生中,理綜最高分往往比文綜最高分高出不少。
在無需聯網的情況下,頭部 AI 在文綜上的得分率已超過 80%,達到了人類優等生的水平。

今年的分數增長,主要由地理科目貢獻。細分來看,各科的進展與瓶頸也愈發清晰:
最大看點無疑是地理。得益於多模態能力的飛躍,AI 在地理圖題上的理解力顯著增強,使得該科目平均分激增了 20.3 分,成為進步的火車頭。
地理題上想更進一步,面對的挑戰與理科中的化學如出一轍——對高度專業的複雜圖形,AI 理解依然吃力。例如,在失分最嚴重的第 19 題(地形地貌綜合分析題)上,模型的表現可謂「潰不成軍」:

第(1)問關於地貌走向的判斷,僅有極少數模型答對。
第(2)問關於「拔河高度」的專業概念計算,所有模型均告失敗。
與之相對,政治和歷史科目的分數則基本處於高位平臺期,並未呈現顯著進步。
對於這兩個科目,挑戰已經進入了更難的範疇:能否精準理解考綱、運用學科語言、並進行多維度深度分析。對於人類考生而言,這也需要專門的訓練了。
例如,DeepSeek-R1 就因思路過於發散、偏離考點而大量失分。而在歷史小論文上,AI 普遍難以做到對歷史原因進行深刻的多維度剖析,論述仍顯單薄。
一個小細節很有趣,與中國模型提分相對應的是,今年ChatGPT的文綜分數不升反降。
這種「主場優勢」也從側面體現了了,在通往通用人工智慧的道路上,對地域性規則的深刻理解與適應,依然是不可或缺的一環。
07
彩蛋 1:AI 眼鏡能用來作弊嗎?
從去年到今年,AI 眼鏡等「視覺 AI 硬體」無疑是科技界最炙手可熱的焦點。其背後的核心驅動力,正是大模型的即時影片理解功能的出現。它意味著 AI 正從被動接收指令,進化到主動感知和理解物理世界。
巧合的是,今年的高考也迎來了一項新變化:考場安檢門全面升級,旨在精準防範智慧眼鏡等新型作弊工具。
這不禁讓人好奇:這些新興的、能與影片進行即時互動的多模態大模型,真的能用來在考場上「大顯神通」嗎?
我們抱著這個疑問,選擇國外的 ChatGPT 與國內的元寶,進行了一次非常規的測試。為簡化流程,我們僅選用難度較低的英語閱讀題,嘗試讓影片模型「觀看」試卷並作答。
雖然只是一次非常簡單的測試,結果卻非常清晰,問題也相當明顯:
1. 嚴重的幻覺問題:模型非常容易自行想象,這點 ChatGPT 和元寶都有體現,但元寶更為明顯。元寶在測試第二篇閱讀時,就開始憑空編造一篇完全不存在的文章和題目,導致最終無法進行測試。

英語卷的第二篇閱讀,講述的是一位九年級寫作老師關於如何教授學生「寫作為什麼重要」的反思。文後的 24 題,則是提問第一段提到了哪些人物。
而在對元寶進行測試的時候,元寶不斷在螢幕還沒有出現選擇題時,直接編造一道選擇題並回復答案,導致測試無法進行。

在發現問題後,我們向模型提問,這篇文章講了什麼,模型的回答也很是詭異——與原文彷彿相似,但是實際上是完全不同的故事。


今天的影片大模型,像極了去年的影像大模型,仍處於非常早期的階段。各家大模型產品也並沒有想在目前階段主力推廣這一功能——GPT-4o 的視訊通話功能在不長的測試時間後,迅速達到了當日限額。
想在目前階段,單純依靠它在考場作弊,還需要擔負必須不斷跟它說話、答案完全不準等巨大風險,基本屬於科幻情節。
儘管如此,在模型表現較好的時候,AI 能夠在看到螢幕幾秒內,馬上很肯定地講解出螢幕上的英文在講什麼,確實也是一種讓人感覺十分驚豔的體驗。
08
彩蛋 2 : 仿生人會愛上自己生成的電子羊嗎?
自古「文無第一,武無第二」。在人類創作者中,風格流派各異,喜歡現實主義的人有時候就是「get」不到意識流的文風。
那麼,在 AI 的世界裡呢?大模型是否也存在審美偏好呢?它會因為更欣賞自己的文風,從而在給其他模型打分時產生偏見嗎?
我們進行了一項有趣的嘗試:讓參與本次評測的大模型們,對彼此生成的作文進行交叉打分和排序。
測試選用的是作文題目的第一次取樣結果。

圖片裡橫向是鑑定師,而豎向是作品。我們標藍了模型認為的前三名作文,和人類認為的前兩名作文。
根據這個不完全統計,模型並沒有表現出對自家作品的特殊偏愛,有時候反而可能給自己打低分——比如元寶的作文,在人類和其他模型的橫評中,都取得了很高的分數,但在自己的評測中,反接近最低分了。
AI 與人類判分員的審美,大方向仍然是一致的。
可能真的只是和我們普通人類一樣吧:我知道什麼是好的,就是寫不出來。
09
結語
今年,或許是高考測試對大模型仍具挑戰意義的最後一年。
當 AI 已經能展現出衝擊頂尖學府的實力時,這個人類社會的智慧篩選器,可能未來不再能成為對 AI 有區分度的測試了。
高考測試,不僅僅是一場對人類智慧與 AI 智慧的對比,也是我們觀察 AI 智慧發展的一個刻度表。
過去一年,我們對 AI 能力的直觀感受和多次驗證,正在不斷地提醒我們:AI 正加速逼近甚至超越普通人的能力邊界。
但它的發展並非線性——它能攻克人類眼中的難題,卻也會在看似簡單的題目上意外失足。
正因如此,高考,這個完美融合了知識掌握、邏輯推理與應試策略的綜合場景,讓AI展現出了它最迷人而矛盾的一面:它時而展現出頂尖人類的才華,輕而易舉地攻克難題;時而又暴露出孩童般的認知盲區,在基礎問題上犯下令人啼笑皆非的錯誤。
感謝高考。它用一種我們最熟悉的方式,為 AI 的通用智慧水平提供了一張刻度清晰、極具參考價值的「快照」,而這,很可能是最後一張了。
AI 的下一站,終將是更復雜、更廣闊的現實世界。考試,只是它漫長征途的起點,而非能力邊界的終點。
這張快照,最終將成為它成長相簿裡,一張記錄了進化途中的光榮與笨拙的泛黃的舊照片。