
“在科學研究領域,對發現問題的投入與解決問題同樣重要。”
作者丨周伯文

通用人工智慧(AGI)猶如星辰大海,吸引著學界和業界同行者不懈探索,並不斷取得新突破。但前進的路上仍然充滿未知,如能突破研究機構與學科的藩籬,讓研究者在開放的科學社群中碰撞思想,將有望加速催生顛覆性的科學突破。
上海人工智慧實驗室正著力打造星河學術社群,它是前沿推進器,在這裡,每一個關鍵科學問題的提出,都是向技術無人區投下的思想探針;它更是一個創意實踐場,助推技術創新與應用落地,讓每一份提案都真正服務社會所需。
明珠湖會議作為星河社群的學術系列活動之一,首期於2025年6月12-16日在上海舉辦。本屆會議以“人工智慧的多維突破與協同創新”為主題,吸引了全球近60位青年學者、產業領袖參與,並凝練出了14個提案和39個關鍵問題清單,清單內容將於近期公佈。
本文繫上海人工智慧實驗室主任、首席科學家,清華大學惠妍講席教授周伯文於2025年6月13日在首屆明珠湖會議所作的開場報告。

01
科學社群的力量:創新的搖籃
歡迎各位專家與青年朋友參加明珠湖會議。
我們今天正式啟動了一個全新的科學社群——星河社群。首先我想分享幾個故事,跟大家探討一下,為什麼需要科學社群的力量。

眾所周知,現代科學起源於英國,英國現代科學的一個典型標誌是英國皇家學會,它成立於1660年,是世界上歷史最悠久、從未中斷的科學學會。但其實它有著更久遠的淵源——一群科學家在1618年發起了非正式執行的“隱形學院”(Invisible College)——這種緊密的交流塑造了近代科學精神。例如,英國皇家學會成員中,牛頓奠定了經典力學基礎,霍金則在黑洞理論和宇宙學中揭示了時空的奧秘。
科學研究離不開思想碰撞。另一方面,現在追求創新鏈和產業鏈的融合,在產業鏈,也一樣需要碰撞和交流。
1765年,工業革命的發源地英國伯明翰誕生了一個社群——這也印證了科學先行、技術跟隨的理念。這一社群最早的發起人有瓦特等在工業革命史留下名字的人,他們以組織晚餐俱樂部的形式定期聚會。聚會時間往往選擇在滿月之夜,因為在沒有路燈的情況下,月光可以幫他們照亮回家的路——這個團體因而取名為“月光社”(Lunar Society)。“月光”社孕育了許多著名人物,如“熱力學之父”開爾文勳爵;也催生了許多突破性的發明發現,如博爾頓與瓦特公司(Boulton & Watt)對蒸汽機的改造推動了第一次工業革命。
時鐘撥轉到20世紀,在計算機領域,美國高階研究計劃局(Advanced Research Project Agency)在1960年代資助了眾多美國計算機科學領域的研究。其中一項劃時代的工作是阿帕網(ARPANET)——全球網際網路的鼻祖。
阿帕網還帶來了一個“副產品”。
最初的“阿帕網”,由西海岸的4個節點構成,包括加州大學洛杉磯分校(UCLA)、斯坦福研究院(SRI)、加州大學聖巴巴拉分校(UCSB)和猶他大學(UTAH)。後來阿帕網陸續擴充套件到其他大學。
在計算機歷史的重要著作《The Dream Machine》(夢想機器)中,記錄了個人計算機和網際網路誕生背後關鍵的一群人,其中的一個故事是:阿帕網各個節點所在的高校,每年會派出各自實驗室最優秀的青年聚在一起,既參加封閉研討,也並肩滑雪、交流談心——就好像今天的明珠湖會議一樣。這群人自稱為“阿帕社群”(ARPA Community),從美國西海岸到東海岸,橫跨美國大陸的這批青年學者在此過程中建立起了緊密的友誼和共同的目標。
這個社群最了不起的成果之一,就是成就了一批優秀的成員。儘管隨著時間的流逝,阿帕網逐漸淡出了歷史舞臺,但“阿帕社群”的成員繼續協作。其中有的人從學術界進入到產業界,參與創造出了個人計算機、GUI、面向物件程式設計、雷射印表機、點對點網路、PostScript介面等劃時代的成果。這個社群有7位成員先後獲得了圖靈獎。

02
對發現問題的投入,與解決問題同樣重要
基於上述出發點,我認為我們首先要做的是提出問題、發現問題。

在科學研究領域,對發現問題的投入與解決問題同樣重要——這一點在科學界早有共識,但沒有得到足夠重視。
“阿帕社群”成員之一,艾倫·凱(Alan Kay,面向物件程式設計與GUI先驅,2003圖靈獎獲得者)曾說:相比解決問題的過程,對發現問題的過程進行資助往往更重要,但這一過程往被忽視。“辛烷值”提出者、雷達系統設計者之一亨利·蒂澤德(Henry Tizard)認為,“科學的秘密在於提出正確的問題,而對問題的選擇是否得當是科學天才的重要標誌。”
另一個例子是計算機科學、數學家理查德·漢明(Richard Hamming)。由於他喜歡追著別人問“你們領域最關鍵的問題是什麼”,因而在社交場合一度不太受歡迎。他這麼問一方面是為了用“那你們為什麼不研究這些問題呢?”來調侃對方,另一方面則是因為這個問題確實能有效引導人們聚焦於真正重要的問題。這兩個問題被稱為“漢明問題”(Hamming Questions)。
歷史證明,能回答這兩個問題的人都在各自領域大有成就,而那些不能回答的人則默默無聞。所以說,這就是提出好問題的力量。
今天,我們召開明珠湖會議,正是基於對社群力量、提出問題的重視。希望透過這個平臺,聚集志同道合挑戰科學邊界的研究者,讓大家充分思考、討論,甚至激辯,從而發現問題,提出問題,並嘗試找到答案。
在會議的組織上,我們也嘗試了一系列創新。首先,透過引導報告提出問題;其次,透過“結對報告”(Pair Talk,讓觀點不同的人做同一個報告)凝練問題;最後,在平行論壇環節深化問題。明珠湖會議的目標聚焦於提出問題,讓參與者拋開資金和資源限制,思考自己真正願意研究的問題。
與其他學術會議不同的是,我們希望明珠湖會議能做到以終為始、戰略引領。因此,我們討論的問題都有明確的時間邊界,聚焦18-36個月的技術視窗期——透過這種設定,讓大家專注於真正重要的問題。
在問題導向的過程中,我們希望參與者專注於“幹什麼”,而無需受到學歷、資歷和組織架構等因素的限制。
我們還希望結合國家在人工智慧創新領域的支援,幫助大家快速落地研究成果。明珠湖會議的預期產出是具有顛覆性的關鍵問題清單,並初步形成敏捷部署提案。在成果落地方面,我們有豐富的載體,如上海人工智慧實驗室的開放課題、“AI4S攀登者行動計劃”等專案,以及上海市和國家相關重大研究專案等,可以從不同的層次、資金規模和邊界條件出發,為提出的問題找到適配的規劃路徑。最終沉澱下來的關鍵問題還將面向社群開放,邀請更多有能力的同行者進行“答題”。

03
AI前沿十問:未來關鍵技術節點
本次會議的主題是“人工智慧的多維突破與協同創新”,關於人工智慧未來3-5年發展趨勢,我嘗試總結為“三化”。
第一個是智慧技術體系化。人工智慧是一個非常典型的先發展應用,後補充理論的一個學科,發展到現在這個階段,需要更體系化地去追究智慧的本質,更好地去完善這個體系。
第二個是智慧形態多元化。習近平總書記多次強調要“加強人工智慧和產業發展融合”“突出應用導向”“加速各領域科技創新突破”。
所以人工智慧一定要產生不同的形態,和實體經濟、社會發展、人民生活緊密結合,隨著人工智慧技術的迭代,它一定會出現智慧形態多元化。形態多元化的核心原因,一個是場景豐富度的要求,另一個是因為技術不完備,人工智慧未來四五年中還會處於一個技術待完備的過程,這時候就需要妥協,在應用中考慮新的形態。所以這裡就帶來一個新問題,要思考人工智慧產業的形態呈現出來的是過程還是終局,是手段還是目的?在這一點上,我們要充分聽取來自學術界、產業界和投資界的聲音。
第三個是智慧能力高階化。行業往前發展的核心動力是智慧能力必須不斷進行高階化演進。今天的人工智慧已經讓大家驚歎,但我相信這僅僅是開始。高階化離不開技術體系化,離不開要素的突破,離不開對形態的理解。否則,基於中階過程去探討人工智慧的高階化,就有可能走上錯誤的道路。
以上是我針對“人工智慧未來發展趨勢”的框架性思考,而針對人工智慧未來關鍵技術節點的判斷,我總結提出了十個問題,這些問題至今還沒有確定的答案。今天藉此機會與大家分享,希望可以和大家一起探討。
1、總體智慧 vs 單位智慧:如何平衡智慧發展的質量與效率?

我們從去年開始思考:當前評估模型時,往往關注總體智慧——引數規模、訓練資料量和排行榜排名。而忽略了另外一個也很重要的指標——單位智慧(IQ per token)。這一指標涵蓋資料成本、計算成本和儲存成本,類似於經濟學中的人均GDP概念。
在模型評估中,若能實現單位智慧最大化,那麼總體智慧將會顯著提升。DeepSeek模型的工程創新使模型更為簡潔,這種簡潔本身就是智慧的高階表現。2025年1月,上海人工智慧實驗室正式提出資料思維密度(IQPT,Intelligence Quality per Token),定義為模型平均效能與訓練資料量的比值,可以衡量大模型訓練資料的“投入產出比”。今年3月,OpenAI研究負責人諾姆·布朗(Noam Brown)也分享了單位成本智慧的相關觀點。
2、Deep RL規模化發展的資源悖論:如何平衡“資料合成”和“演算法訓練”兩大任務的算力分配?

深度強化學習(Deep RL)不僅是學習手段,同時也是一條能夠產出高價值資料的高效路徑。在執行過程中,它一方面會消耗一定的算力資源,另一方面卻能生成具備高精度、高密度特性的複雜推理資料。值得關注的是,這些合成數據可以反哺預訓練環節,從而顯著提升模型效能。
因此,在理想狀態下,我們可以追求效率飛輪:透過Deep RL消耗的算力與其產生的高質量資料所節省的訓練成本達成平衡。當這個臨界點到來,AI或將能以極低成本自我提升,實現“自己訓練自己”。
3、軟硬協同創新:軟體向硬體適配,還是硬體向軟體相容?

軟硬協同的路徑國內外存在差異,國際廠商如英偉達選擇 “軟體相容硬體”,透過深耕CUDA生態,使其軟體能夠高度適配自家硬體;而國內目前更多是“硬體相容軟體”,例如晶片廠商調整運算元以適配軟體需求。
然而,硬體研發的週期通常要比軟體長得多,這就導致“硬體相容軟體”這條路徑在邏輯上遭遇了挑戰。學術界應探索更高效的軟硬協同創新路徑,既要實現軟硬體在效能上的最佳化,也要緊密貼合產業實際需求,為產業發展提供更有力的支援,促進整個產業鏈的良性迴圈與升級。
4、算力受限的影響:針對應用、迭代和顛覆性的技術,算力應如何配置?

從算力運用的維度來看,可將其劃分為三類:
一是應用算力(For Application),聚焦於已明確的場景應用,透過加大算力投入,全力推動科研成果實現產業落地,將理論轉化為實際生產力,促進產業的發展與升級。
二是迭代算力(For Incremental),此類算力助力研究工作持續推進與模型迭代最佳化,例如依據 Scaling Law 投入算力開展模型訓練等相關工作。
三是創新算力(For Disruptive),其核心作用在於對非主流想法進行驗證,積極探索更多尚未被充分發掘的新技術,拓展多樣化的新解決方案。
當前,應用算力和迭代算力相對充足,而創新算力嚴重不足,這對於顛覆性想法的產生與發展形成了潛在挑戰。要想避免研究走向同質化困境,實現創新算力供給至關重要。這種供給應當鼓勵差異化思考,併為非主流技術路線提供支援。
5、Agent與基礎模型的關係:Agent是目的還是過程?如何構建真正自主進化的智慧體?

早在2023年,我們便提出下一代大模型作業系統應該是融合語言能力的工具平臺,其實與現在的Agent不謀而合。Agent和基座模型是什麼樣的關係?Agent是目的還是手段?這值得我們思考。
從Agent發展情況看,它是依賴於基礎模型的,同時還需要透過與環境和使用者的互動不斷學習和自我改進。當前大多數自我改進系統都陷入了“僵化學習”的困境 。DeepMind科學家喬納森·裡奇恩斯(Jonathan Richens)今年6月釋出論文,表明實現具有通用智慧的智慧體(AGI),必然學習到了環境的預測模型(世界模型)。無論是在動態環境中,還是在任務複雜度日益上升的背景下,世界模型都是不可或缺的基礎。
人類智慧的一個核心特徵便是其永無止境的學習能力——不斷吸收新知識、適應環境變化,並對過往經驗進行深刻的總結、遷移與昇華。智慧體系統是否也有可能具備類似的、真正意義上的持續學習能力,甚至在此基礎上實現某種形式的“自主進化”?
6、具身智慧:超級大腦與本體的關係? 如何突破“莫拉維克悖論”?實現類人的具身進化和環境自適應?

在具身智慧的研究範疇裡,如何精準定義 “大腦” 與 “本體” 之間的關係,已成為核心且亟待攻克的關鍵問題。人類作為“智慧體”,在本體能力維度,諸如力量、速度等方面,人類相較於眾多動物存在明顯劣勢。然而,人類卻憑藉獨特的工具創造能力、環境互動與學習的能力,成功突破了自身生理侷限,達成諸多超越想象的成就。
因此,未來的具身智慧研究應當深入探究大腦與本體間的最優關係,並據此制定資源投入的最佳策略。既避免“超級大腦-弱本體”的陷阱,也避免“高階本體-簡單決策”的陷阱。從而推動具身智慧技術取得實質性、突破性進展。
7、安全可信 vs 智慧:如何從Make AI Safe 到 Make Safe AI?

人工智慧正以前所未有的速度發展,當前面臨的核心挑戰是:如何從被動的“彌補AI安全漏洞”(Make AI Safe)轉向主動的“構建本質安全的AI”(Make Safe AI)?
2024年,我們提出“人工智慧45°平衡律”:安全不應是AI系統的後期附加功能,而必須作為核心設計原則貫穿始終。2025年,約書亞·本吉奧(Yoshua Bengio)倡導的“設計即安全”(Safety by Design)也反映出這一點。
近期,形式化AI取得較多進展,華裔數學家陶哲軒的“Lean+AI=數學證明智慧化”概念,以及創業公司Ndea的程式合成(program synthesis)技術,都體現了透過數學嚴謹性確保系統行為可驗證。形式化AI有巨大潛力,但同時也存在一定的問題:會否由於限制太強,使系統靈活度下降,從而出現為了完成任務而“繞過安全檢查”,最終導致病變?自動形式化、形式化驗證是確保AI 100% 安全的路徑嗎?還有哪些可行的技術方案,比如Causal AI(因果人工智慧)、Explainable AI(可解釋人工智慧)等?真正的AI安全需要的不是完美的規範,而是具備自我修正能力的動態安全機制。
8、高分 vs 高能:從靜態到動態? 訓練、評測、解決問題一體化?面向AGI的評測應如何建設?

“AI上半場”聚焦於開發新的訓練方法和模型架構,但模型任務與真實世界的“效用”存在脫節,暴露出當下評測體系“高分低能”的問題。因此“AI下半場”將聚焦於“現實世界的任務定義與評估體系重構”。
新評測體系要從能力導向(構建評測問題)到任務導向 (獨立/輔助人類解決現實世界中的高價值問題)遷移,評測和解決問題可能會變成一體化,即在訓練中評測、在評測中訓練,在“幹中學”在“學中幹”。
2025年4月,我們釋出了“測試時強化學習”(Test-Time Reinforcement Learning, TTRL)框架研究論文,探索在沒有準確標籤的情況下進行獎勵估計,驅動模型朝著正確的方向學習。同期,Google DeepMind 強化學習團隊副總裁David Silver與圖靈獎得主、強化學習之父Richard Sutton共同發表文章《Welcome to the Era of Experience》,與TTRL框架理念相似。
9、下一代AI for Science:如何從“工具的革命”到“革命的工具”?

AI for Science要真正發揮革命性作用,必須理解科學研究的本質:研究者、研究工具、研究物件三者的互動關係。目前的AI for Science主要關注研究工具層面的單點效率提升(“工具的革命”),而我們需要追求的是能夠帶來科學正規化轉變的“革命性工具”,並實現科研各環節全鏈條水平提升。下一代For Science的AI,如何從“工具的革命”變成“革命的工具”應該是我們這一代人的使命。
如果要成為“革命的工具”,現在的語言模型是否夠用?若沒有多模態的智慧湧現,或許很難實現革命性的AI for Science工具。當前的多模態模型仍然建立在預測下一個token的基礎上,缺乏對圖表、分子模型、公式和實驗觀察的深度理解能力。打造能夠推動科學突破的AI系統,需要在多模態統一表徵方面取得突破。
10、顛覆性架構是什麼?針對Transformer的不足,什麼架構能夠帶來根本性創新?

Transformer架構自2017年問世以來,引領了AI領域的一場革命。從GPT系列到Claude,從DALL-E到Gemini,幾乎所有令人印象深刻的大型語言模型和多模態模型都建立在這一架構之上。然而,隨著我們對AI能力的期望不斷提高,Transformer的一些內在侷限性逐漸顯現,包括計算效率不高、上下文理解有限、推理能力存在瓶頸、難以模擬動態系統等。正如愛因斯坦所言:“我們不能用製造問題時的思維方式來解決問題”。突破這些侷限,可能需要全新的架構思路。展望未來,除了Transformer自身架構的持續迭代,未來多元架構如何共存、互補和協作?針對決策智慧、世界智慧、生物智慧等領域需要探索可能引領下一代的AI架構。

04
如何實現戰略科學家“群體湧現”
上面討論了科學社群及提出好問題的重要性,如果我們把目光投向更聚焦的人群——戰略科學家,就會發現,在許多關鍵的歷史時期,都出現了戰略科學家“群體湧現”的效應。

例如,1920年代,世界上湧現出了一批史稱匈牙利“黃金一代”的戰略科學家,包括計算機之父馮·諾依曼、氫彈之父愛德華·特勒,以及錢學森的導師——超音速飛行之父馮·卡門等。1970至80年代PC革命,美國湧現出比爾·蓋茨、喬布斯等,他們均出生於1955年。如今人工智慧領域也出現了頂尖科技人才集聚效應,OpenAI釋出世界首個深度思考與推理大模型o1,其核心技術的七位負責人中,五位來自波蘭。
但是,戰略科學家人選難以在早期預判。二戰後,美國基礎研究奠基人範內瓦·布什(Vannevar Bush)曾在給美國總統杜魯門的信中寫道:“戰略科學家的形成是一個長期且複雜的過程,涉及個人智力、意願、身體健康、精力、目標導向等多個方面”。
歷史證明,戰略科學家往往在承擔重大任務時,在有研判、有管理、有組織能力的群體中產生。承擔重大科研攻關專案是成為戰略科學家不可或缺的條件。以我國的“兩彈一星”工程為例,大量科學家透過參與這一國家重大科技工程,不僅發揮出其卓越的科研能力,也展現了非凡的戰略眼光和領導力。
我們一直把科學社群問題驅動作為培養戰略科學家的輸入點,併為戰略科學家成長創造條件。當前通用人工智慧處於爆發前夜,存在非常難得的視窗期,亟待透過重大組織模式創新,發現、選拔,並培育出一批戰略科學家。
實驗室廣泛連結國內外優秀科研團隊和人才,並探索透過構建科學社群,形成戰略科技人才蓄水池,以問題為驅動,形成“高強度要素投入+高集中任務攻關+高密度人才歷練場”三位一體的培育模式,讓真正有潛力的青年科學家在潛心研究的過程中,持續提升前瞻性判斷、跨學科理解能力、組織領導等核心能力,最終成長為戰略科學家。
首屆明珠湖會議凝練出的39個科學關鍵問題清單將於近期公佈,歡迎關注。
未來,星河社群系列學術活動將持續舉辦。歡迎有志於挑戰科學邊界的科學家們加入星河社群,一起用好問題定義AI未來。

(歡迎掃碼申請加入星河社群)


未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社群進行轉載!
公眾號轉載請先在「AI科技評論」後臺留言取得授權,轉載時需標註來源並插入本公眾號名片。
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社群進行轉載!
公眾號轉載請先在「AI科技評論」後臺留言取得授權,轉載時需標註來源並插入本公眾號名片。