

7 月 26 號,2025 世界人工智慧大會(WAIC)在上海正式開幕。
這一次,我們迎來了 AI 領域的重量級嘉賓,諾貝爾獎和圖靈獎得主傑弗裡·辛頓(Geoffrey Hinton)。
這是辛頓首次踏足中國參加線下活動,對於 77 歲、身體欠佳的他來說實屬不易,也更能體現出他此次中國行的彌足珍貴。

圖 | AI 安全國際對話上海共識簽署現場,辛頓、姚期智等專家合影(來源:資料圖)
就在 WAIC 開幕前一天,辛頓剛參加了第四屆人工智慧國際安全對話(International Dialogues on AI Safety,IDAIS)。
他與清華大學交叉資訊研究院和人工智慧學院院長姚期智、加州大學伯克利分校教授斯圖爾特·拉塞爾(Stuart Russell),以及上海人工智慧實驗室主任周伯文教授等 20 餘名專家聯名簽署釋出了《AI 安全國際對話上海共識》。
今天,辛頓以一場“數字智慧是否會取代生物智慧”的演講為 WAIC 開幕。

首先,辛頓討論了兩種智慧正規化。
一種是受邏輯啟發的方法,也就是傳統人工智慧(AI)。這種方法的核心觀念是“人類智慧的本質在於推理”。要實現推理,就需要建立一套符號表達式,再透過符號規則去操作它們。
而信奉這種方法的人認為,學習可以暫緩,首先要理解只是如何以符號表達的形式進行表示。

另一種方法,則是受生物學啟發的,也就是艾倫·圖靈(Alan Turing)和約翰·馮·諾伊曼(John von Neumann)所推崇的,智慧的本質在於(腦細胞)網路的學習。
對人類而言,腦細胞是學習的關鍵;對計算機來說,就需要模擬。理解學習的機制最重要,而推理可以暫緩。
1985 年,辛頓做了個小模型,嘗試結合這兩種理論,以解釋人們如何理解詞彙。他給每個詞設定多個不同特徵,記錄數字特徵來預測下一個詞,過程中不儲存句子而是生成句子並不斷預測下一個詞。
“相關聯性的知識,取決於不同的詞的特徵與語義特徵是如何進行互動的。”辛頓表示。
他接下來提到了推動語言模型發展的幾個關鍵節點。

10 年後,人們沿用此模式建模並擴大規模,成為自然語言真實模擬。20 年後,計算語言學家們終於開始接受並使用“特徵向量”(嵌入)技術。
而到了三十年後,谷歌發明了 Transformer 架構,緊接著 OpenAI 向世界展示了基於該架構的大語言模型所具備的強大能力。
如今的大語言模型可視為 1985 年微型語言模型的後代,使用更多詞輸入、更多層神經元結構,建立更復雜特徵互動模式。

大語言模型理解問題方式和人類類似,都是將詞語轉換成能夠相互良好配合的特徵向量來實現這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。
辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同型別的“樂高積木”。每一塊的形狀都不是固定不變,而詞語的含義(名字)只是大致告訴你它的“形狀”。

辛頓在此前的演講中就用過這個比喻,他當時的解釋更加細緻:
“詞語”的上面還有“小手”。當你改變詞的“形狀”時,“小手”的形狀也會隨之改變。這些詞語與詞語之間,就是透過“握手”來最佳化意思理解,類似蛋白質組合氨基酸產生有意義內容。
當詞語進入模型,它們在這個高維空間裡帶著各自初始的、大致的形狀,身上還佈滿了小手。當資訊在網路的層級間向上傳遞時,你就在不斷地調整這些詞的“形狀”和它們“小手”的形狀,試圖為每個詞找到最合適的形態,讓它們彼此之間都能完美地“握手”。
這樣一來,語言其實就是一種建模過程(搭積木的過程),可根據情況調整所需的詞彙(積木)。
最終,這就類似蛋白質組合成氨基酸,詞彙的組合會產生有意義的內容。
“其實人腦和神經網路理解意思的方式相似,而且‘幻覺’並非大模型專屬,人類也會產生。”辛頓解釋道。

接下來,辛頓討論了人類與大模型的差異性。
計算機科學將軟體和硬體分開,軟體中的知識永恆存在,即便硬體毀滅,只要軟體在就能復活。
但人類不同,人腦是模擬的,神經元連線方式因人而異,知識傳播與硬體(大腦)緊密相關,無法像軟體知識那樣輕易轉移。人類的硬體一旦毀滅,所有知識都會煙消雲散。所以人類靠學校、老師來傳承知識,但效率極低。
人腦知識難以高效轉移給他人,每秒最多傳遞約 10-100 位元資訊。當然,人類的優勢在於生物計算能耗少,如人類大腦僅需 30 瓦特功率。

相比之下,神經網路之間的知識共享就快多了,儘管能耗很大。
當大模型共享資訊時,透過平均化權重,它們一次互動就能分享大量位元的內容。比如在如今大模型的訓練中,每個模型都會部署多個副本,去分別學習不同的資料,然後所有副本再進行同步。
這就像人類學會了分身,同時去上不同的課程,然後只要聚在一起,知識就在每個個體中同步完成了。

最後,辛頓討論了 AI 可能帶來的挑戰與潛在的應對方法。
幾乎所有人都相信,一定會出現比人類更智慧的 AI,而 AI 智慧體為了完成任務,會想要生存、獲得更多控制。

辛頓此前已多次在公開信和演講中指出,當前 AI 系統已經具備自主學習和演化的潛能。
一旦其擁有長期目標,就可能會發展出與人類目標不一致的“子目標”,甚至試圖欺騙人類、操縱人類、逃脫人類的控制。

在此次 WAIC 上,辛頓又拿出了他很經典的比喻:現在的人類就像撫養幼小的虎崽,除非你能非常確定它長大後不會傷害你,否則你就應該擔心。
但人類又無法徹底禁止 AI,因為它在很多領域作用重大,所以只能尋找一種辦法,確保人類不會被 AI 消滅。

說起來容易,做起來難。
辛頓認為,這種努力應該是全球性的。但他坦言:“各國不會在防禦 AI 的危險用途上進行合作。”因為每個國家都有自己的戰略考量。

因此,他寄希望於國際社會在“預防 AI 統治世界”這一問題上達成一致,防止 AI 從人類手中奪走控制權。
辛頓最後提議,人類應當建立 AI 安全機構的國際社群,研究訓練 AI 向善的技巧。這就好比,“教導孩子成為一個好人”與“讓他們變得更聰明”,是兩碼事。

辛頓提議,各國可在本國主權範圍內研究並分享成果(在允許的範圍內),全球或 AI 領導國家應思考建立相關網路,研究如何訓練聰明的 AI 輔助人類而非消滅或統治人類。
“因為這將是人類長期面臨的重要問題。”辛頓說道。

附傑弗裡·辛頓生平簡介:傑弗裡·辛頓(Geoffrey Hinton),被譽為“人工智慧教父”,是一位英裔加拿大計算機科學家和心理學家,是深度學習的奠基人之一。
1986 年,他與大衛·拉梅爾哈特(David Rumelhart)等人合作提出了將反向傳播演算法應用於神經網路訓練的劃時代方法,使多層神經網路的訓練成為可能。這一演算法成為後來深度學習的基石。
2012 年,辛頓帶領學生亞歷克斯·克里澤夫斯基(Alex Krizhevsky)和伊利亞·蘇茨克維爾(Ilya Sutskever)開發了卷積神經網路 AlexNet,在 ImageNet 影像識別競賽中遠超其他模型,引爆了深度學習浪潮。
隨後,辛頓創立的 DNNresearch 公司被谷歌收購,他本人也加入谷歌大腦團隊,成為推動 AI 產業化的重要力量之一。
由於在神經網路領域的卓越貢獻,他於 2018 年獲得 ACM 圖靈獎,與楊立昆(Yann LeCun)和約書亞·本吉奧(Yoshua Bengio)共享該榮譽。2024 年,他又被授予諾貝爾物理學獎,表彰其在 AI 模型結構方面的突破性貢獻。
近年來,辛頓的研究重心逐漸轉向 AI 安全問題。他認為 AI 的發展速度已經遠超預期,其潛力和風險都不容忽視。在 2023 年離開谷歌後,他更加頻繁地公開發聲,表達對通用人工智慧(AGI)未來影響的擔憂。
他此前曾估計,AI 接管並摧毀人類文明的機率在 10% 到 20% 之間,雖然不是必然結局,但足以令人警惕。
至於如何應對 AI 風險,辛頓呼籲科技公司和政府投入更多資源進行 AI 安全研究。他建議至少將三分之一的計算資源用於研究如何確保 AI 系統不會偏離人類意圖。他還批評一些大型科技公司為追求商業利益而遊說放鬆監管,認為這是一種極其危險的趨勢。
在技術層面,他嘗試提出新的神經網路訓練方法,如“前向-前向演算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓練機制。
總的來說,辛頓既是深度學習崛起的重要推動者,也成為了重視 AI 安全呼聲中最具分量的聲音發出者:呼籲人類社會保持警覺,在繼續推動 AI 創新的同時,必須正視其潛在的社會風險和生存性挑戰。
參考資料:
WAIC 直播
https://blog.biocomm.ai/2025/04/28/godfather-of-ai-has-new-warning-about-artificial-intelligence-you-should-worry-cbs-news/#:~:text=authoritarians%20more%20oppressive%20and%20hackers,what%E2%80%99s%20coming%20i%20don%E2%80%99t%20think
運營/排版:何晨龍


