
今日(7 月 26 日),人工智慧之父、圖靈獎得主和諾獎得主 Geoffrey Hinton 首次以線下形式在中國公開亮相。在 2025 世界人工智慧大會上,Hinton 作為開場主題演講嘉賓分享了諸多深刻又有趣的觀點:
-
人類或許與大語言模型相似,都會產生 “幻覺”,但大語言模型遠優於依賴類比訊號的人類大腦。 -
人類難以永久留存知識,大腦死亡即意味著知識消逝;知識傳遞也效率低下,只能透過語言等方式,無法完全複製。而 AI 可透過共享引數快速傳遞知識,例如藉助蒸餾技術(如 DeepSeek 的實踐)。若獨立智慧體能共享同一組權重並以相同方式運作,就能實現數十億乃至數萬億位元頻寬的知識傳遞,前提是所有智慧體運作方式完全一致。 -
當前人類與 AI 的關係,恰似飼養一隻可愛的小虎崽 —— 它長大後可能輕易超越人類。為了生存,要麼擺脫它,要麼找到永久保護自身的方法。 -
但 AI 已無法消除,它能大幅提升幾乎所有行業的效率,即便有國家想消除,其他國家也不會認同。 -
呼籲全球建立由各國人工智慧安全研究所與國內研究網路組成的國際社群,培養不會從人類手中奪權的 “好 AI”。

以下是整理的完整演講內容:
大概 60 多年了,AI 就有兩種不同的正規化和路徑。一種是邏輯型的正規化,認為智慧本質在於推理,透過一些符號規則、對符號的表達進行操作來實現推理,這樣可以幫助我們更好理解知識怎麼代表。另外一種路徑則是以生物作為基礎的理解 AI,就是圖靈和馮·諾依曼所相信的,即智慧的本質是從神經連線中學習網路中的連線速度,這個過程中理解第一位,才能夠學習。
和這兩種理論相結合的一個是符號型的 AI 原理,看的就是這些數字,這些數字如何成為關注詞和詞的關係,心理學家是另外一種理論,顯然完全不同的另一個理論,數字的意思其實就是一系列語義學的特徵。這些特徵的存在自然也會成為一個特點。1985 年時我做了一個非常小的模型,想把這兩個理論結合在一起,更好理解人們如何理解一個詞的。每一個詞我都放了好幾個不同的特徵,把前一個數字的特徵記錄下來,我們可以預測下一個數字是什麼、下一個詞是什麼。這過程中我沒儲存任何句子,我們生成句子,然後預測下一個詞是什麼。
相關聯的知識取決於不同詞的特徵,語義的特徵如何互動。如果你問接下來 30 年會發生什麼,十年後,Yoshua Bengio 也用這樣的模式建模,但大了很多,等於成為自然語言真實模擬。20 年以後,計算語言學家終於開始接受特徵向上的嵌入來表達詞的意思。再過 30 年,谷歌發明了 Transformer,OpenAI 的研究人員也展示了可以做到什麼。

今天的大語言模型我視為微型語言模型的後代,85 年代開始的,用更多詞輸入,使用更多層的神經元結構,需要大量模糊不清的數字使用,同時學習特徵 SAIL 之間建立了更加複雜的互動模式。就像我做的小模型一樣,大語言模型與人類理解語言的方式一樣,就是把這些語言轉化為一些特徵,然後把這些特徵以一種非常完美的方式整合在一起,這就是 AI 各個層次所做的事。我的理解是,大語言模型真的理解你是怎麼理解問題,和人類理解語言的方式一樣。
什麼是理解一句話?包含哪些呢?符號的 AI 是什麼,把這套東西轉化成一些不模糊的符號、語言,實際的情況人類不是這麼理解的。我這裡打一個比方,做樂高積木,透過樂高積木可以做成任何 3D 模式,可以把一個車的小模型造出來,每一個詞視為多維度的樂高積木,可能幾千個不同的維度,這種型別的樂高積木可以做這麼多維度,可以是一個建模,有很多維度,是語言的建模,可以溝通給人,只要把這些積木起個名字就可以了,每個積木都是一個詞。樂高積木有非常多的不同,不是說幾個不同的樂高積木那種差異,我們有無數的詞,樂高積木造型是固定的,但詞的符號,它的形狀基本上做出一個確定,也可以根本不同的情況進行調整。
樂高模型相對比較確定,正方形插到正方形的小孔裡,但語言不一樣,每個語言想象出每一個詞都有很多的手,比如你想更好的理解這個詞的話,就是讓這個詞和另一個詞之間合適的進行握手,一旦這個詞的造型發生一個變形的話,和另一個詞握手方式不一樣,這裡有最佳化的問題。一個詞變形以後,意思變了,這個詞怎麼和下一個詞握上手更好的意思,這就是什麼叫人腦去理解意思或者說神經網路理解意思最根本的。有點像把蛋白質和蛋白質之間組合起來,蛋白質氨基酸不同的模型來進行整合,融合之後結合在一起帶來更有意義的內容,這是人腦理解詞的方式、語言的方式。
我到現在講的一個觀點,人們理解語言的方式和大語言模型理解的方式幾乎一樣,人類有可能就是大語言模型,人類也會和大語言模型一樣產生幻覺,因為我們也會創造出來很多幻覺的一些語言,大語言模型也會。但也有一些根本性的方式,大語言模式和人類不一樣,而且比人類更厲害。
計算機科學的原則是要把軟體和硬體分開看,不同的硬體上面可以跑同樣的軟體,這是計算機科學的基礎。在一個軟體裡的知識是永恆存在的,這個軟體永遠放在那裡,程式永遠放在那裡,你可以把所有的硬體都毀滅了,只要這個軟體存在,隨時隨地都會被複活。某種意義來說,這種計算機程式是永恆的,不會死亡的。要存在永存性,高功率下執行產生可靠的二進位制行為,這個過程非常昂貴,不能利用硬體的豐富的類位元性,這些特性不夠穩定可靠的,是模擬型的,所以每次計算都會不一樣。
人腦是模擬的,不是數字的,每次神經元激發過程中都是模擬性的,每一次都不一樣的。不可能把我腦子神經元的結構轉到你的腦子裡,做不到,因為每個人的神經元連線方式不同,我的神經元連線方式適合我的腦子裡結構。人的腦子和硬體是不一樣的東西,這就帶來了問題。如果我們做不到永生,這些知識軟體和硬體不依賴的,所以是永生。這帶來兩大好處:我們可以用很小的功率、很小的電流,我們大腦 30 個就可以用了,我們有幾萬億的神經語言連線,和電子管的情況一樣;我們不需要花非常多錢做一模一樣的硬體。
但是我們現在還有一個比較大的問題,從一個模擬的模型轉到另外一個模型知識效果,真的非常不高效,非常難,沒辦法把我腦子裡的東西展示給你,這是不一樣的。我們能做的用複雜的方式來解釋給你我已經學到哪些東西。
所以要解決這個問題,用蒸餾技術。DeepSeek 就是這麼做的,大的神經網路轉到小神經網路裡去。就像老師和學生的關係,有些情況下教師把事情連在一起,把一個詞和另一個詞互相連線上下文,聯絡起來,學生他也可以說同樣的話,但調整了 wait,我們訓練它的方式也是這樣的,你把一個人的知識傳給另外一個人也是這樣的,非常不高效。所以可能一句話有 100 個位元的資訊不是特別多,這就限制了我們可以把知識轉給另外一個人可以轉多少,我可以講很慢的方式把知識轉化給你,一秒鐘最多 100 個位元而已,如果你全聽懂我的話,所以效率不是那麼高,如果對比數字智慧之間轉化知識的效率的話有巨大的差別。
我們有同一個神經網路軟體做了幾百個不同複製放在不一樣的硬體裡,它們都是用數字,它們會用同樣的方式,用自己的 rates,平均化它的位置方式就可以把知識進行分享。我們可以有成千上萬的複製,它們可以自己來改變它們的權重,取一個平均數,這樣可以轉移知識,這樣轉移速度取決於有多少連線點,每次可以分享萬億個位元而不是幾個位元,而是幾十億的位元,比人類分享的知識快幾十億倍,所以 GPT4 非常好,有不同的複製在不同硬體運轉,可以分享他們在網上學到的不同資訊。
如果有智慧體在現實世界中執行就更重要了,因為他們能夠不斷加速,不斷複製,有很多智慧體就比單個智慧體學的更多,可以分享他們的權重,模擬軟體或模擬硬體做到這點。我們的看法是,數字計算需要很多能源,智慧體可以很方便獲取同樣的權重,分享不同經驗中學到的東西,生物計算中用能更少,分享知識更難。就像我現在分享的這樣,如果能源很便宜,數字計算就會好很多。這也讓我很擔憂。因為幾乎所有的專家都認為,我們會生產比我們更智慧的 AI,我們習慣成為最智慧的生物,很多人覺得難以想象,如果在世界當中 AI 比人更智慧我們會怎麼樣?我們可以這麼來看,如果你想知道怎麼樣,如果人類不是最智慧的話會怎麼樣,我們可以問一個雞。
我們在創造 AI 智慧體幫我們完成任務,這些智慧體已經有能力可以進行複製,它們可以給自己的子目標評級。它們想做兩件事,它們想要生存,然後來完成我們給它們的目標,它們也希望獲得更多的控制,同時也是為了完成我們給它們的目標,所以這些智慧體想生存、想更多的控制。我覺得我們不是把它們一關了事,它們會很方便的操縱用它們的人,我們就像 3 歲,它們像成年人一樣,操縱 3 歲的人是很容易的。所以覺得他們變得聰明把它們關了不現實,它們會操縱我們,勸說操控機器的人不要把它們關了。
我覺得我們現在的情況就是有人把老虎當寵物,小虎仔是很可愛的寵物,但如果一直養這個寵物就要確保它長大時不會把你殺了,一般來說養老虎當寵物不是一個好的想法。只有兩個選擇如果你養老虎的話,一個你把它訓練好,它不來殺你,或者你把它放了。用 AI 的話我們沒辦法把它消滅,AI 在很多方面做的很好,比如醫療、教育或氣候變化、新材料,幾乎可以幫助所有的行業變得更有效率。我們沒辦法消除 AI,即使一個國家消除 AI,別的國家不會這麼做,這不是一個選項。這意味著,如果我們想讓人類生存必須找一個辦法訓練 AI,讓他們不要消滅人類。
現在我發表個人的觀點,我覺得各個國家可能不會在一些方面合作,比如網路攻擊或致命武器或虛假的操控公眾意見的影片,各國利益是不一致的,他們有著不同的看法,我覺得不會在這方面有有效的合作。我們可以防止一些人來製造病毒,但在這些方面不會有什麼國際合作,但有一個方面我們是會進行合作的,我覺得這也是最重要的一個問題。我們看一下五十年代冷戰巔峰時期,美國和蘇聯一起合作,預防全球的核戰爭,大家都不希望打核戰爭,儘管他們在很多方面是對抗的,但他們在這點上可以合作。

我們現在的局面是,沒有一個國家希望 AI 統治世界,每個國家希望人類掌控世界,如果有一個國家找到辦法預防防止 AI 操控世界,這個國家肯定很樂意告訴其他國家。所以我們希望能夠有一個 AI 安全機構構成的一個國際社群研究技能、訓練 AI,讓他們向善。我們的希望是訓練 AI 向善的技巧和訓練 AI 聰明的技術不一樣,每個國家可以做自己的研究讓 AI 向善,可以基於自己的主權 AI 上進行研究,可以不給別的國家,但可以把成果分享給大家,就是怎麼訓練 AI、讓 AI 向善。
我有一個提議,就是全球發展 AI 的主要國家應該思考一下建立一個網路,包括各個國家的一些機構來研究這些問題:怎麼來訓練 AI,讓一個已經非常聰明的 AI 不想要消滅人類,不想要統治世界,讓 AI 很高興做一個輔助工作,儘管 AI 比人要聰明很多。
我們現在還不知道怎麼去做這件事。從長期來說,這可能說是人類面臨最重要的問題。我們的好訊息就是,在這個問題上所有的國家都是可以一起合作的。
謝謝!
首屆 AICon 全球人工智慧開發與應用大會(深圳站)將於 8 月 22-23 日正式舉行!本次大會以 “探索 AI 應用邊界” 為主題,聚焦 Agent、多模態、AI 產品設計等熱門方向,圍繞企業如何透過大模型降低成本、提升經營效率的實際應用案例,邀請來自頭部企業、大廠以及明星創業公司的專家,帶來一線的大模型實踐經驗和前沿洞察。一起探索 AI 應用的更多可能,發掘 AI 驅動業務增長的新路徑!

今日薦文

你也「在看」嗎?👇