
撰稿:汪詰 王木頭
這就是我小時候最愛看的科幻電影《終結者》的故事背景。我當時就在想,既然這樣,那麼人類也可以派出特工回到過去,阻止發明 AI 的那位關鍵科學家,這樣,天網就不會,至少不會那麼快就誕生了。
假如科幻成真,人類應該回到哪一年?又該去阻止哪位科學家呢?
今天,諾貝爾獎委員會給出了答案——未來人應該回到 1982 年,去找一位叫名字果然也叫約翰的物理學家,他的全名是約翰·J·霍普菲爾德(John J. Hopfield)。然後,再去找一位叫傑弗裡·E·辛頓(Geoffrey E. Hinton)的科學家。阻止他倆,就能阻止(至少是大大減緩)人工智慧的發展。

這兩位科學家就是 2024 年諾貝爾物理學獎的獲獎人,或許,諾獎委員會在用這種方式給未來人拯救人類提供關鍵線索。
那麼,他們倆到底對人工智慧的誕生做出了怎樣的貢獻呢?我一個個來說。
約翰·霍普菲爾德老爺子 1933 年出生於美國芝加哥,今年已經 91 歲高齡。他 25 歲在康奈爾大學獲得物理學博士學位,28 歲到加州大學伯克利分校教授物理學,開始了自己的物理學生涯。1982 年,他 49 歲,說實話,這對於搞理論的物理學家來說,已經算是高齡了,學術的黃金年齡已經過去。但是,對於約翰·霍普菲爾德來說,這一年卻是他產出最重要成果的一年。這一年,他提出了“霍普菲爾德網路”模型,首次將物理學中的統計力學原理引入神經網路,了人工神經網路中的關聯記憶概念。

霍普菲爾德神經網路
實際上,在霍普菲爾德之前很多年,神經網路的基本雛形就已經被提出了。我們把模擬人類大腦神經元的工作機制的計算機演算法模型稱為神經網路模型。人的大腦中擁有海量的神經元細胞,這些細胞長得就像有很多觸手的章魚,神經元與神經元之間的觸手可以相互連線,也可以斷開。我們每個人的大腦中神經元細胞的總數大體差不多,但是,我們每個人大腦中的神經元的相互連線方式卻是獨一無二的,而且,這些神經元之間的連線方式在我們的成長過程中,也在不斷地產生變化。神經元之間的這種網狀連線結構儲存了我們的記憶,而我們每個人的思想,不過是電訊號在這些無窮無盡的神經元中游走所湧現出來的一種現象。
模擬人腦神經元的工作機制來實現人工智慧是比較容易想到的一種方式,不過,這只不過是眾多 AI 實現流派中的一派,甚至是並不被特別看好的一派。這是因為,它有一個天然的劣勢,就是需要的計算量非常龐大。因此,這一派一直在努力提高算力的使用效率。霍普菲爾德的貢獻就是另闢蹊徑,從物理學的角度解決問題。
我來講講他的解決思路大概是怎樣的。不過千萬注意,我這是做科普,是把他的思路簡化再簡化之後的講解,但也能讓我們普通人略微領略一下諾獎大神的思想魅力了。

人工神經網路之所以會很消耗算力,很大一部分是有很多無效的計算。這就像是讓一個盲人尋找房間出口,一定是磕磕碰碰很多次才能嘗試出門在哪裡。這些磕磕碰碰就是浪費掉的算力。
但是,浴室中的水會直奔下水道,不會到處亂撞。這是因為下水道入口在浴室地板的最低處,而水一定是往低處流的。
這個換做更加物理的說法那就是,下水道入口的位置處於重力場勢能最低的地方,而一個物體傾向於在能量最低狀態保持平衡。
霍普費爾德就是把這個原理應用到了神經網路演算法中。他設想,是否可以用計算機演算法來實現一個虛擬的力場呢?想到就幹,霍普費爾德先用軟體虛擬出一個神經網路,然後再用神經網路虛擬出一個遵守物理規律的力場,這就是他獲得諾獎的那個重要成就——霍普費爾德網路。具體實現的數學方法非常複雜,我們不講數學,我只給你講他的思路。
我們可以把這個力場想象成是一個高低起伏的二維平面,這個平面上哪裡高、哪裡低,哪裡是一個山峰,哪裡是一個低谷,都是由神經網路裡的引數決定的。
訓練神經網路的時候,需要餵給模型很多資料,這些資料就像是一個一個的小球,把它們放到虛擬的力場裡,它們就會自動滾落到最低的能量低谷裡。
比如說,我們希望這個模型可以判斷出照片裡面有沒有狗,在一個神經網路的虛擬力場裡,不同位置代表不同的結果,分別有貓、狗、狼、石頭等等,那麼,狗的位置就是勢能最低的地方,然後是狼、貓、石頭的勢能依次增大。
在真實的物理世界中,假如一個位置的力場勢能高低我們不清楚,我們可以從不同位置放下一個一個的小球,透過小球的執行狀態來探測力場的真實情況。

不過,當我們訓練一個神經網路模型的時候,情況就不太一樣了,因為神經網路裡的這個場的形狀應該是什麼樣子的我們並不知道。但我們可以不斷地把真實的貓的照片資料餵給模型,如果這個力場是正確的話,那麼這個訓練資料最後應該落在貓的位置,如果落到的是其他位置,就說明這個力場是錯的。
這個時候就需要調整模型引數,然後再用測試資料試一下,直到測試的資料能夠正確下落到代表貓的位置為止。
只要這個虛擬的力場訓練出來了,這時候再給模型輸入資料,就能判斷它到底是不是貓的照片了,這就像浴室裡的水一樣,直奔下水道,而不需要到處碰壁嘗試了。
但是,霍普費爾德網路有一個問題,那就是它最後訓練出來的那個虛擬的力場並不是只有一個低谷,雖然最低的那個低谷仍然是正確答案,但是在它周圍還有幾個深淺不一的小凹坑。於是就可能出現,給模型輸入一個數據之後,這個資料的確是往低處滾動,但是滾動到了一個周圍的小坑裡靜止了,這樣它就永遠不會滾動到正確的最深谷裡了。

霍普菲爾德網路訓練可能產生的誤差
這個問題,霍普菲爾德沒有解決,但他的這個思想,已足以讓他名垂青史。不過,霍普菲爾德沒能解決的問題,被傑弗裡·辛頓發明的“玻爾茲曼機”給解決了。
傑弗裡·E·辛頓, 1947 年出生於英國倫敦,今年 77 歲。他本科拿的是英國劍橋大學的實驗心理學文憑,本科畢業後前往愛丁堡大學學習計算機,獲得人工智慧的博士學位。你沒聽錯,早在 1975 年,大學裡面就已經有人工智慧專業了。他在 2018 年獲得圖靈獎,今年 2024 年又獲得諾貝爾物理學獎,他是全世界同時獲得圖靈獎和諾貝爾獎的第一人。
首先,玻爾茲曼是另外一個物理大神的名字,玻爾茲曼在物理學中的貢獻被稱為玻爾茲曼分佈。這是用來描述類似氣體分子這樣微小粒子的狀態的。氣體分子有什麼特點呢,就是它們是在持續不斷運動的,而且這個運動還和溫度有關,溫度越高動能越高,溫度越低動能越低。

玻爾茲曼機模型
剛才提到的霍普費爾德網路,一個數據容易陷入到區域性最低的小低谷裡面出不來,如果這個資料是具有溫度的氣體分子呢?那麼它是會不斷運動的,即便是不小心到了一個小低谷裡面,它仍然有可能翻出去,直到進入全域性的那個低谷。
如果用人工智慧的術語來說,那就是霍普費爾德網路更容易出現過擬合,但是在霍普費爾德網路虛擬出來的那個簡化版物理世界裡,再把玻爾茲曼分佈的規律也引入進去,就可以比較好的避免過擬合的現象。

直到現在,“溫度”仍然是人工智慧裡的非常重要的概念。ChatGPT 這樣的 AI 工具,通常有一個高階設定,設定模型的溫度。溫度越高,模型給出的答案會越有創意,溫度越低則是會越遵守原有的資料。
最後,我來總結一下:
推薦閱讀
關鍵詞
物理學
霍普菲爾德
模型
諾貝爾物理學獎
玻爾茲曼