👆關注的人,領先不止一步👆

本文節選自《故事、骰子和會思考的石頭》,2024年8月由中譯出版社出版。
第一臺完全電晶體化的計算機於 1954 年問世。兩年後,達特茅斯學院的助理教授、28 歲的約翰·麥卡錫(John McCarthy)創造了“人工智慧”(AI)這個術語,並在某個夏季召集了一群計算機科學家進行了一項研究——“如何讓機器使用語言,詮釋抽象和概念,以及解決只有人類才能解決的各種問題”。
我發現他們可太天真了。在一個夏天就能創造人工智慧?在1956 年?但仔細想想,他們的樂觀並非沒有道理。人們已經發現了簡單的科學定律,可以解釋物理學、光子學、磁學、熱力學和量子力學中大量可觀察到的現象。我們有充分的理由希望,智慧也可以從一些簡單的定律中產生。但事實證明並非如此。智慧複雜至極,以至於我們仍然無法理解它,甚至無法就它的定義達成一致。
鑑於此,人工智慧沒有正式的定義也就不足為奇了。甚至對於它在何種意義上是人為的,人們也沒有達成共識。之所以如此描述,是因為我們創造了它,而不是自然智慧嗎?還是因為它不是真正的智慧,就像人造花不是真正的花一樣?麥卡錫自己也後悔創造了這個詞,覺得它為機器設定了過高的標準。
人工智慧意味著兩個不相關的東西
當人們使用 AI 這個詞時,有兩種不同的含義,它們沒有任何共同之處。但由於人們對兩者的區別不甚瞭解,所以籠統的術語 AI被用來描述它們兩者,這引起了很多困惑,就像“雙週”(biweekly)可以表示“每週兩次”或“每隔一週”(每兩週)。因此,當你讀到有關你的垃圾郵件過濾器中的 AI 變得更加高效的標題,以及另一個有關 AI 如何接管世界並奴役我們所有人的標題時,你會情不自禁地開始對自己的垃圾郵件過濾器抱有某種不信任的態度。但在這些情況下,人工智慧意味著兩個不相關的東西。
“奴役我們”意義上的人工智慧的反烏托邦概念被稱為“通用人工智慧”。它是一個程式,可以做任何人類在認知上能做的事情。它具有創造力,可以自學新事物。沒有人知道如何構建它,甚至不知道它是否可能存在。
我曾經主持過一個 AI 播客,其間我問了我的大約 100 位嘉賓中的大多數人,他們都是 AI 領域的主要思想家,問他們是否認為通用 AI 是可能的,如果是,我們什麼時候能實現它。只有三位嘉賓說這是不可能的。順便說一句,我碰巧同意這三個人的觀點。在相信我們可以構建通用人工智慧的絕大多數人中,對從現在起我們需要多長時間才能實現人工智慧的估計範圍從 5 年到 500 年不等。通常情況下,估計的時間都是 20 年左右,但“通用AI”這個術語出現已經超過 20 年,現在已經有 70 年了。

圖源:Expleo
事情就是這樣。那些相信我們可以製造通用 AI 的數以百計的人工智慧專家都會 100% 同意我們目前不知道如何做到這一點。這就是為什麼不同的科學家提出了各種各樣的可能性,試圖確定我們什麼時候能夠製造出一個通用的 AI。那麼,如果沒有人知道如何製造它,為什麼每個人都如此相信我們能做到這一點呢?我也會向他們提出這個問題,我總是得到不同版本的相似答案:“具有通用智慧的機器是可能的,因為人類就是具有通用智慧的機器。”
那些渴望看到建立通用 AI 的人是一種宗教的一部分,其追隨者正試圖建立一個神。據他們說,通用 AI 這種神將是無所不知的。哦,仁慈的——通用 AI 將是一位仁慈的神,它將授予虔誠的信徒永恆的生命,要麼透過他們的肉體不斷更新,要麼透過一種形而上學的結合,將意識上傳到機器中,在那裡他們將永遠生活在天堂的和諧中。他們相信世界末日,他們稱之為“奇點”的偉大天啟,他們相信它就在眼前。而這一切都基於一個神聖的信條:人是機器。
其他人也相信同樣的信條,但他們擔心我們正在建立的神不會是仁慈的。也許它將遠超我們,就像我們對待螞蟻一樣,也許它會以漠不關心的冷漠態度對待我們。或者更糟的是,上帝會將我們視為寄生蟲,浪費稀缺的資源,或者像害蟲一樣侵擾它的世界,或作為一種危險的病毒。哪一個都無所謂,因為它們中的任何一個都需要消滅,而上帝可以很容易地做到這一點。
通用 AI 對許多人來說是一個如此可怕的概念,其原因是,我們以前曾在電影中看到過它做過可怕的事情。事實上,我們不止一次看到過這種型別的電影,這使我們經常做一些叫作“從虛構的證據中推理”的事情。我這樣做過。我有時會發現自己在想:“這完全可能發生,我以前見過這種情況。”但後來我想起我以前在哪裡看過它:去年夏天在電影院,以及之前的那個夏天。不要誤會我的意思,我很喜歡看復仇者與流氓 AI 奧創的戰鬥,但這並不意味著它是真實的,甚至不意味著它比《不可思議的浩克》(Incredible Hulk)更可能發生。這只是另一個可怕的童話故事,就像我們第一次發現自己置身於一個我們尚未完全理解的變化世界時所講述的那種故事。
我們是機器嗎?
這是一個大問題,它關係到我們共同的命運。如果我們是,那麼我的播客嘉賓是正確的:最終我們將建立一個機械思維,它將不間斷地越發強大。如果我們不是機器,那麼人類將永遠保持卓越,至少在這個星球上是這樣。我在世界各地發表演講時,經常問我的聽眾是否相信自己是機器,通常約有 15% 的聽眾舉手。這樣脫節的答案令人震驚:我採訪的 97% 的人工智慧專家認為他們是機器,而只有 15% 的公眾認為他們自己是機器。
這個問題的答案很簡單——我們要麼是,要麼不是。但是,我認為,我們是機器的信念從根本上是有害的,因為它破壞了人權的基礎,即作為人類,無論你的優點、財富或能力如何,有一些如此非凡、超然和獨特的東西會立即賦予你特殊地位。但是,如果我們只是機器,那麼殺死一個人就具有與關閉筆記型電腦電源相同的道德特徵。這兩者有什麼不同?
很少有研究小組在致力創造一種通用的 AI。我只希望我知道的組織可以認真創造它。絕大部分的錢都花在了第二種 AI 上。好訊息是,在我們探索和掌握未來的過程中,我們根本不需要通用 AI,因此我們可以擱置哲學辯論,只關注另一種 AI,狹義 AI,它是一種我們已經廣泛使用的工具。這是一種完全不同的技術。狹義的 AI 是可以執行單個認知任務的計算機程式。示例包括垃圾郵件過濾器、GPS 導航和了解你對溫度偏好的恆溫器。我們開發狹義 AI 的方法(我從現在開始將其稱為 AI)已經經歷了三個不同的階段。
第一個階段是嘗試在計算機中對世界的某個特定方面進行建模。例如如果你想讓 AI 玩井字遊戲,你就需要編寫一個體現該遊戲的 AI,按照人類玩家的思維方式編寫策略。這是一種簡單的方法,但它只適用於最簡單的任務。
第二個階段也就是所謂的專家系統。有了這些,你會找到世界上最好的井字遊戲玩家並說:“對於 9 個可能的第一步中的每一個,你會如何回應?”然後,對於每個響應,再次詢問專家他們會做什麼。這種方法在一些地方很方便,比如工業,在這些地方問題很明確,選擇有限。你可能會注意到,這兩種階段都受到我們人類理解水平的限制,與第三種階段不同。
第三種階段是我們將要探索的方法,因為它是我們現在使用 AI 預測未來的方式。它被稱為“機器學習”。對於井字遊戲程式的機器學習方法是教會計算機遊戲規則,但不教它策略,然後讓計算機自己玩數百萬次,以此教授自己最好的遊戲方式。

圖源:Medium
機器學習是我們今天進行絕大多數人工智慧的方式。要教計算機如何識別貓的照片,你給它數千張貓的照片及數千張其他內容的照片,然後開始向它展示新的照片,問它是不是一隻貓,並告訴它判斷是對還是錯。隨著時間的推移,計算機會了解貓的樣子。
毫無疑問,你一定見過這種情況——甚至也曾參與其中。多年前,網站用於確保你不是機器人的測試要求你從模糊或缺少畫素的影像中輸入一些文字。你是幫助一家公司訓練人工智慧光學字元識別程式的志願者。然後,幾年後,測試發生了變化。你會看到路邊數字的照片,並透過破譯那些你花費時間來幫助培訓某些公司的 AI讀取街道地址的數字。現在還有第三個測試,要求你找到照片中所有停車標誌或人行橫道。當你這樣做時,你是在為訓練一些企業的自動駕駛汽車免費工作。
為什麼這一切都需要人類?因為人類進行模式匹配的能力遠遠超過了計算機。如果你在一個霧濛濛的早晨,在遠處發現一個朋友從你身邊走開,你仍然可以從他們步態的一些細微的特徵中認出他們,或者只是瞥見他們的後腦勺就認出他們來。太棒了。此外,你可以看到一個新物體——這是你以前從未見過的東西——然後可以立即從照片中挑選出它,即使它大部分是模糊的。可以給孩子看一張貓的照片,甚至是一張貓的畫,然後讓孩子一整天挑選貓的圖片。如果孩子碰巧看到一隻馬恩島貓,他們可能會說:“看,一隻沒有尾巴的小貓。”儘管他們從未被告知有這樣的東西存在,因為他們有這樣一種與生俱來的模式匹配能力,以至於他們可以感知我們都可以識別但無法解釋的“貓”的一些微妙特徵。
沒有人知道為什麼我們如此擅長模式匹配或我們如何做到這一點。我可以給你看一幅外星人的畫,只有一張畫,即使它背對著你或者趴著,你也能在照片中找到它。你可以在水彩畫中發現它,或者在黑白電影中發現它,或者即使它被渲染為嬰兒或老人時識別它。所有這些都來自一幅甚至根本不存在的生物畫。
遷移學習
我們能做到這一點的部分原因是另一件事,我們確實擅長這件事,計算機卻一點兒也不懂:遷移學習,即我們從一個領域獲取知識並將其應用於另一個領域。我們知道以某種方式掌握的技巧,哪些可以轉移,哪些不能轉移。
如果我們不能把這些事情做得這麼好,我們講故事的天性可能永遠不會進化。故事之所以有效,是因為我們能夠識別其中的模式,並且可以使用遷移學習將它們應用於其他事物。《狼來了》的故事並不是那麼有趣,除非我們可以將它與類似的情況聯絡起來,而這些情況中沒有一個涉及男孩、哭泣或狼。如果說有什麼區別的話,那麼就是我們的模式匹配能力太好了。
我們在雲中看到動物的形狀,在吐司上看到面孔。理查德·加里奧特(Richard Garriott)在他的《探索/創造》(Explore/Create)一書中描述了自己的角色扮演遊戲《網路創世紀》(Ultima Online)的創作過程。一個微不足道的,幾乎是一次性的功能是,如果你厭倦了史詩般的探索,你可以拿起一根釣魚竿,在水中放下一根線,裡面放滿了“看起來很普通的魚”,你可以有 50% 的可能釣到。無論你是否釣到魚,這都只是一次簡單的拋硬幣而已。僅此而已。

圖源:TechTalks
計算機的模式匹配與我們完全不同。我們很聰明,但它們不是。它們完全依靠蠻力。它們拍攝所有貓和非貓的照片,並將照片分解成微小的畫素塊。它們檢視所有的兩畫素組合和三畫素組合,等等。每個畫素都被分配了一個與其顏色相對應的數字,所有貓的照片中的數十億個簇對計算機來說都是貓的微小照片。輸入一張新照片,計算機會將其切成小塊,並將它們與它龐大的其他小塊資料庫進行比較。任何兩個畫素可能是貓,也可能不是貓,計算機對這個問題的最佳猜測可能只有 50.001% 的準確率,但它每秒可以進行數十億次計算的事實意味著它透過更加努力地工作可以獲得更高的置信度,而不是更聰明。大數定律和中心極限定理都是現代機器學習的支柱。
這臺機器不知道貓長什麼樣,甚至不知道貓是什麼,但它只根據貓的數學模型就能更好地發現貓。計算機從不說某物是貓或者不是貓,它只是返回一個介於 0 和 1 之間的值,說明它是貓的可能性有多大。它涉及與擲骰子和擲硬幣相同的基本計算。因此,所有的機器學習都是機率性的。帕斯卡和費馬不會對這種數學產生困惑。他們發明了機率論。他們無法理解的是這一切的規模。但平心而論,這也超出了我們的理解範圍。
當計算機準確地說某物是貓時,我們自然會假設它會像我們一樣通過了解貓的樣子得出這個結論。但事實並非如此。如果你將計算機進行的計算打印出來,你會發現那只是一堆恰好能夠識別貓的數字。人類和機器模式匹配方式之間的這種根本區別就是為什麼人工智慧中的“可解釋性”如此困難。“為什麼人工智慧會認為這是一隻貓”這個問題真的不能用語言回答。在識別貓時,缺乏可解釋性並不是什麼大問題,但對於貸款申請來說,這是一個大問題,尤其是對於剛剛被拒絕抵押貸款的人,因為計算機說他們可能會違約,但無法給出得出這個結論的任何可理解的理由。
我說了這麼多,只是為了指出計算機在看照片時不會想:“我很確定那是一隻貓,看那些尖尖的耳朵。”事實上,計算機根本就沒有思考。它只是比較一堆與畫素簇顏色相關的 1 和 0。它只不過是一個花哨的發條時鐘。
目前人工智慧的瓶頸在於清理資料,然後告訴人工智慧它所做的事物中什麼是對的,什麼是錯的。我們的夢想是一種叫作無監督學習者的東西,只要你指向網際網路,它就會在沒有人類說“對、錯、錯、對、對”100 萬次的情況下把事情弄明白。然而,我們距離擁有它還有很長的路要走,沒有人完全確定如何構建它——甚至沒有人確定能否構建它。

《故事、骰子和會思考的石頭》
作者:[美]拜倫·里斯(Byron Reese)
出版時間:2024年8月
ISBN:978-7-5001-7844-6

Get Rich


點贊+在看,搞錢穩賺!

