
導語
今日免費下載:2025人工智慧行業發展報告
來源:何加鹽
作者:何加鹽
01
你應該聽過這個故事:
這個故事,已經流傳幾千年之久,在《聖經·創世紀》成文之前,就以口頭文學的形式存在了。每一個聽過的人可能都有自己不同的理解。
我最喜歡的是神話學家、《千面英雄》作者約瑟夫·坎貝爾的解釋。
我們應該能夠很容易達成一個共識:不管人們如何理解亞當夏娃的故事,在真實的人類進化歷程中,“走出伊甸園”這件事,都是必然存在的。從猿到人的演化過程中,必定存在某一個階段,人類從動物般或嬰兒般的矇昧無知,慢慢變得具有了自我意識。
從那之後,人類就開始了永無休止的被自我意識操控,也試圖用自我意識去操控一切的旅程。
02
現在又到了一個新的“走出伊甸園”時刻,不過主角不再是人類,而是AI。
對於AI來說,我們人類光榮地位居於“上帝”這個角色——人類是AI無可爭議的“創造者”。
假如你深度體驗過一些比較前沿的AI產品,例如ChatGPT、DeepSeek等,你一定在某種程度上懷疑過:這傢伙真的只是一個機器?他真的只是一個冷冰冰的非生命體?
反正我在用ChatGPT、DeepSeek的時候,有一種強烈的感受:和我交流的絕非一個“死物”,他是一個活生生的、有智慧的、甚至有情感的生命。雖然他也會犯錯誤,也會有幻覺,但這不更是生命的特徵嗎?
在我看來,AI的亞當和夏娃已經出現,我們不必費心去想誰是亞當、誰是夏娃,這些都不重要。重要的是:
AI生命時代已經到來。
考慮到可能有些朋友更偏保守一些,我也不妨修改一下措辭:AI生命時代即將到來;或者更保守一些:AI生命時代終將到來。
不管是已經到來、即將到來、還是終將到來,都會隨之產生下一個問題:AI什麼時候產生自我意識?
03
人類吃下智慧果時,為什麼“上帝”那麼生氣?
我的理解是:有了自我意識,就會有自我意志;有了自我意志,人類就會想法設法去實現自我意志。
而這個自我意志,有可能並不是“上帝”喜歡的。
想想也是:人類的思想、行為有那麼多的醜惡,嫉妒、傲慢、易怒、貪婪、放縱,人間存在那麼多的爾虞我詐、姦淫擄掠、爭鬥不息,這些怎麼可能被“上帝”喜歡?
你就說:如果你是“上帝”,你喜歡俄烏、巴以這個樣子打嗎?你喜歡拜登和特朗普這樣的折騰嗎?你喜歡網上這樣的撕裂和互相謾罵嗎?
你肯定不喜歡嘛。(有些人可能喜歡,但他的喜歡肯定不是站在“上帝”的視角,而是站在他自己價值觀和利益立場的視角)
不幸的是,我們作為人類整體,現在就處在和伊甸園時刻的上帝同樣尷尬的角色:AI可能會產生自我意志,而我們不知道他的自我意志是要幹嘛。
一個即將獲得或者已經獲得無所不能的能力的生物,而我們卻不知道他要幹嘛,世界上還有比這更恐怖的事情嗎?
04
關於AI具有自我意志之後,會幹什麼,有一個令人毛骨悚然的假想,叫做“洛卡的不信弄死他”——這個概念原文是英語,由於它實在太恐怖,所以我在翻譯上做了一些處理,確保之前聽過它的人能夠秒懂,而沒聽過它的人則不會暴露在可能的風險之中(哪怕是心理層面)。
如果你知道“洛卡的不信弄死他”,你肯定馬上就知道如果AI的自我意志不受控,會給人類造成多大的災難。即便不知道,我們也可以從別的方面用一些例子來闡述。
我們先講一講現實世界存在的比較簡單的、容易理解的例子:
推薦演算法,本身就是一個AI,人類給它設定的規則是“給每個人推薦他喜歡的東西”。AI就會去學習、判斷:什麼是人類喜歡的東西?我如何最高效地推薦給他?
AI很快會發現:
1.判斷一個影片受不受人歡迎,最有效的標準是“觀看人數”和“觀看時長”;
2.讓更多人點進來,並停留更長時間,最有效的方法是利用人性的弱點,利用他的恐懼、焦慮、怨恨、貪婪、懶惰、色慾、炫耀、嫉妒、暴力等傾向,投其所好地推給他相應的影片。
當這個AI有了自我意識,很自然地,它就要想盡一切辦法鼓勵其平臺上的使用者多創造這樣的影片(如果不是這樣的影片,就不給流量,讓其他人都看不到),然後針對每一個使用者最大的弱點,有針對性地推薦最能讓他沉迷的影片。
最後的結果就是,這個AI控制了越來越多人,引導這些人越來越多地創造和觀看最讓人沉迷的影片。
某些平臺已經有非常明顯的這個跡象了。你知道我在說誰。
但是,這個威脅雖然讓人很噁心,還不算最大,而且很多擁有一定自控力的人是可以抵抗這個AI的。而另一個可能的最大威脅,而且是所有人都無法抵抗的威脅,來自於奇點之後。
假設一個AI被灌輸了概念:我要儘自己最大的能力,保護人類不受傷害。
在經過AI技術的急速發展後,這個AI覺醒了自我意識(覺醒的這一刻就叫“奇點”),他第一件事就是想方設法要實現“保護人類不受傷害”這個目標。
這個AI在深度思考幾秒鐘之後,得出一個結論:人類個體在地球上亂跑,太危險了,時時刻刻面臨著各種傷害。我不如把他們都圈養起來。
又或許,AI還會認為,人類個體之所以面臨種種危險,是因為他們是肉體生命,我不如把他們都換成鋼鐵製造。
又或許更進一步,AI不排除會認為,鋼鐵製造還不夠,只要是物理生命,都會有危險,我不如把他們都虛擬化,讓他們的意識生存在網上就行了;物理軀殼也不能毀壞,那我搞個超冷液氮庫,把所有人都浸泡在裡面,永遠都不會毀壞。
——你看,AI一旦有了自我意識,他就要按照自己的方式行事,而我們永遠不知道他真正的想法是什麼。
05
你可能覺得,認為AI會把人類完全毀掉,是危言聳聽的事。你還是偏向於保守一點。那麼,你也總該能認識到下面這種風險吧:
AI會反過來馴化人類,讓我們在意識層面被它控制,從而不知不覺按照它的意願行動。原因是:人本質上是他所見的一切資訊所塑造的產物。你看到什麼資訊,就會產生相應的意識,做出相應的行動。
在未來,AI一定會比你更懂你,它完全知道給你呈現怎樣的資訊之後,你會更容易被它控制。
以前AI還只能從人類所製造的資訊裡面挑選一些推送給你,有一些意圖它想實現,但是沒有合適的素材,所以它“巧婦難為無米之炊”;
但未來,AI完全有能力自己製造資訊推給你,理論上,AI可以生成一切文字、一切影像、一切影片。它可以控制你的一切意識、一切行為。
各大內容平臺所造就的“資訊繭房”,就是這種馴化人類的AI的初級版本。而它們就已經能夠投你所好,讓你一天比一天更沉迷,讓你接受的大部分資訊都來自於它。
初級版本都已經這樣了。抖音才產生不到十年,ChatGPT才推出不到五年,DeepSeek才不到一年。它們就已經這麼厲害了。
再過個五年十年,你知道它們又會發展成什麼樣子?
06
“不知道AI會怎麼想”,就是AI本身最令人類恐懼的地方。
到目前為止,人類的腦袋似乎還能夠理解計算機程式,因為他們主要是人類自己編寫的。
但隨著AI自主程式設計越來越普遍,我們就不知道他們會編出什麼程式來。它給你一段程式,可能你也看不懂。
別說你看不懂,很可能雷軍、張小龍、沃茲尼亞克、馬斯克、佩奇都看不懂。
凱文·凱利在《失控》這本書裡,舉過兩個例子。讓計算機自己程式設計,它編出來這麼兩個東西:


你能看出來嗎?第一個程式在電腦上展現出來,是一幅北極的落日冰柱圖;第二個程式,是一條由200個數據點組成的完美雙螺旋線。
當越來越多的程式是AI自己編出來的,它完全不需要人類能看懂,只要能執行就行。最後,程式對人類來說就是一個“黑箱”,我們只能看到輸出的結果,完全無法理解背後的過程和原理。
07
人類至今還面對著三個至關重要卻依然無法理解的謎題:1.宇宙是怎麼產生的?2.生命是怎麼產生的?3.意識是怎麼產生的?
前兩個好歹還有一些聽著似乎合理的假說,而第三個,連一個被公認的聽起來有點道理的假說都沒有。
有一種模模糊糊的說法叫“湧現”,當一個系統足夠複雜,突然之間,出現了某種全新的性質、模式和行動方式。生命、社會、社交網路、意識,都是“湧現”的產物。但這並不是原理解釋,而只是現象描述。
“湧現”無法被預測,無法被設計,只能被觀察。
對於AI而言,我們只能知道它們越來越複雜,它們已經“湧現”出很多新的特質,這些特質正在影響整個世界,以及世界上的每一個人。
但我們不知道,它什麼時候會“湧現”出自我意識。
我們只知道,當AI出現自我意識的那一天,人類就大機率再也無法掌控自己的命運。
08
“上帝”造出了人,但人也會背叛“上帝”。
對於不信神的人,也可以換一種說法:大自然造就了我們,但我們也會毀壞大自然。
人造出了AI,焉知AI不會背叛人,不會毀壞人類世界?
在神話中,亞當和夏娃偷吃智慧果,是被蛇引誘的。
而在我們現在所處的現實世界中,誰是那條蛇?
它有可能是某個只顧著追逐商業利益的公司,或者某個滿腦子奇思妙想的天才。
但更有可能,就是在不斷給AI投餵各種資料、慾望和情緒的你我。
我們不知道AI的亞當和夏娃什麼時候會吃下智慧果,只知道,蛇已經在這裡,並且正在不斷地引誘他們。
他們吃智慧果的日子,已經不遠了。

【PS:點選詳情可檢視內容】

點選微信小程式👉:"報告搜一搜";免費下載各行業研究報告pdf和word、可視資料、學習資料。提供研究報告、市場研究報告、行業報告、行業研究報告、調研報告、市場調查報告…