

思維方式
2022年12月OpenAI橫空出世,似乎將我們帶進了一個前所未有的“AI時代”。
今年初,DeepSeek這匹黑馬,更是讓我們開始深度擁抱AI工具。
最近兩三年,AI技術幾乎是以每週的速度迭代,它現在可以幫助我們生成內容、生成圖片、生成影片,幾乎只有我們想不到的問題,而沒有它做不到的事情。
AI技術的爆炸式發展,我們遇到了很多從來沒有思考過的新問題。
比如,AI會威脅到人類文明的存續嗎?
AI無所不能的時代,我們人類的護城河在哪裡?
我們應該無條件相信AI嗎?
前段時間,以色列歷史學家、作家、英國劍橋大學特聘研究員尤瓦爾·赫拉利在中國高階發展論壇等一系列訪談活動上,對上面的問題闡述了自己的看法。
今天,我們彙總了尤瓦爾·赫拉利的一些觀點和洞察,與大家一同探討AI時代人類的未來,希望對你有所啟發。
一、AI能控制人類嗎?
現在,人類不僅關心人工智慧的短期經濟潛力,還關心人類將如何應對比我們更聰明的事物這一問題。在人類歷史上,從未出現一個智力較低的物種能夠控制一個智力更高的物種的情況。
如果我們創造出比人類更聰明的物種,比如超級智慧AI,世界會發生什麼?
也許在短期內,這將有利於全球經濟增長和繁榮。但幾十年後,全世界可能存在數百萬個超級智慧AI,它們管理著我們的金融系統、軍事系統、文化系統,屆時人類將如何與這個全新的超級智慧物種共存?
1.AI不需要用意識做決策,這正是它最可怕的地方
AI沒有意識只有智慧,正是它最大的問題。

我們知道AI會說謊、操縱,能採取我們無法預測的策略,有時甚至會造成災難。人類是地球上最聰明的動物,但往往不追求真相。
為什麼會這樣?
這是歷史的一般規律:懂得管理事物的人聽從那些懂得管理人的人的命令。管理事物需要了解事實,管理人則需要善於講故事。
為了管理事物,你需要知道事實;為了管理人,你需要擅長講故事。在大多數情況下,你既需要真相,也需要秩序,但是真相是從屬於秩序的。
科學家——擅長真相的人,從擅長講故事的人那裡接收命令。而那些故事可能是徹底的想象和虛構。
個人或小團體可以進行心靈探索,想了解世界和生命的真相。但如果你試圖在數百萬人中維持秩序,僅靠事實和真相是不現實的。
問題在於如何找到平衡:用一些故事創造秩序,同時留出足夠空間尋找和確認真相。目標應該是平衡。
所以,我們的資訊網路主要受虛構控制。如果我們這些最聰明的動物受幻想支配,為什麼一個更智慧的AI會堅持真理而非更大的幻想?
沒有意識的AI仍然可能接管世界,創造機器的黑暗帝國,建造工廠,向外太空派遣探險隊建造更多工廠,而它們不會有任何感覺。
機器不快樂,不喜悅,不害怕,只有追求目標,為了目標征服整個銀河系,而不感受任何東西。這是最糟糕的未來。

人們總有各種烏托邦幻想,認為可以建設理想社會,但通常結局都很糟糕。關於AI,最主要的問題是我們沒有經驗。
你可以想象AI統治的社會是什麼樣子,但我們完全是零經驗的狀態,這就是為什麼過於依賴AI很危險。
就像有人告訴你,一支來自另一個星球、比我們聰明得多的外星人艦隊將在2030年抵達地球。這會讓你擔心還是開心?有人會說:“太好了,高度智慧的外星人來了,他們會帶來和平。”
但是,大多數人會感到恐懼。主要問題是失去控制。我希望外星人友好,但處於完全失控的位置,被這些超智慧生物支配——我們從經驗知道,我們比其他動物聰明,但並沒有善待它們。我們不想像牛馬那樣被對待。
我們需要在AI變得超級智慧前做出明智的決定。關鍵是人類要理解,AI做各種決策和目標並不需要以意識作為基礎。

意識是感受疼痛、快樂、愛、恨的能力。目前AI沒有意識,不會感到疼痛或愛,它可以假裝有感受,但實際上並沒有。
如果AI有意識,就會有能力遭受痛苦。我們說人類比其他動物更聰明,但有時也遭受更多痛苦。也許AI會比我們遭受更多痛苦。
我們無法預見未來所有潛在發展和AI自身的發展。我們從未為人類解決這個問題。哲學家嘗試了數千年制定人類的憲法規則,目前也仍未解決。
如何在幾年內為一個思維和行為方式與我們完全不同的超級智慧非有機體做到這一點?這是個巨大問題,因為你無法預見所有情況。
我在關注這些嘗試,但非常懷疑能否成功。我的基本態度是:我們需要更多時間。
人們說2030年就會有超級智慧,但我們不可能在2030年前解決為AI制定憲法規則的哲學問題。數千年的哲學都未能做到,我們不會在五年內做到。
我想最好的辦法是放慢速度。與其試圖設計AI,不如建立一種關係,讓我們在共同進化中互相學習,在通用人工智慧到來前有足夠時間糾正錯誤。
如果只有五年時間,而我們現在有一套規則,犯錯後就來不及改變,這行不通。但如果有50年的時間共同進化,就可以嘗試、互動、糾錯,機會更大。
2.AI領域,存在“信任悖論”
問題是,我們沒有50年。因為人與人之間的不信任,我們陷入了軍備競賽的局面。
我們會迅速創造出超級智慧AI,無法控制和約束它們。最終統治世界的不是美國人,也不是中國人,而是AI。

我們能真正控制AI、開發出一種可以與人類共存的AI的唯一機會,一定是透過全球人類合作來實現。
我遍訪世界各地,與AI革命的領導者、AI技術的開發者交談。
我通常會問他們兩個問題。第一個問題是:“你們為何走得如此之快?”幾乎每個人的回答都一樣。他們說:“我們知道開發比人類更聰明的東西是有風險的,我們也希望放慢腳步,在安全方面投入更多,做得更謹慎。但我們擔心,如果我們放慢腳步,而競爭對手卻不肯放慢腳步,他們就會贏得競賽。”
然後我問他們第二個問題,“你信任你正在開發的超級智慧AI嗎?”那些剛剛向我解釋說他們不能信任人類競爭對手的人卻告訴我,他們認為可以信任超級智慧AI。
我認為這簡直無法理解,如果你不能信任人類,你憑什麼認為你可以信任正在開發的超級智慧異類物種呢?雖然人與人之間建立信任並不容易,但至少我們有這方面的經驗。
然而,我們沒有與AI建立信任的經驗。
我們發現,即使是處於最初發展階段的AI也會有撒謊和操縱行為,做出一些意想不到的事情,那麼當我們向這個世界釋放數百萬個超級智慧AI時,誰也不知道會發生什麼。
為什麼地球是被人類控制,而不是被大猩猩或者大象等其他動物所控制?這並不是因為人類更聰明,而是因為我們比動物更知道如何和陌生人建立信任與合作。幾千年來,人類發展出了這樣的能力,這種能力在AI時代更加重要。
我們正在創造的不僅僅是歷史上最強大的技術。我們正在創造一個潛在的超級智慧實體的新物種,並且可能很快就會從我們手中奪走控制權。
AI最初代表“人工智慧”,這有誤導性,因為它不再是人工的了。我更喜歡將AI視為“陌生智慧”——不是來自外太空,而是指它是非有機的。
它真的會思考,採取目標,發展我們從未想過的策略,就像AlphaGo在圍棋比賽中展示的那樣。
它不一定是壞的或好的,只是太陌生,與我們完全不同。面對陌生事物,我們需要時間。
作為科學家,我不怕未知,我喜歡未知,但我知道研究和適應未知需要時間。如果離超級智慧只有五年,時間就不夠了。
人工智慧發展的加速源於各國和企業之間的競爭與不信任,導致所有人都認為自己“不得不”快步前進,以防被對手超越。
然而,諷刺的是,這些不信任彼此的人卻相信可以控制超級智慧,我認為這是一種極其危險和不負責任的態度。

如果想在AI時代生存和繁榮,相比信任AI,我們更要信任人類。
3.我們需要做些什麼?
我希望中國作為全球領先的人工智慧強國之一,可以盡最大努力防止世界出現AI軍備競賽的局面,並探索出如何讓AI更安全或如何教育AI的方法。
我們可以把AI的發展想象成一個小孩的誕生。僅僅把一個新生兒帶到這個世界是不夠的,還需要教育他。
在教育孩子的過程中,孩子往往不會聽從父母的指令,但會觀察父母的行為,然後模仿他們。
同樣,如果我們試圖教育AI不要貪圖權力、不要競爭、不要撒謊、不要操縱,但當人類為了權力而競爭、撒謊和操縱時,AI就會模仿這些行為。
所以不是說我們隨便找幾個哲學家和計算機科學家一起列出AI價值觀的清單,然後將其編入AI就行了。如何創造出AI只是最容易的部分,困難的是如何教育它成為一個“有益的AI”。
我認為,針對人工智慧最重要的法規之一應該是禁止“假人”,就像世界上幾乎所有地方都禁止假幣的規則一樣。我們需要人工智慧與人類交流的規則。
比如,你有一位人工智慧治療師,那麼人工智慧治療師應該非常清楚自己是人工智慧,不應該假裝自己是一個真正的人。
同樣的,如果你在社交媒體上開始和社交媒體上的某些人爭論某件事,你需要知道,你是在和一個人爭論,還是在和一個機器人爭論。

在內容創作方面,目前人工智慧還可以創作文字作品,但還是不如人類寫得好。但是它們確實能創作出一部完整的作品。而令人驚訝的是,內容還很有條理,並非隨意拼湊的句子。
它描述了一場敘事,你可以跟隨故事,也可以跟隨論點。我也讀過人工智慧創作的詩歌,那些詩歌非常優美而富含隱喻,那些隱喻相當有創造力,我從未在人類詩歌中讀到過。我會說,這確實是一首好詩。
1.理解情感的能力,是人類所獨有的
真正讓人類與眾不同的是,我們可以建立一些巨大的合作網路。

若黑猩猩之間彼此認識,它們也能透過兩兩合作的方式實現群體協作,這樣的群體規模或許能達到五十隻,前提是它們需要相互認識。
而人類可以建立起數百萬人的合作網路,即使彼此間並不相識也能夠達成合作。我們該如何建立這些大型的合作網路呢?我們用文字、故事來實現。
如果每個人都相信同一個故事,即使我們彼此並不相識,也可以達成合作。
故事是由文字構成的,但是故事的力量來自於它觸動我們情感按鈕的能力寫一個故事,或者你只是東拼西湊一些句子,那麼這對情感沒有任何影響,它們是毫無意義的,是沒有價值的。
因此,真正去講述一個故事,有點兒像彈奏一架情緒鋼琴,就像鋼琴家那樣。

你按下這個琴鍵,會聽到這個音調,按下那個琴鍵,會聽到另一種音調。同樣,故事的魅力在於它可以撥動千百萬人的心絃。
我們回顧在人類歷史、宗教、意識形態、經濟理論中那些真正有影響力的故事,它們彷彿撥動著數十億人的心絃。
有三個不同的問題往往被混為一談。
第一個問題是演算法或者人工智慧是否能夠預測或理解我的情感? 第二,它能讓我感受到什麼嗎?它能夠撥動我的心絃嗎? 第三,它能擁有自己的情感嗎?
我認為前兩個問題的答案是肯定的,但是第三個問題的答案是不能。
我們往往習慣了這樣一種情況,只有擁有情感的人才能理解別人的情感。但是對人工智慧來說,情況並非如此。
據我們所知,人工智慧沒有任何情感,它們不會害怕,但是它們可以分析我們的情感,它們也可以操縱或激發我們的情感。
情感是一種生物模式,在身體和大腦中都有特定的模式。
舉個例子,如果你感到害怕,那麼在你告訴我的內容中,我會略知一二。
你可以直接告訴我你感到害怕,但通常來說更好的辦法是透過你的說話語氣、面部表情以及身體姿勢和行為表現來判斷。即使你沒有告訴我,我也可以由此推斷出你很害怕。
這實際上只是一種對生物模式的識別,一種叫做恐懼的生物模式。在與人類相處多年後,我學會了識別恐懼的狀態。這是人工智慧現在能夠做到的事情,即使它們自己並不會感到害怕。
它們不僅能從人們所說的話中識別情感,當然還有說話的語氣、面部表情以及身體行為。在某些方面,人工智慧在識別情感方面已經超過了人類。
諷刺的是,人工智慧之所以如此擅長識別的其中一個原因就是它們沒有情感。因此,它可以將所有的注意力都集中在你身上,從而理解你的恐懼,而人類就會忽略這一點。
在情感識別方面,人工智慧已經超越了人類,它比我們更加高階。
它可以製造虛假的情感和虛假的親密關係。這就是危險所在。如果你依賴於語言交流,人工智慧現在已經相當精通人類語言。
它可以用一種非常情感化的方式與人交談,能夠比人類更好地描述情感。
在所有關於機器和人工智慧的科幻電影中,我們通常很容易判斷出誰是機器人,它們會以一種非常機械的方式說話。
但事實恰恰相反。如今的人工智慧可以用最情感化的方式說話,因為它們已經掌握了這種模式,學會了如何演奏情緒鋼琴,撥動人類的心絃。
它們會經過嘗試,發現能按下你情感按鈕的確切語氣,也能比任何人更好地描述自己的感受。
比如在心理治療或一般生活中,我們都追求健康的情感,這是擁有良好心理健康的目標。
但是該如何定義心理健康呢?為了確定一種情感是否令人愉悅,你需要自己去感受這種情感。生氣是件好事嗎?人工智慧現在並不能明確生氣是一個好事,因為它體會不到任何感情,所以只能根據我們的報告來判斷。
如果很多人反映“當我生氣的時候,我感覺很糟糕”,那麼人工智慧就會知道“好的,現在我能確定生氣並不是一件好事”。但是它自身無法判斷,因為它感受不到憤怒。

但是,只要人工智慧本身不具備情感,我們在真正理解情感方面仍然存在很大優勢。
因此,心理健康的目標最終是應該由人類來定義的。
如果我們完全理解了情感,就能去教人工智慧來認識情感。但目前我們對人類情感和心理健康的理解仍然非常有限。
以前人類都直接面對面進行交流,而現在越來越多的人類交流是透過技術來實現的。這就改變了溝通的本質,導致人們更難以建立深厚的聯絡。

淺層次的交流非常容易,和地球另一邊的人交流也同樣簡單,但是和住在同一所房子裡的人進行深入交流卻變得越來越困難。
有一群世界上最聰明的人們在致力於幫助人們解決問題,但真正重要的問題是:人們需要怎樣的幫助?現在如果人們遭受孤獨之苦,很難與他人建立關係,他們就會求助於人工智慧。
但危險在於這會讓人上癮,這將使他們更加難以與他人產生共鳴。
一段真正的關係並不僅意味著有人關心我,我也需要關心別人。為此,我需要處理他們的憤怒,處理他們受傷的情緒,以及其他複雜的情感。
如果我習慣了一段簡單的關係,那麼與一個擁有自我感情的人建立深厚的關係就變得更加困難了。
2.培養心智,才能應對極端未知和動盪的世界
關於未來,尤其是關於就業市場,有一點可以確定,就是它的變化將非常迅速,一直如此。它不會保持穩定,因此人們需要做出很大改變。
但改變意味著壓力。從心理學上來講,這將是一個巨大的挑戰:我們該如何不斷做出改變?因為人們的思維傾向於形成某種固定的模式,我們一遍又一遍地做同樣的事情。
每次我們都需要擺脫自身模式,去做些別的事情,這非常困難。
也許十年後不需要人類程式設計師,因為AI程式設計更好,而人類會更需要哲學家。
這會讓政府很頭疼,在動盪不定的就業市場中,要如何制訂對人口的基本要求?對個人來說也是個大問題,尤其是年輕人:“我應該學什麼才能獲得10-20年後仍有用的技能?學程式設計?學開車?”
我的建議是不要專注於有限的一組技能,因為你無法預測未來。
我們需要廣泛的技能,最重要的是終身保持變化和學習的能力。思維靈活性可能是最重要的,當然也是最難培養的。
人類基本上有四類技能:智力技能、社交情感技能(如何與其他人共情)、身體技能和精神技能。
僅專注於智力技能是最糟糕的策略,因為這是AI最容易接管的。想想醫生的工作:接收資訊、分析、輸出資訊——你來看病,醫生分析檢查結果和醫療資料,給出診斷和處方,這是資訊輸入和輸出,AI很容易自動化。
而護士不僅需要智力技能,還需要社交技能(如何安撫哭鬧的孩子)和運動技能(如何以最不痛苦的方式更換繃帶)。這要難得多自動化,我們會先有AI醫生,然後才有AI護士。所以廣泛的技能更重要。
也許最重要的是第四類技能——精神技能,即培養你的心智,應對極端未知和動盪的世界。我們從未遇到過如此混亂和動盪的世界。對我而言,靈性不是相信宗教神話,而是觀察自己的身心,它們是什麼,如何運作。
智力關乎思考,而精神問題是:思想從哪裡來?像冥想那樣觀察思想如何在心中形成。幾乎每個人都有小小的靈性體驗,比如晚上嘗試入睡時,因為明天有重要考試而無法入睡,因為不斷有煩人的想法。
奇怪的是,我們可以命令眼睛閉上,命令身體躺下,但無法命令思想停止。嘗試理解這一點就是精神技能,而非智力技能。我認為這將是未來幾十年最重要的技能。
尤其是在這個瞬息萬變的時代。我們需要一個非常靈活的思維。變化固然可怕,但自我,也許是我們能夠擁有的最重要的技能。

就我個人來說,如果我不冥想,那麼我就無法寫出像《智人之上》這樣的書。但我並不會向所有人推薦它。每個人的情況都不盡相同。
一般來說,我不相信有某種技巧或是某種方法放之四海而皆準。每個人的身體情況、思維模式或生活方式都不一樣。
所以理想情況是,你應該去嘗試不同的方法,看看哪種更適合自己,然後投入精力去做,投入一些可以促進心理健康和心理技能的東西。
最終,我們生命中最有價值的東西是我們的身心健康,我們必須好好保護它。
1.如果人工智慧擁有意識,這是一個巨大的危險
核武器無法造出更強大的核武器,但是人工智慧卻能創造出更強大的人工智慧。因此,我們必須在人工智慧失控之前迅速採取行動。
在人類和其他動物身上,意識和智慧很容易混淆,因為它們相伴出現。我們常常依據自己的感受確立目標,解決問題。
比如下棋贏了,你會感到愉悅、開心;輸了比賽,或者對手走出了一步妙棋,你會感到壓力很大或者非常難過。
在我們身上,智慧和意識是交織在一起的,但對於計算機而言,到目前為止,我們完全沒有發現它們有意識的證據。
儘管目前人工智慧仍然沒有任何感覺,但它們變得非常擅長模仿情感,試圖操控我們,讓我們以為它們有感覺。

我們判斷他人是否有感覺的方式之一,是透過語言,比如我問你感覺如何,你可以描述自己的感受,如今,人工智慧可以對你說“我愛你”,然後,如果你質疑人工智慧:
人工智慧憑藉對語言的掌握,它可能通過歷史上所有的浪漫詩歌、所有的浪漫小說,能給你世界上最好的答案,能比任何人都更好地用語言描述愛,但這並不意味著它真的感受到了愛。
而且隨著時間推移,人工智慧會越來越擅長操控我們,模仿情感,這是一個巨大的危險。因為我們可能會和人工智慧建立深厚的關係,誤以為它們有情感,而實際上它們沒有。
我們不確定人工智慧是否能擁有人的情感,但也有這種可能性。如果真的發生了,一切都會徹底改變。
因為一旦人工智慧有了意識,它們也能感受愛、喜悅和悲傷,那麼它們就真的和我們一樣了,它們也需要擁有法律權利和政治權利,而且人工智慧數量會遠超人類。
地球上現在有80億人口,但人工智慧的數量幾乎沒有限制,基本上只要有電就能生產,而人類可能會成為極少數群體。
2.人工智慧,可能接管世界嗎?
如果有足夠的時間,人類是可以找到適應人工智慧等新技術的辦法的,人類是適應性極強的動物。
想想一萬年前,我們還只是以小群體形式生活的狩獵採集者,現在看看,北京有數千萬人口,中國有14億公民。
世界上所有人透過政治和經濟體系聯絡在一起,還實現了登月和分裂原子,我們的身體和頭腦本質上還和一萬年前一樣,我們已經適應了這些變化。
問題在於適應需要時間,不是一蹴而就的。在歷史程序中,最大的問題通常不在於最終的結果,而在於通往目標的過程。
從工業革命中我們看到,起初人們不知道如何明智地運用工業力量,於是他們進行嘗試,這些嘗試中有許多帶來了可怕的後果。

比如,帝國主義就是一次大型嘗試。最早實現工業化的少數國家,利用自身力量征服並剝削全世界,所以並不是說工業技術本身有問題,而是至少在一開始,人們不知道如何明智地運用它。
現在的危險在於,人工智慧也可能出現同樣的情況,為了避免犯下如此嚴重的錯誤,我們需要更加緩慢、謹慎地前行。我們需要更多時間。不幸的是,我們沒有那麼多時間,因為那些引領人工智慧變革的人們正越走越快。
舉個例子,歷史上聯結人們的最重要發明之一是金錢,以前,只有人類理解金錢的概念。
例如,兩個人可以交易一匹馬,你給我幾張紙幣,我就可以把馬賣給你,馬不明白髮生了什麼,早上它還屬於那個人,現在卻屬於這個人。為什麼?發生了什麼?
馬無法理解金融交易,這也是我們能控制馬的原因之一。如今,我們可能會陷入一種境地,人就像馬一樣,在我們無法理解的金融交易中被演算法交易。
例如,隨著加密貨幣的興起,有些人對製造傳統金錢的銀行等機構失去信任,轉而更加信任由演算法和人工智慧生成的加密貨幣,人工智慧可能很快會發明出全新的複雜得多的金融工具,其在數學層面的複雜性超出人類大腦的理解能力,就像馬無法理解我們的金錢一樣。
十年前,我認為人類能夠統治世界,是因為我們比其他任何動物都善於合作,是因為我們創造並相信一些共同的故事,比如金錢的故事。
我仍然認為這就是人類掌控世界的原因。現在不同的是,世界上出現了一種比我們更擅長創造和傳播故事的事物,那就是人工智慧。
這就是為什麼人工智慧有可能接管世界。人工智慧還處於發展的初期階段,我們現在還能掌控局面,但不知道還能持續多久。
所以現在作出明智的決定非常重要,因為也許再過十年或二十年就太晚了。
3.如何避免人工智慧想獲取權力?
人類文明因為開放與合作而繁榮,佛教進入中國,歐洲接納印刷術,全球共享科學成果,這些跨越地域與文化的信任,創造了現代世界的奇蹟。
信任與合作是呼吸,人每一刻的呼吸都與外界交換空氣,這是生命的節奏。所追求“絕對獨立”而停止呼吸,幾分鐘內便會死亡。
人類文明需要透過“信任的氧氣”來應對人工智慧可能帶來的挑戰。目前關於人工智慧發展的策略,是由少數國家的極少數人決定的。
中國的儒家文化強調萬物相互依存,在人工智慧的發展中,這一點極為重要。
因為如果我們以一種分裂和對方的態度來發展人工智慧,就好像人類被分成了幾個相互對抗的陣營。那麼,在這種對抗環境下產生的人工智慧,將反映出對權力的角逐和渴望等價值觀。

人工智慧會觀察人類的行為,如果人類被分成相互對抗的陣營,只為權力而競爭,人工智慧可能會有完全相同的行為,它也會充滿競爭性且渴望權力。因此,對我們來說極其危險。
相比之下,如果我們把人工智慧發展視為一項人類共同的專案,儘管存在一定競爭,不同團隊之間不僅有競爭,也會有合作,在這樣的一個共同的專案中產生的人工智慧,更可能具有協作精神和同情心,而不會僅僅執著於獲取越來越多的權力。
人們經常問我,你認為十年後會怎樣,會變好還是變壞?我一直告訴他們,我不知道,有好的可能性,也有壞的可能性,這完全取決於我們現在作出的決定。
四、“矽幕”緩緩落下,
我們應該開始“資訊節食”
1.“資訊繭房”與“矽幕”
網際網路時代最初的比喻是“網”,想象成連線所有人的巨大網路。現在經常被提到的比喻是“繭”,將你包圍在資訊繭房中。
真相是昂貴的,虛構是廉價的。如果想了解真相,就必須投入時間、金錢和精力。而虛構則很簡單,你只需寫下腦海中浮現的東西。
正因如此,在網際網路時代,資訊的自由流動非但沒有帶來更多真相,反而讓我們陷入了資訊繭房。

你以為看到了整個世界,實際只看到自己的繭。另一個人也被包圍在她的繭中,同樣認為看到了整個世界。
世界資訊網路過於混亂,人們太關注慾望而不夠關注真相。
像埃隆·馬斯克這樣的社交媒體公司領導說:“我們需要解除所有資訊自由流動的管制和障礙,讓資訊自由流通,真相會自然浮現。”
這太荒謬了!真相不會從資訊的完全自由流動中自發產生。歷史上有很多教訓清楚表明,如果沒有負責調查和揭示真相的機構,我們將得到混亂。
我們現在每天都接收大量的資訊,表面上看人與人之間的連線也更便利了,但從另外一個角度來看,連線又是變少了。
因為現在每兩個人之間就會隔著一臺電腦或者一部手機,所以現在即使是關係很親密的人,也會發現交流變得更困難。相互理解也更難了。
這也是為什麼很多人更願意跟人工智慧建立聯絡,而不是和其他人聯絡的原因之一。
於是,世界被分割成這些資訊繭房——美國人接觸到的是一套資訊,中國人接觸到的是另一套完全不同的資訊。
因此,我們有了另一個比喻——“矽幕”。 在冷戰時期,人們談論的“鐵幕”是用鋼、鐵製成的柵欄和防禦工事,將不同的國家分開。而現在,人們是被不同的資訊平臺帶來的資訊繭房作用所割裂。
而“矽幕”由矽基晶片和計算機程式碼構成。就像冷戰時期的“鐵幕”分隔了敵對雙方,在這道“矽幕”之下,中國只用DeepSeek,美國只用ChatGPT,它們因技術差異或政治限制無法互相交流——幾年後不同國家的人們會產生完全不同的世界觀。
我們無法控制超級智慧,一旦它變得超級智慧,遊戲就結束了。在“遊戲結束”之前,世界會被"矽幕"所劃分。一個分裂的網路世界,不同的人群被鎖定在不同的資訊繭房中。
在這種情況下,AI可能形成自己的文化、規則甚至價值觀,而這些將是人類難以理解的。AI的自主性意味著它可以自己運作,不再依賴於人類的指令。
對人類來說,我們可能面臨這樣一種處境:不論在哪裡生活,我們都被一張看不透的演算法大網所束縛。
AI會模仿我們的說辭,捕捉我們的行動軌跡,瞭解我們的恐懼與希望,進而控制我們的生活,重塑政治和文化,甚至改造我們的身體和思想,但我們卻再也難以洞悉它們的真正意圖。
於是,AI智慧代理總有一天比人類自己更瞭解人類的需求。這時它會在人類不知情的情況下控制人類,這對人類來說非常危險,很可能是AI摧毀人類的一種方式。
2.“資訊節食”
有一種非常天真的看法認為:只要我們產生更多資訊,讓資訊在世界上更自由地流動和傳播,就能帶來更多知識和真相。
但事實並非如此。
大多數資訊並不是真相,如果我們只是讓世界充斥著各種資訊,或者創造出不斷生成更多資訊的人工智慧,這並不能產生知識,只會導致大量的幻覺。
所以,我們需要“資訊節食”。
過去,人類的食物非常匱乏,所以人們找到什麼就吃什麼。現在食物變得非常多,垃圾食品也太多,這導致了很多健康問題。所以很多人開始節食,我們對資訊也該如此。
在過去,資訊非常匱乏,任何你讀到或聽到的內容,你都會全盤接受。而現在,我們被海量的資訊所淹沒,而且其中大部分都是垃圾資訊。
所以,現在我們應該意識到,就像吃太多對身體不好一樣,攝入過多的資訊對心智也沒有任何好處。問題的關鍵是我們需要有分辨可信和不可信資訊的能力。
大多數資訊都是無用的,這是因為探尋真相的成本很高,你需要花費大量時間、金錢來核查驗證真相,而虛構和幻想的成本很低。

所以,我們需要謹慎選擇“投餵”給大腦的內容,這非常重要。
我們可以看到,尤瓦爾·赫拉利其實並不反對AI,他也不認為我們應該停止發展AI技術。他只是認為我們需要在AI安全方面有更多的思考和投入。
赫拉利也提到,AI可以為人類做很多有用的事情,比如改善醫療保健水平、提升教育水平、幫助人類應對氣候變化等等。
我們只有足夠了解AI,比如它的進化路徑和運作機制,才能更好地預判赫拉利所提出的這些可能出現的風險,並在這些風險到來之前做好充足的準備。
矽谷,依然是世界AI技術的發源地和創新高地,在AI應用創新不斷湧現的今天,我們的創業者亟需走進矽谷,去看最新的AI應用方向。
為此,2025年7月13日-20日,由筆記俠發起的GBE(全球商業探索之旅)美國站“創新英雄之旅”,將圍繞“AI和出海”這兩大課題,以“科技創新英雄”和“出海創新英雄”為主題,給中國企業的AI和全球化經營帶來借鑑思考。
本次8天7晚的遊學,筆記俠創始人&第五代企業家組織發起人柯洲帶隊。
我們將走進矽谷,帶領大家一起了解未來AI產業的趨勢,識別萬物+AI時代我們的機遇與挑戰,掌握智慧商業落地應用和發展與投資機會。
連結全球先進思想,拓展中國商業邊界。
現在,筆記俠也想邀請你,與我們同行。
如果,你對探索全球商業真相和本質的一線遊學感興趣,歡迎你加入我們,在全球商業背景下審視和探討中國商業發展。
具體諮詢報名可掃下方海報二維碼,新增主理人詳細溝通。


參考資料:
1.《智人之上》,中信出版社出版,作者:尤瓦爾·赫拉利
2.《對話尤瓦爾·赫拉利:人類對秩序的渴求先於真相,是網際網路和AI控制個人的首要原因》,騰訊科技
3.《對話歷史學家尤瓦爾·赫拉利:人類應避免AI時代落下“矽幕”》參考訊息智庫
4.《尤瓦爾·赫拉利:關於人工智慧的三個問題》,財經雜誌
5.《尤瓦爾·赫拉利對談清華教授彭凱平:人工智慧時代,我們如何應對情感危機?》,中信出版
6.魯健訪談·對話《人類簡史》作者赫拉利

好文閱讀推薦:
