
在漫長的人類文明史中,真正稱得上是技術爆炸式增長的時代,不過短短一瞬。對於中國人,這種感受尤為明顯:短短數十年間,磚瓦平房變成了摩天大樓,煤渣小道鋪成了高速公路。曾經還要靠收音機和報紙瞭解外界資訊,如今動動手指,全世界都在一塊小小螢幕裡浮現。
一代人發自內心地相信,貧窮、閉塞、落後,這些眼前的困難終會被克服,生活終將變得更好。人們之所以如此堅定地相信這一點,是因為科技的飛躍和普及,給他們的人生帶來了真實而巨大的改變。
不止是中國人,全人類都曾痴迷於技術為他們許下的諾言,以至於有人將這種對未來的想象稱為“技術烏托邦”。儘管與之伴生的一系列科幻作品不約而同地試圖對盲從技術的危害做出警示,但從整體來看,人類依然執著地相信,技術能解決的問題永遠比它製造的要多得多。
但你是否想過:隨著人工智慧等最新技術再度重塑世界,如果有一天,技術解決了所有已知的問題,那麼我們依賴於技術進步的這種希望本身,是否會就此消散?我們的生活,是否會陷入一種無希望甚至無意義的境地?
關於這個問題,牛津大學哲學家、人類未來研究所創始主任尼克·博斯特羅姆(Nick Bostrom)給出了極為深刻的回答。他以其標誌性的跨學科視野,推出新作《未來之地:超級智慧時代人類的目的和意義》。這部被喻為“技術烏托邦時代的哲學宣言”的著作,不僅延續了他對超級智慧與人類命運的深刻思考,更將目光投向了一個終極命題:當技術解決所有生存問題後,人類如何尋找存在的意義?
博斯特羅姆的學術生涯堪稱傳奇。他少年輟學自學,橫跨物理學、哲學、計算神經科學等多領域,最終在牛津大學創立人類未來研究所,成為全球人工智慧倫理與存在風險研究的領軍者。其代表作《超級智慧》因預言AI對人類文明的威脅而轟動世界,被比爾·蓋茨、埃隆·馬斯克等科技領袖奉為必讀經典。然而,《未來之地》標誌著他思想的轉向:從“如何避免技術毀滅人類”轉向“如何定義技術拯救人類後的生活”,為我們描繪了一個高度發達的“未來之地”,即一個“深度烏托邦”世界。當疾病、貧困甚至死亡被技術終結,當勞動被AI取代,當物質極大豐裕——我們是否會在“豐裕的荒原”中迷失?正如博斯特羅姆在書中寫道:
在一個“所有問題都被解決了的世界”裡,
還有什麼會賦予我們生活的意義和目的?
我們整天會做什麼?
——這些問題具有永恆的智力吸引力。

“瑞典超級大腦”:
從厭學少年到跨學科奇才
1973年,尼克·博斯特羅姆(Nick Bostrom)出生於瑞典赫爾辛堡,青少年時期的他對傳統教育充滿牴觸。15歲時,他經歷了一次深刻的“覺醒”,意識到自己“浪費了前15年的生命”,高中的最後一年輟學在家自學,從此決心專注於探索“重要之事”。
這種對意義的追尋驅使他開啟了瘋狂的跨學科學習之旅——在瑞典于默奧大學就讀期間,他同時攻讀物理、哲學、數理邏輯等多個專業課程。大學畢業後,他去了倫敦,在國王學院學習物理和神經科學。跨學科學習經歷奠定了他獨特的思維方式:拒絕被單一學科束縛,轉而以哲學為根基,融合多領域視角,探索人類命運的終極命題。

尼克·博斯特羅姆
博斯特羅姆的學術道路充滿戲劇性,不僅如此,他還曾在倫敦的酒吧和劇院表演單口相聲。這種對人性與社會的觀察後來滲透到他的學術寫作中,使其著作兼具邏輯嚴謹性與敘事生動性。
在倫敦經濟學院獲得博士學位後,他與戴維·皮爾斯(David Pearce)共同創立“世界超人類主義協會”,倡導透過技術突破人類生物限制,並參與創立倫理與新興技術研究所,推動對技術倫理的前瞻性討論。
2005年,他在牛津大學創立“人類未來研究所”,這是一個多學科研究所,匯聚了頂尖的數學家、哲學家、科學家等人才,專注於研究人工智慧、基因編輯等技術對人類文明的影響。該機構成為全球未來學研究的核心陣地,甚至曾讓馬斯克主動捐贈100萬英鎊支援其研究。

埃隆·馬斯克力薦:
從《超級智慧》到《未來之地》
博斯特羅姆被認為是在很大程度上影響了馬斯克對於AI態度的人。
他的代表作《超級智慧》因預言AI對人類文明的威脅而轟動世界,並直接推動了全球對AI倫理的討論。他首次系統論證了通用人工智慧可能帶來的“存在性風險”——一旦AI超越人類智力,其目標與人類價值觀的微小偏差都可能導致災難性後果。

2014年8月,剛剛讀完《超級智慧》的馬斯克難掩內心澎湃,並在推特上第一次呼籲人們警惕人工智慧的威脅:
我們必須對AI保持警惕。它們可能比核武器更加危險。
然而,尼克·博斯特羅姆卻表示,對此其實並沒有那麼悲觀。
沉澱10年後,他出版了又一部前瞻性未來學力作《未來之地》,標誌著思想的轉向:從“如何避免技術毀滅人類”轉向“如何定義技術拯救人類後的生活”,為我們描繪了一個高度發達的“未來之地”,即一個“深度烏托邦”世界。

隨著DeepSeek等AI大模型的爆發,在全球科技革命的浪潮中,我們正站在人類歷史的關鍵節點。《未來之地》不僅延續了博斯特羅姆對超級智慧與人類命運的深刻思考,更將目光投向了一個終極命題:
當技術解決所有生存問題後,人類如何尋找存在的意義?
當疾病、貧困甚至死亡被技術終結,當勞動被AI取代,當物質極大豐裕——我們是否會在“豐裕的荒原”中迷失?

深度烏托邦:
一個高度發達的“未來之地”
深度烏托邦的概念可以作為一種哲學粒子加速器,在其中創造極端條件,使我們能夠研究我們價值觀的基本組成部分。
——博斯特羅姆《未來之地》
博斯特羅姆在書中提出了一個假設性的未來場景——“深度烏托邦”(deep utopia)。
在這個世界中,人類社會已經解決了所有重大的科學問題,技術發展達到了幾乎完美的程度。人類能夠透過超級智慧和先進的技術手段,完全掌控自然,甚至超越自然的限制,人類的物質需求和基本生存問題都得到了徹底的解決。
然而,這種高度發達的科技社會也帶來了一個核心問題:人類的“冗餘性”。
隨著技術的不斷進步,人類的許多傳統角色和功能逐漸被機器和人工智慧所取代。在“深度烏托邦”中,這種“冗餘性”達到了極致。人類不再需要為了生存而努力工作,因為機器和超級智慧可以更高效地完成所有任務。人類的勞動變得多餘,甚至在許多情況下,人類的努力可能還不如機器做得好。這種“冗餘性”引發了博斯特羅姆對人類未來生活意義的深刻思考。
在“淺層冗餘”階段,人類的許多工作被機器和人工智慧所取代。然而,但人類仍然可以透過其他方式找到生活的意義。例如,人們可以從事創造性活動,如藝術創作、科學研究、文學寫作、娛樂活動等來豐富自己的生活。
然而,當人類進入“深度烏托邦”時,情況變得更加複雜。博斯特羅姆提出了“深層冗餘”的概念,即人類的努力在幾乎所有領域都變得多餘。
在這個階段,機器和超級智慧不僅能夠完成所有的工作,甚至在許多休閒和娛樂活動中也比人類做得更好。例如,人工智慧可以創作出比人類更優美的音樂、更深刻的文學作品;機器人可以在體育比賽中超越人類運動員;虛擬現實技術可以創造出比現實世界更完美的體驗。在這種情況下,人類的傳統生活方式和價值觀念都面臨著巨大的挑戰。
深層冗餘可能導致人類陷入一種“無意義”的困境。如果人類的努力在所有領域都被機器所超越,那麼人類的存在還有什麼意義呢?
這種“無意義”的困境可能會引發人類的焦慮、無聊甚至絕望。
我們可以稱這種假設的狀態為後工具性時代,在這種狀態下,我們沒有做任何事情的工具性理由。但隨著我們向這種輕盈的狀態邁進,擺脫了日常吸乾我們時間和精力的揮汗如雨的勞作,我們可能開始感到一種疏遠的無目的感,一種無根的“存在之輕”。我們可能將要面對這樣的發現:自由度最大的地方實際上是一片虛空。
因此,如何在“深度烏托邦”中找到生活的意義,成為博斯特羅姆探討的核心問題。

當技術解決
一切後,人類何以為生
“數百萬人渴望永生,卻不知道自己在一個下雨的星期天下午能做什麼。”
從《超級智慧》的“AI威脅論”到《未來之地》的“意義危機論”,博斯特羅姆的思想始終超前於技術曲線。
或許,生活在一個完美的世界中會很無聊?
按照叔本華的說法,“生活像鐘擺一樣在痛苦和無聊之間來回擺動”。
如果我們將我們的主題套用到這個模型上,那麼我們在進入後工具性時代時,將對應於叔本華隱喻中的“無聊”極點。令人擔憂的是,我們會一直向無聊方向擺動並卡在那裡。
在技術成熟時,我們將有辦法消除體驗無聊的能力,一旦工作沒辦法幫我們生產目的,我們就得發展出新的目的生產機制。博斯特羅姆說,我們大致可以設想五種機制,他稱之為抵禦深層冗餘的“五環防禦”,以幫助人類在“深度烏托邦”中找到生活的意義。
1.享樂效價:直接追求快樂,不必把目的感建立在摒棄快樂的基礎上。
2.體驗質地:烏托邦居民的環境可以是一個令人心醉神迷的美麗世界,享受到被增強的感知能力。
3.自成目的的活動:不必是被動的,為了實現內在價值,我們可以選擇去做事,從事各種自成目的的活動,沒有什麼能阻止我們。
4.人工目的:將自己置於一種情境中,創造一個無法獲得技術成熟便利的特殊情境,去直面那些不可避免的挑戰。
5.社會文化糾纏:機器替代人類勞動的能力也有社會和文化上的限制。例如,一個人透過親手製作禮物表達情感或態度,在這種情況下,這些勞動無法外包。
在尋找意義的過程中,我們總是在尋找構建這些型別意義的問題的答案。我們想要搞清楚“故事是什麼?”“在玩什麼遊戲?”“遊戲規則和勝利條件是什麼?”
在許多情況下,尋找意義是由一個問題事件觸發的,比如失去親人或者進入新的生活階段。但也可能是由一種簡單的好奇心引發的,一種敬畏、驚奇或存在困惑的狀態引發的。這種狀態一旦變得深刻,就像靈魂的地震,使我們質疑所站立的基礎,並引發一種重新走向平衡的過程。在這種過程中,我們努力使自己與更大的現實之間,實現一種新的精神平衡。
《未來之地》的深刻之處,在於揭示技術烏托邦的雙重性:它既是解放,亦是挑戰。當生存鬥爭終結,人類或將面臨更復雜的“意義戰爭”。
技術可以解決“如何生存”,但“為何生存”的答案,永遠掌握在人類自己手中。


↓↓↓↓↓↓↓↓↓↓↓↓