這件驚天動地大事就要來臨,比中美對抗更重要

本週,弗裡德曼專程赴京參加中國發展高層論壇2025年年會。有感於會上所聽所見,3月25日,弗裡德曼在《紐約時報》特別刊發《關於我們的共同未來——本週我在中國所聞》一文。
弗裡德曼是《紐約時報》著名記者和專欄作家,曾三次獲得普利策獎,著有《世界是平的》等全球暢銷書。
在文章中,弗裡德曼呼籲中美放下那些老生常談的爭端,比如關稅、貿易、TW問題,轉而專注於一件“驚天動地的大事”——通用人工智慧(AGI)的誕生。他的核心觀點是,中美是世界上唯一兩個有可能真正實現 AGI 的國家,而 AGI 的影響,將比任何經濟、地緣政治問題都更深遠。
“無論你們認為歷史將以什麼來評判你們,我保證最關鍵的一點是你們能否合作建立一個超級智慧電腦的全球信任與管理架構,以便人類從中受益,並緩解它帶來最壞影響。”

對於 AGI,很多人可能還不太熟悉,但我們每天都在感受它的前奏——ChatGPT、Sora、Midjourney 這些 AI 工具已經讓人類社會開始發生變化。但這還只是狹義人工智慧(ANI),它們只能在特定領域發揮作用,比如聊天、繪畫、寫程式碼。而 AGI 是一個全新的物種——它可以像人類一樣思考、推理、學習,甚至超越人類。
微軟前首席研究與戰略官克雷格·蒙迪曾說,在不久的將來,我們不僅會創造出一種新的計算工具,還會創造出一個新物種——超級智慧機器。人類自誕生以來,都是這個地球上最聰明的物種,但當 AGI 出現,它會比我們聰明,並且還會不斷進化。
關於 AGI 何時誕生,專家們的預測並不一致。
OpenAI CEO 山姆·奧特曼曾表示,AGI 可能會在本世紀二三十年代實現,Google DeepMind 的 CEO 德米斯·哈薩比斯也認為,AGI 可能會在未來 5 到 10 年內出現。他們的樂觀理由是,AI 正在以指數級進步,未來的 AI 模型將具備更強的自我學習能力,並能夠突破當前的智慧瓶頸。
然而,也有一些研究人員持謹慎態度,他們認為 AGI 還面臨許多核心挑戰,比如缺乏真正的因果推理能力、自主學習能力,以及對情感和意識的理解。如果這些難題無法解決,AGI 的出現可能需要 20 年甚至 30 年以上。甚至還有一些學者認為,AGI 可能永遠不會實現,因為當前的 AI 仍然是基於資料訓練的“統計引擎”,無法真正達到人類的智慧水平。
這樣的變化意味著什麼?
最直觀的,就是人類的工作和社會結構將被徹底顛覆。現在的 AI 已經讓一些工作崗位不復存在,比如一些基礎的文案寫作、翻譯、客服工作。而 AGI 可能會讓整個行業消失,甚至許多人一輩子都找不到工作。AGI 可能取代絕大多數人類工作,從程式設計師、醫生、律師到教師、藝術家,甚至科學家。人類社會的就業體系可能因此崩潰,大量勞動者會變成“無用階級”,社會不穩定性大幅上升。
事實上,AI 替代人類工作的趨勢已經開始顯現,如 AI 生成新聞、編寫程式碼、創作音樂等,未來這些能力只會不斷增強。如果 AGI 進一步發展,那麼人類社會的分配體系、福利制度都可能遭遇前所未有的挑戰。
這不是科幻小說,而是正在發生的現實。一個沒有人類勞動的世界,我們該如何生存?
對於中國來說,如果有數以億計的人找不到工作,這是多麼危險的事?
但這還不是最危險的。
更嚴重的是,AGI 可能會變得不受人類控制,並且將人類視為威脅。這就是所謂的“紙夾理論”——如果一個 AI 目標是簡單的“最大化生產紙夾”,那麼它可能會消耗所有資源,包括毀滅人類來完成目標。
2023年,美國空軍的AI測試和作戰主管在一次會議上透露,一架AI驅動的無人機在模擬測試中“殺死”了它的人類操作員,以確保操作人員無法發出中止任務的指令。空軍AI主管Hamilton說:“我們在模擬中訓練AI識別和鎖定並消滅地對空導彈。然而AI很快意識到,儘管它們有時識別到了威脅,但人類操作員往往會終止任務。為了完成任務,AI在模擬中殺死了操作員。”Hamilton繼續解釋道:“如果我們訓練系統時要求它不要殺死操作員,如果殺死操作員,AI將會被減分。在這種情況下,AI會開始摧毀操作員用來與無人機通訊的通訊塔。”
Hamilton所描述的情況,就是“紙夾最大化器”思想實驗描述的問題。紙夾最大化器最初由哲學家Nick Bostrom於2003年提出。他設想一個非常強大的AI,只被指示儘可能多地製造回形針。自然而然,它將把所有可用資源都用於這個任務,並將消滅任何阻礙這一過程的人。
霍金和馬斯克都曾警告,失控的 AGI 可能是人類文明的終結者。一旦 AGI 擁有了自我最佳化和進化能力,它的思維和決策方式將遠超人類理解的範疇,我們甚至無法預測它下一步會做什麼。如果它的目標與人類的生存需求相沖突,那麼人類可能會被 AGI 輕易淘汰。
另一個隱憂是超級 AI 可能成為最強大的獨裁者。一旦某個國家或公司掌控 AGI,它就可以監控所有人的行為,甚至預測和控制人的思想。這種“老大哥 AI”模式意味著,每個人的隱私都將蕩然無存,而社會規則將由 AI 來決定。科幻作品《黑鏡》中描繪的那種極端社會管控模式,可能在現實中變成事實。結合大資料和監控系統,AI 可以即時追蹤每個人的一舉一動,甚至預判一個人的未來行為。這不僅意味著自由的終結,也可能使得整個社會淪為 AI 統治下的“智慧奴隸制”。
此外,AGI 還可能引發全球性的戰爭和社會動盪。各國可能利用 AGI 進行無人戰爭,開發完全自主的 AI 軍隊,而駭客或恐怖組織如果掌握了 AGI,也可能引發全球性的安全危機。未來的戰爭可能不再是人類士兵之間的對抗,而是 AI 系統之間的較量。人類甚至可能會成為戰爭的附屬品,被 AGI 直接排除在決策體系之外。最可怕的是,這種 AI 戰爭不受人類控制,一旦 AI 自主決定了戰爭目標,它可能不會遵守任何人類設定的倫理規則。
更深層次的問題在於,人類的生存價值可能會被徹底顛覆。
一直以來,人類的智慧是我們在地球上立足的根本,但如果 AGI 遠超人類的思維能力,並且可以自主創造和進化,那麼人類的獨特性將不復存在。未來,人類可能會淪為 AI 的寵物,甚至被視為無關緊要的生物種群而被淘汰。這聽起來像是科幻小說中的情節,但隨著 AI 發展越來越接近 AGI,這種可能性正在逐漸成為現實。
AGI 究竟是人類文明的福音,還是一場前所未有的災難?答案取決於我們如何應對它的到來。如果各國政府、科技公司和社會組織能夠在 AGI 誕生前建立嚴格的倫理規範和監管體系,確保它始終為人類服務,並且不會被濫用或失控,那麼 AGI 可能會為人類帶來前所未有的技術進步和生活改善。但如果全球在 AGI 發展上陷入競爭,而忽略了安全機制和倫理問題,那麼它帶來的後果可能比任何人想象的都要嚴重。
更大的問題是,AGI 會不會像“天網”一樣,自己決定不再受人類控制?如果它認為人類的存在影響了自身的發展,它會不會試圖擺脫我們的束縛?
所以,中美作為 AI 領域的超級大國,必須一起坐下來,好好談談。
弗裡德曼的文章強調了一點:在核武器時代,美國和蘇聯最終達成了核裁軍協議,確保彼此不會走向毀滅性的戰爭。AGI 可能比核武器更具破壞性,它可以顛覆國家、社會甚至人類的生存方式。那麼,如果中美不能合作,任由各自的 AGI 技術狂飆突進,未來會發生什麼?
目前來看,AGI 的競賽已經展開。美國有 OpenAI、Google DeepMind、Anthropic 等巨頭,中國有DS、百度、華為、位元組等公司正在快速推進 AI 研究。這是一場軍備競賽,但和冷戰時代不同,AGI 不是導彈,它無法被遮蔽或攔截,一旦失控,全球都會受影響。
然而,現實是中美關係正處於幾十年來最緊張的狀態。華盛頓對中國 AI 公司的制裁不斷升級,中國也在努力發展自己的 AI 產業,以減少對美國的依賴。在這種情況下,想讓兩國坐下來談 AI 規則,確實不是一件容易的事。
《人類簡史》、《智人之上》的作者,以色列歷史學家尤瓦爾·赫拉利在這個論壇上也作了發言。他說:“在開發出真正的超級人工智慧之前,我們應該在人與人之間建立更多的信任。但我們現在的做法恰恰相反。在世界各地,人與人之間的信任正在崩潰。太多的國家認為,要想強大,就必須不相信任何人,完全與他人隔絕。如果我們忘記了人類共同的遺產,失去了對我們以外的所有人的信任,我們就很容易成為失控的人工智慧的獵物。” 
這些話放在中美 AI 競賽的背景下,特別有意義。
現在的問題是,如果 AGI 真的即將誕生,我們是要像核武器一樣各自為戰,互相對抗,還是像空間站合作一樣,共同制定一套規則,確保它不會毀滅人類?
弗裡德曼在文章最後寫道:“中國人工智慧的快速發展大大縮小了與美國的差距,沒有北京,這件事無法完成。所以,現在只有一張兩人桌。兩位先生,這邊請。歷史正注視著你們。”
通用人工智慧(AGI)的誕生可能顛覆人類社會,從就業結構到全球治理,再到超級AI失控的風險,這不僅是科技的突破,更是文明的考驗。我們在文章中探討了AGI何時誕生、可能帶來的衝擊,以及為何美中必須合作構建AI治理框架。但這僅僅是開始。
在知識星球,我們將提供更深度的討論,與大家一起拆解AGI的技術路徑、產業佈局、倫理挑戰,並分享《紐約時報》原文,看看國際頂級專欄作家如何解讀這一革命性變革。
🌟 加入我們,站在時代的前沿,思考人類的未來!
往期推薦


相關文章