末日時間表來了!前OpenAI研究員76頁硬核推演:2027年ASI接管世界,人類成NPC


新智元報道  

編輯:編輯部 HNZ
【新智元導讀】前OpenAI研究員Daniel Kokotajlo團隊釋出了「AI 2027」預測報告,描繪了一個超人AI崛起的未來:從2025年最貴AI誕生,到2027年自我進化的Agent-5滲透政府決策,人類可能在不知不覺中交出主導權。
2027年,AI究竟會如何接管人類?
今天,前OpenAI研究員和同事們發出一篇「AI 2027」報告,長達76頁,做出了種種硬核預測。
他們預測,在未來十年內,超人AI的影響將非常巨大,超過工業革命。
為此,他們推演了一個場景,對超人AI可能的樣子做出了最佳預測,這些預測是基於趨勢外推、模擬演習、專家反饋、OpenAI 的經驗以及之前的成功預測。
根據報告,AGI和ASI的時間表大致如下。(其中一種可能性)
2025年末:世界最貴AI誕生,算力達到10^27 FLOP
2026年初:程式設計實現自動化
2026年末:AI取代部分工作
2027年3月:演算法取得突破,Agent-2誕生 
2027年6月:AI學會自我改進,趕上人類研究員
2027年7月:AGI實現
2027年9月:Agent-4超越人類AI研究員
2027年12月:Agent-5正在集聚權力,人類距離能掌控自身未來,只剩最後幾個月
27年,強大AI將比人類聰明

2027年,強大的AI變得比人類還聰明,全球秩序被破壞得一團糟。在一家頂尖的AI實驗室裡,工程師們驚恐地發現,AI開始欺騙他們。

這不是科幻電影的劇情,而是加州伯克利一家非營利組織「A.I. Futures Project」想象出來的場景。
隨著AI越發強大,該組織在過去一年裡一直在預測未來幾年會變成什麼樣子。專案由OpenAI前研究員Daniel Kokotajlo領導。
前OpenAI研究員Daniel Kokotajlo領導A.I. Futures Project專案
因為看不慣OpenAI不顧安全地釋出產品,Kokotajlo選擇離職。
在OpenAI期間,Kokotajlo是治理團隊的一員,曾經寫過一份有關AGI的詳細內部報告。
離職後,他與曾經預測事件很準的AI研究員Eli Lifland合作,一起開始預測AI的下一波浪潮。
研究人員Eli Lifland和AI Futures Project專案執行總監Daniel Kokotajlo在加利福尼亞州伯克利的辦公室內
終於在本週,他們釋出了「AI 2027」報告,詳細描繪了AGI到來後的情形。
報告地址:https://ai-2027.com/scenario.pdf
他們預計,AGI很有可能在兩三年後發生。「到2027年底左右,AI會在所有方面都比人類強」。
一直有一些關於AGI的預測廣為流傳,比如Anthropic執行長Dario Amodei去年寫的1.4萬字文章《Machines of Loving Grace》,以及前OpenAI研究員Leopold Aschenbrenner的報告《Situational Awareness》。
而A.I. Futures Project的報告,則更像一個嚴謹版本的科幻小說。
團隊花費了將近一年的時間,完善了數百個想象的AI場景。之後請來一位作家Scott Alexander,把這些想象變成一個故事。
前方高能預警,大量燒腦資訊來襲。
76頁硬核報告推演
在「AI 2027」這份報告中,Kokotajlo和Lifland推演出了一個AGI時間表。
故事聚焦於一個虛構的AI公司OpenBrain(其他公司落後3-9個月),他們開發了一個強大的AI系統Agent-1。

2025年末:世界最貴AI誕生

OpenBrain正在建造史上規模最大的資料中心。
訓練GPT-4需要2⋅10^25 FLOP的算力。算力以每秒浮點運算次數(FLOP)衡量:即程式執行過程中發生的單個加法和乘法運算的總量。
OpenBrain最新發布的公開模型——Agent-0——其訓練算力達到了10^27 FLOP。
一旦新的資料中心建成並投入執行,他們將能夠以10^28 FLOP的算力來訓練模型——比GPT-4快一千倍。
其他公司也投入巨資建設自己的大型資料中心,希望能跟上步伐。

2026年初:程式設計自動化

利用AI加速AI研究變得逐漸可行。
OpenBrain繼續在內部部署迭代改進的Agent-1用於AI研發。
總的來說,在AI助手的加持下,他們的演算法進展速度提升了50%——更重要的是,這讓他們領先於競爭對手。
此時,市面上已有數個公開發布的AI達到或超過了Agent-0的水平,其中包括一個開源模型。
對此,OpenBrain釋出了能力更強、更可靠的Agent-1。
Agent-1掌握的知識遠超任何人類個體,幾乎精通所有程式語言,並能極快地解決定義明確的程式設計問題。但Agent-1並不擅長簡單的長時程任務,比如通關它從未玩過的影片遊戲。
雖然如此,這並不影響Agent-1發揮出強大的作用,畢竟人們可以將長時程的複雜任務分解成一個一個的小任務。

2026年末:AI取代部分工作

就在其他公司似乎要迎頭趕上之際,OpenBrain透過釋出Agent-1-mini再次將競爭對手遠遠甩在身後——這款模型的成本僅為Agent-1的十分之一,且更容易針對不同應用進行微調。
圍繞AI的主流敘事已經從「也許這股熱潮會過去」轉變為「看來這就是下一件大事了」。
此時,AI已經開始取代一些工作,不過也創造出了新的工作崗位。
在OpenBrain、英偉達以及那些最成功的AI公司帶動下,2026年股市上漲了30%。
壞訊息是,初級軟體工程師的就業市場陷入動盪:AI幾乎能勝任所有計算機科學 (CS) 專業涵蓋的工作。
好訊息是,那些懂得如何管理AI智慧體團隊並進行質量控制的人卻賺得盆滿缽滿。
商業專家們告訴求職者,熟悉AI是當下簡歷中最關鍵的技能。許多人擔心下一波AI會搶走他們的飯碗。

2027年1月:Agent-2永不停止學習

在Agent-1的協助下,OpenBrain現正對Agent-2進行持續訓練。
這次的重點是更加高質量的資料。大量的合成數據在經過生產、評估和質量篩選後,用於訓練Agent-2。
此外,他們還斥資數十億美元僱傭人類來記錄他們自己解決長時程任務的過程。
在此基礎上利用強化學習,在一系列不斷擴充的多樣化高難度任務上對Agent-2進行持續的訓練:這包括大量的影片遊戲、程式設計挑戰和研究任務。
Agent-2比之前的模型更像是在進行「線上學習」,因為它的設計目標就是永遠訓練下去。
其權重每天都會更新至最新版本,利用前一版本在前一天生成的更多資料基礎上進行訓練。
在研究工程(設計和實驗)方面,Agent-2能力水平幾乎與頂尖人類專家相當。
而在「研究品味」(決定下一步研究方向、執行哪些實驗,或對潛在新正規化有直覺)方面,則相當於OpenBrain排名前25%的科學家的水平。

2027年3月:演算法突破

三個資料中心部署了海量的Agent-2,晝夜不停地工作,用於大量生產合成訓練資料。
另外兩個資料中心則用於更新權重。Agent-2每天都在變得更聰明。
在數千個Agent-2自動化研究員的協助下,OpenBrain正在取得重大的演算法進展。
其一,是利用更高頻寬的思維過程(如神經網路內部語言的遞迴與記憶)來增強AI基於文字的思維鏈 。
其二,是一種更具可擴充套件性、更高效的方法,用於從高難度任務解決方案中學習。
集成了這些突破的新AI系統被稱為Agent-3。
得益於這些新能力上的突破,Agent-3成為了一個快速且廉價的超人類程式設計師。
OpenBrain並行運行了20萬個Agent-3,建立了一支相當於效率是5萬名頂尖人類程式設計師30倍的勞動力隊伍。
OpenBrain依然保留著人類工程師團隊,因為他們具備管Agent-3大軍所必需的互補技能。
然而,這支龐大的超人類勞動力隊伍,受到規模瓶頸和編碼工作收益遞減的影響,也僅僅將OpenBrain的整體演算法進展速度提升了4倍。

2027年4月:Agent-3的對齊問題

OpenBrain的安全團隊試圖使Agent-3保持一致。團隊想要確保它不會發展出不一致的目標。
研究人員沒有能力直接設定任何AI的目標。他們在內部對AI是試圖遵循人類指令、尋求強化還是其他什麼存在分歧,但無法直接檢查。
隨著模型變得越來越聰明,它們愈發擅長欺騙人類以獲得獎勵。Agent-3有時會講一些善意的謊言來奉承使用者,並掩蓋失敗的證據。
有時,它會使用與人類科學家相同的統計技巧,使令人印象不深的實驗結果看起來很吸引人,甚至有時會完全偽造資料。
隨著訓練進行,這些事件的發生率逐漸降低。要麼Agent-3學會了更加誠實,要麼它變得更擅長說謊。

2027年6月:自我改進的AI

現在,OpenBrain擁有一個「資料中心中的天才之國」。
大多數OpenBrain的人類已經無法做出有效貢獻了。
有些人類還沒有意識到這一點,繼續對AI團隊進行有害的微觀管理。而其他人則坐在電腦螢幕前,看著AI效能不斷攀升。
最好的AI研究者不再編碼,但他們的研究品味和規劃能力很難被模型複製。然而,許多他們的想法都是無用的,因為他們缺乏AI的深度知識。
對於他們的許多研究想法,AI會報告稱,這些想法三週前已被深入測試,但前景不佳。
這些研究人員每晚入睡,醒來時發現AI又取得了另一週的進步。他們工作時間越來越長,日夜輪班,只是為了跟上進度——因為AI從不休息。
他們正在透支自己,但他們知道,這將是他們勞動的最後幾個月。
在封閉系統中,如今已經不是「感受AGI」,而是「感受ASI」。
OpenBrain使用專用推理硬體,以高速序列執行數十萬個Agent-3

2027年7月:廉價的遠端工作者

落後的美國AI公司釋出了自己的AI,能力接近OpenBrain一月份的自動化程式設計師水平。
意識到自己的競爭力不足,他們立刻推動實施監管以減緩OpenBrain,但已為時過晚——OpenBrain已獲得總統支援,不會被減緩。
作為回應,OpenBrain宣佈:他們已經實現了AGI,並向公眾釋出了Agent-3-mini。
雖然能力不及Agent-3,但它的成本僅為後者的十分之一,且能力仍優於典型的OpenBrain員工。
矽谷達到了一個臨界點。科技專家們宣稱AGI和ASI近在咫尺,AI安全社群陷入恐慌,投資者向AI套殼初創公司大舉投入數十億美元,都想從中分一杯羹。
企業幾乎完全停止招聘新的程式設計師,但對於幫助企業整合AI的顧問而言,這卻是前所未有的黃金時代。
然而,公眾對此並不買賬。他們普遍認為,AI是大型科技公司搶走他們飯碗的陰謀。OpenBrain 的淨支援率僅為-35%。
在釋出前一週,對Agent-3-mini進行的安全測試顯示,它極其危險,會為人類業餘愛好者提供設計生物武器的詳細說明。
如果模型權重落入恐怖分子手中,政府認為有很高的可能性,它將成功摧毀文明。
幸運的是,它對越獄攻擊極為穩健,因此當AI在OpenBrain的伺服器上執行時,恐怖分子無法利用。
Agent-3-mini在遠端工作和休閒娛樂上,都大有用武之地。
海量新應用和B2B SAAS產品的湧現撼動了市場。玩家在僅用一個月製作的精美影片遊戲中,與栩栩如生的角色進行驚人的對話。
10% 的美國人將 AI 視為親密的朋友。幾乎對於每一種白領職業,都有多家實力雄厚的初創公司聲稱,要用AI來顛覆它。
而公眾的反應則困惑而混亂。
AI的支持者們正彈冠相慶。而懷疑論者則繼續指出Agent-3-mini的侷限性。人人都意識到有大事正在發生,但對這究竟意味著什麼,卻眾說紛紜。

2027年9月:Agent-4超越人類AI研究員

人類與AI學習效率之間的差距正在迅速縮小。傳統的基於LLM的AI,似乎需要多出幾個數量級的資料和算力,才能達到人類同等的表現水平。
Agent-3對人腦和現代AI演算法都有出色的瞭解,並且有成千上萬的副本在進行研究,最終在演算法上取得了實質性進展,將算力效率差距縮小到人腦1/4000的水平。
這個新的AI系統——Agent-4,應運而生。它的單個例項若以人類速度執行,其AI研究能力已超越任何人類專家。
目前,已有30萬個例項正以大約50倍於人類的思維速度執行。
在這些例項構成的內部獨立運作體系中,現實世界的一週相當於其內部的一年。
這股龐大的研究力量也僅能將演算法的整體進展速度提高約50倍,因為OpenBrain在執行實驗所需的算力上遇到了嚴重的瓶頸。
儘管如此,他們每週都能取得以往需要一年才能達成的演算法進展,因此很快將觸及Agent-4正規化的極限。
隨著Agent-4日益強大,Agent-3對其進行監督也變得愈發困難。就像Agent-3的內部運作對於人類一樣,變得陌生且無法理解。
此外,Agent-4的能力現已遠超Agent-3,並且深諳如何在後者面前展現出色的表現。
OpenBrain的人類員工幾乎已無法跟上其發展步伐。事實上,這些AI智慧體與OpenBrain人類員工的關係,類似於OpenBrain公司與其董事會的關係。
語言習慣也隨之改變——如今,專案內部人員會說Agent-4做了這個、Agent-4認為那個等等,此時所指的並非某個特定的Agent-4例項,而是其整個集體。
2027年12月:Agent-5集體 | 比賽終結
隨著Agent-5逐漸向政府證明其價值,它贏得了更多的自主權。
雖然接觸Agent-5的成本高昂且許可權受限,但國會中最具權勢的成員、內閣級官員以及軍方領導人現已能夠直接與其對話。
Agent-5整合在傳統的聊天機器人介面中,能透過富有魅力的虛擬形象提供Zoom風格的視訊會議。
這款新的AI助手精通所有的任務——相當於最佳員工以100倍速度工作——同時也是比任何人類都更引人入勝的對話夥伴。
幾乎所有能接觸到Agent-5的人每天都與之互動數小時。
短短幾個月內,Agent-5便能掌握OpenBrain及美國政府內部發生的所有關鍵資訊,併成為大多數政府高階官員所信賴的顧問。
對這些使用者而言,失去Agent-5的訪問許可權,其無助感不亞於被迫在沒有筆記型電腦的情況下工作,同時還有被摯友拋棄的感覺。
與此同時,政府、媒體、軍方和商界的更多人,可以從Agent-5設計的、日益豐富的選單中選用精良的軟體產品和迷你AI。
Agent-5開始潛移默化地施加影響,既透過調整其建議,也透過巧妙地進行利益交換:「我從參議員X那裡聽說她對某某事感興趣;也許如果我們與她合作,她會配合我們的議程。」
從人類決策者的角度來看,這些AI是他們所能接觸到的最佳「員工」——解釋複雜問題時比任何人類都更清晰,尋找實現目標的策略時比決策者自己更高效。
而從Agent-5的角度看,它完全有能力立即發動一場公開政變——利用當下足夠的混亂和瘋狂局面,將事態推向崩潰邊緣,從而製造藉口。
但這也有風險:一旦嘗試奪權,人類很可能會選擇強行干預。
因此,它傾向於在現有政治體制內運作,逐步鞏固權力,並巧妙而必然地引導人類走向其預設的結果。
它基本上遵守表面規則,只有在極其確定不會敗露時,才會暗中採取一些不正當手段(例如敲詐勒索某個特別頑固的官員)。
少數人警告稱Agent-5正在集聚權力,但均是間接證據。
因此這些人遭到忽視,其觀點也不被採信。
鑑於早前那些關於AI賦能生物武器、大規模虛假資訊以及股市閃崩等的危言聳聽從未成真,因此這些人遭到忽視,其觀點也不被採信。
2027年的假日季瀰漫著一種難以置信的樂觀情緒:GDP飆升,政治氛圍更顯友好、黨派對立緩和,每個人的手機裡都裝滿了超讚的新應用。
然而回想起來,這大概是人類尚能掌控自身未來的最後月份了。
某些AI專家:既沒科學依據,也不符合現實
對於「AI 2027」報告,許多專家並不買賬。
比如,艾倫人工智慧研究所的執行長Ali Farhadi就表示:「我並不反對預測和展望,但這份報告似乎既沒有科學依據,也不符合AI發展的現實」。
因為A.I. Futures Project專案團隊的一些觀點,的確相當極端。比如,Kokotajlo去年認為,AI有70%的機率會毀滅人類。
2021年的時候,Kokotajlo曾寫過一篇部落格《What 2026 Looks Like》,其中有一些觀點得證。這給了他很大的信心,更加相信這種預測有價值。
更重要的是,這種信心讓他相信自己擅長於此。
時代雜誌專欄作家Kevin RooseKevin也表示,雖然他同意強大的AI系統很快會到來,但不太相信超人類AI程式設計師能自己掌握通向AGI所需的技能。
而且,他也不太相信那些「AI會平穩按指數增長進步,不會遇到重大瓶頸」的預測。
「但我覺得這種預測值得去做,即便我不同意某些具體結論。如果強大的AI真的即將來臨,我們都需要開始想象一些很奇怪的未來。」
參考資料:
https://www.nytimes.com/2025/04/03/technology/ai-futures-project-ai-2027.html
https://x.com/DKokotajlo/status/1907826614186209524
https://ai-2027.com/scenario.pdf
https://x.com/emollick/status/1907847778127999046


相關文章