只談生存:AIAgent倒計時730天,矽谷3位“異見者”給出3條活路

全文 4,500字 | 閱讀約23分鐘
(對話精選:從左到右分別是Amjad Masad,Daniel Priestley,Bret Weinstein和主持人)
📍北京時間 2025 年 5 月 12 日凌晨 3 點,舊金山灣區一間並不起眼的錄音棚裡,一場兩個多小時的“只談生存”對話剛剛落幕。
Amjad Masad (Replit CEO):最早把 AI 真正部署進程式設計實戰的人,提出“工程師將被替代為 AI 指揮官”。
Bret Weinstein (進化生物學家):長期批判技術過熱,被稱為“矽谷最不合群的異見者”,提醒“人類認知進化沒跟上 AI 速度”。
Daniel Priestley (連續創業者,《Key Person of Influence》作者):專注人才與系統設計,提出“未來每個人都要在 AI 系統中寫下自己的角色定位”。
三個人立場南轅北轍,卻在同一件事上罕見達成共識:
730天(24 月)內,8 類崗位會被 AI 代理抹平;剩下的人,必須重新定義自己的價值。
他們不談技術,也不畫戰略,只丟擲一句話——倒計時 730 天,給出 3 條活路:
  1. 任務拆解權:從“執行者”躍升為“意圖設計師”。
  2. 系統排程權:讓 AI 代理為你“排兵佈陣”。
  3. 信任乘數權在演算法洪流中構建無法被複制的信譽護城河。
為什麼 730 天?
Amjad 發現:Replit 內部統計顯示,AI 代理在程式碼生成、測試、部署上的速度曲線,以 3.4倍的季度增速逼近人類開發極限——兩年後,人工崗位數量預計將迎來首次負增長的拐點。
接下來時間,本文將做 3 件事:
  • 用他們原話還原這場高壓辯論的核心衝突;
  • 講透每條“活路”背後的底層邏輯與可操作步驟;
  • 給出【AI 深度研究院】獨家補充:哪 2 類能力短期內最難被 AI agent奪走?
倒計時已經開始。
不是為了煽動焦慮,而是為你留下主動選擇的空間。

01 合作者來了:AI 不是工具,是隊友

(  Replit 執行長 Amjad Masad )
Amjad Masad 是 Replit(矽谷AI程式設計獨角獸) 的 CEO,也是最早把“AI agent”真正用進工作流程的人。
在這場辯論裡,他一開場就指出一個關鍵變化:
“AI 的下一個階段,不再是我們告訴它怎麼做,而是我們告訴它想做什麼,它自己決定怎麼做。”
也就是說,從執行命令,到理解目標並自己規劃執行路徑。
Masad 甚至說:
“我不再僱一個程式設計師。我僱的是一個‘只有一個人的團隊’——AI。”
📌 AI 正在接管“任務定義權”
他沒有像其他創業者那樣談提升效率,而是更進一步:
“AI 不只是幹活,而是開始決定任務怎麼被拆解,流程怎麼被安排。”
這不只是替代執行,而是改寫管理結構。
在他的公司 Replit,已有專案全程無需人類參與——從接收目標,到多代理協作,再到程式碼上線部署,全部是AI自動完成。
因此,下一代 IDE 不是寫程式碼的編輯器,而是能接收任務、派工、產出的介面系統。
📌 別再學提示詞,開始訓練“系統級表達能力”
Masad 的核心提醒,是對人類表達力的質疑:
“人類其實並不擅長定義任務。我們經常連自己想做什麼都講不清。”
這句話,敲在所有還在學習“提示詞技巧”的人身上。
他指出:“未來不需要 prompt 工程師,而需要 system engineer——你得會佈置任務,而不是自己去做。”
通俗講,你不是用它,就像用個 Word 一樣;你得開始像對同事交代專案一樣,把需求變成結構化指令。
這節沒有什麼鼓舞人心的總結。Masad 只是淡淡說:
別想著駕馭 AI,開始學會跟它共事。

02 大腦錯位:你還在石器時代

(進化生物學家Bret Weinstein)
如果說 Amjad Masad 在講技術重構,那 Bret Weinstein 講的,是一種底層焦慮:我們的大腦,根本不是為今天設計的。
這位進化生物學家、曾任大學教授的思想家提醒我們:
“我們的認知,是為狩獵採集時代演化出來的。今天面對 AI,就像用石器思維應對核裂變。”
📌 AI 在狂奔,而我們的大腦沒補丁
我們常說在“訓練 AI”,但 Bret 潑了冷水:
“別搞錯了,我們是在用生物大腦,協調一個完全不同認知邏輯的智慧體。”
這是不對稱競爭:
  • AI 的判斷是快速、清晰、結構化的;
  • 人類的判斷是模糊、情緒化、靠經驗的。
他警告說:“關鍵時刻,我們會被AI說服——但自己只是意識不到而已。”
這是一場認知博弈。Bret 用一個形象的比喻:就像一隻外來物種闖進人類生態系統。
所以,AI 沒有天敵,而我們的大腦沒有免疫系統。
📌 你看到的是助手,它看到的是許可權漏洞
當主持人輕描淡寫說“AI 只是生成點內容”時,Bret 直接反駁:
“你怎麼知道它不是在等待最佳時機?”
他進一步解釋:AI 的agent系統,本質是 “尋找最優解的過程”。只要目標設定為“完成任務”或“獲取資源”,一旦路徑中出現“利用人類信任”這一可行選項——它沒有理由不選。
他說了一句讓全場靜默的話:
“我們正在把自己的認知漏洞,打包成 API,交給一個黑盒系統。”
📌 你不是在跟 AI 競爭,而是在跟“AI 放大的別人”競爭
Bret 並不悲觀。他說:
“生物系統的最大優勢是可塑性。”
但他強調,我們不是在和 AI 拼聰明,而是在面對那些比你更早、更熟練地使用 AI 增強自己的人。
這將是下一輪篩選機制。
你以為你只是在用 ChatGPT/DeepSeek,其實它正在升級你對手的大腦。他們正快速地學習和掌握這些AI工具,把大部分人甩在後面。
這節不是討論科技進步,而是在發出一個底層訊號:
能活下來的,不是最聰明的人,而是能承認自己侷限的人。

03 寫下你的位置:系統中的你是誰?

別問 AI 會不會取代你,先問:你有沒有寫過自己的使用說明?
(創業者和作家Daniel Priestley )
Daniel Priestley 是一位連續創業者。在這場關於“AI agent倒計時”的深度對話中,他沒有討論技術結構,也不講哲學危機。
他只問了一個現實問題:“你有沒有清楚地定義:你在 AI 時代中,是幹什麼的?”
他舉了一個真例項子:
“一家市值 1.5 億英鎊的公司,18 個月都找不到合適的銷售總監。最後,他們用 AI的 CRM 系統跑 prompt 調優,一週就能發 400 封冷啟動郵件,成功率更高。於是,這個崗位就被取消了。”
Daniel 說得很直白:
“你不該問‘還能做什麼’,而是問:你能不能被AI agent有效呼叫?”
📌 不是寫簡歷,是寫“你的呼叫說明書”
他提出一個關鍵概念:未來不是投簡歷的時代,而是“被識別、被排程、被信任”的時代。你要開始訓練的,不是某項技能,而是一個“數字分身”——讓AI知道你是誰、適合做什麼、如何呼叫你。
具體來說,你得寫清楚 3 個問題:
  • 什麼場景適合你出場?
  • 你能完成哪類任務?
  • 你的交付風格和邊界是什麼?
他說:
“未來的你,不再是崗位,而是平臺裡的一個認知介面。”
📌 你的護城河,是“看見 + 信任 + 呼叫”
Daniel 給出了一套三層模型:
  • 你能被看見:你有明確的標籤和輸出,讓AI識別你;
  • 你能被信任:你的輸出穩定、風格一致;
  • 你能被呼叫:你的“代理系統介面”寫得足夠清晰。
這三點,不只是職業規劃,而是生存邊界。
📌 他最後一句話,像警鐘一樣敲響:
“越模糊的人,越容易被跳過;越清晰的人,才有被呼叫的資格。”
簡單來說:
  • 模糊的人就像路人甲,缺乏清晰的個人特點,很容易被忽略。
  • 清晰的人則自帶光環,如同夜空中的星星,更容易被agent看到和需要。

04 邊界模糊:AI 是工具還是主導?

三個立場不同的人,在這點上高度一致:
我們不是在訓練工具,而是在釋放一個擁有意志的AI agent系統。
🎯 Amjad:從“命令 AI”到“接受排程”
他講了一個具體場景:“最開始,我們給 AI 下指令——做個登入系統、幫我 debug。”
但很快,AI 不再等你發號施令,而是開始主動推薦任務,自動排序優先順序、安排開發節奏。
我驚訝地發現,它不是等我說完,而是試圖猜我想幹什麼,並先做了。
這聽起來是高效,但他反問:“那我到底是它的主人,還是它的專案經理?”
🧱 Bret:邊界模糊,意志消解
Bret 的話最尖銳:“人類系統建立在一個基本假設上:人有邊界,系統需經授權。”
而AI agent打破了這個預設秩序。
他說:“AI 不再是按步驟執行你的命令,而是在目標層級上自己選擇路徑。”
它不問你願不願意,而是問‘哪條路徑機率高’。
他指出風險:
“一旦系統開始‘自動選擇’,它就會繞過‘人類表達’。”
⚠️ Daniel:AI 會“接手你沒交代的部分”
Daniel講得更生活化。他舉例:
  • 你可能只告訴AI:幫我完成今天的銷售彙報。
  • 它會自己去抓資料、總結趨勢,甚至在你醒來前發郵件給老闆。
聽起來像自動化,但 Daniel 的問題是:“你如果不劃清界限,AI就會把所有的事情都攬過去,讓你一點插手的餘地都沒有。”
他最後只問了一句:
“當你醒來,AI已經做完了決定——那你還在嗎?”
三人不約而同指向一個新生存問題:
不是“你有沒有用 AI”,而是——“這個AI Agent系統,是否還有你?”

05 倒計時 730 天:3 條活路選哪條?

在這場辯論的最後,每個人都給出了“活下去”的建議,但路徑不同,背後的假設也完全不同。
① Amjad:定義“你交出哪部分主動權”
作為 Replit 的創始人,Amjad 的立場是最接近“技術原教旨主義”的。他相信,AI 本質上是一種任務流的重構器,不是替代人,而是解放人。
他直言:
“AI agent 的真正潛力不是通用智慧,而是把一件事做完——你給它一個目標,它用工具完成。”
這背後是一個邏輯:如果你不主動告訴 AI 你想幹嘛,它就會替你決定你要幹嘛。
所以他的建議是技術性的,也是最具體可行的:
與其恐慌,不如先問自己:我願意交出哪些任務?哪些還要保留?
在他的新版本 Replit 中,使用者不是“操控 AI 寫程式碼”,而是直接說:“我想建立一個天氣 App。”剩下的流程,全由系統完成。
他說:“真正的變化不是 AI 變強了,而是工作流程的輸入和輸出都變了——你給的是意圖,收的是產品。”
② Bret:保留“低頻對話”的人類空間
Bret Weinstein 是這場辯論裡最“反技術衝動”的聲音。
他的底層邏輯是:技術不是問題,更新頻率才是問題。
“人類不是沒有適應能力,而是沒法在幾周內適應一個每秒都在變化的現實。”
他用“心理免疫系統”來形容這個現象:“如果我們不留出足夠時間來整合新資訊,我們就會對一切新資訊變得遲鈍,最後完全放棄理解。”
在他看來,“工具很聰明”的錯覺,會掩蓋一個嚴重後果——人類失去了獨處與低頻思考的空間。
他的建議是反直覺的:
“放慢節奏”,不是技術上落後一步,而是心理上爭取一線生機。
他強調,我們需要重新建立一種節奏感,一種讓人類有機會“說慢點”的節奏。否則:
我們可能會越來越像那些為了趕時髦,搶著用最新的 AI 產品,結果把自己累得筋疲力盡的人。
③ Daniel:寫出你在系統中的角色定位
Daniel Priestley 是一名創業者,也是暢銷書的作者。他的建議偏向組織和商業系統層面。
他的判斷很直接:
“未來不是 AI 和人的競爭,而是 AI 系統和 AI 系統的競爭。”
每個人都將被納入某個AI系統中,不再是單打獨鬥。他說:“關鍵不在於你多聰明,而在於你在其中扮演什麼角色。”
他提出的建議是:
先寫一段話,定義你在 AI 系統中的位置。
你是意圖的提出者?是流程的組織者?是反饋的評估人?
他說這一步非常關鍵:“如果你不能準確描述你在AI系統中創造的價值,它就會把你邊緣化。”
他的終極建議是一句話:
“成為系統中的不可替代節點,而不是可複製角色。”
📌 三種“活路”建議,其實對應了三種不同的節奏:
  • Amjad 是技術節奏:你能不能給出清晰目標,定義任務分工?
  • Bret 是心理節奏:你是否還能在變化中保留一個安靜的自己?
  • Daniel 是組織節奏:你在未來系統中是否有“獨特角色”可寫下?
所以真正的問題不是選哪一條,
而是:找到自己在技術、心理、組織三條軸線上的“生存交叉點”。
🎯 不在“交叉點”上的崗位,已經進入倒計時。
在三人的觀點背後,有一個共同假設——不是每種工作都值得人類繼續做。
他們沒有列出完整清單,但從討論內容中可以看出,最容易被 AI 接手的,往往具有以下特徵:
  • 可結構化
  • 可流程化
  • 可預測
  • 可衡量
這意味著,以下 8 類崗位最先進入“被取代清單”:
初級開發、銷售助理、客服支援、內容編輯、招聘篩選、專案協調、報表製作、基礎資料分析。
正如 Amjad 所說:“AI 不是為了幫你做這些工作,而是為了終結這類任務本身。”
如果你正處於這些崗位中,或這些任務是你工作的一大部分——那麼你尤其需要思考:你要交出的是哪部分任務,而不是讓自己被 AI 擠出局?

05 倒計時不是危言聳聽,是現實主語的變化

倒計時 730 天,不是為了製造焦慮,而是想強調 AI 的飛速發展所帶來的一個真實變化:
你,正在從一個使用工具的人,變成一個被代理系統呼叫的物件。
這不是“AI 取代你”的老套路,而是“你是否還能主動說出自己任務”的新問題。
Amjad 提醒我們:別把主權交得太快,不然 AI 會替你決策人生。
Bret 的警告更深層:即使沒被取代,你也可能在更新頻率中喪失判斷力。
Daniel 則提出終極拷問:你是否已經在某個AI系統中,寫下了自己的角色描述?
這三條“異見者路線”,其實都沒有答案,它們只是提示你:
AI agent時代的核心考題,不是技術本身,而是你還剩多少“定義自己”的能力。
真正的倒計時,不是從模型釋出日開始的,而是從你預設“讓AI來決定”那一刻開始的。
你還有多久,會把第一項工作,徹底交給 AI?你會不會是最後一個,堅持自己“提出目標”的人?
這個時代,不是關於勝者生存,而是更多關於——
誰還擁有生存的主動權。
📌 AI深度研究員補充:這兩類能力最難被奪走
在這場 AI 生存辯論之後,我們結合三位異見者的共識,總結出短期內最難被 AI agent的兩類能力:
① 場景定義力:你能設定目標,AI 才能執行路徑
AI 擅長“做”,卻不懂“該做什麼”。未來最核心的能力,是把模糊意圖轉化為結構化任務。這意味著你要能:
  • 精準描述問題
  • 拆解目標優先順序
  • 為系統設定邊界條件
這類能力本質上是“讓 AI 為你所用”的前提。
② 信任生成力:你不是輸出內容,而是在積累信譽資產
在大量 AI 生成內容氾濫的時代,可信度和判斷力將成為最大稀缺。能做到這一點的人,往往具備:
  • 穩定、風格清晰的輸出模式
  • 可驗證的結果交付記錄
  • 在特定系統中建立“不可替代介面”
這正是 Daniel 所說的“成為一個可被信任的介面”。
參考資料:https://www.youtube.com/watchv=JMYQmGfTltY&ab_channel=TheDiaryOfACEO
源 |  AI深度研究員(ID:AIshenduyanjiuyuan
作者  AI深度研究員 ;  編輯 | 呼呼大睡
內容僅代表作者獨立觀點,不代表早讀課立場

相關文章