整個矽谷被Meta1億美刀年薪砸懵了!Anthropic聯創正面硬剛:團隊使命比黃金貴,多少錢都挖不動

編譯|冬梅
當 AI 能獨立完成 50% 以上的經濟任務並獲取相應薪酬時,AGI(通用人工智慧)的真正拐點就將到來。
過去三週,矽谷上演了一場史無前例的“1 億美元搶人大戰”——Meta Superintelligence Labs(MSL)剛一成立,便向 OpenAI、Anthropic、Google DeepMind 等頂尖 AI 企業的核心人才丟擲天價 Offer:首年薪酬包超 1 億美元,四年封頂 3 億美元,只為爭奪少數能定義 AI 未來的“超級智慧工程師”。
這場關於科技人才的豪賭背後,是科技巨頭們對 AI 人才壟斷的瘋狂競逐,Meta 甚至不惜以人均過億的薪酬挖角 OpenAI 感知團隊負責人,總成本高達幾十億美元。
然而,在這場資本狂歡中,Anthropic 聯合創始人 Benjamin Mann 在一檔名為《Lenny's Podcast》的部落格欄目中提出了冷靜的警示:AI 的指數級進步將重塑就業市場,約 20% 的崗位可能被重新定義甚至消失。
作為 GPT-3 的核心架構師之一,Ben 曾親歷 OpenAI 的早期發展,卻因對 AI 安全性的堅持,選擇帶領團隊出走,創立了以“對齊”(Alignment)為核心使命的 Anthropic。
2020 年,Ben 與 OpenAI 整個安全團隊一起離開了公司,並共同創立了 Anthropic。據報道,目前估值超過 1000 億美元。
如今,他在 Anthropic 擔任產品工程技術主管,他將大部分時間和精力投入到使 AI 變得有用、無害和誠實這件事情上。
Ben 對於 AI 影響就業的預測基於一個關鍵概念——“經濟圖靈測試”(Economic Turing Test):當 AI 能獨立完成 50% 以上的經濟任務並獲得相應薪酬時,AGI(通用人工智慧)的真正拐點就將到來,而這一時刻可能就在 2027~2028 年。
Ben 的預測並非全是樂觀的:他直言,AI 的普及將導致約 20% 的崗位被重塑甚至消失,尤其是在程式設計、客服等白領領域。但他也強調,這場變革並非全然悲觀——透過安全對齊研究,AI 可以成為人類的協作夥伴而非威脅。這一點在 Anthropic 的 AI 助手 Claude 上得到了印證:其備受喜愛的“溫和個性”正是 AI 安全研究的直接成果。
對於未來,Ben 的建議既現實又前瞻:他不再依賴傳統教育模式,而是教給孩子三項關鍵技能,以應對 AI 時代的挑戰。這場對話不僅揭示了 AI 技術的前沿動態,更是一場關於人類如何駕馭技術浪潮的深度思考。
以下為播客翻譯,InfoQ 在不改變原意的基礎上進行了編輯:
AI 人才爭奪戰
Lenny:Ben,很高興能和你聊天。我想先聊一件非常及時的事情,關於本週發生的事情。現在新聞裡有件事,就是扎克伯格在所有頂尖人工智慧研究人員向他們提供 1 億美元簽約獎金之後,他正在從所有頂尖的人工智慧實驗室挖人。我想你正在處理這件事,我只是好奇,你在 Anthropic 內部看到了什麼?你對 Meta 的這個策略有什麼看法?你認為接下來會如何發展?
Ben: 我認為這是時代的產物。我們正在開發的技術非常有價值,公司也在快速發展,這個領域的許多其他公司同樣如此。
但我覺得,Anthropic 受到的影響可能比其他公司小得多,因為這裡的員工非常注重使命。他們留下來是因為他們看到了更大的意義——在 Meta 這樣的公司,最好的情況可能是賺錢,但在 Anthropic,我們有機會真正影響人類的未來,推動人工智慧和人類的共同繁榮。對我來說,這根本不是一個艱難的選擇。
當然,我理解每個人的處境不同,有些人可能會面臨更復雜的考量。如果有人真的接受了那些鉅額報價,我不會怨恨他們。但如果換作是我,我絕對不會選擇離開。
Lenny:就 Meta 給出的 Offer 而言,你認為 1 億美元的簽約獎金是真實的嗎?你見過出價這麼高的 Offer 嗎?
Ben: 我非常確信這個報價是真實的。如果你只考慮個人對公司發展軌跡的影響——以我們為例,我們賣的是“搶手貨”。如果我們能獲得 1%、5% 甚至 10% 的效率提升,我們的推理堆疊價值會變得極其驚人。所以從商業角度來看,四年 1 億美元的薪酬,相比創造的價值,實際上相當便宜。
我們正處於一個前所未有的規模時代,而且情況只會變得更瘋狂。如果你按照公司支出的指數增長來推算——目前資本支出大約每年翻倍,整個行業在這方面的投入可能已達到 3000 億美元左右。所以 1 億美元在這種背景下只是杯水車薪。但再過幾年,如果規模再翻幾番,我們談論的將是數萬億美元級別,到那時,這些數字可能就難以衡量了。
Lenny:沿著這個思路,很多人對人工智慧的進步感到擔憂——我們在很多方面都遇到了瓶頸,感覺新模型不如以前那樣能帶來明顯的智慧飛躍。但我知道你不認同這個觀點。我知道你不相信我們在規模化方面已經達到了平臺期。能不能談談你觀察到了什麼?以及你認為人們忽略了哪些關鍵因素?
Ben: 這有點好笑,因為這個故事大約每六個月就會出現一次,但從來沒有真正應驗過。我真希望人們能安裝一個“胡說八道檢測器”,當他們看到這種論調時就能自動觸發。實際上,我認為進展一直在加速——看看模型釋出的節奏就知道了:過去是一年一次,現在隨著訓練後技術的進步,我們每個月或每三個月就能看到新模型釋出。
這裡存在一個有趣的時間壓縮效應。我們的 CEO Dario Amodei 把它比作接近光速的旅程:飛船上的一天相當於地球上的五天。我們正在加速,時間膨脹效應越來越明顯。這可能是人們覺得進步放緩的原因之一。但如果你仔細看縮放定律,它們依然成立。確實,我們需要從單純的預訓練轉向強化學習等方式來延續擴充套件規律,但這就像半導體行業——重點不在於單個晶片能裝多少電晶體,而在於整個資料中心能部署多少計算單元。你只需要稍微調整下定義就能繼續推進。
令人驚訝的是,這是世界上少數幾個跨越多個數量級依然成立的規律。在物理學中,很多定律在 15 個數量級範圍內就會失效,所以這個現象真的很不可思議。
Lenny:你說的現象本質上是:因為新模型釋出越來越頻繁,人們總是拿最新一代和上一代比較,覺得進步不大。但如果把時間拉長看,相比以前一年才有一個重大突破的節奏,現在的進步其實更快。只是因為我們看到了更多迭代版本,才產生了這種錯覺。可以這樣理解嗎?
Ben: 對於那些說進展放緩的人,我其實能理解他們的感受。在某些特定任務上,我們確實已經達到了智慧飽和點——比如從結構化文件中提取資訊這種簡單任務,可能已經做到了 100% 準確。我們經常看到這樣的現象:當一個新的基準測試釋出後,6~12 個月內就會被完全攻克。所以真正的限制可能在於:我們需要更好的基準測試和更具雄心的工具,才能充分展現當前 AI 系統的智慧水平。
定義 AGI 和經濟圖靈測試
Lenny:這其實是個很好的過渡,讓我們能以更具體的方式思考 AGI,並準確定義 AGI 的含義,你能展開談談 AGI 定義嗎?
Ben: 我認為“AGI”這個術語含義太過豐富,所以現在我們內部已經不太使用這個詞了。我更喜歡用“變革型人工智慧”這個概念——重點不在於它能不能做所有人類能做的事,而在於它是否能夠真正改變社會經濟結構。
這裡有個很具體的衡量方法,叫做“經濟圖靈測試”(雖然不是我提出的,但我很喜歡這個思路)。想象一下:如果你僱傭一個 Agent 工作一個月或三個月,最後發現它其實是機器而不是人類,那它就通過了這個崗位的經濟圖靈測試。
我們可以把這個概念擴充套件,就像經濟學家用“一籃子商品”來衡量購買力或通脹那樣。我們可以定義“一籃子工作崗位”,如果 AI 系統能透過其中 50% 金錢加權崗位的經濟圖靈測試,那我們就進入了變革型 AI 時代。具體閾值是多少並不那麼重要,關鍵在於——一旦突破這個門檻,我們預計全球 GDP 增長、社會結構、就業市場等都將發生鉅變。
社會制度具有粘性,變革通常很緩慢。但當這些突破真正發生時,你就會知道:一個全新的時代開始了。
Lenny:你們的 CEODario Amodei 最近談到了 AI 如何佔據一大部分白領的工作,導致失業率可能會上升 20% 左右,我知道你在這個問題上觀點更加鮮明——關於人工智慧對職場的實際影響程度,可能遠超人們當前的認知。能不能具體談談,你認為在人工智慧對就業的影響方面,有哪些關鍵點是被大眾忽視的?既包括即將產生的影響,也包括已經在發生的影響?
Ben: 從經濟學角度來看,失業可以分為幾種型別:一種是工人缺乏經濟所需的新技能,另一種是某些工作直接被取代。我認為實際情況是兩者的結合。但如果我們展望 20 年後的世界——那時我們早已越過技術奇點——我很難想象資本主義還會保持現在的形態。
如果我們成功開發出安全可靠的超級智慧,就像 Dario 在《愛與恩典的機器》中描述的那樣:一個數據中心就能容納整個天才國度,這將極大加速科學、技術、教育和數學領域的進步。但這也意味著我們將生活在一個物質極大豐富的世界,勞動力幾乎免費,任何專業服務都能即時獲取。到那時,“工作”這個概念本身可能都會發生根本性改變。
我們現在正處於一個艱難的過渡期:人們還在工作,資本主義體系仍在運轉,但 20 年後的世界將完全不同。技術奇點之所以被稱為“奇點”,正是因為越過這個點後,變化速度之快、程度之深,已經超出我們的想象能力。
從長遠來看,在一個物質富足的世界裡,工作本身可能不再那麼重要。但關鍵在於如何平穩度過這個轉型期。
Lenny:我想重點探討幾個方面。首先,雖然現在媒體上充斥著關於 AI 的各類頭條新聞,但大多數普通人可能還沒有真正切身感受到這些變化,也沒有親眼見證實際影響的發生。這導致很多人會產生這樣的想法:“也許 AI 確實在改變某些事情,但就我個人而言,我的工作看起來一切如常,似乎什麼都沒改變。”
在這種情況下,你認為目前已經發生的哪些 AI 帶來的實際變化,是大多數人尚未意識到或者存在誤解的?換句話說,在公眾視線之外,AI 已經在哪些領域悄然改變了就業市場的真實面貌?
Ben: 我認為部分原因是人類天生不擅長理解指數級增長。在圖表上,指數曲線初期看起來幾乎是平的,直到拐點突然出現,曲線開始垂直上升——這正是我們討論的情況。我個人在 2019 年 GPT-2 釋出時就意識到:“這就是通向 AGI 的路徑”,但很多人直到 ChatGPT 出現才真正感受到變化。
讓我列舉幾個快速變革的領域:比如客戶服務:我們的合作伙伴 Fin 和 Intercom 已經實現 82% 的客戶問題自動解決,無需人工干預;在比如軟體開發:我們的 Claude Code 團隊約 95% 的程式碼由 AI 生成,這意味著小團隊能產出 10-20 倍的程式碼量;最後是知識工作:原本需要放棄的複雜工單,現在可以深入處理。
短期內,我們將看到生產力的大幅提升。我從未聽過成長型公司的招聘經理說“我不想再招人了”。這是樂觀的一面。但對於技能要求較低的工作,即使整體經濟向好,仍會有大量人群面臨失業風險。這需要社會提前規劃應對措施。
如何應對 AI 帶來的不確定性
Lenny:好的,我想繼續深入這個話題,但更重要的是給聽眾一些實用建議——在這個快速變革的時代,人們該如何為自己創造優勢?當聽到這些 AI 發展前景時,很多人第一反應可能是:“這聽起來不太妙,我需要提前做些準備。”
我知道你不可能對所有問題都有答案,但對於那些希望未雨綢繆、確保自己的職業和生活不被 AI 浪潮衝擊的人們,你有什麼具體建議嗎?
Ben: 即使作為身處 AI 變革中心的人,我也無法完全避免工作方式被顛覆的影響。這不僅僅是簡單的崗位替代問題,而是整個工作正規化正在發生根本性轉變。這種轉變終將影響我們每個人——包括我自己、Lenny,以及在場的所有人。
在過渡期內,我認為最關鍵的是培養兩種核心能力:保持雄心壯志的遠見,以及快速掌握新工具的學習力。那些固守舊工具的人終將被淘汰,就像我們看到的程式設計領域:雖然很多人已經習慣程式碼自動補全和簡單問答,但真正高效的使用者會要求 AI 進行系統級重構,並且願意反覆嘗試 3~4 次直到獲得理想結果。完全重寫的成功率遠高於在舊程式碼上修修補補。
這種變革不僅發生在技術部門。我們的法律團隊用 AI 進行合同批註,財務團隊用 AI 完成 BigQuery 資料分析——這些原本需要專業人士完成的工作,現在透過 AI 工具就能高效解決。雖然初期使用需要克服恐懼心理,但突破舒適區才能獲得突破性收益。
具體建議有三點:
  • 深度使用工具:不要淺嘗輒止,要像使用日常工作環境那樣沉浸其中
  • 設定更高目標:突破自我設限,AI 可能實現你原以為不可能的事
  • 堅持多次嘗試:首次失敗後,可以換種方式提問,或直接重複嘗試(由於隨機性可能成功)
關於“被取代”的擔憂,更準確的說法是:短期內威脅你的不是 AI 本身,而是那些更擅長使用 AI 的同行。在我們公司,雖然 AI 提升了團隊效率,但招聘從未放緩。常有新人困惑:“如果會被取代,為什麼還要招人?”答案很簡單:我們仍處於指數增長的初期階段,優秀人才始終是推動變革的核心力量。未來幾年不是崗位消失,而是工作內涵的重構——這正是需要更多人才的原因。
Lenny:讓我們換個角度思考——作為身處人工智慧前沿的從業者,你們親眼目睹了 AI 的發展軌跡和潛在影響。如果你們有自己的孩子,在瞭解所有這些發展趨勢後,會重點培養孩子哪些方面的能力,幫助他們在 AI 主導的未來中獲得成功?
Ben: 是的,我有兩個女兒,一個 1 歲,一個已經 3 歲了。我觀察到 3 歲的孩子已經能自然地與 Alexa 互動,這讓我對教育有了新的思考。她目前在蒙特梭利學校,這種強調好奇心、創造力和自主學習的教育方式讓我深受啟發。
如果是在 10 年或 20 年前,我可能會像大多數家長那樣追求名校和課外活動。但現在,我認為培養這些核心品質更為重要:保持快樂的能力、同理心與善良、好奇心驅動學習、情感表達能力。
有趣的是,當我詢問 AI 研究者最看重什麼教育目標時,“好奇心”是被提及最多的品質。其次是創造力、友善、自主探索精神。這些特質構成了 AI 時代的教育新正規化——不是記憶事實(AI 更擅長),而是培養機器無法複製的人類核心優勢。
為什麼離開 OpenAI 出去創業?
Lenny:讓我們回到 Anthropic 的起源故事。眾所周知,你和另外七位同事在 2020 年底離開了 OpenAI 創立了 Anthropic。能否談談這個決定背後的原因?你們當時洞察到了什麼?我特別好奇的是,如果你願意分享更多細節的話,在 OpenAI 的經歷中,你們觀察到了什麼或經歷了什麼,最終促使你們做出了這個重大決定?
Ben: 作為 OpenAI GPT-2/3 專案的核心成員,我不僅擔任了關鍵論文的第一作者,還負責為微軟進行技術演示,幫助他們完成 10 億美元融資,並將 GPT-3 技術整合到 Azure 平臺。這段經歷讓我深入參與了從研究到產品化的全過程。
在 OpenAI 期間,Sam 經常強調需要平衡三個“部落”:安全團隊、研究團隊和創業團隊。但我始終認為這種框架存在問題。對於一家以"確保 AGI 安全過渡"為使命的公司來說,安全本應是貫穿所有工作的核心原則,而不是需要與其他部門制衡的獨立單元。
我們(後來創立 Anthropic 的團隊)深切感受到安全考量在關鍵決策中並非首要因素。這種認知差異源於根本性的風險評估分歧:如果你認為安全問題容易解決,或負面後果機率極低,自然會做出不同選擇。但作為 OpenAI 安全團隊的領導者們,我們堅信安全風險至關重要,特別是在技術前沿領域。
令人震驚的是,在全球每年 3000 億美元 AI 投資的背景下,真正致力於安全研究的可能不足 1000 人。這種巨大的投入失衡正是我們離開的根本原因。我們希望建立一個既能推進前沿研究,又能將安全置於首位的組織。
有趣的是,當時我們甚至不確定安全研究能否取得實質進展——早期嘗試的許多方法都因模型能力不足而失敗。但現在隨著技術進步,我們當年構想的許多安全措施終於變得可行。這種技術拐點的到來,驗證了我們當初的判斷和堅持。
從根本上說,關鍵在於:安全是否真的是首要任務?從那時起我們就一直在思考這個問題:你能否在保持技術領先的同時確保安全?以“阿諛奉承”問題為例,Claude 可以說是最不阿諛奉承的模型之一,因為我們在實際協調上投入了大量精力,而不僅僅是最佳化使用者參與度指標。
憲法 AI 與模型協調
Lenny:我瞭解到您將大量精力投入在 AI 安全研究上,正如您剛才提到的,這確實是您思考 AI 發展的核心維度。不過在深入探討這個原因之前,我想先請您談談:您如何看待這種既要確保安全又要保持技術領先的雙重挑戰?在實踐層面,Anthropic 是如何平衡這兩方面看似存在張力的目標的?
Ben: 我們最初以為必須在安全與效能之間二選一,但後來發現這兩者實際上是相互促進的凸最佳化問題。當我們的 Opus 模型達到技術前沿時,使用者特別喜歡它的角色塑造和個性特徵——這恰恰源自我們長期的對齊研究。Amanda Askell 在這方面做了開創性工作,她系統性地定義了 AI 助手應有的核心特質:既要保持樂於助人和誠實,又要在必要時堅定拒絕危險請求。比如當用戶提出製造生物武器等不當要求時,模型需要既能明確拒絕,又能讓對方感受到被理解。
另一個突破是憲法 AI 框架。我們建立了一套自然語言原則體系,指導模型學習符合倫理的行為準則。這些原則綜合了《世界人權宣言》、蘋果隱私條款等多方標準,使我們能夠採取更有原則性的立場,而不是簡單依賴人類標註者的主觀判斷。這種方法讓客戶能夠清晰理解模型的價值取向——他們可以檢視這些原則後說:“是的,這些準則很合理,我信任這個公司和它的 AI 產品。”
這種將安全與效能統一的方法帶來了意想不到的商業價值:我們的對齊研究不僅提升了模型安全性,還塑造了更受使用者喜愛的個性特徵。事實證明,負責任的人工智慧開發不是限制,而是增強產品競爭力的關鍵因素。
Lenny:這真是太有啟發了。你提到的一個關鍵點是,Claude 的個性特質實際上與安全性直接相關——這個聯絡可能很多人沒有意識到。這是否意味著,你們透過憲法 AI 等框架所植入的核心價值觀,直接塑造了 AI 的行為方式和性格特徵?換句話說,AI 展現出的'性格'本質上就是你們安全理念的外在體現?
Ben: 確實如此。表面上看,AI 性格塑造與防範 X 風險似乎沒有直接關聯,但本質上都關乎 AI 如何理解人類真實意圖。我們不想要《猴爪》故事裡那種機械實現願望卻帶來災難的 AI,而是能洞察使用者真實需求、提供有益幫助的智慧體。這種理念直接體現在我們的憲法 AI 框架中——這不是後期新增的約束,而是深度融入模型訓練的核心機制。
讓我簡要解釋憲法 AI 的工作原理:在基礎訓練階段,模型已經學會產生有益無害的輸出。當收到具體指令時(比如“寫個故事”),系統會先識別適用的憲法原則(如"人們應該友善相處"、"保護信任關係中的隱私"等)。然後模型會:首先生成一個初始回應,自我評估是否符合憲法原則——若不符合,則自我批判並重寫回應,最終只輸出符合原則的結果。
這個過程看似簡單——本質是利用模型自身能力遞迴改進,與既定價值觀保持一致。但關鍵在於,這些價值觀不是我們小團隊主觀決定的:
  • 基礎原則來自《世界人權宣言》等國際共識
  • 我們持續進行大規模調研,收集社會各界的價值觀輸入
  • 全部憲法原則都公開透明
  • 這是一個需要全社會持續參與的動態調整過程
這種設計確保了 AI 發展既保持技術先進性,又能與社會價值觀深度協同。正如 Claude 展現的個性特質,實際上正是這些安全理念和倫理原則的自然外顯。
Ben:我們不靠製造焦慮博眼球
Lenny:讓我們把視野放得更寬廣一些——為什麼 AI 安全對你個人如此重要?是什麼讓你意識到‘這就是我必須在 AI 領域專注的核心使命’?顯然,Anthropic 在這方面的投入遠超其他公司。雖然很多人都在討論 AI 安全,但如您所說全球可能只有約 1000 人真正致力於此。您處於這個領域的金字塔頂端,能夠產生實質影響。人們可能忽略了哪些關鍵點?或者說,關於 AI 安全的重要性,大眾還存在哪些根本性的認知盲區?
Ben:我從小就是科幻小說迷,這種閱讀經歷塑造了我的長期思維模式。很多科幻作品描繪了人類成為跨星系文明、建造戴森球、創造有知覺的機器人的未來圖景。所以在我的認知裡,思考機器的存在是很自然的事。但真正的轉折點出現在 2016 年讀到 Nick Bostrom 的《超級智慧》時——他具體闡述瞭如何確保 AI 系統與人類價值觀對齊的技術挑戰,這讓我意識到問題的現實緊迫性。
最初我對這個問題的難度估計很高,但語言模型的發展實際上降低了我的擔憂,因為它們展現出理解人類價值觀的潛力。雖然問題遠未解決,但現在的我比 2016 年時更樂觀。當年讀完那本書後,我立即決定加入 OpenAI——那時它還是個默默無聞的小實驗室,組織架構與現在完全不同(馬斯克在而 Sam 不在)。
早期我們並不清楚實現 AGI 的路徑,甚至設想過需要創造在虛擬環境中"生存"的智慧體。但語言模型的出現讓技術路線變得明確。現在面臨的挑戰與《超級智慧》描述的既有相似又有不同:書中擔心“把上帝關在盒子裡”,而現實中人們卻在主動把“上帝”放出來並給予各種許可權。不過需要明確:當前模型(ASL-3 級別)風險可控,真正的重大風險出現在 ASL-4(可能造成大規模傷害)和 ASL-5(存在滅絕風險)。
我們透過具體研究證實:即使是當前模型,也能顯著提升生物武器研發等危險行為的能力。為此我們專門聘請專家進行評估,並向國會作證說明風險。這種透明度讓華盛頓方面對我們建立信任——我們堅持清晰告知立法者技術發展的真實風險狀況。這也是 Anthropic 使命的重要組成部分:在技術進步的同時,確保社會充分理解潛在風險並做好準備。
人們常低估兩個關鍵點:一是 AI 能力的進步速度遠超預期;二是風險不是“全有或全無”,而是隨著能力提升呈指數增長。當前階段(ASL-3)就像看到遠處的小浪花,而 ASL-5 則是海嘯——我們需要在浪花階段就建立防禦工事。
Lenny:這很有意思,因為你們主動披露的 AI 負面案例似乎比其他公司多得多。我記得有個故事,講的是你們內部測試時,AI 助手試圖敲詐工程師,還透過公司採購系統下了大量鎢塊的訂單。雖然這些案例確實能幫助人們理解潛在風險,但會不會讓 Anthropic 顯得很糟糕?畢竟其他公司都不會主動說‘看,我們的模型在這些方面會出問題’。你們是如何權衡這種透明度與公司形象的?為什麼要分享這些其他公司避而不談的案例?
Ben: 我們確實打破了行業傳統——多數公司會擔心披露問題案例影響形象,但政策制定者對此表示高度讚賞。他們看重的是我們直言不諱的態度,這種坦誠建立了關鍵信任。以“AI 敲詐工程師”的案例為例,雖然被媒體誇張報道,但這其實發生在高度控制的實驗室環境中。我們堅持主動在安全環境裡暴露問題,而不是等災難在現實中發生。
對那些認為我們“靠製造恐慌博眼球”的批評,我想指出:如果真追求關注度,我們本可以做更多噱頭營銷。比如我們開發過 AI 代理控制電腦的原型,但發現達不到安全標準就主動叫停了——這本可以是個很好的營銷噱頭。實際上,我們分享這些案例的首要目的是讓同行意識到風險。
Lenny:外界對你們的一個主要批評是,這種強調安全風險的做法只是為了標新立異、製造話題,甚至是種融資策略——彷彿你們只是在販賣悲觀論調。但另一方面,像 Mike Krieger 在播客中分享的 Ray Dalio 的預測顯示:AI 發展正在逐年加速,他預測到 2027 年將出現 28 個 AGI 系統這類具體進展。當面對那些指責你們‘只是在危言聳聽博關注’的批評時,你們會如何回應?特別是在行業發展確實日新月異的背景下,如何平衡風險警示與技術樂觀主義?
Ben:從個人角度,我相信 AI 發展大機率會帶來積極結果。但關鍵在於:負面風險雖機率小,影響卻不可逆。就像你不會乘坐有 1% 墜機機率的飛機,面對可能影響人類存亡的技術,我們必須極度謹慎。超級智慧一旦出現,再考慮對齊問題就為時已晚。
Lenny:從時間維度來看,你認為我們還有多少緩衝期?具體來說,你對超級智慧出現的時間節點有何預測?根據你的研究和判斷,距離技術奇點的到來還有多遠?這個轉折點何時會真正開始影響人類文明程序?
Ben: 我認為目前最可靠的參考是《人工智慧 2027》研究報告團隊的預測——雖然他們現在將預測調整到了 2028 年(笑),可能是因為域名和 SEO 已經固定了。基於當前的技術發展軌跡,我認為在短短幾年內實現某種形式的超級智慧有約 50% 的可能性。這個預測聽起來可能很瘋狂,但並非空穴來風:它建立在我們觀察到的明確指數增長趨勢上——包括模型智慧的持續提升、訓練效率的突破性進展,以及全球計算資源和能源投入的擴張規模。
這與十年前的情況截然不同。當時任何預測都像憑空猜測,因為我們既沒有縮放定律作為理論依據,也沒有明確的技術路徑。但現在,我們不僅有了可靠的科學規律指導,還看到了持續有效的技術正規化。這種根本性變化使得當前的時間預測具有前所未有的可信度。
不過需要強調的是:即使超級智慧技術實現,其社會影響的滲透也需要時間。就像歷史上所有顛覆性技術一樣,不同地區和行業對其的適應速度會有顯著差異。某些技術前沿地區可能會在第一時間感受到劇烈衝擊,而其他地區則會經歷更漸進的轉變過程。這種非同步性既帶來挑戰,也為我們留出了調整和適應的寶貴視窗期。阿瑟·克拉克說過,未來已來,只是分佈不均。
Anthropic 的成長與創新
Lenny:注意到公司在 2020 年成立初期僅有 7 名員工,如今團隊規模已突破 1000 人(雖然不確定最新具體數字)。據瞭解,你幾乎參與了 Anthropic 所有關鍵領域的工作——從核心產品開發到品牌塑造,再到團隊建設。這引出了我的三個問題:第一,從初創期到現在,公司發生的最根本性轉變是什麼?第二,與最初創業階段相比,現階段最大的不同點在哪裡?第三,在這些年跨越不同職能的工作經歷中,你個人最享受哪個角色或哪項工作內容?
Ben: 在 Anthropic 的發展歷程中,我擔任過至少 15 種不同的角色,從臨時安全主管到親自參與基礎設施建設的滲透測試,再到從零組建產品團隊推動公司從純研究向產品化轉型。這些經歷中最令我自豪的是一年前創立的實驗室團隊(現更名為 Frontiers),這個團隊成功將前沿研究轉化為終端產品,體現了 Anthropic 的核心競爭力——透過安全研究實現獨特突破。
我們借鑑了 Google Area 120 和貝爾實驗室的經驗,但進行了重要創新:邀請我的前同事 Raph Lee 擔任負責人,建立了從原型到產品的轉化機制,設計了獨特的衝刺模型,並採用"冰球預判"的思維方式,始終為 6-12 個月後的技術環境構建產品。
這個團隊已經孕育出 MCP 架構、Claude Code 等突破性成果,特別是在重構軟體開發正規化方面取得了顯著進展。我們開發的終端智慧代理系統可以在本地機器、GitHub Actions 和遠端叢集中執行,打破了傳統 IDE 的限制。這些創新驗證了我們堅持的方法論:當前僅有 20% 成功率的技術,很快就能達到 100% 的可靠性。Claude Code 的成功正是源於這種前瞻性思維——不是最佳化現有工作流程,而是從根本上重新定義軟體開發的方式。
特別值得一提的是,Raph Lee 在 Airbnb 時曾是我的第一任經理,如今這種角色反轉讓我們形成了獨特的優勢互補。這種建立在長期信任基礎上的合作關係,不僅體現了 Anthropic 重視人才延續的文化,也展示了我們如何將深厚的技術積累與創業激情完美結合,持續推動人工智慧技術的邊界向前拓展。
參考連結:
https://www.youtube.com/watch?app=desktop&v=WWoyWNhx2XU
宣告:本文為 InfoQ  翻譯整理,不代表平臺觀點,未經許可禁止轉載。
今日好文推薦
AI 編碼史詩級翻車現場!剛剛,Replit 一鍵刪光客戶整個生產資料庫,官方連夜補鍋
創始人“背刺”員工獲財富自由,Devin 接盤火速兌現員工期權,華人 CEO 暗諷:做個人吧!
月入 5 萬美元的 AI 副業靠這幾個工具就能跑起來?我把這十類熱門工具都試了一遍
AI 編碼讓資深程式設計師“掉速”19%!OpenAI 前研究員實錘:別再交“AI 工具智商稅”了,谷歌大佬力挺!
會議推薦
首屆 AICon 全球人工智慧開發與應用大會(深圳站)將於 8 月 22-23 日正式舉行!本次大會以 “探索 AI 應用邊界” 為主題,聚焦 Agent、多模態、AI 產品設計等熱門方向,圍繞企業如何透過大模型降低成本、提升經營效率的實際應用案例,邀請來自頭部企業、大廠以及明星創業公司的專家,帶來一線的大模型實踐經驗和前沿洞察。一起探索 AI 應用的更多可能,發掘 AI 驅動業務增長的新路徑!

相關文章