Altman嘲諷小扎挖走的都不是頂尖人才!OpenAI高管再營業曝內幕:ChatGPT爆紅後,我火速升職了!

編譯|冬梅
AI 領域競爭日益白熱化的當下,人才搶奪大戰正激烈上演。
Meta 執行長馬克・扎克伯格近期的一系列動作引發了軒然大波,其大力招募 AI 人才的舉措,直接觸動了行業巨頭 OpenAI 的神經。
週一晚間,OpenAI CEO Sam Altman 向公司研究人員發出了一份措辭強硬的回應,該回應被《連線》雜誌獲取。
Altman 在回應中明確闡述了對於那些立志打造通用人工智慧的人才而言,留在 OpenAI 才是不二之選,同時暗示公司正在對整個研究機構的薪酬方案進行全面評估。他對 Meta 的招聘行為表達了強烈不滿,直言這種做法可能會在未來引發嚴重的文化問題。
“我們已經從角落裡的一群書呆子變成了科技界最有趣的人(至少是這樣),” 他在 Slack 上寫道,“人工智慧推特有害;Meta 的行為讓人感覺有些令人反感;我認為未來情況會變得更加瘋狂。我被解僱回來後,我說那不是 OpenAI 歷史上最瘋狂的事情;當然也不是。”
這一事件的導火索是扎克伯格週一的一項重要宣告。當日,扎克伯格向員工傳送了一份備忘錄,介紹了 Meta 新成立的超級智慧團隊。該團隊將由前 Scale AI 創始人亞歷山大・王(Alexandr Wang)和前 GitHub 負責人納特・弗裡德曼(Nat Friedman)領導,新員工名單中多位來自 OpenAI 的高管赫然在列
對此,OpenAI 首席研究官馬克・陳(Mark Chen)形容這一情況,感覺就像 “有人闖入我們家偷東西一樣”。不過,Altman 在週一的報告中對離職一事有著不同見解,他表示:“Meta 確實招到了一些優秀的人才,但總的來說,他們沒能招到頂尖人才,而且不得不從名單上靠後的位置進行篩選,這一點怎麼說都不為過;他們招募人才已經花了很長時間,我已經記不清他們從這裡挖了多少人來當首席科學家了。”
他還強調 “傳教士勝過僱傭兵”,並對 OpenAI 股票的上漲空間充滿信心。
Altman 發表上述觀點後在社交媒體平臺引發熱議。
前網易副總裁、杭州研究院執行院長、久痕科技創始人 & CEO 汪源在微信朋友圈表示:
“Meta 挖了 OpenAI 幾個人,Altman 就出來說沒事沒事他們沒有挖走核心的人,這種說法對穩定團隊是不明智的。這麼講團隊會產生兩層理解:
1. 既然老闆認為也沒被挖走核心的人,估計也不會想著給我們更好的待遇來留住我們了;2. 被挖走的有幾個人還是很牛的啊,既然他們在老闆眼中都不是核心的人,那我們更不是了,我們就是牛馬。”
Altman 這麼講是從老闆的角度想問題,不是從員工的角度想問題。老闆當久了,就容易忽視員工的視角。”
在 Hacker News 上,也有使用者表示:“扎克伯格本來就不是什麼好人。他開源任何東西並非因為他是個‘好人’,他只是把互補的東西商品化了。如果 Meta 不開源,它的人工智慧產品現在將變得無關緊要。”
就在昨天,Mark Chen 向員工傳送的全員信中,Mark Chen 承認公司以前過分沉迷於定期釋出產品的節奏,以及與競爭對手的短期比較。在這種壓力之下,許多員工每週工作時間長達 80 小時。
多位知情人士透露 OpenAI 將基本停工一週,讓員工有時間恢復精力。已經有員工家屬證實了這一訊息。
在 Sam Altman 公開回擊 Meta 高薪挖角的同時,OpenAI 官方播客第二期也悄然上線,由 ChatGPT 負責人尼克·特利(Nick Turley)和首席研究官馬克·陳(Mark Chen)共同揭秘 ChatGPT 的幕後故事。儘管這期播客未直接提及人才爭奪戰,但卻透過回顧 ChatGPT 的發展歷程,巧妙展現了 OpenAI 的獨特文化與技術韌性,在評論區獲得了網友一片好評。
“ChatGPT”名稱的由來
Andrew Mayne:那麼,OpenAI 是如何決定 “ChatGPT” 這個名字的?
Mark Chen:這個名字是直到釋出的前一天晚上才決定下來的。
Nick Turley:原本想叫 “與 GPT-3.5 聊天”,但在深夜做了簡化決定,覺得 “ChatGPT” 更順口。這個決定很倉促,甚至專案啟動幾周前都還沒確定。
Andrew Mayne:然後 ChatGPT 就出來了,它從什麼時候有爆火的跡象的?
Nick Turley:釋出後的第一天我們甚至懷疑儀表板出錯了,第二天日本 Reddit 使用者開始關注到它,第三天我們內部覺得突然火了後會逐漸降溫,到第四天意識到它可能 “改變世界”。
Andrew Mayne:Mark,你當時對 ChatGPT 的市場反饋有什麼期待嗎?
Mark Chen:說實話,之前我們釋出過很多產品和預覽,但這次的傳播速度和規模完全不同。甚至我父母在 ChatGPT 爆火之前都不知道 OpenAI,以為我在做 “不切實際的工作”。我當時還只是研究人員,隨著 ChatGPT 爆火,我現在成為了研究主管了。
實際上,關於 GPT 這個名字,我認為甚至有一半的研究人員都不知道這三個字母代表什麼。一半人認為它是生成式預訓練模型,還有一半人認為它是生成式預訓練的 Transformer,其實是後者。
ChatGPT 的病毒式傳播
Andrew Mayne:ChatGPT 使用者激增時,內部如何維持服務執行?
Nick Turley:我們遇到了不少限制。我想你們應該還記得,ChatGPT 一直處於癱瘓狀態。
我記得,當時我們的 GPU 顯然用完了、我們的資料庫連線用完了,我們在某些提供商那裡受到了速率限制。
實際上並沒有設定任何可以執行產品的配置。所以一開始,我們構建了這個東西,我們把它叫做 “失敗鯨魚”,它會很友好地告訴你,它壞了,還會寫一首小詩,我想這首詩是 GPT-3 生成的,講的是失敗,有點開玩笑的意思。這讓我們度過了寒假,因為我們確實想讓人們享受某種假期。然後我們回來後,發現這顯然不可行,你不能一直處於低谷。最終,我們找到了可以為所有人服務的東西。
Mark Chen:是的。我認為這種需求確實體現了 ChatGPT 的通用性。我們有一個論點,ChatGPT 體現了我們對 AGI 的期望,因為它非常通用。我認為,您看到需求增長只是因為人們意識到,任何我想要給予或拋給模型的用例,它都可以處理。
釋出前的內部辯論
Andrew Mayne:OpenAI 的所有人都認為 ChatGPT 有用,或者已經準備好釋出了嗎?
Mark Chen:我不這麼認為。甚至在前一天晚上,OpenAI 上就有一個非常著名的故事,Ilya 對模型進行了 10 個難題的提問。我記得大概只有其中五個問題,他得到了他認為可以接受的答案。所以前一天晚上真的要做出決定:我們真的要釋出這個東西嗎?全世界真的會對此做出回應嗎?我認為這說明當你在內部構建這些模型時,你能夠快速適應這些功能。對於沒有經歷過這種模型訓練迴圈的人來說,很難設身處地地去理解其中的真正魔力。
Nick Turley:是的。我認為建立內部共識,判斷這個東西是否足夠好,這是很考驗人的,因為它提醒我們在人工智慧方面都可能犯很大的錯誤。這就是為什麼,經常接觸現實如此重要。
Mark Chen:當你思考迭代部署時,我喜歡這樣表述:沒必要讓每個人都同意它突然變得有用。有用性的範圍很廣,沒有一個能力水平或標準,只要你達到某個標準,突然之間,這個模型就對每個人都有用了。
Andrew Mayne:對於要包含哪些內容或重點關注哪些方面,我們是否做出了艱難的決定?
Nick Turley:ChatGPT 的原則是不擴大範圍。我們堅持儘快獲得使用者反饋和資料。關於使用者介面方面有很多爭議,比如,我們釋出時儘管認為使用者可能會想要但還是沒有加入歷史記錄功能,結果這成了使用者的第一個請求。我認為一直存在一個問題:我們能否用兩週的額外時間訓練出更好的模型?但我很高興我們沒有這麼做,因為我們確實收到了很多反饋。我們進行了大量關於 ChatGPT 包含哪些內容的討論,而且假期也快到了,所以我們有一種自然而然的動力,一定要拿出點成果。
Andrew Mayne:是的,有這樣的習慣,如果它要在 11 月的某個時間點之後釋出,那麼它可能就要等到 2 月才會釋出。這就像一個視窗,東西會從兩邊落下來。
Nick Turley:嗯,這是一家大型科技公司的經典做法。我認為我們在所有權方面肯定更靈活一些。
Andrew Mayne:我覺得最大的影響之一是,一旦人們開始使用它,這些改進的速度就會非常快。我們當然可以考慮在更大的站點上進行更多資料的訓練,擴充套件計算能力,但接下來的問題是如何真正獲得來自眾多使用者的反饋。
諂媚事件和 RLHF
Andrew Mayne:我們遇到的一個例子就是模型變得太過諂媚或阿諛奉承。你能解釋一下當時發生了什麼嗎?
Mark Chen:這裡很重要的核心是我們依靠使用者反饋來推動模型的發展。這是一種非常複雜的獎勵模型組合,我們將其用於一個叫做 RLHF 的程式中,利用人類反饋,透過 RL 來改進模型。
Andrew Mayne:您能簡單舉個例子說明一下嗎?
Mark Chen:可以這樣理解——當用戶喜歡某段對話時,他們會發出一些積極的訊號,比如豎起大拇指。我們會訓練模型,讓它傾向於以一種能獲得更多豎起大拇指的方式做出回應。現在回想起來,這一點可能很明顯,但如果平衡不當,就會導致模型變得更加諂媚。
使用者可能想要那種模型稱讚他們的感覺,但我認為從長遠來看這不是一個好的結果。只有一小部分高階使用者指出了這個問題,很多普通使用者並沒有注意到。我覺得我們很早就意識到了這一點,並採取了適當嚴肅的態度,這表明我們確實非常重視這些問題,並且希望儘早阻止它們。
Andrew Mayne:針對模型對諂媚,你們是如何應對的?因為社交媒體的問題在於,你基本上是透過使用時長來賺錢的,想讓人們停留更長時間,這樣你就可以向他們展示更多廣告。當然,使用 ChatGPT 的人越多,開啟廣告顯然就越有成本效益,這種似乎是一勞永逸的,但又不切實際。你如何權衡?是讓人們對現有產品感到滿意,還是讓模型變得更實用而不僅僅是取悅使用者?
Nick Turley:在這方面我感到非常幸運,因為我們的產品非常實用。人們用它來完成他們知道怎麼做但又無法快速做完的事,或者用它來做他們根本做不到的事情。比如寫一封你一直不想寫的電子郵件,或者進行你不知道如何在 Excel 中操作的資料分析,這些都是非常實用的東西。從根本上說,隨著你更加熟練,你實際上在產品上花費的時間會更少,因為理想情況下,來回的輪換次數會更少,你實際上委託給了 AI,所以你根本不參與產品。
所以對我們來說,時間投入並非我們最佳化的目標,但我們確實關心你的長期留存率,因為我們認為這是價值的體現。如果你停留了三個月還能再回來,那顯然意味著我們做對了。使用者給我動力,我就會回饋結果。
我認為,我們擁有創造偉大事物的正確基本動力,但這並不意味著我們總能做對。阿諛奉承事件真的非常重要,對我們來說是很好的教訓,我為我們採取的行動感到自豪。但從根本上來說,我認為我們已經做好了正確的準備,可以打造出一些令人驚歎的東西。
Andrew Mayne:所以,這就帶來了挑戰。我想知道您是如何應對這種情況的,ChatGPT 剛推出時,就有指控稱它已經覺醒,人們正試圖從中推行某種議程。
在模型行為中平衡實用性與中立性
Andrew Mayne:我的觀點一直是,你要根據企業語言、普通新聞和大量學術內容來訓練模型,這有點像是跟風。我記得埃隆・馬斯克對此非常挑剔,然後,當他訓練 Grok 的第一個版本時,它也做了同樣的事情,然後他說 哦,是的,當你用這種東西訓練它時,它確實做到了。在 OpenAI 內部,我們討論過如何讓模型不試圖推動你,也不試圖引導你。你能不能稍微說說你是怎麼實現這一點的?
Nick Turley:我認為,除了保持中立的預設設定和適度體現自身價值觀外,確保整個系統的透明度至關重要。我反對將系統提示作為秘密,透過"破解"模型來強制其表達或不表達某些內容。我們的做法是公開規範標準:當用戶發現某些模型行為時,可以明確判斷這屬於程式漏洞、違反既定規範,還是符合規範但需要改進。如果是規範本身存在疏漏,我們會及時完善相關條款。透過公開 AI 應遵循的行為準則,我們希望能讓更多人而不僅僅是 OpenAI 內部人員參與到這場重要討論中來。
Andrew Mayne:所以我們談論的是系統提示,即模型在使用者輸入之前獲取的指令部分
Mark Chen:嗯,我認為不止於此。
Nick Turley:系統提示是引導模型的一種方式,但它的意義遠不止於此。
Mark Chen:我們有一份非常長的文件,其中概述了我們期望模型在一系列不同行為類別中如何表現。比如,如果有人帶著錯誤的信念、與事實不符的想法進來,模型應該如何與其互動?它應該直接拒絕這個觀點,還是應該與使用者合作,共同找出真相?我們更認可後一種做法,我們在很多像這樣非常微妙的決定上,投入了大量的時間。
Andrew Mayne:這個問題確實充滿挑戰。雖然我們可以在技術層面預先測試和最佳化模型的反應,但要準確預測整個社會文化對不同敏感議題的接受程度則困難得多。舉例來說,面對一個堅信"地平說"的使用者,模型應該施加多大程度的反駁?有些人可能主張最小化干預,但這種立場在面對宗教信仰等更深層的價值觀差異時又會引發新的矛盾。
問題的複雜性在於,我們需要在尊重個人信念和維護科學事實之間找到平衡點。當涉及到宗教信仰時,這種平衡就變得更加微妙——模型是否應該對不同宗教或無神論觀點採取差異化回應?如何確保既不傷害信仰者的情感,又不傳播錯誤資訊?
Nick Turley:事實證明,理性的人以及許多人對於模型在這些情況下應該如何表現可能會持有不同意見。你不一定總是能做到正確,但你可以透明地展示我們採取的方法,你可以允許使用者自定義,我認為這就是我們的方法。我確信我們可以透過多種方式來改進它,但我認為,如果我們能夠透明、公開地說明我們如何解決這個問題,我們就能得到反饋。
Andrew Mayne:你們如何看待隨著人們開始越來越多地使用這些模型,無論您是否試圖轉動某些撥盤,它都會變得越有用,人們就越想使用它。曾經有一段時間,沒人想要手機,但現在我們卻離不開手機了。您如何看待人們與手機系統之間建立的關係
Nick Turley:我之前提到過這一點。這是一項你必須研究的技術,它不是以靜態的方式設計來執行 x、y、z 的,它具有高度的經驗性。所以,隨著人們使用產品的方式發生變化,我們也需要去理解並採取行動。我一直在饒有興趣地觀察這種趨勢,我認為,越來越多的人,尤其是 Z 世代和更年輕的群體,開始使用 ChatGPT 作為思想夥伴,我認為在很多情況下,這真的很有幫助,也很有益,因為你可以找到一個可以一起集思廣益的人來討論人際關係問題,也可以找到一個可以一起集思廣益的人來討論專業問題,或者別的什麼。但在某些情況下,它也可能是有害的,我認為檢測這些情況,並且首先擁有正確的模型行為對我們來說非常非常重要。積極監控它,從某種程度上來說,這是我們必須要努力解決的問題之一,因為任何變得無處不在的技術都將具有雙重用途,人們會用它來做各種很棒的事情,而且他們會以我們不希望的方式使用它,我們有責任確保以適當的嚴肅態度處理此事。
ImageGen 的突破時刻
Andrew Mayne:我想換個話題,談談另一個版本,它再次讓人們感到驚訝並引起了轟動,那就是 ImageGen。ImageGen 的出現讓我措手不及,這是一個突破性的時刻。你們對這個產品的釋出有什麼感受?
Mark Chen:說實話,它也讓我措手不及,這真是對研究團隊的肯定,其他人也做了很多工作。我認為這真的印證了這個論點:當你擁有一個足夠好的模型,它一次就能生成符合你要求的影像,這將創造巨大的價值。我認為我們以前從來沒有實現過這種情況,你往往在第一次嘗試時就能獲得完美的生成結果。這種將影像作為背景,讓模型進行修改和改變,以及由此帶來的保真度的能力,我認為這對人們來說真的非常強大。
Nick Turley我認為這一情況和體驗只是 ChatGPT 的另一個小瞬間。OpenAI 已經推出了 20 種不同的東西,然後突然間,世界變得瘋狂,你只有透過釋出這些東西才能發現這種情況。我清楚地記得,週末有 5% 的印度網民嘗試了 ImageGen。我當時就想:哇,我們接觸到了我們從未想過的新使用者群體,他們可能從未想過使用 ChatGPT。這真的很酷。
關於 Mark 的觀點,我認為這在很大程度上是因為存在這種不連續性,有些事情突然進展得如此順利,完全符合你的預期,我認為這會讓人們大吃一驚。
我認為我們也會在其他模式下迎來這樣的“ChatPGT 時刻”。語音,它還沒有完全透過圖靈測試,但我認為一旦它通過了,人們就會發現它的強大和價值。影片也會迎來它自己的時刻,開始滿足使用者的期望。所以我對未來感到非常興奮,因為我認為將會有許多神奇的時刻到來,它們將真正改變人們的生活。而且,你還會改變 ChatGPT 對人們的相關性,因為,我一直覺得有文字使用者和影像使用者,他們中的一些人有點不同,現在他們都在使用該產品並全面發現其價值
Andrew Mayne:從 ImageGen 推出伊始,它就揭示了此前影像生成模型的根本性侷限。當 DALL-E 初代問世時,我們曾為它能生成“太空猴子”這類趣味影像而興奮不已。但當我們嘗試創作真正複雜的影像時——比如需要精確繫結多個變數(人物關係、空間邏輯、風格統一等)的場景——舊有系統的短板就暴露無遺。這種“變數繫結”能力的缺失,讓我深刻認識到:缺乏 GPT-4 級別的規模與計算架構,傳統影像模型永遠無法突破創作複雜度的天花板。
而今的突破絕非偶然。ImageGen 的成功印證了一個關鍵洞見:只有當影像模型達到與語言模型相當的引數量級和架構複雜度時,才能真正解決多變數協同生成的本質難題。這不僅僅是簡單套用 GPT-4 的架構,而是將大規模語言模型中習得的“概念關聯”與“邏輯推理”能力,透過創新的多模態訓練方式遷移到視覺領域。現在我們可以肯定地說:影像生成的革命,本質上是一場規模效應與架構創新的雙重勝利。
Mark Chen:我認為很多不同的研究都促成了這項技術的巨大成功。對於一個複雜的多步驟流水線來說,它永遠不會只由一件事促成,我覺得這一切都是綜合作用的結果。變數繫結絕對是我們非常關注的一點。我認為 ImageGen 的釋出意義深遠。
程式碼、Codex 和 Agent 程式設計的興起
Andrew Mayne:接下來再來聊聊程式碼生成。我們已經看到程式碼生成功能首先透過 Copilot 進入  VS Code,然後是 Cursor,然後是 Windsurf,我現在一直在使用 Windsurf。程式碼領域的競爭壓力到底有多大?如果我們問那些開發頂級程式碼模型的人,我們可能會得到不同的答案。
Mark Chen:這確實反映出程式設計領域正在經歷深刻的正規化轉變。傳統的即時補全式編碼(如在 IDE 中獲取函式補全)與新一代的 Agentic 程式設計(如直接要求 AI 生成完整 PR)有著本質區別。我們觀察到程式設計正規化正在從程式碼片段補全向完整功能模組生成演進,互動模式也從即時互動轉變為非同步任務委派,這代表著抽象層級的重大提升——開發者正從編寫具體程式碼轉向描述高階意圖。這種轉變正在重構整個開發流程:基礎編碼工作逐漸由 AI 代理接管,開發者角色轉向架構設計和技術決策,而驗證與整合能力成為新的核心競爭力。
Andrew Mayne:你能稍微解釋一下你所說的 “Agentic 編碼” 是什麼意思嗎?
Mark Chen:AI 模型的響應方式正在從簡單的即時交互向更復雜的非同步代理模式演進。傳統的即時響應模型(如 ChatGPT)能夠快速處理使用者提示並即時給出回覆,適合日常對話和簡單任務;而新興的代理型模型則能處理更復雜的任務——使用者提交高階需求後,模型會在後臺進行深度分析和推理,經過充分“思考”後返回最佳化後的解決方案。這種非同步工作流特別體現在程式碼生成領域。以 Codex 為例,它已經能夠接手複雜的開發任務(如新功能開發或重大缺陷修復),不再追求即時響應,而是專注於透過長時間推理來交付更成熟的成果。這種演進趨勢預示著 AI 正在從“即時應答工具”轉變為真正的“智慧協作夥伴”,未來使用者只需描述目標,模型就能自主規劃執行路徑並交付完整解決方案,實現更接近人類工作方式的深度協作。
Nick Turley:回到你的問題,編碼是一個巨大的領域。這有點像談論知識工作或其他非常寬泛的領域,這就是為什麼我認為沒有唯一的贏家,只有各有優勢的產品。我認為有很多選擇,而且我認為開發人員是幸運的,因為他們現在有很多選擇,我認為這對我們來說也是令人興奮的。
但正如 Mark 所說,我認為這種代理正規化對我們來說尤其令人興奮。我在思考產品時經常使用的一個框架是,我希望打造具有以下特性的產品:如果模型效能提升兩倍,產品的實用性也會提升兩倍
ChatGPT 作為對話工具已經表現出色,但隨著模型越來越智慧,使用者的需求也在進化:他們不再滿足於簡單的問答,而是更看重 AI 的個性特質和實際解決問題的能力。Codex 正是這種理念的典範,它開創了一種全新的互動模式:使用者只需定義任務目標,給予模型足夠的處理時間,就能獲得高質量的解決方案。這種非同步協作機制為更智慧的模型提供了完美的執行環境,其變革潛力不可估量。雖然目前還處於研究預覽階段,但就像當初推出 ChatGPT 一樣,我們堅信早期使用者反饋將幫助它快速成長,我對這個方向的未來充滿期待。
Andrew Mayne:我經常用 Sonnet,我很喜歡。我覺得 Sonnet 的程式設計功能很棒,但用 Windsurf 的 o4-mini-medium 設定,我發現它更出色。我發現,一旦我開始使用它,我就會非常滿意,因為,首先是速度很快,其他方面也都很好。我認為人們喜歡其他模型是有充分理由的,我不想進行比較。但我發現,對於我之前使用的各種任務來說,這還是第一次有這樣好的體驗。
Mark Chen:絕對的。我們覺得程式碼方面還有很多可以實現的地方。這是我們關注的重點,我認為在不久的將來,你會發現更多適合你的用例的優質程式碼模型選擇。
參考連結:
https://www.wired.com/story/sam-altman-meta-ai-talent-poaching-spree-leaked-messages/
https://www.youtube.com/watch?v=atXyXP3yYZ4
宣告:本文為 AI 前線翻譯整理,不代表平臺觀點,未經許可禁止轉載。
會議推薦
首屆 AICon 全球人工智慧開發與應用大會(深圳站)將於 8 月 22-23 日正式舉行!本次大會以 “探索 AI 應用邊界” 為主題,聚焦 Agent、多模態、AI 產品設計等熱門方向,圍繞企業如何透過大模型降低成本、提升經營效率的實際應用案例,邀請來自頭部企業、大廠以及明星創業公司的專家,帶來一線的大模型實踐經驗和前沿洞察。一起探索 AI 應用的更多可能,發掘 AI 驅動業務增長的新路徑!
今日薦文
你也「在看」嗎?👇

相關文章