AI大神Karpathy演講刷屏:軟體3.0時代已來,提示詞就是新程式碼|附完整PPT

不在 OpenAI 的 Andrej Karpathy,始終是傳說。
近日,Karpathy 受邀在 YC AI 創業學校活動發表演講,一經發布,全球網友就like開始學習。
這是一場看似鬆散、其實處處埋點的演講。
Karpathy 精心準備了 PPT,對整個演講內容進行了編排:這像是一次程式語言進化史的講解,從軟體 1.0 的時代開始講起,到以「喂資料」為核心的。到了 3.0 則是「對模型說咒語」。
他再一次強調了「LLM 是新作業系統」,並進一步延伸到了 AI 與人類相似的心理特徵,最終得出結論:AI 應該增強人類,而非替代人類。
這是他對 LLM 時代的理解,也是一個研究者和 builder 的技術世界觀。它不再是激情澎湃的預測,而是一個自我梳理後交出的分享:語言正在變成控制系統,而我們,而每個人都擁有語言介面的一部分。
因為演講內容過於豐富,我們將它濃縮成了一套「金句卡片」:一句話錨點 + 一段解釋,希望你能像翻讀卡片一樣,直擊中心,也許哪一句就能成為你下一個創造的起點。
後臺回覆 KP ,獲取完整版演講 PPT
Karpathy 討論了兩種對於 LLM 的比喻:電網和晶片工廠。LLM 的發展類似於電網,需要巨大的資本支出(CapEx)來建設,然後透過 API 以計量付費的方式提供服務。也像晶片製造廠,因為構建它需要鉅額投資,並且技術分支發展迅速。
然而,他認為更恰切的,是把 LLM 比喻為作業系統 (Operating Systems)。 他強調,LLM 並非像電力或自來水那樣可以隨意取用、沒有差異的「商品」 。相反,它們是日益複雜的軟體生態系統,這個特性使得「作業系統」成為一個更精確的類比。
他把閉源的 LLM 提供商比作 Windows 和 Mac OS,而將開源的 Llama 生態比作 Linux,把 LLM 本身比作 CPU,上下文視窗(Context Windows)比作記憶體(RAM),而 LLM 的工作方式就是像作業系統一樣,排程這些「硬體」資源來解決問題。
既然 LLM 是正在形成複雜的生態系統,而非簡單的商品,那麼還可以進一步從計算機體系結構的角度去理解大語言模型。作為 CPU 的模型本身,就是執行計算和推理的核心。上下文視窗即是記憶體,就可以用來臨時存放當前工作所需要的資訊。
而一個整體的工作流,就如同作業系統,負責排程 CPU 和記憶體等資源,以完成使用者提出的複雜任務。
在 Karpathy 的設想中,大模型不再停留在宏觀的商業模式,而是一個全新的計算平臺。
即便 LLM 會成為一個計算平臺,眼下最主流的,直接透過聊天框式的純文字與強大的 LLM 「作業系統」 互動的形式,並不會長久。
Karpathy 以 Cursor 為例子,提出程式語言中,透過 GUI,使用者可以直觀地看到紅色和綠色高亮顯示的程式碼增刪,並用快捷鍵(如 Command+Y)快速接受或拒絕 。這種方式遠比用自然語言描述「請接受第二處修改但否決第一處」要高效得多、直觀得多。
GUI 利用了人類強大的視覺處理能力,極大地加速了對 AI 工作成果的「驗證」和「審計」環節。儘管 LLM 的核心是語言模型,但要構建出真正實用的「能自動化的應用」,就決不能忽視 GUI 的力量。
一個精心設計的 GUI 是連線人類使用者和 AI 「作業系統」之間最高效的橋樑,它使得人機協作的「生成-驗證」迴圈能夠飛速運轉。
Karpathy 提出的這幾個問題,指向的是如何讓 LLM 產品更自動化——至少部分的自動化。將任何傳統軟體改造為 AI 可驅動的「部分自主的應用」所必須滿足三個前提條件:
-感知 (Perception): AI 代理需要能夠「看到」所有人類使用者能看到的資訊。
-行動 (Action): AI 代理需要能夠執行所有人類使用者能執行的操作。
-監督 (Supervision): 必須有一個機制,允許人類監督 AI 的工作並隨時介入,因為 AI 系統目前並不可靠。
一個至關重要的結論是:當前絕大多數軟體的介面(各種開關和設定)都是純粹為人類設計的。這恰恰是實現 AI 自動化的障礙。因此,他呼籲是:「所有這一切都必須改變,變得對大語言模型可訪問 」。
作為前特斯拉總監,Karpathy 的經歷和看法顯然比任何人的銳利:軟體和現實世界的複雜性遠超想象。這也是他對 AI agent 的態度。
對於動輒就高舉的「agent 元年」,他實際上非常謹慎。他認為,這應該是「代理人的十年 (decade of agents)」,而不是一年。
歸根到底,從一個令人驚豔的演示(99% 的成功)到真正可靠、能處理所有極端情況的成熟產品(99.999% 的成功),中間隔著一條漫長而艱難的鴻溝。
在加入 OpenAI 之前,Karpathy 就對教學非常感興趣。不僅在斯坦福時期就當助教,自己還製作了一系列科普影片。他始終在思考:AI 時代的教育是什麼樣的。其中的一個關鍵點是:如何讓 AI 不失控。
「失控」的 AI 無法勝任教育的任務。一個完全開放式的、無結構的指令,會讓 AI 缺乏方向。即便是「教我物理」這樣的任務,也會導致 AI 無法出具一個連貫的教學大綱、清晰的知識遞進層次和結構化的教學路徑,最終導致教學失敗。
這完美地印證了他之前關於「過度反應的代理 (over-reactive agent)」會產生無用結果的觀點。因此,他認為應該把 AI 限制在人類的產出當中。比如讓教師與 AI 協作,建立一個結構化的「課程」。這個課程就是一個可以被稽核和驗證的中間產物,從而確保了教學質量,避免了「迷失方向」的問題。
LLM 也有心理學?起碼 Karpathy 相信這一點。畢竟,AI 是透過學習和擬合網際網路上幾乎所有人類編寫的文字資料來進行訓練。
但這也意味著,AI 既是強大的,也是脆弱的——既包括超能力,也包括認知缺陷。LLM 有著百科全書般的知識儲備,Karpathy 把它比作電影《雨人》中的主角。但是一系列缺點也都存在,比如幻覺、智慧水平參差不齊,以及像患有「順行性遺忘症 (anterograde amnesia) 」一樣的有限記憶能力等。
AI 是在海量的人類資料上訓練出來的,所以它不可避免地湧現出了類似人類的心理特徵,無論好與壞。
毫無疑問,LLM 顛覆了傳統的技術擴散方向——這也是為什麼 Karpathy 說,現在是進入行業的好時機。
過去的顛覆性技術,都是先由政府和企業使用,再逐步普及到消費者。但 LLM 完全相反,它首先透過消費級應用(比如問 ChatGPT 如何煮雞蛋)觸達大眾,而政府和企業在採用上反而滯後了。
一整場下來,Karpathy 並沒有在「畫大餅」,而是在給出一層又一層新的視角,以及是一種不斷自我迭代的思維方式——而這,正是每個都還在學習如何穿上「AI 戰甲」的人所真正需要的。
歡迎加入 APPSO AI 社群,一起暢聊 AI 產品,獲取#AI有用功,解鎖更多 AI 新知👇
我們正在招募夥伴
📮 簡歷投遞郵箱[email protected]
✉️ 郵件標題「姓名+崗位名稱」(請隨簡歷附上專案/作品或相關連結)
更多崗位資訊請點選這裡🔗

相關文章