2024 年 12 月的全球 AI 大事記。
文丨賀乾明
編輯丨程曼祺
2024 年 12 月的 AI 月報,你會看到:
-
OpenAI、Google 釋出新模型,中國的 DeepSeek 也搶到了風頭
-
GPT-5 訓練遇阻的更多細節
-
強化學習的重要性持續提升
-
至少有三個團隊推出了世界模型
-
Google 霸佔大模型競技場前三
-
中國公司在開源社群存在感大漲
-
博通幫大公司自研 AI 晶片,市值破萬億美元
-
OpenAI 正式啟動轉型營利公司
-
20+ AI 公司獲 5000 萬美元以上投資,有 2 家中國公司
-
大模型的幻覺並不是一無是處
以下是我們第 2 期 AI 月報,歡迎大家在留言區補充我們沒有提到的重要進展。
技術|10 億美元沒訓出 GPT-5,新版 Scaling Laws 初步證明可行,多款世界模型亮相
GPT-5 訓練遇阻的更多細節
OpenAI 訓練 GPT-5(代號 Orion)遇阻,是大模型能力提升放緩的重要證據。12 月,多家媒體提供了更多的細節:
2023 年 4 月推出 GPT-4 後,OpenAI 一直在開發 GPT-5,已經持續 20 個月。OpenAI 看到過樂觀訊號:24 年 4 月,OpenAI CEO 山姆·阿爾特曼(Sam Altman)在斯坦福大學的演講中說,GPT-5 將比當時的模型聰明得多;5 月,他在公司內部也發表了類似的看法;OpenAI 最大的投資方微軟預計年中能看到 GPT-5。
阿爾特曼當時在公司內部說,雖然(應該是第二遍訓練)GPT-5 的訓練過程只完成了 20%,但它回答問題、完成任務等能力已經與 GPT-4 相當。但從那之後,GPT-5 的效能提升放緩,最後並沒有超出 GPT-4 太多。而 OpenAI 一直希望 GPT-5 能到博士生水平。
到 12 月,OpenAI 至少從頭訓練了兩遍 GPT-5,都沒有達到預期。OpenAI 內部和行業人士估計,OpenAI 訓練一遍 GPT-5,算力成本就有 5 億美元。
公開優質資料不夠了,用人和 o1 來湊
OpenAI 訓練 GPT-5 的麻煩是缺少多樣化、高質量的資料。此前,OpenAI 幾乎抓了網際網路上所有公開的優質資料,並儘可能購買大量版權資料,還是不夠。
OpenAI 的解決辦法是,用大模型生成資料訓練模型。這種方法存在問題,大模型本身就是它訓練資料的壓縮,所以 AI 生成的資料質量通常較差。OpenAI 的科學家們認為,他們的新模型 o1 可以避免這些問題。
OpenAI 也在僱傭一批人寫資料。他們不再是在經濟落後區域做資料標註或審查內容的工人,而是軟體工程師、數學家、物理學家等。OpenAI 讓他們編寫複雜題目、給出答案,把最高效的解題過程寫下來。一部分研究者還認為,程式碼資料能幫大模型解決尚未遇到的問題。
但這個過程比較緩慢。假設 1 人 1 天寫 5000 字,1000 人要 200 天才能生產 100 億字的資料,而 GPT-4 訓練的資料量超過 10 萬億字。
此外,還有另一個數據證明,更多人工能提升大模型能力。12 月,AI 軟體基礎設施公司 LangChain 釋出年度報告,用他們工具的大模型應用開發者,拿人類反饋提升大模型能力的次數增長了 18 倍。
一位中國雲計算平臺企業 AI 應用負責人告訴我們,基於人類反饋的強化學習,現在已經成為他們為大型客戶提供 AI 服務的標配。
強化學習重要性再提升,新 Scaling Laws 初步證明可行
2024 年 9 月,OpenAI 釋出 o1 模型,稱模型花更多時間、更多算力回答問題(test-time compute),能力會持續提升。那時,大模型訓練有了陷入瓶頸的跡象——增加資料、算力,擴大模型引數規模,但效能提升緩慢。
3 個月後,OpenAI 正式放出 o1,用實際能力證明它解決數學題或程式設計問題時,的確比 GPT-4o 等模型更強。比如它幾乎每一次都能判斷 9.9 比 9.11 大,GPT-4o 現在不行。
12 月亮相的新模型 o3,證明 OpenAI 從 o1 中看到的規律——回答問題時花更多算力的 o3,在頂尖程式設計競賽 CodeForces 中,得分比 o1 提升 44%,超過 OpenAI 首席科學家,排進人類前 200;在前沿數學測試基準 EpochAI 中解決 25.2% 的問題,其他模型都沒有超過 2%。

“當山姆和我們的研究人員說 AGI 即將到來,不是為了推銷每月訂閱費達到 2000 美元的服務,也不是誘騙投資。”OpenAI 的研究員約翰·霍爾曼(John Hallman)說。
但 o3 的 AGI 能力評測得分可能虛高。OpenAI 稱,o3 在基準測試 ARC-AGI 中得分達到 87.5%,是 o1 的三倍。但根據 ARC-AGI 官方網站,OpenAI 提前用了 75% 的 ARC-AGI 的公開資料集訓練過 o3。研究者 Knight Lee 說,其他 AI 模型沒有做過這件事。
此外,o3 成本高昂,高效能模式算一次上千美元。而且和 o1 一樣,o3 在數學、程式設計等理科場景表現突出,在處理文字方面大機率跟 GPT-4o 沒太大差別。
OpenAI 還公佈了一種針對 o 系列模型的微調方法,稱為 RFT(Reinforcement Fine-Tuning),開發者能用強化學習的方法提高 o 系列模型解決特定任務的能力。訓練 o 系列模型時,OpenAI 就用了強化學習。他們最新的動作表明,強化學習在大模型領域會越來越重要。
降成本、做 Agent,模型應用的迭代趨勢
12 月 20 日,Google 推出類似 o1 的模型 Gemini 2.0 Flash Thinking,表示他們的模型回答問題更快。此前幾天,Google 也推出了新款基礎模型 Gemini 2.0 Flash。
Google 這兩款模型,指向大模型更廣泛應用時的迭代方向:降低成本、提高 Agent 能力。
正如 Meta CEO 馬克·扎克伯格(Mark Zuckerberg)所說,“即使大模型不再改進,在現有技術上開發消費和企業產品,也有很大的空間。”
微軟早就看準這個方向,這個月推出第四代 Phi 大模型,只有 140 億引數,但數學題推理等任務上要強過 Google 的 Gemini Pro 1.5 等引數更大、算力消耗更多的模型。
Google 推出 Gemini 2.0 Flash 時,還強調它專為 “Agent” 開發。與其他大模型不同,Google 訓練模型時,就嘗試提升模型呼叫 Google 搜尋、程式碼執行和第三方定義函式等工具的能力。推出模型時,Google 也釋出了用於科研、程式設計等的多款 Agent 應用。
我們在上期月報中提到,Agent 是當前大模型行業的新趨勢,從 Google 到微軟等大公司,OpenAI 到 Anthropic 等明星 AI 創業公司,以及新出現的創業公司都在探索這個方向。
矽谷孵化器 YC 的合夥人們認為,Agent 會是新時代的 SaaS,市場空間要比當前的 SaaS 大 10 倍。
世界模型進展:李飛飛、DeepMind 和 CMU 新做了什麼
OpenAI 終於釋出影片生成模型 Sora,底層技術沒有太大的更新,決定了它一發布就陷入包圍圈。10 個月過去,在 OpenAI 帶隊訓練 Sora 的研究者之一蒂姆·布魯克斯(Tim Brooks)都被 Google 挖走了。
Sora 放開後不久,Google 就推出了新的影片生成模型 Veo 2,稱它可以生成解析度高達 4K、長度超過 2 分鐘的影片,都超過 Sora。不過 Google Veo 2 還是期貨,就像當時的 Sora。
OpenAI 在這一方向上面臨的壓力不止於此。他們在 2 月介紹 Sora,說沿著影片生成模型擴充套件,是開發物理世界模擬器的一條有前途的路徑。
現在已經有了多個團隊取得了成果,跟 OpenAI 沒太大關係。以色列創業公司 Decart 用大模型生成了名叫 Oasis 的開放世界遊戲,就像 “我的世界” 那樣,已經吸引上百萬使用者。這個月,還有三個團隊釋出新成果:
-
DeepMind 推出 Genie 2 模型,宣稱可以生成不同視角的、連貫的虛擬世界,大多數情況持續 10~20 秒,最長可以達到一分鐘。比如使用者輸入 “森林中的可愛人形機器人”,模型可以生成一個包含機器人角色、可以探索的動態場景。使用者可以用鍵盤或滑鼠操作角色在場景中行動、跳躍、游泳等。
-
知名 AI 科學家李飛飛創辦的公司 World Labs 推出首個專案,根據一張 AI 生成的圖片,加上提示詞,就可以生成類似 3D 遊戲中的場景。他們有 Genie 2 模型那種可以互動的能力,並強調可以修改場景。
-
CMU、英偉達、北大等 19 個機構的團隊釋出 Genesis,稱其是一種新的開源計算機模擬系統,機器人可以在其中模擬、學習要在現實中執行的任務,比如撿東西、走路、操作裝置等,速度比現實世界快 43 萬倍。他們展示了機器人迅速在 Genesis 環境中學會後空翻,用到機器狗上的情況。他們在研究生成 “4D 動態世界” 的能力,然後利用 Genesis 的能力建立世界。

DeepMind 繼續更新天氣預報 AI
DeepMind 沒有把所有的團隊都押注在大模型上,還在持續研究怎麼用 AI 研究量子計算、生物、核聚變、天氣預報等。
這個月,DeepMind 釋出新款的天氣預報模型 GenCast,用 40 年的天氣資料訓練,宣稱只用一塊 TPU ,就能在 8 分鐘內生成 15 天的天氣預報,現有的天氣預報系統用超級計算機需要數個小時,準確率還不高。
差別在於,傳統的方法是計算複雜的物理公式,而 DeepMind 的方法是從海量資料中尋找規律。DeepMind 在《自然》雜誌發表的論文中寫道,他們的 AI 預測颶風的前進路徑的準確度,始終強過歐洲天氣預報中心,會有助於減少災害造成的損失。
競爭|Google 支稜起來了,中國在開源社群存在感大增
Google 霸榜大模型競技場
12 月,除了釋出兩款 Gemini 2.0 Flash 模型,Google 還上線了一個名叫 “Gemini -Exp-1206” 的基礎模型,它們一起把 OpenAI 的模型擠出 Chatbot Arena 前三。
相比各個公司釋出模型時強調的 MMLU、GPQA 等基礎測試,Chatbot Arena 讓使用者對匿名的大模型回答評分,更偏向使用者實際感受。
2023 年 4 月,加州大學伯克利分校的兩名研究者推出 Chatbot Arena 以來,OpenAI 的模型長期在榜首。如果被擠下來,OpenAI 也會更新模型衝上去。
過去這個月,OpenAI 推出了正式版 o1,但在聊天機器人這個大模型最主流的應用場景中,它的評分還比不上 GPT-4o,以及 Google 釋出的同類模型 Gemini 2.0 Flash Thinking。

9 月,Google 推出更新版的 NotebookLM,使用者可以根據上傳的文件等資料,與大模型自由問答,甚至生成播客內容,引發了好評。再加上這個月的進展,Google 終於有了一種支稜起來的感覺。半年前,它還因為自己的大模型建議人吃石頭、在披薩上塗膠水受到嘲笑。
據媒體報道,2024 年 Google CEO 桑達爾·皮查伊用了多種方法提升員工的戰鬥力:
-
與員工交流時,經常提到兩位創始人,提醒創業艱難。兩位創始人目前在 Google 活躍,參與 AI 研究;
-
把 AI 團隊正在研發中的大模型技術放開給一些員工,讓他們提前開發合適的產品。兩年前,Google 還會擔心這些技術會帶來負面影響,遲遲不願釋出;
-
親自參加 AI 研發團隊的會議,推動員工快速推出類似 NotebookLM 這樣的產品等,簡化公司組織架構,比如裁掉 10% 的中層。
Google 的 2025 年戰略會議上,皮查伊提出新目標:確立 Gemini 的領導地位,重點是擴大 Gemini 的使用者規模——這也是 OpenAI 關注的焦點。
Hugging Face CEO:重視中國的開源大模型
12 月最後一天,DeepSeek 的新模型 DeepSeek-V3 在 Chatbot Arena 上的評分上線,僅落後於 OpenAI、Google 近 3 個月釋出的新模型,在開源模型中排名第一。
DeepSeek 是中國量化私募基金公司孵化、支援的 AI 公司。相關論文顯示,他們只用 578 萬美元——這是 Meta 訓練 Llama 3.1 不到 1/10 的 GPU 資源——就取得了更好的效果,多個基準評測得分逼近大模型 GPT-4o、Claude 3.5 Sonnet,迅速走紅。
“資源受限條件下令人印象深刻的研究和工程工作。”OpenAI 創始成員、特斯拉前自動駕駛負責人安德烈·卡帕斯 (Andrej Karpathy) 說。
就算 DeepSeek 不推出 DeepSeek-V3,中國公司在大模型開源社群中的存在感也明顯提升。在 Chatbot Arena 中,DeepSeek 開源的上一代模型、阿里開源的 Qwen2.5-plus -1127 的得分都超過了 Meta 釋出 的 4050 億引數 Llama 3.1。
“因為在 AI 開源中取得了領先地位,中國將在 2025 年開始引領 AI 競爭。”AI 社群 Hugging Face CEO 克萊門特·德蘭格 (Clement Delangue) 預測。他 12 月在一檔播客節目中說,要警惕中國的開源大模型,“不應該有任何一個或兩個國家的 AI 模型比其他國家強大得多”。
但 Hugging Face 的聊天機器人應用 HuggingChat,預設模型就是阿里的 Qwen2.5-72B-Instruct。
供應鏈|新的大模型資料來源出現,第三家萬億美元市值晶片公司誕生
如何用 o1 生成的資料訓練模型
用 OpenAI 等公司的模型生成資料,拿去訓練大模型,在大模型行業中已經是公開秘密。
有媒體報道,截至 2024 年 3 月,字節跳動還透過 TikTok 找微軟呼叫 OpenAI 的模型,每個月花費 2000 萬美元。比如使用者問 DeepSeek 最新的模型自己是誰,它會說自己是 OpenAI 開發的大模型。
隨著 OpenAI 釋出 o1 模型,許多公司也換了基礎設施,改用它生成資料訓練模型。
雖然 OpenAI 在公開版本中隱藏 o1 的思維鏈(思考如何解題的過程),這並沒有難倒其他公司的開發者:他們拿著 o1 吐出來的答案,讓其他大模型預測 o1 回答問題的原始思維鏈,然後再拿這些資料訓練模型。
因為 OpenAI 也在用 o1 等模型生成資料訓練模型,這意味著其他公司與 OpenAI 的差距,或許比之前更小了一些。
大公司自研晶片,推動博通市值突破萬億美元
12 月,晶片公司博通公佈 2024 年的 AI 收入,增長 220% 達到 122 億美元。在這個訊息的推動下,博通的股價一天上漲超過 24%,成為晶片行業第三家市值突破萬億美元的公司。之前兩家分別是英偉達和臺積電。
博通市值上漲的推力和英偉達一樣,都是大型科技公司大力投資 AI 算力中心。區別在於,英偉達出售 GPU,博通出售自研 AI 晶片方案,正幫助 Google、Meta、字節跳動、蘋果、OpenAI 等公司開發 AI 晶片,以擺脫對英偉達的依賴。字節跳動曾否認與博通合作。
博通 CEO 陳福陽(Hock Tan)接受媒體採訪說,他們在矽谷的客戶正在匆忙地制定未來 3、5 年的 AI 基礎設施投資計劃,到 2027 年會有客戶建設百萬 AI 晶片的叢集。
英偉達迅速迭代,跟著 o 系列模型推出 G300
博通 2024 年的市值漲幅還是比不上英偉達,它漲了 110%, 英偉達是 171%。

12 月,英偉達也沒有停下來。根據 SemiAnalysis 報告,隨著 OpenAI 在 3 個月內接連發布 o1、o3 推理模型,英偉達跟著推出 GPU B300,適應最新的風向。此時距離英偉達推出 B200 不過半年。
與 B200 相比,B300 的算力、視訊記憶體分別提高 50%,功率也上漲到 1.2 kW,消耗的更多的電力,可以減少 o1 這類推理模型的延遲和計算成本,也能支援更長的思維鏈。目前,許多公司已經把原本採購的 B200 訂單換成 B300。
還有許多公司表現出對英偉達 GPU 有旺盛需求:
-
馬斯克旗下 xAI 宣佈,很快就要把原本 122 天建成的 10 萬張 H100 算力中心拓展到 20 萬張。馬斯克說,未來會增加到 100 萬張。
-
媒體報道,位元組創始人張一鳴與東南亞等地區的資料中心運營商談判,以便明年投入 70 億美元租用英偉達 Blackwell 系列 GPU 的算力。
-
媒體報道,Google、Meta 各自訂購了超過 40 萬個預計 2025 年交付的 GB200 晶片,包括伺服器在內的投入可能超過 100 億美元。
應用|大模型加速嵌入原有的行業生態
OpenAI 的 12 場釋出活動,想盡辦法讓更多人用 ChatGPT
藉著 o1 模型和 Sora 正式釋出,OpenAI 把 ChatGPT 訂閱費用推高到了每月 200 美元,他們還打算用 o3 推高到每月數千美元,在 ChatGPT 中加廣告。
OpenAI 在 12 月的釋出活動,大都是圍繞 ChatGPT 這個周活使用者突破 3 億的超級應用,給它增加新功能、降低它的使用門檻或者吸引更多使用者花更多錢買會員:
-
第一天,正式推出 o1。每月付 20 美元的 ChatGPT 使用者,可以限量使用新模型 o1;如果每月付 200 美元,可以 “無限” 使用 o1 和 GPT-4o,還能用一個特供版的 o1,能調更多算力解決複雜問題。
-
第三天,正式推出 Sora。每月付 20 美元的 ChatGPT 使用者,每個月只能生成 50 個解析度 480p 或數量更少的 720p 影片;每月付 200 美元的使用者,用量擴大 10 倍,可以生成 1080p 解析度、20 秒的影片,還能去掉影片水印。
-
第四天,正式推出 ChatGPT 的 Canvas 功能。它可以編輯審閱文件,批註修改意見,也可以幫助程式設計師寫程式碼、找 bug 等。所有的 ChatGPT 使用者(包括免費使用者)都可以使用,差別在於付費的使用者可以呼叫更多次數的 GPT-4o 或 o1 模型。
-
第五天,宣佈把 ChatGPT 整合到蘋果的系統中。蘋果使用者可以透過 Apple Intelligence 功能直接呼叫 ChatGPT。這一合作在 2024 年 6 月的 WWDC 上就已經宣佈。
-
第六天,升級 ChatGPT 的語音功能。部分地區的 ChatGPT 的付費使用者可以使用,使用者將手機攝像頭對準物體或人,ChatGPT 可以近乎即時地給出反饋。ChatGPT 還可以讀取螢幕上的內容,即時與使用者互動。
-
第七天,推出 ChatGPT 的 Projects 功能。它可以幫使用者整理與 ChatGPT 互動情況,比如其中涉及的檔案和資料等,目前只給付費的使用者使用。此前 OpenAI 的競爭對手 Anthropic 已經在 Claude 中上線了類似的功能。
-
第八天,拓展 ChatGPT 的搜尋功能。免費的使用者也可以使用,並提升了響應速度。
-
第十天,把 ChatGPT 接入電話網路和 WhatsAPP。美國使用者撥打 1-800-242-8478 可以與 ChatGPT 通話,每個使用者有 15 分鐘免費通話時間。全球使用者可以透過 WhatsApp 使用這一號碼與 ChatGPT 交流(僅限文字)。
-
第十一天,把電腦版 ChatGPT 整合到程式設計等生產力工具中。只有付費使用者可以使用。ChatGPT 與 Warp(檔案共享應用)、XCode(程式設計應用)、Notion(筆記應用)等打通。這並不是一個全新功能,我們在 11 月的 AI 月報中就介紹過。
釋出活動之外,OpenAI 如何拓展企業市場
舉辦 12 場釋出活動之前,OpenAI 在官網釋出一篇文章,介紹他們拓展企業客戶時的合作伙伴,讓外界有機會更進一步瞭解其如何運作。和微軟一樣,這些公司也幫 OpenAI 銷售模型的 API、ChatGPT Enterprise、ChatGPT Edu、ChatGPT Team 等企業服務,只是環節不同:
-
微軟,雲計算計算設施,在美國、澳大利亞、加拿大等 12 個國家處理資料
-
Cloudflare,內容分發網路,在距離使用者最近的資料中心處理資料
-
Snowflake,資料倉庫,在美國處理資料
-
TaskUs,客戶支援、內容稽核、GPTs 稽核,在菲律賓處理資料
-
Intercom,客戶支援,在美國處理資料
-
埃森哲,客戶支援,在加拿大、菲律賓處理資料
-
Fivetran,ETL(資料整合)供應商,在美國處理資料,它只負責 OpenAI 的 Assistants API 業務
-
Confluent,基礎設施管理,在美國處理資料
-
Cinder Technologies,內容稽核平臺、GPTs 稽核平臺,在美國處理資料
-
WorkOS,跨域身份管理,在美國處理資料
-
Okta,使用者身份驗證服務(via Auth0),在美國處理資料
除了這些合作商,OpenAI 還與美國國防創業公司 Anduril 和 Palantir 談判,要一起組建財團,競標國防合同。
Salesforce vs. 微軟,創業公司也想做 NotebookLM
不論是吸引更多個人消費者用 ChatGPT,還是開拓企業客戶,OpenAI 的方法有一個共性:嵌入到已有的行業生態中去。這個月,我們也看到在已有的行業生態中佔據優勢地位的公司採取積極行動。
Salesforce 將招聘 2000 人賣 AI 軟體。其 CEO 馬克·貝尼奧夫 (Marc Benioff) 一個月前的計劃是招 1000 人,現在翻了一倍。他說,Salesforce 能夠開發和操作 AI Agent(智慧體)的技術將在 2 月上線。過去一年,Salesforce 積極向大模型應用轉型,市值增加了 28% 到 3100 多億美元。
貝尼奧夫還順口評價了一下微軟,在他們網站上,“你是找不到(AI 軟體)的”。在企業服務市場上,他們是競爭對手。
微軟在這個月也提出了一個推廣大模型應用的新口號:“如果你使用它們(AI),你就不需要僱那麼多人了。” 他們也在用自研的大模型和第三方大模型驅動核心產品 365 Copilot,目標是減少對 OpenAI 的依賴,降低成本。
還有創業公司與這些大公司們競爭,比如 AI 語音公司 ElevenLabs 推出對標 NotebookLM 的播客生成功能。目前 Google 的 NotebookLM 只能生成英文播客,而 ElevenLabs 宣稱支援 32 種語言。上個月,這家 AI 公司以 30 億美元的估值融資 2 億美元。
(還有更多新公司的應用嘗試,我們會在下文的融資部分重點介紹。)
AI 硬體探索,大公司們存在感變強
蘋果機器學習和 AI 策略高階副總裁約翰·吉安南德雷(John Giannandrea)本月接受採訪,談到蘋果開發 Apple Intelligence 的策略:首要目標是改進產品體驗,就像此前把人臉識別技術用來解鎖 iPhone 中那樣。他說,蘋果對 AGI 不感興趣,認為 AGI 不切實際,甚至有些 “荒謬”。
12 月,行業對 AI 硬體的探索還在繼續。靠著與雷朋眼鏡合作推出 Ray-Ban AI 眼鏡的 Meta,計劃 2025 年在這款產品上增加螢幕,用於顯示 Meta AI 助手的通知或回覆。
這樣與 AI 的互動形式,在此前的 AI 硬體探索中都已經存在。比如 2024 年初正式發售的 AI Pin 想用雷射投影當螢幕,Rabbit R1 乾脆是造了個帶螢幕的硬體。但它們都沒有說服使用者,為什麼一定要再買個新產品,而不是用手機。Meta 用 Ray-Ban AI 眼鏡驗證了市場需求,現在希望更進一步。
Ray-Ban AI 眼鏡的火熱,也刺激了中國 AI 眼鏡市場。我們在 12 月釋出的一篇 AI 眼鏡報道中寫道,2025 年會是 AI 眼鏡元年,會有近百個品牌釋出產品,掀起 “百鏡大戰”。
AI 硬體的探索也不只在消費者市場。臨近月底,有媒體報道,OpenAI 重新組建了四年前解散的機器人軟體團隊,考慮開發一款人形機器人。在此之前,OpenAI 已經投資 Figure、1X 兩家人形機器人公司和研發機器人 AI 模型的 Physical Intelligence。
投融資|21 家單筆融資超過 5000 萬美元的 AI 公司
OpenAI 在 12 月正式啟動轉型成一家營利公司的計劃,把原來監督、控制 OpenAI 的非營利機構變成一個股東,理由是方便融資,研發 “造福人類的 AGI”。
之前,他們在官網上公佈創始團隊早期與馬斯克溝通的郵件,論證轉型合理。加上馬斯克公佈的郵件,我們整理、翻譯了 75 封 OpenAI 內部郵件,你可以在這裡看到。
許多公司的融資訊息上月就已經被媒體報道。比如馬斯克旗下的 xAI 融資 60 億美元;AI 搜尋產品 Perplexity 以 90 億美元估值籌到 5 億美元;AI 程式設計應用 Cursor 拿到 1 億美元融資等,這個月不再重複提到。
在本月獲得大額融資的 AI 公司中,大多數都在 ChatGPT 上線前已經成立,尤其是應用公司,它們長期針對一個行業提供 AI 解決方案。
模型:不只有 Transformer 架構,不侷限於 GPT
智譜 AI 融到 30 億元,估值達到 200 億元人民幣。智譜稱,2024 年公司的商業化收入增長超過 100%,新資金將會用於研發解決複雜推理、多模態任務的基礎大模型。
階躍星辰完成一輪融資,總融資額達數億美元。主要用於基礎模型研發,提高模型多模態和複雜推理能力——跟智譜一樣。但階躍星辰也想擴大 C 端產品的使用者規模,與月之暗面接近。
SandboxAQ 融資超過 3 億美元,估值超過 56 億美元。SandboxAQ 之前是 Google 母公司 Alphabet 旗下的公司,2022 年分拆獨立。它專門為生物、醫學、化學、材料等領域開發 “大型定量模型”。他們用感測器中獲得資料或者根據方程生成的資料訓練模型,宣稱精確到 “一個分子的一億次微小的改變”。他們計劃未來不只用 GPU 跑模型,也會引入量子晶片。
Liquid AI 融資 2.5 億美元,估值超過 20 億美元。它成立於 2023 年,開發一種從蠕蟲大腦結構發現的 “液態神經網路”(LNN)架構,宣稱與 Transformer 架構相比,新架構需要的資料和算力都更少。Liquid AI 說,他們正在把技術用到消費電子和金融服務行業。
愛詩科技(PixVerse)融資 3 億元人民幣,它成立於 2023 年,開發對標 Sora 的文生影片模型。新一輪的投資方主要是螞蟻集團、北京市人工智慧產業投資基金、國科投資及光源資本。
12 月還有至少 9 家 AI 模型公司獲得超 1000 萬美元融資,中國開發多模態大模型的智象未來、開發端側大模型的面壁智慧、開發具身智慧模型的穹徹智慧等都宣佈獲得數億元人民幣融資。
基礎設施:晶片公司的上下游多,競爭對手少
Databricks 計劃單輪融資 100 億美元,估值達到 620 億美元。它成立於 2013 年,主要業務是為企業提供資料和 AI 雲服務。目前 Databricks 已融到 86 億美元。Databricks 稱,他們計劃將這筆資金用於 AI 產品研發、收購公司以及國際擴張。Databricks 預計 2024 年四季度收入將突破 30 億美元,自由現金流轉正。
Tenstorrent 融資 7 億美元,估值達到 26 億美元。它成立於 2016 年,基於 RISC-V 架構開發 AI 晶片,是市場上少有的挑戰英偉達的創業公司。創始人是半導體先驅吉姆·凱勒 (Jim Keller) ,此前在蘋果、特斯拉、AMD 工作,給這些公司的晶片業務打下基礎。
Nebius 融資 7 億美元。它前身是俄羅斯搜尋引擎公司 Yandex,2024 年轉型為 AI 雲服務供應商,利用專有的雲軟體架構和內部設計的硬體,為 AI 開發者提供算力、儲存和託管服務。
Crusoe 融資 6 億美元。它成立於 2018 年,之前主要用被浪費的天然氣為挖礦的資料中心供電,現在轉型給 AI 算力中心供電,已經與甲骨文、微軟和 OpenAI 建立合作。
Vultr 融資 3.33 億美元,估值 35 億美元。它成立於 2014 年,可以按小時出租 GPU 算力。這輪投資方主要是 AMD。AMD 也開始像英偉達那樣扶持一批 AI 雲公司。
Nscale 融資 1.55 億美元。它成立於 2024 年,主要用 AMD 的晶片建設 GPU 雲服務,計劃未來三年部署 3 萬塊 GPU。
Ayar Labs 融資 1.55 億美元,估值 10 億美元。它成立於 2015 年,開發利用光傳輸資料的方案,這輪的投資方是 AMD、英特爾、英偉達三家晶片公司。
Axiado 融資 6000 萬美元。它成立於 2017 年,開發一個名為 TCU 的安全晶片,用於防範針對雲資料中心、5G 網路和關鍵基礎設施的網路攻擊。
12 月,還有兩家 AI 基礎設施公司獲得超過 1000 萬美元融資。一家是 Stainless,把 OpenAI 、 Anthropic 和 Meta 等公司模型的 API 自動生成 SDK,簡化應用程式的開發速度;另一個家是 Cake,把開源 AI 技術整合成一個可以投入使用的工具。
應用:從垃圾回收到會計,把 AI 嵌入各行各業中
Zest AI 融資 2 億美元。它成立於 2009 年,原本叫 Zest Finance,主要為金融機構提供大資料和機器學習信用評分方案,2019 年改名為 Zest AI。之前百度、京東都投資過它,在自家業務中引入其技術。
Tractian 融資 1.2 億美元。它成立於 2019 年,利用感測器、邊緣計算硬體和 AI 模型監控工業裝置,預測可能的故障,減少停機時間。
Aiwyn 融資 1.13 億美元。它成立於 2019 年,用 AI 技術把會計的工作自動化,主要的客戶是註冊會計師事務所。
Cleerly 融資 1.06 億美元。它成立於 2017 年,最新的動向是用 AI 技術分析心臟 CT 影像識別早期冠狀動脈疾病等。
Precision Neuroscience 融資 1.02 億美元。它成立於 2021 年,主要開發 “第 7 層皮層介面”(Layer 7 Cortical Interface),一種不深入腦組織就能捕捉神經訊號並將其轉化為數字指令的產品。
AMP Robotics 融資 9100 萬美元。它成立於 2014 年,開發了機器人分揀系統,用 AI 識別、分類垃圾和回收物。
Speak 融資 7800 萬美元,估值 10 億美元。它成立於 2016 年,主要用 AI 幫人學習新語言。它不像多鄰國那樣把學習過程變得遊戲化,而是強調培養使用者真實場景中的口語能力。Speak 宣稱,目前公司收入達到千萬美元級別。
Sublime Security 融資 6000 萬美元。它成立於 2019 年,聚焦電子郵件安全防禦場景,用 AI 技術檢測和防禦網絡釣魚、惡意軟體等電子郵件攻擊,客戶有 Spotify、Reddit 等。
Anybotics 融資 6000 萬美元。它成立於 2016 年,是蘇黎世聯邦理工學院(ETH Zurich)孵化出來的公司,主要開發用於工業巡檢的機器狗 ANYmal。
9fin 融資 5000 萬美元。它成立於 2016 年,原本用 AI 分析債務資本市場情報資料,現在用大模型技術搜尋最新的資料。
12 月,還有 24 家 AI 公司拿到了超過千萬美元的融資,他們的特徵與上述公司類似:ChatGPT 火熱之前就已經成立,把 AI 技術用到特定行業的場景中,比如客服、物流、律師、會計、運維、市場調研、製藥等。
最後|科學家歡迎大模型的幻覺
大模型一直存在 “幻覺” 問題,即一本正經地胡說八道,給出不符合事實的資訊。能不能避免這些錯誤,也成為衡量一家公司大模型好壞的指標。Google 就因為大模型給出的回覆不對勁,市值一度下挫千億美元。
這個月,AWS 推出了一個工具對抗大模型幻覺,主要原理是,大模型給出答案前,工具會呼叫客戶提前上傳的資料交叉驗證是否準確。此前微軟、Google 都推出過類似的功能。
但幻覺並不是一無是處。NYT 釋出的一篇報道採訪了多位使用大模型的科學家提供了另一種視角:
-
計算機科學家艾米·麥戈文 (Amy McGovern)說:“它實際上給科學家帶來了新的想法。讓他們有機會探索原本可能不會想到的點子。”
-
麻省理工學院教授詹姆斯·柯林斯(James J. Collins)說,他要求模型提出全新的分子,“幻覺” 加速了他們研究新型抗生素。因為 AI,科學領域曾經要花費多年時間解決的事情,現在幾天、幾小時和幾分鐘內就可以完成。
-
華盛頓大學的生物學家戴維·貝克 (David Baker),因為快速建立自然界中未發現的全新蛋白質種類,獲得了 2024 年的諾貝爾化學獎。貝克將 AI 的想象力爆發視為自己從頭開始製造蛋白質的核心。他說這項技術已經幫他的實驗室獲得了大約 100 項專利。
他們認為,大模型的想法不虛幻,反而會有前瞻性——有一定的機會實現。他們將其比作科學研究早期階段的猜想,認為 “幻覺” 這個詞並不準確,會避免使用它。
題圖由 AI 生成
· FIN ·



