黃仁勳首度回應DeepSeek衝擊/AI矽膠娃娃爆火,接入ChatGPT/小米首款AIPC即將推出|HuntGood週報

歡迎收看最新一期的 Hunt Good 週報!
在本期內容你會看到:
9 條新鮮

資訊

5 個有用

工具

1 個有趣

案例

3 個鮮明

觀點

Hunt for News|先進頭條
👀 AI 矽膠娃娃爆火,接入 ChatGPT、Llama 等大模型
近期,廣東中山成人玩偶製造商 WMDoll 因推出搭載 AI 功能的矽膠娃娃引發市場熱議。
據藍鯨新聞報道,這款產品透過接入 ChatGPT、Llama 等開源 AI 模型,實現了智慧對話和情感互動功能,新一代 AI 矽膠娃娃具備理解、分析和回應能力,可以透過持續對話建立使用者畫像,並保持長期記憶功能。
WMDoll 負責人 Max 介紹,開發這類產品的前期投入至少需要 100 萬元,目前,該公司已與國內情感 AI 仿生機器人提供商無芯科技合作,計劃開發具備面部表情和生理資料聯動功能的新產品。
在商業模式方面,AI 矽膠娃娃採用了基礎產品加訂閱服務的收費方式。產品售價在 1500-2000 美元之間,使用者需額外支付 100 美元訂閱費才能啟用 AI 互動功能。
據報道,自產品公測以來,帶有 AI 功能的訂單已佔總訂單量的五分之一,預計 2025 年銷量將增長 30%。
值得注意的是,AI 矽膠娃娃在資料安全方面採取了雙重加密措施,以保護使用者隱私。目前該產品已在海外市場銷售,預計最快將於今年 3 月底在國內上架,但會對語料內容進行合規性調整,主要聚焦於陪伴和聊天功能。
🔗 https://mp.weixin.qq.com/s/ibrJxaHAXdpGloakIP9w_w
🍎 蘋果 AI 將於 4 月正式支援簡體中文
2 月 21 日,蘋果官宣 Apple 智慧將支援更多語言,包括法語、德語、義大利語、葡萄牙語(巴西)、西班牙語、日語、韓語和簡體中文,以及新加坡與印度的本地化英語。
新語言將於四月隨 iOS 18.4、iPadOS 18.4 和 macOS Sequoia 15.4 面向全球幾乎所有地區釋出,而開發者測試版即可進行更新測試,已經有開發者實測,可以透過中文介面調出 ChatGPT。
隨著這次更新,Apple 智慧還將支援透過 Apple Vision Pro 進行體驗(僅支援英文)。
隨著更新的釋出,歐盟的 iPhone 與 iPad 使用者將可首次使用 Apple 智慧功能。值得一提的是,蘋果官方表示,Apple 智慧在中國推出的時間依監管部門審批情況而定。
換言之,即便 Apple 智慧支援中文,國行 iPhone 可能也還要再等一段時間才能用得上。
🔗 https://www.apple.com.cn/newsroom/
💰 OpenAI 前高管出走創業
本週,OpenAI 前 CTO Mira Murati 宣佈,創立名為 Thinking Machines 的 AI 公司。
根據 Thinking Machines 官方介紹,工作人員由來自 ChatGPT、 Character.AI 等公司的成員構成。
在官網上可以看到,目前團隊成員中,有相當一部分的成員有過在 OpenAI 任職的經歷,如前 OpenAI 研究(後培訓)副總裁 Barret Zoph、前 OpenAI VP 翁荔等人。
Mira Murati 表示, Thinking Machines 正在構建一下三件事:
幫助人們調整人工智慧系統以適應其的特定需求
打造強大的基礎模型,用以構建更強大的 AI 系統
培養開放科學的氛圍,幫助整個領域理解和改進這些系統
另外,據彭博社援引知情人士訊息稱,OpenAI 前首席科學家 Ilya Sutskever 的初創公司 SSI 正在以超過 300 億美元的估值籌集資金,其中包括來自 Greenoaks Capital Partners 的 5 億美元投資。
Greenoaks 是這一融資的主導方,該公司還投資了 AI 公司 Scale AI 和 Databricks Inc。不過,SSI 目前尚未產生收入,也不打算在近期內銷售 AI 產品,而是專注於開發安全的 AI 系統。
🔗 https://www.bloomberg.com/news/articles/2025-02-17/openai-co-founder-s-startup-is-fundraising-at-a-30-billion-plus-valuation?utm\_source=www.therundown.ai&utm\_medium=referral&utm\_campaign=xai-s-smartest-ai-on-earth-arrives
💵 惠普將以 1.16 億美元收購 Humane 核心 AI 技術
近期,Humane 宣佈,惠普公司將以 1.16 億美元收購「其關鍵人工智慧能力」,其中包括 Humane 所擁有的人工智慧平臺 Cosmos、高技能技術人才以及擁有 300 多項專利和專利申請的智慧財產權。
此外,Humane 還發布 Ai Pin 支援檔案,表示將停止銷售新的 Ai Pin。
而已經購買 Ai Pin 的使用者,其裝置將正常工作至 2025 年 2 月 28 日 12點 (太平洋標準時間)。自此之後,Ai Pin 將不再連線到 Humane 的伺服器,通話、訊息、AI 查詢/響應或雲訪問等功能都無法使用。
據 TechCrunch 報道,Humane 的聯合創始人和執行長將加入 HP IQ——一個新成立的創新實驗室,該實驗室將專注於將 AI 整合到惠普的個人計算機、印表機和互聯會議室中。
🔗 https://techcrunch.com/2025/02/20/inside-the-humane-acquisition-hp-offers-big-raises-to-some-others-immediately-laid-off/
📝 OpenAI 推出大模型測試基準 SWE-Lancer
OpenAI 近日推出了一個軟體工程基準資料集 SWE-Lancer。
SWE-Lancer 是首個基於 Upwork 平臺真實自由職業任務的評估資料集。該資料集包含超過 1400 個軟體工程任務,總價值達 100 萬美元,為評估 AI 模型在實際軟體開發場景中的表現提供了重要參考。
SWE-Lancer 資料集主要包含兩類任務:


1. 獨立工程任務:涵蓋從 50 美元的 Bug 修復到 32000 美元的功能實現等不同規模的專案。這些任務透過經驗豐富的軟體工程師三重驗證的端到端測試進行評分。

2. 管理決策任務:要求模型在不同的技術實現方案中做出選擇。評估標準是與原僱傭工程經理的實際決策進行對比。
🔗 https://openai.com/index/swe-lancer/
👀 DeepSeek 釋出新論文,創始人親自掛名
2 月 18 日,DeepSeek 官方發文公佈了一篇新的論文,值得關注的是,論文中提出了一種新的注意力機制「NSA」。
據 DeepSeek 介紹,「NSA」是一個用於超快長上下文訓練和推斷的本地可訓練的稀疏注意力機制,並且還具有與硬體對齊的特點。
研究透過對現實世界語言語料庫的綜合實驗來評估 NSA。其中作者評估了 NSA 在通用語言評估、長上下文評估和鏈式推理評估中的表現。實驗結果表明,NSA 實現了與 Full Attention 基線相當或更優的效能,同時優於現有的稀疏注意力方法。
此外,與 Full Attention 相比,NSA 在解碼、前向和後向階段提供了明顯的加速,且加速比隨著序列長度的增加而增加。這些結果驗證了分層稀疏注意力設計有效地平衡了模型能力和計算效率。
🔗 https://arxiv.org/abs/2502.11089
🤖 Figure 機器人釋出首個通用視覺語言行動模型
當地時間 2 月 20 日,美國人形機器人公司 Figure AI 釋出了首個通用視覺 – 語言 – 行動(VLA)模型「Helix」,其能夠像人類一樣推理,並將感知、語言理解和學習控制融為一體。
據介紹,Helix 可以透過自然語言直接控制人形機器人整個上半身。官方表示,Helix 能夠在沒有特定任務演示或大量手動程式設計的情況下,即時生成長期、協作、靈巧的操作。Helix 擁有強大的物體理解能力,因此搭載此模型的 Figure 機器人只需透過自然語言詢問,就能拿起數千種形狀、大小、顏色和材料屬性各異的小型家居產品。
同時,Helix 還能夠在兩個機器人上同時執行 VLA,使它們能夠解決共享的長程操作任務,操作它們從未見過的物品。並且 Helix 是首個在完全板載嵌入式低功耗 GPU 上執行的 VLA,可立即投入商業部署。
此外,Helix 是首創的 「系統 1 + 系統 2 」VLA 模型。Helix 透過接耦合的架構方式,允許每個系統以其最佳時間尺度執行。具體來看,系統 1 可以透過「快思考」即時執行和調整動作,同時系統 2 可以「慢思考」實現高層次目標。
整個架構中,系統 2 是 VLM 骨幹,基於一個 7B 引數的開源、開放權重 VLM,並在網際網路規模的資料上進行了預訓練;而系統 1 是一個 8,000 萬引數的交叉注意力編碼器 – 解碼器 transformer,用於處理底層控制。
🔗 https://www.figure.ai/news/helix
💪 Clone 展示首個雙足肌肉骨骼機器人
波蘭創業公司 Clone Robotics 近日釋出了世界首個雙足肌肉骨骼機器人 Clone。
Clone 最大的特點在於其獨特的仿生結構。
Clone 採用 Myofiber人造肌肉技術,透過液壓驅動和精確的肌腱連線系統實現運動,其骨骼系統完整複製了人體 206 塊骨骼,配備了複雜的神經系統和血管系統,上半身就擁有 164 個自由度,能實現極其靈活的動作。
在功能方面,Clone 被設計用於家庭服務場景。它可以完成日常家務如洗衣、做飯、打掃等任務,還具備空間記憶和物品操作能力。更重要的是,得益於其柔性材料構造,Clone 在與人類互動時更為安全友好。
Clone Robotics 計劃限量生產 279 臺高階版本,並將在 2026 年初推出面向大眾市場的版本,預計售價將逐漸降至約 2 萬美元。
公司創始人 Łukasz Koźlik 表示,Clone 不僅是一個人形機器人,更是「重構的人類」,在結構和功能上都更接近人體。
🔗 https://www.youtube.com/watch?v=H7dhwFcuUn0
🤖 挪威機器人公司 1X 推出家用人形機器人新品
挪威機器人公司 1X 日前釋出了其最新家用人形機器人產品 Neo Gamma。
作為 Neo Beta 的升級版本,這款新型人形機器人在設計理念上更加註重家庭使用場景,展示了包括衝咖啡、洗衣服和吸塵等多項家務能力。
為確保居家使用安全,Neo Gamma 採用了針織尼龍材質的外殼設計,可以有效降低機器人與人類接觸時可能造成的傷害。同時,該產品還搭載了先進的 AI 系統,能夠精確感知周圍環境,最大程度避免對人員和財物造成損害。
OpenAI 是 1X 公司的早期投資者之一。與此同時,1X 正在開發自己的 AI 模型,旨在提升機器人的語言互動能力和肢體語言表現。
1X 公司表示,Neo Gamma 目前仍處於有限的居家測試階段,距離商業化規模部署還有很長的路要走。
🔗 https://www.1x.tech/?=latest
Hunt for Tools|先進工具
💻 小米首款 AI PC 即將推出
小米集團合夥人兼總裁盧偉冰在昨晚的直播中宣佈即將推出小米首款 AI PC 產品。雖然新品具體型號尚未確定,但盧偉冰透露,該產品將配備 99Wh 超大容量電池,卡著能上飛機的容量限制打造。
值得注意的是,小米公司產品行銷總監馬志宇此前曾在社交媒體分享了一款名為 REDMI Book Pro 2025 的產品。
REDMI Book Pro 2025 採用英特爾酷睿 Ultra 5 處理器,支援澎湃智聯和小愛同學,預裝小米電腦管家,並特別提供了小米汽車 SU7 Ultra 的專屬桌布。
效能表現方面,馬志宇分享的遊戲測試資料顯示,這款筆記本在執行《黑神話:悟空》時平均幀率達到 67幀 /秒,最高可達 75 幀/秒,即使是最低幀率也能保持在 59 幀/秒。
對於網友關注的其他問題,馬志宇表示,雖然小米品牌的筆記本產品線會繼續更新,但短期內暫無新品計劃。同時他也確認,這款新品不會配備 TGX 介面。
👏 Grok 3 正式釋出
2 月 18 日,馬斯克旗下 xAI 正式釋出 Grok 3 模型。
據官方介紹,Grok 3 在 Chatbot 競技場之稱的 LMSYS 盲測中,程式碼、指令響應等各個方面排名第一,超過 Gemini-2 Pro、DeepSeek-V3、GPT-4o 等模型。同時,Grok 3 mini 也一同公佈,其將犧牲部分效能,換取更快的響應能力。
而推理版本的 Grok 3 Reasoning Beta 支援深度思考,其在最新的 AIME 競賽中表現斷層領先。值得關注的是,對比模型中還出現了近期火爆的 DeepSeek R1 模型。但 Grok 3 Reasoning 目前仍處於測試階段。
據悉,Grok 3 訓練累積使用了 20 萬張 H100 顯示卡。xAI 表示,最大的挑戰是讓整個模型在海量的 H100 上進行訓練,並保持一致性。
xAI 還一同帶來了由 Grok 3 加持的 DeepSearch,號稱是下一代搜尋引擎。模型將自主像 agent 一樣運作,並且理解使用者提問背後的意圖,能夠在網際網路以及 X 中進行全面檢索。
備受關注的語音模式也有了進一步的公佈。馬斯克在直播中透露,語音模式將是 Grok 最好的體驗之一,同時在釋出直播尾聲,xAI 還放出了一段語音模式的預覽影片,其效果十分接近人類聲音。
費用方面,X 的 Premium+ 訂閱使用者(每月 40 美元)將率先體驗 Grok 3,而其他高階功能則被納入 xAI 推出的新計劃「SuperGrok」中。SuperGrok 的月費為 30 美元,年費為 300 美元,僅提供額外的推理和 DeepSearch 查詢功能,還包含了無限量的影像生成服務。
此外,Grok API 還將在未來幾周內推出,包含推理模型和深度研究功能。並且 xAI 還宣佈,當 Grok 3 成熟穩定之後,大概幾個月將會開源 Grok 2。
2 月 20 日,Grok 3 還一度宣佈向 x 使用者免費開放(直到伺服器崩潰為止)。經過實測,Grok 3 有一定的次數限制,不過也可以使用 Deep Search 和推理模型。
另外,OpenAI 員工指出 xAI 公佈的圖表沒有包括 o3-mini-high 在「consensus@64」條件下的分數,後者是一個允許模型多次嘗試回答問題並採用最常見答案的方法,通常能顯著提高模型的基準測試分數。
正確的基準測試成績或許應該長這樣:
🔗 https://x.ai/blog/grok-3
🧮 微軟首發量子晶片 Majorana 1
近期,微軟釋出了量子計算的新突破 — Majorana 1 晶片。
根據微軟釋出的論文所述,這是世界上首個由拓撲核心驅動的量子處理單元(QPU),可在單個晶片上擴充套件至百萬量子位元,為量子計算指明瞭一條路徑。
在過去 17 年的時間裡,微軟一直都在尋找一個可靠的新材料和體系結構去實現量子計算。如今,微軟宣佈利用了一種新型的拓撲超導材料(結合了砷化銦(半導體)和鋁(超導體))首次實現對馬約拉納粒子的精準操控,可以創造出更穩定、抗干擾的量子位元(qubits)。
目前,微軟宣佈已經將 8 個拓撲量子位元放在一個僅有手掌大小的晶片上,而這個晶片架構的目標是要擁有 100 萬個拓撲量子位元,這也是目前唯一明確具備可擴充套件性的架構。
微軟技術研究員 Chetan Nayak 認為,「我們重新發明了量子時代的電晶體,這是通向實用量子計算的清晰路徑。」同時 Chetan Nayak 還表示,從最初,團隊就想製造一臺對商用有影響力的量子計算機,並且不僅僅是在思想上引領,並且他強調,若想實現就必須實現規模化。
此外,微軟表示,預計會在未來幾年內,能夠造出解決工業規模問題的量子計算機。
🔗 https://news.microsoft.com/source/features/innovation/microsofts-majorana-1-chip-carves-new-path-for-quantum-computing/
🎮 微軟推出最新 AI 模型 Muse
微軟近日推出了首個世界與人類行為模型(WHAM),並將其命名為「Muse」。
Muse 是一個能夠一鍵生成遊戲畫面和控制器操作的生成式 AI 模型,由微軟研究院遊戲智慧團隊與 Xbox 遊戲工作室忍者理論工作室合作開發。
為推動相關研究發展,微軟已將模型權重、示例資料以及 WHAM 演示程式開源,供開發者在 Azure AI Foundry 平臺上進行學習和實驗。
Muse 模型的訓練資料來自 Xbox 遊戲《Bleeding Edge》的真實玩家資料,包含超過 10 億張影像和控制器操作記錄,相當於 7 年的持續遊戲時長。
這款 AI 模型具有三個關鍵能力:一致性、多樣性和持續性。
在一致性方面,Muse 能夠生成符合遊戲物理規則的連貫畫面;在多樣性方面,它可以基於相同的初始條件生成不同的遊戲場景變體;在持續性方面,模型能夠將使用者新增的新元素自然融入到生成的遊戲畫面中。
微軟研究團隊特別強調了使用者參與的重要性。
在開發過程中,他們邀請來自不同地區和背景的遊戲創作者參與設計,確保技術發展能夠真正服務於創作者的需求。為方便使用者使用,團隊還開發了 WHAM 演示程式,提供了直觀的視覺化介面。
🔗 https://www.microsoft.com/en-us/research/blog/introducing-muse-our-first-generative-ai-model-designed-for-gameplay-ideation/
🔬 Google 推出基於 Gemini 2.0 的 AI 科研助手
Google 近日推出一款基於其最新大語言模型 Gemini 2.0 的 AI 科研助手工具——AI co-scientis。這款工具透過聊天機器人介面與研究人員互動,能夠協助制定研究計劃、分析科學文獻,並提出創新性研究假設。
AI co-scientis 的核心由六個以上 AI 智慧體組成,各司其職。
Generation 智慧體負責分析科學現象並生成初步假設;Ranking 智慧體則協同其他輔助智慧體對這些假設進行最佳化;Proximity 智慧體去除重複內容等。
整個 AI 系統由一個監督智慧體統籌協調,負責收集計算資料並決定處理流程。
在實際應用中,研究人員可以輸入具體研究目標,如為現有藥物開發新的臨床應用。系統隨後會生成詳細的研究計劃,並從學術文獻中搜索相關資料支援。使用者還可以針對系統的初步建議提供反饋,幫助其不斷改進輸出質量。
Google 研究人員 Juraj Gottweis 和 Vivek Natarajan 表示,AI co-scientis 不僅僅是文獻綜述和研究總結工具,更重要的是它能夠發現原創性知識,提出新穎的研究假設。
初步測試顯示,在 15 個研究目標的評估中,AI co-scientis 的輸出在創新性和影響力方面均優於其他同類模型。
🔗 https://research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist/?utm\_source=www.therundown.ai&utm\_medium=referral&utm\_campaign=google-s-new-ai-co-scientist
Hunt for Fun|先行
🐰 Rabbit R1 功能上新
AI 硬體初創公司 Rabbit 日前釋出最新技術演示,成功開發出一套能自動操控 Android 應用的 AI 智慧體。該系統能夠理解使用者指令並在平板電腦上完成相應操作。
在演示影片中,工程師透過電腦輸入簡單指令,系統便能自動完成一系列複雜任務:搜尋影片、查詢菜譜、製作購物清單,甚至能夠自主下載遊戲並學會遊戲規則。
不過該技術仍處於完善階段。
測試顯示,該 AI 智慧體在處理某些細節時還不夠智慧,例如透過傳送長文字資訊時會異常分段。公司表示,目前展示的僅是核心功能,更完整的跨平臺多智慧體作業系統將在近期釋出。
🔗 https://www.techradar.com/computing/artificial-intelligence/rabbit-ais-new-tool-can-control-your-android-phones-but-im-not-sure-how-i-feel-about-letting-it-control-my-smartphone
Hunt for Insight|先知
👍 黃仁勳首度回應 DeepSeek 衝擊
在近日舉辦的 Beyond Artificial 大會上,英偉達 CEO 黃仁勳就近期備受關注的中國企業 DeepSeek 及 AI 行業發展發表了重要觀點。
他特別指出,市場普遍對 AI 應用架構存在一個誤解,真正的 AI 應用應該包含三個同等重要的階段:預訓練、後訓練(推理能力學習)以及實際推理過程。
預訓練階段使用多模態資料學習基礎知識;後訓練階段透過強化學習、人工反饋等方式培養模型的推理能力;而推理過程則需要模型進行復雜的思考和分析,包括並行試驗和分步推理。
他強調,預訓練雖然重要,但後訓練對智慧發展而言才是最關鍵的部分,因為這是將學到的知識應用於解決實際問題的過程。同時,推理過程本身也需要大量計算資源,因為 AI 在回答問題時需要進行多重推理和不斷修正。
談及 DeepSeek,黃仁勳認為其創新不會阻礙 AI 發展,反而會加速 AI 的應用擴充套件。「這對英偉達來說是一件好事,但從本質上說,所有的核心點都在於『應用層』的加速。」
至於企業 AI 應用策略,黃仁勳提出了「多元並存」的觀點。
他建議企業可以同時採用公有云 AI 服務和自研 AI 系統。對於通用服務,可以優先使用公有云上的現成解決方案;而在企業特定專業領域,則可以基於開源模型和工具開發專有 AI 系統。
🔗 https://www.youtube.com/watch?v=F3NJ5TwTaTI
💡 面壁智慧創始人:AGI 是一個持久戰,更需要速決
近日,AI 科技評論與面壁智慧創始人、清華大學副教授劉知遠博士進行深入對話,其中劉知遠博士表示,其中討論了一些關於 AGI 發展的思考。
劉知遠博士提到,面壁智慧判斷 AGI 的到來,可能需要未來五年到十年的時間,將會是一個持久戰。但同時他還表示,戰略上是持久戰,但是在戰術上,需要去主動進攻。劉知遠博士稱,公司選擇了端側,就一定是在端側上迅速打出自己的聲音,從而壯大能力,並一場接一場的贏得戰略。
同時,劉知遠博士還提到 AGI 需要滲透到每個人中。具體來看,需要 AI 企業把模型構造得質量足夠高,成本足夠低,真正讓每個人都能用得起,這應該是未來的一個發展方向。
此外,劉知遠博士也談及近期大火的 DeepSeek,其透過 DeepSeek 得到啟示,認為只有一樣東西做出來了,被大家看到了,大家才能感知到它的革命性。
🚗 何小鵬:當前人形機器人處於自動駕駛 L2 初階
2 月 21 日,小鵬汽車 CEO 何小鵬透過微信朋友圈發表對人形機器人行業發展的看法。原文如下:
最近人形機器人市場火熱,我最近和頭部公司,包括宇樹的王興興,優必選周劍也都聊過。
總的來說,當前人形機器人還接近自動駕駛的 L2 初階,但是都期望儘早實現可量產可實現商業價值的 L3 初階能力,這個跳躍會是數十倍能力和難度的跨越,這也是小鵬 lron 機器人的目標。
但是和自動駕駛不同,自動駕駛的 L3 可能就會達到 iPhone4 時刻,而通用人形機器人可能要到達 L4 階段才行,也只有到達 L4 階段,大家所想象的走進千家萬戶才成為現實,這個起碼還需要數年甚至更長時間的努力。
小鵬將通用機器人定義為五個層級的能力:
L1:無自主操控
機器人完全由人類操作者控制,不具備任何獨立控制甚至決策能力。
(類似遙控賽車)
L2:基礎輔助智慧+操控監督機器人執行基本的預程式設計動作並能自主保持穩定,但仍需持續的人工監督。
(類似兩/多足機器人,工業機械臂,掃地機器人等)
L3:具身智慧+訓練監督機器人在大量場景中能夠經訓練後獨立執行,但在部分情況下會尋求人工監督。
(當前所有人形機器人公司的量產目標是在 L3 初段)
L4:自成長智慧+輕微監督
機器人能夠執行廣泛的複雜適應性和協作性任務,並在最少的人工監督下適應。
L5:AGI/ASI完全自主
機器人在認知和物理任務上展現出與人類相當甚至超越人類的能力,在法規和機器人法則下自主執行。
彩蛋時間
向左滑動檢視更多內容
作者:@umesh_ai
工具:Midjourney
連結:https://x.com/umesh\_ai/status/1893188111917584644

相關文章