馬斯克:2028年人腦全面接入AI/95後清華校友任英偉達首席科學家/雷軍點贊特斯拉FSD|HuntGood週報

歡迎收看最新一期的 Hunt Good 週報!
在本期內容你會看到:
10 條新鮮資訊5 個有用工具1 個有趣3 個鮮明觀點
Hunt for News|先進頭條
🧠「全腦介面」登場,馬斯克 Neuralink 釋出會公開未來三年路線圖
6 月 28 日,馬斯克帶領 Neuralink 團隊舉行了一場持續 1 小時的釋出會,公佈了最新進展與未來計劃。
目前,Neuralink 已有七名志願者完成腦機介面植入,他們能夠透過腦訊號控制玩馬里奧賽車、使命召喚等遊戲,甚至用意念操控機械臂寫字,與外界重新建立互動。
Neuralink 同時公佈了打造「全腦介面」的長遠願景。
所謂全腦介面,是指在大腦任意區域實現神經元監聽與寫入,透過無線高速傳輸實現生物大腦與機器的深度連線。
這一通用輸入/輸出平臺目前包括三個產品:幫助運動障礙患者恢復獨立的 Telepathy、為失明人士提供視覺恢復的 Blindsight,以及面向神經疾病治療的 Deep。
此外,Neuralink 公佈了未來三年路線圖:
2025 年底在言語皮層植入裝置,實現大腦訊號到語音的解碼;
2026 年將電極通道增至 3000 個,實現低解析度視覺恢復;
2027 年通道增至 10000 個,首次完成多裝置植入;
2028 年每個植入物突破 25000 個通道,全面接入大腦任意區域,助力精神疾病、疼痛等多類疾病治療,並實現與 AI 整合。
此外,釋出會上,Neuralink 還帶來了第二代手術機器人,新版機器人將植入電極線的速度提至每根 1.5 秒,比上一代提升了 11 倍。
值得一提的是,馬斯克本週五還在社交媒體發文表示,一再跳票的 Grok 3.5/4 將推遲到 7 月 4 日後釋出。
🔗 https://x.com/neuralink/status/1938643490600276142
🤝 英偉達任命 95 後清華校友為首席研究科學家
昨日,95 後清華校友 Banghua Zhu 在社交媒體官宣加入英偉達,並附上了和英偉達 CEO 黃仁勳的合照。同期,曾與 Banghua Zhu 聯合創立 Nexusflow 的 Jiantao Jiao 也官宣入職英偉達。
公開資料顯示,Banghua Zhu 2018 年本科畢業於清華大學,獲得電氣與電子工程學士學位。2024 年在加州大學伯克利分校電子工程與計算機科學系獲得博士學位,師從 Jiantao Jiao 教授和 Michael I. Jordan 教授。
2023 年,他創立了 Nexusflow AI,致力於為企業級應用場景提供可靠的 AI 智慧體解決方案。如今官宣後,他將加入英偉達的 Star Nemotron團隊,擔任首席研究科學家,專注於企業級 AI Agent 的應用研究。
值得一提的是,他也是大模型競技場 LMArena 的創始作者之一。
Jiantao Jiao 擔任加州大學伯克利分校電子工程與計算機科學系(EECS)和統計系助理教授,2012 年本科畢業於清華大學電子系,獲得學士學位。2018 年獲得斯坦福大學博士學位。
他主要研究基礎模型與生成式 AI、統計機器學習、強化學習與博弈論、以及多模態應用,並在在多個頂級會議和期刊上發表了多篇高引用論文。
🔗 https://x.com/BanghuaZ/status/1938636243602198998
🙅 Meta 再挖牆腳, OpenAI 連失多名大將
據《華爾街日報》訊息,Meta 的「挖牆腳」計劃新增了三名 OpenAI 研究員,目前這三名研究員已加入 Meta 旗下名為「superintelligence」(超級智慧)的專家團隊。
據悉,本次出走的三名研究員為 OpenAI 蘇黎世分公司的員工,分別為 Lucas Beyer、Alexander Kolesnikov 和 Xiaohua Zhai。
Lucas Beyer 研究方向專注於多模態視覺模型開發,發表多篇頂級會議論文和開源專案,致力於視覺-語言(如ViT、MLP-Mixer)等領域。
Alexander Kolesnikov 專注於視覺 AI 技術,在多種多模態和深度學習架構方面有顯著貢獻,積極參與 JAX 框架及高效研究基礎設施建設,也是 Vision Transformer(ViT)論文的共同第一作者,
Xiaohua Zhai(翟曉華)本科畢業於南京大學,2014 年獲得北京大學計算機科學博士學位,專注於多模態資料(如WebLI)、開放權重模型(如 SigLIP、PaliGemma)以及文化多樣性研究。他也是 Vision Transformer(ViT)論文的共同第一作者。
這三位研究員在加入 OpenAI 之前,曾在 Google DeepMind 共事多年,擁有深厚的合作基礎和技術專長。有意思的是,針對網傳 1 億美元年薪挖角三人的說法,Lucas Beyer 也線上闢謠否認。
在本週 Meta 全員大會上,CTO Andrew Bosworth 也回應了 OpenAI CEO Sam Altman 所稱的「Meta 用 1 億美元簽約金挖角」一事,直指其誇大其詞。
Bosworth 表示,所謂高額待遇僅適用於極少數高階崗位。「我非常清楚他為什麼這麼說:因為我們確實成功吸引了一些 OpenAI 的人才,而他對此顯然並不高興。」

一位近期加入 Meta 的研究員是 Trapit Bansal。他於 2022 年加入 OpenAI,曾與 Ilya 緊密合作,在大模型強化學習方向的早期探索中扮演了重要角色,並被視為 o1 專案的關鍵成員之一。
另外,據 The Information 援引知情人士訊息稱,Shengjia Zhao、Jiahui Yu、Shuchao Bi 和 Hongyu Ren 均已同意加入 Meta。他們此前都在 OpenAI 負責模型開發或多模態方向的核心工作,部分人曾參與小型快速推理模型 o1-mini、o3-mini 等。
Shengjia Zhao:本科畢業於清華大學,博士畢業於斯坦福大學計算機科學系。2022年加入 OpenAI,擔任研究科學家,主要研究方向為大語言模型的訓練和校準。他是 ChatGPT、GPT-4、GPT-4o mini 的核心作者之一。研究領域為大語言模型訓練、模型對齊。
Jiahui Yu:本科畢業於中國科學技術大學少年班,專業為計算機科學;博士畢業於美國伊利諾伊大學香檳分校(UIUC)。加入 OpenAI 8 個月後,帶領 OpenAI 感知團隊,曾主導 o3、o4-mini 及 GPT-4.1、GPT-4o 等專案。此前曾在 Google DeepMind 參與 Gemini 多模態專案。研究領域為深度學習、高效能計算。
Shuchao Bi:本科畢業於浙江大學,博士畢業於加州大學伯克利分校。在 OpenAI 任職時,擔任多模態後訓練負責人,曾任 Google 工程總監、YouTube Shorts 聯合創始人
Hongyu Ren:本科畢業於北京大學,博士畢業於斯坦福大學。是 o3-mini 和 o1-mini 的建立者;OpenAI o1 的基礎核心貢獻者。 GPT-4o mini 的負責人;GPT-4o 的核心貢獻者,在 OpenAI 負責後訓練團隊,主要研究方向為語言模型訓練。
公司層面,據本週彭博社訊息,Meta CEO 扎克伯格還將「收購魔爪」伸向了 AI 影片生成初創 Runway AI——Meta 與 Runway 討論了收購後者的可能性。
知情人士透露,上述計劃目前已處於暫停階段,並且交易還沒達到正式報價的階段,也未討論過具體的收購金額。據悉,Runway 今年早些時候估值已超 30 億美元。
而 Runway CEO Cristóbal Valenzuela 昨日在接受外媒 The Verge 採訪稱,該公司正著手開發面向消費者的互動型 AI 工具,未來該工具將支援「自動生成影片遊戲」的功能。
他指出,目前公司已在開發階段推出了基礎版本,具備文字與影像對話功能,下週將開放給公眾使用。影片遊戲生成能力預計將在今年晚些時候逐步上。
附上演示影片:youtube.com/watch?v=Q53iqEq78Ac&ab_channel=TheoreticallyMedia
🔗 https://www.theverge.com/command-line-newsletter/694028/meta-openai-100-million-bonus-talent-war
🧑‍💻 前英特爾 CEO 加入 AI 晶片初創
據路透社報道,美國 AI 晶片初創 Snowcap Compute 宣佈獲得 2300 萬美元(約 1.65 億美元)的種子輪融資,由 Playground Global 領投,並宣佈前英特爾 CEO Pat Gelsinger 加入公司董事會。
報道指出,Snowcap 希望利用超導體研發出可商用的新型 AI 計算晶片,旨在構建出能夠在未來超越當今最強 AI 系統性能的計算機,並且在電力消耗方面做到「極少」。
據悉,Snowcap 計劃在 2026 年之前推出其首款基礎晶片,該晶片將需要一種稱為氮化鈮鈦的特殊金屬;另外,Snowcap 還將打造完整的 AI 系統,但是將會晚於上述晶片。
據 Snowcap CEO Michael Lafferty 透露,在考慮到冷卻所消耗的能量的同時,Snowcap 的晶片在每瓦效能表現上,能做到當今最好晶片的約 25 倍。

Pat Gelsinger 表示,自己以 Playground Global 投資負責人的身份加入 Snowcap 董事會,之所以有此舉,是因為他認為計算機行業需要從目前不斷消耗更多電力的軌跡中,實現能源消耗的重大突破。
據訊息稱,Lafferty 曾在美國 EDA 巨頭 Cadence 擔任超越摩爾工程小組主管,負責開創性的超導與量子技術。而 Snowcap 的創始團隊還包括首席科學家 Anna Herr、CTO Quentin Herr,他們為實用超導計算機領域的前沿研究人員。另外,英偉達、Google、特斯拉、英特爾等多家公司的前高管也紛紛加入 Snowcap。
🔗 https://www.reuters.com/business/snowcap-compute-raises-23-million-superconducting-ai-chips-2025-06-23/
💰 前 OpenAI CTO 新公司計劃融資 20 億美元,估值達 100 億美元
據 The Information 報道,前 OpenAI CTO(首席技術官)Mira Murati 創立的 AI 初創 Thinking Machines Lab(TML)現已籌集到 20 億美元的資金,估值達 100 億美元。
目前 TML 還未有任何產品面世,Murati 也首次透露了 TML 的戰略計劃:開發面向企業的定製 AI,旨在令企業能夠賺取更多錢。知情人士透露,TML 計劃透過強化學習技術來訓練模型,並根據客戶需要的特定業務指標來進行模型定製。
另外,TML 還計劃為消費級市場開發產品。

據接觸過 Murati 的人士透露,TML 目前正在考慮開發一款與 OpenAI ChatGPT 相競爭的消費級聊天 AI 機器人。算力合作上,TML 目前正在使用由 Google Cloud 提供的伺服器。
報道指出,TML 選擇與 Google 合作,未來也有理由讓 Google 向 TML 進行投資。訊息還稱,Murati 在今年四月與亞馬遜 CEO Andy Jassy 會面,後者也有望成為 TML 的算力合作方之一。
值得一提的是,Murati 曾向投資者透露,TML 希望利用現有的開源模型,雖然這些模型不如 OpenAI 等閉源模型強大,但在效能方面已經接近 DeepSeek 等模型。
🔗 https://www.theinformation.com/articles/ex-openai-cto-muratis-startup-plans-compete-openai-others?rc=a8sc5q&utm\_source=www.therundown.ai&utm\_medium=newsletter&utm\_campaign=ai-training-gets-legal-clarity
🤯 華人 AI 大神宣佈加盟 Google DeepMind
6 月 26 日訊息,計算機領域華人學者何愷明正式宣佈入職谷歌 DeepMind,擔任傑出科學家,同時保留麻省理工學院(MIT)電子工程與計算機科學系終身副教授身份。
何愷明提出的深度殘差網路( ResNet )成為現代 AI 模型的基石,其論文《Deep Residual Learning for Image Recognition》連續三年成為全球被引次數最多的研究成果,是計算機視覺領域最具影響力的學者之一。
對於 Google 來說,這一跨界合作 DeepMind 在通用人工智慧(AGI)研發上的重要人才佈局。
此次加入 DeepMind,何愷明將聚焦計算機視覺與深度學習的通用方法研究,其長期目標是透過更強的 AI 技術增強人類智慧。
Google DeepMind 的 CEO 曾多次公開表示,AGI 可能在 5-10 年內實現。而何愷明的技術專長被視為推動這一目標的關鍵力量。
🔗 https://people.csail.mit.edu/kaiming/
🚗 特斯拉無人計程車正式上線
日前,特斯拉正式在上線無人計程車服務「Robotaxi」,並且在美國奧斯汀市區開啟 Robotaxi 內測。
官方標語寫著「自動駕駛的未來即將到來」,但初期由 Model Y 進行服務提供,外觀酷炫的 Cybercab 則是「面向未來」。從官方公佈的圖片來看,特斯拉 Robotaxi 將由車輛自行駕駛管理。
乘客在乘坐 Robotaxi 期間,能夠透過車輛後排的觸控屏享受車輛的娛樂功能,並且能透過 Robotaxi App 進行溫度設定、座位位置調節等功能。
對於 Robotaxi 上線,特斯拉自動駕駛團隊表示,Robotaxi 所採用的自動駕駛技術已經研發了十年,同時團隊稱,特斯拉自動駕駛技術還具有可擴充套件性——在任何批准的地方都能夠部署,並且不需要昂貴的裝置和廣泛的地圖測繪。

據路透社及 The Verge 報道,儘管特斯拉粉絲和部分早期體驗者對其持樂觀態度,但社交媒體上流傳的記錄顯示,在投入測試的 10 至 20 輛車隊中,短短三天內便出現多起安全隱患。
測試期間,出現的問題包括駛入錯誤車道、在多車道馬路中間或十字路口讓乘客下車、急剎車,或在十字路口突然剎車。在一個案例中,一輛自動駕駛出租車駛入了一條逆向車道。
分析指出,當前測試車隊規模較小已狀況頻出,而馬斯克計劃未來數月讓數千輛上路、明年底前擴充套件至「百萬輛」,其安全性引發行業質疑。
值得一提的是,特斯拉公司副總裁陶琳於社交媒體釋出了一則特斯拉「歷史上首次車輛自己交付到車主手中」的推文。
陶琳指出,全程沒有駕駛員、沒有遠端操控,最高時速達到 115 公里,平安來到客戶家門口。隨後,雷軍轉發該推文,並表示:
特斯拉確實了不起,在很多領域引領了行業趨勢,尤其是 FSD。我們還要繼續學習!
🔗 https://www.tesla.com/robotaxi
👀 Anthropic 模型訓練細節曝光,能用 AI「讀書」了
日前,美國聯邦法官威廉·阿爾蘇普在舊金山北區聯邦地方法院作出裁決,裁定 AI 初創 Anthropic 使用受版權保護的書籍來訓練其人工智慧模型並不違反版權法。
據悉,Anthropic 曾投入數百萬美元,將大批紙質書籍拆解後逐頁掃描、數字化,並匯入自家資料庫,以充實 Claude 等大模型的訓練語料。整個過程中,成冊圖書被去除裝訂、完成掃描後即被當作廢紙處理,原本的實體資料並未被保留。
因此,法官認定模型「吸收理解」類比人類讀書寫作,並非複製。

據悉,Anthropic 曾因使用 Pirate Library Mirror 、 Library Genesis  、 Books3 等資源所構建的「內部圖書館」,而遭作家集體起訴。根據該起訴顯示,法官的裁決並非完全偏向 Anthropic。
判決書區分了兩個不同的法律問題:一是 Anthropic 使用版權書籍進行 AI 訓練的合法性;二是 Anthropic 獲取這些書籍的方式。法官同時裁定 Anthropic 必須就其「如何獲取書籍」接受審判,特別是關於該公司從線上「影子圖書館」下載盜版書籍的指控。
值得一提的是,據路透社訊息,Meta 也收到了作家針對未經許可使用他們的書籍來訓練其 AI 系統的版權訴訟。
🔗 https://x.com/rohanpaul\_ai/status/1937598431947808893
🗓️ OpenAI 宣佈將在 10 月 6 日舉行開發者日
本週,OpenAI 正式宣佈將於 10 月 6 日(當地時間)在美國舊金山舉行 2025 開發者日。
據 OpenAI 官方介紹,本次開發者日將會是迄今為止規模最大的一次,將超過 1500 名開發者參加,並將舉行擁有直播開幕式主題演講,屆時還將公佈大量新品及模型。
🔗 開發者日註冊:https://www.devday.openai.com/
🪙 OpenAI 首款硬體被指「畫素級抄襲」,奧特曼回應
日前,OpenAI 與蘋果前首席設計師 Jony Ive 共同打造名為「io」的新專案,被一家名為 iyO 的初創公司告上法庭,隨後 io 官方宣傳物料直接被法院叫停,並被緊急下架。後續,OpenAI 發表宣告稱「很無辜」。
而在隨著 iyO 的訴訟文書在社交媒體大肆傳播,更多此前未被公開的細節也逐漸浮出水面。

根據其訴狀披露,OpenAI 至少從 2022 年起就知曉 iyO 的品牌、產品與商標情況,且雙方曾多次會面,包括與 Sam Altman、Jony Ive 所創辦的 LoveFrom 工作室展開初步接洽。當時 OpenAI 與 LoveFrom 均表示不考慮投資。
訴狀明確指出,io 與 iyO 在發音和品牌呈現上高度相似,易引發混淆;兩家公司目標產品的形態、用途、互動機制均顯著重疊。且由於 OpenAI 的品牌聲量與市場體量直接壓制了 iyO 的曝光,導致 iyO 的融資、營銷與上市計劃被嚴重干擾。
因此,iyO 指控 OpenAI 明知已有同一商標在先,仍強推「io」品牌,構成商標侵權與不正當競爭。
後續,Altman 發文回應了上述事件,其表示「iyO CEO Jason Rugolo 一直希望並堅持 OpenAI 能夠收購 iyO,但 OpenAI 明確拒絕」。對於起訴,Altman 認為十分荒謬,也令人失望。同時 Altman 強調,「iyO 本次行為樹立了一個糟糕的先例」。
Altman 最後還表示,「話雖如此,但還是祝願 iyO 能夠在打造優秀產品方面一切順利,世界也需要更多對成功堅持。」我們也對上述事件進行了跟蹤報道,點選下方連結查收完整版!👇
OpenAI 首款硬體被指「畫素級抄襲」,官方光速刪帖,馬斯克帶頭吃瓜
Hunt for Tools|先進工具
🌳 Black Forest 開源 FLUX.1 Kontex 模型
Black Forest Labs 本週正式開源影像編輯模型 FLUX.1 Kontext [dev]。
這是其專業版本 FLUX.1 Kontext [pro] 的開發者版,具備專有級影像編輯能力,引數規模達 120 億,可在消費級硬體上執行。該模型已透過 HuggingFace 平臺向研究與非商業用途使用者開放下載,授權遵循 FLUX.1 非商業許可證。
FLUX.1 Kontext [dev] 聚焦影像編輯任務,支援精細化的區域性與全域性修改,能夠在多樣環境下保持角色一致性,並實現迭代式影像生成。

官方表示,該模型已在新發布的基準測試 KontextBench 上超越了包括 Bagel、HiDream-E1-Full,以及 Gemini-Flash Image 在內的多款開源與閉源競品,效能獲得第三方機構 Artificial Analysis 的獨立驗證。
為提升效能表現,FLUX.1 Kontext [dev] 針對英偉達最新的 Blackwell 架構進行了深度最佳化,並同步推出 BF16、FP8、FP4 等多種 TensorRT 變體,以滿足不同場景下對速度、能效和影像質量的平衡需求。
Black Forest Labs 表示,該模型在推理速度和記憶體效率方面均有大幅提升。
模型下載:https://huggingface.co/black-forest-labs/FLUX.1-Kontext-dev技術報告:https://arxiv.org/abs/2506.15742
🔗 https://bfl.ai/announcements/flux-1-kontext-dev
🐧 騰訊首款開源混合推理 MoE 模型釋出
6 月 27 日,騰訊混元宣佈開源首個混合推理 MoE 模型 Hunyuan-A13B,號稱「效果比肩同等架構領先開源模型,但是推理速度更快,價效比更高」。
據介紹,Hunyuan-A13B 總引數量為 80B,啟用引數僅 13B。官方表示,Hunyuan-A13B 這是業界首個 13B 級別的 MoE 開源混合推理模型。

基於先進的模型架構,Hunyuan-A13B 表現出強大的通用能力,在多個業內權威資料測試集上獲得好成績,並且在Agent工具呼叫和長文能力上有突出表現。
具體來看,Hunyuan-A13B 在數學、推理、Agent 工具呼叫上都有一定的優勢,部分專案超過 OpenAI o1(1217)、DeepSeek R1(0120)、Qwen3 A22B。在長文方面,Hunyuan-A13B 支援 256K 原生上下文視窗,效能上能夠媲美 Gemini 2.5 Pro、DeepSeek R1、Qwen A22B 等模型。
值得一提的是,Hunyuan-A13B 模型對個人開發者較為友好,在嚴格條件下,只需要 1 張中低端 GPU 卡即可部署。目前,模型已經在 Github 和 Huggingface 等開源社群上線,同時模型 API 也在騰訊雲官網正式上線,支援快速接入部署。
體驗入口:https://hunyuan.tencent.com/API
💻 Google 推出開源 AI 程式設計智慧體
6 月 25 日,Google 正式宣佈推出開源 AI 智慧體 Gemini CLI,旨在將 Gemini 的能力直接接入終端,從而能夠提供輕量化的 Gemini 訪問通道。
官方介紹,Gemini CLI 支援透過自然語言實現程式碼編寫、問題除錯以及簡化工作流。基於內建工具,Gemini CLI 可以為使用者提供以下能力:
聯網搜尋:透過 Google 搜尋獲取網頁內容,為模型提供即時外部上下文;
支援 MCP(上下文協議)及捆綁擴充套件;
可根據個性化需求進行自定義提示詞;
指令碼整合:支援非互動式呼叫,實現任務自動化與現有工作流對接。
值得一提的是,Gemini CLI 還可用於多種任務,如影片內容生成、深度研究及任務管理等。

Gemini CLI 採用 Apache 2.0 開源協議,開發者可隨時審查程式碼實現、驗證安全機制。同時 Gemini CLI 基於 MCP 等標準構建,支援透過 GEMINI.md 檔案配置系統提示詞,並提供個人和團隊兩級設定。
另外,Google 的 AI 程式設計助手 Gemini Code Assist 現已與 Gemini CLI 共享技術底座。在 VS Code 的智慧體模式中,使用者可以獲得與 Gemini CLI 一樣的編碼體驗:Code Assist 將自動執行測試編寫、錯誤修復、功能開發、程式碼遷移等任務,並且還能夠基於複雜提示構建多步驟實施計劃,自動修正失敗路徑,並提供解決方案。
目前,Gemini Code Assist 的智慧體模型已在 Insider 通道中免費向所有使用者開放(包括免費版、標準版和企業版)。
🔗 https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/
👓 小米 AI 眼鏡正式釋出
本週,小米 AI 眼鏡正式釋出。雷軍表示,小米 AI 眼鏡是一款定位面向下一個時代的個人智慧裝置,也是隨身的 AI 入口。
外觀方面,新品眼鏡採用經典 D 型方框設計,貼合多數亞洲臉型,不含鏡片重量僅約 40 克,提供黑色、玳瑁棕與鸚鵡綠三種配色,還推出兩款電致變色版本。

拍攝體驗方面,小米 AI 眼鏡配備 1200 萬畫素單顆攝像頭(索尼 IMX681),最高可錄製 2K/30fps 影片。同時,眼鏡可將拍攝畫面接入第三方 APP,支援微信視訊通話視角切換、第三方平臺開啟直播。
在硬體配置上,小米 AI 眼鏡採用 4 麥克風陣列設計,搭載高通+恆玄雙芯架構,配合金沙江高密度矽負極電池,右側鏡腿末端內建 Type-C 介面。
AI 方面,小米 AI 眼鏡移植了超級小愛的能力,支援拍照識物、翻譯、會議紀要,以及和支付寶合作的「看一下支付」功能。同時,新品還深度融入小米人車家全生態。
🔗 詳細報道:真上頭!雷軍掏出了年輕人的第一副 AI 眼鏡
🔈 ElevenLabs 對話式 AI 個人助理上線
日前,AI 初創 ElevenLabs 釋出旗下語音對話式 AI 個人助理 11ai,目前免費開放體驗。

官方介紹,11ai 主打語音輸入,支援文字內容輸入,並且集成了 RAG(檢索增強生成)、語音檢測等功能,能夠接入 MCP,支援接入 Perplexity、Google 日曆等。
透過 11ai,使用者可以透過語音的方式執行各種任務,如透過 Perplexity 進行客戶研究、搜尋並查詢客戶資訊等。值得一提的是,11ai 提供 5000 種 AI 助理音色,並且支援上傳自定義音色。
🔗 體驗連結:11.ai
Hunt for Fun | 先玩
🧸 輸入這個 Prompt,一鍵秒生成 3D Emoji
網友@ @alban_gz 在社交平臺展示了透過 ChatGPT-4o 生成「玩具風格」3D 表情符號的新玩法。
據介紹,只需輸入這段 Prompt,即可生成質感圓潤、如黏土玩具般可愛的 3D 插畫作品,色彩柔和,搭配柔光打燈效果,看上去治癒又溫暖。

Prompt:Create a 3D illustration in cute toy style based on this emoji: [INSERT EMOJI]. The object should appear rounded, soft, and adorable, with fine groove textures like plasticine or clay. Use a pastel color palette and soft, diffused studio lighting. The background should be a smooth, minimal, pastel blue color to match a playful toy-like atmosphere. The object should not have any eyes, face, or anthropomorphic features. Center the sock in the frame and render it with a Pixar-like cartoon aesthetic, but as a clean, object-only design.
🔗 https://x.com/alban_gz/status/1937517848315777250
Hunt for Insight|先知
🤯 Anthropic 報告:僅 2.9% 使用者會向 AI 尋求「情感陪伴」
近日,Anthropic 公佈了一項關於使用者如何與旗下 AI 助手 Claude 進行情感互動的大規模研究。
報告顯示,現實中 AI 被用作情感陪伴的比例僅佔總對話的 2.9%。其中,真正涉及「陪伴」或「角色扮演」的互動,只有不到 0.5%。
使用者會與 Claude 進行許多情感相關的對話,涵蓋職業規劃、人際關係、長期孤獨感以及對意識與存在意義的探討等。而其中「職業教練」和「心理諮詢」是最主要的需求。

相比之下,「情感陪伴」往往只會出現在較長的互動中,通常源於使用者深層次的孤獨或情緒困擾。
此外,報告還特別關注了 Claude 在涉及心理敏感內容時的行為邊界。資料顯示,大多出於安全考量,只有不到 10% 的情感型對話中出現了 Claude 拒絕使用者請求的情況。比如 Claude 會拒絕提供極端節食建議、診斷心理疾病等行為。
研究還追蹤了對話過程中使用者語言情緒的變化。結果表明,大多數情感型互動在結束時的語氣較開始時更為積極。這或許意味著 Claude 在一定程度上起到了情緒緩解和支援作用。
🔗 https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship
提示詞工程✖️上下文工程 ✅
6 月 27 日,Shopify 聯合創始人兼 CEO Tobi Lütke 在 X 平臺上發文稱,相比被廣泛使用的「Prompt Engineering(提示詞工程)」,他更青睞「Context Engineering(上下文工程)」這一說法。
在他看來,後者更準確地概括了 LLM 核心功能:也就是為任務提供完整上下文的藝術,讓大型語言模型(LLM)有可能順利完成任務。
對此,前特斯拉 AI 總監 Andrej Karpathy 也隨後表示贊同該說法:
我也支援用「上下文工程」來取代「提示詞工程」。
人們往往把「提示詞」理解為日常使用中給LLM下達的簡短任務說明。而在每一個工業級別的LLM應用中,「上下文工程」才是真正微妙的科學與藝術——它的本質是巧妙地往上下文窗口裡填充恰好合適的資訊,讓模型順利進入下一步。
這是科學,因為要做到好,需要結合任務描述和解釋、少量示例(few-shot)、檢索增強生成(RAG)、相關(可能是多模態)資料、工具、狀態與歷史、壓縮……如果填充太少或形式不對,模型就得不到最優的上下文,效能會下降;如果太多或不相關,模型成本會上升,效能反而也可能下降。要做好這件事,絕非易事。
同時這也是藝術,因為它需要開發者對 LLM「心理」的深刻直覺。
除了上下文工程本身,一個 LLM 應用還需要:恰當地將問題拆解成控制流、精確打包上下文視窗、呼叫合適型別和能力的LLM、設計生成與驗證的互動流程以及更多:包括防護機制、安全、評估、並行處理、預取……
因此,上下文工程只是協調單次LLM呼叫,並把這些(以及更多)整合成完整LLM應用的一小部分。所謂「ChatGPT封裝器(wrapper)」的說法已經過時,且嚴重錯誤。
🔗 https://x.com/karpathy/status/1937902205765607626
💥 AI 經濟學家:AGI 或許 5 年內能問世
日前,弗吉尼亞大學經濟學教授、AI 經濟學家 Anton Korinek 日前接受哈佛商學院的採訪。採訪中,Anton 預測了 AI 時代下,AGI(通用人工智慧)和勞動力市場會走向何方。
Anton 表示,AI 的進化速度早已超越想象。在多個領域中,AI 超越多數人類的同時,還能做到在部分計劃的基準測試中達到「飽和」狀態。
對此,Anton 大膽預測,全面超越人類智力的 AGI,或許只需要 2-5 年就能問世;另外,更強大的人工超級智慧也非天方夜譚。Anton 還表示,若人類真的實現了 AGI,那麼這就將是經濟領域的一次絕對根本性的轉折。
但 AGI 誕生的同時,人類的勞動力、生產力也會受到影響。Anton 指出,AGI 基本能完成人類勞動者所做的任何事情,並且價格便宜。但也因如此,人類的工資或勞動力市場的價值,會隨著被「替代」而下降。
而對於「AI 影響人類經濟」這件事情,Anton 則表示「目前表現出來的實際影響很小,但在未來幾年內,AI 將對經濟造成顛覆性的巨大影響。」
對於普通人來講,Anton 則建議要「時刻關注 AI 領域動態,然後據此不斷更新自己已經制定的計劃。」
🔗 採訪影片:https://www.youtube.com/watch?v=YpbCYgVqLlg
彩蛋時間

作者:@CharaspowerAI
工具:GPT-4o
Prompt:[Subject] made entirely of [specific food material], [pose or action]. Intricate details and a photo-realistic appearance. Photorealistic, highly detailed, and award-winning food photography piece in the style of a skilled artist.
連結:https://x.com/CharaspowerAI/status/1928126779002061042
歡迎加入 APPSO AI 社群,一起暢聊 AI 產品,獲取#AI有用功,解鎖更多 AI 新知👇

我們正在招募夥伴
📮 簡歷投遞郵箱[email protected]
✉️ 郵件標題「姓名+崗位名稱」(請隨簡歷附上專案/作品或相關連結)
更多崗位資訊請點選這裡🔗


相關文章