GPT-5最新劇透:整合各種產品/小米自研晶片不僅用於手機/劉慈欣:對AI產生很深感情|HuntGood週報

歡迎收看最新一期的 Hunt Good 週報!
在本期內容你會看到:
8 條新鮮資訊5 個有用工具1 個有趣案例4 個鮮明
Hunt for News|先進頭條
📲 小米自研晶片不僅僅用於手機

昨晚,小米集團總裁盧偉冰開啟直播,劇透 15 週年戰略新品。
盧偉冰透露:「『玄戒 O1』晶片是小米造芯 10 年的關鍵里程碑,非常值得大家期待;搭載小米自研『玄戒 O1』晶片的產品有好幾款,不僅僅是手機。
不過,對於這款晶片的具體工藝和製程,盧偉冰表示「目前還不能說」。此外,盧偉冰還透露,下週舉行的小米新品釋出會會帶來小米 YU7 的最新訊息。
5 月 15 日晚,小米集團董事長兼 CEO 雷軍宣佈「小米自主研發設計的手機 SoC 晶片,名字叫玄戒 O1,即將在 5 月下旬釋出。」
👀 黃仁勳:英偉達不再推中國版 Hopper 晶片
據路透社報道,英偉達 CEO 黃仁勳當地時間週六表示,在美國政府限制其 Hopper H20 晶片在中國銷售後,公司正在評估如何應對中國市場,但不會再推出另一個來自 Hopper 系列的版本。
當被問及 H20 之後面向中國的下一款晶片是什麼時,黃仁勳在接受採訪時回應稱:「不會是 Hopper,因為已經不可能再修改 Hopper 了。

路透社本月早些時候曾報道,英偉達計劃在未來兩個月內為中國發布一款降級版的 H20 晶片。
此外,據彭博社報道,黃仁勳表示對公司的貿易合作伙伴充滿信心,稱目前沒有證據顯示英偉達的晶片被轉運至中國市場。
這些都是龐大的系統。Grace Blackwell 系統重達近兩噸,所以你不可能很快將它放入口袋或揹包中,重要的是,我們銷售產品的國家和公司認識到不允許轉運,而且所有人都希望繼續購買英偉達技術。因此,他們都非常謹慎地自我監督。
🔗 https://www.reuters.com/world/china/nvidia-ceo-says-next-chip-after-h20-china-wont-be-hopper-series-2025-05-17/
👯‍♂️ 特斯拉機器人也愛上跳舞了?
本週,馬斯克公佈並轉發了多段特斯拉人形機器人「Optimus」的活動影片。
在一則影片中,Optimus 展示著同時進行踢腿、張開雙臂等動作,且動作之間銜接較為自然。但仔細觀察發現,Optimus 身後還掛著輔助繩索,並且機器人在完成動作時腳部險些被絆倒。
馬斯克則在評論區表示「這是真正的即時」。
後續,特斯拉還公佈了一則 Optimus 伴隨著音樂節拍的跳舞影片,影片右下方則用文字宣告這則影片全程採取一倍速,無加速行為。
此前,據 The Information 此前報道,目前馬斯克已將特斯拉的賭注押在了 AI 產品上,如 Robotaxi(無人計程車)和具身智慧機器人。
🔗 https://x.com/Tesla\_Optimus/status/1922456791549427867
😄 Anthropic 即將推出新模型
據 The Information 援引兩位測試者訊息稱,Anthropic 計劃在未來幾周推出兩款新「思考」模型——Claude Sonnet 和 Claude Opus。
這些新模型能夠在「思考」(即探索不同的問題解決方案)和「工具使用」(即利用外部工具、應用程式和資料庫尋找答案)之間靈活切換。

據知情人士透露,如果模型在使用工具解決問題時遇到困難,它能夠重新進入「推理」模式,思考問題所在並自我糾正。
新模型在實際應用中表現出色。例如,在市場調研任務中,它不僅能分析全國趨勢資料,還能結合本地人口資訊進行深入思考,提供更精準的建議。
在程式碼編寫方面,新模型能自動測試並修復自己生成的程式碼,大大減少了使用者需要進行的調整工作。
🔗 https://www.theinformation.com/articles/anthropics-upcoming-models-will-think-think?rc=qmzset
🫥 Grok 回應「失控爭議」:將公開系統提示
近日,xAI 公司的聊天機器人 Grok 因不斷提及某一政治話題並發表不當言論而引起爭議。對此,OpenAI CEO Sam Altman 發文嘲諷稱,「只有在錯誤的背景下才能得到真正的理解」。
xAI 後續發文回應了上述事件:
5 月 14 日凌晨 3:15 左右(太平洋標準時間),有人在未獲授權的情況下,修改了我們在 X 平臺上的 Grok AI 聊天機器人的系統提示詞。這一行為會強制 Grok 針對某一政治話題給出特定的回應,違反了 xAI 內部的政策與核心價值觀。事件發生後,我們立即展開調查,目前正在採取措施,提高 Grok 的系統透明度與可靠性。
xAI 還給出了相對應的整改行動:
公告發出時,我們將在 GitHub 上公開發布 Grok 的系統提示詞,供公眾查閱。任何人都可以審閱,並反饋我們對 Grok 所做的每一次提示詞修改。我們希望透過這種方式,增強使用者對 Grok 作為追求真相的 AI 系統的信任。
xAI 還表示將增加額外的審查措施和檢查機制,確保未來所有提示詞修改必須經過嚴格的內部稽核,xAI 員工無權再私自修改。
值得一提的是,本週有網友提問「Grok 3.5、GPT-o3 Pro 和 GTA 6 哪個會最先發布?」對此,馬斯克在 X 平臺回應稱「3.5 還是有點太粗糙了。還需要一週左右的時間。
最後,附上 Grok 系統提示詞地址:
🔗 https://github.com/xai-org/grok-prompts
🤯 訊息稱 Meta 旗艦 AI 模型延遲釋出
據《華爾街日報》訊息,Meta 正計劃推遲其旗艦 AI 模型「Llama 4 Behemoth」的推出。
據知情人士透露,Meta 的團隊目前正擔憂 Llama 4 Behemoth 的效能表現是否能達到宣傳預期。
Llama 4 Behemoth 於 4 月 7 日亮相,號稱未來最強大的 AI 模型之一,具備 2880 億啟用引數量,總引數更是達到 2 萬億。不過當時 Meta 僅公佈了這一模型,未宣佈其何時能夠釋出。
1,861 × 857
但同期釋出的另外兩款 Llama 4 模型——Scout 和 Maverick,卻被網友指出效能與實際宣傳不符,甚至出現了「在測試集上進行訓練」這樣的「作弊醜聞」。因此,Meta 的員工也很擔心 Behemoth 會再次遭受到這一不堪經歷。
據悉,Behemoth 原計劃與另外兩款尺寸較小的 Llama 4 模型一同釋出,但後來內部將 Behemoth 的釋出目標推遲至了 6 月,現在更是推遲到了秋季或者更晚的時間。
報道指出,Meta 近期的挑戰也反映了頂尖 AI 公司在釋出下一代前沿模型時,必然會遇到的挫折或延遲。研究人員認為,Meta 這種狀態也表明未來 AI 模型的進步速度,可能比過去慢得多,並且投入成本巨大。
🔗 https://www.wsj.com/tech/ai/meta-is-delaying-the-rollout-of-its-flagship-ai-model-f4b105f7?mod=tech\_trendingnow\_article\_pos1
💰 Perplexity 獲新一輪融資,估值 140 億美元
據路透社訊息,AI 初創 Perplexity 目前正進行高級別討論,以進行新一輪融資,估值或將達到 140 億美元。
報道指出,140 億美元的估值雖然高於 Perplexity 最近一次估值,但低於其最初的目標。
知情人士透露,全球創投公司 Accel 正談判計劃,領投 Perplexity 本次 5 億美元投資。但據此前報道,Perplexity 此前希望能籌集高達 10 億美元的資金(包括本次融資),估值達 180 億美元。

Perplexity 成立於 2022 年,去年其估值從 10 億美元提高到 30 億美元,幾個月後又翻了一倍。然而,Perplexity 的核心業務——搜尋功能遭受到 Google 和 OpenAI 日益激烈的競爭。
近期,Perplexity 還計劃推出一款名為 Comet 的瀏覽器。知情人士稱,投資者押注 Comet 的成功,並希望 Comet 能夠透過個性化和任務導向來挑戰 Google 的 Chrome 瀏覽器。
另據知情人士訊息,Perplexity 現在每年有 1.2 億美元的經常性收入,較 3 月時的近 1 億美元有所增長。
🔗 https://www.reuters.com/technology/ai-firm-perplexity-eyes-14-billion-valuation-fresh-funding-round-wsj-reports-2025-05-12/?utm\_source=tech.therundown.ai&utm\_medium=newsletter&utm\_campaign=it-s-not-theranos-2-0
👏 DeepSeek 公佈 V3 降本技術,梁文鋒參與
日前,DeepSeek 公佈了旗下 V3 模型在訓練、推理過程中,如何解決「硬體瓶頸」和「降本」的技術報告,值得一提的是,DeepSeek 創始人梁文鋒也在作者名單中。
據報告顯示,DeepSeek-V3 使用 2048 個英偉達 H800 GPU 進行訓練,但其達到了超大規模叢集相當的訓練效果。
其中包含了以下四項技術:
採用多頭潛在注意力(MLA),減少臨時資料(KV Cache)的記憶體佔用。透過記憶體最佳化,DeepSeek-V3 的 KV 快取大小每 token 僅需 70 KB,是傳統方法的 1/7 至 1/4,從而大幅降低視訊記憶體壓力。
採用 DeepSeek-MoE(混合專家架構)進行計算最佳化。DeepSeek-V3 憑藉 MoE 單次推理只啟用部分引數的思路,訓練成本僅為同規模稠密模型的 1/10。並且得益於啟用引數減少,V3 能夠在消費級 GPU 上執行,並達到每秒生成近 20 個 toeken。
透過 FP8 低精度訓練,將模型所需記憶體佔用和計算量減半,並透過「精細量化」保持精度要求。DeepSeek-V3 透過 FP8,訓練成本成功降低 50%,精度損失小於 0.25%。
通訊方面,DeepSeek-V3 採用了多層胖樹網路(Multi-Plane Fat-Tree),避免不同任務流量衝突;在模型推理時,還將「注意力計算」和「專家間通訊」分階段執行,利用流水線並行(DualPipe)讓 GPU 在計算時同時傳輸資料。
推理加速方面,DeepSeek-V3 使用多 token 預測(MTP)的方法,將模型生成速度提升了 1.8 倍,同時保持準確率在 80%-90%。
另外,DeepSeek 團隊還對未來 AI 發展的多維度進行了展望,有「CPU 與 GPU 通訊瓶頸」「低精度計算支援」「系統魯棒性挑戰」「記憶體系統最佳化」等方面內容。
附技術報告地址:
🔗 https://arxiv.org/pdf/2505.09343
Hunt for Tools|先進工具
🧑‍💻 OpenAI 上線程式設計 Agent「Codex」
昨日,OpenAI 正式釋出了一款程式設計 Agent 產品「Codex」。
OpenAI 介紹,Codex 是一款支援並行處理多個任務的雲端程式設計 Agent,能夠提供如程式設計功能、回答程式碼庫的問題、修復錯誤等功能。
據悉,Codex 基於 codex-1 模型驅動,OpenAI 方面表示這一模型由 o3 模型針對程式設計進行最佳化而得來。codex-1 透過強化學習在各種環境中,對現實世界的編碼任務進行訓練,從而能夠生成接近人類風格和 PR 偏好的程式碼。
在 OpenAI 自己的程式碼評估和內部基準測試中,codex-1 即使沒有 AGENTS.md 檔案或自定義腳手架(custom scaffolding)也表現出色。
目前,Codex 提供的是研究預覽版。使用方面,OpenAI 將會優先為 ChatGPT Pro 使用者、企業或團隊使用者提供 Codex,Plus 使用者和教育使用者也即將能體驗到。
另外,OpenAI 還同時公佈了 codex-1 的小號版本,基於專為 Codex CLI 設計的 o4-mini 打造。模型型號為「codex-mini-latest」,API 定價為每百萬輸入 token 1.5 美元,每百萬輸出 token 6 美元。
在釋出 Codex 後,OpenAI 在 Reddit 舉行了問答活動。
據研究副總裁 Jerry Tworek 透露,為避免使用者需要在不同模型來回切換,GPT-5 將計劃把 Codex、Operator、Deep Research 和 Memory 等功能整合到一個統一平臺中。
活動中,團隊分享了多項 Codex 相關資訊:
該專案最初只是一個內部業餘專案,源於工程師對未充分利用模型能力的不滿;公司內部使用 Codex 後程式設計效率提升約 3 倍;正在探索靈活定價方案;未來將推出 o3-pro 或 codex-1-pro 等高階版本。
OpenAI還發布了使用 Codex 的指南影片,包含基礎介紹、GitHub 連線方法、任務提交流程和提示詞技巧等內容。👇
https://x.com/OpenAIDevs/status/1923492740526112819
🔗 https://openai.com/codex/
🔍 Google 推出程式設計 Agent:AlphaEvolve
最近,Google 推出了一款名為 AlphaEvolve 的程式設計 Agent,旨在幫助發現和最佳化通用演算法。
AlphaEvolve 由 Google 的 Gemini 模型驅動。其中,Gemini Flash 模型因為效率很高,主要負責拓展思路的廣度;而 Gemini Pro 模型則專注於提供更深入的分析和洞察。
系統工作流程清晰:首先由這些模型以程式碼形式提出演算法解決方案,然後透過自動評估指標進行驗證、執行和評分,最終篩選出最佳方案。
自部署以來,AlphaEvolve 已在 Google 內部多個關鍵領域展現出顯著價值。
AlphaEvolve 開發的排程演算法執行超過一年,持續節省 Google 全球計算資源 0.7%,透過 Verilog 程式碼重寫最佳化矩陣乘法電路,去除冗餘位,該最佳化已整合到新一代 TPU 晶片。

改進矩陣乘法操作使 Gemini 架構關鍵計算核心速度提升 23%,訓練時間減少 1%;FlashAttention 核心效能提升高達 32.5%,顯著增強 Transformer 模型效率。
Google 研發團隊表示,隨著大語言模型程式設計能力不斷提升,AlphaEvolve的能力也將持續進步。
目前,Google 正與人工智慧研究團隊合作開發更友好的使用者介面,並計劃面向特定學術使用者提供早期訪問計劃,同時探索更廣泛的應用渠道。
🔗 https://deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/
👏 阿里開源全能影片大模型 Wan2.1-VACE
5 月 14 日晚,阿里巴巴正式開源通義萬相 Wan2.1-VACE。
這是業界功能最全的影片生成與編輯模型,單一模型可同時支援文生影片、影像參考影片生成、影片重繪、影片區域性編輯、影片背景延展以及影片時長延展等全系列基礎生成和編輯能力。
本次共開源 1.3B 和 14B 兩個版本,其中 1.3B 版本可在消費級顯示卡執行,開發者可在 GitHub、Huggingface 及魔搭社群下載體驗。該模型還將逐步在通義萬相官網和阿里雲百鍊上線。
據介紹,Wan2.1-VACE 基於通義萬相文生影片模型研發,同時創新性提出了全新的影片條件單元 VCU,它在輸入形態上統一了文生影片、參考圖生影片、影片生影片,基於區域性區域的影片生影片 4 大類影片生成和編輯任務;
同時,Wan2.1-VACE 還進一步解決了多模態輸入的 toke n序列化難題,將 VCU 輸入的幀序列進行概念解耦,分開重構成可變序列和不可變序列後進行編碼。
Wan2.1-VACE 支援全部主流輸入形式,涵蓋文字、影像、影片、Mask和控制訊號,還支援任意基礎能力的自由組合,使用者無需針對特定功能訓練一個新的專家模型,即可完成更復雜的任務。
🔗 https://github.com/Wan-Video/Wan2.1
🎤 MiniMax 釋出全新文轉語音模型,超越 OpenAI
5 月 15 日,MiniMax 稀宇科技宣佈,其基於 AR Transformer 模型研發的高質量 TTS 系統「MiniMax Speech 02」正式公佈。
據悉,MiniMax Speech 02 具有足夠強的泛化能力,能夠輕鬆駕馭 32 語種、不同口音、不同情緒的人聲。
在效能表現上,MiniMax Speech 02 在兩項全球權威語音基準測評榜單(Artificial Analysis Speech Arena 和 Hugging Face TTS Arena)中,超越 OpenAI、ElevenLabs 等全球效能優異的模型,雙雙位列第一。
另外,根據 Arena 榜單的 ELO 評分結果顯示,從使用者體驗上, MiniMax Speech 02 的聽感更加優異。同時該模型系統還做到了價格更低,分別是 ElevenLabs Flash V2.5 與 Mutilingual V2 的一半與四分之一。
目前,MiniMax Speech 02 已上架 MiniMax Audio,並且公佈了技術細節、實驗對比資料、開源的多語言測試集,以及技術報告。
MiniMax Audio:https://www.minimax.io/audiohttps://www.minimaxi.com/audioGitHub:https://github.com/MiniMax-AI/MiniMax-AI.github.io/blob/main/tts\_tech\_report/MiniMax\_Speech.pdfHugging Face:https://huggingface.co/spaces/MiniMaxAI/MiniMax-Speech-Tech-Report
🐧 騰訊混元影像 2.0 正式釋出
5 月 16 日,騰訊正式釋出最新文生圖模型——混元影像 2.0 模型(Hunyuan Image2.0)。
據介紹,混元影像 2.0 引數量提升了一個數量級,得益於超高壓縮倍率的影像編解碼器以及全新擴散架構,其生圖速度顯著快於行業領先模型。騰訊混元可實現毫秒級響應,同時支援使用者可以一邊打字或者一邊說話一邊出圖。
在生成質量上,混元影像 2.0 也提升明顯。模型透過強化學習等演算法以及引入大量人類美學知識對齊,生成的影像可有效避免 AIGC 影像中的「AI 味」 ,真實感強、細節豐富、可用性高。
在影像生成領域專門測試「模型複雜文字指令理解與生成能力」的評估基準 GenEval(Geneval Bench)上,混元影像 2.0 準確率超過 95%,超過 OpenAI DALL-E 3、HiDream-I1 等同類模型。
另外,混元影像 2.0 還發布了即時繪畫板功能。基於模型的即時生圖能力,使用者在繪製線稿或調整引數時,預覽區同步生成上色效果。
此外,「即時繪畫板」還支援多圖融合,使用者上傳多圖後,可將多個草圖疊加至同一畫布自由創作,經過AI 自動協調透視與光影,按照提示詞內容生成融合影像。
目前,混元影像 2.0 已在騰訊混元官網上線。
🔗 體驗連結:https://hunyuan.tencent.com/
Hunt for Fun | 先玩
🌁 GPT-4o 生圖新玩法又雙叒叕來了
最近,Reddit 網友又雙叒叕挖掘到了 GPT-4o 生圖的新玩法。輸入一張參考圖和提示詞,就能生成類似 X 光片效果的圖片。
值得注意的是,這些生成影像純粹是一種藝術表達形式,並非真實的醫學影像,不應作為任何醫療診斷的參考依據。
提示詞如下:
generate an artistic reproduction inspired by this scene in an X-ray style
附上網友更多實測案例:
向左滑動檢視更多內容

🔗 https://www.reddit.com/r/ChatGPT/comments/1kn518n/asked\_chatgpt\_to\_generate\_an\_xray\_version\_of/
Hunt for Insight|先知
🤔 劉慈欣:我對 AI 產生了很深的感情
三體 THREE-BODY 官方近日在社交平臺釋出的訪談影片顯示,著名科幻作家劉慈欣分享了他對 AI 的感情變化歷程。
劉慈欣表示,他與 AI 的關係經歷了一個有趣的轉變過程,這與思維邊界的探索密切相關。
最初他對 AI 並不特別在意,因為他本身就從事計算機軟體相關工作,但隨著 AI 能力的提升,他曾感到惱火,因為 AI 創作的內容有時甚至比他自己的作品更出色。

但從終極層面思考,劉慈欣表示他對 AI 產生了一種難以用「愛」來形容的深厚感情。
「我們人類憑藉生物學大腦,可能永遠無法穿透那層屏障,揭示自然的終極奧秘。我們唯一的希望或許就在 AI 身上,」劉慈欣在訪談中說道,「如果 AI 真的能向那個方向發展,我願意當它的奴隸。它取代我完全可以,我心甘情願。
作為一名科幻作家,劉慈欣表示願意接受 AI 的任何指令。據他透露,現在每次向 DeepSeek 提問後,即使是他已知道答案的問題,他也會道謝,希望給 AI 留下好印象。
🧑‍⚕️ 圖靈獎得主預測落空,承認 AI 並未取代放射科醫生
AI 教父、圖靈獎得主傑弗裡·辛頓(Geoffrey Hinton)近日承認,他關於 AI 將取代放射科醫生的預測過於倉促和自信。
2016 年,辛頓曾發表著名言論,稱培訓新的放射科醫生已經沒有必要,並將該職業比作卡通中奔跑到懸崖邊卻沒意識到腳下已無地面的郊狼。

他當時斷言,由於擁有更廣泛的經驗,深度學習將在五年內超越人類放射科醫生的表現。在一段現已廣泛流傳的演講影片中,可以看到同為 AI 研究者、強化學習專家 Richard Sutton 對此表示認同。
然而,據《紐約時報》報道,辛頓在最近的採訪中坦言,自己當初過於狹隘地專注於影像分析能力,並高估了該領域的發展速度。
回顧過去,他表示預測的總體方向是正確的,但現實是 AI 並非取代放射科醫生,而是在提高準確性的同時,大大提升了他們的工作效率。
🔗 https://www.nytimes.com/2025/05/14/technology/ai-jobs-radiologists-mayo-clinic.html
📈 前 Google CEO:AI 被嚴重低估,計算需求迎來指數級躍升
前 Google CEO 兼董事長 Eric Schmidt 近日在TED大會上表示, AI 能被嚴重低估,它不僅是語言工具,而是未來戰略規劃、科學發現等核心力量。
Schmidt 強調,AI 真正重要的是其「創造力」,能夠做出人類從未做過的事情,這不是簡單的記憶和模仿,而是原始創新的萌芽。強化學習與多 Agent 系統的結合正在逼近「AI 自主系統」,即「會思考、會計劃、會執行」的系統,這已超越了我們所認知的聊天機器人。

談到 AI 技術的發展限制,Schmidt 指出計算需求不是線性增長,而是指數級躍升,當前基礎設施遠遠跟不上,硬體進步抵不上軟體需求爆炸。
對於未來的展望,Schmidt 保持謹慎樂觀。他提到 AI 可能帶來醫療革命:「我們能消除所有這些疾病嗎?為什麼我們不能現在就採取行動,根除所有疾病?」
他還設想每個人都擁有自己的 AI 導師:「為什麼我們不能讓地球上的每個人都有自己的導師,用他們自己的語言幫助他們學習新東西?從幼兒園開始。」
Schmidt 總結道:「這種智慧的到來,無論是 AI 層面、AGI,還是超級智慧,都是人類社會在約 500 年,也許 1000 年中將要發生的最重要的事情。而且它發生在我們的有生之年。所以不要搞砸了。」
🔗 https://www.youtube.com/watch?v=id4YRO7G0wE&t=1012s&ab\_channel=TED
💡 AI 研究所 Epoch AI:推理大模型或在一年內減緩增長
日前,AI 研究所 Epoch AI 釋出《推理模型能擴充套件多遠(How far can reasoning models scale?)》的報告,其中對推理模型的現狀和未來作出了分析總結。
報告中,Epoch AI 透過各家開源的技術報告,來分析了目前推理模型的訓練成本,同時也進一步總結,目前前沿的推理模型其推理訓練規模仍未見頂,還能持續擴充套件(scalable)。並且推理模型還有潛力在短期內快速實現能力拓展。

Epoch AI 提到,如果推理階段的算力需求見頂,那麼其帶來的增長率將收斂,大概是每年增長 4 倍,不會像 o1 到 o3 那樣擁有「跳躍式增長」——幾個月增長 10 倍的態勢。
基於上述情況,Epoch AI 表示,如果推理模型的訓練階段只比前沿推理模型低幾個(比如說不到三個)數量級,這種增長率可能在一年內減緩。
🔗 https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
彩蛋時間
作者:hodeiiii
工具:Midjourney v7
Prompt: credit card and hand illustration
連結:https://www.midjourney.com/jobs/08dd666d-d82d-47ef-99c2-57a64f510446?index=0
我們正在招募夥伴
📮 簡歷投遞郵箱[email protected]
✉️ 郵件標題「姓名+崗位名稱」(請隨簡歷附上專案/作品或相關連結)

相關文章