DeepSeek崛起,如何影響AI技術發展路徑與國際競爭格局?

2025年以來,中國人工智慧初創企業深度求索(DeepSeek)迅速崛起,引發全球科技界、投資界與政策界熱議——DeepSeek於2025年前後分別推出開源通用模型DeepSeek-V3與推理模型DeepSeek-R1,其在數學、編碼、推理等方面的表現可以媲美甚至優於OpenAI等科技巨頭推出的前沿模型,在硬體條件有限的情況下大幅提高訓練效率併成功縮減算力成本。

熱議背後,有對DeepSeek橫空出世的讚賞,有對主流AI發展路的質疑,也有對中美AI技術競爭的關注。本文聚焦國際視角下的DeepSeek崛起,梳理DeepSeek的核心技術突破,探討DeepSeek或將如何影響AI技術發展路與國際競爭格局。
* 原《DeepSeek的崛起如何影響AI技術發展路與國際競爭格局》在2025年2月18日首發於“CF40研究”小程式。本文觀點僅供瞭解海外研究動態,不代表中國金融四十人論壇和中國金融四十人研究院意見和立場。

DeepSeek取得了怎樣的突破
1. 高效能、高效率、低成本的模型展現了資源挑戰下的工程創新

綜合來看,DeepSeek在AI模型演算法、訓練架構和工程設計等方面的諸多創新最佳化,使得其在硬體條件有限的情況下大幅提高訓練效率並縮減算力成本,同時實現模型效能顯著提升。

表1 DeepSeek與OpenAI模型對比

來源:DeepSeek
在訓練方法方面,DeepSeek採用“強化學習”(reinforcement learning, RL)來訓練推理模型解決高階數學、編碼程式碼等複雜問題,即讓模型探索不同的推理策略並透過反饋結果來引導模型自然發展出步驟式推理能力,並獨創利用群體相對策略最佳化(group relative policy optimization, GRPO)的演算法讓模型透過不斷自我糾正來提升推理能力,過程中幾乎無需傳統訓練所需的人類監督微調(supervised fine-tuning, SFT),極大提高了訓練速度。

[1]

在架構最佳化方面

,DeepSeek使用“混合專家”(mixture-of-experts, MoE)架構,讓模型僅啟用與每個任務相關的引數,極大減少了計算負載和記憶體使用,同時提升訓練與推理效率。此外,DeepSeek結合其獨創的多頭潛在注意力(multi-head latent attention, MLA)機制,透過壓縮關鍵資訊,在顯著降低了記憶體需求和推理成本的同時提高了模型推理能力。

在硬體最佳化方面,受制於美國對最先進英偉達H100晶片的出口管制,DeepSeek使用低級別圖形處理單元(Graphics Processing Unit, GPU)組合語言最佳化H800 GPU上的跨晶片通訊,即透過特定程式設計最大化利用現有的硬體,以克服舊晶片的記憶體頻寬限制。
2. 積極擁抱開源,助推打破AI巨頭構建的技術“護城河”
首先,DeepSeek將多個模型作為開放權重模型釋出,允許研究人員和開發人員研究訓練後的模型引數並基於此進行二次開發,包括自由使用、修改、分發和商業化這些模型。雖然DeepSeek尚未開源完整的訓練資料,但與OpenAI的封閉模型甚至Meta所謂的開源模型LLama相比,其開放性已相當顯著。[2]

其次,DeepSeek模型通常引數量級極大,其訓練和推理過程可能需要數千個GPU和龐大的基礎設施支援,

為了降低部署和執行成本,DeepSeek採用知識蒸餾(distillation)技術,將大模型提煉成小模型釋出

這些經過知識蒸餾的小模型可在單個GPU上高效執行,同時在大多數任務中保持與大模型接近的效能,顯著減少了對計算資源的需求。這進一步改善了AI模型的可訪問性,也為解決模型規模與計算資源之間的矛盾提供了新思路。[3]

再次,

DeepSeek在推動純強化學習方法開發推理模型方面取得了重要進展,並率先公開展示這一開發過程

OpenAI的o1、o3、DeepMind的Gemini2.0、DeepSeek-R1等推理模型在幾周內相繼推出的現象表明,AI基礎模型已經足夠強大,可以在沒有人類監督的情況下從語言模型中誘發推理能力。有技術專家表示,頂尖科技公司已經掌握了從基礎模型/預訓練模型轉變到推理模型的方法,只是並未將此公開。

DeepSeek的一大創舉便是公佈了極為詳細的技術報告

[4]

,揭開了如何訓練推理模型的面紗,證明了構建推理模型並沒有想象中的技術困難與代價昂貴

[5]

。這些知識的公開意味著其他AI開發者可以根據其報告的說明覆現模型,事實上自報告公開以來,已有多家AI團隊投入復刻並且取得進展。

[6]

最後,

DeepSeek的“深度思考”模式向用戶完整展示了其推理模型的思維鏈

(chain-of-thought),即分解任務、展開推理、測試不同答案並得出最終回答的全部思考過程。相較之下,OpenAI隱藏了o3推理模型的思維鏈,只提供推理步驟的概述,這往往使得使用者和開發者難以理解模型的推理邏輯,進而難以改變指令和補充提示來正確引導模型,這種透明度的欠缺已經受到許多詬病。

有觀點提出,DeepSeek模型的開放性已在一定程度上倒逼OpenAI提高自身透明度,後者推出的新版本o3-mini雖然仍然隱藏了很多細節,但推理過程明顯更為詳細

[7]

可以說,DeepSeek既受益於開源也利用開源造福AI社群。Meta首席AI科學家楊立昆(Yann LeCun)認為,對DeepSeek的正確解讀不是“中國正在AI領域超越美國”,而是“開源模型正在超越專有模型”。[8]

DeepSeek如何影響

AI技術發展路與國際競爭格局

對於DeepSeek“橫空出世”的影響,相關的討論可以分為兩方面:一是如何看待DeepSeek出現之後的AI技術發展路

,二是如何看待DeepSeek出現之後的中美科技競爭走向。

1. 關於AI技術發展路的反思:開源還是閉源?效率還是規模?
❶ 開源 vs 閉源:DeepSeek之後AI生態系統或迎來結構上的重新洗牌
對於AI巨頭企業及其研究人員而言,DeepSeek對開源的積極擁抱和取得的亮眼成績無疑意味著一記猛烈敲打。OpenAI的CEO薩姆·奧爾特曼(Sam Altman)最近回應了其封閉策略問題,表示OpenAI內部正在討論是否公開技術原理方面的研究。他表示,“我個人認為,我們站在了歷史的錯誤一邊,現在需要制定不同的開源策略”。不過,他同時表示,“不是OpenAI的每個人都持這種觀點,這也不是我們當前的首要任務。”[9]

這種對開源的矛盾態度反映出了,

在不斷演進的AI領域,科技巨頭面臨著在創新、安全與商業化之間尋求微妙平衡的挑戰。

模型開源有助於加速技術創新並使技術觸達更加廣泛,但也可能導致維護AI安全的努力更為艱難,此外還有商業利益的考量。

有技術專家認為,DeepSeek的開源舉動削弱了封閉模型的吸引力,將使採取封閉開發策略的科技巨頭迫於競爭壓力加快模型推出速度並降低模型使用價格,但預計不會改變其技術開發思路。

然而,

對於初創AI企業、小型AI企業及其研究人員而言,DeepSeek降低了進入門檻,可能開啟高效開源AI的新時代

。一方面,他們可以利用現有的開源模型進行知識蒸餾,構建各種解決具體問題的小模型。事實上,自發布以來,DeepSeek模型已經被許多國內外的實驗室和企業採用、本地化部署以及二次開發,比如DeepSeek-R1已被託管在Amazon、Microsoft等公司的雲平臺供構建、訓練和部署自定義模型,再如其已被嵌入AI搜尋產品Perplexity的搜尋工具中。

另一方面,初創AI企業、小型AI企業可以借鑑DeepSeek的成功經驗,透過採用類似的技術改進方法,縮小與行業領先者的差距。例如,寄託著法國AI發展希望的Mistral公司聯合創始人亞瑟·門施(Arthur Mensch)近日表示,DeepSeek的成功讓法國和歐洲企業看到了通往成功的跳板。在他看來,“DeepSeek時刻”說明“開源必將勝利”,Mistral押注開源模型是完全正確的。

許多分析預計,基於DeepSeek以及更多強大開源模型的崛起,未來將有更多高效能小模型的湧現、更多的應用開發和更廣泛的市場競爭。

❷ 效率 vs 規模:通往AGI的道路或仍需算力等資源的大量投入

DeepSeek以有限資源訓練出高效能、高效率模型的案例讓市場參與者和投資者開始重新評估美國科技巨頭的AI發展思路是否正確,即“更多的資金投入=更好的基礎設施(龐大的資料中心、先進的硬體裝置和充足的電力供給等)=更好的訓練條件=更好的AI模型”這一敘事是否成立。

一些分析認為,DeepSeek取得的成本效益表明,高效利用資源比單純擴大規模更加重要,這或意味著未來市場對英偉達最尖端晶片和大規模資料中心的需求可能減弱。[10]
但也有一些分析認為,目前外界對DeepSeek的成本優勢存在一定誤解。有觀點提出,DeepSeek宣稱的560萬美元訓練成本僅為模型單次訓練的支出,而模型需要不斷迭代,而且這還不包括前期的初步試驗、人員成本和初始硬體投資(預計成本為單次訓練的10倍以上)[11]。也有觀點提出,DeepSeek的效率提升並非行業技術的革命性突破,而是計算效率指數級增長的悠久歷史的延續。[12]
例如,美國智庫蘭德公司(RAND)助理研究員康斯坦丁·皮爾茨(Konstantin Pilz)和副資訊科學家萊納特·海姆(Lennart Heim)認為,僅演算法的進步通常每八個月就會將訓練成本降低一半,而硬體的改進則會進一步提高效率,他們進一步預計,GPT-4級別的模型最終訓練成本將在300萬美元左右,這意味著DeepSeek的效率提升與行業趨勢相符,並非實現了AI效率質的飛躍。[13]

整體來看,開發更強大的模型以及通往通用人工智慧(Artificial General Intelligence,AGI)的道路或需更多算力等資源的投入。

基於傑文斯悖論來看,技術進步在提高效率、降低成本的同時,也將導致需求增加,進而加速而非減緩資源的消耗速度,未來訓練AI模型的效率得到提高的同時,AI的使用需求也會相應增加,並且推理模型比傳統語言模型需要更多算力,因此長遠來看,對強大GPU的需求將會持續增長而非萎縮

[14]

由此,

DeepSeek取得的突破可能反而使得算力等資源投入變得更為重要

事實上,

在受到DeepSeek快速崛起的衝擊後,美國科技巨頭仍然選擇擴大基礎設施投資規模

,並且這種投資競賽呈現愈演愈烈之勢。資料顯示,僅Meta、Microsoft、Amazon與Alphabet計劃在2025年對資料中心、基礎設施等AI相關領域的總投資就高達3200億美元,與2024年相比增加了44%

[15]

Meta的CEO馬克·艾略特·扎克伯格(Mark Elliot Zuckerberg)表示,先進AI訓練方式和執行方式的變化可能在某個時刻改變行業基礎設施投資的計算方式,但僅基於DeepSeek下此判斷還為時過早。“我仍然認為,從長遠來看,大力投入資本支出和基礎設施建設將成為一種戰略優勢。”扎克伯格表示[16]

另一方面,多國政府也正積極引導或推動對AI領域基礎設施的投資計劃。例如,1月21日,美國總統特朗普於上任之初便宣佈啟動四年內投資5000億美元的“星際之門”(Stargate)AI基建計劃,OpenAI、軟銀集團、甲骨文公司和主權基金MGX將提供資金方面的主要支援並進行戰略合作。再如,2月9日,法國總統馬克龍宣佈法國版的“星際之門”,其計劃在幾年內增加1090億歐元對AI領域的私人投資,旨在透過構建資料中心等方式支援初創企業,讓法國“重回AI競賽”。

表2 2025年科技巨頭的AI投資計劃

來源:各公司財報
2. DeepSeek如何影響中美科技競爭

多數觀點認為,DeepSeek的出現表明中國的AI技術正迎頭趕上美國。《經濟學人》補充表示,DeepSeek釋出R1模型一週之後,阿里雲也釋出了具有類似推理能力的Qwen2.5-Max模型,並表示該模型在關鍵基準測試中超越了DeepSeek-V3模型,這兩家中國企業已將美國的技術領先優勢縮短到幾周內

[18]

。紐約大學心理學和神經科學名譽教授加里·馬庫斯(Gary Marcus)則認為,現在

中美在AI競賽中正迅速接近“平局階段”

表3 中美AI模型不斷縮小的差距:DeepSeek、OpenAI和Meta近期釋出模型的時間線對比
這種競爭態勢的變化在美國內部引發了關於DeepSeek崛起是否意味著美國科技行業“斯普特尼克”時刻已經到來的激烈討論,部分聲音對美國晶片出口管制措施的效果和美國整體AI發展戰略提出質疑。[19]
❶ 晶片出口管制措施的效果可能尚未顯現

拜登執政期間,美國政府基於“小院高牆”戰略不斷加碼對華先進晶片的出口管制以阻礙中國發展尖端技術。拜登政府在任期尾聲仍密集出臺“人工智慧擴散出口管制框架”(簡稱為“擴散框架”)的臨時最終規則和“實施針對先進計算積體電路的額外盡職調查措施”(簡稱為“盡職調查”)的臨時最終規則,試圖限制先進AI晶片和閉源AI模型的全球擴散。

DeepSeek的出現是否意味著美國的關鍵晶片出口管制措施並未發揮作用?對此,

批評出口管制的一方認為美國的晶片出口管制措施反而激勵了中國的技術創新

。相比之下,美國科技企業沒有硬體條件的限制,因而也缺少動力去探索更加高效的模型開發方式。

英特爾原CEO帕特·格爾辛格(Pat Gelsinger)在評價DeepSeek時表示:“工程學的本質在於處理約束條件(Engineering is about constraints)。中國工程師面臨有限資源,必須找到創造性的解決方案。”

支援出口管制並認為需要強化政策的一方則表示,一方面,

片出口限制措施的政策效果存在時間上的滯後性

,美國政府對AI晶片的出口管制於2023年10月真正實施,預計要在幾年後才能看到管制效果;另一方面,出口管制等限制性舉措雖然無法完全防止技術能力擴散,但仍能為保持技術優勢贏得更多時間。

就模型訓練而言,萊納特·海姆認為,目前DeepSeek訓練模型所使用的英偉達 H800晶片能夠達到美國可用的H100晶片類似的效能,

真正的考驗在於下一代模型訓練

——中國目前執行的資料中心配備的GPU數量約為數萬塊,如果下一代模型需要10萬塊以上GPU進行訓練,這對正在大幅擴張資料中心的美國企業而言將相對容易,而對於受制於出口管制的中國企業而言將更具挑戰性。

此外,晶片出口管制措施也將透過限制AI部署能力影響中國整體AI生態系統。AI公司通常將60%-80%的計算資源用於大規模部署(即允許大量使用者訪問AI服務),而對於尖端晶片的限制措施將增加AI算力成本,阻礙廣泛部署能力,並約束AI模型效率提升。

萊納特·海姆補充表示,英偉達H20晶片在前沿AI部署方面的能力十分強大,目前其尚未受到晶片出口管制政策的限制。《華爾街日報》近日報道稱,美國一些議員正鼓吹加強對英偉達晶片的對華出口管制,包括將H20等晶片列入管制清單。[20]
❷ 美國AI發展戰略面臨多重質疑

目前來看,美國官方對DeepSeek的出現仍存矛盾態度。特朗普本人對DeepSeek的成本效益更為讚賞,沒有過多強調其國家安全風險。1月28日,特朗普表示,DeepSeek的出現“應是美國科技公司的一記警鐘”。2月7日,特朗普表示,DeepSeek不會對國家安全構成威脅,美國最終可以從這家初創公司的人工智慧創新中受益。然而,美國國會則更多強調DeepSeek可能帶來的國家安全風險。

這種對DeepSeek的矛盾態度也反映出美國當前AI發展戰略的侷限性:

一方面,缺乏整體治理框架,另一方面,過分強調零和博弈。

大西洋理事會數字取證研究實驗室中國問題高階研究員肯頓·蒂博特(Kenton Thibaut)認為,美國政策制定層的討論過分聚焦於美國國家安全和對中國的算力限制,而忽視了對美國國內AI整體發展框架的構建,包括如何在技術、經濟、政治和社會領域更好地開發、部署和治理AI技術,這將削弱其靈活適應新技術和新挑戰的能力。[21]
布魯金斯學會非常駐高階研究員約翰·維拉斯諾爾(John Villasenor)認為,DeepSeek的出現表明,試圖透過絆倒對手來保持領先可能會產生反效果,拜登政府推出的“擴散框架”限制範圍過大,將150個國家歸為限制先進晶片出口的中間層,這會限制美國企業在全球銷售的機會,最終損害美國企業的利益和美國在AI領域的領導地位。他表示,美國保持AI領先地位的最佳方式,是積極倡導國內投資和營造創新友好的監管環境。[22]

美國戰略與國際研究中心(CSIS)國際安全專案資料研究院亞西爾·阿塔蘭(Yasir Atalan)認為,DeepSeek的出現,尤其是其開源模式,不僅有助於AI行業發展,如果採取適當的措施,也將造福美國的AI生態系統。

他建議,首先,特朗普政府應從更長遠的視角看待DeepSeek的出現,而不是一味採取限制性措施。美國政府不僅應支援投資前沿AI專案,還應投資“低端”的AI應用,尤其應鼓勵小型初創公司和研發團隊參與開源專案,以加強美國的科技生態系統。其次,

應根據這一新的競爭格局重新思考出口管制措施,未來美國政府應避免“擴散框架”這樣一刀切的限制舉措

。最後,隨著更多小型但專業化的AI模型應用出現,特朗普政府應加強對AI評估的投資,以識別和減少AI模型中的偏見。

❸ DeepSeek及中國AI生態的潛在挑戰

AI競賽將是一場長期、迭代的較量,DeepSeek的出現重置了中美AI科技競爭的比分,但未來的發展形勢還需持續關注。

在模型最佳化方面,有評論提出,DeepSeek-R1模型雖在推理準確性上優於其他模型,但存在頻繁出現幻覺(hallucination)的問題,在測試中出現幻覺的頻率(14.3%)遠高於GPT o1(2.4%)、o3(0.8%)、Llama 3.3(4%)、Qwen 2.5(2.8%)等,這可能是因為訓練過程中缺乏相關的微調

[23]

。此外, DeepSeek近期因為使用量激增而面臨服務資源緊張的問題,這也在一定程度上反映了算力資源對其AI部署的限制。

綜合來看,

DeepSeek及中國AI生態未來要繼續保持競爭力,仍將面臨算力資源有限這一關鍵挑戰

,這不僅關乎更強大模型的訓練過程,也關乎更廣泛的模型部署。

卡內基國際和平基金會人工智慧研究員馬特·希漢(Matt Sheehan)認為,鑑於美國的出口管制,未來中國將會出現更多以解決算力不足為目的的大模型生態整合,比如近期阿里雲宣佈與李開復創立的零一萬物合併研究團隊並建立產業大模型實驗室,加速大模型從技術到應用的落地[24]

參考來源(向上滑動閱覽)

[1] Biese, P. (2025, January 21). DeepSeek-R1: What It Is & Why Everyone Is Talking About it. LLM Watch.

https://www.llmwatch.com/p/deepseek-r1-what-it-is-and-why-everyone

[2] Gibney, E. (2025). China’s cheap, open AI model DeepSeek thrills scientists. Nature.

https://doi.org/10.1038/d41586-025-00229-6

[3] Tahir. (2025, January 30). DeepSeek R1 Explained: Chain of Thought, Reinforcement Learning, and Model Distillation. Medium.

https://medium.com/@tahirbalarabe2/deepseek-r1-explained-chain-of-thought-reinforcement-learning-and-model-distillation-0eb165d928c9

[4] DeepSeek-AI. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. ArXiv.org.

https://arxiv.org/abs/2501.12948

[5] Heaven, W. D. (2025, January 31). How DeepSeek ripped up the AI playbook—and why everyone’s going to follow its lead. MIT Technology Review.

https://www.technologyreview.com/2025/01/31/1110740/how-deepseek-ripped-up-the-ai-playbook-and-why-everyones-going-to-follow-it/

[6] Wiggers, K. (2025, January 28). Hugging Face researchers are trying to build a more open version of DeepSeek’s AI “reasoning” model. TechCrunch.

https://techcrunch.com/2025/01/28/hugging-face-researchers-are-trying-to-build-a-more-open-version-of-deepseeks-ai-reasoning-model/

[7] Dickson, B. (2025, February 7). OpenAI responds to DeepSeek competition with detailed reasoning traces for o3-mini. Venture Beat.

https://venturebeat.com/ai/openai-responds-to-deepseek-competition-with-detailed-reasoning-traces-for-o3-mini/

[8] https://www.threads.net/@yannlecun/post/DFNvN3euNEV?hl=en

[9] Sam Altman says OpenAI is “on the wrong side of history” and needs a new open-source strategy after DeepSeek shock. (2025, February). Fortune.

https://fortune.com/2025/02/01/sam-altman-openai-open-source-strategy-after-deepseek-shock/

[10] Marcus, G. (2025, January 26). The race for “AI Supremacy” is over — at least for now. Substack.com; Marcus on AI.

https://garymarcus.substack.com/p/the-race-for-ai-supremacy-is-over

[11] Heaven, W. D. (2025, January 31). How DeepSeek ripped up the AI playbook—and why everyone’s going to follow its lead. MIT Technology Review.

https://www.technologyreview.com/2025/01/31/1110740/how-deepseek-ripped-up-the-ai-playbook-and-why-everyones-going-to-follow-it/

[12] Pilz, K. F., & Heim, L. (2025, February 4). What DeepSeek Really Changes About AI Competition. Rand.

https://www.rand.org/pubs/commentary/2025/02/what-deepseek-really-changes-about-ai-competition.html

[13] Pilz, K. F., & Heim, L. (2025, February 4). What DeepSeek Really Changes About AI Competition. Rand.

https://www.rand.org/pubs/commentary/2025/02/what-deepseek-really-changes-about-ai-competition.html

[14] Atalan, Y. (2025, February 3). DeepSeek’s Latest Breakthrough Is Redefining AI Race. CSIS.

https://www.csis.org/analysis/deepseeks-latest-breakthrough-redefining-ai-race

[15] Burch, S. (2025, February 7). Meta, Google, Amazon & Microsoft to Spend a Combined $320 Billion on AI in 2025. The Wrap.

https://www.thewrap.com/meta-google-microsoft-amazon-spend-big-on-ai-2025/

[16] Alexei Oreskovic. (2025, January 30). Mark Zuckerberg: DeepSeek shows why U.S. must be AI’s “global open-source standard”; no reason to rethink spending. Fortune.

https://fortune.com/2025/01/29/mark-zuckerberg-deepseek-us-ai-global-open-source-standard-hundreds-billions-capex-meta-earnings/

[17] Field, H. (2025, February 6). OpenAI considering 16 states for data center campuses as part of Trump’s Stargate project. CNBC.

https://www.cnbc.com/2025/02/06/openai-looking-at-16-states-for-data-center-campuses-tied-to-stargate.html

[18] Why Chinese AI has stunned the world. (2025, January 23). The Economist.

https://www.economist.com/briefing/2025/01/23/chinas-ai-industry-has-almost-caught-up-with-america

[19] Cassidy, J. (2025, February 3). Is DeepSeek China’s Sputnik Moment?. The New Yorker.

https://www.newyorker.com/news/the-financial-page/is-deepseek-chinas-sputnik-moment

[20] Heim, L. (2025, January 28). The Rise of DeepSeek: What the Headlines Miss. Rand.

https://www.rand.org/pubs/commentary/2025/01/the-rise-of-deepseek-what-the-headlines-miss.html?ref=blog.heim.xyz#chip

[21] Thibaut, K. (2025, January 28). What DeepSeek’s breakthrough says (and doesn’t say) about the “AI race” with China. Atlantic Council.

https://www.atlanticcouncil.org/blogs/new-atlanticist/what-deepseeks-breakthrough-says-and-doesnt-say-about-the-ai-race-with-china/

[22] Villasenor, J. (2025, January 29). DeepSeek shows the limits of US export controls on AI chips. Brookings.

https://www.brookings.edu/articles/deepseek-shows-the-limits-of-us-export-controls-on-ai-chips/

[23] Jones, R. (2025, February 5). DeepSeek hallucinates alarmingly more than other AI models. Semafor.com.

https://www.semafor.com/article/02/05/2025/deepseek-hallucinates-more-than-other-ai-models

[24] Chen, C. (2025, January 24). How a top Chinese AI model overcame US sanctions. MIT Technology Review.

https://www.technologyreview.com/2025/01/24/1110526/china-deepseek-top-ai-despite-sanctions/
我們的原創研究產品序列“CF40研究"已在微信小程式端正式上線。訂閱“CF40研究”,您將暢享全年無間斷原創報告、視聽服務、精品圖書贈閱、會員專享主題活動等線上線下超值權益組合。加入我們,開啟這場新知之旅吧!

版面編輯:宥朗|責任編輯:宥朗
撰文:沙靜 宥朗
視覺:李盼 東子
監製:李俊虎 潘潘

相關文章