DeepSeek、Claude3.7只是個開始,為“AI應用落地”吹哨的另有其人

作者 | 凌敏
2025 年開年,DeepSeek 用遠低於行業水平的 550 萬美元訓練成本和屠遍各榜的效能表現,攪動得 AI 大模型圈風雲變幻。2 月,Claude 3.7 Sonnet 用數千萬美元的訓練成本和重新整理 SOTA 的擴充套件思考模式,再次拔高了大模型的能力邊界。
一輪又一輪的更新和釋出,把 AI 大模型效能不斷“卷”向新的高度。但與兩年前 ChatGPT 問世時的盛況相比,新模型們總是缺少一些“驚豔”的感覺。
或許是因為,這兩年我們見證了太多“最強大模型”的釋出,從拼引數到拼上下文,從拼多模態到拼成本,似乎陷入了各大模型輪番屠榜的無限流中。
部署大模型的企業對此的感知或許更為深刻。前腳剛配置好硬體,選好大模型做完訓練和微調,終於整合到企業系統中,後腳就發現又有更具價效比、更適合自身業務場景的大模型問世。這種快速迭代的技術環境,讓企業在 AI 應用落地過程中面臨巨大的不確定性。
在大模型層出不窮的當下,企業真正需要的,其實是多樣化的模型選擇和靈活的部署方式。
1 DeepSeek 火了,“帶得動”AI 應用落地嗎?
DeepSeek 的釋出在全球範圍內引發了連鎖反應。過往,大家對大模型的固有認知是“高投入才能有高回報”。但 DeepSeek 走出了一條不一樣的路——用 GPT-4 十分之一的訓練成本,打出了與之相當的效能表現。
更重要的是,DeepSeek 選擇了開源。開源意味著技術的透明和共享,也意味著全球 AI 行業都可以沿著 DeepSeek 工程最佳化的路徑,來降低模型的訓練和推理成本。
在 DeepSeek 的推動下,全球掀起了低成本 AI 模型“狂歡”。與此同時,行業的關注點也在發生轉變。
過去,企業在選擇 AI 模型時,往往會優先關注模型的效能,如準確率、推理速度等技術引數。如今,隨著以 DeepSeek 為代表的低成本 AI 模型光速出圈,AI 應用迎來“安卓”時刻,企業更關心的是如何快速將新模型應用到業務中,併產生商業價值。
這不是隻屬於 DeepSeek 一家公司的狂歡,因此,圍繞 DeepSeek-R1 的部署和整合,成了國內企業開年最重要的課題。
雲廠商對此的反應十分迅速,且步調統一。1 月 30 日,亞馬遜雲科技、微軟 Azure 紛紛宣佈接入 DeepSeek-R1 模型。2 月初,華為、騰訊、阿里等國內雲廠商也開始陸續宣佈接入。
一個有趣的現象是,雲廠商們幾乎都有自研大模型,為什麼還要接入第三方大模型?
亞馬遜 CEO Andy Jassy 曾在一場會議中給出了答案:“我們秉持一種信念,即幾乎所有大型生成式人工智慧應用都會使用多種模型型別,而且不同客戶會針對不同型別的工作負載使用不同模型,那麼你就要儘可能多地提供前沿模型讓客戶選擇。我們正透過 Amazon Bedrock 這類服務來實現。這就是為什麼我們迅速行動,確保 DeepSeek 模型能在 Amazon Bedrock 和 SageMaker 平臺上使用。”
在這些接入 DeepSeek-R1 模型的雲廠商中,亞馬遜雲科技的動作迅速且堅決,甚至在 3 月 11 日,上線了完全託管的 DeepSeek-R1 ——企業不需要管理任何基礎設施,甚至不用擔心複雜的設定或運維,以 Serverless 按 token 付費的模式,將其應用於企業級部署。
Andy Jassy 在 LinkedIn 上發文表示:“我們讓 DeepSeek-R1 的使用變得更加輕鬆。該模型現已在 Amazon Bedrock 上以完全託管模式提供——亞馬遜雲科技是首個將 DeepSeek-R1 作為完全託管服務推出的雲服務提供商。使用者無需進行任何配置或維護,即可獲得所需的全套安全防護和工具(如 Guardrails、智慧體 Agents 和知識庫),用於構建高效實用的生成式 AI 應用。”
在大模型時代,各大雲廠商都有自己的打法。亞馬遜雲科技的打法是讓新興和流行的模型立即可供企業使用,這也與其一貫秉持的“Choice Matters”理念高度契合。
比如,在 Anthropic 釋出其迄今為止最智慧的模型 Claude 3.7 Sonnet 的當天,Amazon Bedrock 就宣佈接入該模型,甚至還將其新增到 Q Developer 的模型列表中,開發者可以根據特定任務選擇最合適的模型,從而支援更高階的編碼工作流程,提升開發效率。
僅在今年 2 月份,Amazon Bedrock 就“上新”了包括 Meta 的 Segment Anything Model(SAM)2.1 視覺分割模型、阿聯酋技術創新研究所(TII)的 Falcon3 等在內的多款熱門大模型。更早之前,Amazon Bedrock 第一時間上架了 Meta Llama、Stability AI 等熱門模型。
當然,模型要想真正落地應用併產生商業價值,還需要進行適配和開發。這也是為什麼亞馬遜雲科技在接入 DeepSeek 後的兩個月內,仍不斷為客戶提供完整工具鏈的原因。這種端到端的工具鏈,是 Amazon Bedrock 的強項,也是將“Choice Matters”這個理念落地的真正成本。
除了模型選擇,Amazon Bedrock 還在成本、延遲和準確率最佳化,利用私有資料定製,安全負責任的審查,多 Agents 協作解決複雜任務這四個方面,為企業提供了多種工具,比如:
在成本、延遲和準確率最佳化方面,Amazon Bedrock 支援提示詞快取、智慧提示詞路由:在過去,開發人員往往需要花費大量時間評估模型是否符合自身需求,尤其是成本和延遲等因素需要非常精細的平衡。Amazon Bedrock 能夠對多次 API 呼叫中常用提示詞進行快取,成本降低 90%,特定模型效率提升 85%。此外,Amazon Bedrock 還能將提示詞路由,呼叫設定好的最適合模型以獲得最佳價效比,在無損質量、不影響準確性的情況下,成本降低 30%。
在利用私有資料定製方面,Amazon Bedrock 知識庫支援結構化資料檢索、GraphRAG: 要想實現更貼合業務需求的 AI 應用,企業往往需要利用自己的資料訓練或微調模型。為了幫助企業充分利用私有資料,Amazon Bedrock 知識庫自動化了完整的 RAG 工作流程,囊括了編寫自定義程式碼、整合資料來源和管理查詢。此外,Amazon Bedrock 知識庫還支援 GraphRAG 自動生成知識圖譜,並連線各種資料來源之間的關係。Amazon Bedrock Data Automation 還能自動將非結構化的多模態內容轉換為結構化資料,並自動提取、轉換和處理所有的多模態內容,實現大規模處理。
在安全負責任的審查方面,Amazon Bedrock Guardrails 全面護航應用安全:在企業最關心的大模型落地應用安全問題方面,Amazon Bedrock Guardrails 可以根據不同應用的要求和負責任的人工智慧政策制定保障措施,能夠阻止高達 85% 的有害內容。企業級 AI 在部署和應用過程中,經常頭疼的還有老生常談的大模型幻覺問題。在 Vectara HHEMAI 幻覺測試中,即便是 DeepSeek-R1,也出現了高達 14.3% 的幻覺率。Amazon Bedrock Guardrails 引入了自動化推理檢查功能,透過運用數學邏輯方法驗證生成內容的準確性。此外,Guardrails 還能透過解析和驗證生成結果的合理性,生成可審計的輸出和清晰的推理過程,從而提升模型的透明度。
在多 Agents 協作解決複雜任務方面,Amazon Bedrock 允許開發者構建、部署和編排多個 Agents: 近期,Manus 掀起的 Agent 風暴,在 Amazon Bedrock 上也有相應的解決方案。Amazon Bedrock 此前釋出的多 Agents 協作功能,允許開發者構建、部署和編排多個 Agents,協同處理複雜的多步驟任務。多 Agents 協作也為生成式 AI 的落地應用開闢了新的可能性。
所以,“貨架”只是 Amazon Bedrock 的核心概念之一,在“貨品”的消費端, Amazon Bedrock 幾乎完成了一個“大模型商超”的功能搭建。許多廠商將 2025 視為 AI 應用落地的元年,這一判斷的前提便是:由低成本 AI 模型引發的技術潮流,可以在 Amazon Bedrock 這一類大模型平臺的配合下,落地成真正的“AI 狂歡”。
因此,模型的效能和服務穩定性也是決定其能否成功落地應用的關鍵因素。例如,API 訪問的響應時間、TPS 以及長上下文視窗的支援能力,都會直接影響使用者體驗和業務效率。這也是為什麼,在不同雲平臺上部署同一款模型時,體驗會存在顯著差異。
過去一年,在 Meta、微軟、亞馬遜和 Alphabet 四大科技巨頭中,亞馬遜在 AI 領域的投資手筆最大,在 AI 基礎設施投方面的支出持續超過其他競爭對手。Andy Jassy 提到,亞馬遜第四季度 263 億美元資本支出的絕大部分,用於亞馬遜雲科技的 AI 投資。預計 2025 年,亞馬遜將在 AI 領域支出 1000 億美元。
AI 基礎設施的投入直接決定了模型的效能和服務的穩定性。在 Amazon Bedrock 上,DeepSeek-R1 的首 Token 響應時間透過全託管服務最佳化實現了穩定控制在 2 秒以內,透過無伺服器架構和預置最佳化配置方案,結合 DeepSeek-R1 的強化學習技術(如 GPRO 方法),顯著提升推理效率,確保首 Token 生成速度的一致性。
當下,在實際應用中,越來越多的企業開始探索多模型並行的策略。根據投行 Jefferies 的分析,在多數企業中,只有 3% 的企業只使用單一語言模型,34% 的企業使用兩個,41% 的企業使用三個,22% 的企業使用四個或更多。
DeepSeeK 開啟的低成本 AI 模型狂歡,只是 AI 應用落地的前置條件。隨著未來更多低成本、高效能模型不斷湧現,企業真正需要的是多樣化模型選擇和靈活的部署方式。正如 Andy Jassy 所言,沒有任何單一工具能夠“一統天下”。當開發者被賦予模型選擇的權利時,他們對模型的使用就是多樣的。
2 資料才是真正的“底牌”
當然,作為“大模型貨架”,像 Amazon Bedrock 一般的產品,對外實現功能完備,保障模型品類更新及時,仍然只是“第一步”。隨著企業對 AI 的應用逐漸進入“深水期”,更多的競爭差異會從資料層面體現出來。
這也是為什麼,同樣是接入 DeepSeek 落地應用的企業,有的正在享受“技術紅利”,有的還在原地踏步。
一方面,低質量的資料根本無法“養活”像 DeepSeek 這樣的大模型。比如,某企業在部署 DeepSeek 後,希望透過 AI 模型最佳化其推薦系統,但由於訓練資料中包含了大量噪聲或錯誤資訊,模型生成的推薦結果準確性大幅下降。
另一方面,由於資料通常被分散在多個工具和系統中,企業需要重複進行資料準備和引數調優等步驟,效率低下。工具的不統一,也使得企業難以及時全面監控和分析資料,無法最大化發揮模型優勢。
DeepSeek 只是個開始,為“AI 應用落地”吹哨的除了“大模型貨架”和端到端的技術方案,還需要資料基礎設施的進一步升級。
這幾年,無論是亞馬遜雲科技、微軟 Azure 還是谷歌雲,都在提升自己的資料處理能力。
以亞馬遜雲科技為例,其資料底座 S3 不僅支援海量資料的儲存和管理,還透過引入 S3 Intelligent-Tiering 和 S3 Glacier Instant Retrieval 等功能,降低資料儲存成本,為 AI 模型的訓練和即時資料分析提供基礎。
為了簡化資料整合和 ETL 流程,亞馬遜雲科技推出了 Glue,不僅支援資料的自動化整合,還透過引入 Glue DataBrew 和 Glue Elastic Views 等功能,進一步簡化了資料管道的構建和管理。這種端到端的資料整合能力,使得企業能夠更高效地整合多源資料,為 AI 模型的訓練和最佳化提供高質量的資料支援。
在 AI 開發領域,亞馬遜雲科技在 2024 年 re:Invent 上宣佈 SageMaker 再度進化,為所有資料分析和 AI 提供一站式服務。下一代 SageMaker 幾乎涵蓋包括資料探索、準備與整合、大資料處理、快速 SQL 分析、機器學習模型開發與訓練,以及生成式 AI 應用程式開發所需要的全部元件。
過往企業在開發 AI 應用時,通常使用多種工具來完成不同的任務,例如使用 comet 跟蹤和管理訓練實驗,使用 deepchecks 評估模型質量,使用 fiddler 監控生產環境中的模型效能,以及使用 LAKERA 保護 AI 系統免受安全威脅。這些工具往往分散在不同的平臺中,開發者需要在它們間頻繁切換,這種重複勞動既降低了工作效率,又增加了出錯的風險。下一代 SageMaker 透過整合 comet、deepchecks、fiddler 和 LAKERA 等 AI 應用程式,支援從實驗跟蹤、模型評估到效能監控和安全防護的全流程管理。
至於最基本的資料質量問題,為了幫助企業構建高質量的資料管道,下一代 SageMaker 提供了自動化資料清洗工具,能夠識別並修復資料中的噪聲、缺失值和異常值。同時還集成了即時資料質量監控功能,能夠動態檢測資料流中的質量問題,提供即時反饋。
如果說 Amazon Bedrock 解決的是大模型落地的效率問題,那麼下一代 SageMaker 解決的就是資源利用和資料分析等大模型落地的速度問題。而這些,既是企業透過 AI 實現商業價值的關鍵驅動力,也是雲廠商在 AI 時代的底牌。
今日好文推薦
Rust粉絲破大防!TypeScript之父選Go語言重寫編譯器,效能飆升10倍引戰:Rust不香了?
“AI原生”標準MCP突然爆紅!引爆LangChain大佬“內戰”:是顛覆OpenAI的技術突破,還是配不上當前關注的玩具?
12 人小團隊如何成就英偉達萬億市值?CUDA 架構師首次親述真正的算力“壁壘”形成過程
程式碼界的“瘟疫”?卡帕西“Vibe Coding”興起,YC披露:1/4新創公司,95%程式碼全由AI生成
直播預告
智慧編碼工具層出不窮,究竟怎麼選、如何用?3 月 5 日 -14 日,InfoQ 極客傳媒將發起「智慧編碼系列」直播,邀請阿里、百度、騰訊、位元組、商湯、思碼逸等企業一起線上 Coding,與所有開發者直觀感受和評測數款國內外線上編碼工具在企業真實生產場景中的表現。歡迎掃碼或點選按鈕一鍵預約直播!

相關文章