當所有人都在猜測蘋果國行 AI 的下一步棋會落在哪裡時,答案既出人意料又在情理之中。不是最熱鬧的,不是呼聲最高的,也不是反對聲最強烈的,而是最低調的那個——阿里。
據外媒 The Information 報道,蘋果最終選擇了阿里作為其國行版 AI 的合作伙伴。
在昨晚釋出的文章中,我們也注意到評論區網友態度的兩極分化。有人認為阿里是實至名歸的最佳人選,也有人對蘋果繞過 DeepSeek 而選擇阿里表示不解。
但如果回望整個篩選過程,DeepSeek 被蘋果放棄或許真的不冤。

01 阿里 Qwen 模型什麼水平
在諸多 AI 大廠裡,阿里大概是最深藏不露的那位。
很多時候這不一定是劣勢,在動輒瞬息萬變的 AI 行業裡,有時候「不夠性感」反而是最大的優勢,因為它的另一面往往意味著腳踏實地。
從技術實力這個最核心的維度切入,開源社群就像一面照妖鏡,能照出真實的技術實力。而阿里是國內少數能在這面鏡子前立得住、站得穩的廠商之一。
這一點,從全球最大 AI 開源社群 Hugging Face 的最新開源大模型榜單就可見一斑,排名前十的開源大模型全部是基於阿里通義千問(Qwen)開源模型二次訓練的衍生模型。

該榜單是目前全球最具權威性的開源大模型榜單,其測試維度涵蓋閱讀理解、邏輯推理、數學計算、事實問答等。
另一個不爭的事實是,打造技術品牌這句話的含金量還在不斷上升。叫好又叫座的通義千問 Qwen 大模型已然超越 Llama,成為開源社群公認的標杆基座模型。
作為業界率先實現「全尺寸、全模態、多場景」的開源大模型,阿里雲 Qwen 模型更是為開發者和企業提供了從 1.5B 到 72B 乃至 110B 的尺寸及版本,充分滿足不同應用場景的需求。
其中,僅視覺理解 Qwen-VL 及 Qwen2-VL 兩款模型,全球下載量就突破 3200 萬次。一週前,Qwen2.5-VL 迎來全新升級,再次點燃了開源社群的熱情。

資料會說話,在 Hugging Face 2024 年的開源模型榜單中,Qwen2.5-1.5B-Instruct 以 26.6% 的下載佔比,成為全球開發者最青睞的開源模型。
目前,Qwen 衍生模型數量已突破 9 萬,發展成為全球最大的開源模型族群。
在推理模型的技術浪潮中,Qwen 展現出強大的引力場。近期,被稱為「AI 教母」的李飛飛團隊用較少的資源和資料訓練出的 s1 推理模型同樣基於 Qwen-32B 蒸餾的模型,在多項能力上實現了對標 OpenAI o1-Preview 的效果。

這些成果皆源於 Qwen 模型過硬的基礎實力,但同理也正是這份實力,讓阿里有底氣接下蘋果對 AI 功能的高標準要求。
此外,與其他 AI 初創企業相比,阿里作為中國老牌 AI 巨頭的優勢不言而喻,它更熟悉國內使用者需求,也更瞭解資料合規政策,這些都為蘋果 AI 功能的本地化適配和快速落地提供了重要保障。
當然,雖然阿里最終勝出,但這個結果並非一開始就已註定。在過去數月裡,蘋果對包括騰訊、字節跳動、DeepSeek 在內的多家候選企業進行了多輪考察。

在近期財報電話會議上,蘋果 CEO 蒂姆·庫克(Tim Cook)就曾盛讚 DeepSeek。
庫克指出,DeepSeek 在降低 V3 模型訓練和執行成本方面取得了顯著創新。他強調,推動效率的創新是非常積極的事情,這也是 DeepSeek 所展示出來的。
然而,受限於團隊規模和大客戶服務經驗的不足,DeepSeek 遺憾出局也不足為奇,這一點在「伺服器繁忙,請稍後再試」上就有所體現。相比之下,阿里雲的技術底盤和基礎設施可為蘋果提供本地化算力支援的優勢則更加突出。

更重要的是,透過與阿里合作,蘋果希望推出符合中國使用者習慣的 AI 功能(如智慧語音、視覺理解等),提升產品競爭力,扭轉市場頹勢。
報道稱,目標明確的蘋果希望找到一個能夠基於使用者個人資料,並理解中國使用者需求的合作伙伴,這也是打造 Apple 智慧的重要一環。
而當蘋果評估多家中國公司開發的 AI 模型時,蘋果對這些模型在理解使用者意圖及將使用者的實際手機使用情況融入生成的響應方面的能力感到不滿意。
能否經得起挑剔目光的審視,扛得住嚴苛場景的考驗,蘋果國行 AI 選擇阿里或許是這個問題最好的回答,也是對 Qwen 實力最好的認證。
02 iPhone 用上 Qwen 後,這些體驗將被重塑
在手機行業迎來新一輪技術變革之際,OPPO 首席產品官劉作虎早在去年 OPPO AI 戰略釋出會上做出了一個重要判斷:「AI 手機將是繼功能機、智慧機之後,手機行業的第三個重大的變革階段。」
AI 手機的發展描述為三個階段,首先是應用級 AI,讓單個應用更智慧;其次是系統級 AI,將 AI能 力整合到作業系統層面;最終達到「AI 即系統」的階段,讓 AI 成為手機互動的核心。
包括近期隨著 Deepseek 的爆火,AI 在手機領域的應用形態也越發清晰,手機廠商普遍採用「端雲協同」的方案:輕量級任務由手機本地處理,複雜任務則轉交雲端。

Apple 智慧在去年 WWDC 大會後也展示了類似的分層架構:
本地模型:主要是經過微調的 3B 小模型,專用於摘要、潤色等任務,經過介面卡的加持後,能力不弱
私有云計算:本地模型滿足不了要求的,會傳到雲端運算。蘋果確保端到端加密,保障使用者資料的安全和隱私
第三方 LLM:用於泛用的知識問答聊天,如 Siri 等應用接入了 ChatGPT 等外部模型
如無意外,在與阿里的最新合作中,Qwen 模型很可能以兩種形式融入 iPhone 生態,其一就是本質上類似於外掛的形態,以第三方 LLM 的身份提供全功能 AI 服務。
這種策略與蘋果在海外市場接入 ChatGPT 的思路一致。但正如其與 OpenAI 的合作並非獨家,未來可能會將 Google Gemini 或 Claude 等模型整合到海外 iPhone 中,國內市場同樣可能引入更多本土國產 AI 模型。
其二則是與阿里合作部署開發蒸餾版小模型。與 DeepSeek V3/R1 專注於 671B 超大模型不同,Qwen 走的是全方位路線,即便是聲名鵲起的 DeepSeek 公司,在其 6 個開源蒸餾小模型中,也有 4 個選擇基於 Qwen 構建,而這本身就是對阿里技術實力的最好背書。

插個題外話,儘管 Deepseek 曾釋出超越 OpenAI DALL·E 3 的多模態模型 Janus-Pro-7B,但 DeepSeek 在 C 端目前尚不支援多模態能力。而 Qwen 真就人無我有,人有我也不差,最新發布的 Qwen 2.5 Max 同樣躋身最具競爭力的頂級多模態模型。
值得關注的是還有模型壓縮技術的突破。2024 年,中國廠商在 AI 模型最佳化方面取得了顯著進展,透過最新量化和剪枝技術在保證輸出質量的同時大大精簡了引數規模。
比方說,據 Canalys 報道,小米的 MiLM2 將模型引數從 60 億剪枝至 40 億,而榮耀和 vivo 也分別將其模型引數從先前的 70 億剪枝至 30 億。而通義千問使用結構化剪枝同樣將 7B 引數的模型壓縮到 2.2B,並保持相當的理解和生成能力。

在工具層面,蘋果的 Core ML Tools 同樣支援對模型權重進行量化,可以將預設的 float 32 精度降低至 float 16、8 位、7 位,甚至 1 位,不僅能夠大幅降低模型的儲存空間和計算資源消耗,還能提高推理過程的穩定性和結果可靠性。
量化過程不會改變中間張量的精度,這些張量通常保持為 float 32 或 float 16 精度,並在執行時將權重去量化以匹配中間張量的精度,從而提高推理結果的準確性。
甚至早在去年,透過一系列最佳化技術,包括低位元位面化、啟用量化、嵌入量化、高效的 KV 快取更新以及使用 Talaria 工具進行延遲和功耗分析,蘋果在 iPhone 15 Pro 上執行的 3B 模型實現了首個 token 僅需 0.6 毫秒的延遲,每秒可生成 30 個 token,打造了流暢的體驗。

當然,Apple 智慧的終極目標是打造一個真正的系統級 AI 助理。
模型是入場券,生態才是最終的王牌。阿里生態涵蓋電商、支付、本地服務、文娛,與 iPhone AI 深度合作後,未來,使用者可能只需透過簡單的語音指令,就能無縫完成服務預訂的全流程操作,甚至還有望撬動來自釘釘等企業端的資源,進一步拓展應用場景。
AI 手機的競爭正在從單純的技術比拼,轉向生態整合和使用者體驗的比拼。廠商們需要在本地算力、雲端能力和生態協同三個維度上共同發力,才能打造真正打動使用者的 AI 手機。
從市場反應來看,這次合作也遠超預期。而無論是 DeepSeek 的爆火,還是這次蘋果與阿里的「聯姻」,屬實是應了那句話——真正的高手,宛如大江東去,看似平緩無聲,卻暗藏洶湧偉力。
來源 | APPSO(ID:appsolution)
作者 | 發現明日產品的 ; 編輯 | 荔枝
內容僅代表作者獨立觀點,不代表早讀課立場
