模型 GitHub 下載地址:https://github.com/apple/ml-fastvlm沒搞釋出會,也沒在官網上大張旗鼓宣傳,本來我也沒太在意,但當技術部老哥將這款模型在頂配 iPhone 16 Pro Max 跑起來後,我承認有些坐不住了。一句話概括,這個模型很「蘋果」。模型啟動速度極快,識別影像的能力也不錯,全程本地執行,沒有云端那一套操作,看起來不驚豔,但用起來……有點意思。我承認,有那麼一瞬間,我覺得蘋果 AI 又支稜起來了。
FastVLM 快、小等特點,更像是為裝置形態的收斂所服務:體積小,適合部署在端側;響應快,符合智慧眼鏡的場景感知;以及無需聯網,資料不出本地,天然安全。儘管蘋果在去年 WWDC 大會上所畫的大餅至今尚未實現,但這並不妨礙蘋果是有野心的,去年蘋果 WWDC 就已經明確傳遞出一個訊號:AI 不再只是功能級的補丁,而是要被深深嵌入到系統底層。和許多 AI 公司以 API 為介面、以呼叫為主線不同,蘋果的目標不是打造一個「有 AI 的產品」,而是「將 AI 變成產品本身的一部分」,乃至成為 OS 的底層組成。