阿里萬相影片大模型,治好了我對Sora的焦慮

點選上方藍字關注“尹哥聊基因”
最近微信改版,容易找不到尹哥的文章,大家記得把尹哥設為星標⭐️ 哦~
去年的這個時候,關於AI的應用我還挺焦慮的,主要是OpenAI Sora的釋出,文生影片已經可以模擬物理定律,給幾個函式,就能夠去模擬現實,我當時稱之為開啟了AI發展的牛頓時代。而今天,我很欣喜的使用了阿里萬相 2.1,我覺得國產AI的硬核實力確實趕上來了!
其實Sora正式釋出後,效果並沒有宣傳片那麼好,這個也可以理解。但阿里萬相的這次升級,在它的影片質量上確實大幅提高了,而且能看到它們引入了多模態的融合技術,包括動態場景的分層渲染,能夠更精準地處理複雜光影、材質和運動軌跡,細節表現力很到位,也幾乎沒有違反常規的物理定律。這讓我想到基因組學的奧秘——並不是基因數量越多,生命就越成功,而是表達效率決定生存優勢。
阿里萬相2.1此次還加入了14B和1.3B兩種模型規模,分別面向高效能場景和輕量化需求。14B模型在複雜場景下表現尤為出色,而1.3B模型則更適合移動端和即時應用。我測了一下,生成5秒短影片,僅需8G左右視訊記憶體便能在4090顯示卡上生成。
△ 尹哥模擬的家裡貓的情況(提示語:一隻美國短毛貓和一隻英國短毛貓一起在帶一隻緬因貓的寶寶)
最重要的是,萬相2.1的部分模型將開源!這意味著開發者可以基於萬相2.1進行二次開發!可以說,這是一次讓“文生影片”能夠平權的重大突破。開源不僅是技術的共享,更是生態的共建,它將吸引更多創新力量加入,共同推動AI影片生成領域的進步。
如果說DeepSeek治好了我們的算力壟斷焦慮,那麼包括萬相在內的一系列大模型如雨後春筍般的突破,則讓我們看到了在各個應用上,中國逐步開始領先的可能。這是技術的突破,更是東方智慧的突破,這是開源的勝利,更是“兼濟天下”價值觀的大獲全勝!
「2025-02-24 期」贈書福利獲獎名單
恭喜以下粉絲獲得
針戰:美國首部中醫法的誕生
1本
請於3月2日前在今天的推文下留言
【姓名+電話+地址】
逾期不候哦~
(留言不會被精選出來,請放心)
@ L.YS. @ 韓海超 @ Lily
— END —


相關文章