初五大家都在迎財神了,這是咱們本年度的第一篇文章。咱也不說啥虛的東西,稍微展開講下未來可能的機會和方向。
不過在那個時候,人工智慧領域要想在應用端加速落地還有個阻礙,就是使用成本實在是太高了。
因為要完成複雜的問題推理和大模型搭建,就需要不斷的投資堆算卡和算力,這些都需要折算到單次使用費用中來。
其實任何產品和應用在市面上普及,都要考慮一個成本問題,只有成本夠低經濟效益足夠強的時候,才會大面積鋪開應用。
很簡單的例子就是,如果生產線上用機器人比人貴,那麼機器人就不可能在生產線普及,因為這樣的話還不如多僱個人。
但是在這個春節假期前後,在人工智慧領域一個里程碑式的變化出現了。
DeepSeek最佳化演算法之後,可以用更少的卡和算力,訓練出和很多大廠效果差不多,甚至某些方面表現更好的模型。
這個演算法最佳化以後出現的成本大幅降低,可能不僅僅是節約成本這麼簡單,甚至有可能是一種improvement of scaling law。
因為這樣的改進出現以後,意味著使用這種最佳化方法之後,同等算力的情況下能大幅提升模型的表現。
如果往上堆更多的卡,就有可能把模型能力再往上提升一個數量級,甚至達到AGI或者ASI的水平
所以我們看到,現在很多公司都改變了原來的思路,轉向採用DeepSeek的思路。
後面除錯完成之後,市面上所有的大模型能力提升一個量級的情況,應該也很快就會發生。
這個事情真的讓人很激動,甚至可以說是人工智慧發展過程中里程碑一樣的事件。
假期我們查了很多關於目前人工智慧進展的資料,也看了很多各種各樣的分析,這裡也講講自己的感受。
說起來人工智慧這個領域的研究,並不是現在才開始的事情,十多年之前矽谷那邊就開始搞人工智慧研究了。
真正有點突破,是2012年AlexNet出現影像識別精度帶來的衝擊,這時候人工智慧開始進入到一個新的時代。
那時候的AlexNet錯誤率遠低於當時其他模型,引起了研究人員的極大興趣,從而復甦了沉睡幾十年的神經網路研究
後來到了2016年的時候,谷歌搞的AlphaGo開始下圍棋了,這應該算是人工智慧真正進入到1.0時代。
之所以說人工智慧進入到1.0階段,是因為這個階段影像和影片的識別技術,也有了比較大的突破。
這個階段矽谷很多人覺得,未來這是個很大的方向,於是後面很長時間整個矽谷都把資源和精力投入到這個方向上。
不過雖然大家在上面投了很多資源和錢,但是並沒有獲得什麼實質性的收穫,開發出來的
產品甚至有點一言難盡。
因為這個階段的人工智慧產品我自己也接觸過,老實說接觸下來的感覺有點像人工智障的感覺。
除了某些細分領域之外,可能大多數領域基本沒法用,後面很長一段時間,也就沒再太多關注人工智慧這個方向了。
有時候想想技術創新這東西很像是探險或者探路,既然是探險或者探路里面就有很多未知的東西,中間也會存在各種風險。
比如說哥倫布時代有人說大洋對岸有新大陸,你要花大量的時間金錢冒著風險去探險吧
但是沒人知道新大陸在哪裡,然後就是一幫人憑著信念衝進去,不停的投資源投錢找方向
可能你砸了很多錢和資源進去,中間甚至還可能迷路染病,丟盔卸甲死了不少人。
最後卻發現折騰半天並沒有啥收穫,錢白花了資源也白投了,這在探險裡面是常見的事情,同樣在技術創新裡是很常見的。
下一個轉折點發生在2017年前後,谷歌做了個叫transform的語言模型,不過這個語言模型的主要方向是做翻譯。
這個模型做完之後,谷歌自己也沒有深入往下搞。因為翻譯這個市場大家都感覺太小了,根本沒辦法和圖形影片識別比。
所以市面上主流的大廠,還是把錢和資源都往影片和圖形方向投,基本沒啥人關注這個語言模型的方向。
這時候OpenAI在市面上出現了,這個公司幾個創始人覺得語言方向是有搞頭的。
畢竟從古到今人類文明和智慧,基本都是靠語言和文字來傳承的,影像和影片也就最近幾十年的東西。
現在回頭看,往這個方向努力確實是對的。最後也真的讓他們搞出來了,所以才有了2022年11月的ChatGPT的釋出。
在這之後大家都發現這是一條陽光大道,所有資源都開始往這個方向集中堆了。
每家都在各種融資燒錢加大模型和資料的投入,想透過堆資源和算卡的方式繼續提升模型的能力。
不過這麼投了一段時間以後,發覺錢和資源燒了不少,但是模型的能力提高又進入瓶頸了。
這個階段OpenAI做了第二個方向性的嘗試,就是在模型不是很大的情況下,開始了推理的學習。
透過不斷最佳化推理能力,對模型和資料持續進行訓練,就可以讓模型的能力出現成百上千倍的提高。
這等於說OpenAI又發現了一個訓練大模型的新路徑,在2024年9月24日它的o1 model釋出,講的就是在複雜推理方向的敘事。
這個階段矛盾的店在於:雖然OpenAI找到了推理這個方向,但是單次使用的成本還是太高了。
之後就是人工智慧突破性發展的第三個標誌性事件出現了,DeepSeek透過最佳化演算法大幅降低了推理的成本。
演算法最佳化以後,成本降低到原來的百分之幾,差不多降低了兩個數量級的水平。
當然了DeepSeek往這個方向努力,某種程度上也是因為我們算卡這塊受到了限制,所以整體算力和那幾家巨頭差距是比較大的。
也就是因為這個原因,所以需要找到更便宜更省力的方法,來完成模型推理方向的訓練,他們也確實做到了。
在模型單位使用成本降低這麼多之後,帶來的影響和變化是非常巨大的。
成本限制的天花板開啟之後,後續會大大加速後續應用端的落地速度,人工智慧的新時代就要來了。
只不過現在的演算法最佳化,更多的是在在相同規模下提升效率,而不是直接擴充套件能力邊界。
最佳化演算法以後確實可以用更少的資料達到更好的效果,但可能沒辦法帶來的模型能力的數量級提升,比如達到從GPT-4到GPT-5的跨越。
原因是當前模型的複雜推理等能力,依然是高度依賴模型規模和資料多樣性的持續擴充套件的。
但是演算法最佳化這個操作,更多是“在相同規模下提升效率,而不是直接擴充套件能力邊界“。
這麼講可能有點複雜,不太容易看得懂。簡單說就是算卡或說算力還是越多越好,這東西和大模型能力直接相關。
現在演算法最佳化找到了省錢的思路,scaling law規律得到改進,但並沒有完全顛覆。
後面這些人工智慧的頭部玩家們,很快也都會意識到這一點,然後加大算卡算力的投入。
那時候大家很快都又要重新拼卡拼引數了,可能和之前的差異是不單單只是傻傻的拼卡拼引數了。
另外伴隨著DeepSeek對推理能力的最佳化和效率的提升,未來有幾個變化也會逐步浮出水面。
首先是人工智慧領域對晶片和算力的需求,未來會隨著模型效率的提升持續不斷的增長。
之前很多人覺得說,演算法最佳化以後效率提升了兩個數量級,差不多就是提升100倍的樣子。
在這種情況下,大家都會思考未來算卡或者說算力晶片是不是不需要這麼多了。
美國資本市場這段時間,英偉達這種算力公司帶動市場出現大跌也是這個原因。
其實這是非常靜態的思考方式,這個事情可以用19世紀蒸汽機改進之後,效率出現大幅提升的情況來解釋。
當時很多人會覺得,英國蒸汽機效率大幅改進之後,煤炭的消耗是不是會大幅度降低,但結果是煤炭的消耗出現了大幅提升。
原因是早年蒸汽機效率沒這麼高的時候,由於蒸汽機使用成本太高,好多場景都沒辦法使用。
但是隨著蒸汽機效率提高,蒸汽機的使用成本提高,越來越多的場景開始大規模應用蒸汽機,這反而提高了煤炭的整體消耗。·
舉個例子說,假如一臺蒸汽機一天要用10噸煤工作,那麼這時候只有每天產生效益大於10噸煤成本的地方才能使用蒸汽機提高效率。
假如有個工程師把蒸汽機效率提升了100倍,變成每天只需要用100公斤煤就可以了。
效率大幅提高成本大幅降低以後,你會發現越來越多的場景,可以使用燃煤蒸汽機。
比如你可以用蒸汽機開火車了,可以用蒸汽機做磨坊了,還可以用蒸汽機抽水了。
使用的場景越來越多,你會發現蒸汽機的數量也越來越多,可能從過去的100臺變成了十萬臺甚至上百萬臺。
每臺每天消耗100公斤煤炭的話,你會發現隨著蒸汽機數量越來越多,煤炭的整體消耗量也在不斷提升。
所以很多東西站在靜態的角度是得不出有效結論的,如果從動態角度思考的話你會發現未來的變化會很大。
其次類似蒸汽機效率的提升,DeepSeek效率提升對整個AI領域應用加速落地的影響,我們認為是非常大的。
從AI應用落地的角度講,DeepSeek帶來的效率大幅提升,意味著AI應用落地的成本越來越低了。
過去很長時間,AI應用落地有個很大的阻礙,就是折算到單次使用成本確實是太貴了。
原因是你問AI一個問題,它需要用電力算力來算答案,這背後的電力算力消耗和算卡投資都是成本。
所以我們看到OpenAI推出過200一個月的版本,雖然很多人覺得這個版本已經挺貴了,但是它還是虧錢的。
原因是搜尋和推理兩種不同的執行方式,本身的成本和資源消耗差異是很大的。
你要搜一個東西它很快就能搜出來,瞬間就能給你對應的回答,但你要用到邏輯推理的話是完全不同的。
比如說你要搜挪威首都是哪裡,瞬間AI就可以給你個準確的答案出來,因為這時候AI只需要簡單的搜尋和收集資訊。
但是你如果問他一個比較複雜的問題,比如說你要去挪威旅遊,需要AI幫你安排行程。
比如訂哪些你喜歡的旅館,機票有什麼選擇,需要在哪裡轉機,這類複雜問題消耗的算力,是簡單問題的幾千上萬倍。
這時候AI除了收集資訊還需要推理分析,這塊需要耗費的算力和資源規模是巨大的。
從經濟性角度考慮,如果一件事情AI幫你做,你需要花幾千塊成本的話,那麼你可以就要想想,這個事情是不是自己做更合算。
但如果只需要花五十或者一百塊就能做這件事,很多人可能想都不用想就讓AI去做了。
所以伴隨著DeepSeek演算法最佳化帶來的效率提升,我們會發現模型使用價格的大幅下滑,會使得AI的應用面越來越廣。
這裡我們也可以得出個結論:DeepSeek帶來的效率是AI領域一個里程碑式的事件,就像蒸汽機發明以後效率提升之後的情況一樣。
一方面就像蒸汽機效率提升之後,對蒸汽機和煤炭會出現很大程度上的需求提升一樣。
AI領域的演算法和效率提升,帶來的應用端價格下行,會使得未來對晶片和算力的需求進一步提升。
應用端價格下行,又會進一步推動AI應用的快速落地,讓AI應用拓展和滲透到我們生活的方方面面。
現在回頭看的話,最近兩年人工智慧發展的速度,甚至比之前我們預期的還要快一點。
當時我們提出一個觀點,我們認為這次AI的浪潮非常大,甚至可能是未來十年甚至二十年,唯一肉眼可見的增量機會了。
我個人覺得,現在人工智慧也只是到了2000年初那個網際網路新浪潮,或者說是泡沫剛剛出現的階段。
現在充其量,也就是了鋪設基礎設施的階段而已,後面大機率應該還有十年到二十年的發展。
而且從現在各個人工智慧大廠努力的方向看,如果演算法進一步最佳化成本進一步降低,算力和推理能力進一步提升,真正意義上的AGI就要出現了。
這裡所謂的AGI也就是通用人工智慧, 是一種能夠像人類一樣在各種智力任務上,表現出普遍優秀水平的人工智慧系統。
大白話講就是,人類能做的智力活動機器都能做,甚至比95%以上的普通人做的要好。
這個通用人工智慧模型落地的時間點,幾家頭部大廠預計最長五年時間會出現,短的甚至說兩三年就有可能出現
我們的預計時間沒有這麼樂觀,要比他們會稍微長一點,但是也不會長太久的樣子。
如果說通用人工智慧可以在成本可控的情況下落地,疊加近年來快速發展的機器人技術,未來的應用市場和空間是非常廣闊的。
因為假如人類可以用比較低的成本做出來AGI,意味著在很多場景都可以落地AGI應用,實現效率的大幅提升和很多崗位的替代。
畢竟對商業來說效率和成本永遠是第一位的,如果說AI這東西用起來太貴了,甚至比人還要貴的話,那麼應用的場景就非常有限。
比人還貴我直接僱人不就完了,還費半天勁搞什麼AI和機器人替代,那不是要花更多錢麼。
只有人工智慧使用費用越來越便宜,用它的人才會越來越多,在越來越多場景我們才會看到人工智慧應用落地。
我們認為這是一個幾十萬億美元的市場,這裡的潛在機會甚至超過過去十年甚至二十年的網際網路,未來肉眼可見的增量機會也在這裡。
如果你確實想幹點事,上一個網際網路時代的錯過的話,這次人工智慧時代帶來的變革和機會千萬別錯過。
後面我們自己也會AII IN這塊,全力參與這次新浪潮,並且努力在裡面尋找合適的機會,這點和大家共勉。
文章到這裡就結束了,最後祝各位親愛的小夥伴蛇年身體健康,事事順心,好運常在。
防槓宣告:本篇只是個人的一點片面的、靜態的、相對不成體系的一些看法。
個人水平有限,不排除觀點存在偏見和錯誤,大家很多東西沒必要爭論,求同存異就好了。
點選關注下方賬號,獲取最有用資訊和投資趣聞,每篇文章都有彩蛋或者驚喜!!
延伸閱讀: