對話念空科技王嘯:量化對沖基金的大模型之路

量化行業再現AI之光,念空攜大模型底層研究首闖國際頂會。

量化基金+大模型=?
在半年前,面對這道算術題,大部分人都會回答DeepSeek,但隨著一篇研究論文的發表,一個新的答案出現了,那就是念空科技。
5月15日,量化私募念空科技向國際頂會NIPS投遞了與上海交大計算機學院合作的大模型研究論文,探討“自適應混合訓練方法論”。
這次的故事,不是量化私募砸錢投大模型獲得瞭如何豐厚的回報,而是念空科技“以身入局”,做出了大模型底層理論的研究成果,成為首家闖入NIPS的中國量化機構。
在唸空之前,DeepSeek是唯一一家量化私募孵化進行大模型底層理論研究且發表研究成果的公司。相較於“前輩”,念空更進了一步。
在DeepSeek基礎上,念空提出了一種全新的更優的訓練方法,幫助大模型提升訓練效率,是量化行業少有的真正的大模型創新性研究。
從技術層面來看,DeepSeek提出了強化學習的重要性,而念空科技董事長王嘯及其團隊發現,相比於DeepSeek先進行一段時間的集中SFT(監督微調),再進行集中RL(強化學習)的做法,將SFT與RL交替進行的方式,能夠得到更好的訓練效果
一直以來,量化行業都被稱為AI的孵化器,念空的技術創新,則實現了讓AI更好地反哺量化行業
王嘯發現,“在過往AI在金融資料上的應用經驗中,金融資料存在數量較少、信噪比低且不穩定的特點,傳統機器學習和深度學習演算法更多是對資料集的擬合,擬合效果完全取決於資料集的資訊含量和資料的穩定性,這決定了傳統機器學習和深度學習等AI演算法在金融和網際網路資料上的應用難點存在巨大的差異。”
實際上,王嘯在ChatGPT出現時,便一早意識到大模型可能會給金融資料的預測帶來幫助,“大模型和傳統機器學習完全不同,大模型可帶來超過子任務資料本身的資訊,且具備跨模態理解能力。”
不僅在技術上有革新,對於產學研結合而言,念空和上海交大計算機學院的合作同樣意義重大。
學術界存在算力和工程經驗相對缺乏的痛點,但具備人才、理論研究和課題方向的優勢,能更好地聚焦底層技術突破,產業界則有豐富的資源和場景推動應用落地,二者實現共贏。
大模型作為AI時代最重要的創新,勢必要經歷研究“走出”高校,研發“走進”高校的階段,抓住科技創新的“浪潮”,跳出閉門造車的傳統研究模式。
一個公司的基因常常決定它今後的命運,和學界緊密聯絡,才能有機會真正成為大模型行業的“搖籃”。撒出一個小小的學術“種子”,卻能在不同領域、不同產業落地開花,改變普通人生活的方方面面。
在量化行業,一直沒有出現一個成熟的大模型應用,念空科技透過走“產學研”的路徑,在大模型量化投資上或將成為“第一個吃螃蟹的人”。
王嘯告訴36氪,如果想將AI更好地在金融領域應用,就必須瞭解大模型底層是如何運作的。
在王嘯及其團隊的大模型訓練經驗中,他們意識到所有垂直領域的訓練工作的核心框架基本一致,所以很容易將一個垂直領域的訓練框架移植到另一個領域。
一個動作側面證明了念空還有更大的“野心”——念空科技同時還孵化併成立了AllMind(全頻思維),未來的主要工作是對大模型底層演算法和工程技術進行研究的同時,更注重包括但不限於金融場景的垂直應用。
量化之於大模型,所能發揮的能量可能遠超想象。在市場越來越關注應用側的大背景下,念空或將從金融AI出發,帶動大模型應用向前一步。
技術信仰和應用為王並行,才能在重構全球AI競爭格局中,幫助中國大模型行業釋放出潛力、噴發出生命力。
企業加高校的組合,還能讓中國基礎大模型能力往前再衝一衝,很大一個原因是中國業界累積的資料和語料是獨有的優勢。
對於一家量化機構而言,持續投入底層理論研究並不是一件投資回報率明確的事情,需要技術驅動的長週期投入,而念空長期堅定選擇深耕這一領域,足以體現其戰略眼光。
從2019年開始,念空科技已將Transformer的演算法應用在實盤產品組合中,這種全鏈條的智慧化也大幅提升了策略開發效率。
從全球範圍來看,隨著AI大模型競爭加劇,對AI演算法就有長期的經驗積累的量化行業的“挺身而出”是站位需要。與此同時,國際量化巨頭在大模型投資方面,仍處於摸索、試驗和輔助階段,念空的選擇也是順應市場變化,為實現“彎道超車”提前做好準備。
AI技術還能給量化投資帶來多少可能性?念空科技在探索大模型上還有多大潛力?帶著這些疑問,36氪和念空科技創始人王嘯進行了對談,以下為訪談精編:
念空做大模型:有準備之仗
36氪:作為一家全球對沖基金公司,念空是怎麼開啟自己的AI之路的?為什麼會出一篇大模型領域的論文
王嘯:最早2017年的時候,我們成立了一個三個人的AI團隊,用一些機器學習的演算法在金融資料上做嘗試。
第一個專案是在期貨上面,但期貨資料的量特別少,而機器學習的演算法運用在資料量很少的樣本上的時候,很容易過擬合,得不到一個好的結果。
2018年,應用到股票上時,發現效果非常好,因為股票的資料量比期貨要大很多。到了2019年,我們把線上的實盤模型90%都轉變成了神經網路的演算法,也就是Transformer。2021年,我們規模達到了百億,也是因為機器學習和神經網路演算法上,整個全流程的應用做得比較好。
2023年是另外一個節點,當時OpenAI出來,我意識到大模型可能對金融資料的預測是有幫助的,因為大模型可帶來超過子任務資料本身的資訊,且具備跨模態理解能力。
我們過去應用AI的這些演算法,絕大部分監督訓練都是對歷史資料的擬合,但是大模型的核心邏輯是不一樣的,所以我們認為它可能是另一個可以預測金融市場走勢的模型。
今年DeepSeek的出現不僅帶來了智慧平權,也揭露了強化學習的重要性,而以前的大模型更多是關注在預訓練的監督微調。
由於我們對大模型一直以來具備一定的認知,且有相當的演算法和算力的積累,所以今年我們做了大模型的基礎理論研究,也就是這篇論文。
36氪:聽上去唸空在做的研究非常前沿,能不能解釋一下到底什麼是有別於DeepSeek的“自適應混合訓練後方法論”?
王嘯:從DeepSeek的訓練方法可以看到,他們的方式更像是集中一段時間學習刷題(SFT),再集中一段時間參加考試,對考試結果進行思考總結(RL)。
而我們從人類的學習方法的經驗得到啟發,如果高頻地在刷題和考試經驗總結之間切換,可能更有利於學習成績(推理能力)的提高。
所以我們設計了一種step by step切換SFT和RL的訓練方法,在下一個step訓練之前根據我們設計的自適應的演算法決定下一個step用SFT還是RL。
最終我們實驗發現,在三個不同的公開資料集上,我們提出的新的訓練框架明顯優於單獨的SFT、單獨的RL以及簡單混合SFT和RL,證明我們提出的新的框架是當下更優的後訓練方式。
36氪:我們注意到,這篇論文是和上海交大計算機學院合作的,為什麼會選擇和高校“共創”?
王嘯:如果想用大模型去做垂直領域的訓練工作的話,你首先得了解大模型訓練的所有訓練細節,這也是我們做這篇論文的出發點,而為什麼和高校合作,是因為學術界和產業界在大模型研究上各有所長和所短,產學結合有取長補短的作用,真正賦能國內人工智慧基礎研究。
36氪:這篇論文的成果其實非常難得和珍貴,因為很多AI公司現在已經退出了底層大模型的研究。
王嘯:對,但更值得關注的事情在於——退出了,然後呢?
像通義千問3的引數量只有DeepSeek的三分之一,但它能力已經超過DeepSeek。這種引數量更少,但能力更強的模型會越來越多,且都是開源的。
以後大部分公司的最大競爭力在於如何用好這些大模型,如何更好地訓練它。
大模型就像一個通用型天才,智商非常高,但是即便這樣一個人,沒有正確的方法教他如何做投資、做量化的話,他也做不到“零幀起手”。
而這一切的基礎都是先要充分理解大模型的底層原理,而理解大模型底層原理最好的方法不是看一千篇論文,而是直接上手實踐。
36氪:在這篇論文的合作過程中,念空和上海交大計算機學院是“互補”的角色嗎?
王嘯:對高校而言,他們有科研能力,但資源和算力不足,比如很多高校的算力不足以做大規模強化學習的訓練,此外他們也缺乏資料,而我們有更多的工程經驗和算力,但是可能沒有形成一篇論文的學術經驗,雙方揚長避短、合作共贏。
36氪:目前念空是否有自研大模型?還是使用開源第三方?
王嘯:我們有自研的垂直大模型,是在通義千問3的基礎上微調得來的。在做一些理論研究的時候,基本是用千問的模型在上面做訓練和實驗。
始於金融AI,不止於金融AI
36氪:目前念空的AI團隊規模如何?
王嘯:整個團隊的話,大概是幾十個AI工程師,70%至80%是從高校自己培養起的,只有少部分是社招過來的。
36氪:大模型工程師的招聘上,選擇在學校從零培養似乎是行業共性。相當於從學校開始培養對量化行業的應用能力。
王嘯:對,因為我們公司內部的平臺完全是IT團隊寫的,所以不管是生產一個因子特徵,還是做這個模型的訓練,都是在一個非常規範和一體化的框架裡面做事情。
所以對方如果有能力的話,在公司實習6個月以上,他就可以當我們公司的熟手,因為已經完全熟悉我們公司的研究工具。
36氪:念空還成立了獨立的AI公司Allmind(全頻思維),和公司內部AI團隊的分工是怎樣的?為什麼要單獨創立Allmind?
王嘯:AllMind的AI團隊和念空的AI團隊在工作內容上有顯著分工。
念空的AI團隊主要的工作內容是利用機器學習以及深度學習演算法對金融資料進行擬合,場景比較垂直,主要負責具體問題的技術研究和模型最佳化。
AllMind的主要工作更多是圍繞大模型進行,包括大模型訓練演算法最佳化和工程技術的研究,高質量CoT資料生產方向的學術探索,包括大模型通用領域的研究工作也有金融場景的垂直應用,希望在AI的基礎研究有所突破從而輻射到包括金融在內的更多領域,為業務提供更多的可能性和想象空間。
由於念空是量化私募基金,盈利企業,而AllMind更著眼於大模型的基礎學術研究和應用,短期內並不以盈利為目的,且兩家公司工作內容完全不同,所以單獨創立AllMind。
36氪:不限於金融場景的其他垂直應用研究,念空計劃如何著手?
王嘯:由於AllMind在大模型所涉及的演算法和工程技術有一定的經驗和認知積累,以及我們利用大模型在金融資料上SFT和RL的後訓練經驗,讓我們意識到所有垂直領域的訓練工作的核心框架基本一致,所以很容易將一個垂直領域的訓練框架移植到另一個領域。
比如所有領域都需要優質的Prompt和CoT資料,都需要先做SFT讓模型獲得某個領域的基本認知後再進行強化學習,都需要一個正確且高效的Reward Model。
AllMind短期內會著眼於訓練一個基於金融資料的專項大模型,也會著眼於解決當前大模型存在的一些痛點,比如提升大模型的邏輯推理能力,減輕大模型的幻覺問題,探索大模型是否能進行自主創新。在未來還會和學術及產業界合作,在新材料、醫藥研發、AI助手等領域嘗試大模型的應用。
36氪:念空的金融大模型技術已經取得成績了,未來會考慮推出面向大眾的普惠金融應用嗎?畢竟這是一個很大的市場,目前也沒有看到特別好的產品出現。
王嘯:我們確實在做一個比較垂直的專案,這個專案可以給普通的投資者使用,可以更好地幫助中小投資者做好交易。
AI會改寫傳統量化歷史嗎?
36氪:量化交易模型是否與AI模型有關聯?是如何關聯的?
王嘯:量化做的事情其實就是對未來做預測,預測未來的一個前提是總結過去的經驗。比如過去五年A股市場有什麼規律,然後應用這些規律來賺錢,這是量化的底層邏輯。
如何總結過去?兩種方法,一種是線性模型,一種是利用AI演算法的非線性模型。
把所有的影響因子加起來,在沒有任何擬合工具的前提下,進行線性的相加,這就是普通的多因子體系。
另外一種方式,將過去五年的基礎資料以及一些特徵透過機器學習和深度學習演算法進行訓練,然後讓模型對過去五年的規律,做一個總結和歸納,這是非線性模型。
傳統的量化公司用的AI技術,通常體現在最底層的AI演算法,對過去的歷史做一個擬合和歸納總結。
而我們現在認為除了直接用機器虛席演算法擬合以外,直接用大模型進行預測也是未來可行的一條路。
36氪:怎麼評價一個量化模型的好壞?因子的多與少重要嗎?
王嘯:所謂的量化模型或者說量化的預測模型,它其實歸根結底都只分為兩種,一種是以統計驅動的,一種是以邏輯驅動的。
如果說只有兩個因子,但那兩個是邏輯驅動的因子,那麼就算是隻有兩個其實都可能是有用的。
但是如果那兩個因子是基於統計,比如用機器學習挖掘,或者一些資料的擬合,然後在歷史中統計一下,那這兩個因子就很危險。
從數量上看,也並不是越多越好。和2000個因子相比,10個因子肯定不夠;但和2000個因子相比,2萬個因子就一定更好嗎?噪音也可能增多。
36氪:大模型的幻覺問題會影響量化過程嗎?
王嘯:量化行業裡面有一個指標叫IC,IC就是正確答案和你預測的答案之間的相關性,如果完全正確,IC就是100%。實際上,比如選股的阿爾法模型,它的IC可能只有15%至20%,也就是說它的預測其實並沒那麼準確。
那些不準的部分也可以認為是幻覺,但是量化交易,並不需要勝率是100%,勝率就算只有49%,也是可能賺錢的。重要的是模型開發完成後進行長期跟蹤,及時剔除失效的模型。
36氪:所以說其實應用AI也並不是一定能提升業績?
王嘯:用AI不但不一定會提升業績,可能會讓業績變得很差。
你可能在訓練的資料裡面擬合得非常好,你以為擬合出了一個非常聰明的模型,但是如果過擬合的話,你把它運用到未來的資料裡面以後,它可能完全是錯誤的,就會讓你虧很多錢。
36氪:看來要做一個量化大模型的護城河還是很高的,就連傳統的網際網路大廠似乎都鮮少涉足這個領域。
王嘯:這個問題就是網際網路用AI和金融用AI的最大的差異。
我們招過很多從網際網路過來的AI工程師,讓他們用AI演算法得到一個AI模型,去預測股票的收益率,但是我們發現10個工程師裡面起碼8個都會失敗。
網際網路的資料量非常大且很穩定,在網際網路行業用AI技術他們可能“得心應手”,但金融資料就完全不是一碼事了。
金融資料很少,而且很不穩定,且信噪比非常低。
比如你學習了過去5年的市場環境,發現了一條規律:股票連漲三天了以後,第四天還會漲。也許牛市是這樣的,但可能未來三年是熊市,這個規律就失效了。
所以在網際網路行業訓練大語言模型,它的難點是如何解決演算法和工程問題,因為它要連線儘可能多的GPU和伺服器進行高效的大規模訓練。
金融行業不存在把GPU連起來的問題,一臺伺服器其實就已經足夠用來做訓練了。但是你不能把它訓練得太好,因為如果把一些不正確的規律擬合得太好的話,未來行情如果不重複或者截然相反時,你可能就會虧錢。
所以金融大模型的難點是如何在過擬合和欠擬合之間找到平衡點。


相關文章