湖南95後女博士,力挑谷歌,要造思考時“不發燒”的AI

作者丨黎曉梅
編輯丨劉恆濤
一個饅頭的熱量(約20瓦),就能完成需要上萬瓦電力的運算?
這是陸兮科技衝擊的目標。陸兮科技在2023年由兩位95後女性創立,是國內首家“類腦計算生態鏈”企業。2024年,陸兮科技推出了首個非Transformer架構、採用類腦技術路線的國產自研大模型—NLM模型。NLM模型高效低能耗,推理效率提升了數倍,能耗卻降低了80%以上。
目前,該模型已透過國家網信辦“生成式人工智慧服務”、“深度合成演算法服務”兩項備案,獲准上線公開執行。
作為Transformer架構的挑戰者之一,陸兮科技以類腦演算法搭建全自研架構,力爭突破Transformer的技術壟斷,以及對英偉達等高製程晶片的依賴。在宏大的目標前,陸兮科技的底氣何在?
挑戰Transformer 做主權AI
2017年穀歌提出的Transformer架構,帶動了新一輪AI工業革命。透過自注意力機制和位置編碼,Transformer成為了大模型主流演算法底座,引領了AI的未來。
但如今,Transformer的影響正在減弱。由於計算複雜度高、訓練和部署成本居高不下、依賴高效能的GPU和大量儲存空間,Transformer架構所需的算力競爭難以為繼。
陸兮科技創始人兼CTO周芃舉例,Transformer 遵循暴力解法,每推出一個新的Token,就必須回溯所有的Token。就像是讓AI讀了一本書,之後每回憶書中的部分內容,AI就要把全書內容全部再讀一遍,由此帶來了大量算力消耗。
一場針對Transformer架構的挑戰正拉開帷幕。挑戰者包括微軟和清華推出的RetNet;卡內基梅隆大學和普林斯頓大學研究團隊推出的Mamba;華中科技大學、字節跳動和香港大學推出的Liquid架構等。
挑戰者有一個共同的思路:讓底層架構演算法降本增效。周芃認為,陸兮科技採用的“類腦演算法”技術路線具有顯著優勢。“人工智慧的浪潮,最初是由大腦的啟發開始的。人腦是當今運算能效比最強、能耗最低、成本最低的計算單元。目前人工智慧領域的頂尖學者們都有一個共識,他們認為下一代人工智慧是向大腦靠齊的。”
類腦架構的本質,是模仿人腦的神經元結構和功能,實現高效的運算與儲存機制。和Transformer的暴力解法不同,人腦在運算時僅調取直接相關的神經元,其餘神經元處於休眠狀態,這樣就能減少無效計算。還是以讀書做比喻,類腦架構大模型可以直接定位到相關章節,無需從頭到尾再讀一遍。
圖:類腦模型的引數量級 + 款型
“我們大腦只耗20瓦的功耗,但現在的算力中心,搭載Transformer架構大模型,完成同樣的計算,可能耗上萬瓦的電。類腦計算是下一代AI的關鍵。” 周芃表示,Transformer是驅動了上一輪AI工業革命的蒸氣機,但其已過時。新一代類腦架構才是真正能夠帶領人類走向通用人工智慧的高速鐵路。
周芃是湖南人,1996年出生,16歲考上華中科技大學啟明實驗班,2022年,在加州大學聖克魯斯分校獲得博士學位。畢業前後,周芃在多家海外頂尖實驗室與人工智慧企業工作,進行類腦智慧研究。她發表了多篇論文,獲得了多項專利,在多個頂級期刊和會議擔任審稿人,還是多個海內外開源大模型社群的核心貢獻者與首要研發者。
周芃的研究興趣橫跨類腦硬體設計與類腦軟體演算法,在軟體硬體雙向定製研發、交叉賦能、提升AI軟體硬體匹配程度上取得了全球獨家學術成果。2023年,國際電氣電子工程師協會(IEEE)向周芃頒發了電路與系統領域年度最高學術獎項“達靈頓獎”(The Darlington Award)。時年27歲的周芃,是該獎項設立以來最年輕的得主。
周芃一直關注國內主權AI的發展,加上西方國家對華裔科研人員的區別對待,她決定回國創業。周芃認為,在國際AI競爭的大背景下,中國必須做主權架構模型。“為什麼有安卓,我們還要做鴻蒙?為什麼有英偉達,我們還要做昇騰?自研架構是主權問題。”
2023年,周芃和學生時代結識的好友汪博倫,一起回國,在深圳成立公司,汪博倫任CEO,周芃擔任CTO。公司名字“陸兮科技”,取自第一位直立行走的人類“Lucy”。
打破對英偉達的依賴 能耗降低80%
類腦架構的落地,是一場橫跨演算法、晶片與半導體的“極限挑戰”。演算法上,要模擬人腦的稀疏計算;晶片設計要存算一體,還要突破國產低製程晶片的效能瓶頸。
“傳統的AI以資料驅動為主,但人腦的計算和儲存不是完全分開的,大腦是存算一體的結構。”周芃說道。因此,陸兮科技的業務涉及類腦架構搭建、大模型研發、存算一體研究,以及類腦硬體開發。
然而,類腦架構的演算法、晶片,乃至半導體都存在瓶頸。周芃說,現在是摩爾定律的黃昏,但做類腦架構的大模型,就要將演算法、晶片的難點全部同步突破。
陸兮科技有一支具備晶片-演算法協同設計經驗的團隊,團隊成員來自加州大學聖克魯茲分校、麻省理工大學、清華大學、華中科技大學、電子科技大學、中國地質大學等海內外高校,擁有谷歌、中美相關類腦晶片公司的工作經驗。透過“自研晶片”+“軟硬適配”的思路,陸兮科技試圖打破大模型對英偉達晶片的依賴。
一方面,陸兮科技在國產成熟製程上研發了大模型定製化FPGA晶片,在先進製程上研發了效能強大的大模型ASIC晶片。透過元器件層面的存算一體整合,實現元器件合二為一,打破AI晶片效能“唯製程論”,喚醒了成熟晶片的效能冗餘,用國產AI晶片走出了一條突圍之路。
另一方面,陸兮科技與華為、海光等晶片廠商和全國各地的超算、智算中心積極聯動,開展模型+晶片軟硬體一體化適配,讓類腦架構能在鋪貨量極大的國產成熟晶片上跑起來。
圖:陸兮科技智慧硬體產品
2024年2月,成立一年的陸兮科技,完成“類腦大模型”底座模型研發,隨後推出了全流程自主研發的NEURARK類腦架構。基於NEURARK類腦架構,陸兮科技研發了底座模型、通用模型、行業垂類模型、端側離線模型等多條產品線,滿足不同行業的場景的多樣化需求。
與Transformer架構相比,NEURARK類腦架構運用稀疏啟用機制、隱狀態管理、無矩陣乘法架構等核心技術,精準復刻大腦運算與儲存機制,讓大模型像人腦一樣,僅啟用相關神經元進行計算和儲存,從而減少無效計算。
這樣的架構,在算力消耗、能源消耗、儲存佔用、上下文長度、問答響應延遲等多個維度,實現了數倍的效能提升。
周芃說,NEURARK類腦大模型在推理效率上較傳統模型提升數倍,能耗降低80%以上。這一優勢使其在低製程晶片上的部署表現更為突出,大模型可在包括FPGA在內的低製程+低功耗晶片上,實現10B量級的大規模部署。這對於降低大模型算力與能源消耗、打破晶片行業壟斷有重大意義。
“我們的類腦模型產品線,每款產品都有一個最鮮明的特點:不需要英偉達的GPU就能跑得動。”周芃介紹,“陸兮科技的大引數量級模型,在傳統的CPU叢集上能執行;終端的中級引數量模型,能在筆記本和家用電腦的CPU上執行;而端側小模型,在手機處理器上就能跑。”
全流程自主研發的類腦架構,確保了技術的自主可控,避免了對國外技術的依賴。目前,陸兮NLM類腦大模型,通過了國家網信辦《生成式人工智慧服務備案》、《深度合成演算法備案》,是我國首個採用類腦技術路線、透過兩項備案、獲准上線公開執行的國產自研底層架構大模型。
賦能千行百業 衝擊6000億引數規模
“AI的未來不是快速地流量變現,而是用最前瞻的科技研究、最穩定可靠的智慧產品、最豐富普適的功能,創造新質生產力,賦能千行百業高質量發展。水利預測、醫療康復……這些才是國家真正的需求。”周芃說。
目前,陸兮類腦大模型已在醫療、康養、水利、能源、安防、消費電子等20餘個基礎設施行業實現全面預部署,與中國電子、水利部長江水利委員會、聯通、中國田徑協會等多個國央企、行業頭部企業合作。其中,陸兮科技類腦醫療大模型已在多家三甲醫院、醫聯體網路醫院與重點科室實現全面部署。
在這些應用場景中,陸兮科技的類腦大模型,有效提升了工作效率和準確性。例如,透過對洪澇災害進行預報、預警、預演和預案,提高了災害預警的科學性。
與國央企共同研發推廣通用醫療大模型、糖尿+甲乳專病大模型,提高了診斷的準確性和效率。
在端側,陸兮科技“NLM-GPT”剛亮相時,僅需使用手機自帶處理器與儲存硬體,能在一臺普通安卓手機的離線模式下執行,完成工作與生活中的各項任務。
目前,陸兮科技的端側大模型,已成功部署在手機、手錶、手環、耳機、電視、會議裝置、智慧家居等終端裝置中,並在百元級的消費類電子產品中實現100%離線端側部署。
圖:架構的核心技術說明
在陸兮科技,女性員工數量超過了一半以上,公司致力於性別平等,提倡員工共同養育子女、處理家庭事務,打造一個更包容、支援女性的工作環境。“女性從年輕時就經歷了無數挑戰,形成了強大的韌性,遇到各種艱難險阻,我們都能逢山開路,遇水架橋。陸兮科技創始人的女性身份,對於公司長期、穩健、可持續發展,是極大的優勢。”周芃說。
研究顯示,人腦的突觸連線總數在100萬億左右,相當於100萬億的引數規模。而當前最先進的GPT-4引數規模約為1.8萬億,和人腦引數規模差了55倍。
目前,陸兮科技大模型的引數規模為580億。周芃透露,公司正在衝刺下一量級的規模,預計2025年將大模型引數規模提升至6000億。
周芃認為,類腦架構將會厚積薄發,轉折點就在於模型引數規模的擴大,直到逼近人腦的規模。
“Transformer是近年來發展最快的架構,但之後會趨向平緩。類腦架構在緩慢發展後,將迎來爆發。”周芃對未來的發展信心滿滿。

相關文章