OpenFOAMGPT團隊 投稿量子位 | 公眾號 QbitAI
又一專業領域成功引入AI工程師!
而且還是基於DeepSeek、Qwen等國產大模型打造,國內研究人員都能用的那種。

不賣關子了,這就是由英國埃克塞特大學初旭副教授團隊與北航王文康副教授團隊聯合打造的OpenFOAMGPT,將AI工程師成功引入計算流體力學(CFD)領域。
作為一門介於數學、流體力學和計算機之間的交叉學科,CFD主要研究如何透過計算機和數值方法來求解流體力學的控制方程,對流體力學問題進行模擬和分析。
而兩位華人副教授領銜的這項研究,主要貢獻在於:透過使用國產模型將相關成本狠狠打下來了。
在保持相近效能的前提下,國產的DeepSeek V3和Qwen 2.5-Max與國外頂級商業模型相比,可實現高達100倍的成本節約。
並且還支援本地化部署,團隊使用QwQ-32B模型成功實現了本地化執行。

具體咋回事兒?下面詳細來看。
基於國產模型的AI CFD工程師
整體而言,在將AI工程師引入CFD領域這件事上,團隊這次主要實現了“國產化替代”,並探索了在單GPU環境下的本地部署方案。
一切的一切,都是為了實現降低成本這一核心目標。

據瞭解,CFD領域的網格劃分、邊界條件設定、求解器選擇等工作通常需要專業工程師投入大量時間,且操作過程中容錯空間極小。
而在之前的研究中,初旭團隊開發的OpenFOAMGPT已經能夠實現,讓研究者透過簡單自然語言(如“構建三維湍流氣泡上浮模型”或“將湍流模型從k-ε切換到LES”等),自動生成並修正相應的OpenFOAM程式碼。
這一方式顯著降低了CFD模擬的使用門檻,不過當時OpenFOAMGPT使用的還是GPT-4o和o1模型,不僅價格昂貴,而且不便於國內研究者使用。
於是這次,兩個團隊聯合推出最新版OpenFOAMGPT,成功整合了兩款領先的國產大語言模型:
-
DeepSeek V3(671B) -
Qwen 2.5-Max:通義千問旗艦版模型
加上之前的GPT-4o和o1模型,團隊接下來進行了一系列zero shot的CFD案例測試,包括falling droplets和rising bubble等經典複雜場景。

模型價格和實驗表現如下:


研究結果表明,在保持相近效能的前提下,國產的DeepSeek V3和Qwen 2.5-Max與國外頂級商業模型相比,可實現高達100倍的成本節約,為科研機構與中小企業提供了更具經濟性的技術選擇。
此外,團隊還成功嘗試了本地部署方案,使用QwQ-32B模型實現本地化執行。
團隊表示,雖然目前大語言模型在CFD自動化應用中仍面臨挑戰,但未來可從模型微調、多模態融合等方向改進,以實現更高效的CFD解決方案。
團隊介紹
如開頭所言,這項研究由英國埃克塞特大學初旭副教授與北航王文康副教授領銜,其餘作者包括:
-
徐冉:初旭團隊德國斯圖加特大學博士生,共同第一作者 -
馮晶森:初旭團隊埃克塞特大學博士生 -
張清福:北京航空航天大學流體力學研究所 -
Sandeep Pandey:初旭團隊畢業博士
團隊表示,這項研究的重要意義在於:
1、降低專業門檻:OpenFOAMGPT讓非專業人員能夠透過自然語言描述需求,無需深入學習複雜的OpenFOAM命令與引數,即可完成基礎案例構建與最佳化調整。
2、成本與靈活性最佳化:不同規模的使用者群體可根據精度需求、上下文要求和預算限制,靈活選擇DeepSeek或Qwen模型,甚至可選擇在本地環境部署小型模型進行試驗。
3、跨領域應用前景:該技術框架有望與Ansys、COMSOL等主流CAE軟體深度融合,進一步拓展AI在自動化模擬、並行引數調優和即時最佳化等領域的應用空間。
4、人機協作的價值:研究團隊強調,鑑於CFD問題本身的物理複雜性和大語言模型生成內容的不確定性,專業人員的監督與稽核仍是保障模擬準確性和數值穩定性的關鍵環節。
更多細節歡迎查閱原論文。
論文:https://arxiv.org/abs/2504.02888
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!
— 完 —
學術投稿請於工作日發郵件到:
標題註明【投稿】,告訴我們:
你是誰,從哪來,投稿內容
附上論文/專案主頁連結,以及聯絡方式哦
我們會(儘量)及時回覆你

🌟 點亮星標 🌟