KG-SFT團隊 投稿量子位 | 公眾號 QbitAI
讓大語言模型更懂特定領域知識,有新招了!
來自中國科學技術大學MIRA實驗室的王傑教授團隊提出了提出了一個創新的框架——知識圖譜驅動的監督微調(KG-SFT),該框架透過引入知識圖譜(KG)來提升大語言模型(LLMs)在特定領域的知識理解和處理能力。
實驗結果表明,其在多個領域和多種語言的資料集上取得了顯著的效果,成功入選ICLR 2025。

截至目前,LLMs在常識問答方面表現越來越出色,但它們對領域知識的理解和推理能力仍然有限。
由於難以深入理解專業領域問答背後所蘊含的複雜知識和邏輯關係,因此在面對這類問題時,往往無法準確地給出正確的答案和詳細的推理過程,這極大地限制了其在專業領域的應用價值。
尤其是在資料稀少和知識密集型的場景中,如何讓LLMs更好地理解和操縱知識,成為了研究的關鍵。
而中科大MIRA實驗室的這項工作即圍繞此展開。
KG-SFT是如何工作的
KG-SFT針對LLMs難以理解領域問答背後的知識和邏輯,導致推理能力弱的問題,提出基於知識圖譜增強的大語言模型監督微調技術。
KG-SFT首先透過解析領域知識圖譜中的多條推理路徑,設計圖上推理路徑與文字推理過程的聯合生成機制。使LLMs在監督微調過程中,能夠同步輸出推理答案以及蘊含豐富領域知識和邏輯關係的推理過程,從而提升其對領域知識的理解與推理能力。
KG-SFT框架的核心在於將知識圖譜與監督微調相結合,透過生成問答背後的邏輯嚴密的推理過程解釋來增強LLMs對知識和邏輯的理解。
該框架包含三個關鍵元件:
-
Extractor(提取器) -
Generator(生成器) -
Detector(檢測器)

1、Extractor:精準提取知識關聯
Extractor首先對問答對(Q&A)中的實體進行識別,並從外部知識圖譜中提取相關的推理子圖。
這一步驟揭示了Q&A對背後的知識關聯和邏輯,為後續的解釋生成提供了基礎。
透過命名實體識別(NER)和多條推理路徑的檢索,Extractor能夠有效地從大規模知識圖譜中獲取與問題相關的知識。
2、Generator:生成流暢的解釋
Generator利用圖結構重要性評分演算法(如HITS演算法)對推理子圖中的實體和關係進行評分,選擇高分部分作為重要內容。
然後,使用大型語言模型(如ChatGPT)生成流暢的解釋草稿。
這些解釋不僅邏輯清晰,而且能夠幫助LLMs更好地理解問題和答案之間的關係。
3、Detector:確保解釋的正確性
Detector對生成的解釋草稿進行句子級別的知識衝突檢測,確保解釋的正確性。
透過自然語言推理(NLI)模型(如DeBERTa)和重新引導機制,Detector能夠標記並糾正可能存在的知識衝突,從而提高解釋的可靠性。
實驗結果及創新點
實驗結果表明,KG-SFT在多個領域和語言設定中均取得了顯著的效能提升。
特別是在低資料醫學問答任務上,KG-SFT在英語場景中僅使用5%的訓練資料就比傳統方法提高了近14%的準確率。

從創新之處來看,KG-SFT不僅關注資料的數量,更注重資料的質量。
透過生成高質量的解釋,KG-SFT幫助LLMs更好地理解和操縱知識,從而在特定領域實現更優的效能。
此外,KG-SFT還可以作為外掛式模組與現有的資料增強方法結合使用,進一步提升效能。

在多領域資料集上的實驗結果進一步驗證了KG-SFT的廣泛適用性。
儘管在某些需要複雜推理的領域(如形式邏輯和專業會計)中表現稍遜,但整體效能依然具有較強的競爭力。

概括而言,KG-SFT框架透過結合知識圖譜和LLMs,有效地提升了監督微調資料的質量,從而顯著提高了LLMs在特定領域的效能。
這一方法不僅在低資料場景中表現出色,還展示了其作為外掛式模組與現有資料增強方法結合的潛力。
論文作者第一作者陳瀚鑄是中國科學技術大學2021級碩博連讀生,師從王傑教授,主要研究方向為大語言模型、知識圖譜和推理資料合成。
更多細節歡迎查閱原論文。
論文地址:https://openreview.net/pdf?id=oMFOKjwaRS
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!
— 完 —
學術投稿請於工作日發郵件到:
標題註明【投稿】,告訴我們:
你是誰,從哪來,投稿內容
附上論文/專案主頁連結,以及聯絡方式哦
我們會(儘量)及時回覆你

🌟 點亮星標 🌟