海歸學者發起的公益學術平臺
分享資訊,整合資源
交流學術,偶爾風月

針對這一挑戰,來自北京工業大學的李建榮教授和華東理工大學的杜文莉教授團隊,提出了利用大語言模型構建框架材料知識圖譜的方法,從而構建了百萬級節點的框架材料知識圖譜。具體來說,透過分析超過10萬篇關於不同型別的框架材料的文章,建立了一個包含253萬個節點和401萬條關係的知識網路。在這個過程中,LLMs幫助自動提取文章中的關鍵資訊,進行語義分析和邏輯推理,將分散且無序的資訊轉換成結構化的知識圖譜。(圖1)

圖1. 從文獻中構建知識圖譜並將其用於知識查詢和增強的 LLM 檢索和知識圖譜應用的流程圖。
這樣做不僅提高了效率,減少了人工整理的工作量,還實現了對框架材料領域的整合,為研究者提供了一個清晰的知識網路。(圖2)

圖2. 透過使用知識圖譜查詢文獻得出的結果。
此外,他們還將知識圖譜與LLMs結合,開發了一種名為Qwen2-KG的問答系統。在框架材料領域,該系統的回答準確率達到了91.67%,高於其他現有模型(比如GPT-4只有33.33%)。更重要的是,Qwen2-KG能夠提供精確的資訊來源,保證了答案的可靠性和可追溯性。(圖3)

圖3. 以BUT-55的結構為例,比較使用知識圖譜增強LLM與不使用任何技術。
這不僅展示了知識圖譜在增強問答系統能力方面的潛力,也幫助研究者高效地獲取所需的資訊和知識。知識圖譜的應用有助於解決知識碎片化問題,促進知識的系統化和結構化。同時,這種方法也為其他領域的知識整合提供了參考,展現了人工智慧技術在科學研究中的潛力。該文近期發表於npj Computational Materials11, 51 (2025),英文標題與摘要如下,點選左下角“閱讀原文”可以自由獲取論文PDF。
Construction of a knowledge graph for framework material enabled by large language models and its application
Xuefeng Bai, Song He, Yi Li, Yabo Xie, Xin Zhang, Wenli Du* & Jian-Rong Li*
Framework materials (FMs) have been extensively investigated with a plethora of literature documenting their unique properties and potential applications. Despite this, a comprehensive knowledge graph for this emerging field has not yet been constructed. In this study, by utilizing the natural language processing capabilities of large language models (LLMs), we have established a comprehensive knowledge graph (KG-FM). It covers synthesis, properties, applications, and other aspects of FMs including metal-organic frameworks (MOFs), covalent-organic frameworks (COFs), and hydrogen-bonded organic frameworks (HOFs). The knowledge graph was constructed through the analysis of over 100,000 articles, resulting in 2.53 million nodes and 4.01 million relationships. Subsequently, its application has been explored for enhancing data retrieval, mining, and the development of sophisticated question-answering systems. Especially when integrating the KGs with LLMs, resulted Qwen2-KG not only achieves a higher accuracy rate of 91.67% in question-answering than existing models but also provides precise information sources.

擴充套件閱讀
媒體轉載聯絡授權請看下方
