
阿里妹導讀
本文從RAG 2.0 面臨的主要挑戰和部分關鍵技術來展開敘事,還包括了RAG的技術升級和關鍵技術等。
一、Introduction
過去一年可謂是RAG元年,檢索增強生成技術迅速發展與深刻變革,其創新與應用已深刻重塑了大模型落地的技術正規化。站在2025年,RAG不僅突破了早期文字處理的侷限,更透過多模態融合、混合檢索最佳化和語義鴻溝跨越等突破,開始在各個行業落地。如果把2024之前的RAG稱為RAG 1.0,那目前已進入RAG 2.0時代。
一個顯著的進步是長上下文視窗,這一功能引發了爭議,但到年中逐漸平息。很多人覺得長上下視窗就夠了,傳統的檢索和RAG會被取代。此外,LLMOps等架構的成熟使企業和個人能夠使用向量資料庫、嵌入/重新排名模型、分塊工具、Multimodal技術的快速發展。RAG方面的Paper每週達到幾十篇甚至更多。可以說,RAG經歷了野蠻快速生長的RAG,從1.0超快速的進入了2.0時代。
RAG越來越多的應用在企業和生產場景,但是仍面臨很多的技術挑戰,本文我們從RAG 2.0 面臨的主要挑戰和部分關鍵技術來展開敘事。首先快速過一下RAG 2.0的主要問題:
多模態與複雜任務擴充套件
-
多模態支援不足:當前的RAG技術主要針對文字資料,但在處理影像、影片等多模態資料時仍面臨挑戰。例如,如何有效檢索和利用多模態資訊仍是一個開放性問題。現有 LLMOps 解決方案大多限於純文字場景。PDF、PPT 或文字與影像結合的文件無法充分發揮其商業潛力。這些型別的文件通常構成企業資料中的大多數。 -
複雜推理任務:儘管RAG透過檢索外部知識增強了模型的推理能力,但在處理多跳推理或複雜邏輯任務時,其效能仍有待提升。
檢索質量與噪聲問題
-
檢索精度不足:RAG的效能高度依賴於檢索到的文件質量。如果檢索到的文件與查詢不相關或包含噪聲資訊,會導致生成結果不準確甚至錯誤。 -
Semantic GAP:RAG 的核心在於搜尋功能。只有能夠根據使用者的查詢“搜尋”答案時,它才能發揮作用。然而,這一先決條件往往無法滿足,因為查詢模糊或含糊,缺乏明確的意圖,或者“多跳”問題需要從多個子問題中綜合而來。在這種情況下,提出的問題和檢索到的答案之間存在顯著的語義差距,這使得傳統的搜尋方法無效。 -
噪聲資料的影響:文件中的噪聲資訊可能混淆模型的推理路徑,導致生成內容出現偏差。例如,過時或不準確的資訊會誤導模型,降低生成結果的可信度。 -
召回率低:在某些情況下,RAG可能無法檢索到所有相關文件,導致生成模型缺乏足夠的背景資訊來構造完整的答案。比如,純向量資料庫導致召回率和命中率偏低:單純依賴向量資料庫會導致召回率和命中率偏低,阻礙有效的現實問答。這是因為向量表示無法精確地表示準確的資訊,並且在檢索過程中會造成語義損失。
生成過程中的幻覺與冗餘
-
幻覺問題:儘管RAG透過檢索外部知識減少了模型生成幻覺的機率,但在檢索資訊不足或相關性較低時,模型仍可能生成虛構或不準確的內容[6]。 -
冗餘與重複:當檢索到的文件包含相似資訊時,生成內容可能出現冗餘或重複,影響回答的質量和簡潔性。
計算資源與效率問題
-
計算資源消耗:RAG需要額外的計算資源來支援檢索機制和資料庫維護,如向量化模型和向量知識庫的構建與更新[6]。 -
推理延遲:由於增加了檢索步驟,RAG的推理時間可能比傳統LLM更長,尤其是在處理複雜查詢時[6]。 -
即時性要求:RAG需要即時檢索最新資訊,但知識庫的更新頻率和檢索效率可能無法滿足高即時性需求。
安全與隱私問題
-
資料安全:RAG需要訪問外部知識庫,這可能涉及敏感資料。如何確保資料的安全性和隱私性是一個重要挑戰[8]。
-
對抗性攻擊:RAG系統可能受到對抗性資料注入或上下文衝突等攻擊,導致生成內容被操縱或誤導
獎勵函式與訓練機制最佳化
-
獎勵函式設計:當前的RAG系統通常採用基於結果的獎勵函式,但在複雜任務場景中,這種設計可能無法捕捉細微差異,影響模型效能[1]。 -
訓練資料依賴:RAG的訓練需要高質量的互動資料,但獲取和標註這些資料可能成本高昂且耗時.
二、技術正規化的升級
RAG從最初概念誕生到現在,架構經歷了三個階段演化:基礎檢索生成(Naive RAG)→ 檢索全流程最佳化(Advanced RAG)→ 具備反思能力的模組化系統(Modular RAG)。其中模組化架構透過LLM的遞迴呼叫實現動態檢索決策,例如讓模型自主判斷何時觸發檢索或修正答案,形成類Agent的互動正規化。具體可以看下圖,細節在此不表,重點關注核心技術。
其實不管哪種正規化,其本質都是搜尋 + LLM的融合,所有核心技術的其實都是搜尋和大模型的技術的變革。

三、關鍵技術
3.1 檢索技術
3.1.1 混合搜尋
前面提到過目前RAG的Retrieval存在一些弊端,比如召回率低,準確率低,噪聲大,存在冗餘查詢,效率和魯棒性差等。因此我們需要Hybrid Search。目前比較通用的混合搜尋是三路混合檢索:全文搜尋 with BM25+稠密向量(語義匹配)+稀疏向量(關鍵詞增強)。首先我們先簡單介紹一下這集中檢索方式:
全文索引
常使用倒排索引(Inverted Index)等技術,將文件中的每個單詞對映到包含該單詞的文件列表,從而實現高效的查詢。查詢速度快,適合精確匹配。支援複雜的查詢語法(如布林查詢、萬用字元查詢)。缺點是無法理解語義,僅依賴字面匹配。對同義詞、語義相似性等處理能力有限,當然這可以透過歸一化等預處理來解決。相關性排序,常用演算法為BM25演算法,基於詞頻、文件長度和逆文件頻率的綜合評分。
BM25(Best Matching 25)是一種基於機率模型的文件相關性評分演算法,廣泛用於全文搜尋引擎中,用於衡量查詢(Query)與文件(Document)之間的匹配程度。它是傳統TF-IDF演算法的改進版本,尤其在處理文件長度和詞頻分佈上表現更優。BM25透過結合詞頻、逆文件頻率和文件長度歸一化,提供了一種高效評估文件與查詢相關性的方法,具有高效、靈活和魯棒的特點。BM25因其簡潔性和高效性,至今仍是文字檢索的基石技術,尤其在需要快速響應和可解釋性的場景中不可替代。
Sparse vector search
稀疏檢索是一種基於稀疏向量的搜尋技術,通常用於傳統的資訊檢索任務。稀疏向量是指向量中大部分元素為零,只有少數元素非零。使用詞袋模型(Bag of Words, BoW)或 TF-IDF 等方法將文字表示為稀疏向量,然後透過計算向量之間的相似度(如點積)來檢索相關文件。主要使用在傳統文字檢索(如搜尋引擎)。計算效率高,適合大規模資料集,但是無法理解語義。
稀疏向量難以替代全文搜尋:稀疏向量旨在替代全文搜尋,其方法是使用標準預訓練模型消除冗餘詞並新增擴充套件詞,從而得到固定維度(例如 30,000 或 100,000 維)的稀疏向量輸出。這種方法在一般查詢任務上表現良好;但是,許多使用者查詢關鍵字可能不存在於用於生成稀疏向量的預訓練模型中,例如特定的機器模型、手冊和專業術語。因此,雖然稀疏向量和全文搜尋都服務於精確召回的目的,但它們各有千秋,無法互相替代。
Vector Search
Vector search 是一種基於向量空間模型的搜尋技術,將資料(如文字、影像、音訊)轉換為高維向量(通常是稠密向量),並透過計算向量之間的相似度(如餘弦相似度或歐氏距離)來找到最相關的結果。利用機器學習模型(如深度學習)將資料對映到向量空間,語義相近的資料在向量空間中距離較近。主要應用場景是語義搜尋(Semantic Search):理解查詢的語義,而不僅僅是關鍵詞匹配。能夠捕捉語義資訊,支援模糊匹配。適合處理非結構化資料(如文字、影像)。但是需要預訓練模型生成向量,計算複雜度較高。對硬體資源(如GPU)要求較高。

採用多種召回方法可以為 RAG 帶來更好的結果。具體來說,將向量搜尋、稀疏向量搜尋和全文搜尋結合起來可以實現最佳召回率。這很容易理解,因為向量可以表示語義;一個句子甚至整篇文章都可以封裝在一個向量中。本質上,向量傳達了文字的“含義”,表示其與上下文視窗內其他文字共現的壓縮機率。因此,向量無法精確表示查詢。例如,如果使用者問:“我們公司 2024 年 3 月的財務計劃包括哪些組合?”結果可能會返回來自其他時間段的資料或不相關的主題,例如運營計劃或營銷管理。相比之下,全文搜尋和稀疏向量主要表達精確的語義。因此,將這些方法結合起來可以滿足我們日常對語義理解和精度的需求。

下圖顯示了使用 Infinity 在公共基準資料集上進行評估的結果,比較了單向召回方法(向量、稀疏向量、全文搜尋)、雙向召回和三向召回。縱軸表示排序質量,很明顯三向召回取得了最佳結果,充分驗證了 BlendedRAG 的效果。

目前的混合搜尋架構中,不同的資料儲存和檢索大都是透過異構資料庫和儲存介質來實現的,這會帶來效率和精準度的問題,因此同時支援多種檢索的資料庫顯得尤為重要,但是有較大挑戰,目前市面上實現此類功能的資料庫有Milvus(支援多模態向量+標量過濾) , Weaviate(內建混合搜尋)。
3.1.2 DPR(Dense Passage Retrieval)
在RAG(Retrieval-Augmented Generation,檢索增強生成)系統中,DPR(Dense Passage Retrieval,稠密段落檢索)是檢索模組的核心技術之一。DPR透過使用密集向量表示來檢索與查詢最相關的文件或段落,是RAG系統的重要基礎。由 Facebook AI Research 團隊在2020年首次提出。
DPR是一種基於深度學習的檢索方法,專注於將查詢(query)和文件(passage)編碼為稠密向量,並透過計算向量之間的相似度來檢索與查詢最相關的文件。DPR是稠密向量檢索在段落檢索任務中的一個具體實現,它利用深度學習模型將查詢和文件編碼為稠密向量,並透過相似度計算來檢索相關文件。
DPR的核心功能
1. 雙編碼器架構:DPR採用雙編碼器架構,分別對查詢和文件進行編碼,將它們對映到高維向量空間中。透過計算查詢向量和文件向量之間的相似度(如內積),DPR能夠高效地檢索出與查詢最相關的文件。
2. 語義匹配:與傳統的稀疏檢索方法(如BM25)不同,DPR能夠捕捉查詢和文件之間的語義相似性,而不僅僅是關鍵詞匹配。這使得DPR在處理複雜的自然語言查詢時表現出色。
3. 高效檢索:DPR利用密集向量表示和高效的最近鄰搜尋演算法(如MIPS,Maximum Inner Product Search),能夠快速從大規模知識庫中檢索出相關文件。
DPR作為RAG系統中的檢索器,負責從外部知識庫中檢索與使用者查詢最相關的文件或段落。這些檢索到的文件隨後被送至生成模組,生成模組利用這些文件生成高質量、上下文相關的回答。DPR的高效語義檢索能力顯著提升了RAG系統在開放域問答等任務中的表現。
儘管DPR已經取得了顯著的成果,但仍有改進空間。例如,DPR訓練過程中的知識分散化(decentralization)可以進一步最佳化,以提高檢索的多樣性和準確性。此外,研究者們也在探索如何更好地將DPR與預訓練語言模型結合,以進一步提升檢索和生成的效能。
3.2 重排序 Ranking Models
我們前面講過,三路召回(BM25 + 稠密向量 + 稀疏向量)效果最優,但如何高效融合多路結果並重排序(Reranking)仍是難題。
排名是任何搜尋系統的核心。排名涉及兩個元件:一個是用於粗過濾的部分也就是粗排;另一個是用於微調階段的重排序模型也叫重排或者精排。混合檢索能夠結合不同檢索技術的優勢獲得更好的召回結果,但在不同檢索模式下的查詢結果需要進行合併和歸一化(將資料轉換為統一的標準範圍或分佈,以便更好地進行比較、分析和處理),然後再一起提供給大模型。這時候我們需要引入一個評分系統:重排序模型(Rerank Model)。
重排序模型會計算候選文件列表與使用者問題的語義匹配度,根據語義匹配度重新進行排序,從而改進語義排序的結果。其原理是計算使用者問題與給定的每個候選文件之間的相關性分數,並返回按相關性從高到低排序的文件列表。常見的 Rerank 模型如:Cohere rerank、bge-reranker 等。

不過,重排序並不是只適用於不同檢索系統的結果合併,即使是在單一檢索模式下,引入重排序步驟也能有效幫助改進文件的召回效果,比如我們可以在關鍵詞檢索之後加入語義重排序。
在具體實踐過程中,除了將多路查詢結果進行歸一化之外,在將相關的文字分段交給大模型之前,我們一般會限制傳遞給大模型的分段個數(即 TopK,可以在重排序模型引數中設定),這樣做的原因是大模型的輸入視窗存在大小限制(一般為 4K、8K、16K、128K 的 Token 數量),你需要根據選用的模型輸入視窗的大小限制,選擇合適的分段策略和 TopK 值。
需要注意的是,即使模型上下文視窗很足夠大,過多的召回分段會可能會引入相關度較低的內容,導致回答的質量降低,所以重排序的 TopK 引數並不是越大越好。
在RAG(Retrieval-Augmented Generation)系統中,檢索完成後進行重排序(reranking)的目的是為了提高最終生成結果的質量和相關性。儘管初始檢索階段已經返回了一組相關文件或段落,但這些結果可能並不完全符合生成模型的需求,或者可能存在排序不合理的情況。重排序可以幫助篩選出最相關、最有用的資訊,從而提升生成模型的輸出效果。
接下來我們重點介紹幾種常用的Reranker。
3.2.1 Cross-Encoder Reranker
Cross-Encoder Reranker 是一種基於深度學習的重排序模型,透過聯合編碼查詢-文件對(將查詢和文件拼接後輸入模型)直接預測相關性分數,而非生成獨立向量。其核心是利用交叉編碼器(Cross-Encoder)架構來評估查詢(query)和文件(document)對之間的相似度。與雙編碼器(Bi-Encoder)不同,交叉編碼器不是分別對查詢和文件進行編碼,而是將查詢和文件作為一個整體輸入到模型中,從而能夠更有效地捕獲兩者之間的互動和關係。這種架構通常由多層神經網路單元組成,例如Transformer或迴圈神經網路(RNN),能夠將輸入序列中的資訊編碼為固定大小的表。比傳統向量檢索更精準,能捕捉深層次語義關係。它透過端到端分類任務(如二元相關性判斷)最佳化,適合對Top-K候選文件進行精排。代表模型有
<font style="color:rgb(64, 64, 64);">BAAI/bge-reranker-large</font>
。Cross-Encoder可以與延遲互動(Late Interaction)結合,如本文前面提到過的ColPali(多模態RAG場景),透過分解查詢-文件互動矩陣為多向量外積,實現高效語義排序,同時保留細粒度互動能力。
在效率方面,可以將大型Cross-Encoder(如BERT-large)蒸餾為輕量級模型(如TinyBERT),或採用FP16/INT8量化降低推理延遲。這些都是比較通用的方法,在此不表。
使用示例:
import numpy
import lancedb
from lancedb.embeddings import get_registry
from lancedb.pydantic import LanceModel, Vector
from lancedb.rerankers import CrossEncoderReranker
embedder = get_registry().get("sentence-transformers").create()
db = lancedb.connect("~/.lancedb")
classSchema(LanceModel):
text: str = embedder.SourceField()
vector: Vector(embedder.ndims()) = embedder.VectorField()
data = [
{"text": "hello world"},
{"text": "goodbye world"}
]
tbl = db.create_table("test", schema=Schema, mode="overwrite")
tbl.add(data)
reranker = CrossEncoderReranker()
# Run vector search with a reranker
result = tbl.search("hello").rerank(reranker=CrossEncoderReranker()).to_list()
3.2.2 Graph-Based Reranking
當前主流RAG系統遵循"檢索-排序-生成"的線性流程,其中重排序環節通常採用兩類方法:(1) 基於獨立編碼的交叉注意力模型(如MonoT5),單獨評估每個文件與查詢的相關性;(2) 基於列表級損失的排序模型(如ListNet),最佳化整個文件序列的排列。這兩種正規化都存在根本性侷限——它們將文件視為孤立的個體,完全忽視了文件間豐富的語義關聯,導致三個關鍵問題:
1. 資訊整合失效:當答案需要綜合多篇文件資訊時(如對比型問題"比較A與B的優缺點"),獨立排序可能將與A、B分別相關但單獨評分不高的文件排在後位,而實際上這些文件的組合才最具回答價值[2][3]。
2. 冗餘放大效應:高度相似的多篇文件可能因獨立評分都較高而同時位居前列,擠佔其他重要但獨特資訊的展示空間。論文圖1展示了傳統方法在HotpotQA資料集上出現的典型冗餘案例,前5篇文件中有3篇內容重疊度超過70%。
3. 關係認知盲區:現有系統無法識別文件間的因果、時序、對比等邏輯關係,而這些關係往往是解答覆雜問題的關鍵。例如回答"COVID-19如何導致經濟衰退"需要串聯病因學文件與經濟分析文件,儘管它們的主題相似度可能很低。
更本質地,這些問題的根源在於傳統排序將文件視為獨立同分布樣本,而現實中文件間存在複雜的條件依賴關係。該論文首次提出將文件集合建模為圖結構,其中節點表示文件,邊表示語義關係,透過圖演算法挖掘全域性結構資訊來指導排序決策。
現有RAG系統在處理文件與問題上下文關係時存在挑戰,當文件與問題的關聯性不明顯或僅包含部分資訊時,模型可能無法有效利用這些文件。此外,現有方法通常忽視文件之間的連線,導致無法充分利用文件間的語義資訊。
這篇 Paper 《Don't Forget to Connect! Improving RAG with Graph-based Reranking》該論文提出了一種基於圖的重排方法G-RAG,旨在透過利用文件之間的連線資訊和語義資訊,更有效地識別文件中的有價值資訊,從而提高RAG在ODQA中的效能。

關鍵技術
1. 圖結構構建
- 將檢索到的文件或文字塊表示為圖中的節點,節點間的邊透過以下方式建立:
- 語義相似性(如向量餘弦相似度);
- 實體共現關係(如命名實體在同一文件中的關聯);
- 邏輯依賴(如文件間的引用或因果鏈)[2][3]。
- 例如,類似GraphRAG的方法會預生成實體知識圖,並透過社群檢測劃分緊密關聯的節點組。
2. 圖神經網路架構
基於GNN的架構來重排序檢索到的文件:
- 節點特徵:使用預訓練的語言模型(如BERT)編碼文件文字,並結合AMR圖中的最短路徑資訊來增強這些特徵。
框架應用預先訓練的語言模型對給定問題q的{ p 1 , p 2 , ⋯ , p n } 中所有n檢索到的文件進行編碼。文件嵌入表示為
,其中d是隱藏維度,


的每一行由以下公式給出

某些負面文件無法與其文字中的問題上下文建立足夠的聯絡。此外,負面文件還會遇到另一種極端情況,即路徑包含大量與問題文字相關的資訊,但缺乏有價值資訊。這種獨特的模式提供了有價值的見解,可在編碼過程中利用它們來提高重排器的效能。
因此,建議的文件嵌入由
給出,並且X的每一行可以由
給出:



-
邊特徵:利用AMR圖中共同節點和邊的數量作為邊特徵。結合了AMR圖,不僅捕捉文件的語義資訊,還透過圖結構增強了文件之間的語義關聯。
- 表示更新:透過GNN模型更新節點和邊的表示,利用訊息傳遞機制傳遞資訊。
3. 圖演算法重排序
-
採用個性化PageRank或社群影響力評分對節點(文件)進行重要性排序,優先選擇圖中中心性高或與問題節點連線緊密的文件。
-
類似R4框架的圖注意力機制,學習文件間的互動關係以最佳化順序。
-
透過多跳推理挖掘間接關聯的文件(如RAE框架的鏈式檢索策略)。
4. 動態響應生成
-
對重排序後的文件集,分兩步生成答案:
1)區域性響應生成:每個高權重文件或社群摘要獨立生成部分答案;
2)全域性整合:透過LLM對區域性響應去冗餘併合成最終答案。
-
類似HippoRAG的神經啟發方法,模擬人腦記憶整合機制最佳化知識融合。
5. 端到端最佳化
-
引入強化學習(如R4的獎勵機制)或輕量級評估器(如CRAG)聯合最佳化檢索與生成模組。
3.2.3 ColBERT Reranker
ColBERT(Contextualized Late Interaction over BERT)是一種高效的檢索模型,特別適用於大規模文字集合的檢索任務。它透過延遲互動機制(late interaction architecture)結合BERT的上下文表示,實現了高效的檢索和重排序。這裡我們Jina-ColBERT-v2
1. 延遲互動機制(Late Interaction):ColBERT引入了一種延遲互動相似性函式,透過分別對查詢和文件進行編碼,然後在推理時計算查詢和文件之間的相似性(MaxSim),從而實現延遲互動。這種方法在保持高效推理的同時,能夠捕捉到查詢和文件之間的複雜關係。
2. 多向量表示:與傳統的單向量檢索模型不同,ColBERT為查詢和文件中的每個標記生成一個嵌入向量,然後透過聚合這些標記嵌入來計算相關性分數。這種方法能夠更細緻地捕捉文字的語義資訊。
3. 多語言預訓練:Jina-ColBERT-v2使用XLM-RoBERTa作為其基礎模型,並透過在多種語言的資料上進行預訓練,提高了模型的多語言效能。
4. 弱監督學習:論文提出在大規模的弱監督文字對上進行預訓練,以學習文字的一般語義結構。這些文字對包括句子對、問答對和查詢-文件對,涵蓋了多種語言和領域。
5. 三元組訓練:在預訓練的基礎上,模型進一步在多種語言的檢索資料上進行微調,使用標註的三元組資料和硬負樣本進行訓練,以提高檢索效能。
3.3 Multimodal RAG 多模態RAG
目前,多模態檢索增強生成(Multimodal RAG) 已成為 RAG 技術中最前沿和流行的方向之一,它透過整合文字、影像、音訊、影片等多種模態資料,顯著提升了 AI 系統的理解和生成能力。
對於多模態文件,傳統方法是使用模型將多模態文件轉換為文字,然後再進行索引以供檢索。另一種方法是直接多模態向量化,比如利用 視覺語言模型 VLM,直接生成向量,繞過複雜的 OCR 過程。2024 出現的 ColPali。ColPali 將影像視為 1024 個影像塊,併為每個塊生成嵌入,有效地將單個影像表示為張量。比如:

這意味著 VLM 對影像的理解更加深入,不再僅僅識別日常物品,而是可以高效識別企業級多模態文件。例如,來自 Google 的開源 3B 模型 PaliGemma,能夠將影像塊(Image Patches)嵌入到與文字相似的潛在空間中。ColPali 在此基礎上擴充套件,透過投影層將模型輸出的高維嵌入降維至 128 維,生成多向量表示(每個影像塊對應一個向量),從而保留文件的細粒度視覺資訊。借鑑文字檢索模型 ColBERT 的“延遲互動”策略,ColPali 在檢索階段計算查詢文字的每個 token 向量與文件影像塊向量的最大相似度(MaxSim),而非傳統的單向量相似度。這種方法避免了早期互動的計算負擔,同時提升了檢索精度。

這種技術的優勢非常明顯,端到端處理複雜文件,直接輸入文件影像(如 PDF 頁面),無需傳統 OCR、文字提取或佈局分析等預處理步驟,顯著簡化流程並減少錯誤傳播。還可以實現多模態聯合檢索,透過視覺和文字嵌入的統一表示,模型能同時理解圖表、表格和文字內容。例如,在財務報告或科學論文中,ColPali 可檢索出純文字方法可能遺漏的視覺關鍵資訊。
如果我們可以使用 RAG 根據使用者查詢在大量 PDF 中查詢包含答案的影像和文字,那麼我們就可以使用 VLM 生成最終答案。這就是多模態 RAG 的意義所在,它不僅僅是簡單的影像搜尋。
檢索過程需要一個 Versatile 的資料庫,不僅支援基於張量的重新排序,而且還能在向量檢索階段容納多向量索引。

在這裡我們簡單介紹一下直接多模態向量化和模態轉換。
直接多模態向量化
-
核心思想: 使用多模態模型(如CLIP、Flamingo)直接生成跨模態的向量表示,跳過中間文字轉換步驟。
-
核心任務: 透過模型(如CLIP、Flamingo)將不同模態資料(圖/文/音)對映到同一向量空間,確保語義相似的輸入(如“狗”的圖片和文字“犬”)向量距離相近。
-
關鍵技術: 1)對比學習(Contrastive Learning):如CLIP的圖文對齊訓練。 2)共享編碼器(Shared Encoder):同一模型處理多模態輸入。 -
輸出: 向量(如512維浮點陣列),不直接完成檢索任務。 -
流程

模態轉換,多模態轉文字(Modality-to-Text)
-
技術原理:將非文字模態(如影像、音訊)轉換為文字描述(如 OCR、ASR、影像描述生成),再使用傳統文字 RAG 進行檢索和生成。 -
優勢:
-
實現簡單,相容現有文字 RAG 架構。 -
適用於結構化資料(如表格、PDF)和語音轉文字任務。
-
代表工具:
-
BLIP-2(Salesforce):生成高質量的影像描述。 -
Whisper(OpenAI):語音轉文字(ASR)。
-
流程

多模態轉文字(Modality-to-Text)和直接多模態向量化(Direct Multimodal Embedding)對比

當然,現實情況中,我們有多模態融合的scenarios,這個時候我們需要建立一個共享向量空間,使用跨模態模型(如 OpenAI的CLIP、DeepMind的Flamingo)將不同模態的資料(如圖片、文字、音訊)對映到同一向量空間,文件中的文字、影像等模態均可檢索,透過距離計算匹配使用者查詢,實現跨模態語義對齊,比如以圖搜文,以文搜圖等。
3.4 強化學習
3.4.1 DeepRAG
強化學習(Reinforcement Learning, RL)RAG 中的應用並不鮮見。RL能夠最佳化RAG系統的檢索策略、查詢生成和答案推理過程,可以說,強化學習是 RAG 最好的軍師。比如 DeepSeek-R1 就是透過基於規則的強化學習 (RL) 成功激發推理能力。
這篇 Paper 《DeepRAG: Thinking to Retrieval Step by Step for Large Language Models》提出了DeepRAG,採用馬爾可夫決策過程(MDP)建模檢索增強推理,動態決定何時檢索外部知識。優化了推理精準度,減少不必要檢索,提升計算效率。

-
DeepRAG框架:DeepRAG將檢索增強推理建模為馬爾可夫決策過程(MDP),透過迭代分解查詢,動態決定在每一步是否檢索外部知識或依賴引數推理。獎勵函式根據答案的正確性和檢索成本來評估狀態,結合答案正確性和檢索成本,鼓勵高效且準確的推理路徑。 -
檢索敘事(Retrieval Narrative):確保結構化和自適應的檢索流程,根據先前檢索到的資訊生成子查詢。 -
原子決策(Atomic Decisions):動態決定每個子查詢是否檢索外部知識或僅依賴LLMs的引數知識。 -
二叉樹搜尋(Binary Tree Search):為每個子查詢構建二叉樹,探索基於引數知識或外部知識庫的不同回答策略。 -
模仿學習(Imitation Learning):透過二叉樹搜尋合成數據,使模型學習“子查詢生成 – 原子決策 – 中間答案”的模式。 -
校準鏈(Chain of Calibration):透過校準每個原子決策來細化模型對其自身知識邊界的理解,使其能夠更準確地做出檢索必要性的決策。

DeepRAG將檢索增強推理建模為 MDP,結合二進位制樹搜尋與校準鏈,實現了動態檢索決策。減少冗餘檢索和不必要的噪聲,能夠顯著提高系統的準確性和效率。但是其訓練和推理過程可能需要較高的計算資源,且檢索策略和知識邊界校準方法有待提高,以泛化到更多的場景。
3.4.2 CoRAG
傳統的RAG方法通常在生成過程之前採用一次性檢索策略,也就是隻進行一次檢索,但這種方法在處理複雜查詢時可能效果有限,因為檢索結果可能並不完全準確,做過搜尋的同學應該都知道,想要完成一次準確的搜尋,需要很多步驟,多路找回,多次檢索,合併,粗排,精排等等。這篇Paper 《Chain-of-Retrieval Augmented Generation》提出了CoRAG,核心思想是將檢索過程分解為多個步驟,逐步獲取和整合外部知識。

CoRAG 透過鏈式檢索機制和強化學習,提升了檢索增強生成技術的效率和效能,CoRAG將檢索過程分解為多個步驟,實現了逐步檢索和動態調整,並且透過強化學習訓練檢索策略,使模型能夠根據任務需求自適應調整檢索行為。

鏈式檢索機制逐步檢索:將檢索增強推理建模為多步決策過程,在生成過程中,模型根據當前生成的內容和任務需求,動態決定是否進行下一步檢索。採用自適應檢索策略:若中間答案置信度低,則重新檢索;否則依賴已有資訊繼續生成。檢索策略調整:透過強化學習或啟發式規則,最佳化檢索策略,確保每次檢索都能獲取最相關的資訊。
大多數 RAG 資料集僅附帶查詢 Q 以及相應的最終答案 A ,而無需提供中間檢索步驟。CoRAG 提出了一種透過拒絕抽樣自動生成檢索鏈的方法。
檢索與生成的協同多步檢索整合:將每次檢索的結果透過注意力機制與生成模型結合,確保生成內容與檢索資訊的一致性。
動態生成控制:根據檢索結果的質量和相關性,動態調整生成策略,避免冗餘或無關資訊的引入。
訓練與最佳化訓練資料:使用包含多步檢索任務的資料集進行訓練。資料集中的每個訓練例項都表示為一個元組( Q , A , Q 1 : L , A 1 : L ) ,並附有查詢 Q 和每個子查詢的相應前 k 個檢索文件。使用多工學習框架中的標準下一個標記預測目標對增強資料集進行微調。
獎勵設計:結合任務目標(如答案准確性、文字連貫性)設計獎勵函式,引導模型學習最優檢索策略。
模型架構:基於Transformer架構,擴充套件了檢索決策模組和檢索結果整合模組。
3.5 GNN圖神經網路
傳統RAG方法在處理複雜關係和多源知識整合方面存在不足,難以捕捉知識片段之間的複雜關係(如多跳推理任務),如多步檢索或基於圖的檢索面臨計算成本高、圖結構噪聲或不完整、泛化性差等挑戰。這篇Paper 《GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation》提出了 GFM-RAG,透過構建圖結構來顯式建模知識之間的複雜關係,可以提高檢索和推理的效率。當然,這些方法仍然受到圖結構噪聲和不完整性的影響,可能會限制其效能。

GFM-RAG框架:GFM-RAG透過構建知識圖譜索引(KG-index)和圖基礎模型(GFM)來增強LLMs的推理能力。KG-index從文件中提取實體和關係,形成一個結構化的知識索引。GFM則利用圖神經網路(GNN)來捕捉查詢和知識圖之間的複雜關係。

包含三個核心元件:
1. KG索引構建:從文件中提取實體和關係,構建知識圖譜(KG-index),並透過實體解析增強語義連線。
傳統的基於嵌入的索引方法將文件編碼為單獨的向量,但這些方法在對它們之間的關係進行建模方面受到限制。另一方面,知識圖譜 (KG) 明確捕捉了數百萬個事實之間的關係,可以提供跨多個文件的知識的結構化索引。KG 索引的結構性質與人類海馬記憶索引理論非常吻合,其中 KG 索引就像一個人工海馬,用於儲存知識記憶之間的關聯,增強了複雜推理任務對各種知識的整合。
為了構建 KG 索引,給定一組文件𝒟,我們首先從文件中提取實體ℰ和關係ℛ以形成三元組𝒯。然後,構建實體到文件的倒排索引M∈{0,1}|ℰ|×|𝒟|來記錄每個文件中提到的實體。這一過程可以透過現有的開放資訊提取 (OpenIE) 工具實現。為了更好地捕捉知識之間的聯絡,進一步進行實體解析,在具有相似語義的實體之間新增額外邊𝒯+,例如 ( USA , equivalent , United States of America )。因此,最終的 KG 索引𝒢構建為G = { ( e , r , e ′ ) ∈ T ∪ T + } 。在實施過程中,利用 LLM 作為 OpenIE 工具,並利用預先訓練的密集嵌入模型進行實體解析。
2. 圖基礎模型檢索器(GFM Retriever):
- 查詢依賴的GNN:動態調整訊息傳遞過程,基於查詢語義和KG結構進行多跳推理。
傳統的 GNN 遵循訊息傳遞正規化,該正規化迭代地聚合來自鄰居的資訊以更新實體表示。這種正規化不適用於 GFM 檢索器,因為它是特定於圖的,並且忽略了查詢的相關性。但是 query-dependent GNNs 在捕獲查詢特定資訊和對不可見圖的通用性方面表現出良好:

其中
表示初始實體特徵,HqL表示在經過L層依賴於查詢的訊息傳遞之後以查詢q為條件的更新後的實體表示。

查詢相關的 GNN 表現出更好的表達能力和邏輯推理能力,作為 GFM 檢索器的骨幹。它允許 GFM 檢索器根據使用者查詢動態調整訊息傳遞過程,並在圖上找到最相關的資訊。
- 兩階段訓練
- 無監督KG補全預訓練:在大規模KG上學習圖推理能力
- 有監督文件檢索微調:最佳化查詢-文件相關性。
GFM檢索器的訓練目標是最大化與查詢相關的實體的可能性,可以透過最小化二元交叉熵 (BCE) 損失來最佳化:

其中𝒜q表示與查詢q相關的目標實體集,ℰ-⊆ℰ∖𝒜q表示從 KG 中取樣的負實體集。然而,由於目標實體的稀疏性,BCE 損失可能遭受梯度消失問題。為了解決這個問題,進一步引入了排名損失, 以最大化正負實體之間的邊際:

最終的訓練目標是 BCE 損失和排名損失的加權組合:

3. 文件排序與答案生成:根據實體相關性得分排序文件,輸入LLM生成最終答案。
鑑於 GFM 檢索器預測的實體相關性得分Pq∈ℝ|ℰ|×1,首先檢索相關性得分最高的前T個實體ℰqT:

然後,文件排名器使用這些檢索到的實體來獲取最終文件。為了減少熱門實體的影響,按照實體在文件倒排索引M∈{0,1}|ℰ|×|𝒟|中被提及的頻率的倒數來加權實體,並透過對文件中提及的實體的權重求和來計算最終的文件相關性得分:

根據文件相關性得分Pd檢索排名前K的文件,並以檢索增強生成的方式輸入到 LLMs 的上下文中,以生成最終答案:

圖基礎模型(GFM):GFM是一個基於查詢的GNN,能夠根據使用者查詢動態調整資訊傳遞過程,從而在單步中完成多跳推理。GFM經過兩個階段的訓練:無監督的知識圖完成預訓練和有監督的文件檢索微調。模型有8M引數,透過大規模訓練(60個KG、14M三元組、700k文件)實現跨資料集零樣本泛化。在7個領域資料集上 zero-shot 表現優於HippoRAG 18.9%。
關於 Scaling Law,從圖中我們看到模型效能隨模型引數大小和訓練資料大小變化的擬合趨勢線。從趨勢線中我們可以看到 GFM-RAG 的效能隨著模型引數大小和訓練資料大小的增加而提高。同時,隨著模型引數大小的增大,需要更大的訓練資料量才能達到最佳效能。也就是說,同時擴大模型大小和訓練資料可以進一步提高 GFM-RAG 的效能。

訓練過程:
-
無監督知識圖完成預訓練:透過掩碼知識圖中的實體來建立合成查詢,訓練GFM預測被掩碼的實體。
-
有監督文件檢索微調:使用標註的查詢-文件對進行訓練,使GFM能夠更好地理解使用者查詢並檢索相關文件。
GFM-RAG透過圖結構建模和圖神經網路推理,顯著提升了RAG在複雜推理任務中的效能。但還是同樣的問題,訓練和推理過程可能需要較高的計算資源。如果有更高效的訓練策略和更大的模型規模,模型的效率和泛化性將會得到顯著提高。
3.6 Agentic RAG
LLM橫行的年代,大多數人言則Agent,事實確實如此,LLM的落地一定是Agent,RAG也不例外。代理和 RAG 之間存在著不可分割的關係,RAG 本身是代理的關鍵元件,使它們能夠訪問內部資料;相反,代理可以增強 RAG 功能,從而產生了所謂的 Agentic RAG,例如 Self RAG 和 Adaptive RAG,因此兩者實際上你中有我,我中有你的關係。
這種高階形式的 RAG 允許以受控的方式在更復雜的場景中進行自適應更改。要實現 Agentic RAG,代理框架必須具備“閉環”功能。在 Andrew Ng 的四種代理設計模式中,這種“閉環”能力被稱為反射能力。

Agentic RAG(基於代理的檢索增強生成)代表了RAG技術的最新發展方向,透過將人工智慧代理(Agent)的自主規劃與決策能力引入傳統檢索增強生成框架,實現了對複雜查詢任務的高效處理。本文將全面解析Agentic RAG的核心概念、技術架構、優勢特點以及實際應用場景,幫助讀者深入理解這一前沿技術如何透過智慧代理的動態編排機制和多跳推理能力,顯著提升傳統RAG系統在複雜資訊處理任務中的表現。

3.6.1 核心概念與產生背景
Agentic RAG(基於代理的檢索增強生成)是傳統檢索增強生成技術的高階演進形式,它透過引入人工智慧代理(Agent)的自主決策能力,使RAG系統從被動的資訊檢索-生成管道轉變為具有主動規劃和反思能力的智慧體,本質上是一種融合了Agent能力與RAG架構的混合系統,其核心創新在於將AI智慧體的自主規劃(如路由、行動步驟、反思等)能力整合到傳統的RAG流程中,以適應更加複雜的查詢任務。
Agentic RAG的產生背景正是為了解決傳統RAG在複雜場景下的這些不足。隨著企業知識管理需求的日益複雜化,簡單的問答式RAG已不能滿足實際業務需求。企業環境中存在大量異構資料來源(如結構化資料庫、非結構化文件、知識圖譜等),使用者查詢往往需要跨源關聯和綜合推理。同時,許多高階任務還需要結合外部工具(如計算器、API服務等)才能完整解答。這些挑戰促使RAG技術向更智慧、更自主的方向發展,從而催生了Agentic RAG這一新興正規化。
AI Agent 是具有環境感知、自主決策和行動執行能力的智慧體,能夠基於目標動態規劃行動步驟。將這種能力引入RAG系統後,系統能夠自主決定是否需要檢索、選擇哪種檢索策略、評估檢索結果質量、決定是否重新檢索或改寫查詢,以及在必要時呼叫外部工具。這種進化使RAG系統具備了感知,決策和行動能力。
從系統構成角度看,Agentic RAG可被視為RAG工具化的Agent框架。在這種視角下,傳統的RAG管道(檢索器+生成器)被降級為Agent可使用的一種工具,而Agent則負責更高階的任務規劃與協調。這種架構轉變帶來了設計正規化的根本變化:不再是"如何改進RAG管道",而是"如何讓Agent更有效地利用RAG工具",從而打開了更廣闊的設計空間和最佳化可能性。
表:傳統RAG與Agentic RAG的核心區別

3.6.2 技術架構與關鍵元件
Agentic RAG系統的技術架構呈現出多樣化的設計正規化,從單Agent控制到多Agent協同的不同實現方式。與傳統的線性RAG流程不同,Agentic RAG 將檢索與生成過程重構為基於智慧代理的動態可編排系統,透過引入規劃、反思和工具使用等Agent核心能力,顯著提升了複雜資訊處理任務的解決能力。
單Agent架構模式
單Agent架構是Agentic RAG的基礎實現形式,其核心思想是構建一個具備規劃能力的 Master 智慧體,將各種RAG管道和外部工具作為該 Agent 可呼叫的"工具"。在這種架構中,傳統RAG的檢索器、生成器等元件被工具化,成為 Agent 執行計劃時可選擇的資源。當用戶查詢進入系統後,Master Agent 會首先分析查詢意圖和複雜度,然後動態規劃解決方案,可能包括:決定是否需要檢索、選擇哪種檢索策略(如向量檢索、關鍵詞檢索或混合檢索)、確定是否需要進行多步檢索以及是否需要呼叫外部工具等。
單Agent架構中的關鍵元件包括:
- 查詢分析器:負責深度理解使用者查詢,識別隱含意圖和所需的資訊型別。先進的實現可能採用few-shot學習或思維鏈(Chain-of-Thought)技術提升意圖識別準確率。
- 策略規劃器:基於查詢分析結果,制定檢索與生成策略。例如,對於"比較X和Y"類的對比查詢,規劃器可能決定並行檢索X和Y的相關資訊,然後進行對比生成。
- 工具集:包括各種專業化RAG管道(如面向事實查詢的向量檢索、面向摘要任務的文字壓縮檢索等)和外部工具(如計算器、API介面等)。Agent將這些工具視為可插拔的模組。
- 反思模組:評估中間結果的質量,決定是否需要調整策略。例如,當首次檢索結果不理想時,反思模組可能觸發查詢改寫或更換檢索策略。
單Agent架構的優勢在於設計相對簡單和資源需求較低,適合中等複雜度的應用場景。但當面對企業級複雜知識環境(如跨部門多源異構資料)時,單個Agent可能面臨規劃負擔過重、專業知識不足等挑戰,這時就需要考慮更高階的多Agent架構。
多Agent分層架構
多Agent分層架構是應對企業級複雜場景的 Agentic RAG 解決方案,透過引入層級化的 Agent 組織,實現關注點分離和專業化分工。典型的雙層架構包含一個頂層協調Agent和多個專業領域Agent,每個下層Agent負責特定型別的資料來源或任務,而頂層Agent則負責任務分解、協調和結果整合。
多Agent架構中的典型角色劃分包括:
- 頂層協調Agent:作為系統入口,接收使用者查詢並進行任務分析和規劃。它瞭解整個系統的能力分佈,負責將複雜查詢分解為子任務並分配給合適的專業Agent。
- 領域Agent:每個Agent專門負責某一類文件或特定領域的資料來源。例如,企業環境中可能有財務Agent(處理財報資料)、產品Agent(管理產品文件)和客戶Agent(處理CRM資料)等。這些Agent內部可以整合多種RAG工具,如向量檢索、SQL查詢等,根據子任務特點選擇最佳工具。
- 工具Agent:管理外部工具和API的訪問,如網路搜尋Agent、計算工具Agent等。當領域Agent需要額外能力時,可以透過頂層Agent協調呼叫這些工具Agent。
多Agent架構的核心優勢在於其卓越的可擴充套件性和專業分工。新增資料來源或工具時,只需新增相應的專業Agent而無需修改核心架構。同時,每個Agent可以專注於特定領域,透過精細化最佳化提供更專業的服務。騰訊雲開發者社群的一篇文章中提到,這種架構"既能準確地解析不同型別的檔案,還能利用Agent強大的規劃和推理能力,面對使用者Query選擇最合適的路由策略和處理方法,大幅提升系統面對海量文件、跨文件檢索、全域性提煉與總結等問題時的處理能力"。
在通訊機制的設計上,有中心化通訊VS去中心化通訊。
中心化通訊(Centralized communication),在中心化通訊中,存在一箇中心節點,所有智慧體都直接與這個中心節點進行通訊。中心節點負責協調和整合所有智慧體的資訊,然後向各個智慧體發出指令或反饋。中心節點可以全域性地瞭解所有智慧體的狀態和資訊,有助於做出全域性最優的決策。但是容易出現單點故障,中心節點的故障可能導致整個系統的通訊癱瘓。
去中心化通訊(Decentralized communication),在去中心化通訊中,智慧體之間直接進行通訊,沒有中心節點,每個智慧體只與它的鄰居或部分智慧體交換資訊。有單點故障的風險,系統的魯棒性更強,同時可擴充套件性極強。但是沒有全域性資訊,難以做出全域性最優的決策。
關於Multi Agent系統的設計,又是另外一個複雜的 Topic 了,不做贅述。
四、Challenges and Future Directions in RAG
4.1 統一多模態大模型
透過直接多模態向量化,RAG系統能更自然地處理複雜現實資料,而不僅限於文字世界。實際選型時需權衡計算成本、領域適配性和即時性需求。如GPT-4V、Gemini 1.5的端到端多模態理解。目前的Multimodal 還是處於發展期,遠沒有成熟,問題包括但不限於:
1. 多模態表示與檢索的挑戰
-
跨模態知識表示:不同模態的資料(如文字、影像、音訊)需要轉換為統一的向量表示,以便進行跨模態的高效檢索。然而,如何設計一個能夠準確捕捉不同模態語義資訊的統一表示是一個關鍵問題。例如,CLIP模型透過學習影像和文字的對齊表示實現了跨模態檢索,但其在複雜場景下的泛化能力仍有待提升。 -
檢索效率與準確性:在大規模多模態資料中進行高效檢索是一個挑戰。向量檢索方法雖然能夠快速找到相似的模態資料,但可能難以區分語義上的細微差別,導致檢索結果不準確。此外,多模態資料的稀疏性也增加了檢索難度,尤其是在資訊分散於多個文件時。 -
資料對齊問題:不同模態的資料在語義上需要對齊,例如一段文字描述了一張圖片的內容,如何將這兩者在語義上進行有效對齊是一個關鍵挑戰。 -
生成內容的質量:多模態RAG系統需要確保生成內容的準確性和一致性。由於檢索到的知識片段可能來自不同的模態和文件,模型需要有效地整合這些資訊,比如我們之前講的如何對多路、多模態Reranker就是一個挑戰。
2. 效率與效能
-
計算資源需求:多模態RAG系統需要處理大量的資料和複雜的模型計算,對計算資源的需求較高。特別是在即時應用中,如何最佳化檢索和生成過程以減少延遲是一個關鍵問題。 -
模型訓練與微調:為了提升多模態RAG系統的效能,需要對模型進行微調。然而,不同模態資料的訓練難度不同,且微調過程需要大量的標註資料。 -
魯棒性與可解釋性:相比於傳統的搜尋系統,多模態RAG系統在複雜場景下的魯棒性不足,當然,這不只是RAG的問題。
4.2 安全 (TrustRAG)
檢索外部知識庫可能引入敏感資訊(如專利、隱私資料),RAG模型可能被濫用於生成虛假資訊或惡意內容等等,但是我們這裡主要講惡意攻擊和注入。這篇Paper 《TrustRAG: Enhancing Robustness and Trustworthiness in RAG》,提出了一種兩階段防禦機制:首先,利用 K-means 聚類識別檢索文件中的潛在攻擊模式,基於語義嵌入有效隔離可疑內容;其次,透過餘弦相似度和 ROUGE 指標檢測惡意文件,並透過自我評估過程解決模型內部知識與外部資訊之間的差異。

TrustRAG 的主要工作流:
-
識別惡意文件:利用 K-means 聚類分析文件的語義嵌入分佈,識別出潛在的惡意文件簇。 -
過濾惡意內容:根據嵌入分佈過濾掉惡意文件,保留乾淨文件。 -
提取內部知識:利用 LLM 的內部知識生成準確的推理結果。 -
解決衝突:透過整合內部和外部知識,解決知識衝突,去除不相關或矛盾的文件。 -
生成可靠答案:基於精煉後的文件生成最終的可靠回答
其實關於安全這一塊,是一個非常重要的課題,可以確定的是,LLM一定會超過單個碳基生命的智慧。如何做好安全防護,一定是使用者首先要關注的,比如Deep Mind就有一個Red Team團隊專門研究大模型安全的課題,這裡我們不做過多介紹,後續可以單獨作為一個研究的 Topic。
Reference
-
Advanced AI and Retrieval-Augmented Generation for Code Development in High-Performance Computing | NVIDIA Technical Blog:https://developer.nvidia.com/blog/advanced-ai-and-retrieval-augmented-generation-for-code-development-in-high-performance-computing/
-
LLM as HPC Expert: Extending RAG Architecture for HPC Data:https://arxiv.org/abs/2501.14733
-
Blended RAG: Improving RAG (Retriever-Augmented Generation) Accuracy with Semantic Search and Hybrid Query-Based Retrievers:https://arxiv.org/abs/2404.07220
-
ColPali: Efficient Document Retrieval with Vision Language Models:https://arxiv.org/abs/2407.01449
-
RAG-Reward: Optimizing RAG with Reward Modeling and RLHF:https://arxiv.org/abs/2501.13264
-
GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation:https://arxiv.org/abs/2502.01113
-
TrustRAG: Enhancing Robustness and Trustworthiness in RAG:https://arxiv.org/abs/2501.00879
-
Chain-of-Retrieval Augmented Generation:https://arxiv.org/abs/2501.14342
-
VideoRAG: Retrieval-Augmented Generation over Video Corpus:https://arxiv.org/abs/2501.05874
-
The Power of Noise: Redefining Retrieval for RAG Systems:https://arxiv.org/abs/2401.14887
-
Don’t Forget to Connect! Improving RAG with Graph-based Reranking:https://arxiv.org/abs/2405.18414
-
Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG:https://arxiv.org/abs/2501.09136
-
Improving Retrieval-Augmented Generation through Multi-Agent Reinforcement Learning:https://arxiv.org/abs/2501.15228
-
Dense Passage Retrieval for Open-Domain Question Answering:https://arxiv.org/abs/2004.04906
-
DeepRAG: Thinking to Retrieval Step by Step for Large Language Models:https://arxiv.org/abs/2502.01142
-
Application of Multi-Way Recall Fusion Reranking Based on Tensor and ColBERT in RAG:https://ieeexplore.ieee.org/document/10761558
-
Multimodal Embedding Models | Weaviate:https://weaviate.io/blog/multimodal-models
-
R1/o1的風又吹到了RAG,微軟CoRAG高達93%的複雜推理效果~:https://mp.weixin.qq.com/s/9Pu6wijQ9BLbH6nrP6YBTA
-
The Rise and Evolution of RAG in 2024 A Year in Review | RAGFlow:https://ragflow.io/blog/the-rise-and-evolution-of-rag-in-2024-a-year-in-review
-
Advanced RAG Techniques | Weaviate:https://weaviate.io/blog/advanced-rag
-
Jina-ColBERT-v2: A General-Purpose Multilingual Late Interaction Retriever:https://arxiv.org/pdf/2408.16672
-
LLMs的推理之路:從鏈式思維到強化學習,邁向大型推理模型:https://mp.weixin.qq.com/s/tesV5lAsLXVBdP2WqUCrmw
-
From RAG to Memory: Non-Parametric Continual Learning for Large Language Models:https://arxiv.org/pdf/2502.14802
-
RAG vs. GraphRAG: A Systematic Evaluation and Key Insights:https://arxiv.org/pdf/2502.11371
-
ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT:https://arxiv.org/abs/2004.12832
-
SafeRAG: Benchmarking Security in Retrieval-Augmented Generation of Large Language Model:https://arxiv.org/pdf/2501.18636
即時與AI智慧體進行語音通話
AI即時語音互動是一種旨在幫助企業快速構建AI與使用者之間的語音通話應用的解決方案。使用者只需透過白屏化的介面操作,即可快速構建一個專屬的AI智慧體,並透過影片雲ARTC網路與終端使用者進行即時互動。
點選閱讀原文檢視詳情。