
據 LexisNexis 釋出的《法律行業生成式人工智慧研究報告》調查結果顯示,超過三分之一的律師和法學生使用過生成式 AI,幾乎五分之一的律師在工作中使用過生成式 AI,且已經運用在各種型別的任務中。
由於法律相關檔案多以文字為主,且在法律工作中,有大量的工作是對於文字的分析與處理。這與 LLM 本身的 text-in/text-out,ChatGPT 等生成式人工智慧擅長處理文字的特性更為契合。因此,生成式人工智慧在法律領域的應用廣泛。
但斯坦福、耶魯等機構近期發表研究稱,經過實驗測試,LexisNexis、GPT-4 等用於法律領域的 AI 工具準確率最高僅到 65%,幻覺問題是需要關注的重要問題。該項研究結果在Reddit 上引發了熱議。
解讀要點: 為什麼法律類 AI 應更有前景?法律 AI 應用的市場情況如何?在實際應用中,法律 AI 主要聚焦於哪些工作場景?哪些場景下的法律 AI 是靠譜的?背後的技術原理是什麼?法律 AI 應用市場尚未成熟,還存在哪些風險?
01 法律 AI 在實際應用中,聚焦於哪些工作場景?
律師等法律專業人士的業務範圍廣泛且繁雜,即包含民事訴訟、刑事辯護等訴訟業務,又包含公司法務、智慧財產權保護、投融資等業務方向,涉及到的詳細工作包括訴訟服務、法律諮詢、起草/審查合同等。
雖然生成式 AI 在法律領域的應用廣泛,但因 LLM 的推理能力等自身的侷限性,目前市面上的法律類 AI 應用通常關注法律文書稽核、案件檢索等相對簡單標準化、重複性高、專業人員參與程度低的場景。
根據 LexisNexis 的《法律行業生成式人工智慧研究報告》,生成式人工智慧目前在法律工作場景中被使用最多的是法律檢索,其次是起草檔案,同時還有檔案分析和盡職調查。

圖: 關於受訪者更傾向於在哪些法律工作場景中使用生成式AI技術的調查結果(源自LexisNexis)
根據報告《First Global Report on the State of Artificial Intelligence in Legal Practice》調查,大約 38%的律師工作是重複性任務,這些任務可以透過 AI 進行改進。文件審查、合同起草和法律研究是律師認為可以透過 AI 改進的最常見的任務。這些任務的共同點在於都涉及大量的資訊處理和模式識別,是 LLM 等 AI 技術所擅長的。[2]
此外,報告調查結果顯示,受訪者們認為最不可能使用基於 AI 工具的工作型別是管理智慧財產權、預測訴訟結果和風險、合規和風險管理以及爭議解決。
目前,市面上的法律類 AI 應用主要分為面向 B 端企業和 C 端使用者兩大類。面向 C 端的應用,主要為針對普通使用者的法律助手,提供聊天式的法律助手服務,如回答使用者法律疑問、提供相應的法律依據和相關判案等;面向 B 端企業受眾的應用,則可以細分為以下幾個應用場景:
① 合同管理:包括合同起草、編輯、合同分析等;
② 法律檔案:包括起草專利、法律文書、取證等、檔案搜尋等;
③ 法律助理:針對律師和律師事務所提供用於回答問題、執行特定任務的法律聊天機器人;
④ 法律相關研究:包括語義判例搜尋、先例搜尋、研究備忘錄等。
以下針對上文提到的面向不同受眾、應用場景的法律類 AI 應用,展開詳細介紹。
法律 AI 應用之合同管理類
大部分的公司通常使用內部團隊管理合同,由於合同數量大、管理流程複雜,由此催生了服務法律團隊的合同生命週期管理(contract lifecycle management)相關的公司。關於合同起草、編輯、合同分析等合同管理類的 AI 應用,較為典型的有 lronclad 和 Robin。
lronclad:是一個合同生命週期管理 (CLM) 平臺,可幫助業務和法律團隊管理合同流程的各個方面,包括起草、編輯、協商、搜尋、簽署和儲存合同等。同時,還能自動為使用者處理大量、低風險的合同,無需法律人員的參與。例如,lronclad 推出的 AI Assist 功能,能基於 AI 技術幫助使用者解釋合同條款、標記問題和修改意見。[3]

圖:lronclad 的 AI 合同審查功能演示
Robin:Robin 主要針對於法律團隊的合同報告生成和分析。服務包括合同審查服務、合同搜尋與分析、合同報告生成以及託管服務。以合同審查服務為例,基於 AI 技術輔助的編輯功能可以減少合同中的修訂情況,確保合同內容的一致性,以及可以自動執行合同內容的總結、定義術語的檢查以及合同的重新起草等任務。
法律 AI 應用之法律檔案類
從一個成熟的律師的時間分配來看,其過半的時間主要用於法律檔案的起草和審查。而 AI 工具旨在提升律師在法律檔案方面的工作效率。
法律檔案類相關的應用較多,以典型的 Luminance 為例展開介紹。Luminance 的定位是法律 AI Copilot,是面向律師的 AI 平臺。基於其專有的法律 AI 大模型,Luminance 具備自動生成、審查和分析合同及其他法律檔案的能力,能夠端到端的進行法律檔案處理。例如,Luminance 每分鐘可以自動閱讀和理解數百頁詳細且複雜的法律文件,使得律所能夠以更快的速度開展必要的盡職調查工作。此外,公司還推出了聊天機器人「Ask Lumi」,透過 Copilot 允許使用者在 Microsoft Word 中開啟任何合同,向 Lumi 詢問有關合同修改的任何問題。[4]

圖:Luminance 官網介紹
此外,聚焦於個人傷害索賠領域的 Evenup 也值得關注。Evenup 利用 AI 為訴前人身傷害案件自動生成需求函,包括車禍、警察暴力、兒童虐待、自然災害等案件,相比傳統人工流程可顯著提升速度。[5]
法律 AI 應用之法律助理類
隨著律所員工和其他業務成本的增加,降本增效正成為業內的大趨勢。而法律助理類的 AI 應用幫助律師從繁重的文書工作中解放出來,提高工作效率的同時,專注於更加複雜和戰略性的工作。
Harvey 是典型的法律助理類 AI 應用。Harvey 以大型律師事務所作為目標客戶,定位是律師的通用性助理。Harvey 平臺提供了一套針對所有執業領域和工作流程的律師和律師事務所量身定製的產品。其 AI 助手可以透過自然語言指令幫助起草、分析、回答問題等,如可以幫助使用者調研並回答法律、監管和稅務等多個領域的複雜研究問題。同時,可以一次性千個合同文件轉換為結構化資料進行分析。此外,還提供定製化服務,使用客戶提供的特有工作產品和模板訓練,定製專屬的模型,嵌入至員工的工作流中。[6]
法律 AI 應用之法律研究類
據《First Global Report on the State of Artificial Intelligence in Legal Practice》調查,法律研究和文件自動化是律師們使用 AI 工具最頻繁的兩個場景。在調查中,有 79.7%的受訪者選擇了法律研究作為可以透過 AI 進行改進的任務。這可能是因為 AI 能夠快速地搜尋和分析大量法律文件和案例,從而幫助律師更高效地進行法律研究。
02 LegalTech 的趨勢下,背後的技術原理是什麼?如何提高實際可用性?
「AI+法律行業」的發展主要分為三個階段,目前正處於「LLM+法律」的第三階段。[7]
-
第一階段:2000-2011 年,AI 主要應用於 E-discovery(指對電子資料的識別、收集、處理、審查和製作),搜尋、排序和分類資料,用於減少瀏覽大量法律檔案所需的時間;
-
第二階段:2012-2020 年,在 E-discovery 的基礎之上,以 NLP 為主的 AI 技術進入合同管理、訴訟預測、法律研究等法律工作流程中;
-
第三階段:2021 年至今,以 LLM 為主的 AI 技術發展迅速,出現了大量針對法律文書稽核、案件檢索、合同撰寫及稽核的法律 AI 應用。
儘管 LLM 等 AI 技術的發展,使得越來越多的法律 AI 能夠輔助文件審查、合同起草和法律研究等任務。但法律 AI 存在的「幻覺」問題或明顯錯誤的輸出,成為其在實際應用中最大的「難題」。在法律工作中,錯誤風險是不對稱的,微小的錯誤可能導致重大的法律後果。
例如,在去年美國的一起訴訟案件中,一位資深律師在向法院提交的檔案中,引用了 ChatGPT 捏造的 6 個不存在的案例。同時,一項研究發現,通用大型語言模型(LLM)在法律查詢中平均有 58%到 82%的時間產生幻覺。[8]
斯坦福大學和耶魯大學的論文《Hallucination-Free?Assessing the Reliability of Leading AI Legal Research Tools》指出,法律類 LLM 產生的幻覺主要為事實性幻覺,即 AI 工具產生的回應中包含的錯誤資訊或虛假斷言某個來源支援某個主張。事實性幻覺涉及到模型對其訓練資料、輸入提示或真實世界事實的不忠實。在法律環境中,主要關注第三種情況,即模型的回應與法律事實真相不符。[9]
法律類 LLM 產生幻覺的原因主要有幾點:一是在檢索挑戰,法律查詢往往不具有單一明確的答案,且法律意見隨時間由法官撰寫,這些意見會相互建立在先例之上,這使得決定要檢索什麼資訊在法律設定中變得具有挑戰性;二是文件相關性,在法律背景下,文件的相關性不僅僅基於文字相似性,還需要考慮非文字元素,如管轄區和時間等;三是生成有意義的法律文字的複雜性,法律檔案通常由律師來寫,依賴於大量的背景知識來正確理解和應用。需要能夠在保持適當法律背景的同時,從不同文字中綜合事實、裁決和規則。
因此,法律類 LLM 的幻覺問題更容易在複雜法律研究、案例法分析、合同分析和起草、事實性查詢等場景中出現。
業內常用的做法是採用檢索增強生成(RAG)技術來解決大語言模型的幻覺、知識更新問題。
RAG 技術為大型語言模型(LLM)提供從某些資料來源檢索到的資訊,以此作為生成答案的基礎。通常是搜尋加上 LLM 提示的結合,即讓模型根據搜尋演算法找到的資訊作為上下文來回答查詢,同時查詢和檢索到的上下文都被注入到傳送給 LLM 的提示中。
簡單來說,RAG 的本質是將一些參考資料複製貼上到 LLM 的上下文中,然後要求它在給出答案時使用這些參考資料。當 RAG 技術應用到法律 LLM 中時,就像讓 LLM 進行「開卷考試」一樣,透過參考相關資料,從而提高回答的準確性和可靠性。
首先,使用者提出法律問題;然後,LLM 系統搜尋相關的法律文件、案例、法規等資料;接著,LLM 將找到的相關資料和使用者的問題一起構成一個完整的提示;最後,LLM 根據提示中的資料和問題生成回答。
儘管 RAG 技術可以改善 LLM 在回答法律查詢時的效能,但幻覺問題依然是存在的。據上述提到的斯坦福大學和耶魯大學的論文,對基於 RAG 的專有法律 AI 工具的效能進行了評估,結果顯示 LexisNexis 的 Lexis+ AI 和 Thomson Reuters 的 Westlaw AI-Assisted Research 和 Ask Practical Law AI 在回答查詢時,分別有 17%到 33%的時間會產生幻覺。
03 法律 AI 應用市場尚未成熟,還存在哪些風險?
受限於 LLM 的智慧化程度以及法律領域的高資料壁壘和知識壁壘,大多數律所在實施 AI 技術時往往採取謹慎的態度。針對於 C 端普通消費者也存在一定的風險,大模型存在的各種幻覺問題,同時普通消費者沒有法律背景,對於法律 AI 給出的答案沒有分辨能力。法律 AI 市場仍處於不成熟的階段,缺乏主導技術……
訂閱機器之心Pro會員通訊👇,檢視完整解讀
關鍵詞
模型
文件
問題
問題
任務