
作者 | 智合研究院
生成式人工智慧(AIGC)的崛起正在重塑律師行業的傳統工作模式。從法律文書的自動化生成到案例檢索的智慧化輔助,AI技術顯著提升了效率,但也帶來前所未有的挑戰。
2023年美國和2025年2月澳大利亞的幾名律師,透過ChatGPT生成虛構事實的文書,揭示了AI濫用對司法公正的威脅,而這或許只是開始。對如何使用這一新興工具,行業內亟待達成共識和具體的規範。
今年2月,澳大利亞一州的法律服務專員辦公室(OLSC)被要求,調查一名律師在去年十月向澳大利亞聯邦巡迴及家事法院(FCFCOA)提交的案情陳述書,及修訂申請中使用ChatGPT的情況。
這名執業近三十年的律師被要求提交宣誓書,對事件作出全面解釋。他解釋稱,由於時間緊迫和健康問題,他決定使用AI,透過某個網站輸入關鍵詞後,“網站自動生成了案例摘要”。
他表示生成的摘要“看起來質量不錯”,因此“未經細節核實便將相關法律依據和引注納入案情陳述”。在虛假引注被揭露後,該律師向法庭助理傳送了說明函件。
當對方律師指出相關錯誤後,這名律師想提交修改後的陳述書,但法官表示損失已經發生。“法庭及助理人員已耗費大量時間查詢相關案例,並核實行政上訴裁判署(AAT)的決定是否正確歸檔。”該法官說。
“由於這名律師的行為,案件無法正常推進,需要重新制定時間表,以確保該律師代理的當事人能夠妥善提交修訂申請和案情陳述。”
儘管法庭接受該律師對自身行為“深感羞愧”且承諾不再重犯,但法官強調此事牽涉“公共價值”,需要將它移交監管機構。“生成式人工智慧在司法程式中的應用,是一個不斷發展的議題。”該法官表示。

事實上,這並非是孤例。
2023年6月,紐約兩名律師因在法律簡報中,使用ChatGPT虛構的案件而受到處罰,其中包括由其生成的六份虛構案例引文。
美國地區法官在曼哈頓判決這兩名律師史蒂文·施瓦茨(Steven Schwartz)和彼得·洛杜卡(Peter LoDuca),以及他們的律師事務所Levidow, Levidow & Oberman總共支付5000美元的罰款。
法官發現這些律師,“有意識地迴避問題,並向法院做出虛假和誤導性陳述”。根據施瓦茨在曼哈頓聯邦法院提交的宣誓書,他承認ChatGPT編造了這些案例,儘管最初認為它提供的資訊是真實的。
貢薩加大學法學教授德魯·西姆肖(Drew Simshaw)表示:“也許這是律師過度依賴ChatGPT的一個極端例子。這可能不會是我們最後一次看到這種倉促的整合和高度的依賴,如何應用這一工具,顯然需要額外的監管。”
福特漢姆法學院教授布魯斯·格林(Bruce Green)表示,技術進步不能替代事實核查。“這其實不是新問題,律師多年來一直外包或委派工作。”他說,“你必須確保,如果工作是由非律師、由沒有執業資格的人完成,那麼這項工作必須受到核查,而且你必須對此負責。”
紐約的這起事件,發生在一件人身傷害案中。由地區法官指出,當事方的答辯中存在對“不存在案件”和“虛假引文”的引用。
根據施瓦茨的說法,這些案例和引文由ChatGPT提供。他此前從未使用ChatGPT進行過法律研究,並且“不知道其內容可能是虛假的。”他在宣誓書中說。另一名律師洛杜卡在一份法庭檔案中表示,他沒有理由懷疑施瓦茨的研究。

格林表示,此案或許沒有先例,但顯示出未來法律行業中可能出現的問題。例如,律師是否應該披露他們在工作中對人工智慧工具的依賴程度?賓夕法尼亞州立大學法學教授、前摩根路易斯執行合夥人湯姆·沙博(Tom Sharbaugh)表示,律師事務所必須透過內部制度,解決怎樣使用生成式人工智慧的問題,“因為律師很可能會選擇最簡單的處理方式”。
根據高盛2023年3月份的報告,法律工作的許多方面可能透過人工智慧的使用實現自動化。西姆肖表示,施瓦茨案表明需要“在發展初期非常謹慎”,他撰寫了有關法律技術與道德倫理的交叉文章。
“從監管角度來看,存在很多問題。”他說,“法律行業在監管技術方面一直落後。各州通常採用與美國律師協會職業行為示範規則密切相關的道德規則。這些規則自2012年以來就沒有更新過,當時雲計算還是流行詞。”
奧睿律師事務所前主席、現任律所顧問拉爾夫·巴克斯特(Ralph Baxter)表示,ChatGPT的錯誤是一個更大危機的引子,源自新技術的巨大效益和潛在缺陷。他表示,這項技術有可能顛覆法律行業,對律師事務所的人員配置和財務狀況產生重大影響。
“所有大型律所都會期望其員工熟練掌握生成式人工智慧的使用。”巴克斯特說,“律師事務所需要考慮如何在意識到風險和侷限性的同時,又能充分利用這項技術。”
結語
除生成式AI產生的“幻覺”風險,其生成的內容還模糊了責任歸屬。當律師提交的文書包含AI虛構內容時,責任應由開發者、使用者還是監管機構承擔?現行法律對此尚無明確規定。
或因此,許多律所和機構,開發專用於法律的AI模型,針對法律場景最佳化演算法,嵌入判例資料庫校驗功能,減少“幻覺”產生。例如,訓練資料限定於權威法律文獻,並設定即時聯網核驗機制。其次,構建透明演算法,使AI的決策過程可追溯。
另外在責任確定上,應區分“技術工具使用過失”與“故意造假”,並要求律師在提交法律檔案時註明AI參與程度,並保留人工複核記錄。
此外,AI還可能加劇法律服務的“馬太效應”——資源充足的大型律所可透過定製化AI工具進一步壟斷市場,中小律所則因技術壁壘陷入劣勢。
從長期看,應探索AI在司法透明化、法律援助普惠化等領域的正向價值。例如,利用AI分析類案裁判尺度以減少司法偏差,或為偏遠地區提供低成本法律諮詢。如此,也許才能真正實現“科技向善”。
注:本文封面圖由“即夢AI”製作生成
END

參考資料
Reuters:New York lawyers sanctioned for using fake ChatGPT cases in legal brief
Lawyers weekly:ChatGPT blunder sees lawyer referred to regulator
關注智合
和百萬法律人同行


責編 / 吳夢奇Scott
編輯 / 顧文倩Aro
分類 / 原創