

本文來自“大模型本地化部署及微調”,重點分析大模型在垂直領域使用時為啥需要修改或增強,檢索增強生成RAG和微調Fine-tunning選擇,微調的種類和相關工具框架介紹,RAG、Fine-tunning微調時費用常見的估算方法,實際微調。
目前大模型存在的問題
-
幻覺問題:LLM 有時會生成看似合理但實際錯誤的內容,這種現象被稱為“幻覺” 。 這主要是由於預訓練資料的侷限性,模型可能缺乏特定領域的知識,或在資料中學習到錯誤資訊。
-
時效性問題:LLM 的訓練資料通常截至於特定時間點,因此無法處理訓練後發生的事件或更新的資訊。 這在需要即時資訊的應用中是一個顯著的限制。
-
大模型(如GPT、LLaMA等)通常是在大規模通用資料上預訓練的,因此在知識覆蓋、語言能力上表現優秀,但對於某些垂直領域(如醫療、法律、金融)的專業知識和特定語境可能並不充分。
主要解決的方法:
-
檢索增強生成(RAG):結合資訊檢索和生成模型,在生成回答時即時檢索最新的外部資訊,以提供準確且最新的內容。
-
微調(Fine-Tuning):使用領域特定的資料對模型進行微調,使其更好地掌握專業知識,減少幻覺現象。
本文所有資料都已上傳至“智慧計算芯知識”星球。如“浙江大學:從大模型、智慧體到複雜AI應用系統的構建——以產業大腦為例”,“浙江大學:DeepSeek技術14篇(合集)”,“《260+份DeepSeek技術報告合集》”,“《100+份AI晶片技術修煉合集》”,“800+份重磅ChatGPT專業報告”,“《12+份Manus技術報告合集》”,加入星球獲取嚴選精華技術報告。








































未完待續,請參考完整版報告“大模型本地化部署及微調”,“浙江大學:從大模型、智慧體到複雜AI應用系統的構建——以產業大腦為例”,“2025年中國算力中心行業白皮書”,“把握DeepSeek時刻:華為昇騰AI解決方案”,獲取更多內容……
相關文章:



免責申明:本號聚焦相關技術分享,內容觀點不代表本號立場,可追溯內容均註明來源,釋出文章若存在版權等問題,請留言聯絡刪除,謝謝。
推薦閱讀
更多架構相關技術知識總結請參考“架構師全店鋪技術資料打包(全)”相關電子書(46本技術資料打包彙總詳情可透過“閱讀原文”獲取)。
溫馨提示:
掃描二維碼關注公眾號,點選閱讀原文連結獲取“架構師技術全店資料打包彙總(全)”電子書資料詳情。

