大模型本地化部署及微調技術

本文來自“大模型本地化部署及微調”,重點分析大模型在垂直領域使用時為啥需要修改或增強,檢索增強生成RAG和微調Fine-tunning選擇,微調的種類和相關工具框架介紹,RAGFine-tunning微調時費用常見的估算方法,實際微調。
目前大模型存在的問題
  • 幻覺問題:LLM 有時會生成看似合理但實際錯誤的內容,這種現象被稱為“幻覺” 。 這主要是由於預訓練資料的侷限性,模型可能缺乏特定領域的知識,或在資料中學習到錯誤資訊。
  • 時效性問題:LLM 的訓練資料通常截至於特定時間點,因此無法處理訓練後發生的事件或更新的資訊。 這在需要即時資訊的應用中是一個顯著的限制。
  • 大模型(如GPT、LLaMA等)通常是在大規模通用資料上預訓練的,因此在知識覆蓋、語言能力上表現優秀,但對於某些垂直領域(如醫療、法律、金融)的專業知識和特定語境可能並不充分。
主要解決的方法:
  • 檢索增強生成(RAG):結合資訊檢索和生成模型,在生成回答時即時檢索最新的外部資訊,以提供準確且最新的內容。
  • 微調(Fine-Tuning):使用領域特定的資料對模型進行微調,使其更好地掌握專業知識,減少幻覺現象。
相關文章:

請之前購買過全店打包架構師技術全店資料打包彙總(全)”的讀者,請憑藉購買記錄在微店留言免費獲取(PDF閱讀版本)。後續所有更新均免費發放目前46本資料)。

免責申明:本號聚焦相關技術分享,內容觀點不代表本號立場,可追溯內容均註明來源,釋出文章若存在版權等問題,請留言聯絡刪除,謝謝。
推薦閱讀
更多架構相關技術知識總結請參考“架構師全店鋪技術資料打包(全)”相關電子書(46本技術資料打包彙總詳情可透過“閱讀原文”獲取)。
溫馨提示:
掃描二維碼關注公眾號,點選閱讀原文連結獲取架構師技術全店資料打包彙總(全)電子書資料詳情


相關文章