DeepSeek本地部署,保姆級教程,帶你打造最強AI

👉 這是一個或許對你有用的社群
🐱 一對一交流/面試小冊/簡歷最佳化/求職解惑,歡迎加入芋道快速開發平臺知識星球。下面是星球提供的部分資料:
👉這是一個或許對你有用的開源專案
國產 Star 破 10w+ 的開源專案,前端包括管理後臺 + 微信小程式,後端支援單體和微服務架構。
功能涵蓋 RBAC 許可權、SaaS 多租戶、資料許可權、商城、支付、工作流、大屏報表、微信公眾號、ERPCRMAI 大模型等等功能:
  • Boot 多模組架構:https://gitee.com/zhijiantianya/ruoyi-vue-pro
  • Cloud 微服務架構:https://gitee.com/zhijiantianya/yudao-cloud
  • 影片教程:https://doc.iocoder.cn
【國內首批】支援 JDK 17/21 + SpringBoot 3.3、JDK 8/11 + Spring Boot 2.7 雙版本 

deepseek本地部署

第一步:安裝ollama
https://ollama.com/download
第二步:在ollama 官網搜尋
https://ollama.com/
模型大小與顯示卡需求
第三步:在終端執行命令

ollama run deepseek-r1:1.5b

等待安裝即可
第四步:測試功能
第五步:基本命令
#退出模型

>>> /

bye
#檢視模型

C:\Users\chk>ollama list

NAME                ID              SIZE      MODIFIED

deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    3 minutes ago

#啟動模型

ollama run deepseek-r1:1.5b

>>>

#檢視幫助

C:\Users\chk>ollama  -h

Large language model runner
Usage:

  ollama [flags]

  ollama [

command

]
Available Commands:

  serve       Start ollama

  create      Create a model from a Modelfile

  show        Show information 

for

 a model

  run         Run a model

  stop        Stop a running model

  pull        Pull a model from a registry

  push        Push a model to a registry

  list        List models

  ps          List running models

  cp          Copy a model

  rm          Remove a model

help

        Help about any 

command

Flags:

  -h, --

helphelpfor

 ollama

  -v, --version   Show version information
Use 

"ollama [command] --help"for

 more information about a 

command

.

基於 Spring Boot + MyBatis Plus + Vue & Element 實現的後臺管理系統 + 使用者小程式,支援 RBAC 動態許可權、多租戶、資料許可權、工作流、三方登入、支付、簡訊、商城等功能
  • 專案地址:https://github.com/YunaiV/ruoyi-vue-pro
  • 影片教程:https://doc.iocoder.cn/video/

視覺化部署Web UI

第一步:下載Chatbox AI
https://chatboxai.app/zh
設定中文
第二步:將 Chatbox 連線到遠端 Ollama 服務
傳送門:https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide
  1. 在 Windows 上配置環境變數
在 Windows 上,Ollama 會繼承你的使用者和系統環境變數。
透過工作列退出 Ollama。
開啟設定(Windows 11)或控制面板(Windows 10),並搜尋“環境變數”。
點選編輯你賬戶的環境變數。
為你的使用者賬戶編輯或建立新的變數 OLLAMA_HOST,值為 0.0.0.0;為你的使用者賬戶編輯或建立新的變數 OLLAMA_ORIGINS,值為 *
點選確定/應用以儲存設定。
從 Windows 開始選單啟動 Ollama 應用程式。
  1. 服務 IP 地址
配置後,Ollama 服務將能在當前網路(如家庭 Wifi)中提供服務。你可以使用其他裝置上的 Chatbox 客戶端連線到此服務。
Ollama 服務的 IP 地址是你電腦在當前網路中的地址,通常形式如下
192.168.XX.XX
在 Chatbox 中,將 API Host 設定為:
http://192.168.XX.XX:11434
  1. 注意事項
可能需要在防火牆中允許 Ollama 服務的埠(預設為 11434),具體取決於你的作業系統和網路環境。
為避免安全風險,請不要將 Ollama 服務暴露在公共網路中。家庭 Wifi 網路是一個相對安全的環境。
  1. Chatbox配置模型
第三步:效果演示

歡迎加入我的知識星球,全面提升技術能力。
👉 加入方式,長按”或“掃描”下方二維碼噢
星球的內容包括:專案實戰、面試招聘、原始碼解析、學習路線。
文章有幫助的話,在看,轉發吧。
謝謝支援喲 (*^__^*)

相關文章