👉 這是一個或許對你有用的社群
《專案實戰(影片)》:從書中學,往事上“練” 《網際網路高頻面試題》:面朝簡歷學習,春暖花開 《架構 x 系統設計》:摧枯拉朽,掌控面試高頻場景題 《精進 Java 學習指南》:系統學習,網際網路主流技術棧 《必讀 Java 原始碼專欄》:知其然,知其所以然

👉這是一個或許對你有用的開源專案國產 Star 破 10w+ 的開源專案,前端包括管理後臺 + 微信小程式,後端支援單體和微服務架構。功能涵蓋 RBAC 許可權、SaaS 多租戶、資料許可權、商城、支付、工作流、大屏報表、微信公眾號、ERP、CRM、AI 大模型等等功能:
Boot 多模組架構:https://gitee.com/zhijiantianya/ruoyi-vue-pro Cloud 微服務架構:https://gitee.com/zhijiantianya/yudao-cloud 影片教程:https://doc.iocoder.cn 【國內首批】支援 JDK 17/21 + SpringBoot 3.3、JDK 8/11 + Spring Boot 2.7 雙版本
deepseek本地部署
第一步:安裝ollama
https://ollama.com/download
第二步:在ollama 官網搜尋
https://ollama.com/


模型大小與顯示卡需求

第三步:在終端執行命令
ollama run deepseek-r1:1.5b

等待安裝即可
第四步:測試功能

第五步:基本命令
#退出模型
>>> /
bye
#檢視模型
C:\Users\chk>ollama list
NAME ID SIZE MODIFIED
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 3 minutes ago
#啟動模型
ollama run deepseek-r1:1.5b
>>>
#檢視幫助
C:\Users\chk>ollama -h
Large language model runner
Usage:
ollama [flags]
ollama [
command
]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information
for
a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help
Help about any
command
Flags:
-h, --
helphelpfor
ollama
-v, --version Show version information
Use
"ollama [command] --help"for
more information about a
command
.
基於 Spring Boot + MyBatis Plus + Vue & Element 實現的後臺管理系統 + 使用者小程式,支援 RBAC 動態許可權、多租戶、資料許可權、工作流、三方登入、支付、簡訊、商城等功能
專案地址:https://github.com/YunaiV/ruoyi-vue-pro 影片教程:https://doc.iocoder.cn/video/
視覺化部署Web UI
第一步:下載Chatbox AI
https://chatboxai.app/zh

設定中文

第二步:將 Chatbox 連線到遠端 Ollama 服務
傳送門:https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide
-
在 Windows 上配置環境變數
在 Windows 上,Ollama 會繼承你的使用者和系統環境變數。透過工作列退出 Ollama。開啟設定(Windows 11)或控制面板(Windows 10),並搜尋“環境變數”。點選編輯你賬戶的環境變數。為你的使用者賬戶編輯或建立新的變數OLLAMA_HOST
,值為0.0.0.0
;為你的使用者賬戶編輯或建立新的變數OLLAMA_ORIGINS
,值為*
。點選確定/應用以儲存設定。從 Windows 開始選單啟動 Ollama 應用程式。

-
服務 IP 地址
配置後,Ollama 服務將能在當前網路(如家庭 Wifi)中提供服務。你可以使用其他裝置上的 Chatbox 客戶端連線到此服務。
Ollama 服務的 IP 地址是你電腦在當前網路中的地址,通常形式如下
192.168.XX.XX
在 Chatbox 中,將 API Host 設定為:
http://192.168.XX.XX:11434
-
注意事項
可能需要在防火牆中允許 Ollama 服務的埠(預設為 11434),具體取決於你的作業系統和網路環境。
為避免安全風險,請不要將 Ollama 服務暴露在公共網路中。家庭 Wifi 網路是一個相對安全的環境。
-
Chatbox配置模型


第三步:效果演示

歡迎加入我的知識星球,全面提升技術能力。
👉 加入方式,“長按”或“掃描”下方二維碼噢:

星球的內容包括:專案實戰、面試招聘、原始碼解析、學習路線。





文章有幫助的話,在看,轉發吧。
謝謝支援喲 (*^__^*)