本地部署deepseek及删除方法
部署deepseek需要先安装ollama,运行之后再安装大模型deepseek或其他模型,配合浏览器插件page assist就可以在浏览器上和大模型对话了。
安装ollama

官网地址:https://ollama.com/download/linuxcurl -fsSL https://ollama.com/install.sh | sh
需要梯子。
1 | # 启用 |
1 | >>> Installing ollama to /usr/local |
安装deepseek

ollama run deepseek-r1:7b
deepseek有各种版本,其中7b需要4.7GB。deepseek-r1是DeepSeek 的第一代推理模型,性能可与 OpenAI-o1 相媲美,包括从 DeepSeek-R1 中提炼出来的基于 Llama 和 Qwen 的 6 个密集模型。
1 | ollama run deepseek-r1:7b |
需要在命令行上和模型对话,不方便使用。
浏览器安装Page Assist插件
可在crx搜搜上下载crx,再安装,有梯子可直接在商店安装。
打开插件,进入设置,设置好语言,RAG设置文本嵌入模型为deepseekr1,就可以直接和deepseek对话了。




ollama和deepseek安装到i3m380的主机上,CPU占用率直接100%,安装到日用电脑上,在和模型对话时,ollama进程的CPU占用率也到了70%+。
在n5095+16G内存的机子上也跑得费劲。
在局域网内共享DeepSeek-R1模型
局域网访问
默认情况下,Ollama仅监听127.0.0.1:11434,只允许本机访问。通过设置OLLAMA_HOST=0.0.0.0:端口号,可将服务绑定到所有网络接口,实现局域网内多设备共享模型资源。解决跨域问题:Web UI集成
浏览器安全策略会阻止跨域请求,例如使用Open WebUI或LobeChat等前端工具时。配置OLLAMA_ORIGINS=*(允许所有来源)或指定域名列表,可解除跨域限制。
Linux系统:
修改/etc/systemd/system/ollama.service
在[Service]段添加环境变量:
Environment=”OLLAMA_HOST=0.0.0.0:11434”
Environment=”OLLAMA_ORIGINS=*”
重载配置并重启服务,systemctl daemon-reloadsystemctl restart ollama
删除ollama
删除模型
ollama list
NAME ID SIZE MODIFIED
deepseek-r1:8b 6995872bfe4c 5.2 GB 20 minutes agoollama rm deepseek-r1:8b
deleted ‘deepseek-r1:8b’删除ollama
systemctl stop ollamasystemctl disable ollama
Removed “/etc/systemd/system/default.target.wants/ollama.service”.rm /etc/systemd/system/ollama.servicerm -r /usr/share/ollamauserdel ollama
userdel: group ollama not removed because it has other members.groupdel ollama