部署deepseek需要先安装ollama,运行之后再安装大模型deepseek或其他模型,配合浏览器插件page assist就可以在浏览器上和大模型对话了。

安装ollama


官网地址:https://ollama.com/download/linux
curl -fsSL https://ollama.com/install.sh | sh
需要梯子。

1
2
3
4
5
6
# 启用
export HTTP_PROXY=http://192.168.0.2:20171/
export HTTPS_PROXY=http://192.168.0.2:20171/
#关闭
unset HTTP_PROXY
unset HTTPS_PROXY
1
2
3
4
5
6
7
8
9
10
11
12
13
>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

安装deepseek


ollama run deepseek-r1:7b
deepseek有各种版本,其中7b需要4.7GB。deepseek-r1是DeepSeek 的第一代推理模型,性能可与 OpenAI-o1 相媲美,包括从 DeepSeek-R1 中提炼出来的基于 Llama 和 Qwen 的 6 个密集模型。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
ollama run deepseek-r1:7b

pulling manifest
pulling 96c415656d37... 100% ▕███████████████████████████████████████████████████████████▏ 4.7 GB
pulling 369ca498f347... 100% ▕███████████████████████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕███████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕███████████████████████████████████████████████████████████▏ 148 B
pulling 40fb844194b2... 100% ▕███████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success

>>> /?
Available Commands:
/set Set session variables
/show Show model information
/load <model> Load a session or model
/save <model> Save your current session
/clear Clear session context
/bye Exit
/?, /help Help for a command
/? shortcuts Help for keyboard shortcuts

Use """ to begin a multi-line message.

需要在命令行上和模型对话,不方便使用。

浏览器安装Page Assist插件

可在crx搜搜上下载crx,再安装,有梯子可直接在商店安装。
打开插件,进入设置,设置好语言,RAG设置文本嵌入模型为deepseekr1,就可以直接和deepseek对话了。



ollama和deepseek安装到i3m380的主机上,CPU占用率直接100%,安装到日用电脑上,在和模型对话时,ollama进程的CPU占用率也到了70%+。
在n5095+16G内存的机子上也跑得费劲。

在局域网内共享DeepSeek-R1模型

  • 局域网访问
    默认情况下,Ollama仅监听127.0.0.1:11434,只允许本机访问。通过设置OLLAMA_HOST=0.0.0.0:端口号,可将服务绑定到所有网络接口,实现局域网内多设备共享模型资源。

  • 解决跨域问题:Web UI集成
    浏览器安全策略会阻止跨域请求,例如使用Open WebUI或LobeChat等前端工具时。配置OLLAMA_ORIGINS=*(允许所有来源)或指定域名列表,可解除跨域限制。

Linux系统:

修改/etc/systemd/system/ollama.service
在[Service]段添加环境变量:
Environment=”OLLAMA_HOST=0.0.0.0:11434”
Environment=”OLLAMA_ORIGINS=*”
重载配置并重启服务,
systemctl daemon-reload
systemctl restart ollama

删除ollama

  • 删除模型
    ollama list
    NAME ID SIZE MODIFIED
    deepseek-r1:8b 6995872bfe4c 5.2 GB 20 minutes ago
    ollama rm deepseek-r1:8b
    deleted ‘deepseek-r1:8b’

  • 删除ollama
    systemctl stop ollama
    systemctl disable ollama
    Removed “/etc/systemd/system/default.target.wants/ollama.service”.
    rm /etc/systemd/system/ollama.service
    rm -r /usr/share/ollama
    userdel ollama
    userdel: group ollama not removed because it has other members.
    groupdel ollama