您可以使用 Open WebUI 结合 Ollama 来运行 DeepSeek-R1-70B 模型,并通过 Web 界面进行交互。以下是完整的部署步骤。
Ollama 是一个本地化的大模型管理工具,它可以在本地运行 DeepSeek-R1-70B。
curl -fsSL https://ollama.com/install.sh | sh
brew install ollama
运行以下命令,检查 Ollama 是否安装成功:
ollama -v
如果安装成功,将返回 Ollama 的版本号。
在终端中运行以下命令,下载 DeepSeek-R1-70B 模型:
ollama pull deepseek-r1:70b
⚠️ 注意:
deepseek-r1:7b
版本:ollama pull deepseek-r1:7b
启动 DeepSeek-R1-70B:
ollama run deepseek-r1:70b
如果您希望它 以 API 方式运行,可以执行:
ollama serve
默认情况下,Ollama API 监听 http://localhost:11434
端口。
Open WebUI 提供了一个友好的 Web 界面来调用 Ollama 部署的模型。
运行以下 Docker 命令:
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
http://localhost:3000
。http://localhost:3000
。deepseek-r1:70b
http://host.docker.internal:11434
在 Open WebUI 界面:
deepseek-r1:70b
deepseek-r1:70b
。ollama serve
)。使用 Docker Compose 启动 Open WebUI + Ollama
version: "3"
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
restart: always
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
depends_on:
- ollama
environment:
- OLLAMA_BASE_URL=http://ollama:11434
restart: always
然后运行:
docker compose up -d
启用 Web 访问
ollama serve --host 0.0.0.0
这样,您的 Open WebUI + Ollama + DeepSeek-R1-70B 就可以正常运行了!