离线运行 AI,免费使用 OpenAI 级别推理模型
本教程将手把手教你如何在本地部署 DeepThink R1 AI 模型,让你无需联网就能运行强大的 AI 推理任务。无论你是AI 新手还是资深开发者,都可以轻松上手!
DeepThink R1 介绍
安装 Ollama(AI 运行环境)
下载并安装 DeepThink R1 模型
在终端运行 DeepThink R1
使用 Chatbox 浏览器 UI 交互
创建你的专属 AI 伙伴
进阶玩法:离线 AI 编程、自动化工具
常见问题 & 故障排除
DeepThink R1 是一款本地可运行的大语言模型(LLM),在数学推理、代码生成等领域表现强大, 并且可以免费运行在你的电脑上,无需联网。
模型版本 | 参数量 | 最低显存需求 | 最低内存需求 |
---|---|---|---|
R1-3B | 3B | 4GB | 8GB |
R1-7B | 7B | 8GB | 16GB |
R1-14B | 14B | 16GB | 32GB |
推荐配置
显卡:NVIDIA RTX 3060 及以上(>= 8GB VRAM)
CPU:AMD Ryzen 7 / Intel i7 及以上
内存:16GB 及以上
存储:至少 50GB 可用空间
✅ 支持系统
Windows(推荐使用 WSL2)
Mac(Apple Silicon 原生支持)
Linux(Ubuntu 20.04+)
Ollama 是一个轻量级的大语言模型管理工具,支持 Windows / Mac / Linux。
官网:https://ollama.com/
Windows(需要 WSL2 Ubuntu)
curl -fsSL https://ollama.com/install.sh | sh
Mac
brew install ollama
Linux
curl -fsSL https://ollama.com/install.sh | sh
安装成功后,输入以下命令查看版本号,确保安装成功:
ollama --version
DeepThink R1 需要手动下载并添加到 Ollama。
ollama pull deepthink:r1
官网:https://www.deepseek.com/
这个命令会自动下载模型,下载速度取决于网络情况。
下载完成后,运行以下命令查看所有可用模型:
ollama list
当模型下载完成后,使用以下命令启动:
ollama run deepthink:r1
然后输入任何问题,比如:> 9.9 和 9.11 哪个更大?
DeepThink R1 会直接给出答案,并展示清晰的推理过程。
退出模型
/bye
查看本地所有 AI 模型
ollama list
虽然终端可以运行 DeepThink R1,但使用 浏览器 UI 交互 会更方便。
访问 Chatbox 官网
下载安装适合你系统的版本(Windows / Mac / Linux)
打开 Chatbox
进入“设置”
选择“模型”
选择 Ollama
确保连接到本地 Ollama
选择 deepthink:r1 并保存
DeepThink R1 允许你创建一个个性化 AI 助手。
在 Chatbox 进入“我的搭档”
点击“创建搭档”
设定 AI 的个性、专长
保存后,即可使用!
你可以设定:
专业 AI 教授
代码助理
私人顾问
本地离线编程助手
个人知识库 AI
DeepThink R1 支持离线 AI 编程、自动化任务,你可以: ✅ 本地 AI 编程 ✅ 本地 AI 助手 ✅ AI 文档总结 ✅ 离线 GPT 类模型 ✅ 集成到 VSCode、Python 代码
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "deepthink:r1", "prompt": "解释鲁迅为什么打周树人"}
)
print(response.json())
❌ Ollama 命令无法识别? ✅ 重新安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
❌ DeepThink R1 下载速度慢? ✅ 直接从 Hugging Face 下载 .gguf
文件并手动加载
❌ Chatbox 无法连接 Ollama? ✅ 运行:
ollama serve
然后在 Chatbox 设置 http://localhost:11434