本地部署 DeepSeek

一、为什么选择本地部署 DeepSeek?

(一)服务器不稳定之殇

当我们依赖在线服务器使用 DeepSeek 时,时常会遭遇服务器的 “小脾气”。想象一下,你正灵感爆棚,借助 DeepSeek 撰写一篇精彩的文章,或是进行重要的数据分析,可服务器突然宕机,一切努力瞬间付诸东流;又或者在使用高峰时段,模型的反应变得异常迟缓,每一次提问都要等待漫长的时间,严重影响工作效率和创作心情。而这些问题的根源,很大程度上是因为 DeepSeek 的服务器在国外,网络连接不稳定,在高并发情况下更容易出现故障,就像在享受线上音乐会时频繁遭遇网络卡顿,再好的演出也会大打折扣。

(二)释放个人电脑的强大性能

如今,个人电脑的硬件性能日益强大,很多电脑的显存都能达到 4GB 以上,就如同拥有一辆高性能的赛车,却被限制在拥堵的街道上缓慢行驶。通过本地部署 DeepSeek,我们可以充分利用个人电脑的强大算力,让模型运行不再受网络速度的限制,从而获得更加流畅、高效的 AI 使用体验,尽情发挥电脑的 “赛车性能”。

(三)数据隐私与便捷更新

本地部署 DeepSeek 还有两大显著优势,一是数据隐私得到更好的保护。将模型部署在本地,就好比把珍贵的珠宝放在自家的保险箱里,所有的数据处理都在本地进行,无需担心数据在网络传输过程中被泄露或窃取。二是模型更新更加便捷,我们可以随时根据自己的需求更新模型,确保始终使用最新版本,享受最新的功能和性能优化。

二、本地部署 DeepSeek 所需工具

(一)Ollama:智能模型管家

Ollama 是本地部署 DeepSeek 的关键工具之一,它就像是一位贴心的管家,负责在本地运行和管理大模型。通过 Ollama,我们可以轻松地下载、安装和管理各种开源模型,包括 DeepSeek - R1。它支持多种模型,方便我们根据不同的需求进行选择。不过,Ollama 也有一个小小的缺点,它在后台运行,缺乏直观的可视化界面,这就需要借助 Open WebUI 来弥补。

(二)DeepSeek - R1:核心 AI 大脑

DeepSeek - R1 是本次部署的主角,作为今年表现极为亮眼且经济实用的模型,它具备强大的语言理解和生成能力,能够胜任多种自然语言处理任务,如文本生成、问答系统、语言翻译等,是我们实现高效 AI 应用的核心 “大脑”。

(三)Open WebUI:友好交互操作台

Open WebUI 为我们提供了一个美观且易用的图文交互界面,让我们可以轻松地与 DeepSeek 进行对话。在这个界面上,我们可以像与人类朋友交流一样,输入问题、获取答案,还能对模型的输出进行各种设置和调整,就像在现代化的厨房里,所有调料和工具都触手可及,让烹饪变得轻松愉悦。需要注意的是,Open WebUI 的安装依赖于 Docker 环境。

(四)Docker:软件部署集装箱

Docker 是一个强大的容器化平台,它能够将软件及其依赖项打包成一个独立的容器,确保软件在不同的计算机环境中都能稳定运行。在本地部署 DeepSeek 的过程中,Docker 就像是一个标准的集装箱,我们可以将 DeepSeek 模型和相关的运行环境封装在其中,轻松地在不同电脑上进行部署和迁移,而无需担心因环境差异导致的运行问题。

三、本地部署 DeepSeek 的详细步骤

(一)安装 Ollama

  1. 下载 Ollama:打开浏览器,访问 Ollama 官网https://ollama.com 。在官网页面中,找到 “Download” 按钮,点击后根据自己的操作系统选择对应的版本,比如 Windows 版。这一步就如同在商场挑选合身的衣服,要确保选择的版本与自己的电脑系统匹配。
  2. 安装 Ollama:下载完成后,找到下载的安装文件,双击打开。按照安装向导的提示,逐步完成安装过程。安装完成后,系统托盘图标会出现一个常驻的 Ollama 标记,这意味着我们的 AI “管家” 已经成功入驻电脑。不过,默认情况下,后续安装的大模型会放在 C 盘,如果 C 盘空间紧张,我们可以手动修改大模型的存放位置,具体操作如下:
    • 先退出系统托盘处的 Ollama。
    • 再从【任务管理器】中彻底退出 Ollama 进程。
    • 设置环境变量,右键点击 “我的电脑”,选择 “属性”,在弹出的窗口中点击 “高级系统设置”,找到 “环境变量” 按钮。新建一个名为 OLLAMA_MODELS 的变量,变量值设置为自己想要存放大模型的位置。但需要注意的是,这个操作有时可能会失败,如果失败,模型仍会默认安装在 C 盘,所以需要大家耐心尝试。

(二)下载 DeepSeek 模型

  1. 选择模型版本:打开 Ollama 官网,点击左上方的 “Models” 按钮,页面会列出支持的各种模型,其中 DeepSeek - R1 通常会排在显眼位置。点击进入 DeepSeek - R1 的主题页面,在该页面中,点击下拉菜单,可以看到多个版本可供选择。我们需要根据自己主机显卡的显存情况来选择合适的版本,例如,如果你的显卡是 4090,显存为 24G,可以选择 32b 版本(一般来说,数字越大,模型对显存的要求越高)。这一步就像在图书馆挑选一本适合自己阅读水平的好书,要根据自身的硬件条件来选择合适的模型版本。
  2. 下载模型:选好模型版本后,点击右侧的按钮,复制下载指令,例如 “ollama run deepseek - r1:32b”。在 Windows 搜索栏输入 “cmd” 并回车,唤出命令行窗口;如果是 win11 系统,也可以使用【终端】打开。将刚才复制的命令粘贴到命令行窗口中并运行,开始下载模型。下载过程中请保持网络畅通,8b 模型容量大约 4.9GB,不同版本的模型大小不同,下载时间也会有所差异。下载完成后,我们就为 AI “大脑” 充好了电,可以进行下一步操作了。此时,我们也可以在【终端】中体验大模型,尝试提问,但会发现它的对话交互还不够优化,这就需要借助 Open WebUI 来实现更好的交互效果,而 Open WebUI 的安装依赖于 Docker,所以接下来我们要安装 Docker。

(三)安装 Docker

  1. 下载 Docker:访问 Docker 官网https://www.docker.com ,在官网页面中找到 “Download” 按钮,点击后选择 Windows 版进行下载。这一步如同在工地上搭建一个标准的集装箱,为后续部署软件做好准备。
  2. 安装 Docker:下载完成后,双击安装文件,按照安装提示完成安装过程。安装选项一般全默认即可,但有两个选项建议一定要勾选。安装过程可能会比较慢,请耐心等待。安装完成后,需要重新启动 Windows 系统。重启后,首次打开 Docker,需要同意 Docker 的条款,并注册自己的账号。完成这些步骤后,就相当于在工地上成功搭建好了集装箱,确保我们的 AI 模型可以安全稳定地运行。不过,在安装过程中可能会出现一些异常情况,比如有的用户在重启后可能会遇到所有硬盘被 32 位密码锁定的情况,如果遇到这种问题,可以在微软账号中找到并关闭 Bitlocker 来解决。

(四)安装 Open WebUI

  1. 获取安装指令:访问 Open WebUI 的代码页OPEN · GitHub - webui/open - webui ,在页面中找到 “If Ollama is on your computer, use this command” 这一项,点击右边的按钮复制安装指令,例如 “docker run -d -p 3000:8080 --add - host=host.docker.internal:host - gateway -v open - webui:/app/backend/data --name open - webui --restart always ghcr.io/open - webui/open - webui:main”。
  2. 安装 Open WebUI:再次打开命令行窗口(或终端),将刚才复制的安装指令粘贴到窗口中并运行,开始安装 Open WebUI。安装完成后,我们就成功搭建好了 AI “操作台”,可以通过浏览器访问http://localhost:3000 ,进入 Open WebUI 的界面,在这里与 DeepSeek 进行更加友好、便捷的交互。

你可能感兴趣的:(本地部署,DeepSeek,github,开源)