本地部署DeepSeek-R1大模型

本地部署DeepSeek-R1大模型的方法主要分为两种:自动部署(懒人专用)和手动部署(适合开发者)。以下是详细指南:

 

 

 

一、自动部署(推荐新手)

 

下载安装DS大模型安装助手

访问链接:https://file-cdn-deepseek.fanqiesoft.cn/deepseek/deepseek_28315_st.exe

下载后运行安装程序,按提示完成安装。

 

选择模型并部署

打开软件,根据推荐选择适配的模型(如DeepSeek-R1),点击“自动部署”。

 

 

- 等待模型下载(下载路径可在设置中修改)。

 

- 下载完成后点击“立即部署”,等待部署完成。

 

配置与使用

部署完成后进入设置界面,选择已部署的模型。

 

 

- 左侧预设了智能体,可直接点击使用;右侧输入框可提问或对话。

 

 

 

二、手动部署(使用ollama)

 

步骤1:安装ollama

 

- 官网下载:https://ollama.com/

根据系统(Windows/macOS/Linux)选择对应版本安装。

 

- Windows:下载 .exe 文件,按向导安装,完成后自动启动服务。

 

- macOS:下载 .dmg 文件,拖拽到“应用程序”文件夹。

 

- Linux:通过终端命令安装(官网提供具体指令)。

 

步骤2:验证安装

 

打开浏览器输入  http://localhost:11434/ ,若显示“Ollama is running”则安装成功。

 

步骤3:下载DeepSeek-R1模型

 

打开终端,输入以下命令下载模型:

 

bash

# 下载默认7B模型

ollama run deepseek-r1

 

# 或指定版本(如32B)

ollama run deepseek-r1:32b

 

 

- 模型大小从1.5B到671B不等,需根据硬件选择(显存要求:7B需8GB,32B需24GB+)。

 

- 下载路径默认在  C:\Users\<用户名>\.ollama\models (Windows)或  ~/.ollama/models (macOS/Linux)。

 

步骤4:运行模型

 

下载完成后,在终端输入:

 

bash

ollama run deepseek-r1

 

 

- 直接进入命令行对话界面,输入问题即可交互。

 

 

 

三、可视化界面部署(可选)

 

LM Studio(推荐)

 

 

- 官网下载:https://lmstudio.ai/

 

- 安装后搜索“deepseek-r1”,选择量化版模型(如7B-Q4_K_M),配置参数(温度0.5-0.7)。

 

Chatbox AI

 

 

- 官网下载:https://chatboxai.app/zh

 

- 连接本地ollama服务(地址: http://localhost:11434 )。

 

 

 

四、硬件要求

 

- 最低配置(7B模型):

 

 

- GPU:NVIDIA GTX 1080(8GB显存)

 

- CPU:4核以上

 

- 内存:16GB

 

- 存储:20GB SSD

 

- 推荐配置

你可能感兴趣的:(时序数据库)