只需几步!在本地电脑轻松部署DeepSeek大模型

使用 Ollama 进行本地部署 AI 大模型

一、Ollama 简介

Ollama 是一个开源的本地大语言模型运行框架,支持在 Windows、Linux 和 macOS 上本地运行大语言模型。它提供了丰富的模型库,包括 Qwen、Llama 等 1700+ 大语言模型,并支持用户上传自己的模型。Ollama 还允许用户通过编写 Modelfile 配置文件来自定义模型的推理参数,支持多 GPU 并行推理加速。

二、安装 Ollama

(一)Windows 系统

  1. 访问 Ollama 官网(Ollama),下载 Windows 版本的安装程序。
  2. 运行下载的 .exe 文件,点击 “Install” 进行安装。
  3. 安装完成后,按下 Win+R 键,输入 cmd 打开命令提示符,输入 ollama -v 检查是否安装成功。

(二)Linux 系统

在终端中执行以下命令进行安装:
curl -fsSL https://ollama.com/install.sh | sh

(三)macOS 系统

访问 Ollama 官网( Ollama),下载 macOS 版本的安装包,然后按照提示进行安装。

(四)Docker 安装(可选)

如果需要通过 Docker 安装 Ollama,可在 Linux 系统中执行以下命令:
docker run -d --name ollama -p 11434:11434 ollama/ollama

三、下载和运行 AI 大模型

(一)下载模型

  1. 打开 Ollama 官网的模型库,选择需要的模型,例如 DeepSeek-R1。
  2. 根据自己的需求选择模型版本(如 7b、14b 等),并复制对应的下载命令。
  3. 在命令行中执行下载命令,例如:
ollama pull deepseek-r1:7b

(二)运行模型

下载完成后,在命令行中输入以下命令运行模型:
ollama run deepseek-r1:7b
此时,即可开始与模型进行对话。

四、模型管理

(一)查看已安装模型

在命令行中输入以下命令,可列出当前已安装的模型:
ollama list

(二)查看模型信息

输入以下命令查看指定模型的基本信息:
ollama show deepseek-r1:7b

(三)自定义模型参数

用户可以通过编写 Modelfile 文件来自定义模型的推理参数。例如:
FROM deepseek-r1:7b
PARAMETER temperature 0.7
PARAMETER num_ctx 4096
SYSTEM 你是一个AI助手,由Minton制作。你专注于提供技术问题回复、代码编写、代码review。
然后执行以下命令加载运行自定义模型:
ollama create dev-deepseek-r1:7b -f Modelfile
ollama run dev-deepseek-r1:7b

五、API 使用

Ollama 默认监听 11434 端口,并提供 OpenAI 兼容的 API。用户可以通过以下代码调用模型:
# Generate a response
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt":"Why is the sky blue?"
}'

#Chat with a model
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:7b",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

更多内容可以参考: https://github.com/ollama/ollama

五、部署示例(本地电脑部署的deepseek-r1:8b)

只需几步!在本地电脑轻松部署DeepSeek大模型_第1张图片

你可能感兴趣的:(AI大模型,AI大模型,DeepSeek,Ollama,大模型部署,大模型API)