【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手

【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手_第1张图片

一、简介

DeepSeek R1是一个强大的开源语言模型,通过Ollama可以轻松实现本地部署。本文将详细介绍如何在本地部署和使用DeepSeek R1模型,并结合Page Assist插件实现更便捷的AI交互体验。

二、环境准备

硬件要求

  • GPU显存要求:
    • 7B模型:8-12GB显存
    • 14B模型:12GB以上显存
    • 32B模型:建议16GB以上显存
  • 建议使用NVIDIA显卡
  • SSD硬盘空间:建议预留50GB以上

软件要求

  1. 安装NVIDIA驱动
  2. 安装CUDA(建议11.7或更高版本)
  3. 安装Ollama(官方网站下载)

三、模型部署步骤

  1. 安装Ollama

你可能感兴趣的:(人工智能,大语言模型学习笔记,人工智能,deepseek)