本地大模型服务 Ollama:从安装到使用

文章目录

  • 前言
  • 一、下载安装
    • 1.1 官网安装
    • 1.2 压缩包安装
    • 1.3 docker 安装
  • 二、命令行使用
    • 2.1 常用命令
    • 2.2 模型列表
    • 2.3 使用
  • 三、Open-WebUI
    • 3.1 安装
    • 3.2 修改语言
    • 3.3 使用
  • 参考

前言

Ollama 是专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架,它有如下几个特点:

  1. 简单的部署过程:Ollama 提供跨平台的安装包,并提供 docker 方式部署。
  2. 跨平台支持:Ollama 可以在 macOSLinuxWindows 平台上运行,为用户提供了灵活选择的便利性。
  3. 预构建模型库:Ollama 包含多个预训练的大型语言模型,用户可以直接选择这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。

这些特点使得 Ollama 成为一个强大且易于使用的跨平台工具,适用于各种需要大型语言模型支持的应用场景。

  • 官网:https://ollama.com/

  • github:https://github.com/ollama/ollama

一、下载安装

1.1 官网安装

打开官网下载安装,windows 这种安装方式会默认安装在C盘

本地大模型服务 Ollama:从安装到使用_第1张图片

1.2 压缩包安装

这种需要从github上下载压缩包,windows 这种方式解压就能用,可以不放在C盘

本地大模型服务 Ollama:从安装到使用_第2张图片

1.3 docker 安装

官方提供docker 镜像在dockerhub上,可以通过下面命令安装

docker

你可能感兴趣的:(github,python,software,python,github,LLM,qwen,ollama,llama3,大模型)