【人工智能时代】- Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

文章目录

  • 前言
  • 1. 运行Ollama
  • 2. 安装Open WebUI
    • 2.1 在Windows系统安装Docker
    • 2.2 使用Docker部署Open WebUI
  • 3. 安装内网穿透工具
  • 4. 创建固定公网地址
前言

本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。

近些年来随着ChatGPT的兴起,大语言模型 LLM(Large Language Model)也成为了人工智能AI领域的热门话题,很多大厂也都推出了自己的大语言模型,并或多或少的开源了自己的大语言模型,今天就来分享一个最近很火,且对于小白来说比较好上手本地部署的运行本地LLM的工具Ollama。

在本地运行大语言模型有诸多优点:

比如可以保护隐私不会产生费用

你可能感兴趣的:(人工智能时代,人工智能,windows,语言模型)