【通过pip安装 Open-WebUI 快速使用入门】

Open WebUI是一个可扩展、功能丰富且用户友好的自托管AI平台,旨在完全离线操作。它支持各种LLM运行器,如OllamaOpenAI兼容的API,内置RAG推理引擎,使其成为强大的AI部署解决方案

使用Docker快速入门​

如果Ollama在您的计算机上,请使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持Nvidia GPU的Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

与Ollama捆绑的开放式WebUI​

这种安装方法使用单个容器映像,将Open WebUI与Ollama捆绑在一起,允许通过单个命令简化设置。根据硬件设置选择适当的命令:

  • 使用GPU支持:通过运行以下命令来利用GPU资源:

你可能感兴趣的:(llama,代理模式)