使用docker安装Open-WebUI

本文发布于 2024年12月02日,阅读 7 次,点赞 0 次,归类于 Docker

博客:https://www.emanjusaka.top

公众号:emanjusaka的编程栈

by emanjusaka from https://www.emanjusaka.top/2024/11/docker-open-webui-install

本文为原创文章,可能会更新知识点以及修正文中的一些错误,全文转载请保留原文地址,避免产生因未即时修正导致的误导。

Open-WebUI 是一个可扩展、功能丰富且用户友好的自托管 Web 界面,它支持多种大型语言模型运行器,能完全离线运行,提供类似 ChatGPT 的直观界面和体验。

它具有快速响应、主题定制等特性,还集成了检索增强生成等技术,可实现多模型无缝切换、多模态互动等多种功能,并且支持多用户管理和安全控制。

下面介绍一下用 docker 安装的命令:

使用默认配置安装

  • 如果 Ollama 在您的计算机上,请使用以下命令:

     docker run -d -p 2580:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 如果 Ollama 位于不同的服务器上,请使用以下命令:

    要连接到另一台服务器上的 Ollama,请将OLLAMA_BASE_URL更改为服务器的 URL:

     docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 要运行支持 Nvidia GPU 的 Open WebUI ,请使用以下命令:

     docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

仅用于 OpenAI API 使用的安装

  • 如果您仅使用 OpenAI API ,请使用以下命令:

     docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装带有捆绑 Ollama 支持的 Open WebUI

  • 使用 GPU 支持:通过运行以下命令来利用 GPU 资源:

     docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅适用于 CPU :如果您不使用 GPU,请改用以下命令:

     docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

本篇完