跳到內容

Open WebUI

Open WebUI 是一個可擴充套件、功能豐富且使用者友好的自託管 AI 平臺,旨在完全離線執行。它支援 Ollama 和 OpenAI 相容 API 等各種 LLM 執行器,並內建 RAG 功能,是強大的 AI 部署解決方案。

要開始使用 vLLM 進行 Open WebUI 設定,請按照以下步驟操作

  1. 安裝 Docker

  2. 使用支援的聊天補全模型啟動 vLLM 伺服器

    vllm serve Qwen/Qwen3-0.6B-Chat
    

    注意

    啟動 vLLM 伺服器時,請務必使用 --host--port 標誌指定主機和埠。例如

    vllm serve <model> --host 0.0.0.0 --port 8000
    
  3. 啟動 Open WebUI Docker 容器

    docker run -d \
        --name open-webui \
        -p 3000:8080 \
        -v open-webui:/app/backend/data \
        -e OPENAI_API_BASE_URL=http://0.0.0.0:8000/v1 \
        --restart always \
        ghcr.io/open-webui/open-webui:main
    
  4. 在瀏覽器中開啟:http://open-webui-host:3000/

    在頁面頂部,您應該會看到模型 Qwen/Qwen3-0.6B-Chat

    Web portal of model Qwen/Qwen3-0.6B-Chat