Open WebUI¶
Open WebUI 是一個可擴充套件、功能豐富且使用者友好的自託管 AI 平臺,旨在完全離線執行。它支援 Ollama 和 OpenAI 相容 API 等各種 LLM 執行器,並內建 RAG 功能,是強大的 AI 部署解決方案。
要開始使用 vLLM 進行 Open WebUI 設定,請按照以下步驟操作
-
安裝 Docker。
-
使用支援的聊天補全模型啟動 vLLM 伺服器
-
啟動 Open WebUI Docker 容器
-
在瀏覽器中開啟:http://open-webui-host:3000/
在頁面頂部,您應該會看到模型
Qwen/Qwen3-0.6B-Chat。
