【open-webui】一个开箱即用、完全离线运行的自托管AI聊天平台
【open-webui网址】:https://github.com/open-webui/open-webui
项目简介
Open WebUI 是一个功能丰富、高度可扩展且用户友好的开源AI平台,专为完全离线的本地部署而设计,支持多种大语言模型后端(如 Ollama 和 OpenAI 兼容 API),并内置 RAG 推理引擎,让个人和团队无需依赖云端服务即可拥有完整的 AI 对话与知识增强能力。
核心功能
– ✅ 支持 Docker / Kubernetes 一键部署,提供 :ollama 和 :cuda 预构建镜像
– ✅ 同时兼容 Ollama 本地模型与各类 OpenAI 兼容 API(如 LMStudio、GroqCloud、Mistral、OpenRouter 等)
– ✅ 内置 RAG 支持:集成 9 种向量数据库(ChromaDB、Qdrant、PGVector 等)及多种文档解析引擎(Tika、Docling、Mistral OCR 等)
– ✅ 支持 Web 搜索(15+ 引擎,包括 Tavily、SearXNG、Google PSE、Bing 等)与网页直连浏览(#https://... 命令)
– ✅ 全面的多媒体交互:语音/视频通话(多 STT/TTS 后端)、图像生成与编辑(DALL-E、Gemini、ComfyUI、AUTOMATIC1111)
– ✅ 原生 Python 函数调用工具(BYOF),支持在聊天中直接执行自定义纯 Python 函数
– ✅ 持久化键值存储(用于日记、排行榜、协作工具等)、多模型并行对话、角色权限控制(RBAC)与企业级认证(LDAP/SCIM/OAuth/SSO)
– ✅ 响应式界面 + PWA 移动端支持、全 Markdown/LaTeX 渲染、多语言(i18n)与插件生态(Pipelines 插件框架)
快速上手
使用 pip 安装(需 Python 3.11):
pip install open-webui
open-webui serve
启动后访问 http://localhost:8080 即可使用。
也可通过 Docker 快速运行(推荐带数据卷挂载):
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
适用场景
适合追求数据隐私与自主可控的个人开发者、AI 爱好者、中小团队及企业技术部门。典型用途包括:本地知识库问答(如内部文档、论文、代码库 RAG)、离线 AI 助手开发、教育场景中的安全实验环境、企业内训与智能客服原型搭建,以及需要深度定制工作流(如函数调用、多模态交互、合规审计)的技术团队。
总结
Open WebUI 以“开箱即用、离线优先、能力全面”为核心定位,将原本分散的 LLM 运行、RAG 构建、多模态交互与企业集成能力整合进统一 Web 界面,显著降低了自托管 AI 平台的使用门槛。其活跃的插件生态与持续迭代节奏也体现了强大的社区生命力,建议访问其主页获取更详细信息。