OpenClaw 离线部署:如何配置接入 Ollama 等本地大模型?

出于绝对的隐私保护,许多用户希望完全离线运行。OpenClaw 原生支持兼容 OpenAI 接口规范的本地端点。请先确保后台已运行 Ollama 并加载了模型(例如 `ollama run llama3` 或 DeepSeek-Coder)。然后在 OpenClaw 中添加一个新 Provider,类型选择 “OpenAI-Compatible”,API Base URL 填入 `http://localhost:11434/v1`,API Key 随意填写,并将对应模型名称设为默认驱动即可。

作加

类似文章