如果你在 M1/M2/M3 等 Apple Silicon 芯片的 Mac 上通过 Ollama 或 Llama.cpp 本地运行模型作为 OpenClaw 后端,默认可能仅使用了 CPU。请确保你的推理引擎是针对 ARM64 编译的,并且在启动模型端点时指定了 GPU 层数。在 OpenClaw 的 `config.json` 中配置本地端点时,无需额外配置,只要底层引擎启用了 Metal Performance Shaders (MPS),Agent 的响应速度和 Token 生成速率将获得成倍提升。