OpenClaw 硬件加速:Windows 环境下 AMD 显卡如何加速本地 Ollama 模型推理?

WSL2 下默认只完善支持了 NVIDIA 的 CUDA 穿透。如果你是 AMD 显卡用户,直接在 WSL2 中跑本地大模型会很慢。推荐直接在 Windows 宿主机上安装带有 ROCm 支持的 Windows 版 Ollama。然后在 WSL2 内的 OpenClaw 配置中,将 Ollama 端点地址指向宿主机的内网 IP(例如 `http://192.168.x.x:11434/v1`),从而完美利用 AMD GPU 的算力。

作加

类似文章