Как подключить Ollama к OpenClaw?
Ollama позволяет запускать AI-модели локально на вашем компьютере. Это означает полную приватность данных и нулевые расходы на API — никакие данные не покидают вашу машину.
Сначала установите Ollama. На macOS и Linux установка занимает одну команду. На Windows — скачайте установщик с ollama.com. После установки Ollama запускается как фоновый сервис и предоставляет локальный API на порту 11434.
Далее скачайте модель. Ollama поддерживает сотни моделей в разных размерах. Лучшие варианты для OpenClaw:
— Llama 3.3 70B — отличное качество, требует 40+ ГБ RAM или GPU с 40+ ГБ VRAM. — Qwen 3.5 32B — хороший баланс качества и ресурсов, нужно 20+ ГБ RAM. — Phi-4 14B — компактная модель от Microsoft, работает на 16 ГБ RAM. — Gemma 3 9B — маленькая модель от Google, работает на 8 ГБ RAM.
Подключите Ollama к OpenClaw через конфигурацию. Укажите ollama как провайдер — API-ключ не нужен, так как модель работает локально.
Важно: скорость ответов зависит от вашего железа. На GPU NVIDIA с 8+ ГБ VRAM ответы генерируются за секунды. На CPU — за десятки секунд. На Apple Silicon (M1-M4) производительность отличная благодаря unified memory.
Можно запустить Ollama на отдельном сервере и подключить к OpenClaw по сети — укажите IP-адрес вместо localhost. Это полезно, если GPU-сервер и OpenClaw работают на разных машинах.
# Установка Ollama: curl -fsSL https://ollama.com/install.sh | sh
# Скачивание модели: ollama pull llama3.3:70b # или компактная: ollama pull gemma3:9b
# Подключение к OpenClaw: openclaw config set provider ollama openclaw config set model llama3.3:70b openclaw config set ollamaHost http://localhost:11434