Перед установкой OpenClaw важно понять, потянет ли ваш компьютер. В этой статье --- всё о системных требованиях: от минимальных до рекомендуемых, для разных платформ и сценариев использования.
Обязательные требования
Эти требования указаны в официальной документации OpenClaw:
| Компонент | Требование |
|---|---|
| Node.js | Версия 22 или новее |
| ОС | macOS, Linux или Windows (через WSL2) |
| Интернет | Нужен для API-запросов к языковым моделям |
Node.js 22+
OpenClaw написан на Node.js и требует версию 22 или выше. Проверить текущую версию:
node --version
Если версия ниже 22 --- обновите через nodejs.org или менеджер версий (nvm, fnm).
Операционная система
| ОС | Поддержка | Примечания |
|---|---|---|
| macOS 12+ | Полная | Intel и Apple Silicon |
| Linux | Полная | Ubuntu, Debian, Fedora, Arch и другие |
| Windows 10/11 | Через WSL2 | Нативный Windows не поддерживается |
На Windows OpenClaw работает через WSL2 (Windows Subsystem for Linux). Подробности --- в инструкции для Windows.
Рекомендуемые характеристики
Официальная документация OpenClaw не указывает конкретных требований к RAM, CPU и диску. Рекомендации ниже основаны на природе приложения: OpenClaw --- это Node.js-сервер (gateway), который обрабатывает сообщения и отправляет запросы к облачным LLM. Все тяжёлые вычисления происходят на серверах провайдеров моделей.
Для личного использования (1 пользователь)
| Компонент | Минимум | Рекомендуется |
|---|---|---|
| RAM | 512 МБ свободных | 1 ГБ+ свободных |
| CPU | Любой современный | Любой современный |
| Диск | 500 МБ | 1 ГБ |
| GPU | Не нужен | Не нужен |
OpenClaw сам по себе лёгкий --- основная нагрузка идёт на API-провайдеров (Claude, GPT, DeepSeek). Ваш компьютер только отправляет запросы и получает ответы.
Для VPS (сервер 24/7)
| Компонент | Минимум | Рекомендуется |
|---|---|---|
| RAM | 1 ГБ | 2 ГБ+ |
| CPU | 1 vCPU | 2 vCPU |
| Диск | 5 ГБ | 10 ГБ+ |
| ОС | Ubuntu 22.04+ | Ubuntu 24.04 |
На VPS дополнительная память нужна для Docker (если используете песочницу), Nginx и самой ОС.
Если используете Ollama (локальные модели)
При запуске локальных моделей через Ollama требования резко возрастают --- модель работает на вашем железе:
| Модель | RAM | GPU VRAM | Диск |
|---|---|---|---|
| Qwen 2.5 7B | 8 ГБ | 6 ГБ (опционально) | 5 ГБ |
| Qwen 2.5 14B | 16 ГБ | 10 ГБ (опционально) | 10 ГБ |
| Qwen 2.5 72B | 48 ГБ+ | 40 ГБ+ | 45 ГБ |
| DeepSeek V3 | 64 ГБ+ | --- | 100 ГБ+ |
GPU не обязателен --- Ollama может работать только на CPU, но значительно медленнее.
Если не используете локальные модели (работаете через API Claude, DeepSeek, OpenRouter) --- GPU не нужен вообще.
Что занимает место на диске
| Компонент | Размер |
|---|---|
| Node.js | ~100 МБ |
| OpenClaw (npm-пакет) | ~150 МБ |
Рабочая директория (~/.openclaw/) | ~50 МБ (растёт с памятью и логами) |
| Docker (если используется) | ~500 МБ—1 ГБ |
| Ollama + модели | 5—100+ ГБ (зависит от модели) |
Требования для дополнительных возможностей
Browser Relay
Для управления браузером:
- Google Chrome или Chromium
- Дополнительно ~200—500 МБ RAM на экземпляр браузера
Docker (песочница)
Для режима песочницы:
- Docker Desktop (macOS, Windows) или Docker Engine (Linux)
- Дополнительно ~500 МБ RAM
- Дополнительно ~1 ГБ диска
Whisper (голосовые сообщения)
Для распознавания голосовых сообщений:
- Зависит от провайдера (облачный Whisper --- без требований к железу)
- Локальный Whisper --- ~2 ГБ RAM и GPU желателен
Потянет ли мой компьютер?
| Устройство | Подойдёт? | Примечания |
|---|---|---|
| MacBook Air M1/M2/M3/M4 | Да | Отлично подходит |
| MacBook Pro | Да | С запасом |
| Mac Mini M4 | Да | Идеален как домашний сервер (подробнее) |
| Windows-ноутбук (8 ГБ RAM) | Да | Через WSL2 |
| Linux-десктоп | Да | Лучше всего |
| Raspberry Pi 4/5 | Условно | Работает, но медленно |
| VPS 1 ГБ RAM | Да | Минимально для облачных моделей |
| VPS 512 МБ RAM | Условно | Может не хватить для Docker |
| Телефон (Android/iOS) | Нет | Используйте мобильный доступ |
Требования к сети
| Требование | Зачем |
|---|---|
| Интернет | Запросы к API моделей (Claude, GPT, DeepSeek) |
| Порт 18789 | Gateway (только локально, если не настроен внешний доступ) |
| Порт 443 | HTTPS для API-запросов |
Если вы используете только локальные модели через Ollama --- интернет нужен только для установки.
Проверка после установки
После установки проверьте, что всё работает:
# Версия OpenClaw
openclaw --version
# Полная проверка системы
openclaw doctor
Команда openclaw doctor проверит: версию Node.js, конфигурацию, подключения к API, доступность Docker (если нужен).
Что дальше
- Быстрый старт --- установка за 5 минут
- Установка на Mac --- пошаговая инструкция для macOS
- Установка на Windows --- инструкция для Windows через WSL2
- Установка на Linux --- инструкция для Linux
- Установка через Docker --- контейнерный деплой
- Ollama: локальные модели --- если хотите запустить модель на своём железе