Установка OpenClaw
Установка OpenClaw
OpenClaw — это самохостируемый шлюз для AI-агентов, который работает на вашем собственном оборудовании. В этом руководстве мы рассмотрим установку на различные операционные системы.
Предварительные требования
Системные требования
- Node.js: версия 22.14+ или 24+ (рекомендуется)
- Память: минимум 2 ГБ ОЗУ
- Дисковое пространство: 500 МБ свободного места
- Сеть: стабильное интернет-соединение для загрузки моделей
API ключи
Вам понадобится API ключ от одного из поддерживаемых провайдеров:
- OpenAI (GPT)
- Anthropic (Claude)
- Google (Gemini)
- DeepSeek
- И другие совместимые провайдеры
Установка через npm (рекомендуется)
1. Установка Node.js
Если Node.js не установлен, скачайте его с официального сайта.
Проверьте версию:
node --version
# Должно быть v22.14+ или v24+
npm --version
2. Установка OpenClaw
npm install -g openclaw@latest
3. Проверка установки
openclaw --version
# Пример вывода: OpenClaw 2026.3.24
Установка через Docker
1. Установите Docker
Следуйте официальной документации Docker для вашей ОС.
2. Запустите контейнер OpenClaw
docker run -d \
--name openclaw \
-p 18789:18789 \
-v ~/.openclaw:/root/.openclaw \
-e OPENAI_API_KEY=your-api-key \
ghcr.io/openclaw/openclaw:latest
3. Проверьте работу
docker logs openclaw
Установка из исходного кода
1. Клонирование репозитория
git clone https://github.com/openclaw/openclaw.git
cd openclaw
2. Установка зависимостей
npm install
3. Сборка проекта
npm run build
4. Глобальная установка
npm link
Установка на конкретных ОС
Ubuntu/Debian
# Обновление системы
sudo apt update && sudo apt upgrade -y
# Установка Node.js через NodeSource
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
# Установка OpenClaw
sudo npm install -g openclaw@latest
macOS
# Установка через Homebrew
brew install node
npm install -g openclaw@latest
Windows
- Установите Node.js (LTS версию)
- Откройте PowerShell от имени администратора
- Выполните:
npm install -g openclaw@latest
Первоначальная настройка
1. Запуск мастера настройки
openclaw onboard --install-daemon
Мастер проведет вас через:
- Настройку API ключей
- Конфигурацию каналов связи
- Установку службы (опционально)
2. Ручная настройка
Создайте конфигурационный файл:
mkdir -p ~/.openclaw
Создайте ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": "openai/gpt-4"
}
},
"channels": {
"telegram": {
"enabled": true,
"botToken": "YOUR_BOT_TOKEN",
"dmPolicy": "pairing"
}
}
}
3. Запуск шлюза
# Запуск в foreground
openclaw gateway start
# Или как служба (Linux/macOS)
openclaw gateway install
openclaw gateway start
Проверка работоспособности
1. Проверка статуса шлюза
openclaw gateway status
Ожидаемый вывод:
✅ Gateway running (pid: 12345)
📡 Bind: 127.0.0.1:18789
🔄 Channels: telegram (connected)
2. Проверка веб-панели
Откройте в браузере: http://127.0.0.1:18789
3. Проверка каналов
openclaw channels list
Устранение неполадок
Ошибка: "Command not found: openclaw"
# Проверьте глобальную установку
npm list -g openclaw
# Если не установлено, переустановите
npm install -g openclaw@latest --force
Ошибка: "Permission denied"
# На Linux/macOS
sudo npm install -g openclaw@latest
# Или исправьте права
sudo chown -R $USER:$USER ~/.npm
Ошибка порта 18789
# Проверьте, не занят ли порт
lsof -i :18789
# Если занят, убейте процесс или измените порт в конфигурации
Обновление OpenClaw
Обновление через npm
npm update -g openclaw
Обновление через Docker
docker pull ghcr.io/openclaw/openclaw:latest
docker stop openclaw
docker rm openclaw
# Запустите заново с командой из раздела Docker
Следующие шаги
После успешной установки:
- Первая конфигурация — настройте основные параметры
- Подключение Telegram — настройте бота для общения
- Безопасность — защитите ваш инстанс OpenClaw
Частые вопросы
❓ Можно ли запускать OpenClaw на Raspberry Pi?
Да, OpenClaw работает на ARM архитектуре. Убедитесь, что используете Node.js 22+.
❓ Нужен ли GPU для работы?
Нет, OpenClaw использует облачные API, GPU не требуется.
❓ Сколько стоит использование?
Стоимость зависит от выбранного провайдера AI моделей. OpenClaw сам по себе бесплатен.
❓ Можно ли использовать локальные модели?
Да, через интеграцию с локальными inference серверами (Ollama, LM Studio).
Важно: После установки обязательно прочитайте руководство по безопасности перед настройкой каналов связи.
Комментарии и обсуждение
Пока нет комментариев. Будьте первым!
Добавить комментарий