Бесплатный ИИ с Ollama
Запускайте OpenClaw (ранее Moltbot) полностью бесплатно с Ollama. Никаких затрат на API, никаких ограничений, полная приватность.
- ✓Полностью бесплатно — Никаких затрат на API, никаких подписок, никогда
- ✓Безлимитное использование — Отправляйте сколько угодно сообщений
- ✓Полная приватность — Все данные остаются на вашем компьютере, никогда не отправляются в облако
- ✓Работает офлайн — Используйте OpenClaw без интернета после первоначальной настройки
- ✓Простая установка — Одна команда для установки на Mac/Linux
| Провайдер | 1K сообщений/мес | 10K сообщений/мес |
|---|---|---|
| Ollama (Локально) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* Единственные затраты с Ollama — электричество (~$2-5/месяц при работе 24/7)
Инструкции по установке
Установите Ollama
Одна команда для macOS или Linux:
curl -fsSL https://ollama.ai/install.sh | shДля Windows: Скачайте с ollama.ai
Скачайте модель
Загрузите модель (мы рекомендуем Llama 3.1 8B):
ollama pull llama3.1:8bЭто скачивает ~5GB. Первый раз занимает несколько минут.
Настройте OpenClaw
Укажите OpenClaw на ваш локальный Ollama:
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}Начинайте использовать!
Перезапустите OpenClaw и начните общение. Ваш ИИ теперь работает полностью на вашем компьютере!
openclaw restartРекомендуемые модели
Llama 3.2 3B
Самая маленькая и быстрая. Подходит для простых задач.
llama3.2:3bRAM: 4 GB
Размер: 2 GB
Скорость: Очень быстро
Llama 3.1 8B
РекомендуетсяЛучший баланс скорости и качества. Рекомендуется для большинства пользователей.
llama3.1:8bRAM: 8 GB
Размер: 4.7 GB
Скорость: Быстро
Mistral 7B
Отлично подходит для программирования и технических задач.
mistral:7bRAM: 8 GB
Размер: 4.1 GB
Скорость: Быстро
Llama 3.1 70B
Самая мощная. Требует мощное оборудование.
llama3.1:70bRAM: 40+ GB
Размер: 40 GB
Скорость: Медленно
Смотрите все модели на ollama.ai/library
Если у вас Mac с Apple Silicon (M1, M2, M3), Ollama работает превосходно. Унифицированная архитектура памяти означает:
- • Mac Mini M2 (16GB) может плавно запускать модели 8B-13B
- • Mac Studio (64GB+) может запускать модели 70B
- • Ответы почти такие же быстрые, как у облачного ИИ
- • Тихая работа, низкое энергопотребление
Имейте в виду, что локальные модели обычно менее способны, чем передовые облачные модели:
- • Llama 3.1 8B ≈ качество GPT-3.5 для большинства задач
- • Llama 3.1 70B приближается к качеству GPT-4
- • Облачные Claude/GPT-4 всё ещё лучше для сложных рассуждений
Для большинства задач персонального ассистента (напоминания, веб-сёрфинг, простая автоматизация) локальные модели работают отлично!
Бесплатный ИИ запущен!
Теперь подключите ваши мессенджеры и начните бесплатное общение.