IA Gratis con Ollama
Ejecuta OpenClaw (anteriormente Moltbot) completamente gratis con Ollama. Sin costos de API, sin límites, privacidad total.
- ✓Completamente Gratis — Sin costos de API, sin cuotas de suscripción, nunca
- ✓Uso Ilimitado — Envía tantos mensajes como quieras
- ✓Privacidad Total — Todos los datos permanecen en tu máquina, nunca se envían a la nube
- ✓Funciona Sin Internet — Usa OpenClaw sin internet después de la configuración inicial
- ✓Configuración Fácil — Un comando para instalar en Mac/Linux
| Proveedor | 1K Mensajes/mes | 10K Mensajes/mes |
|---|---|---|
| Ollama (Local) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* El único costo con Ollama es la electricidad (~$2-5/mes funcionando 24/7)
Instrucciones de Configuración
Instala Ollama
Un comando en macOS o Linux:
curl -fsSL https://ollama.ai/install.sh | shPara Windows: Descarga desde ollama.ai
Descarga un Modelo
Descarga un modelo (recomendamos Llama 3.1 8B):
ollama pull llama3.1:8bEsto descarga ~5GB. La primera vez toma unos minutos.
Configura OpenClaw
Apunta OpenClaw a tu Ollama local:
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}¡Empieza a Usar!
Reinicia OpenClaw y empieza a chatear. ¡Tu IA ahora funciona completamente en tu máquina!
openclaw restartModelos Recomendados
Llama 3.2 3B
El más pequeño y rápido. Bueno para tareas simples.
llama3.2:3bRAM: 4 GB
Tamaño: 2 GB
Velocidad: Muy Rápido
Llama 3.1 8B
RecomendadoMejor equilibrio de velocidad y calidad. Recomendado para la mayoría de usuarios.
llama3.1:8bRAM: 8 GB
Tamaño: 4.7 GB
Velocidad: Rápido
Mistral 7B
Excelente para programación y tareas técnicas.
mistral:7bRAM: 8 GB
Tamaño: 4.1 GB
Velocidad: Rápido
Llama 3.1 70B
El más capaz. Necesita hardware potente.
llama3.1:70bRAM: 40+ GB
Tamaño: 40 GB
Velocidad: Lento
Explora todos los modelos en ollama.ai/library
Si tienes una Mac con Apple Silicon (M1, M2, M3), Ollama funciona extremadamente bien. La arquitectura de memoria unificada significa:
- • Mac Mini M2 (16GB) puede ejecutar modelos de 8B-13B sin problemas
- • Mac Studio (64GB+) puede ejecutar modelos de 70B
- • Las respuestas se sienten casi tan rápidas como la IA en la nube
- • Operación silenciosa, bajo consumo de energía
Ten en cuenta que los modelos locales generalmente son menos capaces que los modelos de nube de vanguardia:
- • Llama 3.1 8B ≈ calidad de GPT-3.5 para la mayoría de tareas
- • Llama 3.1 70B se acerca a la calidad de GPT-4
- • Claude/GPT-4 en la nube siguen siendo mejores para razonamiento complejo
¡Para la mayoría de tareas de asistente personal (recordatorios, navegación web, automatización simple), los modelos locales funcionan muy bien!
¡IA Gratis Funcionando!
Ahora conecta tus apps de mensajería y empieza a chatear gratis.