Kostenlose KI mit Ollama
Betreibe OpenClaw (ehemals Moltbot) komplett kostenlos mit Ollama. Keine API-Kosten, keine Limits, volle Privatsphaere.
- âKomplett kostenlos â Keine API-Kosten, keine Abogebuehren, niemals
- âUnbegrenzte Nutzung â Sende so viele Nachrichten, wie du moechtest
- âVollstaendige Privatsphaere â Alle Daten bleiben auf deinem Rechner, werden nie in die Cloud gesendet
- âFunktioniert offline â Nutze OpenClaw nach der Ersteinrichtung ohne Internet
- âEinfache Einrichtung â Ein Befehl zur Installation auf Mac/Linux
| Anbieter | 1K Nachrichten/Monat | 10K Nachrichten/Monat |
|---|---|---|
| Ollama (Lokal) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* Einzige Kosten bei Ollama sind Stromkosten (~2-5$/Monat bei 24/7-Betrieb)
Einrichtungsanleitung
Ollama installieren
Ein Befehl auf macOS oder Linux:
curl -fsSL https://ollama.ai/install.sh | shFuer Windows: Herunterladen von ollama.ai
Modell herunterladen
Lade ein Modell herunter (wir empfehlen Llama 3.1 8B):
ollama pull llama3.1:8bDies laedt ~5GB herunter. Der erste Download dauert einige Minuten.
OpenClaw konfigurieren
Verbinde OpenClaw mit deinem lokalen Ollama:
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}Loslegen!
Starte OpenClaw neu und beginne zu chatten. Deine KI laeuft jetzt komplett auf deinem Rechner!
openclaw restartEmpfohlene Modelle
Llama 3.2 3B
Kleinstes und schnellstes. Gut fuer einfache Aufgaben.
llama3.2:3bRAM: 4 GB
Groesse: 2 GB
Geschwindigkeit: Sehr schnell
Llama 3.1 8B
EmpfohlenBeste Balance aus Geschwindigkeit und Qualitaet. Empfohlen fuer die meisten Nutzer.
llama3.1:8bRAM: 8 GB
Groesse: 4.7 GB
Geschwindigkeit: Schnell
Mistral 7B
Hervorragend fuer Programmierung und technische Aufgaben.
mistral:7bRAM: 8 GB
Groesse: 4.1 GB
Geschwindigkeit: Schnell
Llama 3.1 70B
Leistungsfaehigstes Modell. Benoetigt leistungsstarke Hardware.
llama3.1:70bRAM: 40+ GB
Groesse: 40 GB
Geschwindigkeit: Langsam
Alle Modelle durchsuchen auf ollama.ai/library
Wenn du einen Mac mit Apple Silicon (M1, M2, M3) hast, laeuft Ollama hervorragend. Die einheitliche Speicherarchitektur bedeutet:
- âą Mac Mini M2 (16GB) kann 8B-13B Modelle fluessig ausfuehren
- âą Mac Studio (64GB+) kann 70B Modelle ausfuehren
- âą Antworten fuehlen sich fast so schnell an wie Cloud-KI
- âą Leiser Betrieb, geringer Stromverbrauch
Beachte, dass lokale Modelle generell weniger leistungsfaehig sind als Cloud-Spitzenmodelle:
- âą Llama 3.1 8B â GPT-3.5 Qualitaet fuer die meisten Aufgaben
- âą Llama 3.1 70B naehert sich GPT-4 Qualitaet
- âą Cloud Claude/GPT-4 immer noch besser fuer komplexes Schlussfolgern
Fuer die meisten persoenlichen Assistenten-Aufgaben (Erinnerungen, Webbrowsing, einfache Automatisierung) funktionieren lokale Modelle hervorragend!
Kostenlose KI laeuft!
Verbinde jetzt deine Messaging-Apps und chatte kostenlos.