🩞
Kostenlose KI

Kostenlose KI mit Ollama

Betreibe OpenClaw (ehemals Moltbot) komplett kostenlos mit Ollama. Keine API-Kosten, keine Limits, volle Privatsphaere.

🆓 Warum Ollama?
  • ✓Komplett kostenlos — Keine API-Kosten, keine Abogebuehren, niemals
  • ✓Unbegrenzte Nutzung — Sende so viele Nachrichten, wie du moechtest
  • ✓Vollstaendige Privatsphaere — Alle Daten bleiben auf deinem Rechner, werden nie in die Cloud gesendet
  • ✓Funktioniert offline — Nutze OpenClaw nach der Ersteinrichtung ohne Internet
  • ✓Einfache Einrichtung — Ein Befehl zur Installation auf Mac/Linux
Kostenvergleich
Anbieter1K Nachrichten/Monat10K Nachrichten/Monat
Ollama (Lokal)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* Einzige Kosten bei Ollama sind Stromkosten (~2-5$/Monat bei 24/7-Betrieb)

Einrichtungsanleitung

1

Ollama installieren

Ein Befehl auf macOS oder Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Fuer Windows: Herunterladen von ollama.ai

2

Modell herunterladen

Lade ein Modell herunter (wir empfehlen Llama 3.1 8B):

ollama pull llama3.1:8b

Dies laedt ~5GB herunter. Der erste Download dauert einige Minuten.

3

OpenClaw konfigurieren

Verbinde OpenClaw mit deinem lokalen Ollama:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

Loslegen!

Starte OpenClaw neu und beginne zu chatten. Deine KI laeuft jetzt komplett auf deinem Rechner!

openclaw restart

Empfohlene Modelle

Llama 3.2 3B

Kleinstes und schnellstes. Gut fuer einfache Aufgaben.

llama3.2:3b

RAM: 4 GB

Groesse: 2 GB

Geschwindigkeit: Sehr schnell

Llama 3.1 8B

Empfohlen

Beste Balance aus Geschwindigkeit und Qualitaet. Empfohlen fuer die meisten Nutzer.

llama3.1:8b

RAM: 8 GB

Groesse: 4.7 GB

Geschwindigkeit: Schnell

Mistral 7B

Hervorragend fuer Programmierung und technische Aufgaben.

mistral:7b

RAM: 8 GB

Groesse: 4.1 GB

Geschwindigkeit: Schnell

Llama 3.1 70B

Leistungsfaehigstes Modell. Benoetigt leistungsstarke Hardware.

llama3.1:70b

RAM: 40+ GB

Groesse: 40 GB

Geschwindigkeit: Langsam

Alle Modelle durchsuchen auf ollama.ai/library

🍎 Grossartig auf Apple Silicon

Wenn du einen Mac mit Apple Silicon (M1, M2, M3) hast, laeuft Ollama hervorragend. Die einheitliche Speicherarchitektur bedeutet:

  • ‱ Mac Mini M2 (16GB) kann 8B-13B Modelle fluessig ausfuehren
  • ‱ Mac Studio (64GB+) kann 70B Modelle ausfuehren
  • ‱ Antworten fuehlen sich fast so schnell an wie Cloud-KI
  • ‱ Leiser Betrieb, geringer Stromverbrauch
📊 Qualitaetsvergleich

Beachte, dass lokale Modelle generell weniger leistungsfaehig sind als Cloud-Spitzenmodelle:

  • ‱ Llama 3.1 8B ≈ GPT-3.5 Qualitaet fuer die meisten Aufgaben
  • ‱ Llama 3.1 70B naehert sich GPT-4 Qualitaet
  • ‱ Cloud Claude/GPT-4 immer noch besser fuer komplexes Schlussfolgern

Fuer die meisten persoenlichen Assistenten-Aufgaben (Erinnerungen, Webbrowsing, einfache Automatisierung) funktionieren lokale Modelle hervorragend!

Kostenlose KI laeuft!

Verbinde jetzt deine Messaging-Apps und chatte kostenlos.