無料AI
Ollamaで無料AI
OpenClaw(旧Moltbot)をOllamaで完全無料で実行。APIコストなし、制限なし、完全なプライバシー。
🆓 なぜOllama?
- ✓完全無料 — APIコストなし、サブスクリプション料金なし、永久に
- ✓無制限利用 — 好きなだけメッセージを送信
- ✓完全なプライバシー — すべてのデータはあなたのマシンに保存、クラウドには送信されません
- ✓オフラインで動作 — 初期設定後はインターネットなしでOpenClawを使用
- ✓簡単セットアップ — Mac/Linuxでは1コマンドでインストール
コスト比較
| プロバイダー | 1Kメッセージ/月 | 10Kメッセージ/月 |
|---|---|---|
| Ollama(ローカル) | $0 | $0 |
| Claude API | ~$5-10 | ~$50-100 |
| OpenAI GPT-4 | ~$10-20 | ~$100-200 |
| Google Gemini | ~$2-5 | ~$20-50 |
* Ollamaのコストは電気代のみ(24時間稼働で月約$2-5)
設定手順
1
Ollamaをインストール
macOSまたはLinuxでは1コマンド:
curl -fsSL https://ollama.ai/install.sh | shWindowsの場合:こちらからダウンロード ollama.ai
2
モデルをダウンロード
モデルをプル(Llama 3.1 8Bをおすすめ):
ollama pull llama3.1:8b約5GBダウンロード。初回は数分かかります。
3
OpenClawを設定
OpenClawをローカルのOllamaに向ける:
{
"agent": {
"provider": "ollama",
"model": "llama3.1:8b",
"baseUrl": "http://localhost:11434"
}
}4
使用開始!
OpenClawを再起動してチャット開始。AIは完全にあなたのマシンで動作します!
openclaw restartおすすめモデル
Llama 3.2 3B
最小・最速。シンプルなタスクに適しています。
llama3.2:3bRAM: 4 GB
サイズ: 2 GB
速度: 非常に高速
Llama 3.1 8B
おすすめ速度と品質の最適なバランス。ほとんどのユーザーにおすすめ。
llama3.1:8bRAM: 8 GB
サイズ: 4.7 GB
速度: 高速
Mistral 7B
コーディングや技術的タスクに優れています。
mistral:7bRAM: 8 GB
サイズ: 4.1 GB
速度: 高速
Llama 3.1 70B
最も高性能。強力なハードウェアが必要。
llama3.1:70bRAM: 40+ GB
サイズ: 40 GB
速度: 低速
すべてのモデルはこちら ollama.ai/library
🍎 Apple Siliconで最高のパフォーマンス
Apple Silicon(M1、M2、M3)搭載Macをお持ちなら、Ollamaは非常に良く動作します。ユニファイドメモリアーキテクチャにより:
- • Mac Mini M2(16GB)で8B-13Bモデルがスムーズに動作
- • Mac Studio(64GB+)で70Bモデルが動作
- • クラウドAIとほぼ同等の応答速度
- • 静音動作、低消費電力
📊 品質比較
ローカルモデルは一般的に最先端クラウドモデルより性能が劣ることに注意:
- • Llama 3.1 8B ≈ ほとんどのタスクでGPT-3.5相当
- • Llama 3.1 70Bはほぼ GPT-4相当
- • 複雑な推論ではクラウドClaude/GPT-4が依然優位
ほとんどのパーソナルアシスタントタスク(リマインダー、Web閲覧、シンプルな自動化)では、ローカルモデルで十分です!