🦞
免费 AI

使用 Ollama 免费运行 AI

使用 Ollama 完全免费运行 OpenClaw(原 Moltbot)。无 API 费用,无限制,完全隐私。

🆓 为什么选择 Ollama?
  • 完全免费无 API 费用,无订阅费,永远
  • 无限使用想发多少消息就发多少
  • 完全隐私所有数据保留在你的机器上,永不发送到云端
  • 离线可用初始设置后无需联网即可使用 OpenClaw
  • 设置简单在 Mac/Linux 上一条命令安装
成本对比
提供商1000条消息/月10000条消息/月
Ollama(本地)$0$0
Claude API~$5-10~$50-100
OpenAI GPT-4~$10-20~$100-200
Google Gemini~$2-5~$20-50

* Ollama 唯一的成本是电费(24/7 运行约 $2-5/月)

设置说明

1

安装 Ollama

在 macOS 或 Linux 上一条命令:

curl -fsSL https://ollama.ai/install.sh | sh

Windows 用户:从以下网址下载 ollama.ai

2

下载模型

拉取一个模型(我们推荐 Llama 3.1 8B):

ollama pull llama3.1:8b

下载约 5GB。首次需要几分钟。

3

配置 OpenClaw

将 OpenClaw 指向你的本地 Ollama:

{
  "agent": {
    "provider": "ollama",
    "model": "llama3.1:8b",
    "baseUrl": "http://localhost:11434"
  }
}
4

开始使用!

重启 OpenClaw 并开始聊天。你的 AI 现在完全在你的机器上运行!

openclaw restart

推荐模型

Llama 3.2 3B

最小最快。适合简单任务。

llama3.2:3b

内存: 4 GB

大小: 2 GB

速度: 非常快

Llama 3.1 8B

推荐

速度和质量的最佳平衡。推荐大多数用户使用。

llama3.1:8b

内存: 8 GB

大小: 4.7 GB

速度:

Mistral 7B

非常适合编程和技术任务。

mistral:7b

内存: 8 GB

大小: 4.1 GB

速度:

Llama 3.1 70B

能力最强。需要强大的硬件。

llama3.1:70b

内存: 40+ GB

大小: 40 GB

速度:

浏览所有模型: ollama.ai/library

🍎 Apple Silicon 运行效果极佳

如果你有搭载 Apple Silicon(M1、M2、M3)的 Mac,Ollama 运行效果非常好。统一内存架构意味着:

  • Mac Mini M2(16GB)可流畅运行 8B-13B 模型
  • Mac Studio(64GB+)可运行 70B 模型
  • 响应速度几乎与云端 AI 一样快
  • 静音运行,低功耗
📊 质量对比

请注意,本地模型通常不如前沿云端模型强大:

  • Llama 3.1 8B ≈ 大多数任务上相当于 GPT-3.5 质量
  • Llama 3.1 70B 接近 GPT-4 质量
  • 云端 Claude/GPT-4 在复杂推理上仍更强

对于大多数个人助手任务(提醒、网页浏览、简单自动化),本地模型完全够用!

免费 AI 已运行!

现在连接你的消息应用,开始免费聊天。