返回博客2026年2月24日

一条命令跑起来:用 Ollama 运行 OpenClaw 个人 AI 助手

OllamaOpenClawAI Agent开放模型

如果你关注本地 AI 工具链,Ollama 大概不需要多介绍 - 它是目前最流行的本地大模型运行工具,一条命令就能拉取和运行各种开放模型。

但 Ollama 最近做了一件更有意思的事:它不再只是一个模型运行器了。

从"跑模型"到"跑应用"

Ollama 0.17 新增了一个 launch 命令,把"下载应用 + 配置模型 + 启动服务"合成了一步。目前支持 Claude CodeOpenCodeCodexDroid,以及今天要聊的 OpenClaw

OpenClaw:本地运行的个人 AI 助手

OpenClaw 能连接你的消息平台 - WhatsApp、Telegram、Slack、Discord、iMessage - 帮你处理邮件、管理日历、完成各种任务。和云端 AI 助手不同,它跑在你自己的设备上,数据不离开本地。

之前想跑 OpenClaw,需要自己装环境、下代码、配模型。现在一条命令:

ollama launch openclaw --model kimi-k2.5:cloud

Ollama 自动检测环境、安装 OpenClaw、配好模型连接、直接启动。

模型怎么选

云端模型(能力强,不吃显存):kimi-k2.5:cloudminimax-m2.5:cloudglm-5:cloud,还自带 Web 搜索。

本地模型(数据不出本地,需约 25GB 显存):glm-4.7-flashqwen3-coder

官方建议至少 64K token 上下文窗口,云端模型默认满足。

值得关注的趋势

ollama launch 表面上是"减少配置步骤",背后的趋势更有意思 - Ollama 正在从模型运行时进化成 AI 应用平台。以前是"让本地跑模型变简单",现在是"让本地跑 AI 应用变简单"。

模型是基础设施,应用才是用户真正需要的东西。就像 App Store 不需要你关心操作系统的内存管理一样,ollama launch 不需要你关心模型怎么配、API 怎么连。

对于想用开放模型做点实际事情的人来说,工具链已经成熟到"一条命令"的程度了。更详细的模型选择、消息平台配置和安全建议,可以查看完整版文章

相关文章

2026年2月17日

Next.js 正在为 AI Agent 重新设计自己

Next.js 团队发布了一篇博客,讲述他们如何从 Agent 的视角重新思考框架设计。从一个被放弃的浏览器内 Agent,到 MCP 集成,再到 agents.md - 这篇是我的阅读笔记。

Next.jsAI AgentMCP

准备开始了吗?

先简单说明目标,我会给出最合适的沟通方式。