OpenClaw 个人 AI 助手完整部署指南:从安装到模型调优的终极实战手册
安装 OpenClaw
MacOS 环境下安装命令如下:
# 使用npm安装
npm install -g openclaw@latest
# 或使用pnpm安装
pnpm add -g openclaw@latest
# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell 环境下安装命令如下:
iwr -useb https://openclaw.ai/install.ps1 | iex
快速启动
向导启动命令
openclaw onboard --install-daemon
向导配置选项说明
| 步骤 | 建议 |
|---|---|
| Risk确认 | 选择 yes 继续 |
| Onboarding mode | 推荐选择 QuickStart,快速完成基础配置 |
| Model/auth provider | 选择 Skip for now |
| Filter models by provider | 选择 All providers |
| Default model | 选择 Keep current |
| Select channel | 选 Skip for now,后续再配置 |
| Configure skills | 推荐选 Yes,启用本地实用技能 |
| Preferred node manager for skill installs | 选择 npm |
| Install missing skill dependencies | 选择 Skip for now |
| 各种API Key设置 | 没有的话选 No 或 Skip |
| Gateway service | 选择 Install 或 Reinstall 安装 Gateway 服务 |
| How to hatch your bot | 推荐选 Hatch in TUI 体验交互式界面 |
模型
LongCat
| 模型名称 | API格式 | 描述 |
|---|---|---|
| LongCat-Flash-Chat | OpenAI/Anthropic | 高性能通用对话模型 |
| LongCat-Flash-Thinking | OpenAI/Anthropic | 深度思考模型 |
| LongCat-Flash-Thinking-2601 | OpenAI/Anthropic | 升级版深度思考模型 |
| LongCat-Flash-Lite | OpenAI/Anthropic | 高效轻量化MoE模型 |
接入端点
- OpenAI格式:https://api.longcat.chat/openai
- Anthropic格式:https://api.longcat.chat/anthropic
方舟 Coding Plan
- doubao-seed-2.0-code
- doubao-seed-2.0-pro
- doubao-seed-2.0-lite
- doubao-seed-code
- minimax-m2.5
- kimi-k2.5
- glm-4.7
- deepseek-v3.2
接入端点
- OpenAI格式:https://ark.cn-beijing.volces.com/api/coding/v3
- Anthropic格式:https://ark.cn-beijing.volces.com/api/coding
方舟 API
接入端点
- OpenAI格式:https://ark.cn-beijing.volces.com/api/v3
- Anthropic格式:https://ark.cn-beijing.volces.com/api/compatible
模型配置
编辑配置文件:
vim ~/.openclaw/openclaw.json
LongCat 🆓
- 增加自定义模型供应商
在 openclaw.json 中添加 models 字段:
{
"models": {
"mode": "merge",
"providers": {
"longCat": {
"baseUrl": "https://api.longcat.chat/openai",
"apiKey": "YOUR_API_KEY",
"api": "openai-completions",
"authHeader": true,
"models": [
{
"id": "LongCat-Flash-Thinking-2601",
"name": "LongCat-Flash-Thinking-2601",
"reasoning": false,
"input": ["text"],
"contextWindow": 200000,
"maxTokens": 8192,
"compat": {
"maxTokensField": "max_tokens"
}
}
]
}
}
}
}
reasoning:是否支持思考链maxTokens: 8192:单次最大输出 token
- 修改默认模型设置
修改 agents 字段,设置默认模型:
{
"agents": {
"defaults": {
"model": {
"primary": "longCat/LongCat-Flash-Thinking-2601"
}
}
}
}
方舟 Coding Plan
- 增加自定义模型供应商
在 openclaw.json 中添加 models 字段:
{
"models": {
"mode": "merge",
"providers": {
"custom-ark-cn-beijing-volces-com": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/coding/v3",
"apiKey": "YOUR_API_KEY",
"api": "openai-completions",
"models": [
{
"id": "ark-code-latest",
"name": "ark-code-latest (Custom Provider)",
"reasoning": false,
"input": [
"text",
"image"
],
"contextWindow": 256000,
"maxTokens": 8192
}
]
}
}
}
}
- 修改默认模型设置
修改 agents 字段,设置默认模型:
{
"agents": {
"defaults": {
"model": {
"primary": "custom-ark-cn-beijing-volces-com/ark-code-latest"
}
}
}
}
智能体配置
{
"agents": {
"defaults": {
"model": {
"primary": "custom-ark-cn-beijing-volces-com/ark-code-latest"
},
"models": {
"custom-ark-cn-beijing-volces-com/ark-code-latest": {
"alias": "ark-code-latest"
}
},
"workspace": "/Users/junjian/.openclaw/workspace",
"contextPruning": {
"mode": "cache-ttl",
"ttl": "1h"
},
"compaction": {
"mode": "safeguard"
},
"heartbeat": {
"every": "30m"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
}
}
模型配置 (Model Settings)
这部分决定了 Agent 的“大脑”是谁以及如何称呼它。
primary: 指定默认使用的主模型。models&alias: 这是一个映射表。由于原始端点名称(如custom-ark-...)太长且不便记忆,通过alias将其简化为ark-code-latest,方便在后续指令中快速调用。
上下文与内存管理 (Context & Memory)
这是 OpenClaw 处理长对话和节约 Token 的关键机制。
contextPruning(上下文裁剪):mode: cache-ttl: 采用基于时间的缓存清理。ttl: 1h: 缓存有效期为 1 小时。这意味着如果一小时内没有交互,旧的上下文可能会被清理,从而节省资源。
compaction(压缩):mode: safeguard: 启动“防御性”压缩模式。当对话长度接近模型极限时,它会自动总结或精简之前的对话,防止因 Token 超限导致的任务失败。
运行环境与生命周期 (Runtime & Lifecycle)
workspace: Agent 的“工作台”路径。所有生成的文件、临时数据或索引都会存放在/Users/junjian/.openclaw/workspace下。heartbeat:every: 30m: 每 30 分钟进行一次心跳检测。
并发与子智能体 (Concurrency & SubAgent)
这部分决定了系统的吞吐量,即“同时能干多少活”。
maxConcurrent: 4: 主 Agent 同时处理的任务数上限为 4 个。subagents:maxConcurrent: 8: 当主 Agent 拆分出子任务(Sub-agents)时,允许最多 8 个子智能体并行工作。这能显著加快复杂任务(如同时扫描多个仓库代码)的速度。
开始使用
TUI
openclaw tui
Web UI
openclaw dashboard
卸载 OpenClaw
重装 OpenClaw
配置乱了,想从干净状态重新来一遍。这个命令会重置本地配置和状态,但保留 CLI 安装。
openclaw reset
执行卸载
openclaw uninstall --all --yes
--all:把服务和本地数据一起清掉(包括网关服务、配置文件、数据库等)--yes:自动确认,不用再中途一遍遍手动输入 Y
删除 CLI 工具
# npm 安装的
npm rm -g openclaw
# pnpm 安装的
pnpm remove -g openclaw
# bun 安装的
bun remove -g openclaw
重启电脑,处理旧密钥
把可能残留的后台进程清理干净。
最好去对应官网把旧密钥作废,再重新生成新的。 避免万一旧密钥泄露,别人拿着你的密钥烧 Token。
PPT 总结
📄 PPT 第 1 页:标题页
标题:OpenClaw 高效安装与全能配置指南 副标题: 从零开始构建您的 Agent 运行环境
- 演讲人: [您的名字]
-
核心关键词: 快速部署 模型集成 智能体调度 自动化运维
📊 PPT 第 2 页:快速入门——安装与初始化
标题:三步开启 OpenClaw 之旅
1. 多平台安装命令
- MacOS:
npm install -g openclaw@latest(支持 pnpm/curl) - Windows:
iwr -useb https://openclaw.ai/install.ps1 | iex
2. 向导化启动 (Onboarding)
- 命令:
openclaw onboard --install-daemon - 关键配置建议:
- 模式: 推荐 QuickStart 模式。
- 技能: 开启 Configure skills 以启用本地实用工具。
- 界面: 选择 Hatch in TUI 进入交互式终端界面。
🤖 PPT 第 3 页:模型集成(一)—— 选型与 LongCat
标题:大模型生态集成:LongCat 方案
1. 核心模型矩阵 (LongCat)
- Flash-Thinking-2601: 深度思考与逻辑推理。
- Flash-Chat: 高性能通用对话。
- Flash-Lite: 极致响应的轻量化 MoE 架构。
2. 配置实践
- 编辑路径:
~/.openclaw/openclaw.json - 接入要点:
baseUrl:https://api.longcat.chat/openaireasoning: 根据模型特性开关思考链。primary: 将其设为 Agent 的默认“大脑”。
💻 PPT 第 4 页:模型集成(二)—— 火山方舟与 Coding
标题:面向开发场景:火山方舟 Coding Plan
1. 适配模型概览
- 支持 Doubao-seed-2.0 (Code/Pro/Lite)、DeepSeek-V3.2、GLM-4.7、Kimi-K2.5 等主流模型。
2. 开发者配置优化
- Endpoint: 针对 Coding 优化版 API 路径进行配置。
- 别名机制 (Alias): * 将冗长的供应商名称(如
custom-ark-...)映射为简短的ark-code-latest。- 优势: 提高 CLI 指令输入效率,降低配置复杂度。
⚙️ PPT 第 5 页:深度调优——智能体核心参数
标题:精细化管理:让 Agent 更聪明、更稳定
| 维度 | 参数配置 | 业务价值 |
|---|---|---|
| 上下文管理 | cache-ttl (1h) |
兼顾记忆连续性与 Token 消耗平衡 |
| 防御性压缩 | mode: safeguard |
自动总结长对话,防止溢出导致的报错 |
| 高并发处理 | maxConcurrent: 4/8 |
主/子智能体协同,显著提升批量任务速度 |
| 工作空间 | workspace |
规范化存放索引、临时文件与生成代码 |
🛠️ PPT 第 6 页:运维与进阶使用
标题:运行监控与环境维护
1. 交互与可视化
- 终端交互:
openclaw tui(极客首选) - 网页看板:
openclaw dashboard(直观监控)
2. 环境重置与卸载
- 一键重置:
openclaw reset(保留工具,清空配置) - 彻底清除:
openclaw uninstall --all --yes - 安全建议: 卸载后建议及时轮换 (Rotate) API Keys,确保资产安全。