3 minute read

安装 OpenClaw

MacOS 环境下安装命令如下:

# 使用npm安装
npm install -g openclaw@latest

# 或使用pnpm安装
pnpm add -g openclaw@latest

# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh | bash

Windows PowerShell 环境下安装命令如下:

iwr -useb https://openclaw.ai/install.ps1 | iex

快速启动

向导启动命令

openclaw onboard --install-daemon

向导配置选项说明

步骤 建议
Risk确认 选择 yes 继续
Onboarding mode 推荐选择 QuickStart,快速完成基础配置
Model/auth provider 选择 Skip for now
Filter models by provider 选择 All providers
Default model 选择 Keep current
Select channel Skip for now,后续再配置
Configure skills 推荐选 Yes,启用本地实用技能
Preferred node manager for skill installs 选择 npm
Install missing skill dependencies 选择 Skip for now
各种API Key设置 没有的话选 NoSkip
Gateway service 选择 InstallReinstall 安装 Gateway 服务
How to hatch your bot 推荐选 Hatch in TUI 体验交互式界面

模型

LongCat

模型名称 API格式 描述
LongCat-Flash-Chat OpenAI/Anthropic 高性能通用对话模型
LongCat-Flash-Thinking OpenAI/Anthropic 深度思考模型
LongCat-Flash-Thinking-2601 OpenAI/Anthropic 升级版深度思考模型
LongCat-Flash-Lite OpenAI/Anthropic 高效轻量化MoE模型

接入端点

  • OpenAI格式:https://api.longcat.chat/openai
  • Anthropic格式:https://api.longcat.chat/anthropic

方舟 Coding Plan

  • doubao-seed-2.0-code
  • doubao-seed-2.0-pro​
  • doubao-seed-2.0-lite​
  • doubao-seed-code
  • minimax-m2.5​
  • kimi-k2.5
  • glm-4.7
  • deepseek-v3.2

接入端点

  • OpenAI格式:https://ark.cn-beijing.volces.com/api/coding/v3
  • Anthropic格式:https://ark.cn-beijing.volces.com/api/coding

方舟 API

接入端点

  • OpenAI格式:https://ark.cn-beijing.volces.com/api/v3
  • Anthropic格式:https://ark.cn-beijing.volces.com/api/compatible

模型配置

编辑配置文件:

vim ~/.openclaw/openclaw.json

LongCat 🆓

  1. 增加自定义模型供应商

openclaw.json 中添加 models 字段:

{
   "models": {
      "mode": "merge",
      "providers": {
         "longCat": {
            "baseUrl": "https://api.longcat.chat/openai",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "authHeader": true,
            "models": [
               {
                  "id": "LongCat-Flash-Thinking-2601",
                  "name": "LongCat-Flash-Thinking-2601",
                  "reasoning": false,
                  "input": ["text"],
                  "contextWindow": 200000,
                  "maxTokens": 8192,
                  "compat": {
                     "maxTokensField": "max_tokens"
                  }
               }
            ]
         }
      }
   }
}
  • reasoning:是否支持思考链
  • maxTokens: 8192:单次最大输出 token
  1. 修改默认模型设置

修改 agents 字段,设置默认模型:

{
   "agents": {
      "defaults": {
         "model": {
            "primary": "longCat/LongCat-Flash-Thinking-2601"
         }
      }
   }
}

方舟 Coding Plan

  1. 增加自定义模型供应商

openclaw.json 中添加 models 字段:

{
  "models": {
    "mode": "merge",
    "providers": {
      "custom-ark-cn-beijing-volces-com": {
        "baseUrl": "https://ark.cn-beijing.volces.com/api/coding/v3",
        "apiKey": "YOUR_API_KEY",
        "api": "openai-completions",
        "models": [
          {
            "id": "ark-code-latest",
            "name": "ark-code-latest (Custom Provider)",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "contextWindow": 256000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}
  1. 修改默认模型设置

修改 agents 字段,设置默认模型:

{
   "agents": {
      "defaults": {
         "model": {
            "primary": "custom-ark-cn-beijing-volces-com/ark-code-latest"
         }
      }
   }
}

智能体配置

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "custom-ark-cn-beijing-volces-com/ark-code-latest"
      },
      "models": {
        "custom-ark-cn-beijing-volces-com/ark-code-latest": {
          "alias": "ark-code-latest"
        }
      },
      "workspace": "/Users/junjian/.openclaw/workspace",
      "contextPruning": {
        "mode": "cache-ttl",
        "ttl": "1h"
      },
      "compaction": {
        "mode": "safeguard"
      },
      "heartbeat": {
        "every": "30m"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  }
}

模型配置 (Model Settings)

这部分决定了 Agent 的“大脑”是谁以及如何称呼它。

  • primary: 指定默认使用的主模型。
  • models & alias: 这是一个映射表。由于原始端点名称(如 custom-ark-...)太长且不便记忆,通过 alias 将其简化为 ark-code-latest,方便在后续指令中快速调用。

上下文与内存管理 (Context & Memory)

这是 OpenClaw 处理长对话和节约 Token 的关键机制。

  • contextPruning (上下文裁剪):
    • mode: cache-ttl: 采用基于时间的缓存清理。
    • ttl: 1h: 缓存有效期为 1 小时。这意味着如果一小时内没有交互,旧的上下文可能会被清理,从而节省资源。
  • compaction (压缩):
    • mode: safeguard: 启动“防御性”压缩模式。当对话长度接近模型极限时,它会自动总结或精简之前的对话,防止因 Token 超限导致的任务失败。

运行环境与生命周期 (Runtime & Lifecycle)

  • workspace: Agent 的“工作台”路径。所有生成的文件、临时数据或索引都会存放在 /Users/junjian/.openclaw/workspace 下。
  • heartbeat:
    • every: 30m: 每 30 分钟进行一次心跳检测。

并发与子智能体 (Concurrency & SubAgent)

这部分决定了系统的吞吐量,即“同时能干多少活”。

  • maxConcurrent: 4: 主 Agent 同时处理的任务数上限为 4 个。
  • subagents:
    • maxConcurrent: 8: 当主 Agent 拆分出子任务(Sub-agents)时,允许最多 8 个子智能体并行工作。这能显著加快复杂任务(如同时扫描多个仓库代码)的速度。

开始使用

TUI

openclaw tui

Web UI

openclaw dashboard

卸载 OpenClaw

重装 OpenClaw

配置乱了,想从干净状态重新来一遍。这个命令会重置本地配置和状态,但保留 CLI 安装。

openclaw reset

执行卸载

openclaw uninstall --all --yes
  • --all:把服务和本地数据一起清掉(包括网关服务、配置文件、数据库等)
  • --yes:自动确认,不用再中途一遍遍手动输入 Y

删除 CLI 工具

# npm 安装的
npm rm -g openclaw

# pnpm 安装的
pnpm remove -g openclaw

# bun 安装的
bun remove -g openclaw

重启电脑,处理旧密钥

把可能残留的后台进程清理干净。

最好去对应官网把旧密钥作废,再重新生成新的。 避免万一旧密钥泄露,别人拿着你的密钥烧 Token。

PPT 总结

📄 PPT 第 1 页:标题页

标题:OpenClaw 高效安装与全能配置指南 副标题: 从零开始构建您的 Agent 运行环境

  • 演讲人: [您的名字]
  • 核心关键词: 快速部署 模型集成 智能体调度 自动化运维

📊 PPT 第 2 页:快速入门——安装与初始化

标题:三步开启 OpenClaw 之旅

1. 多平台安装命令

  • MacOS: npm install -g openclaw@latest (支持 pnpm/curl)
  • Windows: iwr -useb https://openclaw.ai/install.ps1 | iex

2. 向导化启动 (Onboarding)

  • 命令: openclaw onboard --install-daemon
  • 关键配置建议:
    • 模式: 推荐 QuickStart 模式。
    • 技能: 开启 Configure skills 以启用本地实用工具。
    • 界面: 选择 Hatch in TUI 进入交互式终端界面。

🤖 PPT 第 3 页:模型集成(一)—— 选型与 LongCat

标题:大模型生态集成:LongCat 方案

1. 核心模型矩阵 (LongCat)

  • Flash-Thinking-2601: 深度思考与逻辑推理。
  • Flash-Chat: 高性能通用对话。
  • Flash-Lite: 极致响应的轻量化 MoE 架构。

2. 配置实践

  • 编辑路径: ~/.openclaw/openclaw.json
  • 接入要点:
    • baseUrl: https://api.longcat.chat/openai
    • reasoning: 根据模型特性开关思考链。
    • primary: 将其设为 Agent 的默认“大脑”。

💻 PPT 第 4 页:模型集成(二)—— 火山方舟与 Coding

标题:面向开发场景:火山方舟 Coding Plan

1. 适配模型概览

  • 支持 Doubao-seed-2.0 (Code/Pro/Lite)、DeepSeek-V3.2、GLM-4.7、Kimi-K2.5 等主流模型。

2. 开发者配置优化

  • Endpoint: 针对 Coding 优化版 API 路径进行配置。
  • 别名机制 (Alias): * 将冗长的供应商名称(如 custom-ark-...)映射为简短的 ark-code-latest
    • 优势: 提高 CLI 指令输入效率,降低配置复杂度。

⚙️ PPT 第 5 页:深度调优——智能体核心参数

标题:精细化管理:让 Agent 更聪明、更稳定

维度 参数配置 业务价值
上下文管理 cache-ttl (1h) 兼顾记忆连续性与 Token 消耗平衡
防御性压缩 mode: safeguard 自动总结长对话,防止溢出导致的报错
高并发处理 maxConcurrent: 4/8 主/子智能体协同,显著提升批量任务速度
工作空间 workspace 规范化存放索引、临时文件与生成代码

🛠️ PPT 第 6 页:运维与进阶使用

标题:运行监控与环境维护

1. 交互与可视化

  • 终端交互: openclaw tui (极客首选)
  • 网页看板: openclaw dashboard (直观监控)

2. 环境重置与卸载

  • 一键重置: openclaw reset (保留工具,清空配置)
  • 彻底清除: openclaw uninstall --all --yes
  • 安全建议: 卸载后建议及时轮换 (Rotate) API Keys,确保资产安全。

参考资料

Updated: