Back to Blog
BlogMarch 19, 2026

neoclaw 详解:用 C 语言打造的极简终端 AI Agent

neoclaw 详解:用 C 语言打造的极简终端 AI Agent

Key Takeaways

  • neoclaw 是纯 C 语言实现的极简命令行 AI 助手,单二进制文件、无需额外运行时依赖。
  • 核心机制:自动注入预配置的身份、技能(SKILL.md)和持久记忆(MEMORY.md),大幅提升小模型上下文利用效率。
  • 资源占用极低,适合树莓派、IoT 设备和边缘计算场景,完美兼容 Qwen 3 8B 等本地小模型。
  • 技能系统支持高优先级全文注入 + 关键词匹配 + 摘要 fallback,兼顾上下文长度控制与信息丰富度。
  • 与 OpenClaw / NanoClaw 生态高度相关,但走极致轻量路线,目标是零依赖终端原生体验。

neoclaw 是什么?

neoclaw(也称 Neo Claw)是一个用纯 C 语言编写的命令行 AI 助手。用户在终端直接输入问题,程序会将输入内容与预先配置的系统身份、技能描述和长期记忆打包成完整的 system prompt,通过 OpenAI 兼容的 API 发送给大模型,最后将回复直接打印到终端。

与其他爪类项目(如 OpenClaw、NanoClaw)不同,neoclaw 不依赖 Node.js、Python 或 Docker,只需一个编译后的二进制文件和 libcurl 库即可运行。这使得它成为资源受限环境下的理想选择。

为什么需要 neoclaw?

传统 CLI AI 工具通常面临两大痛点:

  • 依赖复杂:需要安装 Node、Python 或大量依赖,部署麻烦。
  • 上下文浪费:小模型 token 预算有限,大量无关信息占用上下文,导致回答质量下降。

neoclaw 通过以下设计直接解决这些问题:

  • 单二进制 + 仅 libcurl 依赖 → 一键编译、跨平台易部署。
  • 智能技能注入 → 只在需要时注入相关 SKILL.md,避免上下文膨胀。
  • 持久化 MEMORY.md → 实现跨会话的“长期记忆”,让小模型也能表现出“懂你”的效果。

分析显示,在 8B 参数级别的小模型上,使用技能 + 记忆注入的 Prompt 策略可将有效信息密度提升 2–3 倍,尤其在垂直领域(如本地旅游数据、个人知识管理)表现突出。

核心功能深度解析

1. 技能系统(Skills)

技能存储在 skills/ 目录下的 .md 文件中,程序启动时自动扫描。

  • 高优先级技能(high_priority 配置):全文注入且置顶,常用于核心身份或领域知识(如南京旅游数据)。
  • 普通技能:根据用户输入关键词匹配,匹配成功则全文注入,未匹配时可选择注入摘要(约 400 字)或跳过。
  • 常见内置技能示例:翻译、代码生成、概念解释、内容摘要、笔记整理、待办管理等。

这种按需注入机制是 neoclaw 的最大亮点之一,有效避免了传统全量上下文导致的 token 浪费。

2. 记忆机制(Memory)

  • 所有记忆统一写入 MEMORY.md 文件。
  • 每次请求时,记忆内容被追加到 system prompt 末尾,受 max_chars 限制自动截断。
  • 通过特定技能(如 note、todo)可主动向记忆中写入内容,实现“让 AI 记住事情”的闭环。

社区反馈表明,这种简单文件 + 截断的记忆方式在 4k–8k 上下文的小模型上表现稳定,适合个人知识库、待办跟踪等场景。

3. 多轮对话支持(Daemon 模式)

./neo daemon                # 通过 stdin 进行多轮交互
./neo daemon --socket /tmp/neo.sock   # Unix socket 模式,适合脚本集成

会话历史受 session.max_turns 控制,默认保留最近 10 轮,避免上下文无限膨胀。

4. 配置灵活性

支持三层覆盖机制:

  1. config.yaml 文件
  2. 环境变量(NEO_MODEL、NEO_API_KEY 等)
  3. 命令行参数

典型配置示例(支持本地/云模型无缝切换):

model:
  base_url: "http://localhost:8000/v1"
  name: "qwen/qwen3-8b"
  api_key: "sk-xxx"
  temperature: 0.7
  max_tokens: 4096

skills:
  directory: "skills"
  high_priority:
    - nanjing
    - me

典型使用场景与高级技巧

  • 边缘 / IoT 部署:在树莓派上运行 Qwen 3 8B,本地语音输入 → neoclaw → 语音合成,形成完整离线助手。
  • 个人知识管理:通过 note 技能持续积累 MEMORY.md,形成“第二大脑”。
  • 领域垂直助手:编写高优先级 SKILL.md(如公司内部知识库、特定编程框架文档),打造专属专家。
  • 脚本集成:结合 Unix socket + cron 任务,实现定时总结、提醒等自动化。

高级技巧

  • 将 MEMORY.md 定期 git 提交 + diff 查看,实现记忆版本管理。
  • 使用 --debug 参数打印完整 prompt,便于调优技能匹配逻辑。
  • 在高优先级技能中加入“如果不相关则忽略”指令,进一步降低误注入概率。

常见问题与避坑指南

  • 上下文超限:小模型最常见崩溃原因。建议 max_chars 控制在 3000 以内,高优先级技能不超过 2–3 个。
  • 技能匹配不准:关键词过于泛化会导致无关注入。推荐使用具体短语或正则(未来可能支持)。
  • 记忆文件过长:定期手动清理或编写清理技能(如 “删除 30 天前无关记忆”)。
  • API 超时:边缘设备网络不稳定时,建议设置较高的 timeout 或使用本地模型。

与其他 Claw 项目的对比

项目语言部署复杂度资源占用技能机制典型场景
OpenClawJS/TS中–高插件式桌面/服务器全功能
NanoClawGo低–中指令式代码修改轻量自托管
neoclawC极低极低Markdown 按需注入边缘/IoT/终端原生

neoclaw 在资源占用和部署难度上明显领先,适合不想安装庞大运行时的用户。

Conclusion

neoclaw 以极简主义哲学重新定义了终端 AI 助手:抛弃一切非必要依赖,用 C 语言实现单二进制 + 智能上下文管理,为边缘计算和本地小模型时代提供了优雅解法。

如果你正在寻找一个真正“开箱即用”、零配置负担、能在树莓派上稳定运行的 CLI AI 工具,neoclaw 值得一试。

立即行动:

git clone https://github.com/zhangxinlong633/neoclaw.git
cd neoclaw
make
cp config.yaml.example config.yaml
# 编辑 config.yaml 填入你的模型信息
./neo "你好,介绍一下你自己"

探索更多技能示例与高级用法,请访问官方仓库:https://github.com/zhangxinlong633/neoclaw

Share this article