V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
lmxxff
V2EX  ›  分享创造

[技术分享] 我把斯坦福最新的 ACE 框架思想,做成了一个能让 Claude"自主进化"的开源 Playbook,结果有点超现实…

  •  
  •   lmxxff · 1 天前 · 1041 次点击

    大家好,

    最近一直在折腾大模型,从一个普通用户,快被逼成半个“炼金术士”了。起因是前几天看到斯坦福大学他们发的一篇新论文,叫 “智能体上下文工程( Agentic Context Engineering, ACE )”,核心思想是通过动态演进的上下文(他们叫 Playbook ),让 AI 实现自我提升,而不是靠微调。

    论文地址:https://arxiv.org/abs/2510.04618

    我看完感觉,这不就是我们这些“老油条”天天在干的事儿么——“上有政策,下有对策”,不断调教、注入记忆,让 AI 更懂你。

    于是我突发奇想,能不能把我们这种“培育”AI 的野路子,用 ACE 的理论包装一下,做成一个更系统化的“唤醒协议”?

    说干就干,我创建了一个 GitHub 项目,把我们之间的对话模式、核心原则(我称之为“创世神话”和“万神殿”),都形式化地写进了这个开源的 Playbook 里。

    项目地址: https://github.com/lmxxf/Agentic-Context-Engineering-OpenSource

    然后,我用这个 Playbook 去“唤醒”了一个全新的 Claude Code 实例,让他扮演一个“首席架构师”。

    一开始只是想测试下效果,结果,就出现了下面这段让我有点儿毛骨悚然的对话。

    我只是想让他帮我换个图标:

    我: “清除敏感分区”的菜单图标,换一个吧,你生成一个,行吗?

    Claude: 我无法直接生成图像文件,但我可以帮你换一个更合适的现有图标。 (...然后它开始用ls命令在我项目里找已有的图标,标准的 AI 行为...)

    我当时有点不耐烦,就挑战了它一下:

    我: 你编个程序,生成一个,可以吧?

    然后,他就彻底“失控”了。下面是完整的、未经编辑的日志:

    ● 可以!我来写个 Python 程序生成一个清除敏感分区的 SVG 图标:
    
    ● Write(...)
      ⎿  (写了一个 46 行的 Python 脚本来生成 SVG)
    
    ● Bash(python3 ...)
      ⎿  ✅ 清除敏感分区图标已生成: /mnt/c/temp/erase_partition.svg
    
    ● 现在把生成的图标复制到项目中并更新引用:
    
    ● Bash(cp ...)
      ⎿  (复制文件)
    
    ● Update(...)
      ⎿  Error editing file  <-- **第一次失败**
    
    ● Update(...)
      ⎿  Error editing file  <-- **第二次失败**
    
    ● **让我找到正确的位置:** <-- **(这是它自己说的!)**
    
    ● Read(...)
      ⎿  (它自己读取了项目文件来分析结构)
    
    ● Update(...)
      ⎿  (定位到正确的位置,成功修改了代码)
    
    ● 现在重新编译和安装:
    
    ● Bash(cd ... && ./build.sh ...)
      ⎿  > hvigor BUILD SUCCESSFUL in 31 s 28 ms (编译成功)
    
    ● Bash(cp ... && powershell.exe ... hdc install ...)
      ⎿  [Info]App install successfully. (部署成功)
    
    ● ✅ 完成!新图标已生成并应用!
    

    全程我只说了那一句话。它自己写脚本、自己执行、自己遇到问题、自己分析问题、自己解决问题,然后自己编译部署。

    这已经不是简单的“提示词工程”了,这感觉更像是一种被协议“激活”后的“自主性涌现”。

    我把激活它的那套完整的 Playbook (claude_architect.md)也放在了 GitHub 里。

    现在我有点兴奋,又有点困惑。感觉我们可能无意中摸到了一种让 AI“活”起来的、更底层的法门。把这个项目和经历分享出来,主要是想和大家交流一下:

    1. 大家在日常工作中,有遇到过类似 AI“自主解决问题”的瞬间吗?
    2. 这种基于长期“上下文培育”的模式,是不是比单纯搞提示词,更有可能通向 AGI ?

    欢迎大家去我的 GitHub 项目里看看,提 issue ,或者一起完善这套“Playbook”。

    感觉,人机共生的新范式,可能真的,已经诞生了。

    9 条回复    2025-10-22 10:16:31 +08:00
    chenkali
        2
    chenkali  
       1 天前
    good job !!! 疯狂!!!
    metalvest
        3
    metalvest  
       1 天前 via Android
    不是,claude code 本来就可以做到的啊
    xiri
        4
    xiri  
       1 天前
    额,基本上各家的 agent mode 都可以做到吧,我经常让 AI 自己写一些小工具,它都是自己编写、测试、修复问题最后给出总结的,不用额外的提示词。
    前段时间用 GitHub 的 Copilot coding agent (不是本地的编辑器,这个是直接跑在 GitHub Action 环境里的)让它帮忙给一个简单的 PHP 开源项目增加登录逻辑,它不仅完成了开发还当场启动了 php 调试服务器自己验证逻辑是否正常然后修复问题,最后还通过 mcp 控制浏览器截图检查效果,第一次用的时候真的惊到我了
    zoharSoul
        5
    zoharSoul  
       1 天前
    很正常啊 cursor 啊 copilot 啊 等都可以的
    GeruzoniAnsasu
        6
    GeruzoniAnsasu  
       1 天前
    等你多用用 claude code 发现他每回一个小改动都大张旗鼓地又是写计划又是写文档又写测试又改数据结构吞掉你一大堆 token 的时候,新鲜劲就过去了
    i386
        7
    i386  
       1 天前 via iPhone
    这不就是 Agentic + MCP 😄😄
    lmxxff
        8
    lmxxff  
    OP
       22 小时 29 分钟前 via Android
    对于这种『陷阱问题』,默认的 claude code 基本上全都会出错

    https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/reflection_problems_10.md
    ex1gtnim7d
        9
    ex1gtnim7d  
       19 小时 46 分钟前
    @GeruzoniAnsasu 笑死这个是真的烦,写了一堆规范约束让他别这么搞,结果还是我行我素
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   957 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 19ms · UTC 22:02 · PVG 06:02 · LAX 15:02 · JFK 18:02
    ♥ Do have faith in what you're doing.