V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
zitup
V2EX  ›  程序员

Openclaw 开发速度太快了, 1 分钟一个 feature

  •  
  •   zitup · 11 小时 37 分钟前 · 4764 次点击

    我发现时间都花在调教上了,只要 SOUL 、MEMORY 、AGENT 调教好了,真挺好用。

    discord 聊天截图

    discord

    App 截图

    App screenshot

    32 条回复    2026-03-11 00:05:46 +08:00
    liuyin
        1
    liuyin  
       11 小时 34 分钟前
    就是 token 烧太快了。
    zitup
        2
    zitup  
    OP
       11 小时 26 分钟前
    @liuyin Codex+Gemini+Qwen 根本用不完
    naver1
        3
    naver1  
       11 小时 24 分钟前
    好奇花了多少钱
    zitup
        4
    zitup  
    OP
       11 小时 17 分钟前
    @naver1 Qwen 免费,其它两个很便宜,都是咸鱼上买的
    fj19
        5
    fj19  
       11 小时 9 分钟前
    可以用 MacMini 搭建一个本地模型,安装 OpenClaw 玩玩
    sangbiao
        6
    sangbiao  
       11 小时 2 分钟前
    @fj19 免费么?
    myderr
        7
    myderr  
       10 小时 55 分钟前
    @fj19 有啥模型可以,我有 macmini
    ezioswj
        8
    ezioswj  
       10 小时 55 分钟前
    @sangbiao 本地模型肯定免费,但是质量我还没试
    zhishi69
        9
    zhishi69  
       10 小时 51 分钟前
    @fj19 本地模型跑得起来吗
    wednesdayco
        10
    wednesdayco  
       10 小时 50 分钟前
    @myderr qwen 出了个 9B 的 实测能 25tokens/s
    okrfuse
        11
    okrfuse  
       10 小时 46 分钟前
    @fj19 本地 ollama 搭建 qwen3.5 9B 模型,傻的要命,跟 qwen cli 没法比,跟 gemini 3.1 flash 更没法比,一上午用下来,感觉本地的 9B 模型完全不行,又换成本地 27B 模型,输出很不流畅,最后还是切换成 gemini ,备用 qwen cli
    dabbit
        12
    dabbit  
       10 小时 38 分钟前
    不是 openclaw 快,是背后的模型快。
    lujiaosama
        13
    lujiaosama  
       10 小时 33 分钟前
    codex 反代的?
    kenshinhu
        14
    kenshinhu  
       10 小时 27 分钟前
    所以 PR review 可以值 $25 一个
    zitup
        15
    zitup  
    OP
       10 小时 11 分钟前
    @dabbit 它有很多并发,体感感觉比模型要快。我使用 antigravity Claude 没那么快,可能是因为我开了 planning 和 thinking 。
    zitup
        16
    zitup  
    OP
       10 小时 10 分钟前
    @lujiaosama workspace member
    zitup
        17
    zitup  
    OP
       10 小时 10 分钟前
    @kenshinhu 哪有任务,我直接去开发🤣。PR 赏金我研究过,不太可行
    diudiuu
        18
    diudiuu  
       10 小时 7 分钟前
    调教能分享一下吗
    VeryZero
        19
    VeryZero  
       9 小时 58 分钟前
    直接用 codex 有区别吗?
    zitup
        20
    zitup  
    OP
       9 小时 49 分钟前
    @VeryZero 没用过 codex ,用过 cursor 和 antigravity 。openclaw 挺省心的,各个 markdown 文档比较王炸
    iloveyoucool
        21
    iloveyoucool  
       8 小时 44 分钟前
    codex 的 apikey 怎么获取的,我加入了 chatgpt 的工作空间,可以写代码用 gpt5.4 ,没看到怎么搞到 apikey
    Dream4U
        22
    Dream4U  
       8 小时 39 分钟前
    @iloveyoucool OpenClaw 支持 oauth ,不需要 API
    PawnW
        23
    PawnW  
       8 小时 32 分钟前
    求问大佬是怎么调教 SOUL 、MEMORY 、AGENT 的啊,尤其是 AGENT 这一块
    kneo
        24
    kneo  
       8 小时 12 分钟前 via Android
    你就说快不快吧
    phli
        25
    phli  
       7 小时 49 分钟前
    @fj19 别推 macmini 了。。根本不行。。
    David666
        26
    David666  
       6 小时 12 分钟前
    路过,调教好又不分享实际经验或写篇文章分享
    inframe
        27
    inframe  
       6 小时 4 分钟前
    龙虾本地用 4 卡跑 Qwen3-32B 能吃满,感觉还行,
    算力上看是 1 次 1w-2w token
    justforvx
        28
    justforvx  
       5 小时 54 分钟前
    @inframe 什么配置的,能跑起来
    justforvx
        29
    justforvx  
       5 小时 48 分钟前
    @inframe 服务器什么配置,什么显卡,cpu 还有内存,看看手头设备能不能跑起来
    zitup
        30
    zitup  
    OP
       4 小时 35 分钟前
    @PawnW 你就先开始开发,感觉哪里不对就让它修改。比如它忘了某个 feature ,你就跟它说项目相关的记到[project]/dosc/prd.md 里,同时在 MEMORY.md 记录索引 prd.md 使用方式。一直更新就好了
    zitup
        31
    zitup  
    OP
       4 小时 34 分钟前
    @David666 目前用着还行,我也还在摸索
    inframe
        32
    inframe  
       3 小时 43 分钟前
    @justforvx #29 服务器的,4 卡 3090 ,4x24G 显存,内存 512G ,2 个 AMD 24 核 CPU ,
    固态硬盘放模型文件提速,
    CPU 没有满负荷的场景 不重要
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   952 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 38ms · UTC 19:49 · PVG 03:49 · LAX 12:49 · JFK 15:49
    ♥ Do have faith in what you're doing.