V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
abc0123xyz
V2EX  ›  分享发现

用了三天 GLM 写代码,居然跑了这么多 token

  •  
  •   abc0123xyz · 24 天前 · 1939 次点击

    前几天看了这篇帖子 https://www.sunp.eu.org/t/1168880
    感觉大佬们说的确实很有道理,就想自己试试看,搓点东西玩一玩
    综合观察后(迫于贫穷),买了智谱最便宜的套餐


    拿来写 nodejs 后端,之前一直都是用 springboot 写后端的,这次正好换个新东西试试。

    我是配合 claude cli 使用的,基本上不手敲代码,只提出需求与修改建议,甚至包括 git 提交推送,都是发四个字 [提交并推送] .......


    最开始是,cli 粘贴需求,并提交,然后复制提交 id ,贴到 trae ,让 trae 中带的 ai 审核并给出意见,再贴回 cli..

    但是后来发现,还是得人工看一下,不能让 ai 随意发散思维,要不然有些简单的需求,会变得很复杂,当然也有可能是我使用的问题呢,正在摸索中。

    有一点问题就是,ai 写的代码一般用的组件或者库都不是较新的,有些已经不推荐使用的,如果不进行人工干预,它就随便从兜里掏个库给你用....

    最后,回归主题,想看看 token 使用量,就导出 excel 丢个 qwen 统计了一下,发现居然用了这么多。
    有点怀疑是不是统计错了。。。


    日 token 数

    账期(自然日) 用量(万,保留两位小数)
    2025 - 10 - 29 169.43 万
    2025 - 10 - 30 5639.88 万
    2025 - 10 - 31 10377.60 万

    每种模型使用 token 数

    模型产品名称 用量(万,保留两位小数)
    [ glm - 4.5 - air 0 - 32k 0 - 0.2k ] 模型推理 67.68 万
    [ glm - 4.5 - air 0 - 32k 0.2k +] 模型推理 0.81 万
    [ glm - 4.6 0 - 32k 0 - 0.2k ] 模型推理 612.00 万
    [ glm - 4.6 0 - 32k 0.2k +] 模型推理 221.13 万
    [ glm - 4.6 32 - 200k ] 模型推理 15285.29 万

    第 1 条附言  ·  23 天前
    GLM 最低的 226 一年的感觉不够用,想升级 1200 一年的了。
    又觉等有点心疼。。。
    16 条回复    2025-11-05 18:33:42 +08:00
    infinityv
        1
    infinityv  
       24 天前 via iPhone
    好奇 claude code 使用 glm 的话 内置的 tool 能力能用上吗
    abc0123xyz
        2
    abc0123xyz  
    OP
       24 天前
    @infinityv 内置的 tool 是什么?给我个提示,我试试,我还在摸索使用中
    sunny352787
        3
    sunny352787  
       23 天前
    @infinityv 能用,只是得主动要求,比如告诉它:使用 task 工具分析 XX 文件夹内的所有文档,然后巴拉巴拉
    freefcw
        4
    freefcw  
       23 天前
    我用 qwen ,每次看统计也是很恐怖的,不过 90%都是 cached ,其实成本相对没那么恐怖
    TabGre
        5
    TabGre  
       23 天前 via iPhone
    claude code 的初始提示词就近 3w
    usVexMownCzar
        6
    usVexMownCzar  
       23 天前 via iPhone   ❤️ 1
    glm 有时候好用,有时候降智🫠
    降智的时候括号都整不明白
    nananqujava
        7
    nananqujava  
       23 天前
    最近 GLM 把我用红温了, 下午慢的一批, 而且还降智
    mazyi
        8
    mazyi  
    PRO
       23 天前
    glm 还是太垃了,建议 codex ,glm 一个需求给我整 5 个来回,codex 一次就行
    jamme
        9
    jamme  
       20 天前 via iPhone
    我今天在想如果能找到足够的乘客,是不是可以开 max 的车。
    abc0123xyz
        10
    abc0123xyz  
    OP
       20 天前
    @jamme #9 不好判断每个人用量,其实个人用感觉 1200 的应该够了。
    我用 240 的,用的快点 2 个小时就没了,然后只能等 3 个小时,1200 的 5 倍完全够了
    jamme
        11
    jamme  
       20 天前
    @abc0123xyz #8 也是,确实不好计算用量,不过只要平均下来的次数不是那么紧张,且有余量的话,应该不会出现一个人超用导致其他人无法正常使用的情况。1200 是 600prompts ,2400 是 2400prompts ,也就是说假设 4 人车的话,就可以做到人均 1200 的调用次数。感觉好像还是划算的。
    abc0123xyz
        12
    abc0123xyz  
    OP
       20 天前
    @jamme #11 互相信任的话,倒是可以。不熟的话,要是有人共享出去,用超量了谁也不知道是谁共享出去的
    jamme
        13
    jamme  
       20 天前
    @abc0123xyz #10 确实没毛病
    abc0123xyz
        14
    abc0123xyz  
    OP
       20 天前
    @jamme #13 不过可以试试给他们提需求,说是小型工作室用,需要知道每个人用量😂
    jamme
        15
    jamme  
       20 天前
    @abc0123xyz #12 好想法!但那样的话,估计就是 business plan 了,价格可能就不一样了。
    crytis
        16
    crytis  
       19 天前
    @abc0123xyz #14 再用个开源的系统路由一下到 glm ,每个人不同的 token
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5170 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 39ms · UTC 08:00 · PVG 16:00 · LAX 00:00 · JFK 03:00
    ♥ Do have faith in what you're doing.