前几天看了这篇帖子 https://www.sunp.eu.org/t/1168880
感觉大佬们说的确实很有道理,就想自己试试看,搓点东西玩一玩
综合观察后(迫于贫穷),买了智谱最便宜的套餐
拿来写 nodejs 后端,之前一直都是用 springboot 写后端的,这次正好换个新东西试试。
我是配合 claude cli 使用的,基本上不手敲代码,只提出需求与修改建议,甚至包括 git 提交推送,都是发四个字 [提交并推送] .......
最开始是,cli 粘贴需求,并提交,然后复制提交 id ,贴到 trae ,让 trae 中带的 ai 审核并给出意见,再贴回 cli..
但是后来发现,还是得人工看一下,不能让 ai 随意发散思维,要不然有些简单的需求,会变得很复杂,当然也有可能是我使用的问题呢,正在摸索中。
有一点问题就是,ai 写的代码一般用的组件或者库都不是较新的,有些已经不推荐使用的,如果不进行人工干预,它就随便从兜里掏个库给你用....
最后,回归主题,想看看 token 使用量,就导出 excel 丢个 qwen 统计了一下,发现居然用了这么多。
有点怀疑是不是统计错了。。。
| 账期(自然日) | 用量(万,保留两位小数) |
|---|---|
| 2025 - 10 - 29 | 169.43 万 |
| 2025 - 10 - 30 | 5639.88 万 |
| 2025 - 10 - 31 | 10377.60 万 |
| 模型产品名称 | 用量(万,保留两位小数) |
|---|---|
| [ glm - 4.5 - air 0 - 32k 0 - 0.2k ] 模型推理 | 67.68 万 |
| [ glm - 4.5 - air 0 - 32k 0.2k +] 模型推理 | 0.81 万 |
| [ glm - 4.6 0 - 32k 0 - 0.2k ] 模型推理 | 612.00 万 |
| [ glm - 4.6 0 - 32k 0.2k +] 模型推理 | 221.13 万 |
| [ glm - 4.6 32 - 200k ] 模型推理 | 15285.29 万 |
1
infinityv 24 天前 via iPhone
好奇 claude code 使用 glm 的话 内置的 tool 能力能用上吗
|
2
abc0123xyz OP @infinityv 内置的 tool 是什么?给我个提示,我试试,我还在摸索使用中
|
3
sunny352787 23 天前
@infinityv 能用,只是得主动要求,比如告诉它:使用 task 工具分析 XX 文件夹内的所有文档,然后巴拉巴拉
|
4
freefcw 23 天前
我用 qwen ,每次看统计也是很恐怖的,不过 90%都是 cached ,其实成本相对没那么恐怖
|
5
TabGre 23 天前 via iPhone
claude code 的初始提示词就近 3w
|
6
usVexMownCzar 23 天前 via iPhone glm 有时候好用,有时候降智🫠
降智的时候括号都整不明白 |
7
nananqujava 23 天前
最近 GLM 把我用红温了, 下午慢的一批, 而且还降智
|
8
mazyi PRO glm 还是太垃了,建议 codex ,glm 一个需求给我整 5 个来回,codex 一次就行
|
9
jamme 20 天前 via iPhone
我今天在想如果能找到足够的乘客,是不是可以开 max 的车。
|
10
abc0123xyz OP @jamme #9 不好判断每个人用量,其实个人用感觉 1200 的应该够了。
我用 240 的,用的快点 2 个小时就没了,然后只能等 3 个小时,1200 的 5 倍完全够了 |
11
jamme 20 天前
@abc0123xyz #8 也是,确实不好计算用量,不过只要平均下来的次数不是那么紧张,且有余量的话,应该不会出现一个人超用导致其他人无法正常使用的情况。1200 是 600prompts ,2400 是 2400prompts ,也就是说假设 4 人车的话,就可以做到人均 1200 的调用次数。感觉好像还是划算的。
![]() |
12
abc0123xyz OP @jamme #11 互相信任的话,倒是可以。不熟的话,要是有人共享出去,用超量了谁也不知道是谁共享出去的
|
13
jamme 20 天前
@abc0123xyz #10 确实没毛病
![]() |
14
abc0123xyz OP @jamme #13 不过可以试试给他们提需求,说是小型工作室用,需要知道每个人用量😂
|
15
jamme 20 天前
@abc0123xyz #12 好想法!但那样的话,估计就是 business plan 了,价格可能就不一样了。
![]() |
16
crytis 19 天前
@abc0123xyz #14 再用个开源的系统路由一下到 glm ,每个人不同的 token
|