买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。
vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302194338de7319971d9142ab"}
188024 > 202752
现在代码都直接交给大模型运算了?着什么算数?
算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?
为啥出现这个?我没干什么,就是让他帮我翻译文章。
再发一个吉祥号码的:
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 181818 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302164128475cc4e7028843b6"}
181818 > 202752
如果是这个所谓的 input token 和我理解的不一样,是不是可以换个说法?
1
zhonghao01 22 小时 2 分钟前
有并发上限,是 1 还是 3 来着,文档有些。
加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。 |
2
TimPeake 21 小时 53 分钟前
调用频繁了 会有莫名其妙的错误,感觉他们打击灰产过头了。另外,最近三天两头崩是常态。正改 bug 呢,用不了了 能想象那种心情吗😡
|
3
vpjacob 21 小时 46 分钟前
同,昨天切换 minimax-m2 可以了
|
6
feelapi OP 我也买了 minimax m2.5 ,严重怀疑针对我,没花钱用免费的时候还好,花了钱结果完全是个猴子,弱智死了。看来这些大模型克我,哈哈哈哈哈
|
7
vpsvps 21 小时 40 分钟前
自己部署的 GLM 就经常提示这个 ,是不是上下文太小导致的,minimax 之前就没这个问题,qwen 3.5 还没试
|
8
stanley0black 20 小时 1 分钟前
我也遇到过类似的报错,把 cc switch 卸载了,重新手动配就好了。模型不是 GLM
|
9
feelapi OP @stanley0black
我没用 ccswitch,用的时候反倒很少出现。现在是直接配置链接 glm 的,才出现这么多错误。我把 cc 又装上了,看看什么情况 |
10
listenerri 17 小时 54 分钟前 via Android
遇到过,过会儿自己就好了
|
11
goodboy95 16 小时 21 分钟前 via Android
大模型一般要求“输入 token+最大输出 token 小于 总上下文 token”,glm5 的最大输出好像是 32000 ?
不过正常情况下,返回的错误信息应该把这个问题说明白了 |
12
numb911 13 小时 56 分钟前
付费之后的 minimax-2.5 有点蠢,我还买的一年的订阅
|