codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
现在国内的哪家好用点?
现在国内的哪家好用点?
1
anghunk 7h 59m ago
百炼吧,目前我主力是这个
|
2
yjz1409276 6h 45m ago
我用 gpt ,公司订了火山 pro ,只能说一言难尽
|
3
Chisa 5h 43m ago
最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
|
6
JerningChan 4h 55m ago
我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
最早时,接 qwen3.6-35b-a3b 也很不错 |
7
frantic 4h 49m ago
GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
|
8
rb6221 4h 32m ago
性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
|
9
ptstone 2h 35m ago
我看抖音上的评测,最强编程应该时 kimi2.6
|
10
ptstone 2h 34m ago
@JerningChan 你使用 vllm 吗
|
11
hutng 2h 23m ago
@JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
|
12
sentinelK 2h 11m ago
@hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。
如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。 |
14
sentinelK 1h 51m ago
@hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。
Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。 |
15
sharpy 1h 49m ago
性价比的话 deepseek v4 flash
pro 没有 coding plan 还是比较贵的 综合下来,opencode go ,首月 5 刀 |
17
hutng 1h 43m ago
@sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
|
19
mandex 1h 38m ago
订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
|
20
ooooo00000ooooo 1h 16m ago
https://www.coding-plan.xyz/
这里有几乎所有国内套餐和网友评价。 |
21
hiqxy 1h 15m ago
cursor 吧 省事,auto 效果也比国产的好很多
|
22
crocoBaby 1h 3m ago
vscode 的 trae 插件,免费使用不用排队~
|
23
wy315700 58 mins ago
论性价比当然是 DeepSeek
|
24
wsbqdyhm 42 mins ago via iPhone
@JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
|
27
watzds 1 min ago
GLM5.1 还行
|