• 请不要在回答技术问题时复制粘贴 AI 生成的内容
libasten
V2EX  ›  程序员

几个国产大模型,用来对接用在 cc 上编程,哪家性价比高?

  •  
  •   libasten · 8h 5m ago · 2109 views
    codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
    现在国内的哪家好用点?
    27 replies    2026-05-15 19:24:04 +08:00
    anghunk
        1
    anghunk  
       7h 59m ago
    百炼吧,目前我主力是这个
    yjz1409276
        2
    yjz1409276  
       6h 45m ago
    我用 gpt ,公司订了火山 pro ,只能说一言难尽
    Chisa
        3
    Chisa  
       5h 43m ago
    最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
    zenfsharp
        4
    zenfsharp  
       5h 38m ago
    @Chisa 大佬你是怎么接的,为什么我用 opencode 家的 DS 接入,一思考就报错。
    wynemo
        5
    wynemo  
       4h 59m ago   ❤️ 1
    @zenfsharp #4 openai 格式再用 cliproxyapi 转成 cc 格式
    JerningChan
        6
    JerningChan  
       4h 55m ago
    我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
    最早时,接 qwen3.6-35b-a3b 也很不错
    frantic
        7
    frantic  
       4h 49m ago
    GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
    rb6221
        8
    rb6221  
       4h 32m ago
    性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
    ptstone
        9
    ptstone  
       2h 35m ago
    我看抖音上的评测,最强编程应该时 kimi2.6
    ptstone
        10
    ptstone  
       2h 34m ago
    @JerningChan 你使用 vllm 吗
    hutng
        11
    hutng  
       2h 23m ago
    @JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
    sentinelK
        12
    sentinelK  
       2h 11m ago
    @hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。

    如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。
    hutng
        13
    hutng  
       2h 2m ago
    @sentinelK 2080ti ,那估计就是 prefill 的瓶颈了,算力瓶颈。
    sentinelK
        14
    sentinelK  
       1h 51m ago
    @hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。

    Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。
    sharpy
        15
    sharpy  
       1h 49m ago
    性价比的话 deepseek v4 flash
    pro 没有 coding plan 还是比较贵的

    综合下来,opencode go ,首月 5 刀
    yjxjn
        16
    yjxjn  
       1h 44m ago
    @Chisa GLM5.1 我看有人说不行,有人说挺好的,能达到 codex5.3 的水平么?
    hutng
        17
    hutng  
       1h 43m ago
    @sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
    cvooc
        18
    cvooc  
       1h 42m ago
    @yjxjn glm 工作使用没什么问题, 最大的问题是现在抢不到, 我同事抢了一个月了
    mandex
        19
    mandex  
       1h 38m ago
    订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
    ooooo00000ooooo
        20
    ooooo00000ooooo  
       1h 16m ago
    https://www.coding-plan.xyz/
    这里有几乎所有国内套餐和网友评价。
    hiqxy
        21
    hiqxy  
       1h 15m ago
    cursor 吧 省事,auto 效果也比国产的好很多
    crocoBaby
        22
    crocoBaby  
       1h 3m ago
    vscode 的 trae 插件,免费使用不用排队~
    wy315700
        23
    wy315700  
       58 mins ago
    论性价比当然是 DeepSeek
    wsbqdyhm
        24
    wsbqdyhm  
       42 mins ago via iPhone
    @JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
    chaniqure
        25
    chaniqure  
       39 mins ago
    @hiqxy auto 的额度怎么样呢?够用不?
    yazoox
        26
    yazoox  
       20 mins ago
    @frantic 怎么直接用 API ?如何付费/订阅?客户端用啥? vscode 连接 deepseek api?
    watzds
        27
    watzds  
       1 min ago
    GLM5.1 还行
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2956 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 146ms · UTC 11:25 · PVG 19:25 · LAX 04:25 · JFK 07:25
    ♥ Do have faith in what you're doing.