• 请不要在回答技术问题时复制粘贴 AI 生成的内容
MuyuQ
V2EX  ›  程序员

我发现 CC 和 Codex 越来越像是温水煮青蛙

  •  
  •   MuyuQ · 5h 28m ago · 616 views
    新模型改分词器、新模型倍数消耗额度,单任务额度消耗被抬高;
    在速度上也是,最近普通模式的速度体验明显变慢,他们顺势推出 fast 模式按倍数烧额度。
    怕用户直接察觉到问题,好心推出短期额度翻倍让你适应高消耗,等活动结束你只会觉得“额度不禁用了”,而不是意识到它其实是在变相涨价。
    3 replies    2026-05-16 01:27:02 +08:00
    sentinelK
        1
    sentinelK  
       5h 1m ago
    模型提供商自从开始转型成“token 收费”,就没有动机去优化费效比了。

    而且你这次请求跑了多少 token ,其实也是他们说了算。
    有的提供商甚至会弄类似“代币”的虚拟概念。他说你花了多少,就是多少,无需解释。
    hsir
        2
    hsir  
       4h 25m ago
    而且我严重怀疑 OpenAI 故意降低了缓存命中率,issue 故意迟迟不解决,很多人都遇到了,看来就是要多收费: https://github.com/openai/codex/issues/20301
    AEDaydreamer
        3
    AEDaydreamer  
       4h 22m ago
    感觉对于现在的 llm 厂商来说似乎没有理由提高 token efficiency ,能订购 plan 的用户基本被绑定了,无非是这家跳到那家。同时这种基于 scale 的更新基模方式也挺恶性循环,瘫坐-好用-降智-降速-预热-新版本。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   919 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 21:49 · PVG 05:49 · LAX 14:49 · JFK 17:49
    ♥ Do have faith in what you're doing.