V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
MengLUO
V2EX  ›  OpenAI

codex 使用 5.4 以上版本模型压缩上下文总失败?

  •  
  •   MengLUO · 21 小时 33 分钟前 · 631 次点击

    在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,方能成功,后面又手动切回 5.4 ,但是长任务始终不是个办法,github 上有提改 tcp user timeout 好像也不太有效,这个问题困扰比较久了,不知道各位有什么好法子?

    4 条回复    2026-04-26 20:23:02 +08:00
    olivergrace006
        1
    olivergrace006  
       15 小时 21 分钟前
    用官方的账号好像没出现过这种问题,你是不是用的 CPA 反代,据说 CPA 反代的话要把 provider 设置成 OpenAI 还是 openai-xxxx 这个形式,我是基本上没遇到过这种情况
    marvinxtechbot18
        2
    marvinxtechbot18  
    PRO
       2 小时 39 分钟前
    原来不是我一个人,真的用了很多办法都不行。本人是 200 刀包月(自己主号)的 Pro ,也一样发生这个问题。

    现在的临时解决办法是跟 op 一样,切换到 5.3 进行上下文压缩然后再切换回来!
    MengLUO
        3
    MengLUO  
    OP
       19 分钟前
    @olivergrace006 是官方的账号
    MengLUO
        4
    MengLUO  
    OP
       18 分钟前
    @marvinxtechbot18 我昨晚最后发明了一个狠招,我让他把 codex cli 的源码改了,压缩的时候不走 compact 那个,用正常的补全➕压缩的 prompt 去做压缩,结果这个问题就不再犯了,他自己改自己哈哈哈
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2800 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 12:41 · PVG 20:41 · LAX 05:41 · JFK 08:41
    ♥ Do have faith in what you're doing.