之前用 Antigravity-Manager 发现一个非常好的功能:请求日志管理。
每次 opencode 跟大模型交互时,都会记录下完整的 http 请求报文,这样可以看到 opencode 给大模型发了什么提示词。
实现思路应该类似一个 nginx 反代,opencode 请求 NGINX ,这个时候就能记录请求体,然后再转发给真实的大模型网站。
Antigravity-Manager 好像不支持自己自定义模型,我没找到配置的地方,请问是否有类似项目实现了大模型请求日志管理这个功能呢?
1
Yasuke 16 小时 59 分钟前
让 ai 自己逆向呢?
|
2
monsterxx03 15 小时 8 分钟前 年前做了一个 https://blog.monsterxx03.com/2026/02/15/hacking-claude-code-in-realtime/ 方式比较 hack, 通过系统防火墙劫持 https 流量, 然后做 mitm 实现的, 如果你只是想要裸的 http body, 用现成的 https://www.mitmproxy.org/ 也够了, 我这个工具还有个目的还为了还原出工具和 llm 之间的完整对话历史(这部分要解析 api, 目前只支持 anthropic 兼容接口)
|
3
cppgohan 14 小时 51 分钟前
之前也想过搞这个, 感觉最好的还是魔改 opencode. 如果用 litellm 套一层, 然后可以记录所有请求日志, 但是 provider 都要改了, 可能还有 api 接口不一致问题. 再折腾一些就是中间接一层代理拦截.
|
4
heqingpan 14 小时 35 分钟前 via Android
年前刚好用 rust 写了一个支持这功能的工具: https://github.com/heqingpan/ai-req-proxy
类似 nginx 反代再把请求响应内容打印、写入日志文件,项目已提供编译后的 |
5
heqingpan 14 小时 33 分钟前 via Android
项目已提供编译后的应用文件,可直接下载使用,感兴趣的可以试试。
|
6
andforce 14 小时 14 分钟前
@heqingpan #5 你好大佬,我有这个小问题: https://www.sunp.eu.org/t/1193764
能把 Cursor 的请求,转发到我本地搭建的服务端,实际走的是 KIMI 的, 但是让 Cursor 认为走的是 OpenAI 的接口吗 |
7
Anubisks 11 小时 41 分钟前 via Android
axonhub 一个开源项目
|
9
yanghanlin 9 小时 34 分钟前 via Android
LiteLLM?
|
10
lululau 9 小时 12 分钟前
mitmproxy --showhost -k --mode local:opencode
|
12
streamrx 8 小时 33 分钟前 via iPhone
opencode 本来就是开源的 你还需要黑盒分析什么吗
|
13
dasj 7 小时 26 分钟前
我理解这里是可观测性领域的工作,Claude Code 和 Gemini-Cli 都有类似的功能,记录 user prompt 、model completion 和 tool use 等信息,上面算是 trace 的内容,跟 token 、TTFT 、TPOT 等 metrics 做联动。
可以了解下 OpenTelemetry GenAI 领域的发展,目前还处于标准制定阶段。 |
14
Sped0n 6 小时 27 分钟前 via iPhone
如果你用 openrouter 的话,它的 log 面板最近加了这个功能
|
15
irockytan 5 小时 1 分钟前 via iPhone
@monsterxx03 帖子看完了,感觉很好玩,试试
|
16
rpman 3 小时 34 分钟前 via iPhone
最直接的方法是写个 LLM 请求 proxy ,然后通过龙虾的 custom provider 设置导过去
|
17
rpman 3 小时 33 分钟前 via iPhone
okay 看瓢了,原来是 opencode 失敬
|