|      1icinessz      21 天前 qwen3:4b-instruct-2507-q4_K_M  本地这种小模型都行 | 
|      2anghunk      21 天前 我一直在用硅基的 THUDM/glm-4-9b-chat 翻译 | 
|  |      3wangxiao20170401      21 天前 via Android 换成国内的,用起来确实舒服多了,速度很快 | 
|      4cokyhe      21 天前 求问:deepseek 有专门翻译接口吗?提问翻译的时候,怎么能仅仅返回翻译结果? | 
|  |      6ruanimal      20 天前 感觉纯翻译,豆包的效果就很好了 | 
|  |      7razertory      20 天前 纯翻译,自己一个人用可以考虑上量化模型平台,比如 Groq 或者 Cerebras 。速度又快免费额度又大 | 
|  |      8izToDo      20 天前 现在在用免费的 GLM-4.5-Flash ,速度还可以,翻译质量还可以。 | 
|      9midraos      19 天前 我用的 openai api ,累计充了 100 刀,现在每天送 1M 的 GPT-5 的额度和 10M 的 GPT-5-mini 的额度,用于翻译绰绰有余 | 
|  |      10xyfan      19 天前 我用在 zotero 中做翻译,由于 PDF 中时常有有行号、乱码、跨页等问题,使用 deepseek 效果比谷歌翻译等传统翻译效果好很多,就是速度稍慢。 | 
|  |      11wonderfulcxm      19 天前 可以的,接入沉浸式翻译一直开着,每个月不到 3 块 | 
|      12lin41411      19 天前 | 
|      13Selune      19 天前 用的腾讯混元的 Hunyuan-MT-7B 在线,质量还行 | 
|  |      14SeaSaltPepper      19 天前 常年多个模型同时翻译对比,主流模型翻译质量都大差不差,同时使用多个模型基本都能得到最合适的翻译。DeepSeek ,K2, GLM4.5 Air ,Qwen 选一个比较快的就行。 | 
|  |      15chunhuitrue      19 天前 你用的什么翻译工具?浏览器的插件?求推荐。 | 
|  |      16YanSeven OP @chunhuitrue 虽然沉浸式翻译暴雷了,但是目前体验最佳的感觉还是沉浸式翻译。 日常网页翻译也还较为流畅。 然后 pdf ,epub 等文档翻译也优于传统翻译工具,我也已经翻译了好几本书了 但是,还是要注意,它确实爆过雷,泄露用户数据了。 | 
|  |      17PositionZero      19 天前 via Android  1 DeepSeek 官方 API 太慢了。楼上说的 Groq 或者 Cerebras 就不错,速度( TPS )能到 DeepSeek 的几十倍。 | 
|      18wshjdx      19 天前 via Android 我用在 freshrss 中翻译标题,充值了 100 ,每月用量一块多钱,确实绰绰有余 | 
|  |      20Zy143L      19 天前 那你纯浪费了..V3 没必要 翻译也用不着 R 系推理 找个小模型 qwen 的或者豆包的 lite 模型都能很好解决 | 
|  |      21chunhuitrue      18 天前 @SGL 还好,我没用过这个。我一直都没用过翻译软件,最多就是 mac 自带的选择一段话-->翻译(贼烂)。豆包浏览器插件试过,觉得不好用。卸载了。 目前还在用 mac 自带...所以打算找个合适的。那看来还真没有。 | 
|      22chspy      18 天前 我一直用 ppio ,这个国内国外都有,我用着挺稳定的,可以用 WF34BQ | 
|  |      23andykuen959595      17 天前 我用的有道,送了 100 元,还没用完 | 
|      24hanguofu      17 天前 via Android 听说中文翻译效果最好的是阿里巴巴的 qwen3-flash-translator | 
|      25odyssuse      17 天前 你们都是怎么使用的,用 api 接入,自己的 app 么? |