1
JoeJoeJoe PRO 盲猜更耗 Token
|
2
andforce 18 小时 0 分钟前
没有区别,中文应该更省 token
|
3
kneo 17 小时 59 分钟前 via Android
中文就行。
|
4
jifengg 17 小时 44 分钟前
token 守恒定律:你用英文调用 llm 省下来的 token ,最终会被你的大脑模型消耗掉。
|
5
wat4me 17 小时 31 分钟前
理论上来说各个大模型处理中文和处理英语效果是一样的,中文应该更省 token
|
6
tf2 17 小时 19 分钟前
呃,这个问题之前我问了 AI ,他们都说「很可能」有重大区别。。。
当然我问的不是 skills ,而是一般性问题。 AI 给出的理由是英语材料和中文材料虽然能迁移,但是迁移得不多。很可能顺着说就说歪了。 如果要避免这个问题,那么模型从一开始训练就得考虑语言翻译问题。但是各家几乎都没太考虑。 |
7
106npo 17 小时 10 分钟前 via Android
如果不考虑大模型中文被污染的问题,没区别
|
8
wwq 16 小时 55 分钟前
我个人理解,如果大模型训练使用的英文语料更多,那英文的效果更好。
比如同样的单词"技能"和"skill",在大模型眼里都是 token ,他们的 Attention 应该不一样,这样就导致回答效果不一样。 我刚刚用中文和英文问了同一个问题,回答还是不一样的。 |
9
houshengzi 16 小时 49 分钟前
备一份中文的,再翻译成一份英文的?
|