1
zsj1029 OP |
2
Seanfuck 6h 0m ago
上下文设置小一点会快些
|
4
Orangeee 5h 45m ago
看着效果还凑合,一般任务应该够用
|
5
pedclub 5h 12m ago

 3.6 进步挺大的 |
6
sentinelK 4h 44m ago
qwen3.6 35B A3B 的跑分还是挺好看的,智力和满血 DeepseekV3.2 不相上下,但 Agent 能力比 DeepseekV3.2 强很多。和我在 hermes agent 上的体感一致。
从这个角度看,最近这一年,localLLM 的进步,比大模型大很多。 我用家里的 8GVRAM ,64GBRAM 的老爷机用 llama.cpp 跑了一下 Q4 量化,驱动 hermes agent 的普通业务没什么问题,就是有点慢。在--on fit 配置下,大概是 20 多 token 每秒。 等 M5 MAX 的 mac studio 上线,我也打算买一台。 |
7
sentinelK 4h 43m ago
主要是 localLLM 强大之后,Agent 玩法才真正的被盘活。
隐私/便利的鱼熊悖论也就被打破了。 |
9
wumoumou 3h 37m ago
好厉害,能不能做成 API 卖钱
|
10
mgsv2047 3h 22m ago
为啥我用 windows 的 lm studio 跑这个模型,又慢又蠢? 4090D + 32g 内存
|
12
evan1 PRO a100……门槛还是太高了。
|
14
furlxy 3h 14m ago
为啥都在用钟表、天气来测试?
|
16
darrh00 3h 12m ago
vscode 上有没有好用的连接本地模型的插件?
|
21
zsj1029 OP @sentinelK 就是 llamacpp 跑的,fiton ,显存不够,cpu 卸载,a100 可以全部加载到显卡的,不需要,其次开启 q4 kv-cache 量化后,能跑更多并发,更省显存
|
22
kenpuluma 1h 54m ago
这个不算小模型了吧,活跃参数量比 qwen3-235b 都大~
|
24
listenerri 1h 37m ago via Android
@darrh00 #16 vscode 上用 unify chat provider 插件接自定义模型体验不错
|
25
peyppicp 1h 30m ago
Trae 是怎么链接本地 LLM 的?我看免费版都不能指定本地模型了
|
26
stefwoo 1h 25m ago
Qwen3.6 A35B-A3B 4bit 在我的 3090 下运行也飞快啊
|
28
zushi000 1h 5m ago
满血版吧
|