替换下面指令中的 model ID 为你本地 Ollama 里启动的版本。
openclaw onboard --non-interactive \
--auth-choice custom-api-key \
--custom-base-url "http://127.0.0.1:11434/v1" \
--custom-model-id "gemma4:31b-it-q4_K_M" \
--custom-api-key "ollama" \
--secret-input-mode plaintext \
--custom-compatibility openai \
--accept-risk
1
0U0 22 小时 38 分钟前
需要什么配置才能跑得动
|
2
Livid MOD OP PRO |
3
Visoar PRO |
4
pkuphy PRO 这个模型真的好用
|
5
senooo 22 小时 12 分钟前
手机上的 e2b 2G PC 端的 e2b 7G
|
7
v2gba 21 小时 53 分钟前
站长这个得 30+的内存才能跑了吧?
|
8
zivn 21 小时 20 分钟前
32G M3 Pro 不论用 mlx 还是 ollama 跑 31b 基本没法用。
聊天可以,openclaw 直接卡死。 虽说理论上只要 20G 内存,但 openclaw 上下文太长了,预填充要几分钟甚至十几分钟。 26b 是 MOE 就没试了,感觉还是 Dense 才有前途。 |
9
zivn 21 小时 16 分钟前
mlx 版本在 huggingface 上,mlx-community/gemma-4-31b-it-nvfp4 ,需要用 mlx-vlm 运行。
|
10
huanxianghao 20 小时 48 分钟前
很棒。
在 windows 上面跑了,4070s 跑 26b ,感觉思考时间有点长 |
11
paranoiagu 20 小时 35 分钟前 via Android
龙虾的上下文太长了,我 24G 显卡,跑 27B 的 qwen3.5 ,开了 64K 上下文,再大就爆显存了。但是 64K 龙虾不够。
|
12
chipipi 20 小时 23 分钟前 via Android
目前什么设备能跑得动?
|
13
dinjufen 20 小时 19 分钟前
16G 内存的 mac mini m4 能跑动吗
|
14
zoozobib 20 小时 18 分钟前
测试 qwen3.5-27b q4 和 gemma4-31b q4 。200K ctx 同样的代码问题,后者一把过,测试用例还是少
|
15
zoozobib 20 小时 18 分钟前
但前者能跑到 38 /t 后 只能到 33/t
|
16
levn 19 小时 10 分钟前
27b q4 使用 32G 显存,就可以开 200k 上下文
31b q4 使用 64G 显存,kv q8 量化都开不到 100k 上下文 |
17
crocoBaby 18 小时 6 分钟前
能用度如何?
|
18
learnshare 18 小时 5 分钟前
16G M2 Mac mini 勉强能跑起来低配两个版本,但仅能跑起来,没啥可用性
以后得买 64G 版本玩一玩了 |
20
zoozobib 17 小时 28 分钟前
新测,加了 2b 的 draft , 提升到 45/t ;Draft 接受率 不错,5 成
|
21
fs418082760 11 小时 50 分钟前
据说不如 qwen3.5
|
22
hanguofu 6 小时 34 分钟前
值得期待 ~
|
24
c0xt30a 2 小时 43 分钟前
我用微调版 Qwen3.5 的经验是:只要虾虾不试图修改代码错误,运行还算顺利。技能运行不成功修改代码的时候,有很大的几率把自己搞瘫痪。
|