| 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
Local LLM • Livid PRO |
8 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? Local LLM • diudiuu • 6 days ago • Lastly replied by qazwsxkevin | 46 |
| llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 Local LLM • coefu • Oct 29, 2025 • Lastly replied by coefu | 6 |
| N 卡又贵又断货,买块 AMD Radeon RX 7900 XTX 凑合一下怎么样? 硬件 • paranoiagu • Mar 1, 2025 • Lastly replied by xiaogui | 24 |
| 使用开源的 continue 和 llama.cpp 搭建本地运行的人工智能代码助理
2 程序员 • beginor • Aug 8, 2024 • Lastly replied by skyqiao
|
36 |
| 有没有产线拿 llama.cpp 跑大模型的案例? 机器学习 • wencan • May 18, 2024 • Lastly replied by gaobh | 2 |