| 有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? PungentSauce • 2024 年 2 月 22 日 • 最后回复来自 Track13 | 1 |
| 运行 LM Studio 的电脑硬件配置 cmonkey • 2024 年 5 月 9 日 • 最后回复来自 fushenzhi | 11 |
| ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 frankyzf • 2024 年 2 月 16 日 • 最后回复来自 frankyzf | 6 |
| 求推荐 基于本地文件的大模型? Pbe2RsrnVcPrF • 2024 年 2 月 2 日 • 最后回复来自 luguhu | 5 |
| 有人(个人)自己使用开源的 LLM 大模型吗? yuyue001 • 2024 年 1 月 25 日 • 最后回复来自 kennylam777 | 66 |
| 各位大佬,想玩玩 70B 参数规模的大模型,有没有什么推荐的云服务? Int100 • 2024 年 1 月 15 日 • 最后回复来自 akin520 | 4 |
| AI(大模型)本地化项目 和 部署设备 Int100 • 2024 年 1 月 11 日 • 最后回复来自 Int100 | 6 |
| 有没有类似 bob 那种 all-in-one LLM 的 plugin GaryHu • 2023 年 12 月 25 日 • 最后回复来自 GaryHu | 4 |
| 有没有自己电脑上跑大模型的大佬啊 suqiuluck • 2023 年 12 月 19 日 • 最后回复来自 xbird | 21 |
| 大家有什么本地部署的 ai 项目推荐吗 xiaolushuo123 • 2023 年 7 月 8 日 • 最后回复来自 mmdsun | 20 |