zxjxzj9 最近的时间轴更新
zxjxzj9

zxjxzj9

V2EX 第 710058 号会员,加入于 2024-09-11 13:40:06 +08:00
zxjxzj9 最近回复了
1 天前
回复了 Croow 创建的主题 程序员 真心发问,想学后端需要学啥?
很简单,买一台 nas 小主机或者服务器, 然后往上面搭服务, 什么 ai 网关/openwebui, 智能家居主控, 流媒体刮削/推送,或者用 ai 手搓什么 epub 阅读器,等你你 api 配多了你就知道怎么写后端了. 不然这东西有啥好学的不就是想出来你要怎么样把各种数据转化成 json/blob/hls 等东西和你的浏览器交互么
@woodfizky 虽然这么说很不政治正确,但是确实是存在很多年纪大了就开始固执的情况.. 我也碰到过几个年纪大了不肯看 ts 代码的
2 天前
回复了 jdjingdian 创建的主题 Local LLM 本地部署靠不靠谱?
我研究了一圈感觉最合适的就是以比较低的价格买 395max, 然后跑跑简单任务或者整点龙虾 Hermes agent 这种东西,干不来太多超长上下文的重活. 真的干重活老老实实买 api 套餐吧. 而且 395max 可以上 linux, 自己会折腾能释放出比原装更高一点的潜力.

DGX Spark 现在也有一定性价比,但是这机器本身三分之一的价格在网卡上, 只买一台根本用不到. 不过考虑到一张 5090 和 spark(gb10)方案的机器价格都差不多了, 所以真的要上还是值得上的. 这个对商用用户来说其实是更好的选择,因为很容易上集群,上了集群就可以自己训练.本身那个金灿灿的盒子颜值也很高.

然后就是苹果. 讲真苹果目前 m5 max 的性能是完全碾压其 a 和 n 两家的. 如果苹果能出 48G 版本的 m5 pro mac mini, 这个其实是最甜点的,普通人跑跑的模型差不多 48-96 这个版本就够用了. 而 m5 推理层可以用飞快来形容, 苹果的统一内存带宽也高,不训练只推理用苹果其实是最舒服的. 就是现在 studio 和 m5max 的价格太贵了,而且只有 macbook pro 也很难当一个随时待命的服务器.

算力最强的当然是 5090 ,但是功耗和价格摆在那里, 而且还有额外的装机成本. 如果真的手搓,还有个选择就是英特尔 b70 计算卡,但是 b70 也就是 32g,其他内存硬盘最近这价格硬顶到最后也很难比 aimax 便宜.如果硬盘内存价格能再回落一点可能 b70 会是纯推理性价比更好的选择.
2 天前
回复了 phenchow 创建的主题 程序员 中年人爱上 AI 编程,就像爱上钓鱼
@LXchienne 那不然呢? 我会编程我也懒得看
2 天前
回复了 wuruxu 创建的主题 程序员 每月 AI 支出都超过生活费了
你这个生活费有点太低了...
5 天前
回复了 archxm 创建的主题 程序员 RAG 难以让人满意啊
现在真的应该用 RAG 的是那种超长上下文模型的内部研究. 就目前的个人来说 RAG 确实是上不去下不来,因为 rerank 和嵌入太费劲了,对个人用户来说投入太大.如果公司的文档有个目录,还不如让 ai 直接理解目录层级的语义来 grep 搜索,比 RAG 好用多了.
@ntdll 你这样的最推荐 codex, 20 刀感觉是无穷无尽. 其次是 cursor, 你就想 20 刀你也不好买 kimi 的套餐, 他这个是升级版 kimi 2.5.. 然后才轮到国内那些 glm minimax 这种
13 天前
回复了 SeptApt 创建的主题 买买买 求推介断网能使用的扫地机器人
本来机器人都不需要联网,联网是为了显示对应的数据(比方说屋子的多少被扫过了), 如果只是追求不需要互联网就能访问/控制 用 home assistant+控制中枢就行了
感觉 passkey 代替密码才是一般操作(有了用户名之后可以选择 passkey 或者密码)
3 月 17 日
回复了 heartleo 创建的主题 程序员 一个使用大模型翻译 SRT 字幕的小工具
能支持 bd 圆盘的 mkv srt 转化成文本格式的字幕吗
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3425 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 12:11 · PVG 20:11 · LAX 05:11 · JFK 08:11
♥ Do have faith in what you're doing.