1
coefu 6 天前
你应该问 chatgpt 。
|
2
Merlini 6 天前
感觉 AI 现在大概就两类吧。
第一类是直接做 LLM 的,门槛很高,要懂模型底层原理,论文要看的比较多,都是博士在做,工资很高。 第二类是基于现有 LLM 来做应用,最多的就是 RAG 之类的。基本都是传统程序员学点 LLM 调用框架就能干了,工资参差不齐。(里面也会分偏业务和偏实现) 其实非要说的话还有一类,就是 infra 。随着 AI 模型的爆火,训练和部署之类的都需要人去弄,所以 ai infra 的岗位也出现了。不过感觉岗位不是特别多,交叉的领域也很深。(软件,硬件,AI 都得懂) |
3
killeder 5 天前 via Android
一种是研发型,一种是应用型
|
4
akira 5 天前
普通公司 不需要考虑 造车
|
5
charslee013 5 天前
有个误解,AI 充其量是一个**工具**,而使用他的人是**员工**的话,那么需要**公司**来定义这个员工需要什么技能才对。
对于 AI 来讲,只有对应领域的训练素材的多少以及上下文限制而已 |
6
firefox12 OP 其实 还有个很大的疑惑, 我不知道 ai 工程师的产出是什么? 他们完成的工作是什么?
比如过去 我很清楚 前端的产出是个站点,用户用浏览器可以访问 后端是 api 服务 和前端交互后 可以把处理好的结果给前端, db 大数据 这些 我都很清楚。 到了 ai 之后 完全被这些名词搞混了 深度学习 机器学习 大语言模型 模型工程师 机器视觉 opencv 这个我其实最清楚,感觉和现在的开发区别不大。 |
7
firefox12 OP 有人能描述一下 ai 服务器是怎么工作的吗?
传统的后端 可以这样描述 前端将用户指令变成一条 json 命令 通过 http 传给后端网关 网关把这条命令根据逻辑分解成多个步骤 可能需要读取下数据库 取出信息 在 redis 里查询下数据 也可能在 es 里进行查询 最终将结果变成一个 json 命令 通过 http 穿回前端 ai 它是如何工作的呢? 很多台 linux 收到请求, 将请求发给本地的程序 程序再调用 GPU 算一阵 然后吐出一堆字符串吗? 经常说某个模型 16G 32G 家用显卡都载入不了, 那么它们是如何运行起来的呢? 还有一个点,chatgpt 经常表示 已经读取了 10 多个网页 得出结论? 第一真的在一秒内搜索了 搜索引擎 又去那么多网站读取了页面,然后重新对这些内容作了训练获取了信息 然后吐出结论吗? 感觉这个速度快得吓人 另外一个问题 ai 本质就是一个很大的文件吧,里面都是 0 和 1 这些 0 和 1 都是训练出来的, 那么它在接到用户请求以后 它本身会被改变吗? 它是类似一个执行文件呢? 还是说外部输入也会不断改变它模型本身? 还是说 模型不会,但是它会把记忆放在缓存里 缓存会被污染? |