@
unt #8 langGraph 只是管理模型,按照设计工作流在不同的条件不同的时机下进行调用模型+其他工具。
所以我觉得没有抽身困难这一说。
不管未来模型如何变化,也是要根据公司业务场景来考虑的, 模型虽好,也要考虑成本
我相信很多公司 AI 模型用的大部分应该是 flash 版本。尤其是在低耗时且复杂的场景下。
目前我这边 就是用的豆包 1.6flash 多个子 agent + 汇总 2.0lite 版本。
以上个人观点。
顺便贴 2 个业务的流程图,通过 langGraph 实现起来省了很多代码(忠爱粉)
```
START
↓
classify_input_node
↓
route_by_input_type
├── first_message → first_message_node
│ ↓
│ core_node
│ ↓
│ END
│
├── normal → reply_node
│ ↓
│ emotion_node
│ ↓
│ report_node
│ ↓
│ core_node
│ ↓
│ END
│
└── force_end → report_node
↓
core_node
↓
END
└── end → END
```
```
START
├── consultation_risk
├── consultation_knowledge
├── consultation_sop
└── consultation_tone
↓
等 risk / knowledge / sop / tone 全部完成
↓
├── consultation_reply # 流式生成最终回复文本,并直接发送 socket partial
├── consultation_card # 生成推荐情景卡片
└── consultation_tags # 生成 suggested_tags
↓
等 reply / card / tags 全部完成
↓
consultation_core # 最终汇总,返回输出
↓
consultation_summary # 后台更新历史摘要
↓
END
```