1
momocraft 7 小时 31 分钟前
路会很长, 现在的 LLM 连指示和数据都不区分
|
2
sddyzm 7 小时 30 分钟前 via iPhone
目测不可能,只能给像人一样的环境上的物理限制
|
3
dobelee 7 小时 27 分钟前
看看最近 openai 、claude 、grok 、openclaw 的各种争议和官司,你觉得有可能吗?
现在的 AI 也无法准确判断,比如昨天 openclaw 删库的事件。 另外,即使 AI 最终彻底解决幻觉,也难以做到三定律。 如电车难题和罐中脑。为了执行<不让人类受到"任何"伤害>,而囚禁保护人类,是否合理。 |
4
cmdOptionKana 7 小时 26 分钟前 via Android
看了原著,这个设定本身就是自相矛盾的,是很巧妙的小说技巧,可以让故事很有趣,但这个在现实中是没有意义的。
|
5
Zhuzhuchenyan 5 小时 38 分钟前
|
6
xFrank OP @cmdOptionKana 我说的是类似,总要有些“底层代码”来防止 AI 不能干某些事
|