我发现直接在一个对话中问 DeepSeek 影响拖延的因素 DeepSeek 给的回答里没有不安全感,但是我最近发现不安全感好像会影响我的拖延。然后我在另外一个对话中问 DeepSeek 不安全感是否会影响拖延,DeepSeek 说影响很大。
这就很不舒服了。我怀疑很可能是为了降低成本都对 LLM 的输出进行了限制。为了让 LLM 回答得更细致,比如能否通过先让 LLM 列一个大纲,然后再通过一个个追问让 LLM 展开各个主题呢?或者有没有更好的方法?
上面的我问了一下 DeepSeek ,它说我说的方法就是最推荐的了。这是我的测试结果: https://chat.deepseek.com/share/5ntx7ogg8n05tw6gon 。这回里面有安全感了。然后我又追问了一下 DeepSeek 有没有相关的网站,它提到了 STORM 。我用 procrastination 试了一下实在是太慢了,另外不知道用多了会不会要钱。有没有缓存输出结果的网站?做一个成本不高吧?
你可能会问为什么不直接去看书。拖延的书我也看过一些,我感觉不同的书各有侧重,还有很多重复的地方。总之就是体验不怎么好。
1
codehz 6 天前 via Android
你要做定制就不要用 web 来做,直接用 api 来实现🌚web ui 上下文表现不稳定
|
2
laminux29 6 天前
在管理学中,你这种行为,是典型的“不合格面试官”的错误。简单来说,你是掌管评价权的面试官,你有一个开放式问题,你心理有个预设答案,但这答案并不一定属于专业回答。然后你找一堆专家作为面试者,每个专家都有自己的专业回答,但因为没有提到你要的预设答案,你就直接认定这些专家不专业。
另外,你使用人工智障的方式也有问题。如果你有严肃的问题,正确的方式是,同时使用多款市面上的主流人工智障,并且每款人工智障要对其多次提问。至于 Deepseek ,目前来说,无论专业性还是逻辑性,它都不是顶级的。 |
3
shendaowu OP @codehz #1 大佬经常用 API 吗?那你知道单个输出有最大限制吗?我搜了一下没搜到。没限制的话能不能直接让它直接一次生成一篇长文?你别直接去试,没准会花很多钱。
|
5
codehz 6 天前 via Android @shendaowu maxTokens 是可以自己设置的,当然模型总会自己停止输出,因为训练材料里都是这样的,maxTokens 最大的作用可能是防止模型出 bug 一直循环输出导致账单爆掉吧()
关于你这个问题,你多次调用 api 获取不同方向的描述不就可以了 |
6
inertia 6 天前
试试 gemini 的 deep research
|
7
rb6221 5 天前
这不是 deep search 吗,没用过自己去试试
|
8
YsHaNg 5 天前
自己部署 agent workflow 吧 每个衍生话题 spawn 一个 subagent 设置好并发量单独 session 互相不影响 maxtokens 也随便你自己设
|
9
shendaowu OP 我一边打滚一边自己写了一个提示词:
请帮我写一个突破 DeepSeek 的单次输出字数有限的限制,对一个问题进行尽可能详细地介绍的 Python 脚本。 具体要求: 利用 DeepSeek 的 API 将一个大问题拆解成一个提纲,然后以 JSON 的形式输出提纲。然后再将 JSON 提纲和详述 JSON 提纲中的各个小点作为命令作为输入。然后再将输出整合到一起,输出为 HTML 。 例子: 大问题:影响拖延的因素。 第一个提示词:关于“影响拖延的因素”,请列出一个提纲,请以 JSON 的形式输出。这是在一个对话内的。 假设第一个提示词的输出为 O 。 取出 JSON 提纲中的第一个小点,假设为 T1 。 新开一个对话。第二个提示词:以下是关于“影响拖延的因素”的提纲:O 。请详述其中的 T1 。假设输出为 C1 。 取出 JSON 提纲中的第二个小点,假设为 T2 。 再新开一个对话。第三个提示词:以下是关于“影响拖延的因素”的提纲:O 。请详述其中的 T2 。假设输出为 C2 。 所有小点的详细介绍的的生成使用多线程同时生成。 以此类推。 新开对话是为了节省 token 。 最后将 O 、C1 、C2…… 合并到一起。 其他要求: 把工作目录设置为脚本所在的位置。防止在 Windnows 中双击 py 文件执行出现问题。 使用前端库渲染输出的 Markdown 回复。 程序运行后输入大问题。不要用命令行参数。 如果我的需求有什么不合理的地方或者更好的实现方法你可以改一下。 我可以起来了。 |