V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
这是一个专门讨论 idea 的地方。

每个人的时间,资源是有限的,有的时候你或许能够想到很多 idea,但是由于现实的限制,却并不是所有的 idea 都能够成为现实。

那这个时候,不妨可以把那些 idea 分享出来,启发别人。
shendaowu
V2EX  ›  奇思妙想

我现在就要这个:让 LLM 对于一个话题给出尽可能详尽的介绍(不给我就不起来,打滚中……)

  •  
  •   shendaowu · 6 天前 · 1441 次点击

    我发现直接在一个对话中问 DeepSeek 影响拖延的因素 DeepSeek 给的回答里没有不安全感,但是我最近发现不安全感好像会影响我的拖延。然后我在另外一个对话中问 DeepSeek 不安全感是否会影响拖延,DeepSeek 说影响很大。

    这就很不舒服了。我怀疑很可能是为了降低成本都对 LLM 的输出进行了限制。为了让 LLM 回答得更细致,比如能否通过先让 LLM 列一个大纲,然后再通过一个个追问让 LLM 展开各个主题呢?或者有没有更好的方法?

    上面的我问了一下 DeepSeek ,它说我说的方法就是最推荐的了。这是我的测试结果: https://chat.deepseek.com/share/5ntx7ogg8n05tw6gon 。这回里面有安全感了。然后我又追问了一下 DeepSeek 有没有相关的网站,它提到了 STORM 。我用 procrastination 试了一下实在是太慢了,另外不知道用多了会不会要钱。有没有缓存输出结果的网站?做一个成本不高吧?

    你可能会问为什么不直接去看书。拖延的书我也看过一些,我感觉不同的书各有侧重,还有很多重复的地方。总之就是体验不怎么好。

    第 1 条附言  ·  6 天前
    大概不用回了?我才发现 STORM 里的那个 discover 里能搜索。另外我自己弄的最终生成失败了。
    第 2 条附言  ·  6 天前
    STORM 的发现里面的一般也不是很详细。另外我感觉这东西如果用 API 做的话有优化的可能?就是不要连着问,每次只带提纲和详述一个小点的命令。
    10 条回复    2026-02-20 20:55:09 +08:00
    codehz
        1
    codehz  
       6 天前 via Android
    你要做定制就不要用 web 来做,直接用 api 来实现🌚web ui 上下文表现不稳定
    laminux29
        2
    laminux29  
       6 天前
    在管理学中,你这种行为,是典型的“不合格面试官”的错误。简单来说,你是掌管评价权的面试官,你有一个开放式问题,你心理有个预设答案,但这答案并不一定属于专业回答。然后你找一堆专家作为面试者,每个专家都有自己的专业回答,但因为没有提到你要的预设答案,你就直接认定这些专家不专业。

    另外,你使用人工智障的方式也有问题。如果你有严肃的问题,正确的方式是,同时使用多款市面上的主流人工智障,并且每款人工智障要对其多次提问。至于 Deepseek ,目前来说,无论专业性还是逻辑性,它都不是顶级的。
    shendaowu
        3
    shendaowu  
    OP
       6 天前
    @codehz #1 大佬经常用 API 吗?那你知道单个输出有最大限制吗?我搜了一下没搜到。没限制的话能不能直接让它直接一次生成一篇长文?你别直接去试,没准会花很多钱。
    shendaowu
        4
    shendaowu  
    OP
       6 天前
    @laminux29 #2 我没说明白,我的意思是就免费的那点默认的最大回答字数根本就没法介绍清楚一个比较大的话题。
    codehz
        5
    codehz  
       6 天前 via Android   ❤️ 1
    @shendaowu maxTokens 是可以自己设置的,当然模型总会自己停止输出,因为训练材料里都是这样的,maxTokens 最大的作用可能是防止模型出 bug 一直循环输出导致账单爆掉吧()
    关于你这个问题,你多次调用 api 获取不同方向的描述不就可以了
    inertia
        6
    inertia  
       6 天前
    试试 gemini 的 deep research
    rb6221
        7
    rb6221  
       5 天前
    这不是 deep search 吗,没用过自己去试试
    YsHaNg
        8
    YsHaNg  
       5 天前
    自己部署 agent workflow 吧 每个衍生话题 spawn 一个 subagent 设置好并发量单独 session 互相不影响 maxtokens 也随便你自己设
    shendaowu
        9
    shendaowu  
    OP
       5 天前
    我一边打滚一边自己写了一个提示词:

    请帮我写一个突破 DeepSeek 的单次输出字数有限的限制,对一个问题进行尽可能详细地介绍的 Python 脚本。

    具体要求:
    利用 DeepSeek 的 API 将一个大问题拆解成一个提纲,然后以 JSON 的形式输出提纲。然后再将 JSON 提纲和详述 JSON 提纲中的各个小点作为命令作为输入。然后再将输出整合到一起,输出为 HTML 。

    例子:
    大问题:影响拖延的因素。
    第一个提示词:关于“影响拖延的因素”,请列出一个提纲,请以 JSON 的形式输出。这是在一个对话内的。
    假设第一个提示词的输出为 O 。
    取出 JSON 提纲中的第一个小点,假设为 T1 。
    新开一个对话。第二个提示词:以下是关于“影响拖延的因素”的提纲:O 。请详述其中的 T1 。假设输出为 C1 。
    取出 JSON 提纲中的第二个小点,假设为 T2 。
    再新开一个对话。第三个提示词:以下是关于“影响拖延的因素”的提纲:O 。请详述其中的 T2 。假设输出为 C2 。
    所有小点的详细介绍的的生成使用多线程同时生成。
    以此类推。
    新开对话是为了节省 token 。

    最后将 O 、C1 、C2…… 合并到一起。

    其他要求:
    把工作目录设置为脚本所在的位置。防止在 Windnows 中双击 py 文件执行出现问题。
    使用前端库渲染输出的 Markdown 回复。
    程序运行后输入大问题。不要用命令行参数。

    如果我的需求有什么不合理的地方或者更好的实现方法你可以改一下。

    我可以起来了。
    shendaowu
        10
    shendaowu  
    OP
       5 天前
    @shendaowu 对一个大问题生成长文大概要一毛钱。我感觉还算值。另外效果基本满意。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1301 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 17:00 · PVG 01:00 · LAX 09:00 · JFK 12:00
    ♥ Do have faith in what you're doing.