LLM 配置与使用
1. 如何在国内环境中使用 OpenAI 代理服务器进行访问?
2. 如何选择基础模型?
3. 为什么建议 max_tokens 设置小一点?
4. 知识库长文本如何切分比较合理?
5. 我们在获取知识库分段时用的什么距离函数?
6. 填写 OpenAI key,校验失败报错提示:“校验失败: You exceeded your current quota, please check your plan and billing details。”是什么原因?
7. 使用 OpenAI 的 key 在应用里对话,有如下报错提示,是什么原因?
8. 用户自部署后,智聊不可使用,报错如下:Unrecognized request argument supplied:functions,该怎么解决?
9. 设置 OpenAI Key 时,报错如下,是什么原因?
10. 应用里切换模型使用时遇到如下报错,该怎么解决?
11. 遇到如下报错提示,该如何解决?
12. Dify 里面默认的模型是什么,可否使用开源的模型?
13. 在社区版中,知识库开启 Q&A 分段模式一直显示排队中,是什么原因?
14. 用户在使用应用时遇到报错“Invalid token”,该怎么解决?
15. 知识库文档上传的大小限制有哪些?
16. 为什么选择了 Claude 模型,还是会消耗 OpenAI 的费用?
17. 有什么方式能控制更多地使用上下文数据而不是模型自身生成能力吗?
18. 上传知识库文档是 Excel,该如何更好地分段?

19. 买了 ChatGPT plus,为什么在 dify 里还不能使用 GPT4?
20. 如何增加其他的 Embedding Model?
21. 如何把自己创建的应用设置成应用模板?
Last updated