MaxKB应用在回答问题,回答被截取,显示不全,请问大家有遇到吗?


ollama直接运行模型答复是全面的。

我也遇到了 把知识库输出字符、模型token拉满都不行

+1,我也遇到

你们是用源码部署的吗?
我现在排查到是因为 工作流中使用了相同的模型,靠前的组件的max_tokens 把后面的 max_tokens 覆盖导致的

同样的问题+1

我遇到了,但是用的是阿里云的线上模型,我怀疑是有限制

已解决,将模型设置tokens值设置最大。