我也遇到了 把知识库输出字符、模型token拉满都不行
+1,我也遇到
你们是用源码部署的吗? 我现在排查到是因为 工作流中使用了相同的模型,靠前的组件的max_tokens 把后面的 max_tokens 覆盖导致的
同样的问题+1
我遇到了,但是用的是阿里云的线上模型,我怀疑是有限制
已解决,将模型设置tokens值设置最大。