集成vllm模型后,AI回答内容被截断

image
image

token值不够大吧?

工作流中 对话节点模型的参数设置token值可能不够

最大输出token拉到最大,会导致vllm报错超出max token

那就不要拉到最大,不要超过模型允许的范围。