社区论坛 - FIT2CLOUD 飞致云
集成vllm模型后,AI回答内容被截断
MaxKB
user-qwf1ipspb72
2025 年9 月 22 日 08:38
1
image
1111×255 34.2 KB
12138
2025 年9 月 22 日 10:30
2
token值不够大吧?
炸鱼饼
2025 年9 月 23 日 01:56
3
工作流中 对话节点模型的参数设置token值可能不够
image
696×445 21 KB
user-qwf1ipspb72
2025 年9 月 23 日 02:30
4
最大输出token拉到最大,会导致vllm报错超出max token
玉树
2025 年9 月 23 日 02:33
5
那就不要拉到最大,不要超过模型允许的范围。