maxkb连接vllm的大模型,无法输出思考过程

maxkb连接vllm的大模型,无法输出思考过程,然而,maxkb内同一个应用连接ollama就能输出思考,另一台openwebui连接vllm也能输出思考。为什么?

对接的是什么模型

vllm+Qwen3-14B-FP8

在vllm里有思考过程吗

可以参考一下,Ollama的思考内容已经改为思考字段了,如何在maxkb上配置呢? - #6,来自 Zong

配置了也还是不行,环境:windows docker desktop; MaxKB v1.10.12-lts;ollama 0.13.0; 模型:qwen3:4b


Vllm 会存在这个问题,建议升级到 v2 最新版本。