maxkb连接vllm的大模型,无法输出思考过程

maxkb连接vllm的大模型,无法输出思考过程,然而,maxkb内同一个应用连接ollama就能输出思考,另一台openwebui连接vllm也能输出思考。为什么?

对接的是什么模型

vllm+Qwen3-14B-FP8

在vllm里有思考过程吗

可以参考一下,Ollama的思考内容已经改为思考字段了,如何在maxkb上配置呢? - #6,来自 Zong