maxkb连接vllm的大模型,无法输出思考过程,然而,maxkb内同一个应用连接ollama就能输出思考,另一台openwebui连接vllm也能输出思考。为什么?
对接的是什么模型
vllm+Qwen3-14B-FP8
在vllm里有思考过程吗
可以参考一下,Ollama的思考内容已经改为思考字段了,如何在maxkb上配置呢? - #6,来自 Zong