maxkb连接vllm的大模型,无法输出思考过程,然而,maxkb内同一个应用连接ollama就能输出思考,另一台openwebui连接vllm也能输出思考。为什么?
对接的是什么模型
vllm+Qwen3-14B-FP8
在vllm里有思考过程吗
Vllm 会存在这个问题,建议升级到 v2 最新版本。
maxkb连接vllm的大模型,无法输出思考过程,然而,maxkb内同一个应用连接ollama就能输出思考,另一台openwebui连接vllm也能输出思考。为什么?
对接的是什么模型
vllm+Qwen3-14B-FP8
在vllm里有思考过程吗
Vllm 会存在这个问题,建议升级到 v2 最新版本。