使用vllm添加的模型,不能正确的输出思考过程



判断思考的默认标签是这个,你可以调整下先随便设置一个标签,看模型完整返回的内容是怎样的。

vLLM使用deepseek r1 32b也遇到了这个问题,返回的输出是没有开始的标签的,只有结尾的

已解决