我两台服务器,一台是maxkb,一台是vllm,vllm本地部署了chatglm4,maxkb访问报404 not found

我两台服务器,一台是maxkb,一台是vllm,vllm本地部署了chatglm4,服务正常启动,maxkb访问报404 not found。 ,从vllm服务器上看到"GET /v1/models HTTP/1.1" 200 OK ,但是"POST /chat/completions HTTP/1.1" 404 Not Found , 这个问题请问怎么解决?具体修改哪个文件?

能不能提供更多的截图?文字信息太少了,无法确定具体现象和可能原因。

vllm 有配置 api_key吗?建议配置api_key

我也是这个错误,不是api_key的问题是推理接口,你可以看下vLLm的控制台信息,vLLm的推理接口是/v1/completions,但是maxkb校验时调用的是/chat/completions,接口提示404,所以添加不了。