maxkb现在能兼容ollama最新的qwq模型吗?
用ollama部署的任意模型都支持包括qwq,就不知道你这个模型是本地部署还是调用阿里百炼的API,当然也是没有问题的。
通义千问的最新32b模型哈哈,部署成功了