maxkb中ollama什么时候能支持QWen模型 llama2-chinese的中文回答已不太好呢

希望支持更多大参数的中文模型(模型能够本地部署)

可以直接输入qwen:14b,然后他会调用ollma接口自己下载的

好的 我试一下