本地局域网已经部署好了 ollama模型,在maxkb中配置本地ollama以后, 配置了ollama的url ,然后直接就开始下载了

提示下载后就报错了,pull model manifest: Get “https://registry.ollama.ai/v2/library/qwen/manifests/14b”:, 按道理不需要下载,因为局域网已经部署好了 ollama+模型,这个是怎么回事

检查一下maxkb和模型间的网路是否畅通