求教新版ollama 链接出错如何解决

新版ollama现在链接一直有问题,显示如下错误:
Exception:model runner has unexpectedly stopped, this may be due to resource limitations or an internal error, check ollama server logs for details (status code: -1)

已经检查过了,setting 中 expose ollama to the network 也设置的可以访问。
打开地址 localhost:11434 也是正常的。
检查maxkb 模型设置也能正常导入模型。
但是调取的时候还是出错。

这个报错是maxkb这边的,还是ollama的?

maxkb这边,ollama自动可以运行。

ollama有详细的日志吗?