Maxkb应用中调用ollama的deepseek-r1模型问题

环境:本地化docker部署:maxkb,ollama
现状1:maxkb应用中应用 调用了ollama上加载的deepseek-r1模型
现状2:之前多个maxkb应用调用qwen,deepseek,glm4等都没有问题
问题:现在发现当多个应用同时调用不同的deepseek模型时,只要加载第二个,maxkb应用中选择模型的地方就会清空,知识库问答时告知没有配置AI模型。
不知道这是ollama的bug,还是maxkb调用ollama-deepseek的bug

按照你的描述来看,操作之后会导致模型选择情清空,应该是个缺陷,可以补充相应的截图和复现步骤,在Github上给我们提交一个缺陷。
https://github.com/1Panel-dev/MaxKB/issues