不用下载,直接在 MaxKB 的模型管理中对接 Ollama ,MaxKB会自动执行命令:ollama run 基础模型。
模型添加成功就能调用。
不用下载,直接在 MaxKB 的模型管理中对接 Ollama ,MaxKB会自动执行命令:ollama run 基础模型。
模型添加成功就能调用。
CMD运行:
docker run -d -p 3214:3214 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 1panel/maxkb
Ollama API域名填写:http://host.docker.internal:11434
你好,按照步骤部署,添加ollama模型不行哦,还是显示api域名不可用
仔细看上面要求不能用127.0.0.1
访问不了,需要自己单独部署Ollama 吗?
你要先部署 Ollama,可以通过 1panel 部署。
可以参考以下教程:
好像不能使用 localhost~
是必须通过1Panel安装MaxKB和Ollama么?这两个我都是用命令装的,各自都能运行起来
可以使用命令安装,只要确保Ollama和 MaxKB 运行成功就行,在本帖找一下 解决方案,按照解决方案的方法修正一下。
我的已解决,看看是不是容器无法访问这个 ip,ping 一下试试。
如果是通过虚拟机加虚拟机里面的docker,ollama如果装在实体机,有可能就是虚拟机里的docker访问不到实体的ollama。
在 MaxKB容器中,执行:curl ollama服务地址 ,确保能正常访问。
还是不行,欸