正在支持使用MaxKB,但是怎么使用显卡直通?好像一直是用cpu的

正在支持使用MaxKB,但是怎么使用显卡直通?好像一直是用cpu的

MaxKB只使用cpu,如果接入 Ollama 的本地化大模型有 GPU 配置会比较好。

请问,有没有Ollama本地话大模型配置GPU相关的教程

暂时还没有,可以看下这篇文章:【AI】在docker中部署ollama体验AI模型_ollama docker-CSDN博客
或查看官方文档:GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.