操作教程丨MaxKB+Ollama:快速构建基于大语言模型的本地知识库问答系统

1. MaxKB安装部署

部署方式一:通过1Panel应用商店,快速安装MaxKB应用。

部署方式二: 命令行安装。

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb 
# 用户名: admin 
# 密码: MaxKB@123..

2. Ollama安装部署

Ollama(github.com/ollama)是一个开源框架,它支持用户通过本地部署的方式构建大语言模型服务。目前,Ollama支持的大语言模型包括LIama 2、Mistral、Gemma等。

通过1Panel应用商店,您可以快速安装Ollama。

3. 在MaxKB中接入Ollama的大语言模型

第一步:登录至MaxKB系统

在1Panel应用商店的“已安装”选项卡中,找到MaxKB应用面板,点击应用名下方的“服务端口”选项打开MaxKB应用页面,即可使用默认的账户名和密码登录至MaxKB。

第二步:接入Ollama LLM模型

进入MaxKB的“系统设置”菜单,在“模型设置”页面中选择添加“Ollama”模型,并且填写模型的具体信息。点击“添加”按钮后,系统会自动下载部署Ollama模型。

除Ollama外,MaxKB还支持对接百度千帆大模型、Azure OpenAI和OpenAI模型,详细步骤可以参考MaxKB官方文档。

4. 制作企业知识库小助手

我们以制作DataEase小助手为例,为您演示通过MaxKB和Ollama构建知识库问答系统的过程。

第一步:在MaxKB中创建DataEase在线知识库

DataEase在线文档地址为:https://dataease.io/docs/

在MaxKB应用界面中,点击“知识库”菜单,选择创建知识库,填写相关信息后创建并导入知识库。在“知识库类型”选项中,离线文档选择“通用型”类型,在线文档选择“Web站点”类型。知识库创建界面如下:

MaxKB支持用户使用文档列表查看导入的文本数据。系统会自动爬取根地址及子地址的文本数据,按照URL地址生成文档,并自动拆分和进行向量化处理。

第二步:在MaxKB中创建DataEase小助手应用

在MaxKB的“应用”菜单中,选择创建应用,并填写相关的应用信息,操作界面如下:

DataEase小助手创建完成后,可以在MaxKB“应用”列表中点击对应应用的演示图标进行调试和预览。

DataEase小助手对话演示页面如下:

5. 将企业小助手嵌入到第三方业务系统中

接下来,我们将DataEase小助手嵌入到DataEase在线文档中。

回到MaxKB“应用”菜单中,点击DataEase小助手应用面板,进入该应用的“概览”页面。在概览页面打开“嵌入第三方”。

复制“浮窗模式”下方的脚本,加入到DataEase在线文档的文件中,即可将DataEase小助手嵌入至对应的页面中。

DataEase小助手嵌入在线文档后的效果如下:

6. 视频演示: 30分钟上线基于大语言模型的知识库问答系统

1 个赞

高质量文章推荐:社区用户使用 MaxKB 的经验分享
https://zhuanlan.zhihu.com/p/694850029

1 个赞

ollama3.1的模型可以连接吗?

docker 部署后,为什么重启后所有的内容都清空了

1 个赞

没有挂载本地目录