MaxKB 产品介绍

为啥不管用呢?

指定你本地模型绝对路径

如果配置绝对路径就是使用本地已有模型 如果配置名称 则是从huggingface上下载到本地 并使用

向量模型的格式有要求吗?直接从魔搭上下载的可以不?

在 huggingface上下载

不知道为啥一直从线上加载,明明已经在配置文件里指定路径啦
“EMBEDDING_MODEL_PATH”: “/opt/maxkb/model/embedding/shibing624_text2vec-base-chinese”

一直报这个错误WARNING:sentence_transformers.SentenceTransformer:No sentence-transformers model found with name sentence-transformers/shibing624_text2vec-base-chinese. Creating a new one with MEAN pooling.

EMBEDDING_MODEL_NAME: 模型名称 如果是 绝对路径 则加载本地模型 如果只是 模型名称则从huggingface上下载
EMBEDDING_MODEL_PATH: 如果EMBEDDING_MODEL_NAME传的是模型名称EMBEDDING_MODEL_PATH则是指定模型下载目录

EMBEDDING_MODEL_PATH: /opt/maxkb/model/embedding
EMBEDDING_MODEL_NAME: /opt/maxkb/model/embedding/shibing624_text2vec-base-chinese
如果EMBEDDING_MODEL_NAME使用的是绝对路径EMBEDDING_MODEL_PATH则无效

Can’t load tokenizer for ‘gpt2’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘gpt2’ is the correct path to a directory containing all relevant files for a GPT2TokenizerFast tokenizer.
为什么会调用gpt2呢?

像阿里云的2h2g 40盘怎么部署该应用呢,服务器是90多包年的没钱买贵的

可以的,已安排在下个版本的计划中。

GPT2是为了计算对话tokens

知识库中的分段内容在存储在数据库, 没有存储原始文档。

是的,因为演示的公开访问链接是用户端提问的界面,知识来源放到管理端是考虑到给维护人要调试知识库用,担心知识库的内容若不规范放给用户看怕有误导所以未显示知识来源。

后期看大家需求再定要不要加个设置让用户端显示知识来源。

现在还不支持。
应用的对话日志详情中可以看到用户端的知识来源

想问下这里可以修改吗?

安装docker 然后通过官网命令运行maxkb

感谢指导
实测bge-large-zh-v1.5嵌入模型效果很好 建议后续版本考虑采用
传个模型文件不难 但maxkb内部的config.yaml死活映射不到宿主机内 现在是手动进入容器内更新config文件 这样的话每次更新maxkb镜像都需要手改config。。。。

只要尝试映射容器的/opt/maxkb下的目录 就会出各种错

可以使用-v 将配置文件目录挂载到宿主机

怎么使用ollama添加自己训练过的私有模型