我更换了嵌入式向量模型,m3e-large,碰到向量维度问题

我把嵌入式向量模型从默认的shibing624_text2vec-base-chinese,换成了m3e-large了,config.yaml 配置正确。也重启docker了, 但是问答时候报错different vector dimensions 768 and 1024 。换回text2vec就没事。 应该是maxkb支持的向量维度不一致, m3e的超过1024了。 需要更改maxkb里面的配置, 请问这个应该去哪里改哪个文件?

需要把历史数据清空重新存入,embedding表

您好,我这个报错不是在上传文档里出的问题, 是用llama3 大语言直接问答出的问题, 用text2vec就正常,用m3e 就提示different vector dimensions 768 and 1024

因为知识库里面的分段内容你是用 text2vec模型向量化的, 然后提问的时候你换成了m3e 向量模型召回,两个向量模型的维度不同,所以召回报错。

你要把知识库的内容清除,重新导入文档使用m3e进行向量化。然后在提问的时候使用m3e模型进行向量召回就不会报错。

已解决,感谢

问一下 m3e-large效果怎么样??

您好,目前还碰到两个问题没解决,解决好就能测试了。 一个是问答回话总是给回英文,这个怎么能转变成中文。

二是,我之前用过langchain,上传文档后会自动识别,从文档回答问题。 咱们这个知识库上传文档后我看还需要自己设置问题? 根据设置的问题选择分段。如果我不设置问题选择段落的话,命中测试几率是0,是需要提前全部自己预设么?

另外还有请问可以在问答时候设置只从知识库回答不? 不从LLM回答

提示词可以尝试写:请只从已知信息当中查找答案。
但是估计效果不好
官方说后面版本可能会考虑不走LLM只走知识库。

您好,目前还碰到两个问题没解决, 一个是问答回话总是给回英文,这个怎么能转变成中文。

二是,我之前用过langchain,上传文档后会自动识别,从文档回答问题。 咱们这个知识库上传文档后我看还需要自己设置问题? 根据设置的问题选择分段。如果我不设置问题选择段落的话,命中测试几率是0,是需要提前全部自己预设么?

1、国外的模型你要在提示词加上:请使用中文回答用户问题。
2、 文档上传后会自动分段,分段关联的问题 提问的时候命中率会提高,如果不关联问题,只能在分段内容中找与问题相似的分段,分段内容多相似度就会低。
人工干预添加问题能提高命中率。