关于 MaxkB 使用 Ollama的llama 模型,回答慢的问题
|
|
1
|
4393
|
2024 年5 月 16 日
|
使用文档:基于Ollama+MaxKB快速搭建企业级知识库问答系统
|
|
1
|
852
|
2024 年4 月 30 日
|
希望MaxKB可以支持基于全文检索的回答
|
|
0
|
494
|
2024 年4 月 30 日
|
知识库优化建议
|
|
3
|
1336
|
2024 年4 月 29 日
|
回答太长就报错是什么问题
|
|
1
|
383
|
2024 年4 月 29 日
|
会考虑出windows版本吗
|
|
1
|
496
|
2024 年4 月 29 日
|
离线部署的时候,每次回答完都会报错异常(MaxRetryError("HTTPSConne...
|
|
4
|
405
|
2024 年4 月 29 日
|
上传的文档没有智能分段
|
|
1
|
420
|
2024 年4 月 29 日
|
【询问】对话api调用出现的 is not a valid UUID
|
|
2
|
490
|
2024 年4 月 30 日
|
正在支持使用MaxKB,但是怎么使用显卡直通?好像一直是用cpu的
|
|
5
|
1548
|
2024 年4 月 29 日
|
无法添加Llama3模型
|
|
1
|
307
|
2024 年4 月 28 日
|
嵌入第三方在用二级域名转发时访问路径不正确
|
|
0
|
455
|
2024 年4 月 28 日
|
如何修改Ollama的CPU限制和内存限制
|
|
0
|
1463
|
2024 年4 月 28 日
|
才提问几次!界面就提示:提问已达到最大限制!请明天再来 !
|
|
2
|
1277
|
2024 年4 月 28 日
|
每次回答完毕都会报错
|
|
1
|
253
|
2024 年4 月 28 日
|
Maxkb连接ollama时,不能填写ip地址
|
|
1
|
858
|
2024 年4 月 28 日
|
Maxkb Docker容器闪退
|
|
0
|
255
|
2024 年4 月 26 日
|
有时AI回答问题到一半,突然404了是怎么回事?如何解决?
|
|
1
|
266
|
2024 年4 月 26 日
|
在Ollama中离线部署qwen:0.5b模型却找不到选项
|
|
3
|
700
|
2024 年4 月 25 日
|
docker部署,如何保留配置和知识库升级
|
|
2
|
1043
|
2024 年4 月 25 日
|
提问之后,显示“回答中....“,过很久之后,提示“connect error“
|
|
6
|
1176
|
2024 年4 月 25 日
|
MaxKB回答问题的时间太长了,经常要6分钟以上,怎么样才可以缩短回答时间呢?
|
|
4
|
992
|
2024 年4 月 25 日
|
添加kimi模型提示校验失败,请检查参数是否正确: Error code: 404 - {'code': 5, 'error': 'url.not_found', 'message': '没找到对象', 'method': 'POST', 'scode': '0x5', 'status': False, 'ua': 'OpenAI/Python 1.23.1', 'url': '/chat/completions'}
|
|
1
|
1518
|
2024 年4 月 25 日
|
多轮对话无效果
|
|
2
|
702
|
2024 年4 月 25 日
|
为何本地大模型最高只能跑到50%CPU利用率?
|
|
0
|
297
|
2024 年4 月 25 日
|
对接Ollama模型
|
|
3
|
607
|
2024 年4 月 24 日
|
每次回答都有这个,上午还没有呢,下午就出现了
|
|
0
|
308
|
2024 年4 月 24 日
|
嵌入第三方 网页后,切换网页面,聊天记录就没了。
|
|
2
|
476
|
2024 年4 月 24 日
|
maxkb不支持ollama qwen模型吗?
|
|
2
|
390
|
2024 年4 月 24 日
|
太离谱了
|
|
1
|
362
|
2024 年4 月 24 日
|