|
回答太长就报错是什么问题
|
|
1
|
608
|
2024 年4 月 29 日
|
|
会考虑出windows版本吗
|
|
1
|
624
|
2024 年4 月 29 日
|
|
离线部署的时候,每次回答完都会报错异常(MaxRetryError("HTTPSConne...
|
|
4
|
655
|
2024 年4 月 29 日
|
|
上传的文档没有智能分段
|
|
1
|
560
|
2024 年4 月 29 日
|
|
【询问】对话api调用出现的 is not a valid UUID
|
|
2
|
808
|
2024 年4 月 30 日
|
|
正在支持使用MaxKB,但是怎么使用显卡直通?好像一直是用cpu的
|
|
5
|
1977
|
2024 年4 月 29 日
|
|
无法添加Llama3模型
|
|
1
|
426
|
2024 年4 月 28 日
|
|
嵌入第三方在用二级域名转发时访问路径不正确
|
|
0
|
733
|
2024 年4 月 28 日
|
|
如何修改Ollama的CPU限制和内存限制
|
|
0
|
2007
|
2024 年4 月 28 日
|
|
才提问几次!界面就提示:提问已达到最大限制!请明天再来 !
|
|
2
|
1700
|
2024 年4 月 28 日
|
|
每次回答完毕都会报错
|
|
1
|
374
|
2024 年4 月 28 日
|
|
Maxkb连接ollama时,不能填写ip地址
|
|
1
|
1034
|
2024 年4 月 28 日
|
|
Maxkb Docker容器闪退
|
|
0
|
381
|
2024 年4 月 26 日
|
|
有时AI回答问题到一半,突然404了是怎么回事?如何解决?
|
|
1
|
389
|
2024 年4 月 26 日
|
|
在Ollama中离线部署qwen:0.5b模型却找不到选项
|
|
3
|
1244
|
2024 年4 月 25 日
|
|
docker部署,如何保留配置和知识库升级
|
|
2
|
1472
|
2024 年4 月 25 日
|
|
提问之后,显示“回答中....“,过很久之后,提示“connect error“
|
|
6
|
2496
|
2024 年4 月 25 日
|
|
MaxKB回答问题的时间太长了,经常要6分钟以上,怎么样才可以缩短回答时间呢?
|
|
4
|
1409
|
2024 年4 月 25 日
|
|
添加kimi模型提示校验失败,请检查参数是否正确: Error code: 404 - {'code': 5, 'error': 'url.not_found', 'message': '没找到对象', 'method': 'POST', 'scode': '0x5', 'status': False, 'ua': 'OpenAI/Python 1.23.1', 'url': '/chat/completions'}
|
|
1
|
2547
|
2024 年4 月 25 日
|
|
多轮对话无效果
|
|
2
|
1061
|
2024 年4 月 25 日
|
|
为何本地大模型最高只能跑到50%CPU利用率?
|
|
0
|
449
|
2024 年4 月 25 日
|
|
对接Ollama模型
|
|
3
|
829
|
2024 年4 月 24 日
|
|
每次回答都有这个,上午还没有呢,下午就出现了
|
|
0
|
402
|
2024 年4 月 24 日
|
|
嵌入第三方 网页后,切换网页面,聊天记录就没了。
|
|
2
|
649
|
2024 年4 月 24 日
|
|
maxkb不支持ollama qwen模型吗?
|
|
2
|
548
|
2024 年4 月 24 日
|
|
太离谱了
|
|
1
|
506
|
2024 年4 月 24 日
|
|
maxkb如何导出知识库和关联问题?
|
|
1
|
670
|
2024 年4 月 24 日
|
|
我更换了嵌入式向量模型,m3e-large,碰到向量维度问题
|
|
10
|
3856
|
2024 年4 月 24 日
|
|
回复慢怎么优化?
|
|
1
|
1170
|
2024 年4 月 24 日
|
|
MaxKB 切入的本地 vue 项目中报跨域
|
|
2
|
743
|
2024 年4 月 24 日
|