无法添加Llama3模型
|
|
1
|
310
|
2024 年4 月 28 日
|
嵌入第三方在用二级域名转发时访问路径不正确
|
|
0
|
472
|
2024 年4 月 28 日
|
如何修改Ollama的CPU限制和内存限制
|
|
0
|
1504
|
2024 年4 月 28 日
|
才提问几次!界面就提示:提问已达到最大限制!请明天再来 !
|
|
2
|
1319
|
2024 年4 月 28 日
|
每次回答完毕都会报错
|
|
1
|
258
|
2024 年4 月 28 日
|
Maxkb连接ollama时,不能填写ip地址
|
|
1
|
878
|
2024 年4 月 28 日
|
Maxkb Docker容器闪退
|
|
0
|
261
|
2024 年4 月 26 日
|
有时AI回答问题到一半,突然404了是怎么回事?如何解决?
|
|
1
|
271
|
2024 年4 月 26 日
|
在Ollama中离线部署qwen:0.5b模型却找不到选项
|
|
3
|
721
|
2024 年4 月 25 日
|
docker部署,如何保留配置和知识库升级
|
|
2
|
1074
|
2024 年4 月 25 日
|
提问之后,显示“回答中....“,过很久之后,提示“connect error“
|
|
6
|
1189
|
2024 年4 月 25 日
|
MaxKB回答问题的时间太长了,经常要6分钟以上,怎么样才可以缩短回答时间呢?
|
|
4
|
1033
|
2024 年4 月 25 日
|
添加kimi模型提示校验失败,请检查参数是否正确: Error code: 404 - {'code': 5, 'error': 'url.not_found', 'message': '没找到对象', 'method': 'POST', 'scode': '0x5', 'status': False, 'ua': 'OpenAI/Python 1.23.1', 'url': '/chat/completions'}
|
|
1
|
1552
|
2024 年4 月 25 日
|
多轮对话无效果
|
|
2
|
722
|
2024 年4 月 25 日
|
为何本地大模型最高只能跑到50%CPU利用率?
|
|
0
|
307
|
2024 年4 月 25 日
|
对接Ollama模型
|
|
3
|
622
|
2024 年4 月 24 日
|
每次回答都有这个,上午还没有呢,下午就出现了
|
|
0
|
314
|
2024 年4 月 24 日
|
嵌入第三方 网页后,切换网页面,聊天记录就没了。
|
|
2
|
482
|
2024 年4 月 24 日
|
maxkb不支持ollama qwen模型吗?
|
|
2
|
405
|
2024 年4 月 24 日
|
太离谱了
|
|
1
|
366
|
2024 年4 月 24 日
|
maxkb如何导出知识库和关联问题?
|
|
1
|
506
|
2024 年4 月 24 日
|
我更换了嵌入式向量模型,m3e-large,碰到向量维度问题
|
|
10
|
2692
|
2024 年4 月 24 日
|
回复慢怎么优化?
|
|
1
|
848
|
2024 年4 月 24 日
|
MaxKB 切入的本地 vue 项目中报跨域
|
|
2
|
502
|
2024 年4 月 24 日
|
MaxKB 能换头像么
|
|
7
|
1096
|
2024 年4 月 24 日
|
MaxKB+llama2,怎么限制回答的内容只从知识库中获取
|
|
7
|
1516
|
2024 年4 月 23 日
|
关于对话知识库中存在分段但对话的时候无法查找
|
|
2
|
460
|
2024 年4 月 23 日
|
请问MaxKB支持在内网环境部署吗,可以只选择离线大模型训练内部数据吗?初次接触LLM,问题问的可能比较模糊。
|
|
2
|
733
|
2024 年4 月 22 日
|
提问时提示TypeError: Failed to fetchror: Failed to fetch 错误类型:无法获取错误类型:无法获取
|
|
1
|
398
|
2024 年4 月 22 日
|
关于使用知识库回答的两个问题?
|
|
1
|
700
|
2024 年4 月 22 日
|