MaxKB
话题 | 回复 | 浏览量 | 活动 | |
---|---|---|---|---|
MaxKB+WeWeRSS搭建公众号新闻小助手
一、 部署WeWeRSS 项目官网:https://github.com/cooderl/wewe-rss 离线镜像:百度网盘 请输入提取码 提取码: wzw8 访问地址:http://ip:4000 具体的部署方式可以参考官方文档… |
![]() |
1 | 84 | 2025 年3 月 27 日 |
MaxKB 开启模型联网搜索
MaxKB 开启模型联网搜索 前言 模型联网搜索是当前大语言模型(LLM)领域的重要技术方向,其核心在于通过结合互联网实时数据与模型推理能力,突破预训练数据的时间限制,提供更精准、动态的回答。 核心应用场景 实时信息补充 例如… |
![]() ![]() |
1 | 255 | 2025 年3 月 27 日 |
【直播中】MaxKB 202503 期学习班开班啦!
跟随版本同步更新课程! 打造个人专属智能对话应用! 我要学习:MaxKB 在线学习班! |
![]() ![]() |
5 | 1382 | 2025 年3 月 25 日 |
vllm添加DeepSeek-R1-Distill-Qwen-32B不返回思考的解决方案
参考 https://docs.vllm.ai/en/latest/features/reasoning_outputs.html 和 1.修改模型的tokenizer_config.json 去掉 最后面的 <think>//n … |
![]() ![]() |
1 | 203 | 2025 年3 月 23 日 |
【直播预约】基于MaxKB搭建高校招生AI小助手
企业AI集训营第四期 :tada: 跟着小助手看3D校园! 深度了解学院专业! 限时秒杀9.9元! 【点击预约】 |
![]() |
1 | 176 | 2025 年3 月 21 日 |
【置顶】如何向团队介绍 MaxKB?
MaxKB 官方介绍材料(202503版) |
![]() ![]() |
1 | 519 | 2025 年3 月 13 日 |
【持续更新中】MaxKB 应用案例汇总
MaxKB 应用案例:中国农业大学-小鹉哥 MaxKB 应用案例:东北财经大学-小银杏 MaxKB 应用案例:中铁水务 MaxKB 应用案例:解放军总医院 MaxKB 应用案例:无锡市数据局 MaxKB 应用案例:中核西仪研究院-西仪睿答 … |
![]() ![]() |
3 | 1382 | 2025 年3 月 12 日 |
‼️知识库准备以及分段技巧问题及需求搜集
为解决诸多用户基于 MaxKB 进行知识库准备及文档分段过程中遇到的各种问题,我们拟通过该贴收集大家遇到的问题以及需要反馈的需求,后续会有相关直播介绍注意事项及分段技巧。还请各位小伙伴们帮忙反馈,有5个以上高质量有效问题的我们会赠送官方鼠标… |
![]() ![]() ![]() ![]() ![]() |
23 | 2811 | 2025 年3 月 14 日 |
MaxKB 函数库使用分享
欢迎大家把自己使用的函数跟帖分享,帖子内容可参考如下: 一、函数名称:**** 二、函数代码: 1、依赖: 2、函数编写: 3、输入变量定义: 三、使用方法及效果: |
![]() ![]() ![]() ![]() ![]() |
21 | 3903 | 2025 年3 月 21 日 |
DeepSeek 问题集合
DeepSeek 的相关问题欢迎大家跟帖。 |
![]() ![]() ![]() ![]() ![]() |
33 | 2747 | 2025 年3 月 24 日 |
DeepSeek R1+RAG,基于开源三件套构建本地AI知识库(文末附笔记及教学材料)
一、总体方案 目前在使用 DeepSeek 在线环境时,页面经常显示“服务器繁忙,请稍后再试”,以 DeepSeek R1 现在的火爆程度,这个状况可能还会持续一段时间,所以这里给大家提供了 DeepSeek R1 +RAG 的本地部署方… |
![]() ![]() ![]() ![]() ![]() |
16 | 6519 | 2025 年3 月 27 日 |
利用工作流编排在问答页面实现【继续追问】功能
如何在高级编排应用中实现继续追问功功能 ? 1、进入高级编排应用的设置中, 在每条工作流的末尾,增加一个AI对话节点,命名为生成快捷问题。 提示词如下(可根据效果自行调整): 用户问题:{{开始.question}} 回答:{{AI… |
![]() ![]() ![]() ![]() ![]() |
28 | 6733 | 2025 年3 月 27 日 |
MaxKB 如何对接本地向量模型
MaxKB 在V 1.4.0 版本之后已经支持自定义Embedding模型,那么如何对接本地Embedding模型,详细操作步骤如下: 一、下载向量模型 在对接向量模型之前,先去下载好对应的模型:https://huggingface… |
![]() ![]() ![]() ![]() ![]() |
18 | 7964 | 2025 年2 月 17 日 |
操作教程丨MaxKB+Ollama:快速构建基于大语言模型的本地知识库问答系统
1. MaxKB安装部署 部署方式一:通过1Panel应用商店,快速安装MaxKB应用。 部署方式二: 命令行安装。 docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/va… |
![]() ![]() ![]() ![]() ![]() |
19 | 12259 | 2025 年2 月 12 日 |
GPUStack部署的模型怎么配置到MaxKB中
|
![]() ![]() |
1 | 7 | 2025 年3 月 28 日 |
表单收集器的使用
|
![]() ![]() |
1 | 24 | 2025 年3 月 28 日 |
MaxKB实操 | 如何下载M3E向量模型,并在MaxKB接入使用
|
![]() ![]() |
2 | 87 | 2025 年3 月 28 日 |
为什么我添加了一个DeepSeek模型后,在新建知识库的时候只能躺我选择向量模型的maxkb
|
![]() ![]() |
1 | 18 | 2025 年3 月 28 日 |
小白求教!maxkb二次开发用windows缺少linux的依赖
|
![]() ![]() ![]() ![]() |
3 | 88 | 2025 年3 月 28 日 |
vllm上的向量模型无法添加
|
![]() ![]() |
4 | 29 | 2025 年3 月 28 日 |
MaxKB 使用本地重排模型对知识库进行重排
|
![]() ![]() |
1 | 35 | 2025 年3 月 28 日 |
MaxKB的OpenAI无法加载本地私有化部署的ASR模型
|
![]() ![]() ![]() |
18 | 72 | 2025 年3 月 28 日 |
请问如何实现在返回的内容下,继续新增问题(非随机生成),点问题可以继续回答
|
![]() ![]() |
2 | 29 | 2025 年3 月 28 日 |
ollama+makKB
|
![]() ![]() ![]() |
3 | 29 | 2025 年3 月 28 日 |
如何在maxkb对话上添加免责声明
|
![]() ![]() ![]() |
3 | 32 | 2025 年3 月 28 日 |
怎么web服务和本地服务会默认互相抢夺端口是怎么回事
|
![]() ![]() |
1 | 20 | 2025 年3 月 27 日 |
本地部署maxKB,支持开放API吗?供其他应用接口调用
|
![]() ![]() |
1 | 35 | 2025 年3 月 27 日 |
能让直接回答后,附带几个指定的相关其它关键字问题进行引导用户点击提问吗?
|
![]() ![]() ![]() |
3 | 352 | 2025 年3 月 27 日 |
我想对接GPUStack模型平台,请问怎么对接呢 ?
|
![]() ![]() |
1 | 17 | 2025 年3 月 27 日 |
使用SpringAi 整合MaxKb 404
|
![]() ![]() ![]() |
5 | 105 | 2025 年3 月 27 日 |