DeepSeek 问题集合

DeepSeek 的相关问题欢迎大家跟帖。

1 个赞

MaxKB 其他厂商的 Deepseek API 接口后面不需要后面的 /chat/completions

示例:
华为云 Deepseek API https://infer-modelarts-cn-southwest-2.modelarts-infer.com/v1/infers/707c01c8-517c-46ca-827a-d0b21c71b074/v1/chat/completions

MaxKB 中添加 APIURL 为 https://infer-modelarts-cn-southwest-2.modelarts-infer.com/v1/infers/707c01c8-517c-46ca-827a-d0b21c71b074/v1/

问题:添加本地模型提示如下

解决方案:
第一步:执行 ollama list

第二步:修改模型设置,“基础模型”填写成Deepseek-R1-14B:latest

问题:nomic-embed-text 这个怎么运行,不需要运行吗?还是放在那个路径下面。
解决方案:
如果服务器执行ollama list,能看到nomic-embed-text向量模型的信息,直接就可以在maxkb模型设置进行对接,不需要ollama run启动向量模型。


问题:我在应用页面上打开了输出思考,调试页面依旧不展示输出思考
解决方案:
打开后点击保存,保存后,重新打开页面调试或者进入演示页面调试即可。

mk应用中,网页或链接回答可以输出图片,但是接入钉钉之后,无法显示图片 有没有好心人知道原因:smiling_face_with_tear:
image
钉钉的:

7b的R1,检索出6段,但模型似乎只收到了2段。是哪里可以设置上下文长度吗

可以在应用设置里“调试”,然后查看执行详情,确认AI对话时分段内容是不是完整的。

因为应用里的图片地址是在你们MaxKB服务器上面,或者是你们内网的图片地址,钉钉应该访问不到。

但是我们做的有公网映射啊,别人访问我们应用提供的url,也会正常出来知识库中的图片,唯独钉钉机器人不会展示照片 :upside_down_face: :smiling_face_with_tear:

好像是钉钉那边要审核,大概等了一天左右,知识库的照片可以正常输出了 :face_with_diagonal_mouth:

原来如此 :face_with_peeking_eye:

哥们,有没有第三方适合AI查询的平台啊推荐一下(通过api key可以让本地模型具有联网能力的,比如博查ai这种的(博查爬的信息感觉还是不行),想问问恁这边有没有推荐的) :blush:

可以参考下。
https://zhuanlan.zhihu.com/p/712692839

问题求助:添加本地大语言模型,Ollama deepseek的API key应该怎么填,不能为空,但是我并没有设置任何API key。使用curl调用ollama的API也可以成功,也没有使用任何key。

$ ollama list
NAME ID SIZE MODIFIED
nomic-embed-text:latest 0a109f422b47 274 MB 29 seconds ago
deepseek-r1:7b 0a8c26691023 4.7 GB 18 hours ago

如果没有配置KEY,可以输入任意字符串。

问题:本地部署「DeepSeek」模型硬件配置要求

答复:转载自:https://mp.weixin.qq.com/s/JuJo5icr-HXyA5tBHsPzrg
参数模型硬件要求

以下是不同参数量模型的本地部署硬件要求和适用场景分析。注:部分数据基于模型通用需求推测,具体以实际部署测试为准。

:white_check_mark: DeepSeek-R1-1.5B

  • CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
  • 内存: 8GB+
  • 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
  • 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
  • 场景: 低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备

:white_check_mark: DeepSeek-R1-7B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景: 中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统

:white_check_mark: DeepSeek-R1-8B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景: 需更高精度的轻量级任务(如代码生成、逻辑推理)

:white_check_mark: DeepSeek-R1-14B

  • CPU: 12 核以上
  • 内存: 32GB+
  • 硬盘: 15GB+
  • 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
  • 场景: 企业级复杂任务、长文本理解与生成

:white_check_mark: DeepSeek-R1-32B

  • CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
  • 内存: 64GB+
  • 硬盘: 30GB+
  • 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
  • 场景:高精度专业领域任务、多模态任务预处理

:white_check_mark: DeepSeek-R1-70B

  • CPU: 32 核以上(服务器级 CPU)
  • 内存: 128GB+
  • 硬盘: 70GB+
  • 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
  • 场景: 科研机构/大型企业、高复杂度生成任务

:white_check_mark: DeepSeek-R1-671B

  • CPU: 64 核以上(服务器集群)
  • 内存: 512GB+
  • 硬盘: 300GB+
  • 显卡: 多节点分布式训练(如 8x A100/H100)
  • 场景: 超大规模 AI 研究、通用人工智能(AGI)探索


硅及流动的API为什么加载不上去?


使用阿里百练的deepseek接口,调试的时候会卡住,执行详情也打不开