DeepSeek 问题集合

问题求助:添加本地大语言模型,Ollama deepseek的API key应该怎么填,不能为空,但是我并没有设置任何API key。使用curl调用ollama的API也可以成功,也没有使用任何key。

$ ollama list
NAME ID SIZE MODIFIED
nomic-embed-text:latest 0a109f422b47 274 MB 29 seconds ago
deepseek-r1:7b 0a8c26691023 4.7 GB 18 hours ago

如果没有配置KEY,可以输入任意字符串。

问题:本地部署「DeepSeek」模型硬件配置要求

答复:转载自:https://mp.weixin.qq.com/s/JuJo5icr-HXyA5tBHsPzrg
参数模型硬件要求

以下是不同参数量模型的本地部署硬件要求和适用场景分析。注:部分数据基于模型通用需求推测,具体以实际部署测试为准。

:white_check_mark: DeepSeek-R1-1.5B

  • CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
  • 内存: 8GB+
  • 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
  • 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
  • 场景: 低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备

:white_check_mark: DeepSeek-R1-7B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景: 中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统

:white_check_mark: DeepSeek-R1-8B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景: 需更高精度的轻量级任务(如代码生成、逻辑推理)

:white_check_mark: DeepSeek-R1-14B

  • CPU: 12 核以上
  • 内存: 32GB+
  • 硬盘: 15GB+
  • 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
  • 场景: 企业级复杂任务、长文本理解与生成

:white_check_mark: DeepSeek-R1-32B

  • CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
  • 内存: 64GB+
  • 硬盘: 30GB+
  • 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
  • 场景:高精度专业领域任务、多模态任务预处理

:white_check_mark: DeepSeek-R1-70B

  • CPU: 32 核以上(服务器级 CPU)
  • 内存: 128GB+
  • 硬盘: 70GB+
  • 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
  • 场景: 科研机构/大型企业、高复杂度生成任务

:white_check_mark: DeepSeek-R1-671B

  • CPU: 64 核以上(服务器集群)
  • 内存: 512GB+
  • 硬盘: 300GB+
  • 显卡: 多节点分布式训练(如 8x A100/H100)
  • 场景: 超大规模 AI 研究、通用人工智能(AGI)探索


硅及流动的API为什么加载不上去?


使用阿里百练的deepseek接口,调试的时候会卡住,执行详情也打不开

1 个赞

域名不对,参考下官网文档。

百炼的R1,有时候感觉不稳定,我这边偶尔会这样,思考中也会经常卡顿。

我是用云上的API,感觉maxkb流式输出很不稳定,偶尔卡顿,但看云上部署的又很快,不确定是不是调用的网络问题

1 个赞

问题:本地计算机ubtu22.04 非模拟器 显卡GTX1070 安装ollama模型 始终无法调用GPU资源。请问怎么解决需要安装那些?试了cuda toolkit 和nvdia toolkit都没解决到问题 整崩溃了。

参考下这个呢,网上有很多方法。
https://nic.zjtu.edu.cn/content/qtjszc/202502/2297.html


ollama list 显示出已经安装好的大模型,但是没办法连接上
总是api域名无效

如何去除think标签及里面的内容?

求教,调用deepseek API时如何开启联网搜索呢

麻烦帮忙看看这个配置哪里有问题吗?报错API无效,我是通过docker部署的maxkb,docker所在的主机到API URL地址的网络、DNS域名解析都是没有问题的。

1 个赞

我做了测试容器所在宿主机上curl -l https://wishub-x1.ctyun.cn,是可以通的;但是在容器内部就超时了。容器内的DNS配置和主机的DNS配置是一致的。

我使用systemctl restart docker,重启了容器之后,目前容器内访问 curl -l https://wishub-x1.ctyun.cn也是通的。但是我在maxkb的配置界面,应用,设置,AI模型中按上图进行配置,还是报错“API域名无效”。请问我该怎么配置它?

新建一下环境变量

  • 变量名OLLAMA_HOST
  • 变量值0.0.0.0
    然后重启ollama 我不太确定有用没有你可以试一下

我现在部署的电脑一是个单独的网络,我用电脑A可以正常访问,但是我用电脑b访问时他会出现 当前正在维护无法提供服务,这个是只能一个人使用吗?


deepseek这个添加公有模型的地方,没地方填写URL????

对接DeepSeek官方的API无须填写URL,因为每个人都是一样的官方URL,内置了。