张涨涨
1
配置
问题描述
对接了阿里云的deepseek-r1 模型,应用回答的内容总是没有描述完整就直接结束了
张涨涨
3
就是最新版本的,升级之前和升级之后一样,我还把应用和模型重新创建了
张涨涨
5
最大token 输出也是按照阿里给的文档来的,调大小没啥区别
张涨涨
7
真的昨晚发布的小版本,
我使用工作流也是这样,明明token最大值没有超出,内容直接截断了
玉树
8
确实是新版本,方便在Github上提交个issue吗,由研发同事跟进下。
张涨涨
9
已提交 issue,后续配合的操作,可在github上联系我
Hi 我也遇到了类似的问题:
调用的是腾讯云Deepseek-R1满血的模型,版本号也是最新版本,在回答消耗6000左右token,耗时200s左右也会出现回答截断的情况,重启了服务也会出现。
服务器配置是阿里 4核(vCPU) 8GiB [ecs.e-c1m2.xlarge]
请问应该如何排查呢
玉树
12
调整模型的最大Tokens,然后保存并发布应用试一下。