BUG反馈:CF操作S3 API失败,以及热日志切割失败

我设置了备份到远程cloudflare的R2上,用的是s3 api。测试可以,能看到有test目录,但上传大的备份文件时提供失败,以下是失败信息,好像因为分片传输有问题:
MultipartUpload: upload multipart failed upload id: AMgPLQaiX-gnkiVJRmyuGNqz5WvKvqhccAW-mYNJfbE7cL5qMF3A3lXEHPUUvb082_XmW-2ox8Mn-GUMnCpO0wSX7O3D85JOE9_LeHcWNnXo_ge9qQU3AWY2AiANWoDtQ3-7iStkLNHKuOk7KX2jPw-954WjISkVVAHGtbaczly3D9zIPNE1HjjEXlNSQqLTo5fB9ieZoKj2J-3nTOxl_ds8QNLPVrbYSlQSuq7P3Yi1aZMeoGApfkUb742S7Dhy1wHcDdyA0HYUQQ2fqQUbiLi7Wv_kzBc4yBa4MteQwRHQoa2VPfOaEftEklkcnxBxroEMOmTbLsU2URg5zuENYw8 caused by: SignatureDoesNotMatch: The request signature we calculated does not match the signature you provided. Check your secret access key and signing method. status code: 403, request id: , host id:

然后我换到backblaze,也用s3 api备份,没有问题,成功。

另外一个问题,我一个站的量比较大,设置的定时切割日志失败,那些访问量小的没有问题,正常切割了日志生成了备份文件。
虽然没有切割成功,但源日志也都还在,没有清空。可能因为日志文件在不停的访问,所以切割轮换失败?

我刚才把openresty完全关掉,这样就没有进程读取日志文件,再执行定时任务切割日志,成功了,生成了备份文件,原日志文件也清空了。
看来确实:有进程访问日志文件导致切割日志不成功。

感谢反馈 我们复现一下

特别是日志在访问时,切割失败的,有重现了吗。我这里每天都在上演呢