我设置了备份到远程cloudflare的R2上,用的是s3 api。测试可以,能看到有test目录,但上传大的备份文件时提供失败,以下是失败信息,好像因为分片传输有问题:
MultipartUpload: upload multipart failed upload id: AMgPLQaiX-gnkiVJRmyuGNqz5WvKvqhccAW-mYNJfbE7cL5qMF3A3lXEHPUUvb082_XmW-2ox8Mn-GUMnCpO0wSX7O3D85JOE9_LeHcWNnXo_ge9qQU3AWY2AiANWoDtQ3-7iStkLNHKuOk7KX2jPw-954WjISkVVAHGtbaczly3D9zIPNE1HjjEXlNSQqLTo5fB9ieZoKj2J-3nTOxl_ds8QNLPVrbYSlQSuq7P3Yi1aZMeoGApfkUb742S7Dhy1wHcDdyA0HYUQQ2fqQUbiLi7Wv_kzBc4yBa4MteQwRHQoa2VPfOaEftEklkcnxBxroEMOmTbLsU2URg5zuENYw8 caused by: SignatureDoesNotMatch: The request signature we calculated does not match the signature you provided. Check your secret access key and signing method. status code: 403, request id: , host id:
然后我换到backblaze,也用s3 api备份,没有问题,成功。
另外一个问题,我一个站的量比较大,设置的定时切割日志失败,那些访问量小的没有问题,正常切割了日志生成了备份文件。
虽然没有切割成功,但源日志也都还在,没有清空。可能因为日志文件在不停的访问,所以切割轮换失败?