大型的mysql将pipe道转储到s3

有很多数据做这个有什么问题吗?

mysqldump ... | gzip | s3cmd put - s3://bucket/file.sql.gz 

MySQL转储大小约为100GB。 如果gzip或s3cmd无法快速处理转储会发生什么? 它会溢出pipe道缓冲区吗?

作者将阻止等待读者做好准备。

你真的应该担心的是如果s3cmd失败会发生什么。 那么你必须从头开始。

我正在做物理备份,并在两个单独的步骤上传到S3存储桶,没有问题。 数据大约是250 GB,.gz文件大约是80 GB