Google MySQL第二代导入> 50GB

我正在尝试将50GB的MySQL Innodb数据库迁移到Google Cloud。 我当前数据库中的Binlog处于活动状态。 所以我把我的数据库设置为只读,创build了一个快照,并写下了二进制日志的位置。 然后我关掉了只读模式,原来的mysql数据库可以照常使用。

然后,我的系统花了大约2周的时间才将这个snapshopt放入Google Cloud(mysql -hhost -u …. <my_tables.sql)。 花了很长时间,但运作良好。

由于现在已经完成了,所以我想把NOW和BINLOG POSITION X的差别导入到Google Cloud中,这样Google就赶上了(同时把原始DB再次只读)。 但是,我得到了5000 x 100MB binlogfiles。

问题:每100MB文件需要一天才能将其导入Google。

那么50GB +进入谷歌第二代的最佳做法是什么? 我需要在生产中一直使用我的数据库。 所以closures它不是一个选项。 而且,在第二代Google SQL中,我无法将Google设置为MySQL从属服务器。 所以这也不是一个选项….

谢谢,弗洛里安