1
我有一个具有超过400万记录条目的特定表的数据库。我试图分贝使用它MySQL的工作台以及使用下面的命令的命令终端下载全:如何在MySQL中导出400万个数据?
mysqldump -u root -p password mydb > myfile.sql
但是,我只拿到了下载的数据的一半。如果我忽略了一个特定的表格,那么它工作正常。任何人都可以建议我如何下载与超过百万条目表的数据库?
我有一个具有超过400万记录条目的特定表的数据库。我试图分贝使用它MySQL的工作台以及使用下面的命令的命令终端下载全:如何在MySQL中导出400万个数据?
mysqldump -u root -p password mydb > myfile.sql
但是,我只拿到了下载的数据的一半。如果我忽略了一个特定的表格,那么它工作正常。任何人都可以建议我如何下载与超过百万条目表的数据库?
尝试添加以下线路在my.cnf并重新启动
[mysqld]
# Performance settings used for import.
delay_key_write=ALL
bulk_insert_buffer_size=256M
或
mysqldump -u root -p --max_allowed_packet=1073741824 --lock-tables=false mydb > myfile.sql
@ N.B。我编辑了这个问题。你能建议我出了什么问题吗? –
好吧 - 现在为真实的 - 你没有发布任何错误,并且你可能没有错误报告。你可以试试[这个解决方案](http://dba.stackexchange.com/questions/31197/why-max-allowed-packet-is-larger-in-mysqldump-than-mysqld-in-my-cnf),然后报告结果?基本上,将'max_packet_size'的值增加到一个更大的值,并尝试包括你的大表。 –
@ N.B。感谢更新。在下载过程中我没有收到任何错误。但不幸的是,完整的数据并未被抛弃。我会尝试你的解决方案... –