2011-11-15 52 views
2

我在MySQL官方论坛上提过这个问题,但没有运气,所以我会在这里尝试。将非常大的转储文件导入到MySQL数据库中

原来的线程: http://forums.mysql.com/read.php?28,498593,498593#msg-498593

我试图创造一个维基百科的副本,我几乎已经完成,但有最大的文件的问题。

维基百科提供数据库转储下载,所以每个人都可以创建维基百科的副本。

你可以找到示例文件位置: http://dumps.wikimedia.org/enwiki/20091103/

我几乎所有的进口,但我坚持用最大的一个(pagelinks)。我将它导入了近五天,然后我不得不停止导入。我认为导入很慢,因为我的MySQL服务器的设置,但我不知道我应该改变。我在一台机器上使用标准的Ubuntu MySQL配置,配备了体面的prozessor和4个内存。有人可以帮我解决一个适合我系统的配置吗?我试图从网络的大型服务器相同的配置,但结果是,我的服务器没有启动,因为一个套接字错误,我不得不从头开始...

如果你可以,请看看一些转储,因为我认为问题与它们的构建有关,因为一些较小的文件需要很长的时间导入,而一些较大的文件在几分钟内导入。

+0

如果你想得到一些帮助,你必须发布你的mysql配置和一个4GB的内存似乎不是一个10GB的数据库。 – Bytemain

回答

0

这是一个针对超大型mysql数据库非常快速导入的项目:https://github.com/homer6/import-geoip-data。好。 300 MB没有那么大,但它仍然很有趣。通常要导入一个.sql文件我写thks:

mysql -p -h DBSERVER dbname [tablename] < dbfile.sql 

也许你可以将大文件拆分成更小的表?

相关问题