zoukankan      html  css  js  c++  java
  • mysql快速导入大量数据问题

    今天需要把将近存有一千万条记录的*.sql导入到mysql中。使用navicate导入,在导入100万条之后速度就明显变慢了,

    导入五百万条数据的时候用了14个小时,且后面的数据导入的越来越慢。

    后来是使用的办法是:

    编辑*.sql文件,把表结构里面的主键、索引等等全部删除掉,引擎改为myisam。

    这样导入速度大为提高,只要了半个小时就把将近一千万数据导完了。

    (关于删除索引,我把多字段的索引删除了,添加了一个后面需要的单字段索引,速度也没降低多少)

    当然在数据导入完之后,你可以把这些主键、索引、引擎都重新改回去。

  • 相关阅读:
    2-Rsync备份-全网备份
    1-Rsync备份-备份概述
    复杂声明学习总结
    EasyExcel的用法
    listvue
    解决Error: Cannot find module 'node-sass'问题
    Webpack
    babel的使用
    nodejs的使用
    vue入门
  • 原文地址:https://www.cnblogs.com/lisuyun/p/6238018.html
Copyright © 2011-2022 走看看