zoukankan      html  css  js  c++  java
  • 插入1000万条数据到mysql数据库表

    转自:https://www.cnblogs.com/fanwencong/p/5765136.html

    我用到的数据库为,mysql数据库5.7版本的

    1.首先自己准备好数据库表

    其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:

    com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

    出现上面的错误是因为数据库表的 max_allowed_packet这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

    set global max_allowed_packet = 100*1024*1024*
    记住,设置好后重新登录数据库才能看的设置后的值
    show VARIABLES like '%max_allowed_packet%'
    Java的jdbc代码如下:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    package insert;
     
    import java.sql.Connection;
    import java.sql.DriverManager;
    import java.sql.SQLException;
    import java.util.Date;
     
    import com.mysql.jdbc.PreparedStatement;
     
    public class InsertTest {
     
        public static void main(String[] args) throws ClassNotFoundException, SQLException {
            final String url = "jdbc:mysql://127.0.0.1/teacher"
            final String name = "com.mysql.jdbc.Driver"
            final String user = "root"
            final String password = "123456"
            Connection conn = null
            Class.forName(name);//指定连接类型 
            conn = DriverManager.getConnection(url, user, password);//获取连接 
            if (conn!=null) {
                System.out.println("获取连接成功");
                insert(conn);
            }else {
                System.out.println("获取连接失败");
            }
     
        }
        public static void insert(Connection conn) {
            // 开始时间
            Long begin = new Date().getTime();
            // sql前缀
            String prefix = "INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES ";
            try {
                // 保存sql后缀
                StringBuffer suffix = new StringBuffer();
                // 设置事务为非自动提交
                conn.setAutoCommit(false);
                // 比起st,pst会更好些
                PreparedStatement  pst = (PreparedStatement) conn.prepareStatement("");//准备执行语句
                // 外层循环,总提交事务次数
                for (int i = 1; i <= 100; i++) {
                    suffix = new StringBuffer();
                    // 第j次提交步长
                    for (int j = 1; j <= 100000; j++) {
                        // 构建SQL后缀
                        suffix.append("('" + uutil.UUIDUtil.getUUID()+"','"+i*j+"','123456'"",'男'"+",'教师'"+",'www.bbk.com'"+",'XX大学'"+",'"+"2016-08-12 14:43:26"+"','备注'" +"),");
                    }
                    // 构建完整SQL
                    String sql = prefix + suffix.substring(0, suffix.length() - 1);
                    // 添加执行SQL
                    pst.addBatch(sql);
                    // 执行操作
                    pst.executeBatch();
                    // 提交事务
                    conn.commit();
                    // 清空上一次添加的数据
                    suffix = new StringBuffer();
                }
                // 头等连接
                pst.close();
                conn.close();
            catch (SQLException e) {
                e.printStackTrace();
            }
            // 结束时间
            Long end = new Date().getTime();
            // 耗时
            System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 " s");
            System.out.println("插入完成");
        }
    }
    
    

      结果:

    哈哈,1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了,
    后来我想测试插入100万条数据时候数据库引擎的差别
    首先把代码中最外层的循环i=100改为i=10;
    1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试
    1.数据库引擎为InnoDB时:

     用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。
  • 相关阅读:
    台湾大学李宏毅机器学习教程
    自编码器AE & 变分自编码器VAE
    深度信念网络(DBN)和堆叠自编码(SAE)、深度自编码器(DAE)的区别
    花式自动编码器
    迁移和域自适应
    MMD :maximum mean discrepancy
    数据可视化工具t-SNE
    线性判别分析(LDA)
    弱监督学习
    如何生成不重复的随机数
  • 原文地址:https://www.cnblogs.com/sharpest/p/9305684.html
Copyright © 2011-2022 走看看