Druid 分析jpa批量插入

Druid是阿里巴巴开发的号称为监控而生的数据库连接池,在功能、性能、扩展性方面,都超过其他数据库连接池,包括DBCP、C3P0、BoneCP、Proxool、JBoss DataSource等,秒杀一切。

Druid 可以很好的监控 DB 池连接和 SQL 的执行情况,天生就是针对监控而生的 DB 连接池。

Druid 是一个 JDBC 组件,它包括三部分: 

  • DruidDriver 代理 Driver,能够提供基于 Filter-Chain 模式的插件体系。 

  • DruidDataSource 高效可管理的数据库连接池。 

  • SQLParser 

Druid 可以做什么? 

        可以监控数据库访问性能,Druid 内置提供了一个功能强大的 StatFilter 插件,能够详细统计 SQL 的执行性能,这对于线上分析数据库访问性能有帮助。 

        替换 DBCP 和 C3P0。Druid 提供了一个高效、功能强大、可扩展性好的数据库连接池。 

        数据库密码加密。直接把数据库密码写在配置文件中,这是不好的行为,容易导致安全问题。DruidDruiver 和 DruidDataSource 都支持 PasswordCallback。 

       SQL 执行日志,Druid 提供了不同的 LogFilter,能够支持 Common-Logging、Log4j 和 JdkLog,你可以按需要选择相应的 LogFilter,监控你应用的数据库访问情况。 

        扩展 JDBC,如果你要对 JDBC 层有编程的需求,可以通过 Druid 提供的 Filter-Chain 机制,很方便编写 JDBC 层的扩展插件。 

        今天在对大批量数据(万级别)插入做性能优化时,需要用到Druid的SQL监控功能,在此记录一下。

我们都知道jpa提供saveAll处理批量插入,代码如下

Druid 分析jpa批量插入_第1张图片

重代码上看似乎是一个一个的save,其实不然,查看源码(这里不细说了),jpa每次save都会先添加到action queue,在flush的时候,再通过insert action构造statement的batch操作,然后到达一个批量的时候才perform,达到一个batch的时候会调用executeBatch()。

也就是说,最终还是使用了jdbc statement的executeBatch的调用模式

如何使用批量处理,添加如下配置

spring.datasource.url = jdbc:postgresql://xxxx:5432/juslink_warehouse_order_ubnt?reWriteBatchedInserts=true
#Jpa批量更新配置
spring.jpa.properties.hibernate.jdbc.batch_size = 200
spring.jpa.properties.hibernate.jdbc.batch_versioned_data = true
spring.jpa.properties.hibernate.order_inserts = true

使用Druid需要添加依赖


    com.alibaba
    druid-spring-boot-starter

加入配置:

spring.datasource.druid.stat-view-servlet.enabled=true
spring.datasource.druid.filter.stat.enabled=true

Druid的监控界面如图:

Druid 分析jpa批量插入_第2张图片

下面来看看开启批处理和未开启时1万条数据插入的情况:

未开启测试结果

Druid 分析jpa批量插入_第3张图片

开启测试结果

Druid 分析jpa批量插入_第4张图片

结论:从上面两张实验图中可以看出,未开启批量处理,插入1万条数据用时在3.5s;开启批量处理后,耗时为0.45s,开启之后整体效率提升了大约7~8倍

批量操作的数量需要经过多次测试取最优值

你可能感兴趣的:(java,数据库,hibernate)