Hibernate完全以面向对象的方式来操作数据库,当程序里以面向对象的方式操作持久化对象时,将被自动转换为对数据库的操作。例如我们调用Session的delete()方法,来删除持久化对象,Hibernate将负责删除对应的数据记录;当我们执行持久化对象的setter方法时,Hibernate将自动转换为底层的update语句,修改数据库的对应记录。
问题是:如果我们需要同时更新100000条记录,是不是要逐一加载100000条记录,然后依次调用setter方法——这样不仅烦琐,数据访问的性能也十分糟糕。为了面对这种批量处理的场景,Hibernate提供了批量处理的解决方案。下面分别从批量插入、批量更新和批量删除三个方面介绍如何面对这种批量处理的情形。
批量插入
如果需要将100000条记录插入数据库,通过Hibernate可能会采用如下做法:
- Session session = sessionFactory.openSession();
- Transaction tx = session.beginTransaction();
- //循环100000次来插入100000条记录
- for ( int i=0; i<100000; i++ )
- {
- User u = new User (.....);
- session.save(u);
- }
- tx.commit();
- session.close();
但随着这个程序的运行,总会在某个时候运行失败,并且抛出OutOfMemoryException(内存溢出异常)。这是因为Hibernate的Session持有一个必选的一级缓存,所有的User实例都将在Session级别的缓存区进行了缓存的缘故。
为了解决这个问题,有个非常简单的思路:定时将Session缓存的数据刷入数据库,而不是一直在Session级别缓存。可以考虑设计一个累加器,每保存一个User实例,累加器增加1。根据累加器的值决定是否需要将Session缓存中的数据刷入数据库。
下面是增加100000个User实例的代码片段。
程序清单:codes\06\6.3\batchInsert\src\lee\UserManager.java
- private void addUsers()throws Exception
- {
- //打开Session
- Session session = HibernateUtil.currentSession();
- //开始事务
- Transaction tx = session.beginTransaction();
- //循环100000次,插入100000条记录
- for (int i = 0 ; i < 100000 ; i++ )
- {
- //创建User实例
- User u1 = new User();
- u1.setName("xxxxx" + i);
- u1.setAge(i);
- u1.setNationality("china");
- //在Session级别缓存User实例
- session.save(u1);
- //每当累加器是20的倍数时,将Session中数据刷入数据库,
- //并清空Session缓存。
- if (i % 20 == 0)
- {
- session.flush();
- session.clear();
- }
- }
- //提交事务
- tx.commit();
- //关闭事务
- HibernateUtil.closeSession();
- }
上面的代码中当i % 20 == 0时,手动将Session处缓存的数据写入数据,并且清空Session缓存里的数据。除了要对Session级别缓存进行处理外,还应该通过如下配置来关闭SessionFactory的二级缓存:
- hibernate.cache.use_second_level_cache false
注意:除了要手动清空Session级别的缓存外,最好关闭SessionFactory级别的二级缓存。否则,即使手动flush Session级别的缓存,但因为在SessionFactory还有二级缓存,也可能引发异常。关于二级缓存的介绍请参考后面的内容。
本文转自
fkJava李刚 51CTO博客,原文链接:http://blog.51cto.com/javaligang/910675 ,如需转载请自行联系原作者