hibernate批量更新和删除数据

批量处理 
 
不建议用Hibernate,它的insert效率实在不搞,不过最新版本的Hibernate似乎已经在批量处理的时候做过优化了,设置一些参数如batch_size,不过性能我没有测试过,听说是这样。我记得以前在做大批量数据转移的时候我们测试过Hibernate,很慢,直接Pass,当时我们的系统由于用多个数据库,所以用的jdbc,如果不考虑移植还是可以用存储过程的。 存储过程对数据库依赖过强,不便系统移植 
  
浅析Hibernate下数据批量处理方法 
关键字: hibernate指处理 
    
来源:IT专家网  
  很多人都对Java在批量数据的处理方面是否是其合适的场所持有怀疑的念头,由此延伸,那么就会认为ORM可能也不是非凡适合数据的批量处理。其实,我想假如我们应用得当的话,完全可以消除ORM批量处理性能问题这方面的顾虑。下面以Hibernate为例来做为说明,假如我们真的不得不在 Java中使用Hibernate来对数据进行批量处理的话。 向数据库插入100 000条数据,用Hibernate可能像这样:  
  Session session = sessionFactory.openSession();  

  Transaction tx = session.beginTransaction();   

 for ( int i=0; i<100000; i++ ) { 
  Customer customer = new Customer(.....); 

   session.save(customer); 

}   

tx.commit();   

 session.close();   
  大概在运行到第50 000条的时候,就会出现内存溢出而失败。这是
Hibernate把最近插入的Customer都以session-level cache在内存做缓存,我们不要忘记Hiberante并没有限制first-level cache 的缓存大小。  
  ◆持久对象实例被治理在事务结束时,此时Hibernate与数据库同步任何已经发生变 化的被治理的的对象。  
  ◆Session实现了异步write-behind,它答应Hibernate显式地写操作的批处理。 这里,我给出Hibernate如何实现批量插入的方法:  

  首先,我们设置一个合理的JDBC批处理大小,hibernate.jdbc.batch_size 20。 然后在一定间隔对Session进行flush()和clear()。  
Session session = sessionFactory.openSession();   

 Transaction tx = session.beginTransaction();    

for ( int i=0; i<100000; i++ ) { 
  Customer customer = new Customer(.....); 

   session.save(customer);   

  if ( i % 20 == 0 ) { 
       //flush 插入数据和释放内存:   

      session.flush(); session.clear();

  }  


tx.commit();    

session.close();   
  那么,关于怎样删除和更新数据呢?那好,在Hibernate2.1.6或者更后版本,scroll() 这个方法将是最好的途径:  
  Session session = sessionFactory.openSession();    

Transaction tx = session.beginTransaction();  
  ScrollableResults customers = session.getNamedQuery("GetCustomers")  .scroll(ScrollMode.FORWARD_ONLY);    

int count=0;  
  while ( customers.next() ) { 
  Customer customer = (Customer) customers.get(0);  

  customer.updateStuff(...);  

  if ( ++count % 20 == 0 ) {   

//flush 更新数据和释放内存: 
  session.flush(); session.clear(); 

}   

tx.commit(); 

session.close();   
  这种做法并不困难,也不算不优雅。请注重,假如Customer启用了
second-level caching ,我们仍然会有一些内存治理的问题。原因就是对于用户的每一次插入和更新,Hibernate在事务处理结束后不得不通告second-level cache 。因此,我们在批处理情况下将要禁用用户使用缓存。 

原文地址:https://www.cnblogs.com/sandea/p/4569884.html