Apache LRU算法问题分析解决

Apache LRU算法问题分析解决

UDL(United Data Load)是公司开发用于通用数据加载工具,支持抽取设置、作业定义并提供页面监控等功能,在某一项目中中多次出现了UDL作业调度出现问题,由于该问题隐藏得较深,分析解决花了较多的精力,现把经验总结共享给大家。
1. 问题现象
问题一般是UDL运行3-5天才出现,出现错误现象是固定的,后台抛出如下异常(红色部分是下面分析的切入点):

 1 2011-10-08 01:05:00,078 [] ERROR - 作业:DELETE_F_TABLE_ALL_WORKID运行过程中发生不可预知的错误,当前作业在本次调度中终止运行,发生不可预知的错误,这通常是基础信息配置有误,或运行环境异常导致,等原因,请根据错误提示信息,检查错误原因 [URuntimeJob:runJob] 
 2 java.lang.IllegalStateException: Entry.next=null, data[removeIndex]=resoft.udl.schedule.JobKey@600a5e7d=false previous=resoft.udl.schedule.JobKey@74a3b4ef=false key=resoft.udl.schedule.JobKey@fb09e543 value=true size=150 maxSize=150 Please check that your keys are immutable, and that you have used synchronization properly. If so, then please report this to commons-dev@jakarta.apache.org as a bug.
 3 at org.apache.commons.collections.map.LRUMap.reuseMapping(LRUMap.java:300)
 4 at org.apache.commons.collections.map.LRUMap.addMapping(LRUMap.java:266)
 5 at org.apache.commons.collections.map.AbstractHashedMap.put(AbstractHashedMap.java:283)
 6 at resoft.udl.jetlValidate.logicValidate.validator.ValidatorFactory.setJobOver(ValidatorFactory.java:57)
 7 at resoft.udl.job.URuntimeJob.runJob(URuntimeJob.java:389)
 8 at resoft.udl.job.URuntimeJob.execute(URuntimeJob.java:132)
 9 at org.quartz.core.JobRunShell.run(JobRunShell.java:202)
10 at edu.emory.mathcs.backport.java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:987)
11 at edu.emory.mathcs.backport.java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:528)
12 at java.lang.Thread.run(Thread.java:595)

 

2. 问题分析
跟踪了UDL代码 ValidatorFactory.java中setJobOver方法

1 private static Map isJobOverMap = new LRUMap(100);
2 public static void setJobOver(String jobid, String date, boolean isTaskJobOver) {
3        isJobOverMap.put(new JobKey(jobid, date), Boolean.valueOf(isTaskJobOver));
4     }

在LRUMap.java 调用的代码如下(红色为抛出异常点):

 1 protected void reuseMapping(LinkEntry entry, int hashIndex, int hashCode, Object key, Object value) {
 2 try {
 3      int removeIndex = hashIndex(entry.hashCode, data.length);
 4      HashEntry[] tmp = data;  // may protect against some sync issues
 5      HashEntry loop = tmp[removeIndex];
 6      HashEntry previous = null;
 7      while (loop != entry && loop != null) {
 8         previous = loop;
 9         loop = loop.next;
10      }
11      if (loop == null) {
12        throw new IllegalStateException(
13        ……
14      }

从获取的日志结合出错现象分析,出错可能有如下几个方面:

  • 网络问题 由于网络中断造成数据库连接出现中断,但该问题出现比较有规律,实际情况出现的可能性很小,初步排除;
  • 数据库连接超时时间 数据库连接时间设置不足引起连接被注销,通过后面设置数据库连接超时来看,并不是该问题造成的,可以排除;
  • 使用LRU算法出错 所谓LRU是Least Recently Used最近最少使用算法,主要是防止使用内存过大,造成内存溢出的一种方法,在编程中主要用于存放使用即可抛弃的对象。UDL存放作业是否完成的状态,有可能出现存放状态的对象被挤出内存情况,造成获取状态时无法找到,这个问题可能性较大,作为后面分析的重点;
  • 线程同步问题 由于Apache中LRU算法是非线程安全的,LRU中存放对象达到最大数量调用LRU算法reuse内存空间,由于非线程安全可能出现两个进程同时操作一个内存区域造成错误,可能性非常大;

从更深入了解客户现场定义的作业将近100多个,设置LRU的最大数量为150,这样在运行一段时间后达到了LRU设置的最大数量,此时将调用LRU算法进行内存清理、替换,出现如上问题。


3. 问题解决
通过问题分析,我们大致清楚了LRU算法及线程同步是解决问题的方法,提出了两个解决方案:

  • 不使用LRU算法,通过手工管理作业生命周期
  • 在代码中加入线程同步的代码

对比两个方案第一种方案会比较彻底,但改动较大,第二种方案比较简单,故先采用第二种方案,红色部分为修改。

1 public static void setJobOver(String jobid, String date,
2         boolean isTaskJobOver) {
3     
4     synchronized (isJobOverMap) {
5         isJobOverMap.put(new JobKey(jobid, date), Boolean.valueOf(isTaskJobOver));
6     }
7 }

通过如上修改解决了问题。

4. 需要注意
通过以上问题和代码分析解决了隐藏较深的一个Bug,可以借鉴的经验有:

  • 慎用LRU算法,最好存放使用即抛弃对象不存在问题;对于存放需要维护的对象时,最好不使用,存在需休眠对象被清除的风险;
  • 特别要注意线程安全问题,需进行同步。
原文地址:https://www.cnblogs.com/shishanyuan/p/2233868.html