Hadoop Web项目--Mahout0.10 MR算法集锦

1. 涉及技术及下载

项目开发使用到的软件有:Myeclipse2014,JDK1.8。Hadoop2.6,MySQL5.6。EasyUI1.3.6,jQuery2.0,Spring4.1.3,Hibernate4.3.1。Struts2.3.1。Maven3.2.1,Mahout0.10。
项目下载地址:https://github.com/fansy1990/mahout1.0,项目部署參考:http://blog.csdn.net/fansy1990/article/details/46481409

2. 项目介绍

此项目是在Hadoop Web项目–Friend Find系统 基础之上整理Mahout0.10版本号中MR程序的调用測试而成,重点演示怎样调用Mahout0.10的MR算法、怎样把MR算法嵌入到Web项目中,附带数据生成及数据查看、MR 任务监控等功能。
Mahout0.10的MR算法主要參考以下的文件:
driver.classes.default.props
此文档里面含有了覆盖经常使用工具类、聚类算法、分类算法、推荐算法等的MR调用mahout命令以及其相应的实现类。
此篇博客接下来将依照以下的内容进行编写:

  1. 项目部署及执行;
  2. 项目实现原理;
  3. 怎样进行项目二次开发;
  4. 项目眼下功能简介;
  5. 总结;

3. 项目部署及执行

3.1 下载、部署

  1. 下载project,參考上面的连接https://github.com/fansy1990/mahout1.0,并參考http://blog.csdn.net/fansy1990/article/details/46481409把它部署到Tomcat上;
  2. (默认,在上面步骤中已经配置好了mysql数据库,数据库的配置參考src/main/resources/db.properties文件)这里直接在Tomcat上执行项目。就可以初始化好mysql相应的数据表(这里仅仅有一个,即Hadoop集群配置表)。打开浏览器在左边导航栏訪问Hadoop集群配置表页面。进行配置(配置自己的集群);或直接在mysql数据库中进行配置就可以。配置项包含(这里默认是使用node101机器的配置):

mapreduce.app-submission.cross-platform=true
fs.defaultFS=hdfs://node101:8020
mapreduce.framework.name=yarn
yarn.resourcemanager.address=node101:8032
yarn.resourcemanager.scheduler.address=node101:8030
mapreduce.jobhistory.address=node101:10020

3.2 注意事项

  1. 设置Hadoop云平台系统linux的时间和执行tomcat的机器的时间一样,由于在云平台任务监控的时候使用了时间作为监控停止的信号。否则。监控模块将会有问题。

  2. 此项目中并没有开发不论什么MR程序。所以不须要拷贝源代码到Hadoop的lib文件夹(假设在进行二次开发时。开发了相关的MR,则须要拷贝)。
    项目部署好后,訪问项目url,就可以看到以下的界面:
    项目首页

4. 实现原理

项目组织架构:
项目组织架构

4.1 页面框架

页面採用html+jQuery+easyUI开发,整个页面使用easyUI的layout标签,左边导航栏使用easyUI的tree标签,其数据使用json格式存储在srcmainwebapp ree_data.json文件里。


针对某个页面,其json配置例如以下:

{
“id”:152,
“text”:”fkmeans+”,
“attributes”:{
“folder”:”0”,
“url”:”clustering/fuzzykmeans.jsp”
}
}

这样在点击左边导航栏fkmeans+导航时。就可以在右边弹出clustering/fuzzykmeans.jsp页面。其js代码例如以下:

$('#navid').tree({
        onClick: function(node){
//          alert(node.text+","+node.url);  // alert node text property when clicked
            console.info("click:"+node.text);
            if(node.attributes.folder=='1'){
                return ;
            }
            console.info("open url:"+node.attributes.url)   
            var url;
            if (node.attributes.url) {
                url = node.attributes.url;
            } else {
                url = '404.jsp';
            }
            console.info("open "+url);
            layout_center_addTabFun({
                title : node.text,
                closable : true,
                iconCls : node.iconCls,
                href : url
            });
        }
    }); 

当中 layout_center_addTabFun函数例如以下:

function layout_center_addTabFun(opts) {
var t = $(‘#layout_center_tabs’);
if (t.tabs(‘exists’, opts.title)) {
t.tabs(‘select’, opts.title);
} else {
t.tabs(‘add’, opts);
}
console.info(“打开页面:”+opts.title);
}

这个函数主要是推断右边窗体是否有名字为给定title的页面,假设没有,则打开这个页面。
js全部代码例如以下:
js组织

当中basic.js是首页的js文件,包含一些公共的js函数等;hconstants.js主要是针对Hadoop配置表进行的操作。jquery*.js相应的两个文件为jQuery的必须文件;mr*.js相应则是MR不同类别算法相应的js处理文件;preprocess.js为数据构造、数据查看的js处理;

4.2 请求提交逻辑

请求提交主要包含:MR算法任务提交。非MR算法任务提交。其它请求提交。这里都採用统一的提交逻辑,例如以下:
请求提交逻辑

4.2.1 页面提交

这里全部页面提交都直接使用easyUI的< a > 标签,同一时候在js里面绑定其提交的点击触发函数。

在函数里面须要首先获取页面參考(假设是MR监控任务。则须要先推断是否已经有监控页面。须要提示关闭当前监控页面),接着弹出框提示正在执行,最后统一提交到公共函数callByAJax中。这里列举三种提交的典型js代码:
1. 提交MR任务个数固定的MR任务

//evaluateFactorization---
    $('#evaluateFactorization_submit').bind('click', function(){
        // 检查是否有“MR监控页面”,假设有,则退出,并提示关闭
        if(exitsMRmonitor()){
            return ;
        }   
        var input=$('#evaluateFactorization_input').val();
        var output=$('#evaluateFactorization_output').val();
        var userFeatures=$('#evaluateFactorization_userFeatures').val();
        var itemFeatures=$('#evaluateFactorization_itemFeatures').val();
        // 弹出进度框
        popupProgressbar('推荐MR','evaluateFactorization任务提交中...',1000);
        // ajax 异步提交任务  
        callByAJax('cloud/cloud_submitJob.action',{algorithm:"EvaluateFactorizationRunnable",jobnums:'1',       arg1:input,arg2:output,arg3:userFeatures,arg4:itemFeatures});       
    });
    // ------evaluateFactorization

2 提交MR个数不固定的MR任务

// kmeans---
    $('#kmeans_submit').bind('click', function(){
        // 检查是否有“MR监控页面”。假设有。则退出。并提示关闭
        if(exitsMRmonitor()){
            return ;
        }   
        var input=$('#kmeans_input').val();//
        var output=$('#kmeans_output').val();//
        var clusters=$('#kmeans_clusters').val();//
        var k=$('#kmeans_k').val();
        var convergenceDelta=$('#kmeans_convergenceDelta').val();
        var maxIter=$('#kmeans_maxIter').val();
        var clustering=$('#kmeans_clustering').combobox("getValue");
        var distanceMeasure=$('#kmeans_distanceMeasure').combobox("getValue");
        var jobnums_=parseInt(k); // 一共的MR个数
        if("true"==clustering){
            jobnums_=jobnums_+1;
        }
        jobnums_=jobnums_+"";
        // 弹出进度框
        popupProgressbar('聚类MR','kmeans任务提交中...',1000);
        // ajax 异步提交任务
        callByAJax('cloud/cloud_submitIterMR.action',{algorithm:"KMeansDriverRunnable",jobnums:jobnums_,
            arg1:input,arg2:output,arg3:clusters,arg4:k,
    arg5:convergenceDelta,arg6:maxIter,arg7:clustering,arg8:distanceMeasure});
    });
    // ------kmeans

这里把不定MR个数的任务和定MR个数的任务区分开来了,事实上是能够不用区分的。由于在返回结果都是一个Map,依据map结果来进行操作的。只是须要在不同的实现中设置标志位(详细參考以下的实现分析)
3 提交非MR任务

$('#upload_submit').bind('click', function(){
        var input=$('#upload_input').val();
        var output=$('#upload_output').val();
        // 弹出进度框
        popupProgressbar('数据上传','数据上传中...',1000);
        // ajax 异步提交任务
        callByAJax('cloud/cloud_submitJobNotMR.action',{algorithm:'Upload',
            arg1:input,arg2:output});
    });

这里要注意MR任务和非MR任务是须要区分的,由于非MR任务使用的是同步模式(这里同步模式不是指aJax的同步。而是指实现方式),即用户点击后。会一直弹出正在处理的提示,然后等后台处理完毕。返回结果才会关闭弹窗,同一时候把结果直接展如今原网页。可是MR的任务会启动多线程,当多线程成功启动后。直接关闭提示框,同一时候打开MR任务监控页面。开启页面定时刷新任务,向后台获取任务执行情况信息。


callByAJax函数例如以下:

// 调用ajax异步提交
// 任务返回成功。则提示成功。否则提示失败的信息
function callByAJax(url,data_){
    $.ajax({
        url : url,
        data: data_,
        async:true,
        dataType:"json",
        context : document.body,
        success : function(data) {
            closeProgressbar();
            console.info("close the progressbar,flag:"+data.flag);
            var retMsg;
            if("true"==data.flag){
                retMsg='操作成功!';
                if(typeof data.return_show !="undefined"){// 读取文件
                    var return_id = "#"+data.return_show+"";
//                  var obj=document.getElementById(data.return_show);
                    $(return_id).html(data.return_txt);
                    console.info('defined:'+data.return_show);
                }
            }else{
                retMsg='操作失败!

'; if(typeof data.return_show !="undefined"){// 读取文件 var return_id = "#"+data.return_show+""; $(return_id).html(data.msg); } } $.messager.show({ title : '提示', msg : retMsg }); if("true"==data.flag&&"true"==data.monitor){// 加入监控页面 // 使用单独Tab的方式 layout_center_addTabFun({ title : 'MR算法监控', closable : true, href : 'monitor/monitor.jsp' }); } } }); }

4.2.2 MR实现

全部的MR任务提交到Action后,都会启动一个线程来专门执行MR任务。这样就能够直接返回前台页面。提示任务已经成功提交。


Action中相应的代码例如以下:

/**
     * 提交变jobnum的任务,暂未加入
     * 
     */
    public void submitIterMR(){
        Map<String ,Object> map = new HashMap<String,Object>();
        try {
            //提交一个Hadoop MR任务的基本流程
            // 1. 设置提交时间阈值,并设置这组job的个数
            //使用当前时间就可以,当前时间往前10s,以防server和云平台时间相差
                    HUtils.setJobStartTime(System.currentTimeMillis()-10000);// 
            // 由于不知道循环多少次完毕。所以这里设置为最大值,
            // 当全部MR完毕的时候,在监控代码处又一次设置JOBNUM;
            HUtils.setALLJOBSFINISHED(false);
            HUtils.JOBNUM=Integer.parseInt(jobnums);
            // 2. 使用Thread的方式启动一组MR任务
            // 2.1 生成Runnable接口
            RunnableWithArgs runJob = (RunnableWithArgs) Utils.getClassByName(
                    Utils.THREADPACKAGES+algorithm);
            // 2.2 设置參数
            runJob.setArgs(new String[]{arg1,arg2,arg3,arg4,arg5,arg6,arg7,arg8,arg9,arg10,arg11});
            // 2.3 启动Thread
            new Thread(runJob).start();
            // 3. 启动成功后。直接返回到监控,同一时候监控定时向后台获取数据,并在前台展示;
            map.put("flag", "true");
            map.put("monitor", "true");
        } catch (Exception e) {
            e.printStackTrace();
            map.put("flag", "false");
            map.put("monitor", "false");
            map.put("msg", "任务启动失败!

"); } Utils.write2PrintWriter(JSON.toJSONString(map)); }

这里採用统一接口把全部的提交都整合到一个函数中。算法參数採用匿名的方式,无论前台传送了多少个,都用全部的參数来接收。

然后使用Java反射来生成实际执行任务的类。并启动多线程。

最后返回的map数据依据须要须要设置监控的flag为true(和callByAJax函数中的标识相应)。

全部MR任务都必须实现以下的接口:

/**
 * 带有參数的Runnable接口
 * @author fansy
 * @date 2015-8-4
 */
public interface RunnableWithArgs extends Runnable {
    public abstract void setArgs(String[] args);
}

该接口有两点须要注意,其一。它继承了Runnable接口。其二,它自己定义了一个setArgs函数;
以下来看一个实现,以kmeans算法的调用为例:

/**
 * @author fansy
 * @date 2015-8-4
 */
public class KMeansDriverRunnable implements RunnableWithArgs {
    private String input;
    private String output;
    private String clusters;
    private String k;
    private String convergenceDelta;
    private String maxIter;
    private String clustering;
    private String  distanceMeasure;
    @Override
    public void run() {
        String[] args=null;
        if("true".equals(clustering)){
            args=new String[17];
            args[16]="-cl";
        }else{
            args= new String[16];
        }
        args[0]="-i";
        args[1]=input;
        args[2]="-o";
        args[3]=output;
        args[4]="-c";
        args[5]=clusters;
        args[6]="-k";
        args[7]=k;
        args[8]="-cd";
        args[9]=convergenceDelta;
        args[10]="-x";
        args[11]=maxIter;
        args[12]="-dm";
        args[13]=distanceMeasure;
        args[14]="--tempDir";
        args[15]="temp";
        Utils.printStringArr(args);
        try {
            HUtils.delete(output);
            HUtils.delete("temp");
            HUtils.delete(clusters);
            int ret = ToolRunner.run(HUtils.getConf()   ,new KMeansDriver() , args);
            if(ret==0){// 全部任务执行完毕
                HUtils.setALLJOBSFINISHED(true);
            }
        } catch (Exception e) {
            e.printStackTrace();
            // 任务中,报错,须要在任务监控界面体现出来
            HUtils.setRUNNINGJOBERROR(true);
            Utils.simpleLog("KMeansDriver任务错误!");
        }
    }
    @Override
    public void setArgs(String[] args) {
        this.input=args[0];
        this.output=args[1];
        this.clusters=args[2];
        this.k=args[3];
        this.convergenceDelta=args[4];
        this.maxIter=args[5];
        this.clustering=args[6];
        this.distanceMeasure=args[7];
    }
}

首先,这里须要实现setArgs函数,这个函数就是把匿名的算法參数全部实名化(实际上,这里能够不用这一步操作的,可是为了代码的可读性。还是建议这样做)。

接着,在run函数中,依据传进来的算法參数构造MR算法须要使用的算法參数。然后直接提交MR任务就可以。


这里须要注意:
1. 当任务执行出错时须要设置标志位。方便在任务监控时,前台向后台获取任务状态信息时,提示错误;
2. 固定个数的MR任务和非固定个数的MR任务的不同点是当非固定个数的MR提前执行完毕(比方kmeans算法假设设置了循环次数为10,那么假如当循环次数达到了8次时。其阈值满足条件。退出了循环)。那么就要实时更改MR任务的次数(非固定个数MR任务最開始设置任务全部个数是依照最大值来设置的),并设置相关标识,即不用再进行监控。

4.2.3 非MR实现

与MR实现相似,非MR实现的Action函数例如以下:

/**
     * 提交非MR的任务
     * 算法详细參数意思对比jsp页面理解,每一个实体类会把arg1~arg11 转换为实际的意思
     * @throws ClassNotFoundException 
     * @throws IllegalAccessException 
     * @throws InstantiationException 
     */
    public void submitJobNotMR() throws InstantiationException, IllegalAccessException, ClassNotFoundException{
        Map<String ,Object> map = new HashMap<String,Object>();
        INotMRJob runJob = (INotMRJob) Utils.getClassByName(
                Utils.THREADNOTPACKAGES+algorithm);
        // 2.2 设置參数
        runJob.setArgs(new String[]{arg1,arg2,arg3,arg4,arg5,arg6,arg7,arg8,arg9,arg10,arg11});
        map= runJob.runJob();
        Utils.write2PrintWriter(JSON.toJSONString(map));
        return ;
    }

全部非MR任务都要实现INotMRJob接口,该接口定义例如以下:

/**
 * 提交非MR任务的基类
 * @author fansy
 * @date 2015年8月5日
 */
public interface INotMRJob {
    public void setArgs(String[] args);
    public Map<String,Object> runJob();
}

两个函数分别相应RunnableWithArgs的两个函数。
一个读取HDFS文件的详细实现例如以下:

/**
 * 读取HDFS txt文件
 * @author fansy
 * @date 2015年8月5日
 */
public class ReadTxt implements INotMRJob {
    private String input;
    private String lines;
    @Override
    public void setArgs(String[] args) {
        this.input=args[0];
        this.lines=args[1];
    }
    @Override
    public Map<String, Object> runJob() {
        Map<String ,Object> map = new HashMap<String,Object>();
        String txt =null;
        map.put("return_show", "readtxt_return");
        try{
            txt = HUtils.readTxt(input, lines, "<br>");
            txt ="文件的内容是:<br>"+txt;
            map.put("flag", "true");    
            map.put("return_txt", txt);
        }catch(Exception e){
            e.printStackTrace();
            map.put("flag", "false");
            map.put("monitor", "false");
            map.put("msg", input+"读取失败!");
        }
        return map;
    }
}

4.2.4 结果返回

非MR任务结果返回直接在原网页展示,在callByAJax中推断相应的标志位假设不为空。那么就是须要展示在原网页的,原网页中必须有相应的组件来显示,比方以下的网页代码:

<div id="upload_return" style="padding-left: 30px;font-size: 20px;padding-top:10px;"></div>

MR的任务则会开启监控。在监控页面展现任务的执行情况。

5. 二次开发

二次开发实际就是在此版本号的基础上加入自己的功能而已。

一共包含以下几个步骤:
1. 编写測试函数
比方要加入一个fuzzykmeans的算法,那么就在src/test/java里面编写測试函数,例如以下:
fuzzykmeans測试函数

编写測试函数的主要目的是,研究算法的參数以及输入数据的格式等。
2. 加入json导航栏数据
在tree_data.json中加入相应的算法,例如以下:
tree_data.json加入算法
3. 编写页面
參考1.中的全部算法须要參数来编写jsp页面,例如以下图:
jsp页面
4. 编写页面处理js
依据jsp页面中的button,来编写button的触发事件,例如以下:
js触发事件
5. 实现请求提交接口实现
编写请求提交接口的实现分为两种,假设是MR任务则实现RunnableWithArgs接口,假设是非MR任务则实现INotMRJob接口就可以。例如以下图所看到的:
接口实现
6. 执行项目并測试
打开浏览器。訪问刚开发的功能,点击页面中的button进行測试,例如以下:
算法界面

6. 项目功能介绍

  1. Hadoop集群配置连接查看、改动
    集群配置

在这里能够进行集群參数的配置。主要是连接Hadoop集群的參数;
2. 数据构造和查看
文件上传界面例如以下:
文件上传

文件上传主要包含两个功能,其一就是把本地文件上传到HDFS文件;其二就是针对各个算法的数据初始化,这里的初始化基本都是把本地文件(这些文件在src/main/resources/data中已经存在)上传到HDFS指定文件夹,这里关于文件夹构造能够參考Upload.java文件:

/**
* 数据上传
* 统一命名:
上传本地文件:WEB-INF/classes/data//.
上传HDFS文件:/user/root///input.
* @author fansy
* @date 2015年8月5日
*/

其它的基本是数据查看之类的。最后一个分类数据生成,是针对输入数据须要是序列化的数据。所以这里直接生成序列化数据在HDFS指定的文件夹就可以。
3. 相关Mahout算法
相关MR算法中,页面都有默认的參数,比方:
mr算法

这里的输入数据路径是依据前面Upload里面生成的路径是一致的,有些MR算法须要先执行其它MR算法,然后才干执行,这时其输入路径就是上一个MR算法相应的输出了。

7. 总结

  1. Mahout MR算法调用事实上并不难,难在了解算法的输入数据格式、算法的參数设置等。
  2. 本篇在 MR调用上面事实上并没有非常多内容。较多的是js的处理以及ssh框架的应用。
  3. 在MR的监控上面实现的思路也是能够借鉴的;
  4. 能够git该项目。然后自己编程实现某个算法的全部过程。这样学习起来乐趣很多其它(建议实现TrainLogistic相关);
  5. Mahout MR算法已经不再更新,建议能够在Hadoop MR的基础上学习Spark。

分享,成长。快乐

脚踏实地,专注

转载请注明blog地址:http://blog.csdn.net/fansy1990

原文地址:https://www.cnblogs.com/yangykaifa/p/7112014.html