使用hdfs-slurper 将数据导入hdfs

    slurper 可以将任何格式的数据导入HDFS, 这里有github地址 这里鄙视下百度,居然搜索不到!

第一步,下载安装 

git clone git@github.com:alexholmes/hdfs-file-slurper.git
cd hdfs-file-slurper
mvn package

将target下的hdfs-slurper-0.1.8-package.tar.gz 解压到 /usr/local目录下(笔者的工作环境是ubuntu)

配置sluper,配置文件在conf目录下

slurper.conf 配置

#被传输数据的名称
DATASOURCE_NAME = test


#数据源目录,输入到这的任何文件都会自动复制到目标目录中(中间会被复制到临时目录中)
SRC_DIR = file:/data/hadoop/tmp/slurper/in


#工作目录,来自数据源的文件在复制到目标目录前被移入这个目录
WORK_DIR = file:/data/hadoop/tmp/slurper/work

#在复制完成后,文件从工作目录移入最终目录,另外REMOVE_AFTER_COPY可以设置被用于设置删除源文件,这时不能设置COMPLETE_DIR
COMPLETE_DIR = file:/data/hadoop/tmp/slurper/complete


REMOVE_AFTER_COPY = false

#在复制文件中遇到的任何错误都会被移入这个目录
ERROR_DIR = file:/data/hadoop/tmp/slurper/error



#临时目录,文件第一次被复制到目标文件系统上的临时目录。然后文件复制完成后,通过slurper将这个文件移入目标文件
DEST_STAGING_DIR = hdfs:/tmp/slurper/stage

#源文件最终存放目录
DEST_DIR = hdfs:/tmp/slurper/dest

file://URI 表示本地文件系统,hdfs://URI表示HDFS中的文件路径

slurper-env.sh 中要配置hadoop bin文件目录

运行:

1. 先创建 源文件目录 /data/hadoop/tmp/slurper/in

2.

bin/slurper.sh  --config-file conf/slurper.conf

3.将测试文件复制 到源文件目录,然后就可以看到日志,并且在hdfs上查看文件了

动态设置目标路径:

在slurper bin 目录下有一脚本 sample-python.py

#!/usr/bin/python

import sys, os, re

# read the local file from standard input
input_file=sys.stdin.readline()

# extract the filename from the file
filename = os.path.basename(input_file)

# extract the date from the filename
match=re.search(r'([0-9]{4})([0-9]{2})([0-9]{2})', filename)

year=match.group(1)
mon=match.group(2)
day=match.group(3)

# construct our destination HDFS file
hdfs_dest="hdfs:/data/%s/%s/%s/%s" % (year, mon, day, filename)

# write it to standard output
print hdfs_dest,

修改配置文件:

#DEST_DIR = hdfs:/tmp/slurper/dest
SCRIPT = /usr/local/hdfs-slurper-0.1.8/bin/sample-python.py

再次运行 slurper,然后将文件复制到源文件目录,如果文件 格式不符合正则表达式匹配结果,会报错

生产环境中,可以使用bin/slurper-inittab.sh 脚本连续操作

此外,sluerper可以将hdfs中的数据导入本地系统!

用放荡不羁的心态过随遇而安的生活
原文地址:https://www.cnblogs.com/re-myself/p/5194781.html