importTSV工具导入数据到hbase

1.建立目标表test,确定好列族信息。

create'test','info','address'

2.建立文件编写要导入的数据并上传到hdfs上

touch a.csv

vi a.csv

数据内容:

2018-09-29,value1,value2

将文件上传到hdfs目录下。

3.在linux命令行执行命令

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," -Dimporttsv.columns=HBASE_ROW_KEY,info:c1,address:c1 表名 /data/a.csv

3-1.新建的列名在执行命令里面标注 -Dimporttsv.columns=HBASE_ROW_KEY,info:c1,address:c1  根据这处列族列的规定插入对应的数据,info:c1对应value1,address:c1对应value2

如果是多个列族和列:info:c1,info:c2,address:c1,address:c2   ===对应数据为 20180929,value1,value2,value2,value4===value与指定的列族列对应即可。

4.-Dimporttsv.separator="," 

这个是按照指定的分隔符号插入数据,当遇到value里面有你指定分隔符的符号时,可以修改此处和数据内的分隔符。

当遇到value里面有你指定分隔符的符号时,执行不会报错没有任何提示,数据也不会进入hbase,所以多注意。

原文地址:https://www.cnblogs.com/lccyb/p/9723109.html