sqoop从hdfs 中导出数据到mysql

bin/sqoop export  
 --connect "jdbc:mysql://mini1:3306/study?useUnicode=true&characterEncoding=utf-8"
 --username root 
 --password root 
 --table top_n_city 
 --m 1 
 --export-dir /movie/top_n_city/output/ 
 --input-fields-terminated-by '	'
 --columns="city,sumprice" 
--input-fields-terminated-by '	'  这个是定义文件使用sm分割的
--m 1 只用一个mr
--columns 导出哪些列

表数据

hdfs'上的数据

 补充:

sqoop安装之后的配置,配置很简单,加上上面的数据就可以用了

修改配置文件
$ cd /conf
$ cp sqoop-env-template.sh sqoop-env.sh
打开sqoop-env.sh并编辑下面几行:
export HADOOP_COMMON_HOME=/home/hadoop/apps/hadoop-2.6.1/
export HADOOP_MAPRED_HOME=/home/hadoop/apps/hadoop-2.6.1/
export HIVE_HOME=/home/hadoop/apps/hive-1.2.1
加入mysql的jdbc驱动包
cp ~/mysql-connector-java-5.1.28.jar $SQOOP_HOME/lib/

 
http://www.cnblogs.com/dongdone/p/5708447.html
原文地址:https://www.cnblogs.com/rocky-AGE-24/p/7126744.html