记一次Sqoop抽数据异常

1. 环境

Hadoop  Sqoop awsEMR
2.8.5 1.4.7 5.26.0

2.错误描述

在使用Sqoop抽取MySQL数据时,使用hdfs作为缓存,s3作为hive的存储地址,命令如下。

sqoop import "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" -Dmapreduce.job.queuename=default 
--connect jdbc:mysql://${host}:${port}/${db}?tinyInt1isBit=false&zeroDateTimeBehavior=convertToNull 
--username ${user} 
--password ${password} 
--hive-import 
--hive-overwrite 
--hive-database ${hiveDb} 
--hive-table ${hiveTable} 
--fields-terminated-by 'x01' 
--lines-terminated-by '
' 
--null-string '\N' 
--null-non-string '\N' 
--hive-partition-key pt 
--hive-partition-value ${pt} 
--hive-delims-replacement ' ' 
--target-dir hdfs:///vova-bd-prod/sqoop-tmp/${db}/${table} 
--query "select ${hive_columns} from ${table} where $CONDITIONS" 
--split-by ${split_id} -m ${mapers}

抽取到hdfs之后,需要distcp到s3,这时发生错误如下:

FAILED Container [pid=3951,containerID=container_1567749318934_0017_01_000010] is running beyond physical memory limits. Current usage: 1.1 GB of 1 GB physical memory used; 8.1 GB of 5 GB virtual memory used. Killing container.

3.原因以及解决方法

使用sqoop导入数据,distcp使用hadoop-discp-*.jar的jar包,因为这个jar包内置"distcp-default.xml"配置文件,jar包路径:/usr/lib/hadoop/hadoop-distcp-2.8.5-amzn-4.jar。

里面的配置代码如下,它会覆盖'mapred-site.xml' and 'yarn-site.xml'的map、reduce内存配置。

################
    <property>
        <name>mapred.job.map.memory.mb</name>
        <value>1024</value>
    </property>

    <property>
        <name>mapred.job.reduce.memory.mb</name>
        <value>1024</value>
    </property>
################

所以我们在Sqoop后边加上这个参数就可以了,

sqoop import "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" -Dmapred.job.map.memory.mb=4096  -Dmapred.job.reduce.memory.mb=4096

原文地址:https://www.cnblogs.com/ChouYarn/p/11576843.html