hadoop与spark执行定时任务,linux执行定时任务

1、mapreduce任务可以用linux上的crontab来执行定时任务

  用crontab执行定时任务时注意:手动运行脚本会执行,可是定时就不行。原因:应该重新指定环境变量

 

#!/bin/bash


#if [ -f ~/.bash_profile ];
#then
#  . ~/.bash_profile
#fi
. /etc/profile
spark-submit --class app.AllInfo --master yarn-cluster  --jars /home/lw/myapp/mylibs/spark_hbase_fat.jar /home/lw/myapp/weatherDisplay.jar

2、spark任务还可以用sparkStreamingContext来设置,spark任务执行时间间隔,来执行定时任务。

两者区别:1由linux维护,2由spark维护

原文地址:https://www.cnblogs.com/lwhp/p/5888794.html