Hadoop笔记 -- 常用命令

运维--启停

  • HDFS启停

    • 初始化HDFS : hadoop namenode -format

    • 启动HDFS : start-dfs.sh (主节点启动)

    • 关闭HDFS : stop-dfs.sh

  • NameNode启停

    • hadoop-daemon.sh start NameNode

    • hadoop-daemons.sh stop NameNode

  • SecondNameNode启停

    • 启动:hadoop-daemon.sh start secondnamenode

    • 停止:hadoop-daemon.sh stop SecondNameNode

  • DataNode启停

    • 启动单个DataNode:hadoop-daemon.sh start datanode

    • 关闭单个DataNode:hadoop-daemon.sh stop datanode

    • 启动所有DataNode:hadoop-daemons.sh start datanode

    • 关闭所有DataNode:hadoop-daemons.sh stop datanode

  • JobTracker/TaskTracker启停

    • 启动:hadoop-daemon.sh start jobtracker/TaskTracker

    • 停止:hadoop-daemon.sh stop jobtracker/TaskTracker

  • MapReduce启停

    • 启动:start-mapred.sh

    • 停止:stop-mapred.sh

运维--监控

  • 安全模式

    • 进入安全模式:hdfs dfsadmin -safemode enter

    • 查看安全模式:hdfs dfsadmin -safemode get

    • 退出安全模式:hdfs dfsadmin -safemode leave

  • 查看状态

    • hdfs dfsadmin -report

HDFS

  • 显示指定的文件的详细信息: hadoop fs -ls (path)

  • 创建指定的文件夹: hadoop fs -mkdir (path)

  • 删除指定的文件夹: hadoop fs -rmr (path)

  • 上传文件:hadoop fs -put localfile (path)

  • 下载文件:hadoop fs -get destfile

  • 将(path)指定的文件的内容输出到标准输出(stdout):hadoop fs -cat (path)

  • 将本地源文件(localsrc)复制到路径(dst)指定的文件或文件夹中:hadoop fs -copyFromLocal (localsrc)(dst)

  • 查看集群状态信息: hadoop dfsadmin –report

  • 杀掉namenode进程 : kill -9 2978

原文地址:https://www.cnblogs.com/junzifeng/p/11925110.html