今日收获

http://node01:60010

node01上运行,关闭hbase集群
[hadoop@node01 ~]$ stop-hbase.sh
关闭ZooKeeper集群
关闭Hadoop集群
关闭虚拟机
关闭笔记本

需要提前启动HDFS及ZooKeeper集群
如果没开启hdfs,请在node01运行start-dfs.sh命令
如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
第一台机器node01(HBase主节点)执行以下命令,启动HBase集群
[hadoop@node01 ~]$ start-hbase.sh
启动完后,jps查看HBase相关进程

node01、node02上有进程HMaster、HRegionServer

node03上有进程HRegionServer


在hdfs上创建临时文件夹去存放我们要上传的文件:

hdfs dfs -mkdir -p /user/fileTest

-mkdir:创建文件夹命令
-p :创建多级目录命令

Hadoop上上传文件

hdfs dfs -put /usr/local/text.txt /user/fileTest

-put:上传文件
第一个路径是要传的文件的路径
第二个路径是目的地
查看是否上传成功
第一种本地通过命令查看:

hdfs dfs -ls /user/fileTest
第二种通过Hadoop查看:

执行jar


hadoop jar /home/hadoop/mapreudce2-1.0-SNAPSHOT.jar Temperature /user/inputcloud.txt /user/outputcloud

删除hdfs上的文件
hdfs dfs -rm -r /user/fileTest


put it to hdfs.

# hdfs dfs -put student.csv /input

start-dfs.sh启动hdfs
start-yarn.sh 启动yarn集群

tnt!o9jv:?wX 初始密码
chenhan 密码


mysql -uroot -p 启动mysql


bin/hive 启动hive

原文地址:https://www.cnblogs.com/feng747/p/14156982.html