http://node01:60010
node01上运行,关闭hbase集群
[hadoop@node01 ~]$ stop-hbase.sh
关闭ZooKeeper集群
关闭Hadoop集群
关闭虚拟机
关闭笔记本
需要提前启动HDFS及ZooKeeper集群
如果没开启hdfs,请在node01运行start-dfs.sh命令
如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
第一台机器node01(HBase主节点)执行以下命令,启动HBase集群
[hadoop@node01 ~]$ start-hbase.sh
启动完后,jps查看HBase相关进程
node01、node02上有进程HMaster、HRegionServer
node03上有进程HRegionServer
在hdfs上创建临时文件夹去存放我们要上传的文件:
hdfs dfs -mkdir -p /user/fileTest
-mkdir:创建文件夹命令
-p :创建多级目录命令
Hadoop上上传文件
hdfs dfs -put /usr/local/text.txt /user/fileTest
-put:上传文件
第一个路径是要传的文件的路径
第二个路径是目的地
查看是否上传成功
第一种本地通过命令查看:
hdfs dfs -ls /user/fileTest
第二种通过Hadoop查看:
执行jar
hadoop jar /home/hadoop/mapreudce2-1.0-SNAPSHOT.jar Temperature /user/inputcloud.txt /user/outputcloud
删除hdfs上的文件
hdfs dfs -rm -r /user/fileTest
put it to hdfs.
# hdfs dfs -put student.csv /input
start-dfs.sh启动hdfs
start-yarn.sh 启动yarn集群
tnt!o9jv:?wX 初始密码
chenhan 密码
mysql -uroot -p 启动mysql
bin/hive 启动hive