• 今日收获


    http://node01:60010

    node01上运行,关闭hbase集群
    [hadoop@node01 ~]$ stop-hbase.sh
    关闭ZooKeeper集群
    关闭Hadoop集群
    关闭虚拟机
    关闭笔记本

    需要提前启动HDFS及ZooKeeper集群
    如果没开启hdfs,请在node01运行start-dfs.sh命令
    如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
    第一台机器node01(HBase主节点)执行以下命令,启动HBase集群
    [hadoop@node01 ~]$ start-hbase.sh
    启动完后,jps查看HBase相关进程

    node01、node02上有进程HMaster、HRegionServer

    node03上有进程HRegionServer


    在hdfs上创建临时文件夹去存放我们要上传的文件:

    hdfs dfs -mkdir -p /user/fileTest

    -mkdir:创建文件夹命令
    -p :创建多级目录命令

    Hadoop上上传文件

    hdfs dfs -put /usr/local/text.txt /user/fileTest

    -put:上传文件
    第一个路径是要传的文件的路径
    第二个路径是目的地
    查看是否上传成功
    第一种本地通过命令查看:

    hdfs dfs -ls /user/fileTest
    第二种通过Hadoop查看:

    执行jar


    hadoop jar /home/hadoop/mapreudce2-1.0-SNAPSHOT.jar Temperature /user/inputcloud.txt /user/outputcloud

    删除hdfs上的文件
    hdfs dfs -rm -r /user/fileTest


    put it to hdfs.

    # hdfs dfs -put student.csv /input

    start-dfs.sh启动hdfs
    start-yarn.sh 启动yarn集群

    tnt!o9jv:?wX 初始密码
    chenhan 密码


    mysql -uroot -p 启动mysql


    bin/hive 启动hive

  • 相关阅读:
    协程初探
    属性传值
    分析代理模式
    上下文菜单与TrackPopupMenu
    走进小作坊(十六)----口碑营销
    线程池QueueUserWorkItem
    exosip
    Spark Core源代码分析: Spark任务运行模型
    微软2014校园招聘笔试试题
    怎样配置Tomcat环境变量
  • 原文地址:https://www.cnblogs.com/feng747/p/14156982.html
Copyright © 2020-2023  润新知