• 829每周总结


    上周完成了虚拟机的一些基本配置,这一周学习HDFS的一些知识和操作。

    编写 Hadoop 集群常用脚本
    1 )Hadoop 集群启停脚本(包含 HDFS ,Yarn ,Historyserver ):myhadoop.sh
    [atguigu@hadoop102 ~]$ cd /home/atguigu/bin
    [atguigu@hadoop102 bin]$ vim myhadoop.sh
    ➢ 输入如下内容
    #!/bin/bash
    if [ $# -lt 1 ]
    then
    echo "No Args Input..."
    exit ;
    fi
    case $1 in
    "start")
    echo " =================== 启动 hadoop 集群 ==================="
    echo " --------------- 启动 hdfs ---------------"
    ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
    echo " --------------- 启动 yarn ---------------

    ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
    echo " --------------- 启动 historyserver ---------------"
    ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start
    historyserver"
    ;;
    "stop")
    echo " =================== 关闭 hadoop 集群 ==================="
    echo " --------------- 关闭 historyserver ---------------"
    ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop
    historyserver"
    echo " --------------- 关闭 yarn ---------------"
    ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
    echo " --------------- 关闭 hdfs ---------------"
    ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
    ;;
    *)
    echo "Input Args Error..."
    ;;
    esac
    ➢ 保存后退出,然后赋予脚本执行权限
    [atguigu@hadoop102 bin]$ chmod +x myhadoop.sh

    查看三台服务器 Java 进程脚本:jpsall
    [atguigu@hadoop102 ~]$ cd /home/atguigu/bin
    [atguigu@hadoop102 bin]$ vim jpsall
    ➢ 输入如下内容
    #!/bin/bash
    for host in hadoop102 hadoop103 hadoop104
    do
    echo =============== $host ===============
    ssh $host jps
    done
    ➢ 保存后退出,然后赋予脚本执行权限
    [atguigu@hadoop102 bin]$ chmod +x jpsall
    3 )分发/home/atguigu/bin 目录,保证自定义脚本在三台机器上都可以使用
    [atguigu@hadoop102 ~]$ xsync /home/atguigu/bin/

     HDFS 产出背景 及 定义

    1 )HDFS 产生背景
    随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到更多的操作系
    统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这
    就是分布式文件管理系统。HDFS 只是分布式文件管理系统中的一种。
    2 )HDFS 定义
    HDFS(Hadoop Distributed File System),它是一个文件系统,用于存储文件,通过目
    录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务
    器有各自的角色。
    HDFS 的使用场景:适合一次写入,多次读出的场景。一个文件经过创建、写入和关闭
    之后就不需要改变。

    HDFS 优缺点

    优点

    1)高容错性
    ➢ 数据自动保存多个副本。它通过增加副本的形式,提高容错性。

    ➢ 某一个副本丢失以后,它可以自动恢复。
    2)适合处理大数据
    ➢ 数据规模:能够处理数据规模达到GB、TB、甚至PB级别的数据;

    ➢ 文件规模:能够处理百万规模以上的文件数量,数量相当之大。
    3)可构建在廉价机器上,通过多副本机制,提高可靠性。

    缺点

    1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
    2)无法高效的对大量小文件进行存储。
    ➢ 存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和
    块信息。这样是不可取的,因为NameNode的内存总是有限的;
    ➢ 小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。
    3)不支持并发写入、文件随机修改。
    ➢ 一个文件只能有一个写,不允许多个线程同时写;
    ➢ 仅支持数据append(追加),不支持文件的随机修改

    HDFS 的 的 Shell 操作 

    hadoop fs 具体命令 OR hdfs dfs 具体命令
    两个是完全相同的。

    [atguigu@hadoop102 hadoop-3.1.3]$ bin/hadoop fs
    [-appendToFile <localsrc> ... <dst>]
    [-cat [-ignoreCrc] <src> ...]
    [-chgrp [-R] GROUP PATH...]
    [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
    [-chown [-R] [OWNER][:[GROUP]] PATH...]
    [-copyFromLocal [-f] [-p] <localsrc> ... <dst>]
    [-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
    [-count [-q] <path> ...]
    [-cp [-f] [-p] <src> ... <dst>]
    [-df [-h] [<path> ...]]
    [-du [-s] [-h] <path> ...]
    [-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
    [-getmerge [-nl] <src> <localdst>]
    [-help [cmd ...]]
    [-ls [-d] [-h] [-R] [<path> ...]]
    [-mkdir [-p] <path> ...]
    [-moveFromLocal <localsrc> ... <dst>]
    [-moveToLocal <src> <localdst>]
    [-mv <src> ... <dst>]
    [-put [-f] [-p] <localsrc> ... <dst>]
    [-rm [-f] [-r|-R] [-skipTrash] <src> ...]
    [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
    <acl_spec> <path>]]
    [-setrep [-R] [-w] <rep> <path> ...

    [-stat [format] <path> ...]
    [-tail [-f] <file>]
    [-test -[defsz] <path>]
    [-text [-ignoreCrc] <src> ...]

    1)启动 Hadoop 集群(方便后续的测试)
    [atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
    [atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
    2)-help:输出这个命令参数
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -help rm
    3)创建/sanguo 文件夹
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /sanguo

    1)-moveFromLocal:从本地剪切粘贴到 HDFS
    [atguigu@hadoop102 hadoop-3.1.3]$ vim shuguo.txt
    输入:
    shuguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -moveFromLocal ./shuguo.txt
    /sanguo
    2)-copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
    [atguigu@hadoop102 hadoop-3.1.3]$ vim weiguo.txt
    输入:
    weiguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -copyFromLocal weiguo.txt
    /sanguo
    3)-put:等同于 copyFromLocal,生产环境更习惯用 put
    [atguigu@hadoop102 hadoop-3.1.3]$ vim wuguo.txt
    输入:
    wuguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -put ./wuguo.txt /sanguo
    4)-appendToFile:追加一个文件到已经存在的文件末尾
    [atguigu@hadoop102 hadoop-3.1.3]$ vim liubei.txt
    输入:
    liubei
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt
    /sanguo/shuguo.txt

    1)-copyToLocal:从 HDFS 拷贝到本地

    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -copyToLocal
    /sanguo/shuguo.txt ./
    2)-get:等同于 copyToLocal,生产环境更习惯用 get
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -get
    /sanguo/shuguo.txt ./shuguo2.txt

    1)-ls: 显示目录信息
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /sanguo
    2)-cat:显示文件内容
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo.txt
    3)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666
    /sanguo/shuguo.txt
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu
    /sanguo/shuguo.txt
    4)-mkdir:创建路径
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /jinguo
    5)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt
    /jinguo
    6)-mv:在 HDFS 目录中移动文件
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt
    /jinguo
    7)-tail:显示一个文件的末尾 1kb 的数据
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt
    8)-rm:删除文件或文件夹
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /sanguo/shuguo.txt
    9)-rm -r:递归删除目录及目录里面内容
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /sanguo
    10)-du 统计文件夹的大小信息
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
    27 81 /jinguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo
    14 42 /jinguo/shuguo.txt
    7 21 /jinguo/weiguo.txt
    6 18 /jinguo/wuguo.tx
    说明:27 表示文件大小;81 表示 27*3 个副本;/jinguo 表示查看的目录
    11)-setrep:设置 HDFS 中文件的副本数量
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt

    1)-ls: 显示目录信息
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /sanguo
    2)-cat:显示文件内容
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo.txt
    3)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666
    /sanguo/shuguo.txt
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu
    /sanguo/shuguo.txt
    4)-mkdir:创建路径
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /jinguo
    5)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt
    /jinguo
    6)-mv:在 HDFS 目录中移动文件
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt
    /jinguo
    7)-tail:显示一个文件的末尾 1kb 的数据
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt
    8)-rm:删除文件或文件夹
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /sanguo/shuguo.txt
    9)-rm -r:递归删除目录及目录里面内容
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /sanguo
    10)-du 统计文件夹的大小信息
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
    27 81 /jinguo
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo
    14 42 /jinguo/shuguo.txt
    7 21 /jinguo/weiguo.txt
    6 18 /jinguo/wuguo.tx
    说明:27 表示文件大小;81 表示 27*3 个副本;/jinguo 表示查看的目录
    11)-setrep:设置 HDFS 中文件的副本数量
    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt

  • 相关阅读:
    NeatUpload 同时选择并上传多个文件
    前言
    11:连续出现的字符(1.9)
    06笨小猴(1.9)
    05:最大值和最小值的差(1.9)
    02:输出最高分数的学生姓名(1.9)
    04:谁拿了最多奖学金(1.9)
    03 不高兴的津津(1.9)
    01:查找特定的值(1.9)
    1813(2.1)
  • 原文地址:https://www.cnblogs.com/ruangongwangxiansheng/p/14161487.html
Copyright © 2020-2023  润新知