• 七、大数据Hadoop的安装与配置、HDFS


    1.安装Hadoop
    单机模式安装Hadoop
    安装JAVA环境
    设置环境变量,启动运行
     
    1.1 环境准备
     
    1)配置主机名为nn01,ip为192.168.1.21,配置yum源(系统源)
    备注:由于在之前的案例中这些都已经做过,这里不再重复.
     
    2)安装java环境
    nn01 ~]# yum -y install java-1.8.0-openjdk-devel
    nn01 ~]# java -version
    openjdk version "1.8.0_131"
    OpenJDK Runtime Environment (build 1.8.0_131-b12)
    OpenJDK 64-Bit Server VM (build 25.131-b12, mixed mode)
    [root@nn01 ~]# jps
    1322 Jps
     
    3)安装hadoop
    nn01 ~]# tar -xf hadoop-2.7.6.tar.gz
    nn01 ~]# mv hadoop-2.7.6 /usr/local/hadoop
    nn01 ~]# cd /usr/local/hadoop/
    hadoop]# ls
    bin  include  libexec       NOTICE.txt  sbin
    etc  lib      LICENSE.txt  README.txt  share
     
    hadoop]# ./bin/hadoop   //报错,JAVA_HOME没有找到
     
    4)解决报错问题
    hadoop]# rpm -ql java-1.8.0-openjdk
    hadoop]# cd ./etc/hadoop/
    hadoop]# vim hadoop-env.sh
    25 export  
    JAVA_HOME="/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64/jre"
    33 export HADOOP_CONF_DIR="/usr/local/hadoop/etc/hadoop"
     
    nn01 ~]# cd /usr/local/hadoop/
    hadoop]# ./bin/hadoop
    Usage:...
    hadoop]# mkdir /usr/local/hadoop/aa
    hadoop]# cp *.txt /usr/local/hadoop/aa
    hadoop]# ./bin/hadoop jar  
    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar wordcount aa bb
    //wordcount为参数 统计aa这个文件夹,存到bb这个文件里面(这个文件不能存在,要是存在会报错,是为了防止数据覆盖)
    hadoop]# cat bb/part-r-00000   //查看
     
    2. 安装配置Hadoop
     
    另备三台虚拟机,安装Hadoop
    使所有节点能够ping通,配置SSH信任关系
    节点验证
    node1 192.168.1.22
    node2 192.168.1.23
    node3 192.168.1.24
     
    2.1 环境准备
     
    1)三台机器配置主机名为node1、node2、node3,配置ip地址
    2)编辑/etc/hosts(四台主机同样操作,以nn01为例)
    [root@nn01 ~]# vim /etc/hosts
    192.168.1.21  nn01
    192.168.1.22  node1
    192.168.1.23  node2
    192.168.1.24  node3
     
    3)安装java环境,在node1,node2,node3上面操作(以node1为例)
    node1 ~]# yum -y install java-1.8.0-openjdk-devel
     
    4)布置SSH信任关系
    //第一次登陆不需要输入yes
    nn01 ~]# vim /etc/ssh/ssh_config
    Host *
            GSSAPIAuthentication yes
            StrictHostKeyChecking no
    nn01 ~]# ssh-keygen(一路回车)
    nn01 ~]# for i in 21 22 23 24 ; do ssh-copy-id 192.168.1.$i; done 
    //部署公钥给nn01,node1,node2,node3
     
    5)测试信任关系
    nn01 ~]# ssh node1
    node1 ~]# exit
     
    2.2 配置hadoop
     
    1)修改slaves文件
    [root@nn01 ~]# cd /usr/local/hadoop/etc/hadoop
    hadoop]# vim slaves
    node1
    node2
    node3
     
    2)hadoop的核心配置文件core-site
    hadoop]# vim core-site.xml
    <configuration>
    <property>
            <name>fs.defaultFS</name>
            <value>hdfs://nn01:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/var/hadoop</value>
        </property>
    </configuration>
     
    hadoop]# mkdir /var/hadoop        //hadoop的数据根目录
    hadoop]# ssh node1 mkdir /var/hadoop
    hadoop]# ssh node2 mkdir /var/hadoop
    hadoop]# ssh node3 mkdir /var/hadoop
     
    3)配置hdfs-site文件
    hadoop]# vim hdfs-site.xml
    <configuration>
     <property>
            <name>dfs.namenode.http-address</name>
            <value>nn01:50070</value>
        </property>
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>nn01:50090</value>
        </property>
        <property>
            <name>dfs.replication</name>
            <value>2</value> //存两份,总数
        </property>
    </configuration>
     
    4)同步配置到node1,node2,node3
    //同步的主机都要安装rsync
    hadoop]# ssh node1 yum –y install rsync 
    hadoop]# ssh node2 yum –y install rsync 
    hadoop]# ssh node3 yum –y install rsync
    hadoop]# for i in 22 23 24 ; do rsync -aSH --delete /usr/local/hadoop/ root@192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
    [1] 23260
    [2] 23261
    [3] 23262
     
    5)查看是否同步成功
    hadoop]# ssh node1 ls /usr/local/hadoop/
    bin
    etc
    include
    lib
    libexec
    LICENSE.txt
    NOTICE.txt
    bb
    README.txt
    sbin
    share
    aa
    ...
     
    2.3 格式化
     
    hadoop]# cd /usr/local/hadoop/
    hadoop]# ./bin/hdfs namenode -format  //格式化 namenode
    hadoop]# ./sbin/start-dfs.sh        //启动
    hadoop]# jps        //验证角色
    11009 Jps
    10707 NameNode
    10894 SecondaryNameNode
     
    hadoop]# ./bin/hdfs dfsadmin -report    //查看集群是否组建成功
    Live datanodes (3):  //有三个角色成功
     
    #########################
    知识点整理:

    01:大数据运维:运维+大数据管理软件的技能
    指无法在一定时间内用常规软件工具进行捕捉、管理和处理数据集合,需要新处理模式才具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
    是指从各种各样类型的数据中,快速获得有价值的信息。

    大数据的作用:
    调整相关经营策略
    预测相关发展趋势
    大规模数据处理

    大数据相关特性:
    大体量:volume
    多样性:variety
    时效性:velocity
    准确性:veracity
    大价值:value

    02:Hadoop
    是一种分析和处理海量数据的软件平台,Java开发,提供分布式基础架构。
    高可靠性、高扩展性、高校性、高容错性、低成本。

    常用组件:
    HDFS:分布式文件系统(核心组件,存储)
    MapReduce0(分布式计算框架)(核心组件)
    Yarn:集群资源管理系统(核心组件,集群资源管理系统)
    Zookeeper:分布式写作服务
    Hbase:分布式列存储数据库
    Hive:基于Hadoop数据仓库
    Sqoop:数据同步工具
    Pig:基于Hadoop的数据流系统
    Mahout:数据挖掘算法库
    Flume:日志收集工具

    03:HDFS(分布式文件系统)
    Client:切分文件,访问HDFS,与NameNode交互,获取文件位置信息;与DataNode交互,读取和写入数据。

    角色:
    Namenode:Master主节点,管理HDFS的名称空间和数据块映射信息,配置副本策略,处理所有客户端请求。

    Secondarynode:主节点小秘,定期合并fsimage(数据块命名空间、存储信息)和fsedits(修改后的数据块:源数据+新数据,类似前端盘),推送给NameNode;紧急情况下,可辅助恢复NameNode。

    Datanode:数据存储节点,存储世界的数据;汇报存储信息给NameNode。

    Block:128MB,每块可以多个副本。

    HDFS结构:(NameNode一般一台)
    存数据:Client(数据切块)-> ..数据存哪..->NameNode-> ..DateNode..Client->DataNode(存储数据)
    取数据:Client(数据切块)-> ..数据在哪..->NameNode-> ..DateNode..Client->DataNode(获取数据)

    04:MapReduce结构 分布式计算框架
    把一个复杂的问题,分解成若干个简单的问题,多台机器共同计算,最终合并汇总。
    角色:
    JobTracker:切分任务段,数据总监控、错误处理等(管理节点,一台)
    TaskTracker:分单任务(多台,干活)
    Map Task:解析每条数据记录,传递给用户编写的map()并执行,将输出结果写入本地磁盘。(如果map-only)作业,直接写入HDFS)
    Reducer Task:从Map Task的执行结果中,远程读取输入数据,对数据进行排序,将数据按照分组传递给用户编写的reduce函数执行。

    05:Yarn结构:Hadoop的一个通用资源管理系统
    角色:
    ResourceManager:Master,皇上,处理客户端请求,启动、监控ApplicationMaster,监控NodeManager,资源分配与调度。

    NodeManager:钦差大臣,皇上安排的助手,每个结点上资源管理,处理ResourceManager的命令,处理来自ApplicationMaster的命令。(每个ApplicationMaster有多个Container在NodeMaster上运行)

    ApplicationMaster:数据切分,为应用程序申请资源,并分配给内部任务,任务监控与容错(表示每个应用)。

    Container:对任务运行环境的抽象,封装了CPU、内存等;多维资源以及环境变量、启动命令等任务运行相关的信息资源分配与调度。

    06:Hadoop三种模式
    单机模式:一台机器部署
    伪分布式:所有的角色都安装在一台机器上,学习和测试(类似数据库的多实例)
    完全分布式:多台机器部署

    ##########################

    完全分布式  节点管理  NFS网关
    1.安装与部署
    对mapred和yarn文件进行配置
    验证访问Hadoop
     
    在六十准备好的环境下给master (nn01)主机添加ResourceManager的角色,在node1,node2,node3上面添加NodeManager的角色
    图片
    1.1 安装与部署hadoop
     
    1)配置mapred-site(nn01上面操作)
    nn01 ~]# cd /usr/local/hadoop/etc/hadoop/
    hadoop]# mv mapred-site.xml.template mapred-site.xml
    hadoop]# vim mapred-site.xml
    <configuration>
    <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
     
    2)配置yarn-site(nn01上面操作)
    hadoop]# vim yarn-site.xml
    <configuration>
    <!-- Site specific YARN configuration properties -->
    <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>nn01</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
     
    3)同步配置(nn01上面操作)
    hadoop]# for i in {22..24}; do rsync -aSH --delete /usr/local/hadoop/ 192.168.1.$i:/usr/local/hadoop/  -e 'ssh' & done
    [1] 712
    [2] 713
    [3] 714
     
    4)验证配置(nn01上面操作)
    hadoop]# cd /usr/local/hadoop
    hadoop]# ./sbin/start-dfs.sh
    Starting namenodes on [nn01]...
     
    hadoop]# ./sbin/start-yarn.sh
    ...out...
     
    hadoop]# jps                           //nn01查看有ResourceManager
    10707 NameNode
    11748 Jps
    11484 ResourceManager
    10894 SecondaryNameNode
     
    hadoop]# ssh node1(2,3) jps //node1查看有NodeManager
    10368 Jps
    10262 NodeManager
    10073 DataNode
     
    5)web访问hadoop
    http://192.168.1.21:50070/      //--namenode web页面(nn01)
    http://192.168.1.21:50090/      //--secondory namenode web页面(nn01)
    http://192.168.1.22:50075/      //--datanode web页面(node1,node2,node3)
    http://192.168.1.21:8088/      //--resourcemanager web页面(nn01)
    http://192.168.1.22:8042/      //--nodemanager web页面(node1,node2,node3)
     
    2. Hadoop词频统计
    在集群文件系统里创建文件夹
    上传要分析的文件到目录中
    分析上传文件
    展示结果
     
    2.1 词频统计
     
    hadoop]# ./bin/hadoop fs -ls /  //查看集群文件系统的根,没有内容
    hadoop]# ./bin/hadoop fs -mkdir /aaa
    //在集群文件系统下创建aaa目录
    hadoop]# ./bin/hadoop fs -ls /    //再次查看,有刚创建的aaa目录
    Found 1 items
    drwxr-xr-x   - root supergroup   0 2019-03-02 18:08 /aaa
     
    hadoop]# ./bin/hadoop fs -touchz /fa    //在集群文件系统下创建fa文件 "-touchz"
    hadoop]# ./bin/hadoop fs -put *.txt /aaa     
    //上传*.txt到集群文件系统下的aaa目录
    hadoop]# ./bin/hadoop fs -ls /aaa/    //查看
    Found 3 items
    -rw-r--r--  2 root supergroup   86424 2019-03-02 18:09 /aaa/LICENSE.txt
    -rw-r--r--  2 root supergroup   14978 2019-03-02 18:09 /aaa/NOTICE.txt
    -rw-r--r--  2 root supergroup    1366 2019-03-02 18:09 /aaa/README.txt
     
    hadoop]# ./bin/hadoop fs -get /aaa  //下载集群文件系统的aaa目录
    hadoop]# ls (nn01本地有下载的aaa文件夹)
     
    //分析hadoop集群/aaa里的数据存到hadoop集群/bbb下
    hadoop]# ./bin/hadoop jar
    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar wordcount /aaa /bbb    
     
    //查看集群里的数据,统计出现的次数
    hadoop]# ./bin/hadoop fs -cat /bbb/*
     
    3. 节点管理
    增加一个新的节点
    查看状态
    删除节点
     
    另外准备两台主机,node4和nfsgw,作为新添加的节点和网关图片

    3.1 增加节点

    1)增加一个新的节点node4
    node4 ~]# yum -y install rsync
    node4 ~]# yum -y install java-1.8.0-openjdk-devel
    node4 ~]# mkdir /var/hadoop
    nn01 ~]# ssh-copy-id 192.168.1.25

    nn01 ~]# vim /etc/hosts
    192.168.1.21 nn01
    192.168.1.22 node1
    192.168.1.23 node2
    192.168.1.24 node3
    192.168.1.25 node4
    nn01 ~]# scp /etc/hosts 192.168.1.25:/etc/

    nn01 ~]# cd /usr/local/hadoop/
    hadoop]# vim ./etc/hadoop/slaves
    node1
    node2
    node3
    node4

    //同步配置 (jobs -l 确保node4同步完成!)
    hadoop]# for i in {22..25}; do rsync -aSH --delete /usr/local/hadoop/
    192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
    [1] 12375
    [2] 12376
    [3] 12377
    [4] 12378
    node4 hadoop]# ./sbin/hadoop-daemon.sh start datanode //node4启动

    2)查看状态
    node4 hadoop]# jps
    12470 Jps
    12396 DataNode

    3)设置同步带宽 #其他NN将数据匀一部分过来,匀数据的时候不能占用所有带宽
    node4 hadoop]# ./bin/hdfs dfsadmin -setBalancerBandwidth 60000000
    Balancer bandwidth is set to 60000000
    node4 hadoop]# ./sbin/start-balancer.sh
    starting balancer...
    nn01 hadoop]# ./bin/hdfs dfsadmin -report #查看状态
    Live datanodes (4):...(有node4)

    4)删除节点
    nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/slaves
    //去掉之前添加的node4
    node1
    node2
    node3

    nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
    //在此配置文件里面加入下面四行
    ...
    <property> 
            <name>dfs.hosts.exclude</name>
            <value>/usr/local/hadoop/etc/hadoop/exclude</value>
    </property>
    nn01 hadoop]# vim /usr/local/hadoop/etc/hadoop/exclude
    node4

    5)导出数据
    nn01 hadoop]# ./bin/hdfs dfsadmin -refreshNodes
    Refresh nodes successful

    nn01 hadoop]# ./bin/hdfs dfsadmin -report  #等待
    //查看node4,不要动机器,等待node4显示Decommissioned

    Dead datanodes (1):
    Name: 192.168.1.25:50010 (node4)
    Hostname: node4
    Decommission Status : Decommissioned... #显示Decommissioned 才可以

    node4 hadoop]# ./sbin/hadoop-daemon.sh stop datanode //停止datanode
    stopping datanode

    node4 hadoop]# ./sbin/yarn-daemon.sh start nodemanager
    //yarn 增加 nodemanager
    node4 hadoop]# jps
    10342 NodeManager
    10446 Jps

    node4 hadoop]# ./sbin/yarn-daemon.sh stop nodemanager //停止nodemanager
    stopping nodemanager  #jps 将没有NodeManager

    node4 hadoop]# ./bin/yarn node -list
    //yarn 查看节点状态,还是有node4节点,要过一段时间才会消失
    19/03/02 18:40:27 INFO client.RMProxy: Connecting to ResourceManager at nn01/192.168.1.21:8032
    Total Nodes:4
    Node-Id Node-StateNode-Http-AddressNumber-of-Running-Containers
    node2:36669 RUNNING node2:8042 0
    node4:38698 RUNNING node4:8042 0
    node3:36146 RUNNING node3:8042 0
    node1:34124 RUNNING node1:8042 0

    4.NFS配置
    创建代理用户
    启动一个新系统,禁用Selinux和firewalld
    配置NFSWG
    启动服务
    挂载NFS并实现开机自启

    4.1 基础准备

    1)更改主机名,配置/etc/hosts(/etc/hosts在nn01和nfsgw上面配置)
    localhost ~]# echo nfsgw > /etc/hostname 
    localhost ~]# hostname nfsgw

    nn01 ~]# ssh-copy-id 192.168.1.26

    nn01 hadoop]# vim /etc/hosts
    192.168.1.21 nn01
    192.168.1.22 node1
    192.168.1.23 node2
    192.168.1.24 node3
    192.168.1.25 node4
    192.168.1.26 nfsgw

    2)创建代理用户(nn01和nfsgw上面操作),以nn01为例子
    nn01 hadoop]# groupadd -g 200 nfs
    nn01 hadoop]# useradd -u 200 -g nfs nfs

    3)配置core-site.xml
    nn01 hadoop]# ./sbin/stop-all.sh //停止所有服务
    This script ...

    nn01 hadoop]# cd etc/hadoop
    nn01 hadoop]# >exclude
    nn01 hadoop]# vim core-site.xml #添加
    <property>
         <name>hadoop.proxyuser.nfs.groups</name>
         <value>*</value>
    </property>
    <property>
          <name>hadoop.proxyuser.nfs.hosts</name>
          <value>*</value>
    </property>

    4)同步配置到node1,node2,node3
    nn01 hadoop]# for i in {22..24}; do rsync -aSH --delete /usr/local/hadoop/ 192.168.1.$i:/usr/local/hadoop/ -e 'ssh' & done
    [4] 2722
    [5] 2723
    [6] 2724 #jobs -l 确保同步完成!

    5)启动集群
    nn01 hadoop]# /usr/local/hadoop/sbin/start-dfs.sh

    6)查看状态
    nn01 hadoop]# /usr/local/hadoop/bin/hdfs dfsadmin -report
    Live datanodes (3):... #恢复到3

    4.2 NFSGW配置

    1)安装java-1.8.0-openjdk-devel和rsync
    nfsgw ~]# yum -y install java-1.8.0-openjdk-devel
    nfsgw ~]# yum -y install rsync

    nn01 hadoop]# rsync -avSH --delete  
    /usr/local/hadoop/ 192.168.1.26:/usr/local/hadoop/ -e 'ssh'

    2)创建数据根目录 /var/hadoop(在NFSGW主机上面操作)
    nfsgw ~]# mkdir /var/hadoop

    3)创建转储目录,并给用户nfs 赋权
    nfsgw ~]# mkdir /var/nfstmp
    nfsgw ~]# chown nfs:nfs /var/nfstmp

    4)给/usr/local/hadoop/logs赋权(在NFSGW主机上面操作)
    nfsgw ~]# setfacl -m u:nfs:rwx /usr/local/hadoop/logs
    nfsgw ~]# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml #新添加
    <property>
          <name>nfs.exports.allowed.hosts</name>
          <value>* rw</value>
    </property>
    <property>
          <name>nfs.dump.dir</name>
          <value>/var/nfstmp</value>
    </property>

    5)可以创建和删除即可
    nfsgw ~]# su - nfs
    nfsgw ~]$ cd /var/nfstmp/
    nfsgw nfstmp]$ touch 1
    nfsgw nfstmp]$ ls
    1
    nfsgw nfstmp]$ rm -rf 1
    nfsgw nfstmp]$ ls

    nfsgw nfstmp]$ cd /usr/local/hadoop/logs/
    nfsgw logs]$ touch 1
    nfsgw logs]$ ls
    1 hadoop-root-secondarynamenode-nn01.log
    hadoop-root-datanode-nn01.log hadoop-root-secondarynamenode-nn01.out
    hadoop-root-datanode-nn01.out hadoop-root-secondarynamenode-nn01.out.1
    hadoop-root-namenode-nn01.log SecurityAuth-root.audit
    hadoop-root-namenode-nn01.out yarn-root-resourcemanager-nn01.log
    hadoop-root-namenode-nn01.out.1 yarn-root-resourcemanager-nn01.out

    nfsgw logs]$ rm -rf 1
    nfsgw logs]$ ls

    6)启动服务
    nfsgw ~]# /usr/local/hadoop/sbin/hadoop-daemon.sh --script ./bin/hdfs start portmap
    //portmap服务只能用root用户启动
    starting portmap, logging to /usr/local/hadoop/logs/hadoop-root-portmap-nfsgw.out

    nfsgw ~]# jps
    1091 Jps
    1045 Portmap

    nfsgw ~]# su - nfs
    nfsgw ~]$ cd /usr/local/hadoop/
    nfsgw hadoop]$ ./sbin/hadoop-daemon.sh --script ./bin/hdfs start nfs3
    //nfs3只能用代理用户启动
    tarting nfs3, logging to /usr/local/hadoop/logs/hadoop-nfs-nfs3-nfsgw.out

    nfsgw hadoop]$ jps
    1139 Nfs3
    1192 Jps

    nfsgw hadoop]# jps //root用户执行可以看到portmap和nfs3
    1139 Nfs3
    1204 Jps
    1045 Portmap

    7)实现客户端挂载(客户端可以用node4这台主机)
    node4 ~]# rm -rf /usr/local/hadoop
    node4 ~]# yum -y install nfs-utils
    node4 ~]# mount -t nfs -o
    vers=3,proto=tcp,nolock,noatime,sync,noacl 192.168.1.26:/ /mnt/
    //挂载  df -h 查看

    node4 ~]# cd /mnt/
    node4 mnt]# ls
    aaa bbb fa system tmp
    node4 mnt]# touch a
    node4 mnt]# ls
    a aaa bbb fa system tmp
    node4 mnt]# rm -rf a
    node4 mnt]# ls
    aaa bbb fa system tmp

    8)实现开机自动挂载
    node4 ~]# vim /etc/fstab
    192.168.1.26:/ /mnt/ nfs vers=3,proto=tcp,nolock,noatime,sync,noacl,_netdev 0 0 
    node4 ~]# mount -a
    node4 ~]# df -h
    192.168.1.26:/ 80G 8.2G 72G 11% /dvd

    node4 ~]# rpcinfo -p 192.168.1.26
    program vers proto port service
    100005 3 udp 4242 mountd
    100005 1 tcp 4242 mountd
    100000 2 udp 111 portmapper
    100000 2 tcp 111 portmapper
    100005 3 tcp 4242 mountd
    100005 2 tcp 4242 mountd
    100003 3 tcp 2049 nfs
    100005 2 udp 4242 mountd
    100005 1 udp 4242 mountd

    ############################
    知识点整理:

    01:Yarn:集群资源管理系统(核心组件,集群资源管理系统)
    MapReduce结构 分布式计算框架
    02:(NFS)节点管理 增加 删除 修复
    03:Yarn节点管理(NodeManager) 增加 删除
    04:NFS网关(HDFS client + NFS server)
    访问HDFS文件系统必须是HDFS客户端
    将HDFS文件系统mount到本地(使用NFSv3协议,任何机器直接能挂载)
    外部客户端要访问 HDFS文件系统,通过NFS网关,采用NFS挂载的方式,NFS网关将NFS指令转化为HDFS客户端的指令,发给HDFS client,以HDFS客户端的方式访问后端HDFS文件系统,NFS网关起到代理转发的作用。

    #######################

  • 相关阅读:
    Makefile学习(二)条件判断和内嵌函数
    Makefile学习(一)变量
    ZigBee心电传输(二)
    ZigBee心电传输(一)
    Zedboard甲诊opencv图像处理(四)
    Zedboard甲诊opencv图像处理(三)
    Zedboard甲诊opencv图像处理(二)
    linux的几个彩蛋
    Git
    lua
  • 原文地址:https://www.cnblogs.com/mkmkmk/p/12186012.html
Copyright © 2020-2023  润新知