• 学习进度-01


    首先对一些spark的基本知识进行了学习

    spark的基本工作原理是:将spark的程序提交到spark集群上,在Hadoop的HDFS或者Hive上读取数据,读取的数据存放在各个spark的节点上,分布式的存放在多个节点上,主要在每个节点的内存上,这样可以加快速度。
    对节点的数据进行处理,处理后的数据存放在其他的节点的内存上。对数据的 计算操作针对多个节点上的数据进行并行操作。处理之后的数据可以到hadoop或者mysql或hbase中,或者结果直接返回客户端。每一批处理的数据就是一个RDD

    Hadoop 是基于磁盘的大数据计算框架  ,Spark是基于内存计算的大数据并行计算框架

     spark架构:

    通过写实验一把Linux 系统常用命令又熟悉了一遍

    (1)切换到目录 /usr/bin :  $ cd /usr/bin

      (2) 查看目录/usr/local 下所有的文件:$cd /usr/local     $ls -al

    (3)进入/usr 目录,创建一个名为 test 的目录,并查看有多少目录存在:$ cd /usr   $ mkdir test    $ ls -al

    (4)在/usr 下新建目录 test1,再复制这个目录内容到/tmp:$ cd /usr   $ mkdir test1   $ sudo cp -r /usr/test1 /tmp

    (5)将上面的/tmp/test1 目录重命名为 test2:$ sudo mv /tmp/test1 /tmp/test2

    (6)在/tmp/test2 目录下新建 word.txt 文件并输入一些字符串保存退出:$ cd /tmp/test2     $ vim word.txt

    (7)查看 word.txt 文件内容:$ cat /tmp/test2/word.txt

    (8)将 word.txt 文件所有者改为 root 帐号,并查看属性:$ sudo chown root /tmp/test2/word.txt        $ ls -l /tmp/test2/word.txt

    (9)找出/tmp 目录下文件名为 test2 的文件:$ sudo find /tmp -name test2

    (10)在/目录下新建文件夹 test,然后在/目录下打包成 test.tar.gz:$ sudo mkdir /test     $ sudo tar -zcv -f /test.tar.gz test

    (11)将 test.tar.gz 解压缩到/tmp 目录:$ sudo tar -zxv -f /test.tar.gz -C /tmp

  • 相关阅读:
    JavaScrip t将单词的字母按大小写间隔写出
    JavaScript将数组包含某字符串内容的项组成新数组
    JavaScript找出唯一不同的数字
    JavaScript将数组变成电话号码
    JavaScript数组查找是否包含某些字符串
    JavaScript 找出整数的约数
    Excel导出
    yii打印sql
    yii使用createCommand()增删改查
    yii 图片展示
  • 原文地址:https://www.cnblogs.com/zhaoxinhui/p/12249089.html
Copyright © 2020-2023  润新知