• 寒假学习第四天


    今天进行了Spark的安装。

    1.1 下载安装包
    进入Scala下载页面,下拉,找到tgz包

    右击,复制链接如下
    https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz
    在master的命令行中输入:
    wget https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz

    2 安装Spark
    2.1 下载安装包

    复制结果如下:http://mirrors.shu.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz
    输入命令:wget http://mirrors.shu.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz


    2.2 解压
    输入命令:tar zxf spark-2.4.0-bin-hadoop2.7.tgz

    2.3 迁移目录
    输入命令:sudo mv spark-2.4.0-bin-hadoop2.7 /usr/local/spark/

    2.4 配置环境变量
    输入命令:sudo gedit ~/.bashrc
    添加如下配置
    使配置生效,输入命令:source ~/.bashrc

    3.1HDFS常用操作
    上传文件
      hdfs dfs -put src… dest (从本地的src位置上传到HDFS的dest位置,src可以有多个,空格隔开)

    复制文件
      hdfs dfs -copyFromLocal src… dest (复制文件,从src位置复制到dest 位置,src可以有多个,空格隔开)

    移动文件(剪切)
      hdfs dfs -moveFromLocal src… dest (移动文件,从src移动到dest位置)
     
    创建新目录
      hdfs dfs -mkdir /test
      hdfs dfs -mkdir -p /test/luo (级联创建)

    往文件中追加信息
      hdfs dfs -appendToFile cba /test/t1 (把cba的内容追加到/test文件夹下的t1文件中)

    查看文件内容
      hdfs dfs -cat /test/t1 (查看/test文件夹下的t1文件)

    更改文件的属组
      hdfs dfs -chgrp nb /test/t1 (把t1 文件的属组改为nb)
      hdfs dfs -R -chgrp nb /test/t1 (递归修改)

    更改文件的权限
      hdfs dfs -chmod -R 777 /luo (/luo的权限改为777)

    更改文件的属主及属组
      hdfs dfs -chown -R luo:zzz /luo

    将HDFS上的文件复制到本地
      hdfs dfs -copyToLocal /t1 ./

    查看文件系统的磁盘空间
      hdfs dfs -df -h /

  • 相关阅读:
    Spark_3:Spark集群搭建
    Spark_2:Spark 快速入门教程
    Spark快速大数据分析_11:第十一章
    Spark快速大数据分析_10:第十章
    Spark快速大数据分析_9:第九章
    Spark快速大数据分析_8:第八章
    Spark快速大数据分析_7:第七章
    Spark快速大数据分析_6:第六章
    Spark快速大数据分析_5:第五章
    java 内部类详解
  • 原文地址:https://www.cnblogs.com/lishengming00/p/12261947.html
Copyright © 2020-2023  润新知