• spark学习进度03(入门案例、sparkshell本地文件读取,hdfs读取、本地运行、提交运行)


    一、编写spark代码的几种方式:

    (主要看重的方面:1、观察数据集  2、编写代码测试数据集  3、固化代码、提交集群运行上线)

    1、spark-shell

        (数据集的探索、测试)

    Spark shell 简介
    • 启动 Spark shell
      进入 Spark 安装目录后执行 spark-shell --master master 就可以提交Spark 任务

    • Spark shell 的原理是把每一行 Scala 代码编译成类, 最终交由 Spark 执行

    1.1读取本地文件

    步骤一:

     步骤二:

     步骤三:

     注意事项:

     运行的结果如下:

     退出scala操作是:

     

    1.2读取hdfs

    删除当前文件夹中的文件:

     hdfs上创建新的文件夹:

     将文件上传到hdfs:

     HDFS操作如下:

  • 相关阅读:
    关于树及其各种操作
    正交矩阵与齐次矩阵
    矩阵的行列式与矩阵的逆
    线性变换
    矩阵
    向量的运算
    求两直线的交点
    微任务防抖
    二项分布
    二项式定理
  • 原文地址:https://www.cnblogs.com/dazhi151/p/14249047.html
Copyright © 2020-2023  润新知