• 学习进度笔记11


    今天完成了老师布置的spark实验报告,其内容包含了spark的安装以及一些基本命令的操作:

    Spark 编程基础(Scala 版)》

    实验 3 Spark Hadoop 的安装

    一、实验目的

    1)掌握在 Linux 虚拟机中安装 Hadoop Spark 的方法;

    2)熟悉 HDFS 的基本使用方法;

    3)掌握使用 Spark 访问本地文件和 HDFS 文件的方法。

    二、实验平台

    操作系统:Ubuntu16.04

    Spark 版本:2.1.0

    Hadoop 版本:2.7.1

    三、实验内容和要求

    1.安装 Hadoop Spark

    进入 Linux 系统,参照本教程官网“实验指南”栏目的“Hadoop 的安装和使用”,完

    Hadoop 伪分布式模式的安装。完成 Hadoop 的安装以后,再安装 SparkLocal 模式)。

    2HDFS 常用操作

    使用 hadoop 用户名登录进入 Linux 系统,启动 Hadoop,参照相关 Hadoop 书籍或网络资料,或者也可以参考本教程官网的“实验指南”栏目的“HDFS 操作常用 Shell 命令”,

    使用 Hadoop 提供的 Shell 命令完成如下操作:

    (1) 启动 Hadoop,在 HDFS 中创建用户目录/user/hadoop”;

     

    (2) Linux 系统的本地文件系统的/home/hadoop”目录下新建一个文本文件test.txt,并在该文件中随便输入一些内容,然后上传到 HDFS /user/hadoop”目录下; 

     

     

     

     

     3 HDFS /user/hadoop”目录下的 test.txt 文件,下载到 Linux 系统的本地文件系统中的/home/hadoop/下载”目录下; 

     

     

     

     

     (4) HDFS/user/hadoop”目录下的test.txt文件的内容输出到终端中进行显示;

     (5)  HDFS 中的/user/hadoop”目录下,创建子目录 input,把 HDFS /user/hadoop”目录下的 test.txt 文件,复制到/user/hadoop/input”目录下; 

     

     

     

     6 删除HDFS/user/hadoop”目录下的test.txt文件,删除HDFS/user/hadoop目录下的 input 子目录及其子目录下的所有内容。

     

     

     

     3. Spark 读取文件系统的数据

    1)在 spark-shell 中读取 Linux 系统本地文件/home/hadoop/test.txt”,然后统计出文件的行数;

     2)在 spark-shell 中读取 HDFS 系统文件/user/hadoop/test.txt”(如果该文件不存在,请先创建),然后,统计出文件的行数;

     

  • 相关阅读:
    node下运行ts
    npm的一些基本配置设置
    windws 安装jdk
    java jdbc连接mysql
    struts2+jquery 实现ajax登陆
    struts2 零配置
    java 生成UUID
    ubuntu 换源
    ubuntu下安装redis
    安装 vsftpd
  • 原文地址:https://www.cnblogs.com/lijiawei1-2-3/p/14285827.html
Copyright © 2020-2023  润新知