• 【hadoop2.6.0】利用JAVA API 实现数据上传


      原本的目的是想模拟一个流的上传过程,就是一边生成数据,一边存储数据,因为能用上HADOOP通常情况下原本数据的大小就大到本地硬盘存不下。这一般是通过把数据先一部分一部分的缓冲到本地的某个文件夹下,hdfs把缓冲文件夹中的文件一点一点上传,并把上传了的缓冲文件删除。

      我这里没有实现数据的分次生成,而是直接用了一个文件,上传的时候模拟缓存一点一点上传。

    代码如下:保存为Read2.java

    import java.io.File;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FSDataInputStream;
    import org.apache.hadoop.fs.FSDataOutputStream;
    import org.apache.hadoop.fs.FileStatus;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    
    public class Read2{
            public static void main(String [] args)throws Exception{
                    Configuration conf = new Configuration();
                    FileSystem hdfs = FileSystem.get(conf);
                    FileSystem local=FileSystem.getLocal(conf);
                    Path inputDir = new Path("/home/data/"); //获取本地待被上传的文件 会把该文件夹下的内容都上传
                    Path hdfsFile = new Path("/acceptFile/"); //获取hdfs上需要获取文件的地址
                    hdfs.mkdirs(hdfsFile); //在hdfs上新建该文件夹
                    FileStatus[] inputFiles=local.listStatus(inputDir); //获取本地待上传文件夹的信息
                    FSDataOutputStream out;
                    for(int i = 0; i < inputFiles.length; i++) //i循环本地文件夹内的文件个数
                    {
                            System.out.println(inputFiles[i].getPath().getName());
                            FSDataInputStream in = local.open(inputFiles[i].getPath());  //获取输入流
                            out = hdfs.create(new Path("/acceptFile/"+inputFiles[i].getPath().getName())); //输出流位置获取
                            byte buffer[] = new byte[256];
                            int bytesRead = 0;
                            while((bytesRead = in.read(buffer))>0){ //每次读取buffer大小的部分
                                    out.write(buffer,0,bytesRead); //每次写入buffer中bytesRead大小的部分
                            }
                            out.close();
                            in.close();
                    }
            }
    }

    代码的运行经过前面的例子已经很熟悉了

    bin/hadoop com.sun.tools.javac.Main Read2.java
    jar cf read2.jar Read2*.class
    bin/hadoop jar read2.jar Read2

    结果:

    我本地文件夹下有一个文件,成功的被上传了

  • 相关阅读:
    Redis:五、Redis持久化
    Redis:四、jedis连接redis服务器
    Redis:三、Key和Value
    php 拆分的 string里包含“2”或“1”符号(“”或者“”)
    清除float浮动
    js 判断数据类型
    form表单里target属性(在新窗口打开页面)
    think PHP5实现文件下载
    echarts自定义提示框内容
    Chrome浏览器不支持小于12px的字体大小
  • 原文地址:https://www.cnblogs.com/dplearning/p/4195181.html
Copyright © 2020-2023  润新知