• hadoop 学习(四)之java操作hdfs


    1、导入hadoop jar包

    将hadoop/share/common/目录、hadoop/share/common/lib/目录、hadoop/hdfs/目录、下的jar包加入eclipse。

    2、开始编码调用

    static FileSystem  fs=null;
        public static  void main(String[] args) throws Exception {
            // TODO Auto-generated method stub
            init();        
            testUpload();
        }
        
        
        public static void init() throws Exception{
            fs=FileSystem.get(new URI("hdfs://192.168.1.7:9000"), new  Configuration(),"hadoop");
            
        }
        
        /**
         * 将本地文件复制到hdfs文件系统里面
         * @throws Exception
         * @throws IOException
         */
    
        public static void testUpload() throws Exception, IOException{
            OutputStream remote= fs.create(new Path("/uploadjdk"));
            FileInputStream local=new FileInputStream("c://jdk.rar");
            IOUtils.copyBytes(local, remote,4096,true);
        }
        
        /**
         * 从hdfs文件系统里面下载文件 
         * @throws Exception
         * @throws IOException
         */
        
        public void testDownload() throws Exception, IOException{
            InputStream in= fs.open(new Path("/eclipse-SDK-4.3.1-linux-gtk-x86_64.tar.gz"));
            OutputStream output=new FileOutputStream("c://jdk2.rar");
            IOUtils.copyBytes(in, output,4096,true);
        }

    testUpload 方法是将本地“c://jdk.rar”文件上传到hdfs系统根目录中并命名为uploadjdk.

    testDownload 方法是将hdfs系统中的根目录下的“eclipse-SDK-4.3.1-linux-gtk-x86_64.tar.gz”下载到本址c盘,并命名为“jdk2.rar”
    值得注意的是:hdfs://192.168.1.7:9000"地址是第二篇文章“ubuntu hadoop 2.7.0 伪分部安装”中   /usr/local/hadoop/etc/hadoop/core-site.xml 文件中配置的地址。如果配置的为

    "hdfs://localhost:9000" 需要将其更改为实际机器IP才可以正常访问。

  • 相关阅读:
    linux时间同步ntp服务的安装与配置
    linux系统的初化始配置
    透明手机
    linux桌面的安装
    Linux中FTP服务器的搭建教程
    Linux怎样创建FTP服务器--修改用户默认目录-完美解决
    linux下vsftpd的安装及配置
    vsftpd快速部署_2018_lcf
    史上最详细的vsftpd配置文件详解2
    史上最详细的vsftpd配置文件讲解
  • 原文地址:https://www.cnblogs.com/lvlv/p/4496299.html
Copyright © 2020-2023  润新知