• java使用FileSystem上传文件到hadoop分布式文件系统配置


    Configuration conf = new Configuration();

    conf.set("fs.defaultFS", "hdfs://sparkcluster");

    conf.set("dfs.nameservices", "sparkcluster");

    conf.set("dfs.ha.namenodes.sparkcluster", "nn1,nn2");

    conf.set("dfs.namenode.rpc-address.sparkcluster.nn1", "tuxedo:8020");

    conf.set("dfs.namenode.rpc-address.sparkcluster.nn2", "ecup-mgr:8020");

    conf.set("dfs.client.failover.proxy.provider.sparkcluster", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider");
    // conf.set("fs.defaultFS", "hdfs://tuxedo");
    /**
    * 参数优先级: 1、客户端代码中设置的值 2、classpath下的用户自定义配置文件 3、然后是服务器的默认配置
    */
    // conf.set("dfs.replication", "3");

    // 获取一个hdfs的访问客户端,根据参数,这个实例应该是DistributedFileSystem的实例
    fs = FileSystem.get(conf);

  • 相关阅读:
    公平锁,非公平锁,乐观锁,悲观锁
    需求分析
    需求的获取渠道
    php将中文字符串分割为数组
    面试题
    ecshop中错误
    应用上线前必须进行的10个QA测试
    资料1
    tp数据库配置
    Web开发思路
  • 原文地址:https://www.cnblogs.com/lizhonghua34/p/6652497.html
Copyright © 2020-2023  润新知