一 准备
hadop版本:1.0.3,DataNode所在的包:org.apache.hadoop.hdfs.server.datanode
学习方法:整理datanode类重要的方法、属性并理解,参考相关博客分析,最终理解datanode功能,再深入研究具体代码。
时间:2013-01-22 -- 2013-01-28
二 DataNode功能描述
DataNode是一个为分布式文件系统的调用存储数据块集的类。简单的调用就能启动一个或很多个数据节点。每个数据节点通常和一单个主节点通信,同时它也随时和客户端、其他数据节点保持通信。
数据节点存储着一系列数据块,它允许客户端去读这些数据块或者写入新的数据块。数据节点也可能收到namenode的指令,删除数据块或从其他datanodes拷贝数据块。
datanode维护着一张临界表:block->字节流
这个信息存储在本地磁盘上,数据节点在启动和每隔一段时间把这张表的内容报告给主节点。
Datanodes在它们的生命周期内维持着一个请求NameNode安排事情让他们去做。主节点不能直接和datanode连接,它只简单地返回数据节点的函数请求值。
数据节点维护着一个开放的服务socket,因此client或其他datanodes能够读/写数据。这个主机/端口会被报告给主节点,然后主节点把信息发送给感兴趣的客户端或其他数据节点。
从上面的描述我们可以看出datanode完成的功能很复杂,归纳来说大致有一下功能:启动、运行、通信、存储、安全保证。
三 DataNode如何实现其功能
1、DataNode启动
类开始,读取配置文件。
由DataNode源代码可以看出,当DataNode启动时,依次执行以下方法:
a、main(String args[]) :void // 主入口
执行b,安全的创建启动线程(datanode)方法。
b、secureMain(String[] args,SecureResources resources): void,参数args和null。
执行C,
记录DataNode启动和关闭的日志;
创建DataNode。
如果datanode不是空引用那么等待datanode线程终止。
c、StringUtils.startupShutdownMessage(DataNode.class, args, LOG);
createDataNode(String args[],Configuration conf, SecureResources resources):DataNode,参数:args, null, resources。调用instantiateDataNode(args, conf, resources);初始化DataNode,然后让数据节点在后台运行。
d、instantiateDataNode(args, conf, resources):DataNode,首先配置文件如果为空,采用默认配置,解析命令行传入参数,启动选项只允许传入-rollback和-regular如果不是,返回空;如果设置类机架配置参数("dfs.network.script"),程序退出。在这个函数里调用makeInstance(dataDirs, conf, resources)实例化DataNode。
e、makeInstance(String[] dataDirs, Configuration conf, SecureResources resources):DataNode
- 通过conf,设置用户组信息
- 通过conf,获取本地文件系统
- 通过conf,获取文件系统的权限问题,通过org.apache.hadoop.fs.permission包提供
- 通过DiskChecker检查目录,首先检查存在并创建目录,然后验证权限。
- 通过DataNode构造方法,创建DataNode实例。
f、 DataNode(final Configuration conf, final AbstractList<File> dataDirs, SecureResources resources)
构造方法。
- 使用安全工具类的SecurityUtil.login(conf, FSConfigKeys.DFS_DATANODE_KEYTAB_FILE_KEY,
DFSConfigKeys.DFS_DATANODE_USER_NAME_KEY)方法登录,如果提供类keytab文件,那么用那个用户登录。用当前主机动态寻找完全符合的域名用户的Kerberos替代$host。用户所在文件的配置参数为“dfs.datanode.keytab.file”,用户名的配置参数为"dfs.datanode.kerberos.principal",配置可参考《hadoop 添加kerberos认证》这篇文章。这也是以往在配置hadoop的时候一直不知道如何制定hadoop的权限问题,这回大致知道了解了一些。
- 获取当前DataNode的引用,datanodeObject;
- 获取supportAppends。
- 启动datanode。方法:startDataNode(conf,dataDirs,resouces);
g、startDataNode(Configuration conf, AbstractList<File> dataDirs, SecureResources resources):void
- 如果用户组信息登录权限为真,安全资源为空,抛出运行异常(不能在没有权限的情况下启动集群)
- 通过conf.get("slave.host.name"),获取主机名;
- 执行NameNode.getServiceAddress(conf, true),获取主节点InetSocketAddress地址,获取配置文件中fs.default.name指定的IP和端口;
- 通过conf获取socket超时时间,超时写入时间,写入包的大小
- 执行DataNode.getStreamingAddr(conf),获取数据节点InetSocketAddress地址,获取端口号。
- 初始化DATASTORAGE。
- 注册数据节点,格式为主机名:端口号
- 连接到namenode,采用方法:RPC.waitForProxy(DatanodeProtocol.class, DatanodeProtocol.versionID, nameNodeAddr, conf);通过Hadoop的RPC机制与NameNode进行连接,获取namenode变量,这是DataNode与NameNode进行交互的工具,这个方法我没理解namenode怎么去判断是哪个datanode去连接的它,通过conf吗?
- 获取版本和id;
- 从配置文件读取DataNode启动选项,获取DataNode启动的模式是regular还是format,如果是第一次启动必须指定format,不指定默认是regular。有以下这几种选项
FORMAT ("-format"),
REGULAR ("-regular"),
UPGRADE ("-upgrade"),
ROLLBACK("-rollback"),
FINALIZE("-finalize"),
IMPORT ("-importCheckpoint");
在parseArguments方法中,通过读取命令行参数,然后把它写入配置文件,在这边又从配置文件读出来。
- 判定是否为伪分布式存储参数配置的处理,存储信息读取,恢复,调节和初始化。
- 利用ServerSocket把服务器绑定到datanode的socket地址,并设置接收缓存大小为128K。(侦听、接受请求、关闭等都在DataXceiverServer这个类处理,DataNode只负责创建ServerSocket)
- 建立dataXceiverServer线程组,this.threadGroup = new ThreadGroup("dataXceiverServer");
- 后台运行DataXceiverServer(见另一篇文章《hadoop源代码分析(2)-hdfs.server.datanode包-DataXceiverServer类【原创】》)
a、并把它加入threadGroup线程组,同时启动ServerSoceket的accpet()方法,侦听并接受来自客户端或其他服务器的连接请求。
b、后台运行DataXceiver,读取sockets,并执行DataXceiver.run()方法,读取数据。
- 下面就是初始化基本属性,如块报告间隔时间、块延迟报告时间,心跳间隔时间,这些都是从配置文件获取。
- 初始化DataBlockScanner(数据块扫描器)按照如下规则:
a、读取dfs.datanode.scan.period.hours,如果值小于0,那么说明verification被关闭,
b、如果data不是FSDataset的实例,那么说明不支持FSDataset。
c、如果上面两者都不时,那么就数据块扫描器初始化。
- 创建servlet为http服务,内部用jetty实现,用于对页面的监控。
a、用HttpServer构造方法创建http服务器,根据secureResource是否为空采取不同的服务方式;
b、检查https协议是否可用,默认为不可用,若可用,读取客户端权限(默认为不设权限),https地址,新增ssl配置文件:ssl-server.xml。服务器开始监听ssl。不可用,下一步。
c、把多个sevlets加入服务器(StreamFile,FileChecksumServlets.GetServlet,DataBlockScanner.Servlet.)里举个具体实现的例子:如把StreamFile加入jetty:this.infoServer.addInternalServlet(null, "/streamFile/*", StreamFile.class);代码是将HADOOP_HOME\webapp下面的treamFile目录作为了jetty的默认Context。
d、调用setAttribute方法设置属性,datanode,datanode.blockScanner
e、判断wedhdfs文件系统是否可用,选择把相关的包加入到JerseyResource
f、启动HttpServer。this.infoServer.start();
g、把当前服务器端口加入注册信息。
h、创建DataNode运行时记录信息的对象。myMetrics = DataNodeInstrumentation.create(conf, dnRegistration.getStorageID());
i、获取服务权限并更新。
j、初始化slave mode 的blockTokenSecretManager。
k、开启ipc服务。
这就是整个DataNode的启动顺序,整个过程还是比较复杂的,特别时要理清为什么每个步骤怎么做,还需要对hadoop框架及流程更加清晰才有可能。
2、DataNode运行
--------------------------------------------------待续-----------------
3、DataNode通信
--------------------------------------------------待续-----------------
4、DataNode数据块存储
--------------------------------------------------待续-----------------
5、DataNode安全保证
--------------------------------------------------待续-----------------
四 DataNode主要方法、属性分析
A:属性
1、datanode给namenode报告数据块的时间。
1 /**
2 * 当数据块报告要花费很长时间时,开始记录日志时间的初始值,在硬盘高负载和内存压力下,
3 *几分钟的数据块报告是正常现象,因为他们会引发很多硬盘检索。
4 */
5 private static final long LATE_BLOCK_REPORT_WARN_THRESHOLD =
6 10 * 60 * 1000; // 10m
7 private static final long LATE_BLOCK_REPORT_INFO_THRESHOLD =
8 3 * 60 * 1000; // 3m
9 // 正常情况下3min开始记录日志,警告时,10min开始记录日志
2、其他一些属性
/** * 数据节点协议 */ public DatanodeProtocol namenode = null; /** * 在数据节点上存储数据块的磁盘接口(分为分布式和伪分布式) */ public FSDatasetInterface data = null; /** * 数据节点注册信息 */ public DatanodeRegistration dnRegistration = null; volatile boolean shouldRun = true; /** * 记录DN接受到的数据块的链表,通过该数据结构向NN报告接收到的block的信息 */ private LinkedList<Block> receivedBlockList = new LinkedList<Block>(); /** * 后台运行数据块接收服务器,启动ServerSoceket的监听以及接受 */ Daemon dataXceiverServer = null; /** * java.lang中的线程组 */ ThreadGroup threadGroup = null; /** * 块报告间隔时间 */ long blockReportInterval; //disallow the sending of BR before instructed to do so long lastBlockReport = 0; boolean resetBlockReportTime = true; /** * 块报告延迟时间 */ long initialBlockReportDelay = BLOCKREPORT_INITIAL_DELAY * 1000L; long lastHeartbeat = 0; /** * 心跳间隔时间 */ long heartBeatInterval; private DataStorage storage = null; /** * HttpServer:创建一个能用jetty服务器响应http请求。 */ private HttpServer infoServer = null; /** * 记录DN的运行过程中的一些信息 */ DataNodeInstrumentation myMetrics; /** * 主要是DataNode和DataNode之间recover block时使用 * 管理不同DN之间进行数据传输 */ public Server ipcServer;
3、DataNode用到的配置文件参数:
参数 | 表示含义 |
dfs.https.enable | 是否启用https服务 |
dfs.https.need.client.auth | https服务是否需要检查客户端权限,默认为false |
dfs.datanode.https.address | https地址 |
dfs.datanode.scan.period.hours | 数据块扫描阶段间隔时间 |
dfs.heartbeat.interval | 心跳报告间隔时间(设置时用s表示,内部转换为ms) |
dfs.blockreport.initialDelay | 初始化数据块报告延迟时间设置时用s表示,内部转换为ms) |
dfs.blockreport.intervalMsec | 数据块报告间隔时间(ms) |
dfs.datanode.simulateddatastorage | 是否伪分布式存储(true/flase) |
dfs.datanode.transferTo.allowed | 是否允许传输(true/false) |
dfs.datanode.socket.write.timeout | 套接字写入超时时间(ms) |
dfs.socket.timeout | 套接字超时时间(ms) |
dfs.datanode.dns.interface | |
dfs.datanode.dns.nameserver | |
slave.host.name | slave主机名 |
dfs.support.append | |
dfs.datanode.artificialBlockReceivedDelay | 允许推迟发送blockReceived RPCs信号时间 |
dfs.https.need.client.auth | |
dfs.https.server.keystore.resource | ssl认证的资源,ssl-server.xml |
dfs.datanode.https.address | |
dfs.https.enable | |
hadoop.security.authorization | hadoop权限认证 |
dfs.datanode.ipc.address | ipc地址 |
dfs.datanode.handler.count | datannode节点的指令信息 |
B:方法
1、注册数据节点的 MXBean,用Mbean.Register()。Mbean描述一个可管理的资源,是一个java对象,必须是共用的,非抽象的类,至少有一个共用的 构造器,必须实现它自己的相应的MBean接口。注册MBean:MBeanServer的主要职责时在一个JMX代理中维护一个MBean的注册。 MBean是JMX(Java Management Extensions)针对每一个需要管理的资源创建的实例时JMX框架所要求的。(不是很理解)
1 private ObjectName mxBean = null; 2 /** 3 * Register the DataNode MXBean using the name 4 * "hadoop:service=DataNode,name=DataNodeInfo" 5 */ 6 void registerMXBean(Configuration conf) { 7 // We wrap to bypass standard mbean naming convention. 8 // This wraping can be removed in java 6 as it is more flexible in 9 // package naming for mbeans and their impl. 10 mxBean = MBeans.register("DataNode", "DataNodeInfo", this); 11 }
五 DataNode相关类、接口简述
1、DataBlockScanner:数据块扫描器。
2、DataXceiverServer:见《hadoop源代码分析(2)-hdfs.server.datanode包-DataXceiverServer类【原创】》。
3、相关类:DatanodeRegistration,这个类主要用于,当Datanode向Namenode发送注册信息时,它要向Namenode提供一些自己的注册信息。
4、相关类:ServiceAuthorizationManager
5、相关类:RPC。这个要系统地学习了hadoop ipc协议后,理解的才比较透彻。
6、相关类:StreamFile,在方法addInternalServlet(null, "/streamFile/*", StreamFile.class);中,把Stream加入服务器。
7、相关类:FileChecksumServlets,在方法this.infoServer.addInternalServlet(null, "/getFileChecksum/*",
FileChecksumServlets.GetServlet.class);中,把FileChecksumServlets加入服务器。
8、相关类:DataNodeInstrumentation,记录DataNode运行时相关信息。
9、相关类:BlockTokenSecretManager, 数据块符号管理器有两种实例模式,master mode和slave mode。master模式能生成新的数据块键并且输出数据块键给slave模式,但是slave模式只能导入或者使用从maste收到的数据块键。这两种模式都能都生成和修改数据块符号。master mode--NN,slave mode--DN。
10、实现InterDatanodeProtocol, ClientDatanodeProtocol, FSConstants, Runnable, DataNodeMXBean等接口。FSConstants定义跟文件系统相关的常量。
11、相关类HttpServer。HttpServer类用来创建一个内嵌的Jetty服务器来响应http请求。首要目标是为服务器提供状态信息。有三种上下文方式:"/logs/" ->指向日志目录;“/static/" -> 指向(src/webapps/static);" / " -> the jsp server code from (src/webapps/<name>);
六 结语
原文出处:http://www.cnblogs.com/caoyuanzhanlang
草原战狼淘宝小店:http://xarxf.taobao.com/ 淘宝搜小矮人鞋坊,主营精致美丽时尚女鞋,为您的白雪公主挑一双哦。谢谢各位博友的支持。
==========================================================================================================
=================================== 以上分析仅代表个人观点,欢迎指正与交流 ===================================
=================================== 尊重劳动成果,转载请注明出处,万分感谢 ===================================
==========================================================================================================