• python with hadoop


    python with  hdfs

    hdfs 可以在 linux 本地操作

    bin/hdfs dfs -ls /foo

    但是这种只能在 命令行 操作。

    通常我们需要在程序中实现远程操作,python 是可以的。需要用到一个模块 snakebite,目前仅支持 python2

    snakebite 有两种方式远程操作 hdfs,一种是通过命令行,这里不做介绍,另一种是通过 python 脚本实现。

    仅需两步:1. 连接 hdfs;2. 执行 各种命令,只是要注意,每条操作都返回一个 Iterator,所以需要写在 for 循环中才能生效。

    python 示例

    from snakebite.client import Client
    
    client = Client('192.168.10.10', 9000)
    for x in client.ls(['/']):
        print x
    
    # client.mkdir(['/foo2'], create_parent=True)      # 没有 for 循环是不行的
    for i in client.mkdir(['/foo/f1', '/input4'], create_parent=True):  # 创建多个目录,而且 create_parent=True 确保每个目录可以是多层的
        print(i)
    ### 这个 for 循环相当于 挨个 执行创建目录的操作,如果只循环了一次,就只建一个目录
    
    client.delete(['/foo', '/input4'], recurse=True).next()                   # 删除文件或目录,而且 recurse=True 确保删除多层目录
    ### 这里只 next 了一下,只删除了 一个目录,input4 并没有被删除
    
    client.copyToLocal(['/usr/input/yanshw/README.txt'], 'e:').next() # 下载文件,下载到 e 盘当前目录,而不是搭建hadoop的服务器【文件是跑在 win 上的】
    
    print client.text(['/usr/input/yanshw/README.txt']).next()    # 显示文件,打印出了文件

    9000 是 core-site.xml 中 namenode 指定的端口号

    这里涉及到一个权限问题:我的 hadoop 集群是在 linux root 搭建的,我的脚本是在 windows 上跑的,windows 主机名 叫 HP,在 操作目录时,会提示 HP 没有权限

    当时我为了 测试 以上 API 是否有效,我把 hdfs 根目录的权限改成了 777

    bin/hdfs dfs -chmod -R 777 /

    然后我发现可以新增和删除目录了,新增的目录 owner 就是 HP

    所以,大家在 搭建 集群时就可以考虑后续远程操作的问题了。

    python with mapreduce

    用 python 写 mapreduce 完成 词频统计

    数据文件 test.txt

    python|thread|process
    python|xlrd|pyinotiy
    python|print|c++
    c++|java|php
    node.js|javascript|go

    上传至 hdfs

    bin/hadoop fs -put /usr/lib/hadoop-2.6.5/tmp/test.txt /usr/yanshw

    数据必须上传至 hdfs 才能使用

    1)mapper 文件

    import sys
    
    for line in sys.stdin:
        words = line.strip().split('|')
        for word in words:
            print word

    从 stdin 逐行读入,拆分,print,这里的 print 相当于 stdout;

    mapper 的 stdout 作为 reducer 的 stdin;

    hadoop 内部 用  hadoop steaming 实现标准输入输出,使得数据在 map 和 reduce 之间流动

    测试 mapper

    执行本地测试,确保程序正确

    cat tmp/test.txt | python mapper.py

    2)reducer 文件

    在 reduce 之前 是需要 sort 的,hadoop 内默认是 带 sort 的

    sort 其实是个 分区的过程;

    hadoop 自动把 不同的 key 发送给不同的 reducer;

    虽然 reduce 之前会 分区,sort,发送给不同的 reducer,但 编写 reducer 时,不能认为是 一个分区 的数据,还得按照多个分区进行编写,只是 数据是经过 sort 的

    import sys
    from operator import itemgetter
    from itertools import groupby
    
    def read_mapper_output(files, separator='	'):
        for line in files:
            yield line.strip().split(separator, 1)
    
    def main():
        data = read_mapper_output(sys.stdin)
        for key, data in groupby(data, itemgetter(0)):
            count = 0
            for value in data:
                count += 1
            print "{word}	{count}".format(word=key, count=count)
    
    if __name__ == '__main__':
        main()

    逐行读取 mapper 的 输出,就是一个个的单词;

    reducer 逐个累加词的 个数,如果下个词与当前词不同,就把当前词的个数 print,然后统计下个词的个数,依次直至完毕;

    测试 reducer

    cat tmp/test.txt | python mapper.py |sort|python reducer.py

    把 mapper 的输出 进行排序后再 送给 reducer;这也是 hadoop 的默认方式

    3)运行 mapreduce

    需要用 hadoop-streaming 方式来执行 python

    命令行方式

    hadoop jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar 
    -files /usr/lib/hadoop-2.6.5/mapper.py,/usr/lib/hadoop-2.6.5/reducer.py
    -mapper 'python mapper.py' -reducer 'python reducer.py'
    -input /usr/input/yanshw
    -output /usr/output/yanshuw2

    解释如下

    hadoop:bin 下的 hadoop,这里设置了环境变量,所以直接 hadoop 就可以了

    jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar:运行 java streaming 程序

    -files:输入 mapper 和 reducer 的绝对路径,hadoop 会把 这俩文件上传到 datanode,用于执行

      // 也可以写 两个 -file mapper  -file reducer

      // 注意两个文件之间不能有空格

    -mapper:后面跟命令

    -reducer:后面跟命令

      // 这两个命令是执行 python 文件,如果 python 文件中带 shebang,直接写 mapper.py 即可;如果没有,需要写 'python  mapper.py',引号不能省略,无需带路径

    -input:hdfs 的输入路径

    -output:hdfs 的输出路径,这个路径不能事先存在

    完整命令

    hadoop jar /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.0.0-mr1-cdh4.1.2.jar 
            -input /ngrams 
            -output /output-streaming 
            -mapper mapper.py 
            -combiner reducer.py 
            -reducer reducer.py 
            -jobconf stream.num.map.output.key.fields=3 
            -jobconf stream.num.reduce.output.key.fields=3 
            -jobconf mapred.reduce.tasks=10 
            -file mapper.py 
            -file reducer.py

    shell 脚本方式

    编写 run.sh 来执行 mapreduce

    #!/bin/bash
    
    hadoop fs -rm -r -f /usr/output/yanshw102
    
    hadoop jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar 
    -file /usr/lib/hadoop-2.6.5/mapper2.py 
    -file /usr/lib/hadoop-2.6.5/reducer2.py 
    -mapper "python mapper2.py" 
    -reducer "python reducer2.py" 
    -input /usr/yanshw/test.txt 
    -output /usr/output/yanshw102 

    第 1 行 是删除 已经存在的 路径,这个路径用于存放 output,不能事先存在

    然后直接执行

    run2.sh

    执行结束后,下载 output

    bin/hdfs dfs -getmerge /usr/output/yanshw102  ttt

    直接打印 

    [root@hadoop10 hadoop-2.6.5]# cat ttt
    c++    2
    go    1
    java    1
    javascript    1
    node.js    1
    php    1
    print    1
    process    1
    pyinotiy    1
    python    3
    thread    1
    xlrd    1

    一张图解释 上文 的 mapreduce

    mapreduce 实例

    背景描述:两个文件,file1.txt 记录学生点击新闻的信息,file2.txt 记录活跃学生的信息;

    目标:现在有某一天的这俩个文件,统计这一天 使用  ios/android 的 活跃学生 的 总点击次数

    file1.txt

    20170001 xiaoming android 331 学费
    20170002 xiaohong ios 332 食堂
    20170003 xiaohua android 333 考研
    20170001 xiaoming android 222 评优
    20170001 xiaoming android 225 学费
    20170003 xiaohua android 111 期末考试
    20170002 xiaohong ios 117 空调安装

    file2.txt

    20170001 xiaoming 20 android
    20170002 xiaohong 19 ios
    20170001 xiaoqiang 20 android

    难点是同时利用两个文件,如何设计 key,能够很好的进行分区

    方案1:把 ios/andriod 设为 key,统计每种手机各个学生的访问量,取出活跃学生的;可以实现,但是这个 分区 之分 2 个区,效率很低

    方案2:把 学号 作为 key,统计每个学生的 不同手机的点击次数... 貌似不行

    方案3:把 ios/andriod 和 学号 作为 key,然后统计每个 key 中 学号是 活跃学生的 点击次数;其实 直接从 需求看 也能确定这个 key

    mapper

    ios/andriod 和 学号 作为 key

    import sys
    
    def main():
        for line in sys.stdin:
            data = line.strip().split(" ")
            if len(data) == 5:      # file1
                student_id = data[0]
                os_name = data[2]
                key = student_id + '_' + os_name
                print "	".join([key,"file1"])
            elif len(data) == 4:     # file2
                student_id = data[0]
                os_name = data[-1]
                key = student_id + '_' + os_name
                print "	".join([key,"file2"])
    
    
    if __name__ == "__main__":
        main()

    reducer

    按 key 排序后 喂给 reducer,不同的 key 给到不同的 reducer

    在写 reducer 方法时,既定输入是 排序后的 多个 key 的序列

    import sys
    import json
    
    dic_result = {'android': 0, 'ios': 0}
    pre_key = ""
    
    
    def post_deal(pre_key):
        # 相同key的数据的处理
        global dic
    
        # pre_key: student_id + '_' + os_name
        os_name = pre_key.strip().split("_")[1]
        if 'click' in dic and dic['click'] == 'yes' and 'active' in dic and dic['active'] == 'yes':     # 点击 的 活跃用户 +1
            dic_result[os_name] += 1
    
    def deal(data):
        # 对每一行数据的处理
        # data:20170001_android  file1
        global dic
    
        if data[1].strip() == "file1":
            dic['click'] = 'yes'            # file1 代表点击
        if data[1].strip() == "file2":
            dic['active'] = 'yes'           # file2 代表活跃
    
    
    def pre_deal():
        # 预处理,用于存储同一个key的一组value
        global dic
        dic = dict()
    
    def main():
        # sys.stdin = ['20170001_android    file1',
        #             '20170001_android    file1',
        #             '20170001_android    file1',
        #             '20170001_android    file2',
        #             '20170001_android    file2',
        #             '20170002_ios    file1',
        #             '20170002_ios    file1',
        #             '20170002_ios    file2',
        #             '20170003_android    file1',
        #             '20170003_android    file1'
        #             ]   # sort 之后的
        for line in sys.stdin:
            data = line.strip().split("	")
    
            key = data[0]
            global pre_key
    
            if key != pre_key:
                # 如果换 key,先给 上一个 key 加1,然后 初始化新 key
                if pre_key != "":
                    post_deal(pre_key)  # 计数
    
                # 初始化 for 下一个 key
                pre_deal()
                pre_key = key
    
            deal(data)      # 来一个学生我先标记,然后计数
            post_deal(pre_key)
    
        if pre_key != "":
            post_deal(pre_key)
    
        print json.dumps(dic_result)
    
    
    if __name__ == "__main__":
       main()

    本地测试

    [root@hadoop10 hadoop-2.6.5]# cat tmp/example1/file1.txt tmp/example1/file2.txt | python tmp/example1/mapper.py | sort| python tmp/example1/reducer.py 
    {"android": 3, "ios": 2}

    hadoop 上 运行 mapreduce

    这里有些问题,解决方法 见 下面 进阶和 最后一个链接

    具体的解决思路我后面会专门写一篇博客

    进阶配置

    -jobconf stream.num.map.output.key.fields=2 这行代码用于指定排序的字段,数字2指定map函数输出数据的第几列用于排序,就是例子中的sales字段。  【从 1 开始】

    -jobconf num.key.fields.for.partition=1这行代码指定partition字段,数字1指定map函数输出数据的第一列用于分区。

    -partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner这行代码是调用hadoop streaming包中的分区类,实现分区功能

    参考资料:

    https://www.jianshu.com/p/70bd81b2956f

    《Hadoop with Python》  我的电子书

    http://www.zhangdongshengtech.com/article-detials/236   十分清晰地解释了 python 怎么玩 mr

    https://www.iteye.com/blog/blackproof-2154523    内容比较广,设计一些不太常用的操作

    https://www.cnblogs.com/airnew/p/9574309.html  自定义排序 分区 等的实现

  • 相关阅读:
    【转】C++虚函数表
    vector的增长模式
    C++ 四种类型强制转换
    【转】new和malloc的区别
    C++堆和栈的区别
    C/C++中的内存分区
    mySQL__function课堂笔记和练习
    mySQL__storage课堂笔记和练习
    mySQL__Variable课堂笔记和练习
    mySQL__View课堂笔记和练习
  • 原文地址:https://www.cnblogs.com/yanshw/p/11551771.html
Copyright © 2020-2023  润新知