• pyspark读取hdfs 二进制文件 pickle 模型文件 model


    pyspark读取hdfs 二进制文件 pickle 模型文件 model

    我们在python环境训练的机器学习、深度学习模型二进制文件,比如pickle

    如果需要提交到spark-submit上,需要先把文件上传到hdfs目录下,然后读取

    hadoop fs -put 模型文件  hdfs目录

    hadoop fs -put /opt/tmp/model_phone.pkl /home/你的用户名/env/

    from pyspark import SparkConf, SparkContext
    conf = SparkConf().setAppName("My test App")
    sc = SparkContext(conf=conf)
     
    """
    lines = sc.textFile("/tmp/tmp.txt")
    print lines.count()
    print lines.first()
    """   
         
    def load_model(sc, model_filename):
            rdd = sc.binaryFiles("/tmp/test.pkl")--你的hdfs目录
            import pickle
            from io import BytesIO
            data_arr = rdd.values().map(lambda p: pickle.load(BytesIO(p))).collect()
            print(data_arr)
     
     
    load_model(sc, None)

    model =
    load_model(sc, None)[0]
    
    

    参考:https://www.cnblogs.com/bonelee/p/11172280.html

  • 相关阅读:
    Yuan先生的博客网址
    Django的认证系统 auth模块
    Django 中间件使用
    Django Form表单验证
    Django ORM介绍 和字段及字段参数
    ajax 使用
    Java报表之JFreeChart
    POI
    MyBatis
    问题解决方法
  • 原文地址:https://www.cnblogs.com/cupleo/p/16248904.html
Copyright © 2020-2023  润新知