• tensorflow处理结构化数据


    一、泰坦尼克数据集

    首先从csv读取数据

    import numpy as np
    import pandas as pd
    from matplotlib import pyplot as plt
    import tensorflow as tf
    from tensorflow.keras import layers,models
    '''
    #==================================================================
    # 一,构建数据管道
    #==================================================================
    '''
    
    dftrain_raw = pd.read_csv("./data/titanic/train.csv")
    dftest_raw = pd.read_csv("./data/titanic/test.csv")
    
    dfraw = pd.concat([dftrain_raw,dftest_raw],axis=0)
    
    def prepare_dfdata(dfraw):
        dfdata = dfraw.copy()
        dfdata.columns = [x.lower() for x in dfdata.columns]
        dfdata = dfdata.rename(columns={'survived':'label'})
        dfdata = dfdata.drop(['passengerid','name'],axis = 1)
        for col,dtype in dict(dfdata.dtypes).items():
            # 判断是否包含缺失值
            if dfdata[col].hasnans:
                # 添加标识是否缺失列
                dfdata[col + '_nan'] = pd.isna(dfdata[col]).astype('int32')
                # 填充,如果是数字,那么就添加这一列的平均值,否则空着
                if dtype not in [np.object,np.str,np.unicode]:
                    dfdata[col].fillna(dfdata[col].mean(),inplace = True)
                else:
                    dfdata[col].fillna('',inplace = True)
        return(dfdata)
    
    dfdata = prepare_dfdata(dfraw)
    dftrain = dfdata.iloc[0:len(dftrain_raw),:]
    dftest = dfdata.iloc[len(dftrain_raw):,:]
    
    # 从 dataframe 导入数据 
    def df_to_dataset(df, shuffle=True, batch_size=4):
        dfdata = df.copy()
        if 'label' not in dfdata.columns:
            ds = tf.data.Dataset.from_tensor_slices(dfdata.to_dict(orient = 'list'))
        else: 
            labels = dfdata.pop('label')
            ds = tf.data.Dataset.from_tensor_slices((dfdata.to_dict(orient = 'list'), labels))  
        if shuffle:
            ds = ds.shuffle(buffer_size=len(dfdata))
        ds = ds.batch(batch_size)
        return ds
    
    ds_train = df_to_dataset(dftrain)
    ds_test = df_to_dataset(dftest)
    
    
    

    tensorflow只能处理数值类型的数据,如何将原始数据转换为神经网络的输入格式:使用特征列模块 tf.feature_column,在输入数据和模型之间搭建桥梁

    特征列完成以下等功能:

    1. 类别特征转换为ont-hot编码特征
    2. 连续特征转换为分桶特征
    3. 特征组合

    二、定义特征列

    2.1 数值特征使用 tf.feature_column.numeric_column得到数值列。

    feature_columns = []
    for col in ['age','fare','parch','sibsp'] + [
        c for c in dfdata.columns if c.endswith('_nan')]:
        feature_columns.append(tf.feature_column.numeric_column(col))
    

    2.2 比如年龄数据,按区间进行划分,使用tf.feature_column.bucketized_column 得到分桶列。
    不直接将一个数值直接传给模型,而是根据数值范围将其值分为不同的 categories。
    此时,10个年龄间隔得到ont-hot列表长度为11,小于18岁的转换为[1,0,0,0,0,0,0,0,0,0,0]

    age = tf.feature_column.numeric_column('age')
    age_buckets = tf.feature_column.bucketized_column(age, 
                 boundaries=[18, 25, 30, 35, 40, 45, 50, 55, 60, 65])
    feature_columns.append(age_buckets)
    

    2.3 类别特征,使用tf.feature_column.categorical_column_with_vocabulary_list 转换为 one-hot编码

    sex = tf.feature_column.indicator_column(
          tf.feature_column.categorical_column_with_vocabulary_list(
          key='sex',vocabulary_list=["male", "female"]))
    feature_columns.append(sex)
    

    2.4 当类别很多或者我们不知道有多少类的时候,我们不能一个一个的列出来,这时候就可以使用hash_bucket,第二个参数是我们想把这些数据分成多少类,
    这个类别数和真实的类别数不一定是一样的,我们自己设置划分为多少类即可。
    使用tf.feature_column.categorical_column_with_has_bucket 对 ticket列进行转换。

    ticket = tf.feature_column.indicator_column(
         tf.feature_column.categorical_column_with_hash_bucket('ticket',3))
    feature_columns.append(ticket)
    

    2.5 当类别很多的时候,借由lookup table的方式找寻对应的feature vector来表示。tf.feature_column.embedding_column
    嵌入列可以看成keras.layers.Embedding层

    cabin = tf.feature_column.embedding_column(
        tf.feature_column.categorical_column_with_hash_bucket('cabin',32),2)
    feature_columns.append(cabin)
    

    2.6 多个特征组合为一个特征,组合列。tf.feature_column.crossed_column

    pclass_cate = tf.feature_column.categorical_column_with_vocabulary_list(
              key='pclass',vocabulary_list=[1,2,3])
    
    crossed_feature = tf.feature_column.indicator_column(
        tf.feature_column.crossed_column([age_buckets, pclass_cate],hash_bucket_size=15))
    
    feature_columns.append(crossed_feature)
    

    ps:此时 feature_columns 仅仅保存了一些特征列,需要在定义模型的时候把这些特征列作为输入层放到 tf.keras.layers.DenseFeatures

    三、定义&训练模型

    通过 layers.DenseFeatures(feature_columns) 完成了原始特征到模型输入特征的转换。
    fit 阶段 之间输入 tf.data.Dataset 数据。

    tf.keras.backend.clear_session()
    model = tf.keras.Sequential([
      layers.DenseFeatures(feature_columns), #将特征列放入到tf.keras.layers.DenseFeatures中!!!
      layers.Dense(64, activation='relu'),
      layers.Dense(64, activation='relu'),
      layers.Dense(1, activation='sigmoid')
    ])
    
    model.compile(optimizer='adam',
                  loss='binary_crossentropy',
                  metrics=['accuracy'])
    
    history = model.fit(ds_train,
              validation_data=ds_test,
              epochs=10)
    

    总结:对于结构化输入数据,使用特征列tf.feature_column模块的各个方法进行处理得到多个特征列,作为layers.DenseFeatures()层的输入。

  • 相关阅读:
    小米手机miui8.5连接电脑
    js数组map方法
    wxui入门
    动画函数封装
    系列属性(offset、scroll、client)
    定时器( setInterval和 setTimeout)
    BOM(浏览器对象模型)
    事件(绑定、解绑、冒泡)
    元素(element)创建
    节点(node)操作
  • 原文地址:https://www.cnblogs.com/leimu/p/13571291.html
Copyright © 2020-2023  润新知