• keras神经网络三个例子


    keras构造神经网络,非常之方便!以后就它了。本文给出了三个例子,都是普通的神经网络

    例一、离散输出,单标签、多分类

    例二、图像识别,单标签、多分类。没有用到卷积神经网络(CNN)

    例三、时序预测,单标签、多分类。(LSTM)

    说明

    keras对于神经网络给出的流程图,非常容易理解。

    图片来源:https://www.jianshu.com/p/6c08f4ceab4c

    重点】训练神经网络围绕以下对象:
      1. ,用于合并成网络(或模型)
      2. 输入数据相应的目标
      3. 损失函数,  定义了用于学习的反馈信号
      4. 优化器,  这决定了学习如何进行

    例一

    离散输出,单标签、多分类

    本例来源:https://www.jianshu.com/p/f1332c58ca86

    数据来源:https://blog.csdn.net/weixin_41090915/article/details/79521161

    数据是自己构造的,分有三类,如图

    图片来源:https://blog.csdn.net/weixin_41090915/article/details/79521161

    import numpy as np
    import pandas as pd
    
    # =====================================================
    # 准备数据
    N = 100 # number of points per class 
    D = 2 # dimensionality 
    K = 3 # number of classes 
    X = np.zeros((N * K, D)) # data matrix (each row = single example) 
    y = np.zeros(N * K, dtype='uint8') # class labels 
    for j in range(K): 
        ix = list(range(N*j, N*(j + 1))) 
        r = np.linspace(0.0, 1, N) # radius 
        t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta 
        X[ix] = np.c_[r*np.sin(t), r*np.cos(t)] 
        y[ix] = j # 打标签
    
    # 将y转化为one-hot编码
    #y = (np.arange(K) == y[:,None]).astype(int)
    y = np.eye(K)[y]
    # =====================================================
    
    
    from keras import models
    from keras import layers
    
    # 使用Sequential类定义两层模型
    model = models.Sequential()
    model.add(layers.Dense(10, activation='relu', input_shape=(2,)))
    model.add(layers.Dense(3, activation='softmax'))
    
    # 编译。指定模型的优化器、损失函数、监控指标。
    # 对于一个两类分类问题,您将使用二元交叉熵(binary crossentropy)
    # 对于一个多类分类问题使用分类交叉熵(categorical crossentropy)
    # 对于回归问题使用均方差(meansquared error)
    # 对于序列学习问题使用连接主义时间分类(connectionist temporal classification, CTC)
    from keras import optimizers
    model.compile(optimizer=optimizers.RMSprop(lr=0.001),
                  loss='categorical_crossentropy',
                  metrics=['accuracy'])
    '''
    from keras import optimizers
    from keras import losses
    from keras import metrics
    #from keras import optimizers, losses, metrics
    model.compile(optimizer=optimizers.RMSprop(lr=0.001),
                  loss=losses.binary_crossentropy,
                  metrics=[metrics.binary_accuracy])
    '''
    
    # 训练网络
    model.fit(X, y, batch_size=50, epochs=1000)
    
    
    # =====================================================
    # 重新生成数据
    X = np.zeros((N * K, D)) # data matrix (each row = single example) 
    y = np.zeros(N * K, dtype='uint8') # class labels 
    for j in range(K): 
        ix = list(range(N*j, N*(j + 1))) 
        r = np.linspace(0.0, 1, N) # radius 
        t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta 
        X[ix] = np.c_[r*np.sin(t), r*np.cos(t)] 
        y[ix] = j # 打标签
    
    # 将y转化为one-hot编码
    #y = (np.arange(K) == y[:,None]).astype(int)
    y = np.eye(K)[y]
    # =====================================================
    
    #检查模型在测试集上的表现是否良好
    test_loss, test_acc = model.evaluate(X, y)
    print('test_acc:', test_acc)

     注意:就本例而言,如果标签数据不进行one-hot编码,则损失函数要更改为:loss='sparse_categorical_crossentropy',

     效果图

    例二

    图像识别,没有用到卷积神经网络(CNN)

    本例来源:https://www.jianshu.com/p/ba51e470b736

    手写数字的识别,如图

    '''
    试图解决的问题是对灰度图像进行分类的手写数字(28×28个像素)到他们的10个分类(0到9)。
    '''
    # 导入数据
    from keras.datasets import mnist
    (train_images, train_labels), (test_images, test_labels) = mnist.load_data()
    
    # 了解数据情况
    #test_images.shape # (10000, 28, 28)
    #test_labels # array([7, 2, 1, ..., 4, 5, 6], dtype=uint8)
    
    # 将输入数组形状由(60000,28,28)转换为(60000,28 * 28)
    train_images = train_images.reshape((60000, 28 * 28))
    test_images = test_images.reshape((10000, 28 * 28))
    
    # 将[0,255]区间的整数转换为[0,1]之间的浮点数
    train_images = train_images.astype('float32') / 255
    test_images = test_images.astype('float32') / 255
    
    # 对分类标签y进行one-hot编码
    from keras.utils import to_categorical
    train_labels = to_categorical(train_labels)
    test_labels = to_categorical(test_labels)
    
    
    from keras import models
    from keras import layers
    network = models.Sequential()
    
    #我们的网络由两个密集层(Dense layers)组成,它们紧密连接(也称为完全连接)神经层。
    #第二个(也是最后一个)层是10路softmax层,这意味着它将返回一个包含10个概率分数的数组(总和为1),
    #每个分数都将是当前数字图像属于我们的10个分类之一的概率。
    network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
    network.add(layers.Dense(10, activation='softmax'))
    
    #为了使网络为训练做好准备,我们需要再选择三样东西,作为编译步骤的一部分:
    #损失函数: 网络如何能够测量它在训练数据上的表现,如何能够引导自己走向正确的方向
    #优化器:网络根据所接收的数据及其损失函数进行自我更新的机制
    #监控指标:这里,我们在训练和测试期间只关心准确性(正确分类的图像的一部分)
    network.compile(optimizer='rmsprop',
                    loss='categorical_crossentropy',
                    metrics=['accuracy'])
    
    #训练这个网络
    network.fit(train_images, train_labels, epochs=5, batch_size=128)
    
    #检查模型在测试集上的表现是否良好
    test_loss, test_acc = network.evaluate(test_images, test_labels)
    print('test_acc:', test_acc)

    效果图

     例三

    时间序列预测(LSTM)

    本例来源:https://blog.csdn.net/zwqjoy/article/details/80493341

    字母表的一个简单的序列预测问题。
    也就是说,根据字母表的字母,预测字母表的下一个字母。
    ['A', 'B', 'C'] -> D
    ['B', 'C', 'D'] -> E
    ['C', 'D', 'E'] -> F
    ['D', 'E', 'F'] -> G
    ['E', 'F', 'G'] -> H
    ['F', 'G', 'H'] -> I
    ['G', 'H', 'I'] -> J
    ['H', 'I', 'J'] -> K
    ['I', 'J', 'K'] -> L
    ['J', 'K', 'L'] -> M
    ['K', 'L', 'M'] -> N
    ['L', 'M', 'N'] -> O
    ['M', 'N', 'O'] -> P
    ['N', 'O', 'P'] -> Q
    ['O', 'P', 'Q'] -> R
    ['P', 'Q', 'R'] -> S
    ['Q', 'R', 'S'] -> T
    ['R', 'S', 'T'] -> U
    ['S', 'T', 'U'] -> V
    ['T', 'U', 'V'] -> W
    ['U', 'V', 'W'] -> X
    ['V', 'W', 'X'] -> Y
    ['W', 'X', 'Y'] -> Z

    注意数据格式

    X.shape: [samples, time_step, features]

    y.shape: [samples, one_hot_encodes]

    代码:

    import numpy as np
    from keras.models import Sequential
    from keras.layers import Dense
    from keras.layers import LSTM
    from keras.utils import np_utils
    
    '''
    字母表的一个简单的序列预测问题。
    '''
    
    np.random.seed(7)
    
    # 原生数据
    letters = "ABCDEFGHIJKLMNOPQRSTUVWXYZ"
    
    # 转为数字
    data_len = 26
    time_steps = 3
    X = list(range(data_len))
    y = X[time_steps:]
    
    # 将数据转化为[样本数, 时间步数, 特征数]的形式
    XX = [X[i:i+time_steps] for i in range(data_len-time_steps)] # [samples, time steps * features]
    XXX = np.reshape(XX, (data_len - time_steps, time_steps, -1)) # [samples, time steps, features]
    
    
    # 归一化
    # 数值范围变为0~1,这是LSTM网络使用的s形激活函数(sigmoid)的范围。
    X = XXX / data_len
    # one-hot编码
    #y = np_utils.to_categorical(dataY)
    y = np.eye(data_len)[y]
    
    # =================================
    model = Sequential()
    model.add(LSTM(32, input_shape=(X.shape[1], X.shape[2])))
    model.add(Dense(y.shape[1], activation='softmax')) # 输出各类的概率(softmax)
    model.compile(loss='categorical_crossentropy',     # 单标签,多分类(categorical_crossentropy)
                  optimizer='adam', 
                  metrics=['accuracy'])
    
    model.fit(X, y, epochs=500, batch_size=1, verbose=2)
    
    #检查模型在测试集上的表现是否良好
    test_loss, test_acc = model.evaluate(X, y)
    print('test_acc:', test_acc)

    效果图

  • 相关阅读:
    noip模拟赛 Nephren Ruq Insania
    noip模拟赛 Chtholly Nota Seniorious
    noip模拟赛 浮游大陆的68号岛
    Java基础知识强化27:Object类之toString()方法
    Java基础知识强化26:Object类之hashCode()方法、getClass()方法
    Java基础知识强化26(1):Object类之Object类的概述
    TCP/IP协议原理与应用笔记05:TCP/IP协议下的网关
    TCP/IP协议原理与应用笔记04:子网掩码
    TCP/IP协议原理与应用笔记03:IP地址分类
    MySQL(14):Select-limit(限制获得的记录数量)
  • 原文地址:https://www.cnblogs.com/hhh5460/p/10195269.html
Copyright © 2020-2023  润新知