• 【手把手系列之一】手写实现单层神经网络


    使用python手写实现单层神经网络[本质上学习logistic 回归的系数]。单层:有参数的一层;输入不算网络层。

    网络用途

    或者说应用场景:使用单层神经网络来识别一张图片是否是猫咪的图片。

    数学表示

    给定一张图片(X) 送到网络中,判断这张图片是否是猫咪的照片?

    网络架构

    单层神经网络:

    • X(input)---> Output((hat{y}))

    处理过程:

    • X --> linear ---> sigmoid ---> (hat{y})

    数学表示

    训练集: (X = [x^{(1)},x^{(2)},...,x^{(i)},....,x^{(m)}]) ;对应标签:(Y=[y^{(1)},y^{(2)},...,y^{(i)},...,y^{(m)}]) ;

    对于训练集中的每张照片(x^{(i)}) 的处理过程:

    (z^{(i)} = w^Tx^{(i)}+b)

    (hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)}))

    (L(a^{(i)},y^{(i)}) = -y^{(i)}log(a^{(i)})-(1-y^{(i)})log(1-a^{(i)}))

    成本函数:

    (J = frac{1}{m} sum_{i=1}^{m} L(a^{(i)},y^{(i)}))

    最后通过反向传播算法,计算参数(W)(b)

    模型定义

    模型定义步骤

    1. 定义模型结构(如输入向量的特征数目)
    2. 初始化模型参数;
    3. 循环:
      • 前向传播,计算loss;
      • 反向传播,计算梯度;
      • 梯度下降,更新参数;

    代码实现

    辅助函数

    def sigmoid(z):
        """
        激活函数
        Arguments:
        z -- 标量或者是numpy array类型
    
        Return:
        s -- sigmoid(z)
        """
        s = 1/(1+np.exp(-z))
        
        return s
    

    参数初始化

    权重系数(W)(b) 全都初始化为0.

    def initialize_with_zeros(dim):
        """
        网络参数w 和 b 的初始化;
        
        Argument:
        dim -- 表示权重系数w的维度[这里表示输入层的数据维度]---单层网络;
        
        Returns:
        w -- 初始化向量 shape (dim, 1)
        b -- 初始化标量 
        """
        w = np.zeros((dim, 1))#dim表示输入层X的维度,1表示本层只有一个神经元
        b = 0
    
        return w, b
    

    前向传播和反向传播

    由于网络为单层神经网络,前向传播过程和反向传播过程比较简单,所以整合到一起。直接计算出相应的成本函数和相应的系数梯度。

    前向传播过程

    训练集: $$X = [x^{(1)},x^{(2)},...,x^{(i)},....,x^{(m)}]$$ ;对应标签:$$Y=[y^{(1)},y^{(2)},...,y^{(i)},...,y^{(m)}] $$;

    对于训练集中的每张照片(x^{(i)}) 的处理过程:

    (z^{(i)} = w^Tx^{(i)}+b)

    (hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)}))

    (L(a^{(i)},y^{(i)}) = -y^{(i)}log(a^{(i)})-(1-y^{(i)})log(1-a^{(i)}))

    成本函数:(J = frac{1}{m} sum_{i=1}^{m} L(a^{(i)},y^{(i)}))

    反向传播过程

    假设输入数据维度为2;权重系数维度是2.

    反向传播的计算图:

    以输入维度为2,权重系数w为2维,举例:

    def propagate(w, b, X, Y):
        """
        实现前向传播和反向传播过程
    
        Arguments:
        w -- 权重系数,numpy array,size (num_px * num_px * 3, 1)
        b -- 偏置,标量
        X -- 输入的测试数据,shape (num_px * num_px * 3, 样本数m)
        Y -- 测试数据的标签向量 ( 0 不是猫, 1 猫) ,size (1, m) 
    
        Return:
        cost -- logistic 回归的成本函数值
        dw -- 成本函数关于参数w的梯度值
        db -- 成本函数关于参数w的梯度值
        """
        
        m = X.shape[1] # 获取样本数
    
        # 前向传播过程
        Z = np.dot(w.T, X) + b
        A = sigmoid(Z) #计算激活函数
        cost = -1 / m * np.sum(Y * np.log(A) + (1 - Y) * np.log(1 - A))  # 计算成本函数
        
        # 反向传播过程计算梯度
        dw = 1 / m * np.dot(X, (A - Y).T) # 向量
        db = 1 / m * np.sum(A - Y)
        assert(dw.shape == w.shape)
        assert(db.dtype == float)
        cost = np.squeeze(cost) # 成本函数
        assert(cost.shape == ())
        
        grads = {"dw": dw,
                 "db": db}
        
        return grads, cost
    

    参数优化

    参数更新过程--使用梯度下降算法;

    def optimize(w,b,X,y,num_iters,learning_rate,print_cost=True):
        """
        参数优化过程
        :param w: 系数矩阵
        :param b: 偏置
        :param X: 测试集
        :param y: 测试集标签
        :param num_iters: 迭代次数
        :param learning_rate: 学习率
        :param print_cost: 是否打印输出cost变化;每100次打印输出一次
        :return:
        - params: 更新后的参数
        - grads: 梯度计算值
        - costs:cost变化过程;每100次为一个记录值
        """
        costs = []
    
        for i in range(num_iters):
            grads, cost = propagate(w, b, X, y)
            dw = grads['dw']
            db = grads['db']
            #参数更新
            w = w - learning_rate * dw
            b = b - learning_rate * db
    
            if i % 100 == 0:#添加到costs
                costs.append(cost)
            if print_cost and i % 100 == 0: # 打印输出
                print("Cost after iteration {}:{}".format(i, cost))
    
            params = {'w': w,
                      'b': b}
    
        return params, grads, costs
    

    模型预测

    输入测试集,输出测试标签.

    运算过程:做一次前向传播,得到输出;再对输出和threshold阈值作比较,得出类别标签。

    def predict(w,b,X):
        """
        给定一张图片预测分类标签
        :param w: 训练后的权重w参数 (n_px * n_px * 3, 1)
        :param b: 训练后的偏置b参数
        :param X: 测试图片 (n_px * n_px * 3, m)
        :return: 分类标签yHat
        """
        m = X.shape[1]
        yHat = np.zeros((1, m))
        assert (w.shape == (X.shape[0], 1))
        yHat = sigmoid(np.dot(w.T, X) + b) # 前向传播过程
    
        # 确定预测的分类标签 threshold为0.5
        for i in range(m):
            if yHat[0, i] > 0.5:
                yHat[0, i] = 1
            else:
                yHat[0, i] = 0
    
        return yHat
    

    函数整合

    def model(X_train, y_train, X_test, y_test, num_iters=2000, learning_rate=0.05, print_cost=True):
        """
        将所有的函数整合到一起形成一个完整的模型
        :param X_train: 训练集 (n_px*n_px*3, m)
        :param y_train: 训练集标签 (1, m)
        :param X_test: 测试集 (n_px*n_px*3, n)
        :param y_test: 测试集标签 (1, n)
        :param num_iters: 迭代次数
        :param learning_rate: 学习率
        :param print_cost: 是否打印输出cost成本函数值
        :return:
        - d: 模型信息字典
        """
        w, b = initialize_with_zeros(X_train.shape[0])
    
        params, grads, costs = optimize(w, b, X_train, y_train, num_iters, learning_rate, print_cost)
    
        w = params['w']
        b = params['b']
    
        yHat_train = predict(w, b, X_train)
        yHat_test = predict(w, b, X_test)
    
        print("Accuracy on Training set:{:.2f}%".format(100*np.mean(y_train == yHat_train)))
        print("Accuracy on Test set:{:.2f}%".format(100*np.mean(y_test == yHat_test)))
    
        d = {
            'costs': costs,
            'yHat_train': yHat_train,
            'yHat_test': yHat_test,
            'w': w,
            'b': b,
            'learning_rate': learning_rate,
            'num_iters': num_iters
        }
    
        return d
    

    测试:500次迭代、学习率为0.001;

    d = model(X_train,y_train,X_test,y_test,num_iters=500,learning_rate=0.001)
    

    输出结果变化:

    Cost after iteration 0:0.6931471805599453
    Cost after iteration 100:0.5912894260003537
    Cost after iteration 200:0.5557961107127088
    Cost after iteration 300:0.5289765131562365
    Cost after iteration 400:0.5068812917435517
    Accuracy on Training set:77.51%
    Accuracy on Test set:56.00%
    

    小结

    1. 向量化运算能大大提高运算效率;编码实现时最好不要使用for-loop 循环;
    2. 理解网络运算过程时,画一个运算图很很大程度上帮助理解;
    3. 编码实现时,注意变量的shape变化是否正确!

    完整代码:>>点我

  • 相关阅读:
    VS2019 .Net Core 3.1 Web 项目启用动态编译
    IntelliJ IDEA自动注释作者信息和日期时间
    Could not transfer artifact org.springframework.boot:spring-boot-starter-parent:pom:2.2.1.RELEASE from/to
    MS SQL Server数据批量插入优化详细
    更改VisualStudio默认创建类和接口不加public问题
    WIN10 报错 "此共享需要过时的SMB1协议,而此协议是不安全"的解决方法
    Delphi XE8,C++ Builder XE8,RAD Studio XE8 官方 ISO 文件下载,附激活工具
    PC 安装MAC
    InnoSetup能够实现“安装细节描述”界面吗?
    在Unicode版Inno Setup中使用ISSkin
  • 原文地址:https://www.cnblogs.com/ysugyl/p/9108191.html
Copyright © 2020-2023  润新知