• 2. 感知机(Perceptron)基本形式和对偶形式实现


    1. 感知机原理(Perceptron)

    2. 感知机(Perceptron)基本形式和对偶形式实现

    3. 支持向量机(SVM)拉格朗日对偶性(KKT)

    4. 支持向量机(SVM)原理

    5. 支持向量机(SVM)软间隔

    6. 支持向量机(SVM)核函数

    1. 前言

    今天终于能把感知机的实现补上了,感知机的原理在1. 感知机原理(Perceptron)中已经详尽的介绍,今天就是对感知机的两种实现方式,进行讲解。

    2. 感知机实现

    2.1 原始形式算法

    假设读者们已经了解了感知机的原始形式的原理(不熟悉的请看1. 感知机原理(Perceptron)原始形式),下面是原始形式的步骤,方便对照后面的代码。

    原始形式的步骤:

    输入:训练数据集(T={(x_1,y_1),(x_2,y_2),...,(x_N,y_N)})(y_iin{{-1,+1}}),学习率(eta(0<eta<1))

    输出:(w,b);感知机模型(f(x)=sign(wcdot {x}+b))

    1. 赋初值 (w_0,b_0)
    2. 选取数据点((x_i,y_i))
    3. 判断该数据点是否为当前模型的误分类点,即判断若(y_i(wcdot {x_i}+b)<=0)则更新

    [w={w+eta{y_ix_i}} ]

    [b={b+eta{y_i}} ]

    1. 转到2,直到训练集中没有误分类点

    主要实现代码GitHub

    def fit(self, X, y):
        # 初始化参数w,b
        self.w = np.zeros(X.shape[1])
        self.b = 0
        # 记录所有error
        self.errors_ = []
        for _ in range(self.n_iter):
            errors = 0
            for xi, yi in zip(X, y):
                update = self.eta * (yi - self.predict(xi))
                self.w += update * xi
                self.b += update
                errors += int(update != 0.0)
            if errors == 0:
                break
            self.errors_.append(errors)
    
        return self
    

    2.2 对偶形式算法

    假设读者们已经了解了感知机的对偶形式的原理(不熟悉的请看1. 感知机原理(Perceptron)对偶形式),下面是对偶形式的步骤,方便对照后面的代码。

    对偶形式的步骤:

    由于(w,b)的梯度更新公式:

    [w={w+eta{y_ix_i}} ]

    [b={b+eta{y_i}} ]

    我们的(w,b)经过了(n)次修改后的,参数可以变化为下公式,其中(alpha = ny)

    [w=sum_{x_iin{M}}eta{y_ix_i}=sum_{i=1}^nalpha_iy_ix_i ]

    [b=sum_{x_iin{M}}eta{y_i}=sum_{i=1}^nalpha_iy_i ]

    这样我们就得出了感知机的对偶算法。

    输入:训练数据集(T={(x_1,y_1),(x_2,y_2),...,(x_N,y_N)})(y_iin{{-1,+1}}),学习率(eta(0<eta<1))

    输出:(alpha,b);感知机模型(f(x)=sign(sum_{j=1}^nalpha_jy_jx_jcdot {x}+b))

    其中(alpha=(alpha_1,alpha_2,...,alpha_n)^T)

    1. 赋初值 (alpha_0,b_0)
    2. 选取数据点((x_i,y_i))
    3. 判断该数据点是否为当前模型的误分类点,即判断若(y_i(sum_{j=1}^nalpha_jy_jx_jcdot {x_i}+b)<=0)则更新

    [alpha_i={alpha_i+eta} ]

    [b={b+eta{y_i}} ]

    1. 转到2,直到训练集中没有误分类点

    为了减少计算量,我们可以预先计算式中的内积,得到Gram矩阵

    [G=[x_i,x_j]_{N×N} ]

    主要实现代码GitHub

    def fit(self, X, y):
        """
        对偶形态的感知机
        由于对偶形式中训练实例仅以内积的形式出现
        因此,若事先求出Gram Matrix,能大大减少计算量
        """
        # 读取数据集中含有的样本数,特征向量数
        n_samples, n_features = X.shape
        self.alpha, self.b = [0] * n_samples, 0
        self.w = np.zeros(n_features)
        # 计算Gram_Matrix
        self.calculate_g_matrix(X)
    
        i = 0
        while i < n_samples:
            if self.judge(X, y, i) <= 0:
                self.alpha[i] += self.eta
                self.b += self.eta * y[i]
                i = 0
            else:
                i += 1
    
        for j in range(n_samples):
            self.w += self.alpha[j] * X[j] * y[j]
    
        return self
    

    3. 小结

    感知机算法是一个简单易懂的算法,自己编程实现也不太难。前面提到它是很多算法的鼻祖,比如支持向量机算法,神经网络与深度学习。因此虽然它现在已经不是一个在实践中广泛运用的算法,还是值得好好的去研究一下。感知机算法对偶形式为什么在实际运用中比原始形式快,也值得好好去体会。

  • 相关阅读:
    阿里云nginx创建多站点
    linux 卸载php mysql apache
    centos php环境搭建
    jquery simple modal
    nodejs 安装express
    nodejs fs.open
    nodejs supervisor
    nodejs 运行
    nodejs shell
    PHP array_pad()
  • 原文地址:https://www.cnblogs.com/huangyc/p/10294583.html
Copyright © 2020-2023  润新知