• Deep Learning 名词解释


    凸优化 (convex optimization)
    使用数学方法(例如梯度下降法)寻找凸函数最小值的过程。机器学习方面的大量研究都是专注于如何通过公式将各种问题表示成凸优化问题,以及如何更高效地解决这些问题。

    丢弃正则化 (dropout regularization)
    正则化的一种形式,在训练神经网络方面非常有用。丢弃正则化的运作机制是,在一个梯度步长中移除从神经网络层中随机选择的固定数量的单元。丢弃的单元越多,正则化效果就越强。这类似于训练神经网络以模拟较小网络的指数级规模集成学习。

    泛化 (generalization)
    指的是模型依据训练时采用的数据,针对以前未见过的新数据做出正确预测的能力。

    梯度裁剪 (gradient clipping)
    在应用梯度值之前先设置其上限。梯度裁剪有助于确保数值稳定性以及防止梯度爆炸。

    超平面 (hyperplane)
    将一个空间划分为两个子空间的边界。例如,在二维空间中,直线就是一个超平面,在三维空间中,平面则是一个超平面。在机器学习中更典型的是:超平面是分隔高维度空间的边界。核支持向量机利用超平面将正类别和负类别区分开来(通常是在极高维度空间中)。

    欧几里得距离
    在二维空间中,欧几里得距离即使用勾股定理来计算斜边。k-means 
    (2,2) 与 (5,-2) 之间的距离为:
    曼哈顿距离
    每个维度中绝对差异值的总和。k-median

    简单理解为,欧几里得距离是地图任意两位置的直线距离,曼哈顿距离为地图两点实际通过的街道的总长度

    L1 损失函数 (L₁ loss)
    一种损失函数,基于模型预测的值与标签的实际值之差的绝对值。与 L2 损失函数相比,L1 损失函数对离群值的敏感性弱一些。
    L1 正则化 (L₁ regularization)
    一种正则化,根据权重的绝对值的总和来惩罚权重。在依赖稀疏特征的模型中,L1 正则化有助于使不相关或几乎不相关的特征的权重正好为 0,从而将这些特征从模型中移除。与 L2 正则化相对。

    L2 损失函数 (L₂ loss)
    在线性回归中使用的损失函数(也称为 L2 损失函数)。该函数可计算模型为有标签样本预测的值和标签的实际值之差的平方。由于取平方值,因此该损失函数会放大不佳预测的影响。也就是说,与 L1 损失函数相比,平方损失函数对离群值的反应更强烈。
    L2 正则化 (L₂ regularization)
    一种正则化,根据权重的平方和来惩罚权重。L2 正则化有助于使离群值(具有较大正值或较小负值)权重接近于 0,但又不正好为 0。(与 L1 正则化相对。)在线性模型中,L2 正则化始终可以改进泛化。

    学习速率 (learning rate)
    在训练模型时用于梯度下降的一个标量。在每次迭代期间,梯度下降法都会将学习速率与梯度相乘。得出的乘积称为梯度步长。
    学习速率是一个重要的超参数。

    逻辑回归 (logistic regression)
    一种模型,通过将 S 型函数应用于线性预测,生成分类问题中每个可能的离散标签值的概率。虽然逻辑回归经常用于二元分类问题,但也可用于多类别分类问题(其叫法变为多类别逻辑回归或多项回归)

    损失 (Loss)
    一种衡量指标,用于衡量模型的预测偏离其标签的程度。或者更悲观地说是衡量模型有多差。要确定此值,模型必须定义损失函数。例如,线性回归模型通常将均方误差用作损失函数,而逻辑回归模型则使用对数损失函数。

    动量 (Momentum)
    一种先进的梯度下降法,其中学习步长不仅取决于当前步长的导数,还取决于之前一步或多步的步长的导数。动量涉及计算梯度随时间而变化的指数级加权移动平均值,与物理学中的动量类似。动量有时可以防止学习过程被卡在局部最小的情况。

    NaN 陷阱 (NaN trap)
    模型中的一个数字在训练期间变成 NaN,这会导致模型中的很多或所有其他数字最终也会变成 NaN。
    NaN 是“非数字”的缩写。

    神经网络 (neural network)
    一种模型,灵感来源于脑部结构,由多个层构成(至少有一个是隐藏层),每个层都包含简单相连的单元或神经元(具有非线性关系)。
    神经元 (neuron)
    神经网络中的节点,通常会接收多个输入值并生成一个输出值。神经元通过将激活函数(非线性转换)应用于输入值的加权和来计算输出值。

    过拟合 (overfitting)
    创建的模型与训练数据过于匹配,以致于模型无法根据新数据做出正确的预测。

    优化器 (optimizer)
    梯度下降法的一种具体实现。TensorFlow 的优化器基类tf.train.Optimizer。不同的优化器可能会利用以下一个或多个概念来增强梯度下降法在指定训练集中的效果:
    动量 (Momentum)
    更新频率(AdaGrad= ADAptive GRADient descent;Adam= ADAptive with Momentum;RMSProp)
    稀疏性/正则化 (Ftrl)
    更复杂的数学方法(Proximal,等等)
    甚至还包括 NN 驱动的优化器。

    离群值 (outlier)
    与大多数其他值差别很大的值。在机器学习中,下列所有值都是离群值。
    绝对值很高的权重。
    与实际值相差很大的预测值。
    值比平均值高大约 3 个标准偏差的输入数据。
    离群值常常会导致模型训练出现问题。

    半监督式学习 (semi-supervised learning)
    训练模型时采用的数据中,某些训练样本有标签,而其他样本则没有标签。半监督式学习采用的一种技术是推断无标签样本的标签,然后使用推断出的标签进行训练,以创建新模型。如果获得有标签样本需要高昂的成本,而无标签样本则有很多,那么半监督式学习将非常有用。

    softmax
    一种函数,可提供多类别分类模型中每个可能类别的概率。这些概率的总和正好为 1.0。例如,softmax 可能会得出某个图像是狗、猫和马的概率分别是 0.9、0.08 和 0.02。(也称为完整 softmax。)
    与候选采样相对。

    稀疏特征 (sparse feature)
    一种特征向量,其中的大多数值都为 0 或为空。例如,某个向量包含一个为 1 的值和一百万个为 0 的值,则该向量就属于稀疏向量。再举一个例子,搜索查询中的单词也可能属于稀疏特征 - 在某种指定语言中有很多可能的单词,但在某个指定的查询中仅包含其中几个。
    与密集特征相对。
    密集特征 (dense feature)
    一种大部分值是非零值的特征,通常是浮点值张量。与稀疏特征相对。

    稀疏表示法 (sparse representation)
    一种张量表示法,仅存储非零元素。
    例如,英语中包含约一百万个单词。表示一个英语句子中所用单词的数量,考虑以下两种方式:
    1)要采用密集表示法来表示此句子,则必须为所有一百万个单元格设置一个整数,然后在大部分单元格中放入 0,在少数单元格中放入一个非常小的整数
    2)要采用稀疏表示法来表示此句子,则仅存储象征句子中实际存在的单词的单元格。因此,如果句子只包含 20 个独一无二的单词,那么该句子的稀疏表示法将仅在 20 个单元格中存储一个整数。
    例如,假设以两种方式来表示句子“Dogs wag tails.”。如下表所示,密集表示法将使用约一百万个单元格;稀疏表示法则只使用 3 个单元格:
    密集表示法
    单元格编号 单词 出现次数
    0 a 0
    1 aardvark 0
    2 aargh 0
    3 aarti 0
    … 出现次数为 0 的另外 140391 个单词
    140395 dogs 1
    … 出现次数为 0 的 633062 个单词
    773458 tails 1
    … 出现次数为 0 的 189136 个单词
    962594 wag 1
    … 出现次数为 0 的很多其他单词

    稀疏表示法
    单元格编号 单词 出现次数
    140395 dogs 1
    773458 tails 1
    962594 wag 1

    稀疏性 (sparsity)
    向量或矩阵中设置为 0(或空)的元素数除以该向量或矩阵中的条目总数。以一个 10x10 矩阵(其中 98 个单元格都包含 0)为例。稀疏性的计算方法如下:
    稀疏性稀疏性=98/100=0.98
    特征稀疏性是指特征向量的稀疏性;模型稀疏性是指模型权重的稀疏性。

    随机梯度下降法 (SGD, stochastic gradient descent)
    批次大小为 1 的一种梯度下降法。换句话说,SGD 依赖于从数据集中随机均匀选择的单个样本来计算每步的梯度估算值。

    步长 (stride)
    在卷积运算或池化中,下一个系列的输入切片的每个维度中的增量。例如,下面的动画演示了卷积运算过程中的一个 (1,1) 步长。因此,下一个输入切片是从上一个输入切片向右移动一个步长的位置开始。当运算到达右侧边缘时,下一个切片将回到最左边,但是下移一个位置。

    监督式机器学习 (supervised machine learning)
    根据输入数据及其对应的标签来训练模型。监督式机器学习类似于学生通过研究一系列问题及其对应的答案来学习某个主题。在掌握了问题和答案之间的对应关系后,学生便可以回答关于同一主题的新问题(以前从未见过的问题)。请与非监督式机器学习进行比较。

    张量 (Tensor)
    TensorFlow 程序中的主要数据结构。张量是 N 维(其中 N 可能非常大)数据结构,最常见的是标量、向量或矩阵。张量的元素可以包含整数值、浮点值或字符串值。

    TensorFlow
    一个大型的分布式机器学习平台。该术语还指 TensorFlow 堆栈中的基本 API 层,该层支持对数据流图进行一般计算。
    虽然 TensorFlow 主要应用于机器学习领域,但也可用于需要使用数据流图进行数值计算的非机器学习任务。

    测试集 (test set)
    数据集的子集,用于在模型经由验证集的初步验证之后测试模型。
    与训练集和验证集相对。
    验证集 (validation set)
    数据集的一个子集,从训练集分离而来,用于调整超参数。
    与训练集和测试集相对。

    权重 (weight)
    线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献

    来自谷歌机器学习文档https://developers.google.com/machine-learning/crash-course/glossary#sparse_features

  • 相关阅读:
    容器 list
    迭代器
    排序
    extern "C"
    FZU2127
    HDU1102--最小生成树
    HDU1102(最小生成树Kruskal)
    并查集详解(转自一个很有才的大神)膜拜
    C# switch
    Dijkstra(歪果仁的名字真是长。。。)
  • 原文地址:https://www.cnblogs.com/hello-bug/p/12526255.html
Copyright © 2020-2023  润新知