• 陌生的你


    学习过程中,每当遇到陌生有趣的单词我都会记录下来,并且记录我是在何种应用场景遇到的它。

                                        ——2018.01.28

    一、
    1. Incorporated 英 [ɪnˈkɔ:pəreɪtɪd] 包含;组成公司( incorporate的过去式和过去分词 );使混合
    2. procedure英 [prəˈsi:dʒə(r)] 程序,手续;工序,过程,步骤;诉讼程序,(议会的)
    3. sketch英 [sketʃ] 美 [skɛtʃ] n.素描;草图;梗概v.速写;草拟;简述
    4. outline英 [ˈaʊtlaɪn] n.梗概,大纲,提纲,草稿,要点,主要原则;外形,
    5. Refined 英 [rɪˈfaɪnd]adj.精制的;精炼的;经过改良的;举止优雅的v.精制;使纯净;使文雅高尚
    6. Retrieve 英 [rɪˈtri:v] 美 [rɪˈtriv] vt.取回;恢复;
    7. Deviation 英 [ˌdi:viˈeɪʃn]背离,偏离[数] 绝对偏差standard~标准差
    8. Initialize 英 [ɪˈnɪʃəlaɪz] 美 [ɪˈnɪʃəˌlaɪz] vt. 初始化

    二、
    9. Assert 英 [əˈsɜ:t] 美 [əˈsɜ:rt] vt.声称,断言;维护,坚持;坚持自己的主张;生效
    10. Shape 英 [ʃeɪp] 美 [ʃep] 形状;模型;状态;身材vt.塑造;vi.形成;使成形 变形(元素个数不变)
    矩阵 train_X.shape 计算出是几乘几的矩阵
    11. Seed 英 [si:d] 美 [sid] n.种子;子孙;起源;(尤指网球比赛)种子选手vt.播种;抽出种子选手;
    np.random.seed(x) x -- 改变随机数生成器的种子seed。 目的:生成同一个随机数
    12. Attribute 英 [əˈtrɪbju:t] 属性;
    13. Zero 英 [ˈzɪərəʊ] 美 [ˈzɪroʊ] Zeros([3,3]) 0adj.全无的,没有的v. .聚焦,集中
    np.zeros(3) 生成1 * 3零矩阵,np.zeros((2,3)) 生成2*3零矩阵
    14. Mean 均值
    15. Axis 英 [ˈæksɪs] 美 [ˈæksɪs] n.轴(x,y),轴线;[政]轴心;轴心国;[植]茎轴
    16. Squeeze 英 [skwi:z] 美 [skwiz] vt.& vi.挤;(确保是期望的维度)压(axis)迫,压榨

    x1 = np.squeeze(x) # 从数组的形状中删除单维条目,即把shape中为1的维度去掉print(x1) # [0 1 2] multiply

    三、

    17. Enumerate 英 [ɪˈnju:məreɪt] 美 [ɪˈnu:məreɪt] vt.列举,枚举,数
    18. Lambda 英 [ˈlæmdə] 美 ['læmdə] n.希腊字母的第 11个字
    19. array 英[əˈreɪ]美[ə'reɪ]n.数组; 队列,阵列; 一大批; 衣服;vt. 排列; 部署兵力;
    20. Multiplicity degree (MD):多样性程度

    21. Discrete 英 [dɪˈskri:t] 美 [dɪˈskrit] adj.分离的,不相关联的;分立式;非连续
    22. Versus [ˈvərsəs, ˈvərsəz]PREPOSITION against, as opposed to
    23. Cellular 英 [ˈseljələ(r)] 美 [ˈsɛljəlɚ] adj.细胞的;蜂窝状;由细胞组成的;多孔的
    24. Degradation 英 [ˌdegrəˈdeɪʃn] 美 [ˌdɛɡrəˈdeʃən] n.恶化;堕落;潦倒;毁坏

    四、
    25. play important roles 扮演重要角色
    26. Motif 英 [məʊˈti:f] 美 [moʊˈti:f] n.(文艺作品等的)主题;(音乐的)乐旨,动机;基本图案
    27. Eliminate 英 [ɪˈlɪmɪneɪt] 美 [ɪˈlɪməˌnet] vt.淘汰;排除,消除;除掉;<口>干掉
    28. Following the above described steps 按照上述步骤
    29. Anticipate 英 [ænˈtɪsɪpeɪt] 美 [ænˈtɪsəˌpet] vt.预见;预料;预感;先于…行动
    The proposed model is anticipated to be a useful resource for computational prediction
    30. Adjacent 英 [əˈdʒeɪsnt] 美 [əˈdʒesənt] adj.相邻;邻近的,毗邻的;(时间上)紧接着
    A number of research indicate that the adjacent sequences also play important roles in peroxisomal targeting.
    31. Intrinsic 英[ɪnˈtrɪnsɪk] adj.本征; 固有的,内在的,本质的; [解剖] 体内的; 先天性;
    32. pitfall英 [ˈpɪtfɔ:l] 美 [ˈpɪtˌfɔl] n.陷阱;诱惑;圈套

    五、
    33. Batch美[bætʃ]英[bætʃ]n.批;一批;(食物、药物等的)一批生产的量v.分批处理
    34. Material 英 [məˈtɪəriəl] 美 [məˈtɪriəl]n.素材;材料,原料;布,织物;适当人选
    35. Drawbacks 英 [d'rɔ:bæks] n.缺点,不利条件,障碍( drawback的名词复数 )
    36. Traversal 英 [træ'vɜ:sl] 美 ['trævɜ:səl] n.横越,横断物,(横向)往返移动
    37. Capsule英 [ˈkæpsju:l] n.胶囊;航天舱;(植物的)荚;小容器adj.压缩的;概要的
    38. Squash 英 [skwɒʃ] vt.挤进;将(某人[某物])压扁;使沉默;平定(叛乱等)
    39. Binomial英 [baɪˈnəʊmiəl] adj.二项的,二项式的
    40. derivative英 [dɪˈrɪvətɪv] n.[数]导数,微商;[化] 衍生物,派生物;[语]派生词

    六、

    41. dropout/ˈdrɒpaʊt/ n.辍学者;退学者;拒绝传统社会的人Dropout regularization
    42. Euclid[ju։klid] n. 欧几里得(约公元前3世纪的古希腊数学家)
    43. Mutually英 [ˈmju:tʃuəli] 美 [ˈmjuːtʃuəli] adv.互相地,互助; 对;
    44. Stochastic 形容词随机random, stochastic
    45. Ensemble 英 [ɒnˈsɒmbl] 美 [ɑ:nˈsɑ:mbl] n.全体;<音>合奏;全套服装;总效果
    46. Classifier分类器简写clf, clf_svm指的是创建svm分类器对象
    47. Pixel 英 [ˈpɪksl] 像素
    48. Dialog 英 ['daɪəlɒg] 美 ['daɪəˌlɒg] n.会话,对话;问答,对白;问答题,对话

    七、
    49. Scatter 英 [ˈskætə(r)] 美 [ˈskætɚ] vt.(使)散开,(使)分散,驱散vi.分散;撒开
    50. Retrieve 英 [rɪˈtri:v] 美 [rɪˈtriv] vt.取回;恢复;[计]检索;重新得到
    51. Epochs英 [ˈi:pɒks] 训练次数;纪元;新时期
    52. Multiply 英 [ˈmʌltɪplaɪ] 美 [ˈmʌltəˌplaɪ] vt.& vi.(同形矩阵)相乘
    两个数组元素一一对应相乘 np.dot: 矩阵乘法. np.transpose: 返回转置, 也可以使用一个 ndarray 的 nd.T 属性.np.random.rand(3, 2) 返回一个 3 乘 2 的矩阵.

    53. Eye英 [aɪ] 生成对角矩阵 np.eye[3][[0,1,2]] 对应的索引值的行向量组成的矩阵
    54. Quiz 英 [kwɪz] 简单的小测试
    55. Column 英 [ˈkɒləm] 美 [ˈkɑ:ləm] n.专栏;圆柱;纵队,
    56. Rigorous 英 [ˈrɪgərəs] 美 [ˈrɪɡərəs] adj.严格的;严密的;缜密的;枯燥的It makes our code more rigorous.

    八、
    57. numpy.random.rand(d0, d1, …, dn):其中d0, d1, …, dn为整数(int)型,输出一个shape为(d0, d1, …, dn)的矩阵.
    58. np.sum(A, axis = 1, keepdims = True)
    59. preceptron feed forward感知器前馈 regression metrics 回归指标 tune your model 调整你的模型 decision boundary 决策边界
    60. symmetry 英 [ˈsɪmətri] break symmetry 打破对称

    61. Coordinator 英 [kəʊ'ɔ:dɪneɪtə] 美 [koʊ'ɔ:dənˌeɪtə] n.协调者; 助理
    62. cisco英 ['sɪskəʊ] 美 ['sɪskoʊ] n.加拿大白鲑(一种青鱼)思科
    63. Mindset 英 [ˈmaɪndset] 美 [ˈmaɪndset] n.观念模式,思维倾向,心态
    64. Notation 英 [nəʊˈteɪʃn] n.记号,标记法 Deep neural network notation

    九、
    65. try out英 [trai aut]试行;试用 You will then compare the performance of these models, and also try out different values for LL.
    66. Methodology 英 [ˌmeθəˈdɒlədʒi] 美 [ˌmeθəˈdɑ:lədʒi] n.方法论;方法学
    67. with respect to关于, 谈到 Remember that back propagation is used to calculate the gradient of the loss function with respect to the parameters.
    68. Complicated 复杂的 maximum 英 [ˈmæksɪməm]adj.最大值的,最大量的
    69. Keep track of 英 [ki:p træk ɔv] 记录;与…保持联系
    70. Derivatives 英 [dɪ'rɪvətɪvz] 美 [də'revətɪvz] n.导数;
    71. Explicit 英 [ɪkˈsplɪsɪt] 美 [ɪkˈsplɪsɪt] adj.确的
    72. without an explicit for-loop over the layers 显式循环 遍历层

    十、
    73. nostalgia 英 [nɒˈstældʒə] n.怀旧;乡愁
    74. adverse 英 [ˈædvɜ:s] 美 [ˈædvɜ:rs] adj.不利的;
    75. doctorate 英 [ˈdɒktərət] 博士学位;
    76. decay 英 [dɪˈkeɪ] 衰败
    77. symmetry英 [ˈsɪmətri] 对称 break symmetry
    78. trajectory英 [trəˈdʒektəri] 轨迹 Testing Optimal Trajectory
    79. minus英 [ˈmaɪnəs] 负的 x minus (x plus)So we’ll call that x plus and this x minus.
    80. Momentum[məˈmentəm] algorithm 动量算法

    十一、 

    81. Saddle [ˈsædl] 鞍点(saddle point)
    82. explicitly [ɪk'splɪsɪtlɪ] parallel programming model 显式并行编程模型
    83. pow [paʊ] 脑袋,乒
    math.pow( x, y )返回 xy(x的y次方) 的值;math.pow(x, y[, z]) z存在,则对结果进行取模

    84. posterior [pɒˈstɪəriə(r)] probability 后验概率
    85. partitioned into 划分为
    86. decision stump英 [stʌmp] 决策树桩:由一个根节点直接连接两个叶节点的简单决策树
    87. outlier异常点
    88. discrimin [disˈkriminənt] 判别式

    十二、
    89. production [prəˈdʌkʃən] 生成式 What is the discriminant model and the generating model?
    90. Hinge [hɪndʒ] 合页 逻辑回归采用的是logistical loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。
    91. Convolutional  [kɒnvə'lu:ʃənəl]  Neural Network 卷积神经网路
    92. Specificity [ˌspesɪˈfɪsəti] n. 特异性,特征,种别性;种特性
    93. Bootstrap n. 引导程序;解靴带;靴袢;自益 bootstrap数据指的是:有放回地从总共N个样本中抽样n个样本
    94. K-means :我们假设样本有3类,即K=3选择3个距离适当的坐标点作为这个3类的中心点,将所有的待分样本按照最近邻原则分类,再根据最新的分类,计算出每个类中样本的平均坐标值,取为该类的新中心点。
    95. KNN :k-Nearest Neighbors 分好类的样本的特征输入;输入待分类样本,我们通过这个样本的周围最近的K个已经分好类的邻居的类别来判断它的类别。KNN没有训练过程,K-means有训练过程
    96. Rectified ['rektɪfaɪd] Linear Unit,:ReLU线性整流函数,如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。当然现在也有一些对relu的改进,比如prelu,random relu等,在不同的数据集上会有一些训练速度上或者准确率上的改进,具体的大家可以找相关的paper看。
    97. LSTM(Long Short Term Memory):LSTM网络已被证明比传统的RNNs更加有效;LSTM模型中既存在sigmoid又存在tanh两种激活函数
    98. vanishing gradient 梯度消失 How does the ReLu solve the vanishing gradient problem? 神经网络的训练中,通过改变神经元的权重,使网络的输出值尽可能逼近标签以降低误差值,训练普遍使用BP算法,核心思想是,计算出输出与标签间的损失函数值,然后计算其相对于每个神经元的梯度,进行权值的迭代。许多激活函数将输出值挤压在很小的区间内,在激活函数两端较大范围的定义域内梯度为0,造成学习停止。

    十三、
    99. pooling layer 当在卷积神经网络中加入池化层(pooling layer)时,变换的不变性会被保留
    100. Hinge [hɪndʒ] loss function : 合页损失函数 (常用在SVM中)

     

  • 相关阅读:
    双元素非递增(容斥)--Number Of Permutations Educational Codeforces Round 71 (Rated for Div. 2)
    两两内积为0(牛客多校第七场)-- CDMA
    十进制快速幂(牛客多校第五场)-- generator 1
    分层最短路(牛客第四场)-- free
    %300为0的个数(牛客第四场)-- number
    3的倍数 或运算构造x(牛客第四场)-- triples I
    笛卡尔树--牛客第四场(sequence)
    线性基求交(线段树)--牛客第四场(xor)
    最短meeting路线(树的直径)--牛客第四场(meeting)
    最长相同01数的子串(map搞搞)--牛客第三场 -- Crazy Binary String
  • 原文地址:https://www.cnblogs.com/ylHe/p/8371365.html
Copyright © 2020-2023  润新知