• 知识点学习


    一:学习了LSTM和CNN

    LSTM 选择性地记忆之前地信息,利用了各种门控
    CNN : 卷积核 进行卷积 得到 n-f+1)*(n-f+1)
    会导致图像缩小边缘信息消失 所以进行padding ,padding完后,然后卷积可以的得到和原来一样地维度图像n+2p-f+1)*(n+2p-f+1)
    卷积stride :
    公式: w * a+b然后 relu一下 非线性化
    ll 为一个卷积层:
    f[l]f[l]:第ll层过滤器的大小
    p[l]p[l]:第ll层padding的数量
    s[l]s[l]:第ll层步长大小
    nlCnCl:过滤器的个数
    Input:
    nl−1H×nl−1W×nl−1CnHl−1×nWl−1×nCl−1:l−1l−1层输入图像的高、宽以及通道数。
    Output:
    nlH×nlW×nlCnHl×nWl×nCl:输出图像的高、宽以及通道数
    输出图像的大小:
    nlH=⌊nl−1H+2∗pl−f[l]sl+1⌋nHl=⌊nHl−1+2∗pl−f[l]sl+1⌋
    nlW=⌊nl−1W+2∗pl−f[l]sl+1⌋nWl=⌊nWl−1+2∗pl−f[l]sl+1⌋
    输出图像的通道数就是过滤器的个数
    池化:最大池化就是把图像分成几份,每一份中地最大值
    平均池化:每一份中地平均值
    超参数: 步长、过滤器大小、池化类型
    https://blog.csdn.net/ice_actor/article/details/78648780

    二:余弦相似度

          余弦相似度计算:根据con 两个向量的夹角越小表示两个向量越相似,根据余弦公式可以计算文本相似度或句子相似度 越接近1越相似https://blog.csdn.net/u012160689/article/details/15341303

    三:线性回归

    线性回归:https://zhuanlan.zhihu.com/p/25434586
    解析解法:
    中用到了最小二乘法 https://blog.csdn.net/u012315428/article/details/53465678,求线性方程斜率,利用线性代数的方法,矩阵的变换,利用均方差,求取斜率和bias的导数为0时,得到最优解,而这个最优解和用矩阵求出的一样 故可以用 w^=(XTX)−1XTy
    梯度下降法:进行拟合
    凸函数:https://blog.csdn.net/u010182633/article/details/75267242

    四:并把双向RNN的那篇论文重新看了一下,有了新的理解

       双向RNN,一个正向输入 一个反向输入 然后生成annotations ,-->h ,在encoder中为每一个word生成context ci ci具有上下文的含义  

       decoder 根据 ci 以及权重 来生成yi
      https://blog.csdn.net/xiewenbo/article/details/79382785
    前馈网络:每一层中的神经元接受前一层的输出,并输出下一层神经元,整个网络中的信息是朝一个方向进行的
    反馈网络:不但可以接收其它神经元的信号,也可以接收自己的反馈信号

    五:正在看谷歌的bert模型,预训练

  • 相关阅读:
    用msi安装MySQL时MySQL Server组件不能安装,或安装失败
    在Django中连接MySQL数据库(Python3)
    2,简单的Python爬虫
    把自己的电脑做成服务器,并搭建自己的网站
    任务计划程序(让计算机自动执行程序)
    1,Python爬虫环境的安装
    response和request的区别以及常见问题解决
    Microsoft Visual Studio 2010 Service Pack 1 更新 (KB3002340)
    设置radiobutton 都不选中
    QQ邮件发送问题
  • 原文地址:https://www.cnblogs.com/Shaylin/p/10009565.html
Copyright © 2020-2023  润新知