• 面经准备


    余弦loss求相似度

    既然我是用c++,用caffe,那这两个我要重点复习复习

    深度学习方向:

        1.各个优化器的比较区别?(http://freeshare.free4inno.com/resource?id=16925&home=timerank)(多次出现)

        2.如何避免过拟合,l1l2正则哪个可以解决过拟合问题?你怎么理解的?(http://freeshare.free4inno.com/resource?id=16925&home=timerank)(多次出现)

        3.你知道哪些CNN的模型?从VGG到AlexNet GoogleNet 到高速公路网络 ResNet 以及Res的变形(DenseNet等)(http://freeshare.free4inno.com/resource?id=16862&home=timerank)

        4.讲讲ResNet吧?反向传播的过程是怎么传播的?(http://freeshare.free4inno.com/resource?id=16862&home=timerank)

        5.用过什么损失函数?(http://freeshare.free4inno.com/resource?id=16862&home=timerank)

        6.初始学习率怎么设?(http://freeshare.free4inno.com/resource?id=16893)

        7.凸优化了解吗? 牛顿法、SGD、最小二乘法,各自的优势。(http://freeshare.free4inno.com/resource?id=16893)

        8.kl散度和交叉熵的关系(http://freeshare.free4inno.com/resource?id=16078&home=timerank)

        9.batch-normalization技术与dropout的区别和联系(http://freeshare.free4inno.com/resource?id=16078&home=timerank)

        10.sigmoid、tanh、relu,relu 的改进、maxout

        11.梯度消失、爆炸的原因,梯度消失如何解决,梯度爆炸如何解决?

        12.反卷积、group convolution、dilated convolution?

        13.为什么梯度反方向是函数值下降最快的方向?   https://www.zhihu.com/question/59683332

        14.fc全连接层、卷积、pooling、激活函数的作用是什么?

        15.https://www.zhihu.com/question/41233373这个也好好看看

        16.https://zhuanlan.zhihu.com/p/33020995 重点关注

        17.卷积反向传播

        18.深度学习为什么在图像领域效果这么好

        19.我用了focal loss就要去看retinanet

        20.卷积的时间复杂度

        21.dropout的原理,为什么能解决过拟合(这个在几个知乎的连接里面还有提到,去看看,就比如雄风的答案和那个回答王乃岩的)

        22.欠拟合怎么解决

        23.https://zhuanlan.zhihu.com/p/29965072

        24.列举常见的一些范数及其应用场景,如L0,L1,L2,L∞,Frobenius范数

        25.KL散度在信息论中度量的是那个直观量

        26.Jacobian,Hessian矩阵及其在深度学习中的重要性

        27.https://zhuanlan.zhihu.com/p/29936999

        28.https://zhuanlan.zhihu.com/p/25005808

        29.https://zhuanlan.zhihu.com/p/28871960

        30.https://www.zhihu.com/question/54308150    mileistone    整个都可以看

        31.dropout的原理,batch normalization的原理,maxout激活函数的原理  https://zhuanlan.zhihu.com/p/35542792把这个链接好好看看再总结

        32.用代码写出Logistic regression的损失函数,并提问了这个损失函数如何推导出的。

        33.也算是算法题:编写函数计算softmax中的cross entropy loss

        34.https://zhuanlan.zhihu.com/p/30675529

        35.为什么 adagrad 适合处理稀疏梯度?

        36.DNN 的初始化方法有哪些? 为什么要做初始化? kaiming 初始化方法的过程是怎样的?

        37.sigmoid 函数的应用有哪些,为什么?

        38.有关稀疏的东西可以准备一下,为什么稀疏的就好

        39.为什么loss负样本多会主导loss的计算,并且为什么那样效果差?(非常重要)

                  40.https://www.zhihu.com/question/59683332 雄风的回答好好去看看

         41.一些调参的技巧可以在花书上找到

        42.花书上有卷积的动机,可以看看

        43.Random Forest, GBDT, Xgboost,为什么xgb比gbdt快

        44.SVM和LR的区别,SVM和LR哪个对噪声更加敏感

        45.CNN每个卷积核的梯度怎么反向传播

        46.sigmoid函数的倒数范围 ------ 0到1/4

    算法题:  

        1.topk

        2.LeetCode295

        3.两个string表示的数乘法

        4.给你坐标上的很多点,如何计算任意两点的最大斜率?

        5.快排

        6.c++写vector删除所有元素

        7.手写nms和iou

        8.找中位数

        9.有很多重复数字的二分查找

    开放题:

        1.每天都有10w个2分钟左右的小视频,设计一个算法来检测今天的小视频是不是和之前存在的小视频相似

    智力题:

        1.一个任意三角形切割几刀,用切割之后的碎片拼成一个矩形,为了完成这个目的要切几刀?

    综合性:1.矩阵求导

  • 相关阅读:
    Qt共享内存实现进程间通信(QSharedMemory)
    Qt5.5制作简单的屏幕截图程序
    006--C++动态内存(简介)
    005--C++字符
    004--C++11的初始化方式
    003--sizeof的使用
    002--C++程序的创建
    001--基础知识准备
    Qt5.5连接MySQL
    vue-cli中如何创建并引入自定义组件
  • 原文地址:https://www.cnblogs.com/ymjyqsx/p/9375110.html
Copyright © 2020-2023  润新知