• 面试百度的机器学习算法,也不过如此


    本文已经收录至我的GitHub,欢迎大家踊跃star 和 issues。

    https://github.com/midou-tech/articles

    机器学习整体难度还是有点,不过这个岗位真的是很香,钱多,发展空间足未来可期啊。

    本篇文章面经是三位大佬面试百度机器学习岗位的面试题,其中两位已经拿到offer,赶紧复习起来,下一个offer就是我。

    更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。


    一面

    • 询问简历上做过的项目,以及项目细节
    • 算法题:
    • 二叉树中序遍历(要非递归解法)
    • 两个有序链表的归并。
    • 快排
    • lstm 详细讲讲解
    • attetion 机制
    • 混淆矩阵,F1等计算
    • n个人进餐馆,都把帽子挂在门口,走的时候随手拿一顶,问拿到帽子恰好是自己的人数的期望
    • ML 与 DL比较
    • 实习的一些问题

    二面

    • 算法题:返回二叉树中路径和为某一值的所有路径、反转句子中单词顺序

    • 区块链比赛和专利

    • 我惊了个呆,大佬竟然还了解区块链,准确指出了我的区块链项目和专利的不靠谱处(我也知道啊,所以我转ML了啊)

    • 项目

    • 这个就随便聊了聊

    • AUC计算

    • 很奇怪,我面试后看了看发现给出的是正确方法,但是面试官说不对。。。

    • 进程和线程是为什么被提出的

    • 线程间如何通信

    • 快排复杂度的证明

    • 特征筛选方法

    三面

    • 基础数据结构和算法有哪些
    • 是的你没猜错,我把课本罗列了一下,顺序表 链表 哈希表 树系列 图系列,选择插入冒泡希尔堆快速基数外部排序,就过了。。。
    • 推荐类算法比较
    • 机器学习算法比较
    • 聊了聊区块链

    已经拿到offer

    这是下一位同学的面经

    一面

    • 聊项目,聊的非常细,我的项目就是比赛,面试官甚至问了我提分的过程,一开始多少分,做了哪些工作之后升到了多少分之类的;

    • 跟过拟合有关的一些问题,详细的内容已经记不清了;

    • 聊xgboost;

    • 聊deepFM;

    • 项目中用到了LSTM,为什么可以用LSTM,它的主要用处是什么,以及LSTM的梯度消失问题;

    • 算法题:二叉树中的最长路径;

    • 算法题:x的平方根。

      二面:

    • 聊项目;

    • 聊GBDT;

    • 算法题:二分查找;

    • 算法题:最大堆的插入;

    • 聊deepFM;

    • 不定长文本数据如何输入deepFM,如果不截断补齐又该如何输入;

    • 项目中为什么使用LSTM;

    • 项目中整个过程中都做过哪些优化。

      三面:

    • n个数中等概率抽取m个数。

      三面就问了一道概率题,剩下的基本上是聊天。 总的来说面试难度不高,感觉也是我运气好吧。


    这是下一位同学的面经

    一面

    • 给一个数组,数组的数字代表股票价格,求一次买卖的最大股票收益
    • 1-n的全排列
    • lstm是什么的升级?解决了什么问题?
    • 讲一讲各种激活函数
    • attetion 机制
    • embedding的深层含义是什么
    • c 的const字段有什么意义
    • RF和GBDT的区别
    • 为什么GBDT可以提高准确率
    • 矩阵分解

    二面

    • 自我介绍
    • 讲区块链
    • 区块链中51%攻击的经济学原理
    • 求树两个节点的最低公共祖先
    • 讲kaggle比赛
    • xgboost比gbdt的优化都有哪些
    • 为什么xgboost要求二阶导数
    • 泰勒展开逼近残差,二阶比一阶精度高
    • 通用性,所有二阶可导的loss function都可以用
    • 有些函数梯度在一阶上变化小,二阶变化大,参考牛顿法
    • 为什么gbdt没有正则
    • 讲项目
    • 计算一下项目中DNN的参数个数
    • gbdt与lr区别
    • 集成为什么会提高效果
    • l1 l2正则
    • xgb lgb调参怎么选参数
    • 贪婪搜索呗?面试官觉得不行?难道是贝叶斯参数优化?
    • 怎么样在没有得到未来数据的情况下提高模型对未来预测的效果
    • 讲道理我觉得这个问的非常扯淡,不就是泛化性,然后我说了一些降低方差的方法,面试官说是对未来预测的准确性,没有get到他的点,最后被说对算法的追求不够。。。。

    更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。

  • 相关阅读:
    浅谈折半搜索
    NOIP PJ/CSP-J 题目选做
    SDN第五次上机作业
    SDN第四次上机作业
    SDN第三次上机作业
    SDN第二次上机作业
    必看
    关于tensor
    permute与transpose
    1823. 找出游戏的获胜者
  • 原文地址:https://www.cnblogs.com/zhonglongbo/p/12436321.html
Copyright © 2020-2023  润新知