机器学习面试的知识点太多,想全靠背那是扯淡。你得有体系地去理解,才能在 BAT 这些大厂的面试中从容应对。我最近翻到一个总结挺全的资源,内容覆盖了从模型融合到特征工程,从逻辑回归到 XGBoost,干货不少,讲得也算通俗易懂,适合临时抱佛脚也适合系统复盘。
模型融合的几种主流方式都有讲到:Voting
、Averaging
、Bagging
、Boosting
、Stacking
,各种适用场景一目了然。尤其是Stacking
,好多同学搞不清楚层级逻辑,这篇讲得还蛮清楚。
特征选择这块,了不少实用方法,像递归特征消除
、L1 正则
都比较常见,还有几个你没怎么系统了解过的,比如基于模型的排序方式。里面还顺手给了两个相关文章:特征选择节点模型页签解析 和 顺序特征选择函数改进,可以一起参考。
逻辑回归作为入门模型,是不是面试必考你自己都知道。它的原理和推导,这篇提到了个,重点还在你要能写出损失函数
和梯度
,能在白板上讲清楚推导过程,才有分拿。
XGBoost的部分也写得不错,把objective
、gamma
、eta
这些参数讲了一圈,适合你快速翻一遍,对照代码里调参更有底气。
还有一些比较基础但面试常考的内容,比如PCA
和LDA
的降维区别、Bagging
和Boosting
的对比、数据不平衡方式(欠采样、过采样、代价函数调整),全都囊括了,堪称小抄合集。
如果你最近正好准备机器学习方向的面试,可以把这篇当成提纲来过一遍,哪里卡壳就重点补哪里,效率还挺高的。