转自:https://blog.csdn.net/gavin__zhou/article/details/71075217
- 什么是boosting tree
- GBDT
- L1和L2正则为何可以减弱over-fitting?
- L1和L2正则有什么区别
- KNN和LR有什么本质区别
- 怎么理解Dropout
- 为什么random forest具有特征选择的功能
- random forest有哪些重要的参数?
- DNN为什么功能强大,说说你的理解
- SVM的损失函数是什么?怎么理解
- 介绍下Maxout
- 项目中over-fitting了,你怎么办
- 详细说一个你知道的优化算法(Adam等)
- 项目(比赛)怎么做的模型的ensemble
- stacking是什么?需要注意哪些问题
- 了解哪些online learning的算法
- 如何解决样本不均衡的问题
- fasterRCNN中的ROIPooling是如何实现的
- 如何进行特征的选择
- 如何进行模型的选择
- 什么是梯度消失?怎么解决
- 常用的有哪些损失函数
- XX用户画像挖掘怎么做的feature engineering?
- 假设一个5*5的filter与图像卷积,如何降低计算量?
- 做过模型压缩吗?介绍下
- 什么是residual learning?说说你的理解
- residual learning所说的residual和GBDT中的residual有什么区别?
- FFM和FTRL有过了解吗?
- 你对现在Deep Learning的发展和遇到的问题有什么看法?
- EM算法、决策树、随机森林等、包括SVM,逻辑回归、EM、K-means
- 各种基础、网络基础TCP三次握手、Linux线程通信、进程线程的区别、深拷贝浅拷贝、数据库transaction、悲观锁乐观锁等等
- 决策树,怎么计算信息熵、信息增益、然后C4.5 ID3 CART的区别
- 还说了一下优缺点、让我10分钟写二叉树插入方法(非递归)