zoukankan      html  css  js  c++  java
  • 2019秋招面试题-机器学习部分

    一、TF-IDF

    有很多不同的数学公式可以用来计算TF-IDF。这边的例子以上述的数学公式来计算。词频 (TF) 是一词语出现的次数除以该文件的总词语数。假如一篇文件的总词语数是100个,而词语“母牛”出现了3次,那么“母牛”一词在该文件中的词频就是3/100=0.03。一个计算文件频率 (IDF) 的方法是文件集里包含的文件总数除以测定有多少份文件出现过“母牛”一词。所以,如果“母牛”一词在1,000份文件出现过,而文件总数是10,000,000份的话,其逆向文件频率就是 lg(10,000,000 / 1,000)=4。最后的TF-IDF的分数为0.03 * 4=0.12。


    某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。

    二、分类和回归的损失函数

    https://www.cnblogs.com/houjun/p/8956384.html

    分类:

    1、 0-1损失 (zero-one loss)

    2、感知损失

    3、cross entropy

    4、Logistic loss

    *********************************************************************

    回归:

    https://blog.csdn.net/reallocing1/article/details/56292877

    MSE: Mean Squared Error 
    均方误差:是指参数估计值与参数真值之差平方的期望值; 

    RMSE 
    均方根误差:是均方误差的算术平方根

    MAE :Mean Absolute Error 
    平均绝对误差是绝对误差的平均值 
    平均绝对误差能更好地反映预测值误差的实际情况.

    SVM损失函数:hinge损失+w2正则

    adaboost:指数损失

    三、如何避免陷入鞍点(局部最小)

    (一)以多组不同参数值初始化多个神经网络,去其中误差最小的作为结果

    (二)使用“模拟退火”技术

      模拟退火在每一步都以一定的概率接受比当前解更差的结果,从而有助于跳出局部最小值。在每次迭代过程中,接受’“次优解”的概率要随着时间的推移而逐渐降低,从而保证算法稳定。

    (三)使用随机梯度下降

      每次随机选取一个样本进行梯度下降,在梯度下降时加入了随机因素。即便陷入了局部最小点,它计算出的梯度可能仍不为零,这样就有机会跳出局部最小继续搜索。

  • 相关阅读:
    五、nginx 配置实例-负载均衡
    四、nginx配置实例-反向代理
    三、nginx配置文件
    二、Nginx 安装
    十二、rpm包的管理
    十一、进程管理
    十、Linux磁盘分区、挂载
    九、定时任务调度
    八、组管理和权限管理
    七、实用指令
  • 原文地址:https://www.cnblogs.com/kkkky/p/9887405.html
Copyright © 2011-2022 走看看