zoukankan      html  css  js  c++  java
  • 机器学习常见问题

    一、线性回归的基本假设是什么?

    使用线性回归模型的四个基本假设:
    (1)自变量和因变量满足线性可加
    a. 因变量的预测值和自变量满足直线方程,方程中,其余变量当作常量
    b. 直线的斜率和其他变量无关
    c. 不同因变量的值对于自变量的预测值是可加的

    (2)误差是统计独立的

    (3)对于任意自变量,误差的方差不变

    (4)误差满足正态分布

    二、什么是准确率、精确率、召回率

    精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。

    召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。

    准确率(accuracy) = 预测对的/所有

     如果我们希望:被检索到的内容越多越好,这是追求“查全率”,即A/(A+C),越大越好。

    如果我们希望:检索到的文档中,真正想要的、也就是相关的越多越好,不相关的越少越好,

    这是追求“准确率”,即A/(A+B),越大越好。

     

    三、决策树的损失函数以及剪枝系数

    H(t)表示第t个叶子节点的不确定度(信息增益、信息增益率、基尼系数等)

    D(t)表示第t个叶子节点的样本数

    D表示总共的样本数

    通常,节点越多,决策树越复杂,损失也越大。可以对损失函数添加损失系数,修正后的损失函数为:

    对于根节点r的决策树和节点有R个的决策树,剪枝系数表示为:

    四、简述剪枝操作

    前向剪枝:构建决策树的时候,提前停止。

    后置剪枝:决策树构建好之后,再进行剪枝,(1)用单一叶子节点代替整个子树(2)将一颗子树完全替代另一颗

    对于后置剪枝的过程为:

    (1)计算所有内部非叶子节点的剪枝系数

    (2)删除最小剪枝系数的节点,若存在多个最小剪枝系数节点,删除包含数据项最多的节点

    (3)重复上述过程,直到产生的剪枝决策树只有一个节点

    (4)每次删除节点得到决策树Ti

    (5)使用验证样本集选择最优子树(即可以通过损失函数验证)

     五、决策树的停止条件

    方式1:当每个子节点都只有一种类型时停止构建

    方式2:节点中的记录数据小于某个阈值且迭代次数达到给定值

    方式1容易过拟合、方式2常用

    六、分类树和回归树的区别

    分类树的叶子节点的预测值一般为概率最大的类别,回归树的叶子节点的预测值一般为所有值的均值,回归树采用均方差作为数的评价指标。

    七、交叉熵

    交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性。交叉熵作为损失函数还有一个好处是使用sigmoid函数在梯度下降时能避免均方误差损失函数学习速率降低的问题,因为学习速率可以被输出的误差所控制。

    八、线性回归和逻辑回归有什么区别联系

    区别:
    (1)需要优化的损失函数不同,线性回归的损失函数为平方和损失函数,逻辑回归的损失函数为似然函数的负数
    (2)线性回归解决回归问题,逻辑回归解决分类问题
    联系:
    逻辑回归本质上是一个线性回归问题,除去sigmoid的一个01映射,其他过程都一样。譬如,假设一个人挣钱能力和年龄有关吧,从一岁的时候挣钱为-20,每年+1,21岁为0,22岁为1这个过程可以说是一个线性回归问题,可以预测他18岁时是挣钱还是不挣钱,但是如果加上一个非线性映射的话,就可以将问题简单化的划分为0:不挣钱,1:挣钱的问题。
     
     
  • 相关阅读:
    MapReduce_wordcount
    HDFS脚本
    学习笔记——git
    CSS3选择器:nth-of-type
    CSS命名规范
    关于line-height
    css新特性 box-flex/flex 弹性盒状模型
    开始手机端
    sass
    优雅降级与渐进增强
  • 原文地址:https://www.cnblogs.com/pinking/p/8503230.html
Copyright © 2011-2022 走看看