zoukankan      html  css  js  c++  java
  • 《机器学习》第一次作业——第一至三章学习记录和心得

    《机器学习》第一至三章学习记录和心得

    Bienvenu !


    Chapter 1


    un-模式识别基本概念

    • 模式识别应用实例:字符识别、交通标志识别、动作识别、语音识别、模式识别、应用程序识别、目标抓取、无人驾驶、价格预测等。
    • 模式识别可以划分为“分类”和“回归”两种形式。其中分类输出量是离散的类别表达,常见为二类分类和多类分类。回归输出量是连续的信号表达,可有单个维度和多个维度之分。
    • 模式识别本质上是一种推理过程。

    deux-模式识别数学表达

    • 模型是指关于已有知识的一种表达方式,即函数f(x)。

    • 二类分类判别器使用sign函数:判断回归值大于0还是小于0。

    • 多类分类判别器使用max函数,取最大的回归值所在维度对应的类别。

    • 特征向量指多个特征构成的(列)向量。

    trois-特征向量的相关性

    • 点积具备对称性,向量投影不具备对称性。
    • 残差向量指向量x分解到向量y方向上得到的投影向量与原向量x的误差。
    • 特征向量之间的欧氏距离可以表征两个向量之间的相似程度。

    quatre-机器学习基本概念

    • 训练样本可认为是尚未加工的原始知识,模型则是经过学习后的真正知识表达。

    • 线性模型(直线、面、超平面)。

    • 非线性模型(曲线、曲面、超曲面)。

    • 常见非线性模型:多项式、神经网络、决策树……

    • 监督式学习:训练样本极其输出真值都给定情况下的机器学习算法。

    • 无监督式学习:只给定训练样本、没有输出真值情况下的机器学习算法。

    • 半监督式学习:既有标注的训练样本、又有未标注的训练样本情况下的学习算法。

    • 强化学习:机器自行探索决策,真值滞后反馈的过程。

    cinq-模型的泛化能力

    • 泛化能力:学习算法对新模式的决策能力。

    • 训练集是模型训练所用的样本数据,集合中的每个样本称作训练样本;测试集是测试模型性能所用的样本数据,集合中的每个样本称作测试样本。

    • 测试样本假设从样本真实分布中独立同分布(iid)。

    • 测试误差也称泛化误差。

    • 过拟合是泛化能力低的表现。

    • 提高泛化能力的一个思路是不要过度训练。

    six-评估方法与性能指标

    • 模型性能的评估方法通常有留出法、K折交叉验证、留一验证等。

    • 准确度=(TP+TN)/(TP+TN+FP+FN)。

    • 精度=TP/(TP+FP)。

    • 召回率=TP/(TP+FN)。

    • F-score=((a2+1)*精度*召回率)/(a2*精度+召回率),a为常数。

    • PR曲线:横轴召回率,纵轴精度。

    • ROC曲线:横轴为1-specificity,纵轴为召回率。

    • AUC:曲线下方面积。

    Chapter 2


    sept-MED分类器

    • 几种“距离”:欧氏距离、曼哈顿距离(绝对值距离、出租车几何)、切比雪夫距离(国际象棋中国王可以移动的位置)、闵式距离、马氏距离等。
    • MED分类器:最小欧式距离分类器。
    • MED分类器在高维空间中的决策边界是一个超平面。

    huit-特征白化

    • 特征正交白化:将特征转换分为两步,先去除特征之间的相关性(解耦),再对特征进行尺度变换(白化),使每维特征的方差相等。
    • 原始特征经特征解耦转换后欧式距离不变。

    neuf-MICD分类器

    • MICD分类器:最小类内距离分类器,基于马氏距离。

    • MICD分类器等距图是一个超球面/超椭圆面(高维空间)。

    • MICD分类器决策边界可是一个超抛物面或者超双曲面。

    • MICD的缺陷:选择方差较大的类。

    Chapter 3


    dix-贝叶斯决策理论

    • MAP分类器:最大后验概率分类器,将测试样本决策分类给后验概率最大的那个类。

    • 单维空间MAP分类器通常有两类决策边界,高维空间决策边界是复杂的非线性边界。

    • MAP分类器决策目标:最小化概率误差。

    onze-MAP分类器分析

    • 方差相同的情况下,MAP决策边界偏向先验可能性较小的类,即决策偏向先验概率高的类。
    • 先验概率相等时,分类器倾向选择方差较小的类。

    douze-贝叶斯分类器

    • 不同的错误决策会产生程度完全不一样的风险。

    • 贝叶斯分类器:在MAP分类器的基础上,加入决策风险因素。

    • 贝叶斯分类器的决策目标:最小化期望损失。

    • 如果特征是多维,学习特征之间的相关性会很困难。朴素贝叶斯分类器假设特征之间是相互独立的。

    • 为了避免出现错误决策,分类器可以选择拒绝,可以通过引入阈值的方法实现。

    treize-最大似然估计

    • 先验概率的最大似然估计就是该类训练样本出现的频率。

    • 高斯分布均值的最大似然估计等于样本的均值。

    • 高斯分布协方差的最大似然估计等于所有训练模式的协方差。

    quatorze-最大似然估计的偏差

    • 高斯分布均值的最大似然估计是无偏估计。

    • 高斯分布协方差的最大似然估计是有偏估计。

    quinze-贝叶斯估计1

    • 贝叶斯估计:给定参数分布的先验概率以及训练样本,估计参数分布的后验概率。
    • 贝叶斯估计具备不断学习的能力。

    seize-贝叶斯估计2

    • 贝叶斯估计的目的:估计观测似然概率,给定量为观测似然分布的形式、参数的先验概率、训练样本。
    • 贝叶斯估计的步骤:

    dix-sept-概率密度估计

    • 如果概率分布形式未知,可以通过无参数技术来实现概率密度估计。常用的无参数技术主要有K近邻法、直方图技术、核密度估计等。

    • KNN估计:K近邻估计,给定x,找到其对应的区域R使其包含k个训练样本,以此计算p(x)。

    • KNN优点:可以自适应地确定x相关的区域R的范围。缺点:KNN概率密度估计不是连续函数;不是真正的概率密度表达,概率密度函数积分是无穷而不是1。

    dix-huit-直方图与核密度估计

    • KNN估计的问题:仍然需要存储所有训练样;易受噪声影响。

    • 直方图的概率密度也是不连续的。

    • 直方图估计优点:减少由于噪声污染造成的估计误差;不需要存储训练样本。缺点:估计可能不准确;缺乏概率估计的自适应能力。

    • 核密度估计的核函数可以是高斯分布、均匀分布、三角分布等。

    • 核密度估计优点:自适应确定区域R的位置;使用所有训练样本,克服KNN估计存在的噪声影响;如果核函数连续,则估计的概率密度函数也是连续的。缺点:必须要存储所有训练样本。

    Merci beaucoup !

  • 相关阅读:
    JS中的call()和apply()方法
    小鲜肉初学JS做得仿京东淘宝竖排二级导航
    OnClientClick="return confirm('确定要删除吗?')"
    sql主键的一点重要理解
    形态学对象的提取与屏蔽 (开操作和闭操作)
    水平竖直线及矩形方式提取结构
    形态学图像的膨胀与腐蚀
    自定义卷积核
    直线、矩形、圆、椭圆、文字等绘制
    霍夫变换圆形检测
  • 原文地址:https://www.cnblogs.com/Malancholy/p/14729305.html
Copyright © 2011-2022 走看看