《统计学习方法》(第二版)1.1 1.2
1.1 统计学习 / 机器学习
1.1.1 定义
Statistical Learning,关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。
- 平台:计算机及网络
- 研究对象:数据
- 目的:对数据进行预测与分析
- 中心:方法
- 学科:多领域交叉学科
学习,即一个系统能够通过执行某个过程改进它的性能。
1.1.2 研究对象:数据
基本假设:同类数据具有一定的统计规律性
数据类型:离散变量、连续变量
1.1.3 方法
-
得到一个有限的训练数据(training data)集合[1]
-
确定包含所有可能的模型的假设空间(hypothesis space),即学习模型的集合[2]
-
确定模型选择的准则(evaluation criterion),即学习的策略
-
实现求解最优模型的算法,即学习的算法
-
通过学习方法选择最优模型
-
利用学习的最优模型对新数据进行预测或分析
1.2 统计学习的分类
1.2.1 基本分类
监督学习(supervised learning)
监督学习[3]是从标注数据中学习预测模型的机器学习问题。
标注数据表示输入输出的对应关系。
将输入与输出的所有可能取值的集合称为输入空间和输出空间。
每一个具体的实例通常用特征向量表述,因此可以将实例从输入空间映射到特征空间。
输入实例 (x) 的特征向量记作
训练集表示为
- 输入与输出均为连续变量 —— 回归问题
- 输出为有限个离散变量 —— 分类问题
- 输入与输出均为变量序列 —— 标注问题
无监督学习(unsupervised learning)
无监督学习是从无标注数据中学习预测模型的机器学习问题。
训练集表示为
每一个样本为一个实例。其中 (x_i, i = 1, 2, cdots, N) 是样本。
强化学习(reinforcement learning)
强化学习是指智能系统在与环境的连续互动中学习最优行为策略的机器学习问题。
强化学习方法中有基于策略的(policy-based)、基于价值的(value-based),这两者属于无模型的(model-free)方法,还有有模型的(model-based)方法。
- 有模型的方法:直接学习马尔可夫决策过程的模型,包括转移概率函数 (P(s' \| s, a)) 和奖励函数 (r(s, a)) 。
- 无模型的、基于策略的方法:不直接学习模型,而是试图求解最优策略 $pi^* $。
- 无模型的、基于价值的方法:不直接学习模型,而是试图求解最有价值函数,特别是最优动作价值函数 (q^* (s, a)) 。
半监督学习(semi-supervised learning)与主动学习(active learning)
半监督学习是指利用标注数据和未标注数据学习预测模型的机器学习问题。旨在利用未标注数据中的信息,辅助标注数据,进行监督学习,成本较低。
主动学习是指机器不断主动给出实例让教师进行标注,然后利用标注数据学习预测模型的机器学习问题。
1.2.2 按模型分类
概率模型与非概率模型
-
概率模型[4]:决策树、朴素贝叶斯、隐马尔科夫模型、条件随机场、概率潜在语义分析、潜在狄利克雷分配、高斯混合模型
-
非概率模型[5]:感知机、支持向量机、k近邻、AdaBoost、k均值、潜在语义分析、神经网络
-
确定性模型
逻辑斯谛回归既可看作概率模型,也可看作非概率模型。
条件概率分布 最大化> 函数
函数 归一化> 条件概率分布
线性模型与非线性模型
如果 (y = f(x)) 是线性函数,则模型是线性模型。
线性模型:感知机、线性支持向量机、k近邻、k均值、潜在语义分析
非线性模型:核函数支持向量机、AdaBoost、神经网络
参数化模型与非参数化模型
参数化模型[6]:感知机、朴素贝叶斯、逻辑斯谛回归、k均值、高斯混合模型
非参数化模型[7]:决策树、支持向量机、k近邻、AdaBoost、潜在语义分析、概率潜在语义分析、潜在狄利克雷分配
1.2.3 按算法分类
在线学习(online learning):每次接受一个样本
批量学习(batch learning):一次接受所有数据
1.2.4 按技巧分类
贝叶斯学习(Bayesian learning):利用贝叶斯定理,计算在给定数据条件下模型的条件概率,即后验概率,并应用这个原理进行模型的估计,以及对数据的预测。
核方法(kernel method):使用核函数表示和学习非线性模型的一种机器学习方法。