1-1/1.2,基本上都是一些基础知识,机器学习的背景,发展,概念,用途
1-3,监督学习:
- 数据集类型已知,数据信息为已知正解--由已知正解推测趋势(拟合分布函数)--
- 给出的模型例子--基本类似于计量经济学/统计推断的思路:
- 房价VS房子高度(一维拟合,回归问题)
- 乳腺癌—良性/恶性VS尺寸(一维0/1)
- 年龄+尺寸VS良性/恶性(二维拟合)
- 垃圾信息筛除
1-4,无监督学习:
- 数据集类型未知,数据信息正解未知,按照规定的某些特征自动遍历分类型
- 聚类算法例子
- 关键字链接分类新闻
- 基因表达分类
- 市场分割分类,社交网络分析等
- (分类分割)
- 鸡尾酒派对问题--鸡尾酒会算法--声源源分离
- 认识使用(svd)奇异值分解补充知识
- 市场顾客分类
课程补充:
因为这个课程是较早的视频,当时老吴推荐的是matlab和Octave,现在主要使用python语法系掉其他库,但是发现课程概念比后来新课的更加全,所以用来学习概念,很适合,
在鸡尾酒派对分类分割声音的案例里,介绍了svd函数,有点迷惑,查了一些资料填坑(凡是高亮非红色字体都带链接,不懂就click)
- svd是什么?
- svd(x)——Singular value decomposition,是一个用来奇异值分解的函数,可在matlab/py-mat调用,x作为实参是某一矩阵,返回的是x的奇异值等信息
- 样例:
s = svd(X),返回矩阵的某一奇异向量
[U,S,V] = svd(X),其中U和V代表二个相互正交矩阵(当为实数矩阵的时候),而S代表一对角矩阵(奇异值)。 原矩阵A不必为正方矩阵。
[U,S,V] = svd(X,0),则它等价于SvD(X,0).对于m<n,只计算V的前m列,S为m*m
[U,S,V] = svd(X,'econ'),‘econ’economic size,相当于把多余的部分去除掉了。如果X是m>=n的(m行n列),则它等价于SvD(X,0).对于m<n,只计算V的前m列,S为m乘m.
预备知识:
各种矩阵认识复习:链接
正交矩阵:除基本定义外,与降维有关,可用于压缩,变换
酉矩阵:共轭转置(解)== 逆 (求解),https://blog.csdn.net/zhaoyue007101/article/details/7949733
svd—详解:
https://wenku.baidu.com/view/3ec0a4ddaeaad1f346933f42.html(除svd,含evd的复习内容)
(含几何意义详解,加深)
https://blog.csdn.net/zhongkejingwang/article/details/43053513
https://blog.csdn.net/jinshengtao/article/details/18448355
svd是一类矩阵分解!!!矩阵分解是指根据一定的原理用某种算法将一个矩阵分解成若干个矩阵的乘积。常见的矩阵分解有可逆方阵的三角(LU)分解、
任意满秩矩阵的正交三角(QR)分解、对称正定矩阵的Cholesky分解,以及任意方阵的Schur分解、Hessenberg分解、EVD分解(特征值)、SVD分解(奇异值)、GMD分解等。
http://blog.sina.cn/dpool/blog/s/blog_12f4079380102xk6j.html?vt=4 (链接为各种矩阵分解汇总)
- svd用途?
最小二乘法,最小平方误差,用来求线性回归解
数据压缩,用来降维,压缩数据
- svd和机器学习的关系?
- svd和鸡尾酒算法的关系?(待续)
用时约5h,80%花在后面学习svd以及svd与鸡尾酒算法/机器学习上面,顺便复习了已经学过的evd和一些矩阵知识,
初步了解了其他一些可能用到的分解,初步认识到”分解“在机器学习中的一些用途,
找到了一些可靠的资源和宝藏博主
(Andyjee) 一些重要的数学基础知识(来源) 陈靖_ 特征值分解、奇异值分解、PCA概念整理_网络_Where there is life, there is hope-CSDN
https://wenku.baidu.com/view/e600ac060740be1e650e9a03?showCashierFromZhidao=1&qid=104418447&fr=step_zhidao