zoukankan      html  css  js  c++  java
  • 吴恩达机器学习

    一、线性回归

    基本的概念:训练集(积累知识)、学习策略(预测函数)、代价函数(均方差,logist loss)(评估)、优化,训练最优的模型参数

    欠你和和过拟合:

    正则化:惩罚参数,变相减少特征

    二、逻辑回归

    批量梯度下降:求一次参数,遍历所有的样本

    随机梯度下降:每一个样本,求一次参数

    多分类:one VS all:构建Theta矩阵,大小 :(类别数,theta),预测,根据每一输入向量,属于某个类别的概率最大,sigmod计算概率

    三、神经网络

    多层的线性回归,是一个多个逻辑回归问题

    1、不需要扩大输入特征,解决非线性分类问题,非线性是变量x含有次幂

    2、多层的隐含层,也就意味着特征的扩展,每一层,都是模型参数的一次优化

    四、SVM

    代价函数:逻辑回归的代价函数拉直,当y = 1 ,希望theta*x >>1 ,才能使代价函数最小,当y=0 希望theta*x << -1 ,才能使代价函数最小

    最大距间隔

    核函数:将原来的特征向量转化为,样本点和标记点的相似度,作为特征,高斯函数,线性函数;

    模型重要参数:C 、 deta

    C 和lamda是相反的作用,高方差,增大C

    五、K-means聚类

    初始化:循环100次,随机初始化初始簇的中心值,选择失真函数最小的一组初始化值

    K值的选取:肘部原则,更多的是根据后续具体的问题的目的,

    优化:失真函数

    二分K-means:进行多次2-means聚类,根据每一次的失真函数的值的大小,选择小的一边,继续分割,

    六、特征降维

    七、异常检测

    找到一个概率模型,

    高斯概率模型,样本集,最大似然估计,得到均值和方差,

    新的样本的高斯概率如果小于theta,很小的值,则异常

    八、推荐系统

    基于内容的推荐,商品的内容,就是特征变量 x

    协同过滤:用户的特征 theta,商品的特征x, y是用户对商品的打分,成本函数是均方差,入nn一样,theta、x初始化,后迭代训练

    低质矩阵分解:把打分矩阵,分解为两个矩阵的乘

  • 相关阅读:
    eclipse开发环境搭建
    如何在不知道密码的情况下卸载趋势防毒墙网络版
    PB 将游标中的数据存到数组中
    SQL Server 系统表使用举例
    row_number() over(partition by a order by b desc) rn 用法
    C#选中当前一行,判断是否为空(顺序)
    C#DataTable与Grid的差别
    C#采番的前端与SQL的写法
    Grid的check
    Combox的去重方法
  • 原文地址:https://www.cnblogs.com/lxw003/p/8649539.html
Copyright © 2011-2022 走看看