zoukankan      html  css  js  c++  java
  • Machine Learning 笔记 (一)

    对一些基本概念的理解(个人)
    1. 区分回归和分类

      回归就是对某一特性的随机判断,而分类就是 0 和 1

    2. 区分监督学习 和 无监督学习

      监督学习就是在一个已经打好标签的数据集上进行测试
      而无监督学习,也分为 聚类算法 和 鸡尾酒宴会算法,是对没有标签的数据集上进行一些预判测试,如对环境音乐 和 人声叠加音的分割等等

    3. 机器学习中的 E T P

      E即:经验,基于过去的经验或数据集
      T即:任务,你拿这些数据是来干什么的
      P即:预测结果

    ps. 测试题做了三次才得过

    Parameters and Cost Function

    损失函数

    [J(θ_0, θ_1) = frac{1}{2m}(h_θ(x^{(i)}) - y^{(i)})^2 ]

    其中

    1. h(θ) 为 预测函数,y 即 真实值

    2. m 即 样例数

    梯度下降(Gradient descent)

    直白点说,就是寻找 损失函数的最小值的过程,不断的减小 偏导数的斜率,期间有超参数 α

    [θ_0 = θ_0 - α * frac{sigma J(θ_0, θ_1)}{sigmaθ_0} $$]

    θ_1 = θ_1 - α * frac{sigma J(θ_0, θ_1)}{sigmaθ_1}

    [ 然后上面两个公式,嵌套一层循环,直至 $frac{sigma J(θ_0, θ_1)}{sigmaθ_1}= 0$ ,即得到了局部最优解,或全局最优解 repeat until convergence{ $θ_0 := θ_0 - α * frac{1}{m}(h_{θ}(x^{(i)}) - y^{(i)})$ $θ_1:=θ_1-α*frac{1}{m}(h_θ(x^{(i)}) - y{(i)})* x^{(i)}$ } > update 不断 ##### "Batch" Gradient Descent "Batch": Each step of  gradient  descent uses all the training examples $sum_{i=1}^m(h_{θ}(x^{(i)}) - y^{(i)})$ #### #### Linear Algebra Review > 一些规则 1. 一般大写字母代表 矩阵, 一些小写字母表示向量 2. 向量采用 1-indexed 开头]

  • 相关阅读:
    mac下webstorm自动编译typescript配置
    [转]Golang 中使用 JSON 的小技巧
    Element-UI 框架 el-scrollbar 组件
    npm读取config配置的优先级(yarn同理)
    win, mac, linux 默认系统缓存目录
    yum离线安装rpm包
    常见网络摄像机(摄像头)的端口及RTSP地址
    sed命令在mac和linux下的区别
    canvas笔记备忘
    shell脚本:批量修改文件名(添加/删除文件名中字符)
  • 原文地址:https://www.cnblogs.com/xmdykf/p/12358120.html
Copyright © 2011-2022 走看看