zoukankan      html  css  js  c++  java
  • 机器学习单词记录--02章单变量相性回归

    Liner  regression 线性回归

    The overall  process of x  x的整个过程

    区分监督学习和无监督学习--看是否有“正确答案”和已知的预测值

    Cost  function代价函数

    M--denote the number of training examples表示训练样本的数量

    Lowercase x 小写字母x

    Output variables 输出变量

    Training  set训练集

    Hypothesis 假设

    Corresponding  相应的

    Represent表示

    Subscript下标  plus

    Shorthand缩写

    Linear regression 线性回归(univariate单变量)

    Figure out弄清楚

    Straight line直线

    Parameters of the model模型参数

    Cost  function 代价函数(the squared error function平方误差函数)

    Mathematical definition数学定义

    get back  to 回去

    Intuition直觉

    Recap复习

    Form 形成

    Optimization objective 优化目标

    Visualize可视化

    Work  with ...合作

    Theta  Θ

    To minimize J of theta one 减少J(Θ_1)的值

    Corresponds to相当于

    Simplified definition  简化的定义

    Pass  through the point(0,0)  过点(0,0)

    Concept概念

    Hypothesis function假设函数

    Θ_1,which controls the slope of the straight line它控制着直线的斜率

    Temporary 暂时

    Compute计算

         

    One over 2m of my usual  cost function 代价函数的1/2m

    Square 平方

    Vertical distance 垂直距离

    The predicted value h of x i  预测值h(x^i)

    Example样本

    Math error计算错误

    Flat line 水平线

    Negative value 负数

    Minus

    By computing the range of values 通过一系列数值的计算

    For each value of theta one  corresponds to a different hypothesis

    每一个Θ_1都对应一个不同的假设函数

    Trace out 追踪

    Minimize 最小化

    Assume 假设

    Be familiar with x x熟悉

    Contour plot 高等线

    Contour figures高等图像

    illustrator 图像

    make sense to xx有意义

    Problem 问题、课题、难题

    Generate生成

     

    Bowl shaped function 碗状函数

    3-D surface plot    3-D曲面图

    axes axis 

    Vary  改变

    Rotate this plot around  旋转这个图形

    OvalsEllipse 椭圆

    The middle of the these concentric  ellipse同心椭圆的中心

    Intersect   相交

    Manually read off the numbers 手工读出数

    High dimensional  figures  with more  parameters  具有更多参数、更高维的图形

     

    Gradient descent for minimizing the cost function J  代价函数J最小化的梯度下降法

    Arbitrary  随意的

    Setup 体系、概述

     Jθ0θ1)是代价函数

    For  solving this  more  general problem 为了去解决更一般的问题

    For the sake of brevity   简短起见

    The sake of 为了

    Succinctness  简洁

    Notation  符号

    Pretend 假装

    Wind up 直到、结束

    The height of surface 曲面的高度

    Pick

    initialize 初始化

    Hill 

    Landscape 景色

    Grassy park 青草公园

     

    Spin 360 degrees  around and just look all around us旋转360度,看看我们的周围

    If I were to take  a little baby step in some direction ,and I want to go downhill as quickly as possible,what direction do I take that little baby step in  if I want to physically  walk  down this hill  as  rapidly  as possible?

    如果我要在某个方向上走一步,并且我想尽快下山的话,我应该朝什么方向迈步?

     

    Convergeconvergence汇合

    Property  属性、特点

    Local optimum 局部最佳

    Intuition 直觉

    Subtract 减去

    Equation 公式

    Detail  细节

    Unpack  解压、解释

    Assignment  分配、赋值

    Assignment operator   赋值运算符

    Take the value in b  b的值

    Assert 断言

    Claim声明

    Alpha  α---- learning rate 学习速率(永远是个正数)

    Learning rate 学习率

    Aggressive 侵略性、迅速

    Term 术语

    Derivative 导数

    Derive this  derivative term 推导这个导数项

    Calculus微积分

    Subtle 微妙

    Update更新

    Expression 表达式

    Simultaneously  同时

    Simultaneous updates同步更新

    Behave 表现

    Partial derivatives 偏导数

    Derivatives 导数

    α--- it controls how big a step we take when updating my parameter theta J

    (他控制我们以多大的幅度更新这个参数θ_J

    Convey  解释

    Tangent 切线

    Positive slope 正斜率

    The slope of that line  这条线的斜率

    Multiple 

    Minimum 最低点

    Global minimum全局最低点

    Overshoot 越过

    Iteration 迭代

    Fail to converge or even diverge 无法收敛甚至发散

    At local  optimum your derivative would be equal to zero

    (在局部最优点的导数等于0

     

    Magnitude 大小

    导数越小,θ更新幅度越小

    Square cost function 平方代价函数

    Put together gradient descent with our cost function 将梯度下降和代价函数结合

    Linear regression model线性回归模型

    h线性假设、J(θ0θ1)平方代价函数

    Apply应用

    This  piece of code 这段代码

    Multivariate calculus 多元微积分

     

    Respective 对应的

    Be susceptible to 易受影响

    梯度下降算法的代价函数往往是一个碗状bow-shaped function的图形 

    Convex function 凸函数--------doesn’t have any local optima , except for the one global optimum

    没有局部最优解,只有一个全局最优

    Specific  具体

    down left 左下

    This global minimum corresponds to this hypothesis which gives  me  a  good fit to the data

    这个全局最小对应的假设曲线让我一个很好地拟合了数据

    Batch gradient descent:

     

    其他的梯度算法:

    do not look at the entire training set,

    but look at small subsets of the traing sets at a  time

    没有查看整个训练集,而是每次只关注了小子集

    linear regression with gradient descent

    啥是使用了梯度下降的线性回归?

    advanced linear algebra 高等线性代数

    iterative algorithm 迭代算法

    generalization  通用

  • 相关阅读:
    ViZDoom深度预测(Depth Prediction)
    刨根问底U3D---从Profile中窥探Unity的内存管理
    关于Android真机调测Profiler
    初探Stage3D(三) 深入研究透视投影矩阵
    初探Stage3D(二) 了解AGAL
    初探Stage3D(一) 3D渲染基础原理
    unity3d优化总结篇
    Unity数据存储路径总结
    CREATE A ENERGY / HEALTH BAR HUD
    CREATE A LOADING SCENE / SPLASH SCREEN
  • 原文地址:https://www.cnblogs.com/Amyheartxy/p/10894087.html
Copyright © 2011-2022 走看看