zoukankan      html  css  js  c++  java
  • week 6: kernel regression

     华盛顿大学 machine learning regression 第六周笔记。

     

      普通的回归方法是基于training set的整体性进行训练的,如果训练数据集

    具有明显的分段性,那么普通的回归方法预测效果可能不佳

     

    考虑 knn(k邻近法)的解决思路:

      给定一个 training set, 对于查询的实例,在training set中找到与这个实例

    最邻近的k个实例,然后再根据k个最邻近点做预测。

    得到k个邻近点后,如何输出预测结果?

      对这k个临近点加权。 

      查询点q,  得到k个最邻近点后,输出预测结果yq为:

    加权值如何得到?

      考虑到离查询点q越近,权值越大。一个简单的方法是取权值为距离的倒数。

      另一个方法是使用核函数(kernel).

      

      Gaussian Kernel:

        

          取加权为:

                    

      以上是使用 knn方法的思路。如果不特定选出k个最邻近点,而是综合考虑所有的点呢?

    Kernel regression:

    一个重要问题:带宽 lambda如何选择?

      使用  cross validation(交叉验证) 选择 lambda.

  • 相关阅读:
    你读了该博客中哪些超链接?有何感想
    最理想的师生关系是健身教练和学员的关系,在这种师生关系中你期望获得来自老师的哪些帮助?
    1500802028 王莉娟
    解码方法
    N皇后问题
    两个链表的交叉
    全排列
    交叉字符串
    翻转链表
    爬楼梯
  • 原文地址:https://www.cnblogs.com/smartweed/p/8534327.html
Copyright © 2011-2022 走看看