zoukankan      html  css  js  c++  java
  • Spark MLib 基本统计汇总 2

    4. 假设检验

    基础回顾:

    • 假设检验,用于判断一个结果是否在统计上是显著的、这个结果是否有机会发生。
    • 显著性检验
    • 原假设与备择假设

               常把一个要检验的假设记作 H0,称为原假设(或零假设) (null hypothesis)

               与H0对立的假设记作H1,称为备择假设(alternative hypothesis) 

    • 拟合优度Goodness of Fit,是指回归直线对观测值的拟合程度。

            对非线性方程:

             (1)计算残差平方和 Q =∑(y-y*)2 和 ∑y2 ,其中,y 代表的是实测值,y* 代表的是预测值

             (2)拟合度指标 RNew=1-(Q/∑y2)1/2

              角标new就是为了和线性回归方程的判定系数R2、adjusted R2进行区别。在对方程拟合程度的解释上,Rnew和R2、adjusted R2是等价的,其意义也相同。

           对线性方程:

              R= ∑(y预测-y)2/∑(y实际-y)2,y是平均数。

              如果R2=0.775,则说明变量y的变异中有77.5%是由变量X引起的。

              当R2=1时,表示所有的观测点全部落在回归直线上。

              当R2=0时,表示自变量与因变量无线性关系。

    • 独立性检验(属于卡方检验的一种)

            它是根据频数判断两类因子彼此相关或相互独立的假设检验。

            假设有两个分类变量X和Y,它们的值域分另为{x1, x2}和{y1, y2},其样本频数列联表为:

            

            构造统计量:

            K2越小,原假设H0成立的可能性越大;它越大,目标结论H1成立的可能性越大.)

            步骤:        

            第一步 提出假设H0:例如 患肺癌与吸烟没有关系.(目标结论H1“患肺癌与吸烟有关系”的反面.)
            第二步 计算独立性检验的标准,即统计量K2=n(ad-bc)2/{(a+b)(c+d)(a+c)(b+d)}的值.(
            第三步 由独立性检验的临界值表得出结论及其可信度(即在多大程度上适用).

    Mlib的假设检验:

    • spark.mllib目前支持皮尔森卡方检测。
    • 输入属性的类型决定拟合优度(goodness of fit)检测还是独立性检测。 拟合优度检测需要输入数据的类型是 vector,独立性检测需要输入数据的类型是Matrix
    • import org.apache.spark.mllib.stat.Statistics._ ; Statistics 的 chiSqTest 方法用来做检测,当输入 vector和Matrix 时不同的检验。
    import org.apache.spark.SparkContext
    import org.apache.spark.mllib.linalg._
    import org.apache.spark.mllib.regression.LabeledPoint
    import org.apache.spark.mllib.stat.Statistics._
    
    // 作皮尔森拟合优度检测 
    val vec: Vector =Vectors.dense(1.0, 2.0, 3.0)
    val goodnessOfFitTestResult = Statistics.chiSqTest(vec)
    println(goodnessOfFitTestResult) 
    
    // 作皮尔森独立性检测
    val mat: Matrix =Matrices.dense(3,2,Array(9.0,1.0,2.0,3.0,8.0,6.0)) 
    val independenceTestResult = Statistics.chiSqTest(mat) 
    println(independenceTestResult) 

    5.  随机数生成

    spark.mllib 支持生成随机的RDDRDD的独立同分布(iid)的值来自于给定的分布:均匀分布、标准正太分布、泊松分布。

    例子:用标准正态分布生成一个随机的双精度RDD

    import org.apache.spark.mllib.random.RandomRDDs._
    
    val u = normalRDD(sc, 1000000L, 10)    // 生成了一个10个RDD分区的百万个随机数
    
    val v = u.map(x => 1.0 + 2.0 * x)          //把标准正态分布产生的随机数map到N(1,4)的正态分布
    

    6. 核密度估计

    http://blog.163.com/zhuandi_h/blog/static/1802702882012111092743556/

    核密度估计可以用来估计未知的密度函数,属于非参数检验方法。

    假设我们有n个数  ,要计算某个数X的概率密度有多大, 可以通过下面的核密度估计方法估计。

           K为核密度函数,h为窗宽。

    • 原理比较简单,在我们知道某一事物的概率分布的情况下

            如果某一个数在观察中出现了,我们认为这个数的概率密度很大,和这个数近的数的概率密度也比较大;而那些离这个数远的数的概率密度会比较小。

    • 基于这种想法,针对观察中的第一个数,我们可以用 去拟合我们想象中的那个远小近大概率密度。

            对每一个观察数拟合出的多个概率密度分布函数,取平均。 如果某些数是比较重要的,则可以取加权平均

    • 核密度的估计并不是找到真正的分布函数。
    • 在 MLlib 中,仅仅支持以 高斯核(正态分布) 做核密度估计:

        

    • KernelDensity 的 estimate 方法
    import org.apache.spark.mllib.stat.KernelDensity
    import org.apache.spark.rdd.RDD
    
    val data: RDD[Double] = ... // an RDD of sample data
    
    val kd = new KernelDensity()
      .setSample(data)
      .setBandwidth(3.0)
    val densities = kd.estimate(Array(-1.0, 2.0, 5.0))
    

      

  • 相关阅读:
    容斥原理
    m元集A到n元集B的满射的个数
    二项式反演公式
    多项式定理
    组合数的基本性质
    Luogu P2408 不同子串个数
    Luogu P5410【模板】扩展 KMP
    Luogu P2336 [SCOI2012]喵星球上的点名
    Luogu P2852 [USACO06DEC]牛奶模式Milk Patterns
    Luogu P4248 [AHOI2013]差异
  • 原文地址:https://www.cnblogs.com/skyEva/p/5563662.html
Copyright © 2011-2022 走看看