Spark MLib 基本统计汇总 2

4. 假设检验

基础回顾:

  • 假设检验,用于判断一个结果是否在统计上是显著的、这个结果是否有机会发生。
  • 显著性检验
  • 原假设与备择假设

常把一个要检验的假设记作 H0,称为原假设(或零假设) (null hypothesis)

H0对立的假设记作H1,称为备择假设(alternative hypothesis)

  • 拟合优度Goodness of Fit,是指回归直线对观测值的拟合程度。

对非线性方程:

(1)计算残差平方和 Q =∑(y-y*)2 和 ∑y2 ,其中,y 代表的是实测值,y* 代表的是预测值

(2)拟合度指标 RNew=1-(Q/∑y2)1/2

角标new就是为了和线性回归方程的判定系数R2、adjusted R2进行区别。在对方程拟合程度的解释上,Rnew和R2、adjusted R2是等价的,其意义也相同。

对线性方程:

R= ∑(y预测-y)2/∑(y实际-y)2,y是平均数。

如果R2=0.775,则说明变量y的变异中有77.5%是由变量X引起的。

当R2=1时,表示所有的观测点全部落在回归直线上。

当R2=0时,表示自变量与因变量无线性关系。

  • 独立性检验(属于卡方检验的一种)

它是根据频数判断两类因子彼此相关或相互独立的假设检验。

假设有两个分类变量X和Y,它们的值域分另为{x1, x2}和{y1, y2},其样本频数列联表为:

Spark MLib 基本统计汇总 2

构造统计量:

Spark MLib 基本统计汇总 2K2越小,原假设H0成立的可能性越大;它越大,目标结论H1成立的可能性越大.)

步骤:

        第一步 提出假设H0:例如 患肺癌与吸烟没有关系.(目标结论H1“患肺癌与吸烟有关系”的反面.)
        第二步 计算独立性检验的标准,即统计量K2=n(ad-bc)2/{(a+b)(c+d)(a+c)(b+d)}的值.(
        第三步 由独立性检验的临界值表得出结论及其可信度(即在多大程度上适用).

Mlib的假设检验:

  • spark.mllib目前支持皮尔森卡方检测。
  • 输入属性的类型决定拟合优度(goodness of fit)检测还是独立性检测。 拟合优度检测需要输入数据的类型是 vector,独立性检测需要输入数据的类型是Matrix
  • import org.apache.spark.mllib.stat.Statistics._ ; Statistics 的 chiSqTest 方法用来做检测,当输入 vector和Matrix 时不同的检验。
import org.apache.spark.SparkContext
import org.apache.spark.mllib.linalg._
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.stat.Statistics._ // 作皮尔森拟合优度检测
val vec: Vector =Vectors.dense(1.0, 2.0, 3.0)
val goodnessOfFitTestResult = Statistics.chiSqTest(vec)
println(goodnessOfFitTestResult) // 作皮尔森独立性检测
val mat: Matrix =Matrices.dense(3,2,Array(9.0,1.0,2.0,3.0,8.0,6.0))
val independenceTestResult = Statistics.chiSqTest(mat)
println(independenceTestResult)

5.  随机数生成

spark.mllib 支持生成随机的RDDRDD的独立同分布(iid)的值来自于给定的分布:均匀分布、标准正太分布、泊松分布。

例子:用标准正态分布生成一个随机的双精度RDD

import org.apache.spark.mllib.random.RandomRDDs._

val u = normalRDD(sc, 1000000L, 10)    // 生成了一个10个RDD分区的百万个随机数

val v = u.map(x => 1.0 + 2.0 * x)          //把标准正态分布产生的随机数map到N(1,4)的正态分布

6. 核密度估计

http://blog.163.com/zhuandi_h/blog/static/1802702882012111092743556/

核密度估计可以用来估计未知的密度函数,属于非参数检验方法。

假设我们有n个数 Spark MLib 基本统计汇总 2 ,要计算某个数X的概率密度有多大, 可以通过下面的核密度估计方法估计。

Spark MLib 基本统计汇总 2  K为核密度函数,h为窗宽。

  • 原理比较简单,在我们知道某一事物的概率分布的情况下

如果某一个数在观察中出现了,我们认为这个数的概率密度很大,和这个数近的数的概率密度也比较大;而那些离这个数远的数的概率密度会比较小。

  • 基于这种想法,针对观察中的第一个数,我们可以用 去拟合我们想象中的那个远小近大概率密度。

对每一个观察数拟合出的多个概率密度分布函数,取平均。 如果某些数是比较重要的,则可以取加权平均

  • 核密度的估计并不是找到真正的分布函数。
  • 在 MLlib 中,仅仅支持以 高斯核(正态分布) 做核密度估计:

Spark MLib 基本统计汇总 2

  • KernelDensity 的 estimate 方法
import org.apache.spark.mllib.stat.KernelDensity
import org.apache.spark.rdd.RDD val data: RDD[Double] = ... // an RDD of sample data val kd = new KernelDensity()
.setSample(data)
.setBandwidth(3.0)
val densities = kd.estimate(Array(-1.0, 2.0, 5.0))

  

上一篇:java获取指定年月的开始时间与结束时间


下一篇:【项目管理】 使用IntelliJ IDEA 将项目发布(提交)到GitLab