[Bayes] Latent Gaussian Process Models

比较难理解,通过做题来入门。

目的:简单的了解下相关概念。

基础

[Bayes] Latent Gaussian Process Models

热身

目的:找x到y的映射关系。

假设:Q latent functions {fi}

fj 作为先验,跟x没什么直接关系,x只是作为承载超参数的载体。共有Q个,也就是有Q套超参数。

对于公式(4),x --> f --> (noise) --> y,大概就是这么个关系。

因为noise,当然y是iid。

由公式(3)可见,f也是iid。

一般而言,Q等于多分类的类别数量,P = 1即可(无需one-hot)。

[Bayes] Latent Gaussian Process Models

开始

没看错,这么多符号,需要缕一缕,看不懂的概念可以参考以下链接。

Ref: Generic Inference in Latent Gaussian Process Models

[Bayes] Latent Gaussian Process Models

(5) (6) (7) 其实跟(3)一回事:

既然多出了变量u,就分解出来看看:

[Bayes] Latent Gaussian Process Models

带入已知条件,最后得:

[Bayes] Latent Gaussian Process Models

高斯与高斯的联姻,结果还是高斯,就是在说这个。


这里主要是熟悉两个bound,对比下效果,以下是背景。

[Bayes] Latent Gaussian Process Models

Inducing variables:ui

简单的理解为重要的某些点即可。

[Bayes] Latent Gaussian Process Models

两个bound如下,可见后者计算复杂度更低。

[Bayes] Latent Gaussian Process Models

上一篇:android读取xml文件来实现省份,城市,区的选择


下一篇:【转载】神奇的css属性pointer-events