AI 信息论

信息论,主要用于量化信息。

事件发生的概率越大,包含的信息就越少。例如“太阳从东边升起”,信息量就很少。

1、自信息(self-information)

AI 信息论

两个独立事件发生所包含的信息,等于各自发生包含的信息之和。

2、熵(entropy)

信息量的期望。

AI 信息论

3、KL散度

也叫相对熵(relative entropy),衡量两个概率分布的差异。

AI 信息论

KL散度是非对称的。

AI 信息论

4、交叉熵(cross entropy)

AI 信息论

参考链接

https://blog.csdn.net/tsyccnh/article/details/79163834

上一篇:GUI的最终选择 Tkinter(四):Entry、Listbox、Scrollbar和Scale组件


下一篇:老李推荐:第14章1节《MonkeyRunner源码剖析》 HierarchyViewer实现原理-面向控件编程VS面向坐标编程