虎扑-热帖 2024年11月25日
【带你读】花书《深度学习》导读 第三章 概率与信息论 下
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

信息论研究对信号包含信息的量化,提到自信息、信息熵、交叉熵、KL散度等概念,解释其作用及相互关系。

🎯信息论研究对信号信息的量化

💡自信息处理单个输出,信息熵量化整个概率分布不确定性

📐交叉熵衡量两个概率分布的差异,是数学期望

📏KL散度用于衡量两个概率分布差异,值越大差异越大

自信息与信息熵

原书中列举的公式比较抽象,这里将原书中的公式改写为简单形式

信息论主要研究的是对一个信号包含信息的多少进行量化。信息论的基本想法是,一个不太可能是的事件发生了,要比一个非常可能的事件发生提供更多的信息(带来更少的不确定性)。

自信息只能处理单个的输出,使用香农熵(Shannon entropy, 又称信息熵)来对整个概率分布中的不确定性进行量化:

上式等价为

交叉熵

交叉熵(Cross Entropy)的定义与熵类似,但定义在两个概率之上的分布。对于两个概率分布p(x)和q(x),交叉熵定义为:

可见,交叉熵也是数学期望,衡量了两个概率分布的差异。

KL散度


KL散度(Kullback-Leibler Divergence)也成为相对熵(Relative Entropy)。也用于衡量两个概率分布之间的差异。其值越大,差异越大。对于两个概率分布p(x)p(x)和q(x)q(x),KL散度定义为:

KL散度和交叉熵的关系是:




我的知乎主页:https://www.zhihu.com/people/panverson

公众号正在筹划中,欢迎大家到时关注!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

信息论 信息熵 交叉熵 KL散度
相关文章