理解shannon信息论中的自信息量
来源:互联网 发布:懒人源码 编辑:程序博客网 时间:2024/06/11 01:22
看了好多书,自信息量只是直接给出公式,也没有说明这公式是如何来的。我觉得会有不少人一看到有log的出现就已经怕了,不会再往下看,其实自己推一下,就知道,其实原来是这样的意思。
怕了吧,又有log,又有负号,其实如果直接看这条式子,还真不知自信息量是什么意思,那我们推一推:
看到了吧,其实不太难的高中数学就可以了。要说明一下,10是什么,I(a),P(a)又是什么? I(a),其实不用说了,它就是我们要求的东西,shannon命其名为自信息量;P(a),是概率,还记得吗,shannon的这个理论就是基于概l率的uncertainty来计算信息量的,也可以认为某一个词被先中的概率;公式中的10,它是指10进制,其实是可以换的,可以换成其它的值,如果是二进制就是2,三进制就是3等等,意思是指如果用10进制码来表示的话,就需要I(a)位!(理解了吧,一个很的例子,如果用二进制表示的话,并且有3位二进制,即“111”,那这里就是有2的3次方这么多组合。)
哦,所以回想一下,I(a)其实就是求出在某种进制编码中需要的位数,这个就叫做自信息量!理解了自信息量之后,信息量就好理解了就是把所有可能会出现的情况都考虑进去。
还有其它的条件熵,互信息量之类的,也是其于这样的基础推出来的。
- 理解shannon信息论中的自信息量
- 信息论中的信息量
- 信息论——JS散度(Jensen-Shannon)
- 关于 信息熵/信息量/信息论/信息增益
- 如何理解信息论中的各种熵?
- 我理解的信息论——自信息、熵…
- 6.信息论(一):信息量、熵和最优编码
- shannon
- 熵与信息量的理解
- 理解赤池信息量(AIC),贝叶斯信息量(BIC)
- 理解赤池信息量(AIC),贝叶斯信息量(BIC)
- 我理解的信息论——自信息、熵、互信息
- 我理解的信息论——自信息、熵、互信息
- 信息论中的概念集
- 解析信息论中的熵
- 信息论中的几个知识点
- 信息论中的一些基本知识
- 信息论中的熵
- MFC让文档/视图结构程序支持滚动条
- VC中CRectTracker在CScrollView中的问题解决办法
- 多字节与宽字节相互转换的方法
- 如何解决绘图过程中的闪烁
- 如何解决绘图过程中的闪烁
- 理解shannon信息论中的自信息量
- 如何解决绘图过程中的闪烁
- ArcGIS在线应用介绍(6)北温哥华区市政项目查询系统
- 如何使Eclipse显示出文本行号
- 2011/04/08 服务器端开发
- 学计算机好无聊
- 利用MFC的Csocket类实现网络通信
- Android通过Style改变窗体,控件的样式
- 对只转发结果集的无效操作:last