信息论第四章(叶中行)

合集下载

《信息论基础》教学大纲

《信息论基础》教学大纲

《信息论基础》教学大纲课程编码:1512105602课程名称:信息论基础学时/学分:36/2先修课程:《概率论与数理统计》、《随机过程》、《信息科学导论》适用专业:信息与计算科学开课教研室:信息与计算科学教研室一、课程性质与任务1.课程性质:本课程是信息与计算科学专业的一门专业选修课,是拟从事通信及相关行业工作的学生所必修,为本科三年级学生所选修。

2.课程任务:通过本课程的学习,学生应熟练掌握离散(连续)条件下的熵、条件熵、相对熵、互信息的概念,熟练掌握有(无)失真条件下的信源(信道)编码定理和一些常用编码并能熟练的应用它们,为今后的学习与科研打下坚实的基础。

二、课程教学基本要求掌握信息的基本理论,理解离散信源、连续信源的有关理论,熟练掌握信息、信息熵、条件熵、联合熵、互信息等的计算,了解通信系统的整个过程,熟练掌握基本的信源编码方法和信道编码方法,会判定信源码、信道码的优劣。

本课程主要以课堂讲授为主,在教学方法和手段上采用现代教育技术。

成绩考核形式:期终成绩(考查)(70%)+平时成绩(平时测验、作业、课堂提问、 课堂讨论等)(30%)。

成绩评定采用百分制,60分为及格。

三、课程教学内容第一章 随机变量的信息度量1.教学基本要求理解和掌握的定义和计算式,理解有关熵的一些基本性质,了解广义熵及相互间的关系。

2.要求学生掌握的基本概念、理论通过本章学习,使学生能准确理解并掌握信息、熵、联合熵、条件熵等有关信息量的定义及计算式,理解熵的基本性质,了解广义熵的多种形式并了解它们之间的关系。

3.教学重点和难点教学重点是要让学生掌握熵的概念和性质,熟练计算熵、联合熵、条件熵、相对熵和互信息,并会用熵求解一些实际问题。

4.教学内容第一节 自信息第二节 熵、联合熵、条件熵第三节 相对熵和互信息第四节 信息量的一些基本性质第五节 广义熵第二章 随机过程的信息度量和渐进等分性1.教学基本要求理解和掌握信源、随机过程的基本概念,掌握无记忆信源、马氏信源、平稳性、遍历性,理解AEP性质,理解AEP性质在数据压缩中的应用,了解香农-麦克米兰-布瑞曼定理。

信息论 第四章

信息论 第四章

称为编码效率。
H (S )
H (S ) H (S ) R' H (S )

1

第三节 等长信源编码定理
例:设离散无记忆信源: S
s 1 P( s) 3 4 s2 1 4
H (S )
1 3 4 log 4 log 0.811 4 4 3
第二节 等长码 我们举例说明:
设信源
s3 s2 s4 S s1 P( s ) P( s ) P( s ) P( s ) P( s ) 1 2 3 4
P( s ) 1
i 1 i
4
而其依赖关系为:
P(s2 / s1 ) P(s1 / s2 ) P(s4 / s3 ) P(s3 / s4 ) 1, 其余P(s j / si ) 0
第二节 等长码
若不考虑符号间的依赖关系,可得码长l=2 若考虑符号间的依赖关系,则对此信源作二次扩展
S 2 s1s2 s3 s4 s4 s3 s2 s1 P( s 2 ) P( s1s2 ) P( s2 s1 ) P( s3 s4 ) P( s4 s3 )
第四节 变长信源编码定理
3、克拉夫特(Kraft)不等式
X 定理4.4 对于码符号为 {x1 , x2 ,..., xq } 的任意即时码, 所对应的码长为 l1 , l2 ,..., lq ,则必定满足:
r li 1
i 1
q
反之,若码长满足上式,则一定存在这样的即时码 。 可以根据即时码的树图构造法来证明。
若有一个唯一可译码,它的平均码长小于其他唯一可译码的 长度,则称此码为紧致码或最佳码,无失真信源编码的基本 问题就是寻找紧致码。

信息论基础2015-第四章

信息论基础2015-第四章

K 1
K , J k 0 j 0,1,, J 1
对称离散无记忆信道(II)
若一个信道既关于输入对称,又关于输出对称,即P中每一行都是第 一行的一个置换,每一列都是第一列的一个置换,则该信道是对称的 对一个信道的转移概率矩阵P按列划分,得到若干子信道,若划分出 的所有子信道均是对称的,则称该信道是准对称的 0.8 0.1 0.1 0.1 1 0.1 0.8 0 1 2
K 1 J ({Qk }) I ( X l;Y ) I ( X k ;Y ) Ql Qk Qk l 0 K 1 J 1 p( j | k ) I ( X k ;Y ) Ql p( j | l ) K 1 l 0 j 0 Qi p( j | i ) i 0 I ( X k ;Y ) (1 )
K–1
二进制删除信道(BEC)
1–p–q 0 q E q
0 Q0 = Q1 = 0.5
p p
1
C I X 0; Y I X 1; Y
1 p q log 1 p q q p q log p log 1 q / 2 1 q / 2 q
幅度离散,时间离散信道;
幅度连续,时间离散信道;
幅度连续,时间连续信道; 幅度离散,时间连续信道。
按输入/输出之间的记忆性
有记忆信道 无记忆信道
按其输入/输出信号的关系的确定性:
确定信道
随机信道
信道的抽象模型
输入/输出统计关系 输入量X (随机过程) 信道 输出量Y (随机过程)
H (Y ) H (Y1Y2 Yn ) H (Y1 ) H (Y2 | Y1 ) H (Y3 | Y1Y2 ) H (Yn | Y1Y2 Yn1 )

信息论发展

信息论发展

信息论发展现代信息论是从上世纪二十年代奈奎斯特和哈特莱的研究开始的,他们最早开始研究了通信系统传输信息的能力,并且试图度量系统的信道容量。

香农于1940年在普林斯顿高级研究所期间开始思考信息论与有效通信系统的问题。

经过8年的努力,1948年,来自贝尔研究所的ClaudeShannon(克劳德·香农)的《通信的数学理论》论文公诸于世,从此宣告了崭新的一门关于信息发面的学科──信息论的诞生。

1949年,香农又在该杂志上发表了另一著名论文《噪声下的通信》。

在这两篇论文中,香农阐明了通信的基本问题,给出了通信系统的模型,提出了信息量的数学表达式,并解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题。

两篇论文成为了信息论的奠基性著作。

这两篇论文一起阐述了现代信息论的基础。

并且香农开始创造性的定义了“信息”。

信息论自从二十世纪四十年代中叶到二十一世纪初期,现已成为一门独立的理论科学,他给出一切传输、存储、处理信息系统的一般理论,并指出,实现有效、可靠地传输和存储信息的途径是走数字化的道路。

这是通信技术领域数字化革命的数学或理论基础。

1946年的计算机和1947年晶体管的诞生和相应技术的发展,是这一革命的物理或物质基础。

信息论是在长期的通信工程实践和理论研究的基础上发展起来的。

当物理学中的电磁理论以及后来的电子学理论一旦有某些进展,很快就会促进电信系统的创造发明或改进。

这是因为通信系统对人类社会的发展,其关系实在是太密切了。

日常生活、工农业生产、科学研究以及战争等等,一切都离不开消息传递和信息流动。

通信系统是人类社会的神经系统,即使在原始社会也存在着最简单的通信工具和通信系统,这方面的社会实践是悠久漫长的。

自从香农十九世纪四十年代末两篇论文发表后,前苏联和美国的科学家采取了不同的研究途径经一部发展了信息论。

柯尔莫哥洛夫、宾斯基和达布鲁新为首的一批著名数学家致力于信息论的公理化体系和更一般更抽象的数学模型,对信息论的基本定理给出了更为普遍的结果,为信息论发展成数学的一个分支作出了贡献。

信息论课件CHAPTER4

信息论课件CHAPTER4

由于
h( X
)

h( X
/Y
)


p( xy) log
p( x / y)dxdy p( x)


p( xy)(1
p( x) )dxdy p(x | y)

0
仅当X、Y独立时等式成立。
4.1.5 连续随机变量集合差熵的性质(续) ——连续熵与离散熵的类似性
3. 可加性 设N维高斯随机矢量集合 XΝ X1X2 X N ,很容易证明
4.1.1 连续随机变量的离散化
一个连续随机变量的离散化过程大致如下:
若给定连续随机变量集合X 的概率分布F(x) P{X x} 或 概率密度p(x) ;再给定一个由实数集合到有限或可数集 合的划分 P ,使得
P {Si, i 1, 2, },其中Si 表示离散区间,i Si 为实数集合,
主要是高斯信源的差熵;然后介绍连续信 源最大熵定理;最后介绍连续集合之间的 平均互信息、离散集合与连续集合的平均 互信息。
§4.1 连续随机变量集合的熵
本节主要内容:
1.连续随机变量的离散化 2.连续随机变量集的熵 3.连续随机变量集的条件熵 4.连续随机变量集的联合熵 5.连续随机变量集合差熵的性质 6.连续随机变量集合的信息散度
4.1.5 连续随机变量集合差熵的性质 ——连续熵与离散熵的类似性
1. 连续熵与离散熵计算表达式类似。通过比较可见,由计算 离散熵到计算连续熵,不过是将离散概率变成概率密度, 将离散求和变成积分。
2. 熵的不增性。连续熵同样满足熵的不增原理,即
h( X ) h( X / Y )
(4.1.15)
i
p(xi )x log p(xi ) p(xi )x log x (4.1.5)

信息论第四讲

信息论第四讲

2.2 重要定理2.2.1 链式法则从定理 2.1,我们得到:)|()(),(X Y H X H Y X H +=和)|()(),(Y X H Y H Y X H +=,并解释说它们是熵的链式法则在两个随机变量情况下的特例。

现在,我们来看它的一般形式,即针对一组随机变量的情况。

世界上有很多事情取决于多种因素,这时就可以看作多个随机变量共同决定了事情的不确定性。

定理2.3(熵的链式法则)设随机变量n X X X ,,,21 服从联合分布),,,(21n x x x p ,则∑=-=ni i i n X X X H X X X H 11121),,|(),,,( (2-36)证明 根据式(2-15),可以把等式左边写成左边=)),,,,((),,,(12121n n n X X X X H X X X H -=)),,,(|(),,,(121121--+=n n n X X X X H X X X H)),,,(|(),,,(2211221---+=n n n X X X X H X X X H ),,|(11X X X H n n -+∑=-=ni i i X X XH 111),,|( =右边在证明过程中,我们没有使用联合概率分布),,,(21n x x x p ,如果使用之,同样可以证明这个定理。

可以从物理概念上对上述定理加以解释:多随机变量的联合熵是多个事件同时发生的不确定性,它应该等于事件1X 的不确定性与1X 已出现的情况下其它事件同时发生的不确定性之和,而后者是1X 已出现的前提下事件2X 的不确定性,与1X 、2X 已出现的情况下其它事件同时发生的不确定性之和,依此类推。

这个定理告诉我们一个重要的结论:多随机变量的联合熵等于条件熵之和。

;如果多个事件互相独立,问题就变得更简单了。

例如,我们班上有n 个同学,每人的学习成绩是[0,100]间的随机数,用随机变量i X 表示。

根据上述定理,全班成绩的不确定性为∑=-=ni i i n X X X H X X X H 11121),,|(),,,( ,是条件熵之和,但是由于大家的成绩相互独立,全班成绩的不确定性只由每人成绩不确定性之和决定,即为∑=n i i X H 1)(。

信息论与编码目录[7页]

信息论与编码目录[7页]

第1章绪论第2章熵和互信息§2.1 随机变量的熵和互信息2.1.1 事件的自信息和互信息2.1.2 条件事件的互信息与联合事件的互信息2.1.3 随机变量的平均自信息——熵2.1.4 熵的性质2.1.5 凸函数2.1.6 随机变量间的平均互信息2.1.7 概率分布的散度(相对熵)2.1.8 关于疑义度的Fano不等式2.1.9 马尔可夫链和数据处理定理2.1.10* Shannon信息度量与集合论之间的联系2.1.11*信息论与博奕之间的关系§2.2 连续随机变量的互信息和微分熵2.2.1 连续随机变量的互信息2.2.2 连续随机变量的熵——微分熵2.2.3 微分熵的极大化§2.3 平稳离散信源的熵2.3.1 平稳离散信源一般概念2.3.2 平稳信源的熵2.3.3 马尔可夫信源§2.4 平稳随机过程的信息量与熵习题第3章离散无记忆信源的无损编码§3.1 离散无记忆信源的等长编码3.1.1 等长编码3.1.2 Shannon信源编码定理叙述3.1.3 渐近等分性质(AEP)与Shannon定理的证明§3.2 离散无记忆源(DMS)的不等长编码3.2.1 不等长编码的唯一可译性和译码延时3.2.2 Kraft不等式3.2.3 不等长编码定理§3.3 几种不等长编码算法3.3.1 最佳不等长编码(Huffman编码)3.3.2 Shannon编码法3.3.3 Fano编码3.3.4 Shannon-Fano-Elias编码3.3.5 算术编码3.3.6*通用信源编码算法3.3.7*压缩编码与离散随机数发生§3.4 平稳信源和马尔可夫信源的编码定理3.4.1 平稳信源的编码3.4.2 马尔可夫信源的编码习题第4章信道、信道容量及信道编码定理§4.1 信道,信道模型和分类§4.2 离散无记忆信道(DMC)及其容量4.2.1 信道容量定义及例子4.2.2 离散无记忆信道(DMC)的容量定理4.2.3 对称离散无记忆信道容量的计算4.2.4 转移概率矩阵可逆信道的容量计算4.2.5*离散无记忆信道(DMC)容量的迭代计算§4.3 信道的组合4.3.1 积信道(平行组合信道)4.3.2 和信道4.3.3 级联信道§4.4 离散无记忆信道(DMC)的编码定理4.4.1 几个有关定义4.4.2 二进对称信道编码定理的证明4.4.3*一般离散无记忆信道编码定理的证明(典型列方法) 4.4.4*信道编码定理之逆4.4.5*具有理想反馈的离散无记忆信道的容量4.4.6*信源、信道编码分离定理和信源、信道联合编码§4.5 加性高斯噪声(A WGN)信道4.5.1 高斯信道的容量4.5.2*高斯信道编码定理4.5.3*高斯信道编码定理之逆4.5.4*带有独立高斯噪声的平行信道4.5.5*带有相关高斯噪声的平行信道4.5.6*MIMO高斯信道的容量§4.6 模拟信道的信道容量4.6.1 带限、加性白高斯噪声信道。

信息论与编码课件chapter4_part2

信息论与编码课件chapter4_part2
无失真信源编码定理(香农第 香农第一定理 定理),还可以称为无噪声 信道编码定理,若信道的信息传输率R不大于信道容量C, 总能对信源的输出进行适当的编码,使得在无噪声信道 上能 失真的以最大信息传输率C传输信息;但是要使信 上能无失真的以最大信息传输率 传输信息 但是要使信 道的信息传输率R大于信道容量C而无差错地传输信息则 是不可能的
信息论与编码
4-5 变长编码方法
4.5.3 霍夫曼编码方法(Huffman)
信息论与编码
若以X :{a1 , a2 , , ar }为码符号集,用霍夫曼编码方法, s2 S s1 对信源空间为 = P p( s1 ) p( s2 ) 忆信源S,进行无失真信源编码 进行无失真信源编码 其步骤如下: sq 的离散无记 p ( sq )
i = 1,2, , q N
信息论与编码
4-4 变长编码定理 4.4.3 离散平稳无记忆序列变长编码定理 定理:
将信源S的N次扩展信源SN的消息作为编码对象, 的消息作为编码对象 使非延长码的码字与消息一一对应,则当信源扩 展次数N足够大时,信源 足够大时 信源S的每 的每一个信源符号 个信源符号si所 需要的平均码符号数,即平均码长可以无限接近 于下界H(S)/logr ,接近的程度随 接近的程度随N增加而增加
S : {s1 , s 2 , , s q }
W : {w1 , w2 , , wq }
a1
信 源
s1 s2 sq
编码器
X : {a1 , a 2 ,, a r }
a2 ar
信 道
n1 n2 nq
w1 w2 wq
信源空间:
S s1 P = p( s ) 1
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1
1-q
1
例4.2.2 (高噪声打印机)信道输入与输出字母集分 别是 { A, B,..., Z , }.其中 表示空格,这27个字 1 符排成一圈,当输入某个字符时,输出以等概率 产 3 生它本身及相邻2个字符,例如: P (Y A | X B) =P (Y B | X B) 1 =P (Y C | X B)= 3 求信道容量C.
第4章 数据可靠传输和信道编码
信定义
信道在通信系统中作用
研究信道的哪些问题?
§4.1 离散无记忆信道和信道容量 §4.2 信道容量的计算 §4.3 信道编码理论 §4.4 带反馈的信道模型 §4.5 联合信源——信道编码定理 §4.6 线性分组码
§4.1 数据可靠传输和信道编码
一.信道分类 1.根据传输媒介的类型划分 有线信道 传输媒介类型 无线信道 2.根据用户数量分类,分为单用户信道和多用户 信道 3.根据信道输入端和输出端关系,分为无反馈信 道和反馈信道
p( x) p( x)
例4.1.2 二进无噪信道 Pr (Y 0 X 0) Q(0 0) Pr (Y 1 X 1) Q(1 1) 1, 其他转移概率为0, 求信道容量
b.具有扩展性能的无噪信道
C max I ( X ; Y ) max H ( x) =log 2 n
例4.1.4 求二进对称删除信道的信道容量


0
1
0

1
0
0
定义4.1.4(弱对称信道)
如果转移概率矩阵的每一行都是其他行的置换, 而每列的元素之和相等,称为弱对称信道
其信道容量为
例 英文26个字母中每一个以0.5概率复制成自己,以 0.5概率变成下一个字母,信道容量。
例3 3 离散无记忆模k加性噪声信道Y =X Zmodk , 其中X,Y,Z 取值范围相同,X = Y = Z ={0,1,2, ,k-1} ,p(z )为任意分布。求该信道容量
定理4.2.2 对离散无记忆信道[,Q (y | x), ],其输入 分布p *(x)能达到的信道容量(即使I(X;Y )=I ( p; Q)达 到最大)的充要条件是: C ,当p *(x)>0 D(Q (y | x)p(y ) )|p (x )=p*(x ) C ,当p *(x)=0 其中p(y )= p(x)Q (y | x) ,C即为信道容量。
4.根据信道的物理性质,分为固定参数信道 和变参数信道
5.根据输入输出信号的特点,分为离散信道、 连续信道、半离散半连续信道、波形信道 6. 根据信道输入输出随机变量个数的多少, 分为单符号信道和多符号信道
7. 根据信道有无干扰,分为有干扰信道和无 干扰信道 8. 根据信道有无记忆性,分为有记忆信道和 无记忆信道 9. 根据信道中受噪声干扰的不同,分为随机 差错信道和突发信道
信道表示方法
平稳信道定义 若对任意n和m,离散无记忆信道满足 则称此信道为平稳的或恒参的,记为 , Q( y | x), Q( yn j | xn i ) Q( ym j | xm i )
衡量一个信息传递系统的好坏,有两个指标 a.数量指标:信息传输率R b.质量指标:平均错误率Pe 信道编码的目的: 使译码错误概率Pe在一定限制下使码率R达到最 大
r1 ( x)Q( y | x) def r1 ( x)Q( y | x) Q( x | y) rQ r1 ( x)Q( y | x) 1 ( y)
x
2. 固定这个 Q( | ) ,计算达到 min r1QA D(rQ 1 || Q 1Q) 的最好输入分布 r2 ( x) r2 ( x) A11r1 ( x)exp[D(Q( | x) || rQ 1 ()]
4.2.2 信道容量的迭代算法
• 简单的信道容量:用拉格朗日法求解 • 复杂的信道容量:求解极值比较困难,必须 借助数值方法。 • 此处介绍由本单(Arimoto)和布莱赫特(Blahut) 1972年分别独立给出的迭代算法。
Q( x | y ) J (r , Q, Q) r ( y )Q ( x | y ) log r ( x) y x Q( x | y ) def I ( X ; Y ) r ( y )Q ( y | x) log I (r , Q) r ( x) y x r ( x)Q( y | x) log
p( x) p( x)
其中h( )=- log -(1- )log(1- )
定义4.1.3 如果矩阵的每一行都是其他行的置换,每一列 都是其他列的置换,称这种信道为对称信道 1 1 1 2 3 6 1 1 1 1 3 3 6 6 1 1 1 P2 P1 6 2 3 1 1 1 1 1 1 1 6 6 3 3 3 6 2
p( x) p( x)
c.具有归并性能的无噪信道
C max I ( X ; Y ) max H ( x) =log 2 m
p( x) p( x)
结论:无噪信道的信道容量C只决定于信道的输 入符号数n或输出符号数m,与信源无关
2.对称信道
二进对称信道
C max I ( X ; Y ) max H (Y ) -h( )=1-h( )
X mod k Y
Z
§4.2 信道容量的计算
• 拉格朗日乘子法 • 信道容量的迭代算法 注意:信道容量的计算实际上是求解一个 有约束的凸函数的条件极值问题。
定义4.1.2(信道容量) 一个离散无记忆信道的信道 容量定义为 C max R max I ( X ; Y ) max I ( p; Q) bit 符号
R I ( X ; Y ) H ( X ) H ( X | Y ) H (Y ) H (Y | X )
定义4.1.2(信道容量) 一个离散无记忆信道的信道 容量定义为 C max R max I ( X ; Y ) max I ( p; Q) bit 符号
p( x) p( x) p( x)
其中 A 1 (以及以下的 An 等)是使左边成为概率密度函数的规范化常数。 3. 计算
Q1( x | y) D(r2Q || QQ ) r2 x ( ) Q y( x | ) l o g r2 ( x) x y
4. 以下再重复上述过程(即 1~3),直到达到预设的精度为止。
r2 ( x)
Q ( x | y )
1 y x y
Q ( y| x )
Q1( x | y)
Q ( y| x )
r1 ( x)Q( y | x) r1 ( x) ( ) r1Q( y ) y A1
Q ( y| x )
A11r1 ( x) exp[ D(Q( | x) || r1Q()] 注意 :
x y
Q( y | x) r ( y)
p ( x, y ) r ( x)Q( y | x), r ( y ) r ( x)Q( y | x)
x
引理4.2.4 J(r,Q,Q) I (r , Q), 且等号成立的充要 条件是Q( x | y ) Q( x | y )对所有满足p( x, y ) 0的 x ,y 成立
要条件是: f (x) 0,当xi 0 xi x x* i 1, 2,3...n f (x) 0,当xi 0 xi x x*
注:当 f ( x) 是凹函数, M max f ( x) ,类似结论成立,只须把“ ”变成“ ”号。 由于 I ( X ; Y ) I ( p; Q) 是关于输入分布 p(x)的函数,利用上述引理可得关于信道容量 输入分布的充要条件。
x y def
r ( x)Q( x | y ) Q( x | y )Q( x | y )
D( r ( x)Q( y | x) || Q( x | y)Q( y | x)) D(rQ || QQ)
计算信道容量的迭代算法:
1. 从任一输入分布 r1 ( x) 开始,找到达到 min QQB D(rQ || QQ) 的最好条件分布
x
定理4.2.3 离散无记忆信道Q (Q (y | x),x ,y ) 的信道容量C有以下性质: 1)C 0; 2) C log ; 3) C log ;
例4.2.1
Z 信道(见下图)输入集 {0,,输出集 1}
X 0 1 q Y 0
{0,,求 1} 信道容量
max:所有输入分布集 p(x)
三点说明: (1)信道容量C是R的上限 (2)使得I(X;Y)达到最大值的输入分布称为最佳输入 分布 (3)I(X;Y)与输入概率分布和转移概率两者有关
三、特殊单符号离散信道的信道容量
1.无噪信道 a.具有一一对应关系的无噪信道 信道容量
C max I ( X ; Y ) max H ( x) =log 2n
1 1 1 1 3 3 6 6 0.7 0.2 0.1 P4 P3 1 1 1 1 0.2 0.1 0.7 6 3 6 3 另一种对称信道定义
如果一个矩阵的每一行都是同一集合Q q1 , q2 , 中诸元素的不同排列,称矩阵的行可排列。 如果一个矩阵的每一列都是同一集合P p1 , p2 , 中诸元素的不同排列,称矩阵的行可排列。
J (r , Q, Q) r ( y )Q( x | y ) log
y x
Q( x | y ) r ( x)
Q( x | y ) I (r , Q) r ( y )Q( y | x) log r ( x) y x
Q( x | y ) J (r , Q, Q) r ( y )Q( x | y ) log r ( x) y x r ( x)Q( y | x) log
相关文档
最新文档