多符号离散信源
多符号离散信源共40页

多符号离散信源
11、战争满足了,或曾经满足过人的 好斗的 本能, 但它同 时还满 足了人 对掠夺 ,破坏 以及残 酷的纪 律和专 制力的 欲望。 ——查·埃利奥 特 12、不应把纪律仅仅看成教育的手段 。纪律 是教育 过程的 结果, 首先是 学生集 体表现 在一切 生活领 域—— 生产、 日常生 活、学 校、文 化等领 域中努 力的结 果。— —马卡 连柯(名 言网)
13、遵守纪律的风气的培养,只有领 导者本 身在这 方面以 身作则 才能收 到成效 。—— 马卡连 柯 14、劳动者的组织性、纪律性、坚毅 精神以 及同全 世界劳 动者的 团结一 致,是 取得最 后胜利 的保证 。——雨果
谢谢你的阅读
❖ 知识就是财富 ❖ 丰富你的人生
71、既然我已经踏上这条道路,那么,任何东西都不应妨碍我沿着这条路走下去。——康德 72、家庭成为快乐的种子在外也不致成为障碍物但在旅行之际却是夜间的伴侣。——西塞罗 73、坚持意志伟大的事业需要始终不渝的精神。——伏尔泰 74、路漫漫其修道远,吾将上下而求索。——屈原 75、内外相应,言行相称。——韩非
2.4 离散信源的无失真编码

信源编码的分类
无失真信源编码:把所有的信息丝毫不差地编码, 无失真信源编码:把所有的信息丝毫不差地编码,然后传送 信源编码 到接收端。 到接收端。 离散无失真信源编码:原始消息是多符号离散信源消息 无失真信源编码 是多符号离散信源消息, 离散无失真信源编码:原始消息是多符号离散信源消息, 按无失真编码的方法,编成对应的码序列。 按无失真编码的方法,编成对应的码序列。 限失真信源编码 允许不对所有的信息进行编码, 信源编码: 限失真信源编码:允许不对所有的信息进行编码,只对重要 信息进行编码,对其它不影响视听的信息进行压缩、丢弃, 信息进行编码,对其它不影响视听的信息进行压缩、丢弃, 但这种压缩失真必须在一定的限度以内 压缩失真必须在一定的限度以内, 但这种压缩失真必须在一定的限度以内,因此称为限失真信 源编码。 源编码。 离散限失真信源编码 离散限失真信源编码 连续限失真信源编码 连续限失真信源编码
本章主要内容
2.1单符号离散信源 2.1单符号离散信源 2.2多符号离散平稳信源及熵 2.2多符号离散平稳信源及熵 2.3连续信源及熵 2.3连续信源及熵 2.4离散无失真信源编码定理 2.4离散无失真信源编码定理
2
2.4 离散无失真信源编码定理
信源涉及的重要问题: 信源涉及的重要问题:
信源输出的信息量有多少:即信源信息量的计算问题。 信源输出的信息量有多少:即信源信息量的计算问题。 如何更有效地表示信源输出的消息: 如何更有效地表示信源输出的消息:在尽量提高通信 效率的前提下,对信源所发送的消息进行变换, 效率的前提下,对信源所发送的消息进行变换,即信 源编码。 源编码。
已知:定长无失真离散信源编码定理: 已知:定长无失真离散信源编码定理:
原始信源长为L 原始信源长为L的平稳无记忆离散序列信源 每个符号的熵为H(X), H(X),即 XL=(X1X2……XL) ,每个符号的熵为H(X),即平均 X 符号熵为H(X),要想进行无失真的信源编码,需 符号熵为H(X),要想进行无失真的信源编码, H(X),要想进行无失真的信源编码 满足 令 →0, ε
信息论第2章(2010)

ai 后所获得的信息量。
自信息量的性质:
1)非负性。 2) 单调递减性。 3) 可加性。
I xi ,y j log pxi ,y j
若两个符号x i , y j同时出现,可用联合概率px i , y j 来表示 这时的自信息量为 I y j I xi | y j
例题:二元信源,每个符号发生的概率分别为p(x1)=p,p(x2)=1-p. 试计算信源熵,并画出熵函数H(p)和p的曲线图。
① 等概时(p=0.5):随机变量具有最大的不确定性
② p=0或1时:随机变量的不确定性消失。
信息熵的物理意义
1)表示了信源输出前,信源的平均不确定性。 2)表示了信源输出后,每个消息或符号所提供的 平均信息量。 3)信息熵反映了变量X的随机性。
平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值,其表达式为 q
H ( X ) EI ( xi ) P( xi ) log P( xi )
i 1
式中, E 表示统计平均,
I ( xi ) 表示符号 x i 包含的自信息量。
平均信息量可以表示为:
任何一个物理量的定义都应当符合客观规律和逻辑上 的合理性,信息的度量也不例外。直观经验告诉我们: ① 消息中的信息量与消息发生的概率密切相关:出现消 息出现的可能性越小,则消息携带的信息量就越大。 ② 如果事件发生是必然的(概率为1),则它含有的信息 量应为零。如果一个几乎不可能事件发生了(概率趋 于0),则它含有巨大的信息量。 ③ 如果我们得到不是由一个事件而是由若干个独立事件 构成的消息,那么我们得到的信息量就是若干个独立 事件的信息量的总和。
② 联合信源中平均每个符号对所包含的信息量?
信息论基础第2章离散信源及其信息度量

第2章 离散信源及其信息度量
本章内容
2.1 离散信源的分类 2.2 离散信源的统计特性 2.3 离散随机变量的信息度量 2.4 离散信源的N次扩展信源 2.5 离散平稳信源 2.6 马尔可夫信源 2.7 离散信源的相关性和剩余度
《信息论基础》
2.1 离散信源的分类
离散信源的分类
按照离散信源输出的是一个消息符号还是消息符 号序列,可分为单符号离散信源和多符号离散信 源。
,
q2 pn
,
qm ) pn
n
m
其中, pi 1, qj pn 。
i1
j 1
可见,由于划分而产生的不确定性而导致熵的增加量为
pnHm (
q1 pn
,
q2 pn
, qm pn
)
6、上凸性
熵函数 H (p) 是概率矢量 p ( p1, p2 ,
pq ) 的严格∩型凸函数
( 或 称 上 凸 函 数 )。 即 对 任 意 概 率 矢 量 p1 ( p1, p2 , pq ) 和
成 H ( p1) 或 H ( p2 ) 。
和自信息相似,信息熵 H ( X ) 有两种物理含义:
① 信源输出前,信源的信息熵表示信源的平均 不确定度。
② 信源输出后,信源的信息熵表示信源输出一 个离散消息符号所提供的平均信息量。如果信道无噪 声干扰,信宿获得的平均信息量就等于信源的平均信 息量,即信息熵。需要注意的是,若信道中存在噪声, 信宿获得的平均信息量不再是信息熵,而是 2.5 节介 绍的平均互信息。
联合熵 H (XY ) 的物理含义表示联合离散符号集 XY 上
的每个元素对平均提供的信息量或平均不确定性。 单位为“bit/符号对”。 需要注意的是,两个随机变量 X 和 Y 既可以表示两个
第3章_离散信源2(教育研究)

来考虑,用联合概率来描述。 ➢ 有了符号或符号序列的信源空间就可以度量它们出现
时所给出的信息量,并可以计算它们的信源熵。
东南大学移动通信国家重点实验室
15
信息论与编码课件
3.1 离散信源的分类及其描述
43定义39若信源为具有n个单个符号消息的离散信源第i个符号消息占有的时间为b统计平均值为该信源符号消息的平均时间长度或平均长度用表示主量纲为秒符325各种离散信源的时间熵秒符号31844对发出单个符号消息的离散无记忆信源若其信源熵为hx则其时间熵为325各种离散信源的时间熵若信源每秒平均发n个符号31945设发出符号序列消息的无记忆信源是单个符号消息的离散无记忆信源的k重扩展k重符号序列消息的平均长度用表示则有325各种离散信源的时间熵由于信源无记忆故有信源的时间熵为32246其数值与发出单个符号消息的离散无记忆信源相同但若该信源每秒平均发出n个k重符号序列消息则有325各种离散信源的时间熵因此324与式320比较这种情况的时间熵比单个符号消息离散无记忆信源时大了k倍这是由于n个k重符号序列消息的缘故
= P( xn;tn |xn-1, xn-2, …, xn – k ;tn-1, tn-2, …tn – k )
(3.2)
则称X(t)为K阶马尔可夫过程。
✓定义3.2说明,K阶马尔可夫过程在tn时刻的随机变 量xn,仅和它前k个时刻tn – 1 , tn – 2 , …, tn – k 的随机 变量xn – 1 , xn – 2, …, xn – k 有关。
➢ 用转移概率来描述的信源是一种典型的马尔可 夫信源。
东南大学移动通信国家重点实验室
16
信息论第3章信源及信息熵

举例
数学描述
离散信源 (数字信源)
连续信号
文字、数据、 离散化图象
离散随机变量 序列
跳远比赛的结果、语音 连续随机变量
信号抽样以后
序列
波形信源 (模拟信源)
语音、音乐、热噪声、 图形、图象
不常见
随机过程
表3.1 信源的分类
3.1 信源的分类及其数学模型
我们还可以根据各维随机变量的概率分布是否随时间的推移 而变化将信源分为平稳信源和非平稳信源,根据随机变量间 是否统计独立将信源分为有记忆信源和无记忆信源。
定义3.2 随机变量序列中,对前N个随机变量的联合熵求平
均:
HN
(X)
1 N
H ( X1X 2
XN)
称为平均符号熵。如果当N
时上式极限存在,则
lim
N
H
N
(X)
称为熵率,或称为极限熵,记为
def
H
lim
N
H
N
(
X
)
3.3.1 离散平稳无记忆信源
离散平稳无记忆信源输出的符号序列是平稳随机序列,并且
H(X ) H(X1X2 XN ) H ( X1) H ( X2 | X1) H ( X3 | X1X 2 ) H ( X N | X1X 2 X N1)
定理3.1 对于离散平稳信源,有以下几个结论:
(1)条件熵 H (X N | X1X 2 X N1) 随N的增加是递减的;
(2)N给定时平均符号熵大于等于条件熵,即
s1
si p(s j
| si )
s q
m
状态空间由所有状态及状态间的状态转移概率组成。通过引
入状态转移概率,可以将对马尔可夫信源的研究转化为对马 尔可夫链的研究。
3.3 多符号离散信道的信道容量-17页精选文档
2 log 2 [2 p log p 2 p log p]
2 log 2 2H ( p, p) 2C
推广: DM 对 的 N C 次 称扩展信 :CN道 N容 C 量
2020/1/9
CN次扩展信 道 NC
10
独立并联信道的信道容量
多个独立的单符号信道的并联信道的数学
Def:输入输出都是长为N的多符号离散消息,这样 的信道称为多符号离散信道。
设信源XN: XNX 1X 2 X N X(x1,x2, xn)
信宿YN: YNY 1 Y 2 Y N Y(y1,y2, ym)
则N次扩展信道的转移概率矩阵为
pN(j |i)
i 1,2,.... n N
log 22 H ( p2,p p,p p, p2 )
2 log
2
2
p
log
2
p
2 p p log
pp
p2
log
p2
2 log
2
2 [2 p
log
p
2 p p log
p
2
p p log
p
2 p2
log
p]
2 log 2 [2 p( p p) log p 2 p( p p) log p]
1 y11 y12 00 , 2 y 21 y 22 01 3 y 31 y 32 10 , 4 y 41 y 42 11
2020/1/9
5
则
p ( 1 / 1 ) p ( y11 y12 / x11 x12 ) p ( y11 / x11 ) p ( y12 / x12 ) p(00 / 00 ) p(0 / 0) p(0 / 0) p p
信息论与编码习题参考答桉1
信息论与编码习题参考答桉12002 Copyright EE Lab508 信息论与编码习题参考答案第一章单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量;(2)“两个5同时出现”这一事件的自信息量;(3)两个点数的各种组合的熵;(4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:样本空间:(1)P1?(2)P2?n1Nn2N??N?c6c6?6?6?3623 6136?I(a)??logP1?log18??I(a)??logP2?log 36? (3)信源空间:X P(X) X P(x) X P(x) X P(x) X P(x) ?H(x)?15?236(1,1) 1/36 (2,2) 1/36 (3,3) 1/36 (4,4) 1/36 (5,5) 1/36 ?log362(1,2) 2/36 (2,3) 2/36 (3,4) 2/36 (4,5) 2/36 (5,6) 2/36 ?6?136(1,3) 2/36 (2,4) 2/36 (3,5) 2/36 (4,6) 2/36 (1,4) 2/36 (2,5) 2/36 (3,6) 2/36 (6,6) 1/36(1,5) 2/36 (2,6) 2/36(1,6) 2/36?log36? (4)信源空间:X P(x) 2 3 4 5 6 7 8 9 10 11 12 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 236?log36+?log365436?log636362?636?log363?83 6?log364 ?H(x)? ?1036+?log366?(5) P3? n3N?1136?I(a)??logP3?log3611? ? 2002 Copyright EE Lab508 如有6行、8列的棋型方格,若有两个质点A 和B,分别以等概落入任一方格内,且它们的坐标分别为, ,但A,B不能同时落入同一方格内。
多符号离散信道(1)
b j ( y j1 , y j2 , , y jN ); j 1, 2, , mN,j k (1, 2, , m)
mN
且满足 pij 1 j 1
i 1, 2, , nN
这仍意味着N次扩展信道矩阵中各行之和为 1 。
6
N次扩展信道的信道矩阵
由于信道是无记忆的,故有 pij p(bj / ai ) p( y j1 y j2 y jN / xi1 xi2
输入符号集为X2 =00,01,10,11,共有nN 22 4个输入符号。
输出符号集为Y2 =00,01,10,11,共有mN 22 4个输出符号。
8
例 二次扩展信道的传递概 率
根据信道的无记忆特性,可以求出二次扩展信道的 传递概率 p(bj / ai ),i, j 1, 2,3, 4为
• 一般离散无记忆信道的数学模型基本上与 输入和输出为单符号的简单离散无记忆信 道的模型相同。
• 不同的是其输入和输出不是单个随机变量X 和Y,而是随机序列
X ( X1X 2 , X N )和Y (Y1Y2 ,YN ).
• 其概率空间为 [X, p(y/x), Y]
2
简单的离散无记忆信道
• 简单的离散无记忆信道的输入和输出都是 单个随机变量,其数学模型如下图:
2-6 第2章 2.2.4-5 马尔可夫信源
信源输出的随机符号序列为X1 X 2 X l , X l X ( x1 , x2 , xn ), l 1, 2, 信源所处的状态序列为S1S 2 Sl , Sl S (e1 , e2 , eJ ), l 1, 2,
3
马尔可夫信源定义
定义 若信源输出的 符号序列 和 状态序列 满足下述条件则称此信源为马尔可夫信源 1、某一时刻l 信源的输出仅与信源的当前状态有关,即 p ( X l xk Sl e j , X l 1 xk1 , Sl 1 ei ,) p ( X l xk Sl e j ) 其中,xk、xk1 A;ei、e j S 2、信源的状态只由当前的输出符号和前一时刻信源状态 唯一确定,即 1 p ( Sl ei X l xk , Sl 1 e j ) 0
6
马尔可夫链状态转移图-例题
通常我们用马尔可夫 链的状态转移图来描 述马尔可夫信源。
例 一个二进制一阶马尔可夫信源, 信源符号集为X {0,1}, 条件概率为 p (0 0) 0.25, p(0 1) 0.5, p (1 0) 0.75, p(1 1) 0.5, q 2, m 1, 所以e1 0, e 2 1.
i j
其中p (e j )是马尔可夫链的平稳分布。 p (e j )为极限概率,满足方程组 p (e j ) p (ei ) p (e j / ei ) Nhomakorabeai 1 nm
( j 1, 2,..., n m )
及条件 p (e j ) 0,
p (e
j 1
nm
j
) 1
15
计算此马尔可夫信源熵-例题
N
H ( X m1 X 1 , X 2 ,, X m ) H m1 即m阶马尔可夫信源的极限 熵等于m阶条件熵。 13
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
设X1,X2 ∈{x1,x2,…,xn},则矢量 X∈{x1x1, …x1xn,x2x1, …,x2xn, …xnx1, …,xnxn} 令 a (x x )
i i1 i2
i1,i2 1,2,,n i 1,2, , n 2 p(ai ) p( xi1 xi2 ) p( xi1 ) p( xi2 / xi1 )
二进制无记忆信源的N次扩展:把每N个二进制数字 组成一组,则信源等效成一个具有2N个符号的新信源, 把它称为二进制无记忆信源的N次扩展信源。
③ 离散无记忆信源的数学模型
离散无记忆信源X={ x1,x2,…,xn},对它的输出消息序列, 可以用一组组长度为N的序列来表示它。这时它就等效成 了一个新信源; 新信源输出的符号是N长的消息序列,用N维离散随机矢 量来描述。 ai=(xi1,xi2,…,xiN) i=1,2, …,n 每个分量xik (k=1,2,…,N)都是随机变量,都取值于同一信源X,并且
N次扩展信源的熵
H ( X N ) p(ai ) log 2 p(ai )
XN
求和号是对信源XN中所有nN个符号求和,所以求和号共有nN个。 这种求和号可以等效于N个求和号,其中的每一个又是对X中的n个符号求 和,所以
p(a ) p( x ) p( x
i XN XN i1 n n n i1 1 i2 1
可以算得 H(X)=1.5 比特/符号(此处的符号是指X信源的输出符号xi)
H(X)=H(X2)=3 比特/符号(此处的符号是指扩展信源的输出符号
ai ,它是由二个xi符号组成)
所以
H(X)=2H(X)
对上述结论的解释:因为扩展信源XN的每一个输出符
号ai是由N个xi所组成的序列,并且序列中前后符号是统计 独立的。现已知每个信源符号xi含有的平均信息量为H(X), 那么,N个xi组成的无记忆序列平均含有的信息量就为 NH(X)(根据熵的可加性)。因此信源XN每个输出符号含 有的平均信息量为NH(X)。
② 二维平稳信源
除上述条件外,如果联合概率分布P(XiXi+1)也与时间起点 无关,即 P(XiXi+1)= P(XjXj+1) (i,j为任意整数,且i≠j) 这种信源在任何时刻发出两个符号的概率完全相同。
③ 离散平稳信源
如果各维联合概率分布均与时间起点无关,即对两个不同 的时刻i和j,有 P(Xi)=P(Xj) P(XiXi+1)= P(XjXj+1) P(XiXi+1Xi+2)= P(XjXj+1Xj+2) … P(XiXi+1…Xi+N)= P(XjXj+1…Xj+N)
i2
) p( xiN )
p( xi1 ) p( xi2 ) p( xiN ) p( xi1 ) p( xi2 ) p( xiN ) 1
i N 1 i1 1 i2 1 i N 1
n
n
n
因此
H ( X N ) p (ai ) log 2 p ( ai ) log 2
XN XN
可以证明:离散无记忆信源X的N次扩展信源的熵等于离散信源X的熵 的N倍,即
H(X)=H(XN)=NH(X)
证明:H(X)=H(XN)=NH(X)
设 ai是XN概率空间中的一个符号,对应于由N个xi组成的序列 ai =(xi1, xi2,…, xiN) 而 p(ai )=p(xi1) p(xi2)…p(xiN) i1,i2, …,iN∈{1,2, …,n}
有一离散无记忆信源
1
2
表 2.1 X2 信源的符号 对应的消息序列 概率 p(ai) a1 x1 x1 1/4 a2 x1 x2 1/8 a3 x1 x3 1/8 a4 x2 x1 1/8 a5 x2 x2 1/16 a6 x2 x3 1/16 a7 x3 x1 1/16 a8 x3 x2 1/16 A9 x3 x3 1/16
1 p ( xi1 ) p ( xi2 / xi1 )
p ( xi1 xi2 ) log 2
2.2 多符号离散信源
2.2.1 多符号离散信源 2.2.2 离散平稳无记忆信源 2.2.3 离散平稳有记忆信源 2.2.4 马尔可夫信源 2.2.5 信源冗余度及信息变差
2.2.1 多符号离散信源
(1) 多符号离散信源 (2) 随机矢量/随机变量序列 (3) 多符号离散平稳信源
(1) 多符号离散信源
i1 1 i2 1
n
n
二维平稳信源的信源熵
根据信源熵的定义
n n i1 1 i2 1 n n 1 p ( xi1 xi2 )
H ( X ) H ( X 1 X 2 ) p ( xi1 xi2 ) log 2 p ( xi1 xi2 ) log 2
i1 1 i2 1 n n
X的数学模型
a2 ,,an 2 X a1 , P( X ) p(a ), p(a ), , p(a ) 2 1 n2 并且
p(a ) p( x
i 1 i i1 1 i2 1
n2
n
n
i1
) p( xi2 / xi1 ) p( xi1 ) p( xi2 / xi1 ) 1
① 基本概念 ② 序列的成组传送 ③ 离散无记忆信源的数学模型
① 基本概念
离散无记忆信源:为了方便,假定随机变量序列
的长度是有限的,如果信源输出的消息序列中符 号之间是无相互依赖关系/统计独立,则称这类信 源为离散平稳无记忆信源/离散平稳无记忆信源的扩展。
② 序列的成组传送
把信源输出的序列看成是一组一组发出的。
n
因为
p( x
所以
ik 1
i XN
n
ik
) 1
k 2,3,, N
p(ai ) log 2
i1 n
p(a ) log
1 2 p ( xi1 )
1 p ( xi1 )
H(X )
H(X)=H(XN)=H(X)+H(X)+…+H(X)=NH(X)
(3) 举 例
3 X x1 , x2 , x3 p( xi ) 1 P( X ) 1 , 1 , 1 i 1 2 4 4 求这个离散无记忆信源的二次扩展信源,扩展信源的每个符号是信源X 的输出长度为2的符号序列。 因为信源X共有3个不同符号,所以由信源X中每两个符号组成的不同 排列共有32=9种,得二次扩展信源共有9个不同的符号。 (i1,i2 1,2,3; i 1,2,9) 因为信源X是无记忆的,则有 p(ai ) p( xi ) p( xi )
(3) 多符号离散平稳信源
为了便于研究,假定随机矢量X中随机变量 的各维联合概率分布均不随时间的推移变化。或 者说,信源所发符号序列的概率分布与时间的起 点无关,这种信源称为多符号离散平稳信源。
2.2.2 离散平稳无记忆信源
(1) 离散无记忆信源 (2) 离散平稳无记忆信源的熵 (3) 举例
(1) 离散无记忆信源
信源X的N次扩展信源用XN表示,它是具有nN个符号的离 散信源,其数学模型为
a2 , , ai , , aq X N a1 , p (a ), p (a ), , p (a ), , p (a ) 1 2 i q P( X )
• •
其中q=nN,每个符号ai是对应于某一个由N个xi组成的序列 ai的概率p(ai)是对应的N个xi组成的序列的概率
2.2.3 离散平稳有记忆信源
(1) 离散平稳有记忆信源的数学模型 (2) 离散平稳有记忆信源的信源熵 (3) 离散平稳有记忆信源的极限熵
(1) 离散平稳信源的数学模型
① 一维平稳信源 ② 二维平稳信源 ③ 离散平稳信源
① 一维平稳信源
对于随机矢量X=X1X2…XN, 若任意两个不同时刻i和j(大于1的任意整数), 信源发出消息的概率分布完全相同,即 P(Xi=x1)=P(Xj=x1)=p(x1) P(Xi=x2)=P(Xj=x2)=p(x2) … P(Xi=xn)=P(Xj=xn)=p(xn) 一维平稳信源无论在什么时刻均以{p(x1), p(x2), …, p(xn)} 分布发出符号。
实际的信源输出的消息是时间或空间上离散的一系列 随机变量。这类信源每次输出的不是一个单个的符号,而 是一个符号序列。在信源输出的序列中,每一位出现哪个 符号都是随机的,而且一般前后符号的出现是有统计依赖 关系的。这种信源称为多符号离散信源。 举例:
(2) 随机矢量/随机变量序列
多符号离散信源可用随机矢量/随机变量序列描述, 即 X=X1,X2,X3,… 信源在不同时刻的随机变量Xi和Xi+r的概率分布 P(Xi)和P(Xi+r)一般来说是不相同的,即随机变量 的统计特性随着时间的推移而有所变化。
这种各维联合概率均与时间起点无关的完全平稳信源称为 离散平稳信源。
(2) 离散平稳有记忆信源的信源熵
① 二维平稳信源的信源熵 ② 离散平稳信源的信源熵
① 二维平稳信源的信源熵
二维平稳信源的数学模型 二维平稳信源的信源熵 离散无记忆信源是离散平稳信源的特例 举例
二维平稳信源的数学模型
最简单的离散平稳信源:二维平稳信源 X=X1X2 每两个符号看做一组,每组代表信源X=X1X2的一个消息; 每组中的后一个符号和前一个符号有统计关联,这种概率 性的关系与时间起点无关; 假定符号序列的组与组之间是统计独立的。这与实际情况不