信息论与编码课程设计

信息论与编码课程设计
信息论与编码课程设计

信息论与编码课程设计报告

设计题目:统计信源熵、香农编码与费诺编码

专业班级:XXXXXXXXXXXX

姓名:XXXXXXXXXXXX

学号:XXXXXXXXXXXX

指导老师:XXXXXXXXXXXX

成绩:

时间:2015年3月31日

目录

一、设计任务与要求 (2)

二、设计思路 (2)

三、设计流程图 (5)

四、程序及结果 (7)

五、心得体会 (11)

六、参考文献 (12)

附录 (13)

一、 设计任务与要求

1. 统计信源熵

要求:统计任意文本文件中各字符(不区分大小写)数量,计算字符概率,并计算信源熵。 2. 香农编码

要求:任意输入消息概率,利用香农编码方法进行编码,并计算信源熵和编码效率。 3. 费诺编码

要求:任意输入消息概率,利用费诺编码方法进行编码,并计算信源熵和编码效率。

二、 设计思路

1、统计信源熵:

统计信源熵就是对一篇英文文章中的i 种字符(包括标点符

号及空格,英文字母不区分大小写)统计其出现的次数count i (),

然后计算其出现的概率()p i ,最后由信源熵计算公式:

1()()log ()n

i i n H x p x p x ==-∑

算出信源熵()H x 。所以整体步骤就是先统计出文章中总的字符

数,然后统计每种字符的数目,直到算出所有种类的字符的个数,进而算出每种字符的概率,再由信源熵计算公式计算出信源熵。在这里我选择用Matlab 来计算信源熵,因为Matlab 中系统自带了许多文件操作和字符串操作函数,其计算功能强大,所以计算信源熵很是简单。

2、香农编码

信源编码模型:

信源编码就是从信源符号到码符号的一种映射f ,它把信源输出的符号i a 变换成码元序列i x 。

1,2,...

,,i i N

f a i q x =→:

1:{,...,}q S s a a ∈ 信源 1

2

{,...,}li

i i i i X x x x = 码元

1{,...,}

1,2,...,i q S a a i N ∈= 1,2,...,N i q =

1:{,...,}r X x x x ∈ 码符号

N

次扩展信源无失真编码器

凡是能载荷一定的信息量,且码字的平均长度最短,可分离的变长码的码字集合都可以称为最佳码。为此必须将概率大的信息符号编以短的码字,概率小的符号编以长的码字,使得平均码字长度最短。能获得最佳码的编码方法主要有:香农(Shannon )、费诺(Fano )、哈夫曼(Huffman )编码等。

信源编码器

香农第一定理: 离散无记忆信源为

12

1

2......

()()()......q q s s s S p s p s p s P ??

??=??

??????

熵()H S ,其N 次扩展为

1212......

()()

()......N q q S p p p P αααααα????=??

??????

?

熵为()N H S ,码符号集为12(,,...,)r X x x x =。先对信源N S 进行编码,总可以找到一种编码方法,构成唯一可译码,使S 中每个信源符号所需的平均码长满足

()1()

log log N L H S H S r N N r

+>≥

且当N →∞时有()()

log lim N r N L H S H S N r →∞== ,

L 是平均码长1()N

q

i i i L p αλ==∑,i λ是i α对应的码字长度。

香农编码方法:

(1) 将信源消息符号按其出现的概率大小依次排列:12...n p p p ≥≥ (2)确定满足下列不等式整数码长i K 为

()()1i i i lb p K lb p -≤≤-+

(3)为了编成唯一可译码,计算第i 个消息的累加概率为

1

1()i i k k P p a -==∑

(4)将累加概率i P 变成二进制数。

(5)取i P 二进制数小数点后i K 位即为该消息符号的二进制码字。

3、费诺编码方法

(1)将信源消息符号按其出现的概率大小依次排列:12...n p p p ≥≥ (2)将依次排列的信源符号按概率值分为两大组,使两个组的概率之和近似相同,并对各组赋予一个二进制码元“0”和“1”。(3)将每一大组的信源符号再分为两组,使划分后的两个组的概率之和近似相同,并对各组赋予一个二进制符号“0”和“1”。 (4)如此重复,直至每个组只剩下一个信源符号为止。 (5)信源符号所对应的码字即为费诺码。

三、 设计流程图

1、统计信源熵

用Matlab 读入一段英文 计算这段文字的字符总数unm

① ②

统计每种字符的个数n(i) 算出每种字符的概率p(i)

③ ④

由信源熵计算公式1()()log ()n

i i n H x p x p x ==-∑计算出信源熵

⑤ 2、香农编码

开始

输入概率矩阵

将概率由大到小排列

计算累加概率和概率的个数

根据公式调用函数计算码长

用循环程序编码并调整输出格式

计算信源熵和编码效率

输出信源熵、编码效率和码字

结束

3、费诺编码

开始

输入概率矩阵

将概率由大到小排列

计算累加概率和概率的个数

在两组概率之和近似相等的条件下将

概率分为两组,各赋予0,1两个码元将每一大组的的概率重复上一步操作,直到每组只剩一个概率

用循环程序编码并调整输出格式

计算信源熵和编码效率

输出信源熵、编码效率和码字

结束

四、程序及结果

1、统计信源熵的Matlab程序

function h=entropy(p)

clc

fid=fopen('shuju.txt','r');%打开txt文件

[ex,num]=fscanf(fid,'%c',inf)%读取二进制文件的数据,并将数据存入矩阵

str1=lower(ex)%将字符串中的大写字母转换成小写字母

sort_str1=sort(str1);%按照字符的ASCII值对字符串排序

j=1;

for i=1:length(sort_str1)-1%计算出字符串的种类

if strcmp(sort_str1(i),sort_str1(i+1))~=1%比较两个字符串是否完全相等,相等是1,否则0 j=j+1;

str2(j)=sort_str1(i);

end

str2(j+1)=sort_str1(i+1);

end

for i = 1:length(str2)%length函数获取字符串长度

str_num =strfind(sort_str1,str2(i));%strfind(S1,S2):寻找S2是否匹配S1,并返回S2的位置count1(i) = length(str_num);

end

str2

count=count1(3:end)

p=count./sum(count)

sum(-p.*log2(p))%计算信源熵

待读取的英文:

The Pressure of Graduate Students

Now I am a post graduate student, I will graduate next year, so I start to find jobs recently, I feel so much pressure, though I have good education, I still get rejection from the companies. The pressure of graduate students are so heavy, the competition is so fierce that many

students can’t get the ideal jobs. They should adjust their strategies.

The pressure of graduate students is so heavy. On the one hand, they don’t have experience, so they don’t know how to get the job interview and miss many chances. On the other hand, there are more and more students have high education, some have received higher education, some have studies abroad which make their resumes stand out. Those average students don’t have advantages over the above mentioned ones.

Average students need to make their resumes specially, so they can have the chance. They can describe their characteristic to fit the job, the employers will see this and give you the chance. Students can also make their internship experience stand out, because the employers pay special attention to it.

The job pressure is heavy for every graduate student, if the students take the wise strategy, they can have more chances to get the job.

程序运行结果:

总共出现的字符种类:,.abcdefghijklmnoprstuvwxy’

每种字符对应出现的次数:[206 16 11 78 10 33 42 161 10 20 65 53 8 5 16 21 58 64

16 55 80 113 36 20 8 3 20 4]

每种字符出现的概率:[ 0.1672 0.0130 0.0089 0.0633 0.0081 0.0268 0.0341 0.1307 0.0081 0.0162 0.0528

0.0430 0.0065 0.0041 0.0130 0.0170 0.0471 0.0519 0.0130 0.0446 0.0649 0.0917 0.0292 0.0162 0.0065 0.0024 0.0162 0.0032]

信源熵:()

H x=4.1250

2、香农编码程序

function c=shannon(p)

% p=[0.25 0.25 0.20 0.15 0.10 0.05];

% shannon(p);

[p,index]=sort(p);

p=fliplr(p);%从大到小

n=length(p);

pa=0;%累加概率

for i=2:n

pa(i)=pa(i-1)+p(i-1);

end

k=ceil(-log2(p));%码长计算

c=cell(1,n);%生成元胞数组,存码字,是cell,跟上一行不一样for i=1:n

c{i}= '';

tmp=pa(i);

for j=1:k(i)

tmp=tmp * 2;

if tmp>=1

tmp=tmp - 1;

c{i}(j)= '1';

else

c{i}(j)= '0';

end

end

end

%p

%pa

%交换回原来的顺序

c=fliplr(c);

c(index)=c;

fprintf('信源信息熵:\n');

H=sum(-p.*log2(p))%计算信源熵

fprintf('平均码长:\n');

K=sum(p.*k)%计算平均码长

fprintf('编码效率:\n');

w=H./K%计算编码效率

fprintf('码字:\n');

c

程序运行结果:

p=[0.25 0.25 0.20 0.15 0.10 0.05]; shannon(p);

信源信息熵:

H = 2.4232

平均码长:

K = 2.7000

编码效率:

w = 0.8975

码字:

c = '01' '00' '100' '101' '1101' '11110'

3、费诺编码程序

主程序

function c=fano1(p)

% p=[0.25 0.25 0.20 0.15 0.10 0.05]

% c=fano1(p)

n=size(p,2);

if n==1

c=cell(1,1);

c{1}='';

return

end

[p,index]=sort(p);%按概率排序

p=fliplr(p);

total=sum(p);%总概率

acc=0;%累积概率

flag=0;%是否到达尾部的标志

for i=1:n-1

newacc=acc+p(i);

if abs(total-2 * newacc)>=abs(total - 2*acc) flag=1;

break;

end

acc=newacc;

end

if ~flag

i=n;

end

split=i;%从分界点对两边的码递归做fano

c1=fano1(p(1:split-1));

c2=fano1(p(split:n));

c=cell(1,n);

%添加前缀0,1

for i=1:split-1

c{i}=strcat('0',c1{i});

end

for i = split:n

c{i}=strcat('1',c2{i-split+1} );

end

%将顺序调整回去

c=fliplr(c);

c(index)=c;

子程序

function []=fano2(c,p)

for i=1:length(c)%求平均码长

count(i)=length(cell2mat(c(i)));

end

fprintf('信源信息熵:\n');

H=sum(-p.*log2(p))%计算信源熵

fprintf('平均码长:\n')

K=sum(count.*p)%计算平均码长

fprintf('编码效率:\n')

w=H./K%计算编码效率

fprintf('码字:\n')

c

程序运行结果:

p=[0.25 0.25 0.20 0.15 0.10 0.05]

c=fano1(p)

fano2(c,p)

p = 0.2500 0.2500 0.2000 0.1500 0.1000 0.0500

c = '00' '01' '10' '110' '1110' '1111'

信源信息熵:

H = 2.4232

平均码长:

K = 2.4500

编码效率:

w = 0.9891

码字:

c = '00' '01' '10' '110' '1110' '1111'

五、心得体会

做这次课程设计前前后后花了三天时间,之前并没有用心想,只是看了看网上的资料,看人家都是用什么方法解决的。我看的有用C(包括C++和C#)语言的,有用Matlab的,还有用别的什么软件的。由于我对Matlab编程还比较熟悉一点,最后我还是选择用Matlab来做。一开始编程,我甚至连一些常用的Matlab函数都忘了,没什么想法后我在网上看了一些人用Matlab编的程序,拿来仔细研究后也慢慢着编出了自己的程序。在编程过程中,遇到了各种问题问题,有时由于一个小问题不通,我要反复琢磨半天,最后发现是在一个小地方上出错了,真是备

受煎熬,但这也是编程的乐趣所在,在这个过程中自己也学到了许多编程知识和技巧。

在编程过程中,我体会到了Matlab功能的强大,我需要好好学习一下,这对我以后在信号处理与仿真计算上有很大帮助。

通过这次课程设计,我对信息论与编码技术中的一些基础知识,如信源熵、通信系统模型、信道与信源编码等知识又重新学习了一下,感觉虽是学过的知识,但隔一段时间不看合上书自己竟然什么也想不起来。学过的知识,觉得自己早就已经理解了的,在实际用来解决问题时又是无从下手,需多看人家的例子,在此基础上才能用来解决自己的问题。我之所以自己一组,是想真学到点东西,这过程中很累人,但这是因为自己当初没有提早准备,还有就是自己知识也学的不扎实造成的,于是感悟到做什么事情都要有计划地提早准备,不然会坐失良机,最后只能悔不当初。

六、参考文献

[1] 曹雪虹,张宗橙.信息论与编码(第二版).北京:清华大学出版社,2009.2

[2] 王薇,姚鑫锋.从零开始学MATLAB .北京:电子工业出版社,2012.9

附录

1、统计信源熵的Matlab程序

function h=entropy(p)

clc

fid=fopen('shuju.txt','r');%打开txt文件

[ex,num]=fscanf(fid,'%c',inf)%读取二进制文件的数据,并将数据存入矩阵

str1=lower(ex)%将字符串中的大写字母转换成小写字母

sort_str1=sort(str1);%按照字符的ASCII值对字符串排序

j=1;

for i=1:length(sort_str1)-1%计算出字符串的种类

if strcmp(sort_str1(i),sort_str1(i+1))~=1%比较两个字符串是否完全相等,相等是1,否则0 j=j+1;

str2(j)=sort_str1(i);

end

str2(j+1)=sort_str1(i+1);

end

for i = 1:length(str2)%length函数获取字符串长度

str_num =strfind(sort_str1,str2(i));%strfind(S1,S2):寻找S2是否匹配S1,并返回S2的位置count1(i) = length(str_num);

end

str2

count=count1(3:end)

p=count./sum(count)

sum(-p.*log2(p))%计算信源熵

2、香农编码程序

function c=shannon(p)

% p=[0.25 0.25 0.20 0.15 0.10 0.05];

% shannon(p);

[p,index]=sort(p);

p=fliplr(p);%从大到小

n=length(p);

pa=0;%累加概率

for i=2:n

pa(i)=pa(i-1)+p(i-1);

end

k=ceil(-log2(p));%码长计算

c=cell(1,n);%生成元胞数组,存码字,是cell,跟上一行不一样for i=1:n

c{i}= '';

tmp=pa(i);

for j=1:k(i)

tmp=tmp * 2;

if tmp>=1

tmp=tmp - 1;

c{i}(j)= '1';

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ???????? ????==???? ????????11 2222111 22222log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

信息论与编码课程总结

信息论与编码 《信息论与编码》这门课程给我带了很深刻的感受。信息论是人类在通信工程实践之中总结发展而来的,它主要由通信技术、概率论、随机过程、数理统计等相结合而形成。它主要研究如何提高信息系统的可靠性、有效性、保密性和认证性,以使信息系统最优化。学习这门课程之后,我学到了很多知识,总结之后,主要有以下几个方面: 首先是基本概念。信息是指各个事物运动的状态及状态变化的方式。消息是指包括信息的语言、文字和图像等。信号是消息的物理体现,为了在信道上传输消息,就必须把消息加载到具有某种物理特性的信号上去。信号是信息的载荷子或载体。信息的基本概念在于它的不确定性,任何已确定的事物都不含有信息。信息的特征:(1)接收者在收到信息之前,对其内容是未知的。(2)信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识。(3)信息可以产生,也可以消失,同时信息可以被携带、存储及处理。(4)信息是可以量度的,信息量有多少的差别。编码问题可分解为3类:信源编码、信道编 码、加密编码。= 理论上传输的最少信息量 编码效率实际需要的信息量。 接下来,学习信源,重点研究信源的统计特性和数学模型,以及各类离散信源的信息测度 —熵及其性质,从而引入信息理论的一些基本概念和重要结论。本章内容是香农信息论的基础。重点要掌握离散信源的自信息,信息熵(平均自信息量),条件熵,联合熵的的概念和求法及其它们之间的关系,离散无记忆的扩展信源的信息熵。另外要记住信源的数学模型。通过学习信源与信息熵的基本概念,了解了什么是无记忆信源。信源发出的序列的统计性质与时间的推移无关,是平稳的随机序列。当信源的记忆长度为m+1时,该时刻发出的符号与前m 个符号有关联性,而与更前面的符号无关,这种有记忆信源叫做m 阶马尔可夫信源。若上述条件概率与时间起点无关,则信源输出的符号序列可看成齐次马尔可夫链,这样的信源叫做齐次马尔可夫信源。之后学习了信息熵有关的计算,定义具有概率为 () i p x 的符号i x 的自信息量为:()log ()i i I x p x =-。自信息量具有下列特性:(1) ()1,()0i i p x I x ==(2)()0,()i i p x I x ==∞(3)非负性(4)单调递减性(5)可加 性。信源熵是在平均意义上来表征信源的总体特征,它是信源X 的 函数,一般写成H (X )。信源熵:()()log ()i i i H X p x p x =-∑,条件熵:(|)(,)log (|) i j i j ij H X Y p x y p x y =-∑联合 熵(|)(,)log (,)i j i j ij H X Y p x y p x y =-∑,联合熵 H(X,Y)与熵H(X)及条件熵H(Y|X)的关系: (,)()(|)()(|)H X Y H X H Y X H X H X Y =+=+。互信息: ,(|)(|)(;)(,)log ()(|)log () () j i j i i j i j i ij i j j j p y x p y x I X Y p x y p x p y x p y p y = = ∑ ∑ 。熵的性质:非负性,对称性,确定 性,极值性。 接下来接触到信道,知道了信道的分类,根据用户数可以分为,单用户和多用户;根

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

信息论与编码教学大纲

《信息论与编码》课程教学大纲、课程基本信息 二、课程内容及基本要求 第一章绪论 课程内容:

1 ?信息论之父--香农;信息论与香农信息论的形成与发展;香农信息论的中心 问题及其局限性; 2.信息、消息、信号、信息的本质、信息的广义性; 3.通信系统基本模型:信源、信宿、信道、干扰、噪声、信源编码、信道编码。基本要求:1.了解信息论之父---Shannon(香农)和香农信息论的基本思想及其局限性;了解信息论的形成与发展过程;了解香农信息论的基本思想(中心问题)及其适用范围;2.理解消息、信息与信号的含义;理解消息、信息与信号之间的联系与区别;3.熟悉通信系统的基本模型及各模块的主要功能。 本章重点香农信息论的中心问题、通信系统模型 本章难点:信息、消息与信号的联系与区别;香农信息论的局限性第二章信源、信息量和信息熵 课程内容: 1.无记忆信源与有记忆信源、离散信源与连续信源、离散序列信源、马尔可夫信源、离散无记忆信源、离散无记忆序列信源; 2.非平均信息量、信源熵、条件信息量、条件熵、噪声熵、损耗熵、联合熵、非平均互信息、平均互信息; 3.熵的性质、离散无记忆信源的序列熵、离散有记忆信源的序列熵;4.数据处理中信息的变化、连续信源熵;5.凸函数、互信息量的凸性,冗余度。 基本要求: 1.了解并掌握信源的分类与特点; 2.理解并掌握非平均信息量、信源熵、互信息量、条件熵、联合熵、非平均互信息量、平均互信息的概念,计算;理解并掌握信源熵、信宿熵、噪声熵、损耗熵、平均

互信息之间的关系; 3.理解马尔可夫信源的概念、理解离散序列信源熵的概念; 4.理解熵的性质、熵的唯一性原理;理解连续信源的熵及连续熵的性质; 5.理解凸函数的含义和性质;了解凸函数在信息论中的应用。 本章重点:非平均自信息量、条件信息量、互信息量、条件互信息量、熵、条件熵、熵的性质 本章难点:平均互信息量、熵、离散序列信源熵、马尔可夫信源、条件熵、噪声熵、损耗熵第三章信源编码 课程内容: 1.编码的定义与分类;奇异码与非奇码;唯一可译码与非唯一可译码;即时码与非即时码;克拉夫特不等式;码树;平均码长的计算;信息传输速率;2.无失真信源编码;定长码与定长编码定理;变长码与变长编码定理;最佳变长码编码定理;香农编码及其过程;费诺编码及其过程;哈夫曼编码及其过程;3.限失真信源编码;常用信源编码--- 游程编码、算术编码、预测编码、变换编码。 基本要求: 1.理解并掌握编码的分类及特点;掌握平均码长的计算;掌握码树的使用; 2.理解无失真信源编码的含义;掌握定长码的特点与编码原理;掌握不定长编 码的特点与编码原理; 3.掌握离散无记忆信源的等长编码及不等长编码;掌握香农编码原理、掌握费 诺编码原理;掌握哈夫曼编码原理; 4.了解常用限失真信源编码方法—算术编码、游程编码、预测编码及变换编码的编码原理。

信息论与编码技术复习题2

《信息论与编码技术》复习题(2) 一、(32分)综合概念题 1. 什么是系统码和典型矩阵?写出常用的典型生成矩阵的两种形式。 2. 根据平均互信息定义的信道容量是指: a. 信道固定时的最大平均互信息; b. 信道固定时的最小平均互信息; c. 信源固定时的信道的最小平均互信息; d. 信源固定时的信道的最大平均互信息。 3. 什么是离散平稳信源? a. 任意两个不同时刻随机矢量的各维概率分布都相同; b. 任意两个不同时刻随机矢量的各维概率分布都不相同; c. 任意两个不同时刻随机矢量的各维概率密度函数都相同; d. 任意两个不同时刻随机矢量的各维概率密度函数都不相同。 4. 设计一个信道容量为22 kbit/s 的电话信道,若信道上的信号与噪声的平均功率比值为20 dB ,请问该信道的通频带应该为多少? 5. 设信源有q 个符号,则当信源 分布时熵最大,其最大值为 。 6. 当信道固定时,平均互信息是输入分布的 函数;当信源固定时,平均互信息是信道转移概率的 函数。 7. 信源编码是通过压缩信源冗余度来提高 ,而信道编码是增加冗余度来提高 。 8. 请判断具有下列码长{1, 2, 3, 3, 3, 4}的二进制码是否可构成唯一可译码。 二、(10分)设有对称信源(s = r = 4),信源X = {a 1, a 2, ..., a r } = {0, 1, 2, 3},信宿Y = { b 1, b 2, ..., b s } = {0, 1, 2, 3}。若失真度定义为:d (a i , b j ) = (b j -a i )2,求其失真矩阵D 。 三、(15分)某离散无记忆信源?? ????=??????4.06.0)(21a a x p X ,通过图1的信道传输,求: 图1 离散信道 (1)该信源中a 1和 a 2分别含有的自信息; (2)X 和Y 的信息熵; (3)信道的疑义度H (X|Y ); (4)接收到信息Y 后获得的平均互信息量。 四、(16分)设有一个离散无记忆信源?? ????=??????5.03.02.0)(321a a a x p X , (1)对该信源进行二元费诺编码,计算其平均码长和编码效率;

信息论与编码

滨江学院 《信息论与编码》课程论文题目香农编码及其应用改善 院系电子工程系 专业班级通信班 学生姓名 学号 教师杨玲 成绩 二O一四年十二月二十二日

香农编码及其应用改善 摘要:香农编码作为变长信源编码的重要方法之一,具有重要的理论指导意义,但其在实际应用中存在效率较低的缺点。本文对香农编码方法进行阐述,及运用MATLAB实现香农编码操作,并找出香农编码的不足,针对其缺陷,通过判断码字之间是否互为前缀来确定码字的方法对其编码算法进行了优化,给出了优化算法的实现步骤。最后,通过具体实例分析得出本文提出的改善算法能有效地提高编码效率。 关键词:香农码方法;MATLAB;编码效率;优化编码;

引言:1948年,美国工程师香农在贝尔实验室杂志上发表了长文《通讯的数学原理》他用概率测度和数理统计的方法系统地讨论了通信的基本问题,得出了几个重要而带有普遍意义的结论,并由此奠定了现代信息论的基础。香农编码理论揭示了在通信系统中,采用适当的编码后能够实现高效率和高可靠地传输信息的规律,并给出了相应的信源编码定理和信道编码定理。从数学观点看,这些定理是最优编码的存在定理。它们给出了编码的性能极限,在理论上阐明了通信系统中各种因素的相互关系,为寻找最佳通信系统提供了重要的理论依据。 在多媒体数据的传输和存储过程中,为了确保通信的顺利进行,必须要通过信源编码技术必须对多媒体信息进行压缩处理。香农编码技术作为变长信源编码的重要方法之一,具有重要的理论指导意义。但由于在香农编码的过程中先限定每个码字的码长,以至于在码字的选取中是以每个码字的码长作为先决条件而不考虑各个码字之间的相关性,因此编出的码字往往存在较大的冗余,影响了整个通信系统的传输效率。就这一缺陷,本文提出了通过剔除先限定每个码字的码长这一过程,通过判断码字之间是否互为前缀来确定码字的方法对其编码算法进行了改善。 1.香农编码的方法 在写香农编码之前先简单介绍下信源编码: 编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真。由于这些定理都要求符号数很大,以便其值接近所规定的值,因而这些定理被称为极限定理。一般称无失真信源编码定理为第一极限定理;信道编码定理(包括离散和连续信道)称为第二极限定理;限失真信源编码定理称为第三极限定理。完善这些定理是香农信息论的主要内容。 信源编码的基础是信息论中的两个编码定理:无失真编码定理和限失真编码地宫里,前者是可逆编码的基础。可逆是指当信源符号转换成代码后,可从代码无失真的恢复原信源符号。当已知信源符号的概率特性时,可计算它的符号熵,这表示每个信源符号所载有的信息量。编码定理不但证明了必定存在一种编码方法,可使代码的平均长度可任意接近但不低于符号熵,而且还阐明达到这目标的途径,就是使概率与码长匹配。无失真编码或可逆编码只适用于离散信源。本节讨论离散信源编码。首先从无失真编码定理出发,重点讨论以香农码为代表的最

信息论与编码课程论文

《信息论与编码》课程论文 ——通过信息论对已有知识产生的新认识 马赛 1143031014 《信息论与编码》课程是通信专业的一门基础课。其讲述的理论——香农信息论是当今信息科学的基础,可以说没有信息论的理论支持,就没有当今的信息化社会。 通过对于信息论的学习,我认识到,信息论的贡献就是解释了什么是“信息”,同时使用数学工具,对信息及伴随它产生的各种事物概念进行了解析。近代科学的重大飞跃往往都是因人类对于一个事物有了强有力的分析工具而产生的。有了信息论这一近乎完备(存在一些缺陷)的解析理论,人类才得以驾驭信息,社会才有了长足的进步。 在学习时,我习惯于把正在学习的知识和自己已经掌握的知识进行联系。通过这种方法,可以增进对正在学习知识的理解,同时对已掌握的知识也有新的认识。下文中,列举了两个问题,同时使用信息论的角度去进行解释。 一、计算机的存储容量与信息量的联系 当今的计算机已经十分普及。存储容量,无论内存还是外存,都是判定一台计算机性能的重要指标。现在的个人计算机硬盘容量已经达到了TB级别,而在20年前,几百MB的硬盘都十分罕见。在追求更高的存储容量时,我们是否思考过存储的东西是什么?KB、MB、GB等单位究竟代表的含义是什么? 这是计算机科学的基本知识:“8 bit = 1 byte”。bit即“位”,这是计算机存储单元最基本的单位;而信息论中也将信息量——用于衡量信息的量的单位称为bit,这两个概念有什么联系吗? 在课程讲解时提到过这个问题,幻灯片上的答案如是解释:两者代表着不同的概念,信息论中的bit代表着信息量;而计算机中的bit代表着计算机中的二元数字1和0。 我认为两者是同一种概念,都代表信息量,而计算机中的bit是更为细化的概念,单指计算机中的信息量。信息的一种解释是:对于不确定性的消除。信息量是对信息的一种衡量手段,描述对事件不确定性消除的程度。而描述事件不确定性的量就是这个事件发生的概率,因此一个事件发生的概率与事件包含的信息量具有对应的关系。这是香农信息论对于信息量的定义。 计算机存储的依然是信息,只是信息的存储形式是01二进制数字。如果说计算机中的bit只是二元数字的话,那么这个单位就丧失了“信息”这个定义了。 用户通过互联网下载各种资料,下载的资料需要占用本地的存储空间,这是一个众所周知的例子。其实这个过程就是一个消除不确定性的过程。我们一般常识中的“空”硬盘,实际上是没有存储信息,而空间就在那里,空间中的信息有不确定,有不确定度;写入信息,实际上就是在消除不确定性,让空间中的信息确定,让其有序。这就是一种典型的信息传递过程。 计算机是2元存储结构,一个二进制符号代表1bit,根据实际计算,一个二进制符号的最大信息量即H0(X) = log22 = 1bit,这是一个将符号等同于无记忆的,每个符号之间没有联系,达到了信息量的最大值。这是最为简化的处理结果,也是最为可行的处理结果。如果严格按照信息论的角度去分析,其实每个符号之间是有联系的——各种编码、指令,如果01只是随机出现,那么只是一盘散沙。当然这是严格的理论解释,如果实际应用到存储信息的计量,那么将是不可行,计算机界的先驱是非常有远见的。 二、关于称硬币问题的思考

信息论与编码期中试卷及答案

信息论与编码期中试题答案 一、(10’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 (1)信息就是一种消息。(? ) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(? ) (3)概率大的事件自信息量大。(? ) (4)互信息量可正、可负亦可为零。(? ) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (? ) (6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。(? ) (7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。(? ) (8)信源变长编码的核心问题是寻找紧致码(或最佳码)。 (? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ? ) 三、(10?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分)

信息论与编码复习题

一、填空题 1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。 2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT__个随机错。 3.克劳夫特不等式是唯一可译码___存在___的充要条件。 4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y ) 5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__ 加密__编码的目的是保证通信的安全性。 6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密 编码的目的是保证通信的 安全性 。 7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。 8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。 9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。 10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移 码估值 。 11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。 二、单项选择题 1.下面表达式中正确的是( A )。 A. ∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j i y y x p )(),(ω D.∑=i i j i x q y x p )(),( 2.彩色电视显像管的屏幕上有5×105 个像元,设每个像元有64种彩色度,每种彩度又有 16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个 组合之间相互独立。每秒传送25帧图像所需要的信道容量( C )。 A. 50106 B. 75106 C. 125106 D. 250106

信息论与编码课程报告

Turbo码编码与译码方法 一、前言: Turbo码自1993年被提出以来,就以其优异的纠错性能而备受关注,并被主要通信标准所采纳。Turbo码是用短码构造等效意义的长码,以达到长码 的纠错性能而减少解码复杂度。在强噪声低洗澡比的条件下,如E b/N0=0.7dB, 采用编码效率R=1/2的Turbo码,经过18次迭代解码后,仍然具有极低的误 码率。Turbo码得这一特性对于强噪声环境下数字通信与数字信号传输具有重 要的应用价值。Turbo码的发现,标志着信道编码理论与技术的研究进入了一 个崭新的阶段,对现代编码理论的发展起着重要的作用。 二、Turbo码的编码原理: Turbo码编码器由两个递归系统卷积吗编码器(RSC1和RSC2)通过一个交织器并行级联而成,编码后经过删除或复用,产生不同码率的码字,进入传输 信道。Turbo码编码器结构框图如图1所示,信息序列d={d1,d2,…d N}经过N 位交织器,形成一个新序列 d‘={d1’,d2’,…,d N’}(长度与内容没变,但比特位置经过重新排列)。d和d‘分 别传送到两个分量码编码器(RSC1和RSC2)。一般情况下,这两个分量码编 码器结构相同,生成序列X1p和X2p。为了提高误码率,序列X1p和X2p需要经过 删除器,采用删除技术从这两个校验序列中周期地删除一些校验位,形成校验 位序列X P与编码序列u(为方便表述,也用X S表示)经过复用,生成Turbo 码序列。例如,假如图中两个分量编码器的码率均是1/2,为了得到1/2码率 的Turbo码,可以采用这样的删除矩阵:P=[10,01],即删除来自RSC1的校验 序列X1p的偶数位置比特,与来自RSC2的校验序列X2p的奇数位置比特。 S X 图1 交织器在Turbo码中起关键作用。表面上看,它仅仅是将信息序列中的N个比特的位置进行随机置换,实际上,它很大程度上影响了Turbo码的性能。通过随机交织,使得编码序列在长为2N和3N(不使用删除)比特的范围内具有记忆性,从而有简单的短码得到近似长码。当交织器充分大时,Turbo码就具有近似于随机长码的特性。 三、Turbo码的译码原理:

信息论与编码期末试卷

上海大学2011~2012学年度冬季学期试卷(A卷) 课程名:信息论与编码课程号: 07276033学分: 4 应试人声明: 我保证遵守《上海大学学生手册》中的《上海大学考场规则》,如有考试违纪、作弊行为,愿意接受《上海大学学生考试违纪、作弊行为界定及处分规定》的纪律处分。 应试人应试人学号应试人所在院系 题号 1 2 3 4 得分——————————————————————————————————————一:填空题(每空2分,共40分) 1:掷一个正常的骰子,出现‘5’这一事件的自信息量为________,同时掷两个正常的骰子,‘点数之和为5’这一事件的自信息量为___________.(注明物理单位) 2:某信源包含16个不同的离散消息,则信源熵的最大值为___________,最小值为_____________. 3:信源X经过宥噪信道后,在接收端获得的平均信息量称为______________. 4:一个离散无记忆信源输出符号的概率分别为p(0)=0.5,p(1)=0.25,p(2)=0.25,则由60个符号构成的消息的平均自信息量为__________. 5:信源编码可提高信息传输的___有效___性,信道编码可提高信息传输的___可靠_性. 6:若某信道的信道矩阵为 ? ? ? ? ? ? ? ? ? ? ? ? 001 100 010 100 ,则该信道为具有____归并____性能的信道 7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________ 8:若某二元序列是一阶马尔科夫链,P(0/0)=0.8,P(1/1)=0.7,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________. 9:若循环码的生成多项式为1 ) (2 3+ + =x x x g,则接收向量为(1111011)的伴随多项式为_______________ 10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码. 11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集. 12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位. 13:(7,4)汉明码的一致校验矩阵为 ? ? ? ? ? ? ? ? ? ? 1,0,1,0,1, ,1 0,1,1,0,0, ,1 0,0,0,1,1, ,1 3 2 1 r r r ,则3 2 1 r r r 为__________. _______________________________________________________________ 草稿纸 成绩

信息论基础结课论文

信息论基础结课论文 摘要:信息的产生与应用始终贯穿在人类进化与文明发展的整个过程中,,人类社会的生存和发展都离不开信息的获取、传递、处理、再生、控制和处理。而信息论正是一门把信息作为研究对象,以揭示信息的本质特性和规律为基础,应用概率论、随即过程和数理统计等方法来研究信息的存储、传输、处理、控制、和利用等一般规律的学科。在信息论的指导下,信息技术得到飞速发展,这使得信息论渗透到自然科学和社会科学的所有领域。数学作为基础学科,与信息论的关系十分密切。 关键字:信息论、确立与发展、应用、与数学的联系 信息是一个十分通俗而又广泛的名词,通常是指音信、消息,它的产生与应用始终贯穿在人类进化和文明发展的整个过程中。中国古代有个《烽火戏诸侯》的故事,周幽王为了搏得褒姒的“千金一笑”而点燃了战时传递敌情的烽火来戏耍诸侯,结果失信天下,为后来西周的灭亡埋下了隐患。《三国演义》中蜀国大将关羽“大意失荆州”的原因之一就是东吴将士偷袭了荆州的烽火台,切断了烽火报信的信息源,结果荆州遭到“攻其不备”而失陷。虽然在古代信息传递非常不便,有“烽火连三月,家书抵万金”的难处,但仍然有“鸿雁捎信”、“柳絮传书”等动人的故事。由此可以看出,人类对信息的认识和利用是古已有之。在社会发展的现代生活中,从手机到个人电脑,从书本文件到卫星通信,信息几乎是在各个领域发挥着重要的作用。虽然信息技术在人类历史的进程当中随着生产力的进步而发展,但是信息理论的提出却远远落后于信息的出现,它是在近代才被提出来而形成一套完整的理论体系。 1948年美国杰出科学家香农的著名论文《通信的数学理论》的发表,标志着信息论的诞生。所以,信息论一般是指香农信息论,它是信息科学产生的基础与起点,从20世纪40年代末起,它已经经历了半个多世纪的发展。在这半个多世纪中,人类文明与科学技术经历了一个突飞猛进的发展,信息论与信息科学的发展与变化正是人类文明与科学进步的标志与见证。 自香农理论产生之后,它的发展大体经历了理论的确立与发展、理论的应用与近代史发展几个阶段。1948年到20世纪60年代是理论的确立期,在这一时期中,香农信息论完成了信息度量与通信中的基本问题结合,并对这些问题实现了严格的数学描述论证。从信息的度量到通信模型,从编码问题到主要编码的定理证明,都是在严格的数学定义与证明中完成。20世纪70、80年代,信息论处于理论发展期。由于香农理论的阐明与通信技术的发展,信息论的研究范围日益扩大,这一时期发展的主要体现在“率失真理论”与“多用户信息论”方面。20世纪90年代前后,信息论得到了迅速发展,其主要特点是理论的成功应用与多学科结合,并且在IT领域等多个领域取得显著成就。 信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科,是专门研究信息的有效处理和可靠传输的一般规律的科学,是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。它主要基本理论包括:信息的定义和度量;各类离散信源和连续信源的信息熵;有记忆、无记忆离散和连续信道的信道容量;无失真信源编码定理。通信的根本目的是将信息有效而可靠的从信源传到信宿。信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。这两个方面又由信息传输定理、信源-信道隔离定理相互联系。 信息科学是以信息为研究对象的独立学科,以信息的运动规律和应用方法为主要研究内容,以计算机等技术为主要研究工具的研究信息运动规律和应用方法,由信息论、控制论、计算机理论、人工智能理论和系统论相互渗透、相互结合而成。由于信息的广泛性与普遍性,它独立于其他自然科学与社会科学中的各门学科。 信息技术是主要用于管理和处理信息所采用的各种技术的总称,它主要应用计算机科学

信息论与编码复习资料(新)

“信息论与编码”复习 1.消息、信号、信息的含义、定义及区别。 信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言,文字和图像等。 信号是消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息 2.信息的特征与分类。 1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4信息是可以量度的,信息量有多少的差别。 31948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。 4.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。 信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。 信宿需要研究的问题是能收到或提取多少信息。 信道的问题主要是它能够传送多少信息,即信道容量的多少。

5.通信的目的?要解决的最基本问题?通信有效性的概念。提高通信有效性的最根本途径?通信可靠性的概念。提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径? 通信系统的性能指标主要是有效性,可靠性,安全性和经济性。通信系统优化就是使这些指标达到最佳。 从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。提高通信有效性的最根本途径是信源编码。减少冗余。 提高可靠性:信道编码。增加冗余。 提高安全性:加密编码。 6.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义? 信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义不同: ?不确定度是信源符号固有的,不管符号是否发出; ?自信息量是信源符号发出后给予收信者的; ?为了消除该符号的不确定度,接受者需要获得信息量。 自信息量 8.信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。 自信息量指的是该符号出现后,提供给收信者的信息量。 9. 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。 信源熵:

信息论与编码试题集与答案(新)

" 1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. ? 7. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 8. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. " 5. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 6. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 7. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 ( ) 8. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 9. 信道容量是信道中能够传输的最小信息量。 (×) 10. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 11. ! 12. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方

信息论与编码复习总结

信息论与编码复习总结 题型:填空、解答、计算 1、编码:无失真与限失真信源编码定理 编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真 三大定理: 无失真信源编码定理(第一极限定理)(可逆) 信道编码定理(第二极限定理) 限失真信源编码定理(第三极限定理)(不可逆) Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。通信系统模型方框图: 信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。 信源的描述:通过概率空间描述

平稳包含齐次,而齐次不包含平稳(重要,第二章计算题) 定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下) 设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j) 自信息量的特性: p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为: 定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特

信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道 信源编码器的目的:是使编码后所需的信息传输率R尽量小。 信源编码:主要任务就是减少冗余,提高编码效率。

信息论与编码课程设计..

吉林建筑大学 电气与电子信息工程学院信息理论与编码课程设计报告 设计题目:哈夫曼编码的分析与实现专业班级:电子信息工程101 学生姓名: 学号: 指导教师:吕卅王超 设计时间:2013.11.18-2013.11.29

一、设计的作用、目的 《信息论与编码》是一门理论与实践密切结合的课程,课程设计是其实践性教学环节之一,同时也是对课堂所学理论知识的巩固和补充。其主要目的是加深对理论知识的理解,掌握查阅有关资料的技能,提高实践技能,培养独立分析问题、解决问题及实际应用的能力。 通过完成具体编码算法的程序设计和调试工作,提高编程能力,深刻理解信源编码、信道编译码的基本思想和目的,掌握编码的基本原理与编码过程,增强逻辑思维能力,培养和提高自学能力以及综合运用所学理论知识去分析解决实际问题的能力,逐步熟悉开展科学实践的程序和方法 二、设计任务及要求 通过课程设计各环节的实践,应使学生达到如下要求: 1. 理解无失真信源编码的理论基础,掌握无失真信源编码的基本方法; 2. 掌握哈夫曼编码/费诺编码方法的基本步骤及优缺点; 3. 深刻理解信道编码的基本思想与目的,理解线性分组码的基本原理与编码过程; 4. 能够使用MATLAB 或其他语言进行编程,编写的函数要有通用性。 三、设计内容 一个有8个符号的信源X ,各个符号出现的概率为: 编码方法:先将信源符号按其出现的概率大小依次排列,并取概率最小的字母分别配以0和1两个码元(先0后1或者先1后0,以后赋值固定),再将这两个概率相加作为一个新字母的概率,与未分配的二进制符号的字母重新排队。并不断重复这一过程,直到最后两个符号配以0和1为止。最后从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即为对应的码字。 哈夫曼编码方式得到的码并非唯一的。在对信源缩减时,两个概率最小的符号合并后的概率与其他信源符号的概率相同时,这两者在缩减中的排序将会导致不同码字,但不同的排序将会影响码字的长度,一般讲合并的概率放在上面, 12345678,,,,, ()0.40.180.10.10.070.060.050.04X x x x x x x x x P X ????=????????

相关文档
最新文档