第3章基于信息论的独立分量分析算法

第3章基于信息论的独立分量分析算法
第3章基于信息论的独立分量分析算法

第3章 基于信息论的独立分量分析算法

3.1 引言

由于没有任何参照目标,学习只能是自组织的。学习过程的第一步:建立一个以W 为变元的目

标函数()W L ,如果某个W

?能使()W L 达到极大(小)值,该W ?即为所需的解。第二步:用一种有效的算法求W

?。按照()W L 定义的不同和求W ?的方法不同可以构成各种ICA 算法。ICA 方法可归结为如下式子:ICA 方法=目标函数+优化算法。由ICA 的性质可知ICA 以统计独立为基本原则,统计独立的衡量为ICA 算法的关键。因此需选择一个恰当的目标函数。目标函数给定后,可以采用经典的优化算法最优化目标函数,如梯度法、拟牛顿法等。ICA 方法的特性取决于目标函数和优化算法两项。ICA 方法的统计特性(如一致性、鲁棒性)取决于目标函数的选取;算法特性(收敛速度、内存要求)取决于优化算法的选择。对于同一个目标函数可以有不同的优化算法,同一个优化算法可应用于不同的目标函数。衡量一个优化算法的主要性能指标有收敛速度,占用内存情况,稳定性等。算法的研究可分为基于信息论准则的迭代估计方法和基于统计学的代数方法两大类,从原理上来说,它们都是利用了源信号的独立性和非高斯性。基于信息论的方法研究中,各国学者从最大熵、最小互信息、最大似然和负熵最大化等角度提出了一系列估计算法。如FastICA 算法, Infomax 算法,最大似然估计算法等。基于统计学的方法主要有二阶累积量、四阶累积量等高阶累积量方法。在此我们主要讨论基于信息论的几种独立分量分析算法。

3.2 数据的预处理

一般情况下,所获得的数据都具有相关性,所以通常都要求对数据进行初步的白化或球化处理,因为白化处理可去除各观测信号之间的相关性,从而简化了后续独立分量的提取过程,而且,通常情况下,数据进行白化处理与不对数据进行白化处理相比,算法的收敛性较好。

若一零均值的随机向量()T M Z Z Z ,,1 =满足{}I ZZ E T

=,其中:I 为单位矩阵,我们称这个向量为白化向量。白化的本质在于去相关,这同主分量分析的目标是一样的。在ICA 中,对于为零均值的独立源信号()()()[]T N t S t S t S ,...,1=,有:{}{}{}

j i S E S E S S E j i j i ≠==当,0,且协方差矩阵是单位阵()I S =cov ,因此,源信号()t S 是白色的。对观测信号()t X ,我们应该寻找一个线性变换,使()t X 投影到新的子空间后变成白化向量,即:

()()t X W t Z 0= (3.1) 其中,0W 为白化矩阵,Z 为白化向量。

利用主分量分析,我们通过计算样本向量得到一个变换

T U W 2/10-Λ=

其中U 和Λ分别代表协方差矩阵X C 的特征向量矩阵和特征值矩阵。可以证明,线性变换0W 满足白化变换的要求。通过正交变换,可以保证I UU U U T T ==。因此,协方差矩阵:

{}{}{}I U XX E U U XX U E ZZ E T T T T T =ΛΛΛ=ΛΛ=ΛΛ=------2/12/12/12/12/12/1 (3.2)

再将()()t AS t X =式代入()()t X W t Z 0=,且令A A W ~0=,有

()()()t S A t AS W t Z ~0== (3.3) 由于线性变换A ~连接的是两个白色随机矢量()t Z 和()t S ,可以得出A ~

一定是一个正交变换。如果把上式中的()t Z 看作新的观测信号,那么可以说,白化使原来的混合矩阵A 简化成一个新的正交矩阵A ~。证明也是简单的:

{}{}{}I A A A SS E A A SS A E ZZ E T T T T T T ====~~~~~~ (3.4) 其实正交变换相当于对多维矢量所在的坐标系进行一个旋转。

在多维情况下,混合矩阵A 是N N ?的,白化后新的混合矩阵A ~

由于是正交矩阵,其自由度降为()2/1-?N N ,所以说白化使得ICA 问题的工作量几乎减少了一半。

白化这种常规的方法作为ICA 的预处理可以有效地降低问题的复杂度,而且算法简单,用传统的PCA 就可完成。用PCA 对观测信号进行白化的预处理使得原来所求的解混合矩阵退化成一个正交阵,减少了ICA 的工作量。此外,PCA 本身具有降维功能,当观测信号的个数大于源信号个数时,经过白化可以自动将观测信号数目降到与源信号维数相同。

3.3 基于信息论的独立分量分析算法

3.3.1 FastICA 算法[1][30][31]

FastICA 算法,又称固定点(Fixed-Point)算法,是由芬兰赫尔辛基大学Hyv?rinen 等人提出来的。是一种快速寻优迭代算法,与普通的神经网络算法不同的是这种算法采用了批处理的方式,即在每一步迭代中有大量的样本数据参与运算。但是从分布式并行处理的观点看该算法仍可称之为是一种神经网络算法。FastICA 算法有基于峭度、基于似然最大、基于负熵最大等形式,这里,我们介绍基于负熵最大的FastICA 算法。它以负熵最大作为一个搜寻方向,可以实现顺序地提取独立源,充分体现了投影追踪(Projection Pursuit )这种传统线性变换的思想。此外,该算法采用了定点迭代的优

化算法,使得收敛更加快速、稳健。

因为FastICA 算法以负熵最大作为一个搜寻方向,因此先讨论一下负熵判决准则。由信息论理论可知:在所有等方差的随机变量中,高斯变量的熵最大,因而我们可以利用熵来度量非高斯性,常用熵的修正形式,即负熵。根据中心极限定理,若一随机变量X 由许多相互独立的随机变量()N i S i ,...3,2,1=之和组成,只要i S 具有有限的均值和方差,则不论其为何种分布,随机变量X 较i S 更接近高斯分布。换言之,i S 较X 的非高斯性更强。因此,在分离过程中,可通过对分离结果的非高斯性度量来表示分离结果间的相互独立性,当非高斯性度量达到最大时,则表明已完成对各独立分量的分离。

负熵的定义:

()()()Y H Y H Y N G auss g -= (3.5) 式中,Gauss Y 是一与Y 具有相同方差的高斯随机变量,()?H 为随机变量的微分熵

()()()ξξξd p p Y H Y Y lg ?

-= (3.6) 根据信息理论,在具有相同方差的随机变量中,高斯分布的随机变量具有最大的微分熵。当Y 具有高斯分布时,()0=Y N g ;Y 的非高斯性越强,其微分熵越小,()Y N g 值越大,所以()Y N g 可以作为随机变量Y 非高斯性的测度。由于根据式(3.6)计算微分熵需要知道Y 的概率密度分布函数,这显然不切实际,于是采用如下近似公式

()()[]()[]{}2Gauss g Y g E Y g E Y N -= (3.7) 其中,[]?E 为均值运算;()?g 为非线性函数,可取())tanh(11y a y g =,或()()2/exp 22y y y g -=或()33y y g =等非线性函数,这里,211≤≤a ,通常我们取11=a 。

快速ICA 学习规则是找一个方向以便()X W Y X W T T =具有最大的非高斯性。这里,非高斯性

用式(3.7)给出的负熵)(X W N T g 的近似值来度量,X W T

的方差约束为1,对于白化数据而言,这等于约束W 的范数为1。FastICA 算法的推导如下。首先,X W T 的负熵的最大近似值能通过对

(

){}X W G E T 进行优化来获得。根据Kuhn-Tucker 条件,在(){}122==W X W E T 的约束下,(){}X W G E T 的最优值能在满足下式的点上获得。

(){}

0=+W X W Xg E T β (3.8)

这里,β是一个恒定值, (){}

X W Xg W E T T 00=β,0W 是优化后的W 值。下面我们利用牛顿迭代法解方程(3.8)。用F 表示式(3.8)左边的函数,可得F 的雅可比矩阵()W JF 如下:

()(){}I X W g XX E W JF T T β-=' (3.9) 为了简化矩阵的求逆,可以近似为(3.9)式的第一项。由于数据被球化,{}

I XX E T =,所以,(){}{}(){}(){}I X W g E X W g E XX E X W g XX E T T T T T '''=?≈。因而雅可比矩阵变成了对角阵,并且能比较容易地求逆。因而可以得到下面的近似牛顿迭代公式:

(){}[](){}[]***=---=W W W X W g E W X W Xg E W W T T /'/ββ (3.10) 这里,*W 是W 的新值,(){}X W Xg W E T T =β,规格化能提高解的稳定性。简化后就可以得到

FastICA 算法的迭代公式:

(){}(){}***=-=W W W W X W g E X W Xg E W T T /' (3.11)

实践中,FastICA 算法中用的期望必须用它们的估计值代替。当然最好的估计是相应的样本平均。理想情况下,所有的有效数据都应该参与计算,但这会降低计算速度。所以通常用一部分样本的平均来估计,样本数目的多少对最后估计的精确度有很大影响。迭代中的样本点应该分别选取,假如收敛不理想的话,可以增加样本的数量。

一元FastICA 算法的基本步骤如下:

1. 对观测数据X 进行中心化,使它的均值为0;

2. 对数据进行白化,Z X →。

3. 选择一个初始权矢量(随机的)W 。

4. 令(){}(){}

W Z W g E Z W Zg E W T T '-=*,非线性函数g 的选取见前文非线性函数的选取。

5. 令**=W W W /。

6. 假如不收敛的话,返回第4步。

收敛意味着W 的新值和老值指向同一方向,即它们的点积为1。没有必要使向量收敛到一点,因为W 和-W 指的是同一方向。

如果要估计多个分量,我们可以按如下步骤计算:

1. 对观测数据X 进行中心化,使它的均值为0;

2. 对数据进行白化,Z X →。

3. 选择需要估计的分量的个数m ,设迭代次数1←p

4. 选择一个初始权矢量(随机的)p W 。

5. 令(){}(){}W Z W g E Z W Zg E W T p T p p '-=,非线性函数g 的选取见前文。

6. ()j p j j T p p p W W W W W ∑-=-=1

1。

7. 令p p p W W W /=。

8. 假如p W 不收敛的话,返回第5步。

9.令1+=p p ,如果m p ≤,返回第4步。

FastICA 算法和其他的ICA 算法相比,有许多我们期望的特性:

1) 收敛速度快。

2) 和梯度算法不同,无须选步长参数,易于使用。

3) 能利用任何的非线性函数g 直接找出任何非高斯分布的独立分量。而对于其他的算法来说,概

率密度函数的估计不得不首先进行,因而必须选择非线性。

4) 它的性能能够通过选择适当的非线性函数g 来最佳化。

5) 独立分量可被逐个估计出来,类似于做投影追踪,这在仅需要估计几个(不是全部)独立分量

的情况下,能减小计算量。

6) FastICA 算法有许多神经算法的优点:它是并行的、分布式的且计算简单,内存要求很少。

3.3.2 Infomax 算法[5][13][32][33]

1988年Linsker 提出了Infomax (Information Maximization )原则,即信息传输极大原则。可描述为:网络的输入端和输出端的互信息达到最大时,等价于输出端各分量间的冗余信息得到去除。1994年Nadal 和Parga 等人进一步说明:对于一个输出端具有非线性环节的神经网络,当经过该网络的信息传输达到最大时,输出端各分量之间的互信息便达到最小。算法的思路:对每个观测向量()t X 先通过线性变换求一个中间向量()WX t Y =。然后通过非线性变换()i i i Y g Z =求得输出向量()t Z 。根据互信息的性质可知:分量到分量的非线性映射()i i Y g 对互信息不产生任何影响,()Z I 的最小化也意味着()Y I 的最小化。于是针对()t Z 建立一个目标函数,这里我们选择()t Z 的熵作为目标函数,因为熵是一个随机量无序性的度量,如果()t Z 的各分量统计独立性越高则相应()t Z 的熵越大,

所以只需求得使目标函数达到最大的W ?即求得了ICA 的解。此思路是模仿单层前向神经网络,X 和

Z 分别作为网络的输入和输出。

Infomax 算法的目标函数为:

()()(){}Z p E Z H W L Z H ln -== (3.12) 其中,()Z p Z 是Z 的pdf 。参照第2章 2.4节独立分量分析的相关数学知识部分的两个pdf 之间的关系,上式中的()Z p Z 可计算如下:如用'

i Z 表示()i i i i i dY dZ dY Y dg //=,则雅克比阵()G J 的元素ij J 可表示为:N j N i Z J i ij ~1,~1,'

===这样,按照式第2章的式(2.11),()Z p Z 可表示为: ()()

()Y p G J Z p Y Z ?=-1det (3.13) 而()()X p W Y p X Y 1det -=,所以

()()X p Z W

Z p X N i i Z ?=-=∏11'det (3.14) 将式(3.14)代入式(3.12),得到

()(){}(){})ln (ln det ln 1'X p E Z E W W L X N i i H -++

=∑= (3.15) 因为()i i i Y g Z =,所以

()()(){}(){})ln (ln det ln 1'

X p E Y g E W W L X

N

i i i H -++=∑= (3.16) 此式最右侧项等于()X H ~

,与W 无关,可略去,采用随机梯度下降法对目标函数进行优化,等式两边对W 求导: ()()(){}

W Y g E W W W W L N i i i H ??+??=??∑=1'ln det ln (3.17) 对于第一项有:

()()T T W W W W --==??1det ln (3.18)

此外 ()()T N i i i X Y W Y g ?-=??∑=1'

ln (3.19)

其中()Y ?称为评价函数(score function ),并有:

()()()()()T N N N N Y g Y g Y g Y g Y ???

?????--='''1'11''1,, ? (3.20) 重写(3.17)式,并将该式右边第三项中求数学期望运算用瞬时值代替得:

()()T T H X Y W W W L ?-=??- (3.21) 因此:

()()T T X Y W W ?η-=?- (3.22) 在此迭代公式中,需要对W 求逆,很大程度上影响了算法的收敛速度。1996年,Amari 等人提出了自然梯度法或者说相对梯度算法。相对梯度算法就是在随机梯度算法求得的等式右乘一个W W T ,即有:

()()W W X Y W

W T T T ?η-=?- (3.23) 上式中,I W W T T =-,且因为WX Y =,所以T T T Y W X =,这样,上式可化简为

()()

W Y Y I W T ?η-=? (3.24) 当非线性函数选取为双曲正割函数的平方时:即()()i i i Y h Y g 2sec =,对应的评价函数()y ?为:

()()Y Y tanh

2=?。得到Infomax 算法的学习规则: ()()

W Y Y I W T tanh 2-=?η (3.25) 当非线性函数选取为修正的双曲正割函数的平方时:即()()i i i i Y h Y Y g 22sec 2exp 21???

? ??-=π,对应的评价函数()y ?为:()()Y Y Y tanh +=?。得到Infomax 算法的学习规则:

()()

W Y Y YY I W T T tanh --=?η (3.26) 但当源信号中同时包括超高斯和亚高斯信号时,由于非线性函数与源信号的概率密度函数严重不匹配,导致网络无法收敛到一个稳定的值,Infomax 算法将不能完成正确的分离任务。鉴于此,Lee 等人在这个基础上提出了扩展的ICA (extended ICA )算法[32],使得该算法能适合于包括具有超高斯和亚高斯在内的绝大多数分布类型信源的盲源分离。其迭代公式为:

()()()

W Y Y k sign I W T ?η4-=? (3.27) 其中4k 是归一化的四阶累积量, 用来估计峭度的正负,对于高斯信号峭度等于0,对于超高斯信号峭度大于0,对于亚高斯信号峭度小于0:

(){}{}(){}()2222443i i i i Y E Y E Y E Y k -=

算法步骤: 1. 给出初始值W W =0(随机的),观测向量X ;

2. 对X 进行白化处理;

3. 计算()Y W X Y ?η,,=;

4. 计算()()W Y Y I W T ?η-=?;

5. 计算W W W ?+=

重复3,4,5步直到收敛,得到W 后,通过WX Y =得到独立

3.3.3 互信息最小算法[1][34]

互信息(MI )是盲源分离算法里的一个规范的代价函数,因为它表达了独立源的关键性质。不同的ICA 算法中包含不同的代价函数,但是一般都是以输出信号的互信息最小(MMI )为最终目的。就算法的原理而言,互信息最小算法(或简称MMI 算法)比Infomax 等其他一些算法具有更加严密的理论体系。

互信息最小算法的目标函数:

()()(){}()X H Y g E W W L N i i i MMI ~ln det ln 1'--

-=∑= (3.28) 其中,()X H ~同Infomax 算法中的()X H ~

3.3.4 最大似然算法[7] [35]

将最大似然原理应用于ICA 是1996年由Pearlmutter&Parra 提出的。

最大似然算法的目标函数为: ()()()()()()

t wx t Y i T t N

i i MLE t Y p T W W L ===∑∑+=11ln 1det ln (3.29) 将最大似然算法式(3.29)、互信息最小算法式(3.28)、Infomax 算法(3.16)的目标函数相比,可以得到如下关系:

()()()()X H W L W L W L MLE MMI H ~+=-= (3.30) 因为()X H ~

与W 无关,可略去,因此,采用相对梯度下降法对三个目标函数进行优化可得到同样形式的迭代公式。可见,这些看似不同的算法可以在信息论的理论框架下得到统一。

由于实际问题的复杂性,要发展一种通用ICA算法是十分困难的。紧密结合研究的具体问题,发展相应的特殊算法是一个值得努力的方向。

3.4 独立分量分析算法的选择

一般说来,ICA算法的选择基本上是在自适应性算法和批处理算法之间进行的。

在自适应性情况下,一般通过随机梯度方法来获得算法,在此情况下,所有的独立分量都在同

一时间被估计,在这类算法中,用得最多的算法是自然梯度上升法或和目标函数相联系的方法(如informax)。在批处理情况下,有很多有效的算法。基于累积量的方法在低维的情况下有效,但是它

们不能用于高维的情况。基于固定点迭代的FastICA算法是一个很有效的批处理算法,它能用于最

大化一元目标函数和多维目标函数。

3.5 本章小结

在本章,我们主要回顾了ICA基于信息论的四种算法,即FastICA算法,Infomax算法,互信息最小算法,最大似然算法,并侧重叙述及分析了FastICA算法、Infomax算法的原理和性能。ICA算法具有等变性,又称协变性,它们仅利用观测数据,而与未知的混合矩阵无关。这些算法虽然有着各自的理论背景,但是从信息论的角度看它们最终是统一的。可以发现,适当形式的非线性函数在以上算法充当了重要角色,其根本作用是隐含引入信号的高阶统计信息,使输出各分量尽可能的独立。理论上,非线性函数的选取依赖于源信号的概率密度函数,而在实际当中只能假定源信号具有某种分布,因此近似选用一个固定的非线性函数。为了使算法对具有各种分布(主要表现在峭度值的不同)的信号进行分离,也可以在调整网络权值的同时对非线性函数本身进行自适应学习,扩展的Infomax算法便是一个例子。

此外,目标函数的优化有两种不同的方式,即在线学习和批处理学习。在线学习是一种自适应学习,具有实时处理特点,是一种真正意义上的神经网络算法;批处理学习由于要对过去的数据重复利用,因此对存储容量要求相对较大,但是其显著优点就是具有比在线学习快得多的收敛速度。

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论基础论文

信息论基础发展史 信息论(information theory)是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。是专门研究信息的有效处理和可靠传输的一般规律的科学,是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。这两个方面又由信息传输定理、信源-信道隔离定理相互联系。 信息论从诞生到今天,已有五十多年历史,是在20世纪40年代后期从长期通讯实践中总结出来的,现已成为一门独立的理论科学,回顾它的发展历史,我们可以知道理论是如何从实践中经过抽象、概括、提高而逐步形成的。它是在长期的通信工程实践和理论研究的基础上发展起来的。 通信系统是人类社会的神经系统,即使在原始社会也存在着最简单的通信工具和通信系统,这方面的社会实践是悠久漫长的。电的通信系统(电信系统)已有100多年的历史了。在一百余年的发展过程中,一个很有意义的历史事实是:当物理学中的电磁理论以及后来的电子学理论一旦有某些进展,很快就会促进电信系统的创造发明或改进。 当法拉第(M.Faraday)于1820年--1830年期间发现电磁感应的基本规律后,不久莫尔斯(F.B.Morse)就建立起电报系统(1832—1835)。1876年,贝尔(A.G.BELL)又发明了电话系统。1864年麦克斯韦(Maxell)预言了电磁波的存在,1888年赫兹(H.Hertz)用实验证明了这一预言。接着1895年英国的马可尼(G.Marconi)和俄国的波波夫(A.C.ΠoΠoB)就发明了无线电通信。本世纪初(1907年),根据电子运动的规律,福雷斯特(1,Forest)发明了能把电磁波

文献翻译-变分贝叶斯独立分量分析

(本科毕业设计论文) 毕业设计(论文)外文资料翻译 作者: 学科专业: 学号: 班级: 指导老师: 2014年6月

变分贝叶斯独立分量分析 摘要 信号的盲分离通过info-max 算法在潜变量模型中被视为最大似然学习潜变量模型。在本文我们提出一个变换方法最大似然学习这些模型,即贝叶斯推理。它已经被证明可以应用贝叶斯推理来确定在主成分分析模型潜在的维度。在本文我们为去除在独立分量分析模型中不必要的来源维度获得类似的方法。我们给一个玩具数据集和一些人为的混合图像提出结果。 1.引言 独立分量分析的目的是为一个基于概率性的独立原件找到一个表示法。实现这样的表示方法是给潜变量是独立约束的潜变量模型拟合一个数据。我们假设一个,有潜在的尺寸W ,观察到的尺寸P 和我们的数据集包含样本n 的模型M 。在ICA 方法中通常把潜在的维度称为“来源”。因此我们为独立生成潜在变量X 寻找模型表示,我们将任何给定的数据点n 带入 ∏== I i in n x p x p 1 )()( 假设高斯噪声,观察到的变量的每个实例化的概率,带入 )2 exp(2),,,(2μβ πβμβ--= n x n n n W t W x t p 其中W 是PXI 矩阵的参数,B 代表了一种逆噪声方差和u 是一个向量的方法。 1.1源分布 众所周知在独立分量分析,潜在分布的选择是很重要的。特别说明它必须是非高斯。非高斯源分布可以分成两类,那些积极的峰度或“沉重的尾巴”和那些消极的峰度或“光明的尾巴”。前者被称为超高斯分布,后者是亚高斯。如果我

们真正的源分布属于这两个中的任何一个类我们可以尝试分开。对于我们的ICA 模型,我们遵循?(1998)选择超高斯或者是亚高斯灵活的源分布。的运算结果的模型应用于两个可能发生的事。阿蒂亚斯选择了每个因素的混合物M 高斯模型 () ∏∑==?? ????=I i m m ni M m m n m x x N p 121 ,)(σπ }{m π是混合系数和每个组件是由一个意思毫米和方差q2m 。 阿蒂亚斯提到作为独立的因子分析模型。我们可能现在写下一个可能性,是一个函数的参数W,β,μ ()()()?∏==x x x t n n n n N n d p W p W p μβμβ,,,,,t 1 这个功能现在可以最大化的参数来确定独立的组件。传统的优化执行限制作为B 倾向于零。这种方法由贝尔和介绍了盲源分离作为信息最大化算法。与最大的关系可能是由不同的作者包括卡多佐指出(1997)和麦(1996)。 2.ICA 的贝叶斯形式主义 在本文中我们提出,按照推断模型的参数化的贝叶斯方法,而不是通过最大似然学习的参数。这要求我们把先验对模型参数。我们的目标是如何通过一个特定的选择我们的先验分布的显示P(W)我们可能自动判断哪些已经产生了数据源的数量。我们是主教的贝叶斯PCA (1999年),它的目的是确定在启发我们的方法主要子空间的自动维数。我们选择将噪音精密β,与以前的马, ()() b ββαββ,gam p = 这里我们定义伽玛分布 ()() ()τττ b a b a a a b -Γ= -exp ,gam 1 对于混合矩阵W ,我们认为高斯之前。特别是每一个的相关性输入可通过使用自动相关性确定(ARD )来确定前(尼尔,1996;麦凯,1995年) ()() ∏∏==-=I i P p i ip N W p 11 1 ,0αωα

基于独立分量分析的多源冲击定位方法

振 动 与 冲 击 第28卷第8期 JOURNAL OF V I B RATI O N AND SHOCK Vol .28No .82009  基于独立分量分析的多源冲击定位方法 基金项目:国家高技术研究发展计划(863计划)(2007AA03Z117);国家 自然科学基金项目(60772072) 收稿日期:2008-07-28 修改稿收到日期:2008-08-06第一作者苏永振男,博士生,1980年生通讯作者袁慎芳女,博士,博士,1968年生 苏永振,袁慎芳 (南京航空航天大学智能材料与结构航空科技重点实验室,南京 210016) 摘 要:结构健康监测中常用声发射信号进行声发射源的定位及特征描述。多个冲击事件发生时,声发射信号是 多个信号的混叠,而且混合方式未知,这使利用声发射信号对冲击源进行定位变得非常困难。而近年来兴起的基于独立 分量分析的盲源分离技术为解决这一难题提供了可能。采用基于信息极大化原理的反馈网络结构对同时作用在铝梁上的两个冲击事件产生的声发射混合信号进行分离,估计出各个源信号到达传感器的时延后,运用两点直线定位公式对两个冲击源进行定位。混合仿真实验验证了基于信息极大化原理的独立分量分析方法估计时延的有效性,铝梁上的两源冲击实验,进一步表明运用独立分量分析方法能较好的解决多冲击源定位问题。 关键词:盲源分离;独立分量分析;时延;冲击定位中图分类号:T B52;TG115.28 文献标识码:A 航空材料结构在服役过程中不可避免的要承受具 有不同能量的各种物体的冲击,由冲击所诱导的损伤,使结构承载能力大大降低、结构强度及稳定性严重退化[1]。因此,很有必要利用结构健康监测技术[2] 对冲击事件进行实时监测。目前对冲击定位的研究多是以单个冲击源为研究对象,常通过求解由冲击产生的声发射信号到达不同传感器的时延进行定位。在对多个 冲击源进行定位时,一些常规的求解时延方法[3] 如互相关函数法,能量法、阈值法等不再有效。因为在多个冲击源的情况下,声发射信号是多个源信号的混叠,上述方法只能求解出一个时延,因此无法实现多个冲击源的定位。近年来兴起的基于独立分量分析(I CA )的盲源分离(BSS )技术为这一问题的解决提供了有效途径。盲源信号分离是指在不知道源信号和混合参数的情况下,仅根据源信号的一些统计特性和有限的观测数据恢复出源信号。盲源信号分离技术在通信、生物医学信号处理、语音信号处理、阵列信号处理等获得了广泛的应用。 BSS 根据混合方式可分为瞬时混合和卷积混合,瞬时混合模型常假定信号源是同时混合的,不能容忍时延,而实际上混合源中有到达时间的区别。传感器测得的由冲击产生的声发射信号是结构的脉冲响应函数与源信号的卷积,而且由于传播介质的影响(时延和反射等),信号是多路径到达的,因此本文采用卷积混合模型模拟两个冲击源信号的混合过程。BSS 的卷积混合模型为:x =A 3s,其中“3”代表卷积,x 为t 时刻 M 维的观测信号向量,s 为t 时刻的N 维源信号向量,A 为M ×N 维的F I R 混合滤波器矩阵。解混目标是寻找 一逆F I R 滤波器矩阵W 使得解卷积后的输出y =W 3s 是源信号s 的估计。 本文以同时作用在铝梁上的两个冲击源的定位问题为例,研究基于BSS 技术的多源冲击定位问题。根据BSS 的卷积混合模型,采用基于信息最大化原理的反馈分离网络结构,对两个冲击源的混叠信号进行分离,求出各个冲击源到达传感器的时延,再根据波速,利用两点直线法实现两个冲击源的定位。 1 I nfomax 方法 1988年L inskers [‘4] 提出了可用非线性单元来处理任意分布的输入信号的信息最大化(I nfomax )原理,它可描述为:网络的输入端和输出端的互信息达到最大时,等价于输出端各分量间的相关性最小。1995年, A.J.Bell 和T .J.Sejnowski [5] 提出了基于信息最大化(I nf omax )原理的盲源分离算法。I nfomax 算法的独立性判据为信息极大传输准则,即通过对分离矩阵的调整,使非线性输出y 和网络输入x 之间的互信息I (y,x )极大。由信息论可知: I (y,x )=H (y )-H (y |x ) (1)由于H (y |x )不依赖于分离矩阵W ,可以看出,通过最大化输出信号的联合熵,就可实现输入输出之间的互信息最大。输出信号的联合熵为: H (y )=-E [log (f y (y ))] (2)f y (y )为非线性输出y 的概率密度函数,设输入经过非线性函数g (x )得到y,当g (x )为单调上升或下降时,输出输入概率密度函数之间的关系则可以写为: f y (y )=f x (x )/det (J ) (3)det (J )为网络的雅克比行列式,f x (x )为输入信号的概

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

独立分量分析(ICA)简单认识

ICA (Independent Components Analysis),即独立分量分析。它是传统的盲源分离方法,旨在恢复独立成分观测的混合物。FastICA是一个典型的独立分量分析(ICA)方法。 它是信号盲处理的基础,对信号独立分量分析的检测是信号盲处理的起点。现有的信号盲处理的算法,大都是基于独立分量分析的,通过对独立分量分析的研究就可以把这些算法统一起来。 一、信号分类: 1.无噪声时: 假设混叠系统由m个传感器和n个源信号组成,并且源信号与观测信号遵从如下所示的混叠模型: x(t)=As(t),其中,x(t)=[x1(t),x2(t),...,x m(t)]T表示m维观测信号矢量; A为m*n维混叠权系数为未知的混叠矩阵; n个源信号的组合为:s(t)=[s 1(t),s 2 (t),...,s n (t)]T 2.有噪声时: 若考虑噪声的影响,则有: x(t)=As(t)+n(t), 其中,从m个传感器采集来的噪声集合为:n(t)=[n1(t),n2(t),...,n m(t)]T 针对式子:x(t)=As(t)+n(t) 独立分量分析(ICA)就是要求解分离矩阵W,使得通过它可以从观测信号x(t)中恢复出未知的源信号s(t),分离系统输出可通过下式表示:y(t)=Wx(t)其中,y(t)=[y1(t),y2(t),…,y n(t)]T为源信号的估计矢量,即:y(t)=S(t) 二、用ICA方法的信号分析——基于小波变换和ICA的分离方案(分离步骤) 首先介绍下语音分离的大体思路。先采用小波变换对各个带噪混叠语音进行预消噪处理,然后进行预处理,最后用ICA的方法对消噪后的混叠语音进行分离;最后根据分离信号的特点进一步提出对其进行矢量归一和再消噪处理,最终得到各个语音源信号的估计。 1.预消噪处理——小波变换 这里采用的是小波阈值法去噪,它类似于图像的阈值分割。(阈值就是临界值或叫判断设定的最小值) 设带噪语音信号为: f(t)=As(t)+n(t),式中: s(t)是纯语音信号, n(t)为噪声。 对式子作离散小波变换。首先对被噪声污染的语音信号进行离散序列小波变换, 得到带有噪声的小波系数;然后用设定的阈值作为门限对小波系数进行处理,对低于阈值的小波系数作为由噪声引起的,仅让超过阈值的那些显著的小波系数用来重构语音信号。 2.约束条件

第3章基于信息论的独立分量分析算法

第3章 基于信息论的独立分量分析算法 3.1 引言 由于没有任何参照目标,学习只能是自组织的。学习过程的第一步:建立一个以W 为变元的目 标函数()W L ,如果某个W ?能使()W L 达到极大(小)值,该W ?即为所需的解。第二步:用一种有效的算法求W ?。按照()W L 定义的不同和求W ?的方法不同可以构成各种ICA 算法。ICA 方法可归结为如下式子:ICA 方法=目标函数+优化算法。由ICA 的性质可知ICA 以统计独立为基本原则,统计独立的衡量为ICA 算法的关键。因此需选择一个恰当的目标函数。目标函数给定后,可以采用经典的优化算法最优化目标函数,如梯度法、拟牛顿法等。ICA 方法的特性取决于目标函数和优化算法两项。ICA 方法的统计特性(如一致性、鲁棒性)取决于目标函数的选取;算法特性(收敛速度、内存要求)取决于优化算法的选择。对于同一个目标函数可以有不同的优化算法,同一个优化算法可应用于不同的目标函数。衡量一个优化算法的主要性能指标有收敛速度,占用内存情况,稳定性等。算法的研究可分为基于信息论准则的迭代估计方法和基于统计学的代数方法两大类,从原理上来说,它们都是利用了源信号的独立性和非高斯性。基于信息论的方法研究中,各国学者从最大熵、最小互信息、最大似然和负熵最大化等角度提出了一系列估计算法。如FastICA 算法, Infomax 算法,最大似然估计算法等。基于统计学的方法主要有二阶累积量、四阶累积量等高阶累积量方法。在此我们主要讨论基于信息论的几种独立分量分析算法。 3.2 数据的预处理 一般情况下,所获得的数据都具有相关性,所以通常都要求对数据进行初步的白化或球化处理,因为白化处理可去除各观测信号之间的相关性,从而简化了后续独立分量的提取过程,而且,通常情况下,数据进行白化处理与不对数据进行白化处理相比,算法的收敛性较好。 若一零均值的随机向量()T M Z Z Z ,,1 =满足{}I ZZ E T =,其中:I 为单位矩阵,我们称这个向量为白化向量。白化的本质在于去相关,这同主分量分析的目标是一样的。在ICA 中,对于为零均值的独立源信号()()()[]T N t S t S t S ,...,1=,有:{}{}{} j i S E S E S S E j i j i ≠==当,0,且协方差矩阵是单位阵()I S =cov ,因此,源信号()t S 是白色的。对观测信号()t X ,我们应该寻找一个线性变换,使()t X 投影到新的子空间后变成白化向量,即: ()()t X W t Z 0= (3.1) 其中,0W 为白化矩阵,Z 为白化向量。

信息论基础总结

?? ? ???=??????)()()()(2 211 I I x q x x q x x q x X q X Λ Λ∑==I i i x q 1 1 )(?? ? ???=??????)()()()(2211 m q q q q x x x x x x X X m ΛΛ∏ =N i i x q 1 )(第1章 信息论基础 信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。 消息是能被人们感觉器官感知的客观物质和主观思维的运动状态或存在状态。 通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。 信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。 狭义信息论 信息论研究的范畴: 实用信息论 广义信息论 信息传输系统 信息传输系统的五个组成部分及功能: 1. 信源 信源是产生消息的源。 2. 编码器 编码器是将消息变换成适合于信道传送的信号的设备。 编码器分为信源编码器和信道编码器两种。 3. 信道 信道是信息传输和存储的媒介,如光纤、电缆、无线电波等。 4. 译码器 译码器是编码器的逆变换,分为信道译码器和信源译码器。 5. 信宿 信宿是消息的接收者,可以是人,也可以是机器。 离散信源及其数学模型 离散信源—消息集X 为离散集合,即时间和空间均离散的信源。 连续信源—时间离散而空间连续的信源。波形信源—时间和空间均连续的信源。 无记忆信源—X 的各时刻取值相互独立。有记忆信源—X 的各时刻取值互相有关联。 离散无记忆信源的数学模型—离散型的概率空间: x i ∈{a 1,a 2,…,a k } 1≤i ≤I 0≤q(x i )≤1 离散无记忆N 维扩展信源的数学模型: x =x 1x 2…x N x i ∈{a 1,a 2,…,a k } 1≤i ≤N q (x )=q (x 1x 2 … x N )= 离散信道及其数学模型 离散信道—信道的输入和输出都是时间上离散、取值离散的随机序列。离散信道有时也称为数字信道。 连续信道—信道的输入和输出都是时间上离散、取值连续的随机序列,又称为模拟信道。 半连续信道—输入序列和输出序列一个是离散的,而另一个是连续的。 波形信道—信道的输入和输出都是时间上连续,并且取值也连续的随机信号。 无记忆信道—信道的输出y 只与当前时刻的输入x 有关。 有记忆信道—信道的输出y 不仅与当前时刻的输入x 有关,还与以前的输入有统计关系。

基于独立分量分析的结构模态参数识别

振动与冲击 第29卷第3期JOURNAl,OFVIBRATIONANDSHOCKV01.29No.32010基于独立分量分析的结构模态参数识别 静行1,袁海庆1,赵毅2 (1.武汉理工大学土木工程与建筑学院,武汉430070;2.武汉理工大学设计研究院,武汉430070) 摘要:简要介绍了独立分量分析的基本原理及算法,探讨了结构的正规坐标与独立分量的关系。分析认为,结构自由振动响应的振型分解可以看做是一个ICA问题。因此,可以把独立分量分析发展成为一种利用结构自由振动响应时域信号进行模态参数识别的方法。结合数值仿真算例及振动试验,验证了独立分量分析用于结构模态参数识别的有效性。结果表明,独立分量分析可以准确的从结构自振响应中,分离出各正规坐标,同时估计出各阶模态振型向量,适用于环境激励下的工作模态参数识别。 关键词:独立分量分析;参数识别;正规坐标 中图分类号:TU311.3;TN911.6文献标识码:A 模态参数识别是结构动力特性研究的一个重要课题,主要任务是从测试所得的数据中,确定振动系统的模态参数,其中包括模态固有频率、模态阻尼比及振型等。目前模态参数识别方法主要有频域法、时域法、时一频分析方法等‘1.2|。传统的模态识别方法往往要求同时测得结构上的激励和响应信号。但是,在实际工程应用中,对一些大型结构无法施加激励或施加激励费用很昂贵,因此,直接利用环境激励下的振动响应数据进行模态参数识别逐渐引起了人们的重视【3.4J。 独立分量分析一一7j(IndependentComponentAnaly?sis,ICA)是伴随着盲源分离问题而发展起来的一项统计信号处理的新技术,其处理对象是相互统计独立的信号源经线性组合而产生的一组混合信号,最终目的是从混合信号中分离出各独立的信号分量。相对于主成分分析(PrincipleComponentAnalysis,PCA)而言,ICA不仅含有信号的一、二阶信号,而且利用了信号的高阶信息,因此ICA方法是处理非高斯信号的一种有效手段,也可以看作是PCA方法的推广。本文在简单介绍独立分量分析的基本原理及算法后,探讨了结构的正规坐标与独立分量之间的关系,并结合数值仿真算例与振动试验,验证了ICA用于结构模态参数识别的实用效果。 1独立分量分析 1.1问题描述 独立分量分析是从多元(多维)统计数据中寻找其内在因子或成分的一种方法。ICA问题可简单描述为:假定共有Ⅳ个传感器拾取到Ⅳ个观测信号石;(i=1,2,…,Ⅳ),每个观测信号是肘个独立源信号s,(.『-1,2,…,M)的线性混合,即X=A?S。其中,X= 收稿日期:2008一12—22修改稿收到日期:2009—05—19 第一作者静行男,博士生.1982年生[茗l,戈2,…,戈_lv]7和S=[sl,s2,…,5^,]1是混合信号矢量和源信号矢量,A是N×M的未知混合矩阵。ICA就是要在仅能观测到z;的情况下,同时估计出矩阵A和s,。因此,ICA可以定义为寻找一个分离矩阵W,从混 合信号中分离出相互独立的源信号,即S=w?X,并 希望.s能较好地逼近真实源信号.s,如果矩阵W能够估计出,对其求逆就能得到矩阵A。ICA方法的关键问题是建立一个能够度量分离结果独立性的判决准则和相应的分离算法。 1.2判决准则 ICA分解的基本原则可以粗略的概括为两条【6]:一是非线性去相关;二是使输出尽可能非高斯化。在众多的ICA算法中,科研工作者从不同的角度提出了多种度量各分量之间独立性的判决准则,如信息极大化(infomax)判决准则、互信息极小化(minimizationofmutualinformation,MMI)判决准则等。而本文采用的判决准则是建立在中心极值定理和信息熵基础上的。 根据中心极值定理,非高斯随机变量之和比原变量更接近高斯变量。对ICA过程来说,混合信号是多个独立源信号的线性混合,故混合信号较各独立源信号更接近高斯分布,或者说前者较后者的高斯性强(或非高斯性弱)。因此可以通过对分离结果的非高斯性的度量来监测分离结果之间的相互独立性,当各分离结果的非高斯性达到最强时,表明已完成对各独立分量的分离。一个非常重要的非高斯判据就是负熵判据。对于一概率密度函数为P(Y)的随机量Y,其负熵的定义如下: J(Y)=日(%。)一H(Y)(1)其中Ysa。是与Y具有相同相关(和协方差)矩阵的高斯随机变量,日(?)为随机变量的信息熵: n(y)=一Ip(),)logp(y)dy(2)信息论中的一个基本结果指出:在具有相同方差的所 万方数据

信息论基础答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 无穷大 ;其能在每个自由度熵的最大熵是 ()log b-a 。 2、高斯白噪声信道是指 信道噪声服从正态分布,且功率谱为常数 。 3、若连续信源的平均功率为5 W ,则最大熵为12log10π ? e ,达到最大值的条件是 高斯信道 。 4、离散信源存在剩余度的原因是 信源有记忆(或输出符号之间存在相关性) 和 不等概 。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高编码效率。 7、八进制信源的最小熵为 0 ,最大熵为 3 bit 。 8、一个事件发生概率为,则自信息量为 3 bit 。 9、在下面空格中选择填入数字符号“,,,=≥≤>”或“<” ()H XY = ()()+H Y H X Y ≤ ()()+H Y H X 二、判断题(正确打√,错误打×)(共5分,每小题1分) 1) 离散无记忆等概信源的剩余度为0。 ( √ ) 2) 离散无记忆信源N 次扩展源的熵是原信息熵的N 倍 ( √ ) 3) 互信息可正、可负、可为零。 ( √ ) 4) 信源的真正功率P 永远不会大于熵功率P ,即P P ≤ ( × ) 5) 信道容量与信源输出符号的概率分布有关。 ( × ) 三、(5分)已知信源的概率密度函数()p x 如下图所示,求信源的相对熵

改进的复值快速独立分量分析算法

第37卷第5期 2015年10月探测与控制学报Journal of Detection &Control Vol .37No .5Oct .2015 一?收稿日期:2015-02-11作者简介:尹洪伟(1987 ),男,江苏徐州人,博士研究生,研究方向:目标中近程探测二识别与信息对抗技术三E -mail :y inhon g wei168@https://www.360docs.net/doc/ed10816044.html, 三改进的复值快速独立分量分析算法 尹洪伟,李国林,路翠华 (海军航空工程学院,山东烟台264001) 摘一要:针对复值快速独立分量分析算法(CFastICA ) 对初始权值敏感且收敛速度较慢的问题,提出了改进的CFastICA 算法三该算法首先利用牛顿下降因子优化牛顿迭代的收敛方向, 使分离矩阵在一定程度上接近最优值,然后去除牛顿收敛因子,利用普通牛顿迭代实现分离矩阵快速收敛三仿真实验表明:提出的算法拥有和牛顿下降CFastICA 同样的收敛精度,收敛时间比牛顿下降CFastICA 减少了近53%,且在低SNR 下,提出算法的综合收敛性能明显优于CFastICA 和牛顿下降CFastICA 算法三关键词:盲源分离;复值快速独立分量分析算法;牛顿迭代 中图分类号:TN974一一一一文献标志码:A 一一一一文章编号:1008-1194(2015)05-0022-04 An Im p roved Com p lex Value Fast ICA Al g orithm YIN Hon g wei ,LI Guolin ,LU Cuihua (Naval Aeronautical and Astronautical Universit y ,Yantai 264001,China )Abstract :An im p roved CFastICA al g orithm was p ro p osed to solve the p roblem of initial value sensibilit y and to im p rove conver g ence s p eed .First ,Newton decline factor was used to o p timize Newton iteration conver g ence direction to make the se p arated matrix be close to the o p timal value to a certain extent ,then remove the conver -g ence factor and use the ori g inal Newton iteration realize fast conver g ence .Simulation results showed that the p ro p osed al g orithm had the same conver g ence p recision with Newton decline CFastICA ,and its conver g ence time was 52.85%less than Newton decline CFastICA .The combination p ro p ert y of p ro p osed al g orithm was si g -nificantl y better than both of CFastICA and Newton decline CFastICA under the low SNR . Ke y words :blind source se p aration ;com p lex value FastICA ;Newton iteration 0一引言 由于盲分离算法对信号先验知识无依赖性, 近年来其在雷达二声呐二语音二通信二图像和医学 等领域都得到了快速发展[12]三而一些领域,如阵列信号处理,其信号往往是复数形式,针对该特点,实数盲分离算法被扩展到了复数领域[3]三其中最典型的算法为复值快速独立分量分析(FastICA )算法,该算法因采用牛顿迭代而具有较快的收敛速度三但该算法存在一个大的缺陷,即当初始分离矩阵偏离最优值较远时,特别是含噪声条件下,不容易收敛到到最优点,甚至无法 收敛[45]三为解决这个问题,国内外不少学者进 行了研究三但总体来看,对该问题的解决方法主要有三种:一是对算法中非线性函数的优化,如文献[6-8],该方法虽可以在一定程度上缓解上述问题,但是也只是起到改善的效果,并不能从根源上解决;二是引入牛顿下降因子以保证牛顿 迭代朝着最优值方向,如文献[9-11],虽然效果很好,但这使得本来具有快速收敛优势的牛顿算 法速度被削减;三是先利用最速梯度法改善初始 分离矩阵,然后再利用牛顿迭代获取最优分离矩 阵,如文献[5,12],但是该算法中的所谓最速梯度,实际上就是牛顿算法[12],并不能起到良好的稳定效果三本文针对此问题,提出了改进的 CFastICA 算法三

信息论基础及答案

《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞ -∞?→∞ --??) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同 的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论基础总结

? ? ????=??????)()()()(2211 I I x q x x q x x q x X q X ∑==I i i x q 1 1 )(?? ????=??????)()()()(2211 m q q q q x x x x x x X X m ∏ =N i i x q 1 )(第1章 信息论基础 信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。 消息是能被人们感觉器官感知的客观物质和主观思维的运动状态或存在状态。 通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。 信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。 狭义信息论 信息论研究的范畴: 实用信息论 广义信息论 信息传输系统 信息传输系统的五个组成部分及功能: 1. 信源 信源是产生消息的源。 2. 编码器 编码器是将消息变换成适合于信道传送的信号的设备。 编码器分为信源编码器和信道编码器两种。 3. 信道 信道是信息传输和存储的媒介,如光纤、电缆、无线电波等。 4. 译码器 译码器是编码器的逆变换,分为信道译码器和信源译码器。 5. 信宿 信宿是消息的接收者,可以是人,也可以是机器。 离散信源及其数学模型 离散信源—消息集X 为离散集合,即时间和空间均离散的信源。 连续信源—时间离散而空间连续的信源。波形信源—时间和空间均连续的信源。 无记忆信源—X 的各时刻取值相互独立。有记忆信源—X 的各时刻取值互相有关联。 离散无记忆信源的数学模型—离散型的概率空间: x i ∈{a 1,a 2,…,a k } 1≤i ≤I 0≤q(x i )≤1 离散无记忆N 维扩展信源的数学模型: x =x 1x 2…x N x i ∈{a 1,a 2,…,a k } 1≤i ≤N q (x )=q (x 1x 2 … x N )= 离散信道及其数学模型 离散信道—信道的输入和输出都是时间上离散、取值离散的随机序列。离散信道有时也称为数字信道。 连续信道—信道的输入和输出都是时间上离散、取值连续的随机序列,又称为模拟信道。 半连续信道—输入序列和输出序列一个是离散的,而另一个是连续的。 波形信道—信道的输入和输出都是时间上连续,并且取值也连续的随机信号。 无记忆信道—信道的输出y 只与当前时刻的输入x 有关。 有记忆信道—信道的输出y 不仅与当前时刻的输入x 有关,还与以前的输入有统计关系。

信息论基础理论与应用考试题与答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的(可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。(考点:信息论的研究目的) 2.电视屏上约有500×600=3×5 10个格点,按每点有10个不同的灰度等级考虑,则可组成5 310 10 个不同的画面。按等概计算,平均每个画面可提供的信息量约为(6 10bit/画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为(加性信道)和(乘性信道)。(考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S的逐个符号进行二元编码,则每个英文电报符号至少要用(5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类)

7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-??? ?∑)。 (考点:平均信息量的定义) 9.对于一个(n,k )分组码,其最小距离为d ,那么,若能纠正t 个随机错误,同时能检测e (e ≥t )个随机错误,则要求 (d ≥t+e+1) (考点:线性分组码的纠检错能力概念) 10.和离散信道一样,对于固定的连续信道和波形信道都有一个最大的信息传输速率,称之为(信道容量)。 (考点:连续信道和波形信道的信道容量) 二﹑判断题(每题2分,共10分) 1.信源剩余度的大小能很好地反映离散信源输出的符号序列中符号之间依赖关系的强弱,剩余度越大,表示信源的实际熵越小。 ( 对 ) (考点:信源剩余度的基本概念) 2.信道的噪声是有色噪声,称此信道为有色噪声信道,一般有色噪声信道都是无记忆信道。 ( 错 ) (考点:有色噪声信道的概念) 3.若一组码中所有码字都不相同,即所有信源符号映射到不同的码符号序列,则称此码为非奇异码。 ( 对 ) (考点:非奇异码的基本概念)

信息论基础及答案

《信息论基础》试卷答案 、填空题(共 25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或 p x lg p x dx lim Ig ) 2、 离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 _J ____ 。 3、 无记忆信源是指 信源先后发生的符号彼此统计独立 ___________________________ 。 4、 离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统 计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可 以降低,从而提高 有效性(传输速率或编码效率) ___________________ 。 5、 为了提高系统的 —系统的可靠性可 以采用 信道编码 _______________ 。 6、 八进制信源的最小熵为 ,最大熵为 3bit/ 符号 ____________________ 。 7、 若连续信源输出信号的平均功率为 1瓦特,贝U 输出信号幅度的概率密度函数为 2|g2 e )。 H s 9、 无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H(S)或 ),此 lg r 时编码效率为_J ____ ,编码后的信息传输率为 lg r bit/ 码元 。 10、 _________________________________________________________ 一个事件发生的概率为,则自信息量为 3bit/ 符号 ________________________________________ 。 11、 信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ______________ ,二 是信源符号概率分布的不均匀性 。 12、 m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m ___________ 个不同 的状态。 13、 同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”所获得的信息量 为Ig36= __________ 比特,当得知“面朝上点数之和为 8”所获得的信息量为 lg36/5= 比特。 14、 在下面空格中选择填入的数学符号“ =,>,<, >”或 “ <” H(XY) = H(Y)+H(X I Y) W H(Y)+H(X) 高斯分布 (或 x: N 0,1 或 ,r eT )时,信源具有最大熵,其值为 (或或 8、即时码是指 任一码字都不是其它码字的前缀

相关文档
最新文档