信息论
信息论笔记。
信源与信息熵
马尔可夫信源
信源记忆长度为m+1时,该时刻发出的信号只与之前的m个有关系,则称这种信源为马尔可夫信源。对于一阶马尔可夫信源,类似于下面的式子都成立:
p(x1∣x2,x3)=p(x1∣x2)
因为x1并不影响x3 。
离散信源信息熵
定义
离散信源信息熵:
H(X)=E[I(X)]=E[−logp(xi)]=−i∑p(xi)logp(xi)
条件信息熵:
H(X∣Y)=j∑p(yj)H(X∣yj)=−i,j∑p(yj)p(xi∣yj)logp(xi∣yj)=−i,j∑p(xi,yj)logp(xi∣yj)
联合信息熵:
H(X,Y)=−i,j∑p(xi,yj)logp(xi,yj)
重要关系
H(X,Y)=H(Y)+H(X∣Y)
H(X,Y)=H(Y)+H(X∣Y)
证明:
H(Y)+H(X∣Y)=−j∑p(yj)logp(yj)−i,j∑p(xi,yj)logp(xi∣yj)=−i,j∑p(xi,yj)logp(yj)−i,j∑p(xi,yj)logp(xi∣yj)=−i,j∑p(xi,yj)logp(yj)p(xi∣yj)=−i,j∑p(xi,yj)logp(xi,yj)=H(X,Y)
推广:
H(X1,X2,⋯,Xn)=i∑nH(Xi∣X1,X2,⋯,Xi−1)
互信息
定义
I(X;Y)=H(X)−H(X∣Y)
条件互信息定义
I(X;Y∣Z)=H(X∣Z)−H(X∣Y,Z)=i,j,k∑p(xi,yj,zk)logp(xi∣zk)p(xi∣yj,zk)
重要关系
I(X;Y)=I(Y;X)
证明:
I(X;Y)=H(X)−H(X∣Y)=−i∑p(xi)logp(xi)+i,j∑p(xi,yj)logp(xi∣yj)=−i,j∑p(xi,yj)logp(xi)+i,j∑p(xi,yj)logp(xi∣yj)=i,j∑p(xi,yj)logp(xi)p(yj)p(xi,yj)=I(Y;X)
0⩽I(X;Y)⩽H(X)
I(X;Y,Z)=I(X;Y)+I(X;Z∣Y)
证明:
I(X;Y)+I(X;Z∣Y)=i,j∑p(xi,yj)logp(xi)p(yj)p(xi,yj)+i,j,k∑p(xi,yj,zk)logp(xi∣yj)p(xi∣yj,zk)=i,j,k∑logp(xi)p(yj)p(xi,yj)⋅p(yj,zk)p(xi,yj)p(xi,yj,zk)p(yj)=i,j,k∑logp(xi)p(yj,zk)p(xi,yj,zk)=I(X;Y,Z)
I(X;Y,Z)=I(X;Y)若X−Y−Z构成马尔科夫链
证明:
I(X;Y,Z)=i,j,k∑p(xi.yj,zk)logp(xi)p(yi,zk)p(xi,yj,zk)=i,j,k∑p(xi.yj,zk)logp(xi)p(xi∣yj,zk)=i,j,k∑p(xi.yj,zk)logp(xi)p(xi∣yj)=I(X;Y)
信息传输不等式
对于构成马尔科夫链的随机变量X−Y−Z,他们之间的互信息有关系:
I(X;Y)⩾I(X;Z)
证明:
I(X;Y)−I(X;Z)=I(X;Y,Z)−I(X;Z)=I(X;Y∣Z)=k∑p(zk)I(X;Y∣zk)⩾0.