题目
对随机变量的随机性的一个度量是它的熵(entropy),熵定义为:

如果,求这个熵,并说明它与PDF集中度的关系。观察到数据后,后验PDF的熵可以确定为:

且它应该比小。因此,通过观察得到的信息的度量是:

证明。在什么条件下,
?
提示:把表示为:

另外,对于PDF ,
,需要不等式:

当且仅当时,等式成立。
解答:

所以:

因此:

所以:



最终得到:

由题目条件,PDF约集中,也即是越小,此时对应的
也就越小。换句话说,熵大的信号,具有较大的
,或者
越随机。
接下来求条件概率下的信息度量,因为:



所以:








其中利用

所以,当为概率密度,且也非负时,得到

而上式积分为零的条件得到:

也就表示此时和
独立,此时
,也就是后验概率和先验概率一致,此时没有提供额外的信息。
另外一个维度,如果,此时
,也即是
此时一定比
小,换句话说,
估计的
就越集中,也就是MMSE估计量具有更小的方差。