下载APP
刷刷题APP > 信息熵
"信息熵"相关考试题目
1.
下列关于信息熵的说法中正确的是()。
2.
“信息熵”这一概念是由谁提出的?
3.
当图像信息源中各符号出现的概率相等时,信源的信息熵最小。()
4.
当图像信息源中各符号出现的概率相等时,信源的信息熵最小。
5.
信息熵是度量样本集合纯度最常用的一种指标。信息熵的值越大,则其纯度越高。( )
6.
变量的随机程度越低,则信息熵越小。( )
7.
某信源发出的信号共有4种状态,4种状态发生的概率分别为0,1/4,1/2,1/4,则信源传给信宿的信息熵是( )比特。
8.
下列关于信息熵的说法中正确的包括()。
9.
信息熵是表示信源输出后,每个消息所提供的()。
10.
信息熵也叫香农熵
11.
下列关于信息熵的说法正确的是()
12.
关于信息熵的说法,正确是有()。
13.
信息熵是事件发生不确定性的度量,当熵的值越大时,说明事件发生的不确定性( )。
14.
ID3算法的理论基础是信息论中的信息熵和信息增益
15.
接上题可以计算出第2节中的西瓜数据集中根蒂的信息熵最高的分支是()
16.
当信源中每种符号独立等概时,其信息熵(平均信息量)最大。
17.
关于信息熵的描述错误的是
18.
下列关于信息熵的说法中正确的包括()。
19.
变量的不确定性越大,信息熵也就越大
20.
以下对信息熵的描述正确的是()
21.
信源发出的信号共有4种状态,发生的概率分别为0.25、0.5、0.125、0.125,这时信源传给信宿的信息熵是
22.
下列关于信息熵的说法中正确的是( )。
23.
【名词解释】信息熵
24.
H(X),Hc(X)和HL(X)代表【 】。 a)平均符号熵,连续熵,信息熵 b)连续熵,平均符号熵,信息熵 c)信息熵,连续熵,平均符号熵 d)信息熵,平均符号熵,连续熵
25.
一个系统越有序,信息熵就()。
26.
信息熵是度量样本集合纯度的唯一指标。
27.
信息熵是事件发生不确定性的度量,当熵的值越大时,说明事件发生的不确定性( )。
28.
对于某特定的信源,其信息熵是一个确定的数值。
29.
信息熵是事件不确定性的度量,信息熵越大,则不确定性( )。
30.
下列( )事件所含信息熵最大。
31.
信息熵反映了信源的随机平均特性。
32.
信息熵 (entropy) 是度量样本集合“纯度”最常用的一种指标
33.
某系统共有6种状态,各状态出现概率分别为1/ 2、1/ 4、1/ 16、1/ 16、1/ 16、1/16,则系统的信息熵是( )比特。
34.
题目:基于信息熵的细菌DNA序列分析
35.
信息熵是事件不确定性的度量,信息熵越小,说明不确定性()。
36.
信源X中有17个随机事件,即n=17。每一个随机事件的概率分别为:,请写出信息熵的计算公式并计算信源X的熵。
37.
信息熵是事件不确定性的度量,信息熵越大,说明不确定性()。
38.
信息熵和热力学第二定律中定义的熵意义一样。
39.
信息熵是概率空间的函数。( )
40.
数据压缩方法划分为两类,即信息熵编码和( )。
41.
互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。
42.
美国科学家香农于( )年提出了“信息熵”的概念
43.
信息熵是事件不确定性的度量,信息熵越大,说明不确定性( )。
44.
某图像像素颜色由4位二进制数表示,则每个像素包含信息熵是( )bit。
45.
信源发出的信号共有8种状态,其中4种状态的发生概率为0,其余4种状态的发生概率为1/4,信源传给信宿的信息熵是()。
46.
信源发出的信号共有4种状态,4种状态的发生概率各为1/4,信源传给信宿的信息熵是()。
47.
离散信源有五个不同符号,若各符号的概率分布为1/2、1/4、1/8、1/16、1/16,则该信源的信息熵是
48.
以下包含10个样本的数据集中,P和N为类标号。哪个数据集的信息熵最大?
49.
ID3方法的目的是降低系统信息熵
50.
A、B、C、D四个信号源以等概率出现,其信息熵是( )bit/符号。