一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。
某个信息源由A、B、C、D四个符号组成,出现概率均为1/4。这些符号分别用二进制码组00、01、10、11表示。若每个二进制码元用宽度为5毫秒的脉冲传输,则该信息源的平均信息速率和码组速率分别为()。
某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。
当离散信息源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。( )
设某信源由2个符号组成,如果想让信源熵达到最大,则各符号出现的概率分别( )。
设A、B、C、D四个信息符号分别以概率0.5、0. 25、0.125、0.125传输。且每一符号的出现是独立的,试问每一符号的平均信息量为多少?
某二进制信源。各符号独立出现。若1符号出现的概率为3/4.则0符号的出现的概率为()。
某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4,1/8,1/8,3/16和5/16;信源以1000B
消息源分别以概率1/2,1/4,1/8,1/16,1/16发送5种符号A、B、C、D、E。若每个符号的出现是独立的,那么B的信息量为(),这5种符号的平均信息量为(),信源可能出现的最大熵为()。
某二进制信源,各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。
()当离散信息中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。
76、某信源产生a、b、c、d四个符号,各符号独立出现,这个信源可能的最大信源熵为()bit/符号。