"
0
C
F
G
H
K
L
N
P
S
T
W
Z
А
Б
В
Г
Д
Е
Ж
З
И
Й
К
Л
М
Н
О
П
Р
С
Т
У
Ф
Х
Ц
Ч
Ш
Э
Ю
Я
ИНФОРМАЦИИ КОЛИЧЕСТВОЗначение ИНФОРМАЦИИ КОЛИЧЕСТВО в математической энциклопедии: - теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой. Пусть x и h.- случайные величины, определенные на нек-ром вероятностном пространстве и принимающие значения в измеримых пространствах и соответственно, а - их совместное и маргинальные распределения вероятностей. Если распределение Pxh (Х). абсолютно непрерывно относительно прямого произведения мер - плотность (по Радону - Никодиму) меры Pxh( Х) относительно меры и - информационная плотность (логарифмы обычно берутся по основанию 2 или е), то, по определению, И. к. дается формулой Если же мера не является абсолютно непрерывной относительно произведения мер то, по определению, В случае, когда величины x и h принимают конечное число значений, выражение для И. к. I(x, h) приобретает следующий вид: где {pij, i=1, ...,n; j=1, ...,m) - распределения вероятностей x,h и пары (x, h) соответственно (в частности, является энтропией случайной величины x), а если x,h - случайные векторы и существуют плотности Px(x), рh (у), Рxh( х, у )случайных векторов x, h и пары (x, h) соответственно, то В общем случае где верхняя грань берется по всем измеримой функциям и с конечным числом значений. Понятие И. к. используется главным образом в теории передачи информации. Лит. см. [1], [2], [4] при ст. Информации передача. Р. Л. Добрушин, В. В Прелов. |
|
|