"
0
C
F
G
H
K
L
N
P
S
T
W
Z
А
Б
В
Г
Д
Е
Ж
З
И
Й
К
Л
М
Н
О
П
Р
С
Т
У
Ф
Х
Ц
Ч
Ш
Э
Ю
Я
ИСТОЧНИК СООБЩЕНИИЗначение ИСТОЧНИК СООБЩЕНИИ в математической энциклопедии: - объект, вырабатывающий сообщения, подлежащие передаче по каналу связи. Сообщение, вырабатываемое И. с. U, есть случайная величина x, определенная на нек-ром вероятностном пространстве принимающая значения в нек-ром измеримом пространстве и имеющая распределение вероятностей p(Х). Обычно где (Xt, SXt ) - экземпляры одного и того же измеримого пространства (X, SX), а П - прямое произведение пространств (Xt, SXt), когда параметр tпробегает множество Д, являющееся, как правило, либо нек-рым интервалом (конечным, полубесконечным или бесконечным в обе стороны) действительной оси, либо нек-рым дискретным подмножеством этой оси (в последнем случае обычно D= {..., - 1,0, 1,...} или D={1, 2,...}). В первом из этих случаев говорят об И. с. с непрерывным временем, а во втором - об И. с. с дискретным временем. Ив том, и в другом случае сообщением служит случайный процесс x= {x(t), } со значениями в пространстве (X, SX);в приложениях x(t) трактуется как сообщение, вырабатываемое И. с. в момент времени t. Наборы случайных величин наз. отрезками (t, T] сообщений. И. с. делятся на различные классы в зависимости от типа сообщения - случайного процесса x(t), вырабатываемого И. с. Напр., если x(t) - случайный процесс с независимыми одинаково распределенными значениями или стационарный, эргодический, марковский, гауссовский и т. д. процесс, то И. с. наз. соответственно И. с. без памяти, стационарным, эргодическим, марковским, гауссовскими т. д. Одной из задач в теории информации передачи является задача кодирования И. с. При этом различают, напр., кодирование И. с. кодами фиксированной длины, переменной длины, кодирование И. с. при заданных условиях точности и др. (в приложениях нек-рые задачи кодирования И. с. наз. квантованием сообщений, сжатием сообщений и т. д.). Напр., пусть U- И. с. без памяти с дискретным временем, вырабатывающий сообщение x = (...,x-1, x0, x1,...), компоненты xk к-рого принимают значения из нек-рого конечного множества (алфавита) X. Пусть имеется другое конечное множество (множество значений компонент xk воспроизводимого сообщения Кодированием объема Мотрезка xL=(x1,..., xL). сообщения длины Lназ. отображение XL в множество из Мэлементов и пусть - образ элемента при таком отображении (здесь XL- прямое произведение Lэкземпляров множества X). Пусть, далее, сообщений точность воспроизведения задается действительнозначной неотрицательной функцией - мерой искажения, так что средняя мера искажения нек-рого кодирования задается равенством где если xL=(x1,. . ., xL )и е-энтропией И. с. без памяти наз. величина где I(Х, Х) - информации количество, а нижняя грань берется по всевозможным совместным распределениям пары таким, что распределение Х 1 совпадает с распределением отдельной компоненты И. с. Uи Теорема кодирования И. с. Пусть есть е-энтропия дискретного источника Uбез памяти с конечной мерой искажения и пусть М=ехр {LR}. Тогда: 1) для любого е>0, любого d>0, любого и достаточно большого Lсуществует кодирование объема Мотрезка сообщения длины Lтакое, что среднее искажение удовлетворяет неравенству 2) если R<He(U), то при любом кодировании объема Мотрезка сообщения длины Lсреднее искажение rL удовлетворяет неравенству Эта теорема кодирования обобщается и на более общий класс И. с, напр, для И. с. с непрерывным пространством Xзначений компонент. В этом случае вместо кодирования объема Мговорят о квантовании И. с. объема М. Следует заметить, что е-энтропия входящая в формулировку теоремы, при e=0 и мере искажения совпадает со скоростью создания сообщений заданным И. с. Лит.:[1] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963; [2] Добрушин P. Л., "Успехи матем. наук", 1959, т. 14, в. 6, с. 3-104; [3] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [4] Вerger Т., Rate distortion theory, N.Y., 1971. Р. Л. Добрушин, В. В. Прелое. |
|
|