Математический словарь
" 0 C F G H K L N P S T W Z А Б В Г Д Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Э Ю Я

ИСТОЧНИК СООБЩЕНИИ

Значение ИСТОЧНИК СООБЩЕНИИ в математической энциклопедии:

- объект, вырабатывающий сообщения, подлежащие передаче по каналу связи. Сообщение, вырабатываемое И. с. U, есть случайная величина x, определенная на нек-ром вероятностном пространстве принимающая значения в нек-ром измеримом пространстве и имеющая распределение вероятностей p(Х). Обычно

где (Xt, SXt ) - экземпляры одного и того же измеримого пространства (X, SX), а П - прямое произведение пространств (Xt, SXt), когда параметр tпробегает множество Д, являющееся, как правило, либо нек-рым интервалом (конечным, полубесконечным или бесконечным в обе стороны) действительной оси, либо нек-рым дискретным подмножеством этой оси (в последнем случае обычно D= {..., - 1,0, 1,...} или D={1, 2,...}). В первом из этих случаев говорят об И. с. с непрерывным временем, а во втором - об И. с. с дискретным временем. Ив том, и в другом случае сообщением служит случайный процесс x= {x(t), } со значениями в пространстве (X, SX);в приложениях x(t) трактуется как сообщение, вырабатываемое И. с. в момент времени t. Наборы случайных величин наз. отрезками (t, T] сообщений.

И. с. делятся на различные классы в зависимости от типа сообщения - случайного процесса x(t), вырабатываемого И. с. Напр., если x(t) - случайный процесс с независимыми одинаково распределенными значениями или стационарный, эргодический, марковский, гауссовский и т. д. процесс, то И. с. наз. соответственно И. с. без памяти, стационарным, эргодическим, марковским, гауссовскими т. д.

Одной из задач в теории информации передачи является задача кодирования И. с. При этом различают, напр., кодирование И. с. кодами фиксированной длины, переменной длины, кодирование И. с. при заданных условиях точности и др. (в приложениях нек-рые задачи кодирования И. с. наз. квантованием сообщений, сжатием сообщений и т. д.). Напр., пусть U- И. с. без памяти с дискретным временем, вырабатывающий сообщение x = (...,x-1, x0, x1,...), компоненты xk к-рого принимают значения из нек-рого конечного множества (алфавита) X. Пусть имеется другое конечное множество (множество значений компонент xk воспроизводимого сообщения Кодированием объема Мотрезка xL=(x1,..., xL). сообщения длины Lназ. отображение XL в множество из Мэлементов и пусть - образ элемента при таком отображении (здесь XL- прямое произведение Lэкземпляров множества X). Пусть, далее, сообщений точность воспроизведения задается действительнозначной неотрицательной функцией - мерой искажения, так что средняя мера искажения нек-рого кодирования задается равенством

где

если xL=(x1,. . ., xLе-энтропией

И. с. без памяти наз. величина

где I(Х, Х) - информации количество, а нижняя грань берется по всевозможным совместным распределениям пары таким, что распределение Х 1 совпадает с распределением отдельной компоненты И. с. Uи

Теорема кодирования И. с. Пусть есть е-энтропия дискретного источника Uбез памяти с конечной мерой искажения и пусть М=ехр {LR}. Тогда: 1) для любого е>0, любого d>0, любого и достаточно большого Lсуществует кодирование объема Мотрезка сообщения длины Lтакое, что среднее искажение удовлетворяет неравенству 2) если R<He(U), то при любом кодировании объема Мотрезка сообщения длины Lсреднее искажение rL удовлетворяет неравенству Эта теорема кодирования обобщается и на более общий класс И. с, напр, для И. с. с непрерывным пространством Xзначений компонент. В этом случае вместо кодирования объема Мговорят о квантовании И. с. объема М. Следует заметить, что е-энтропия входящая в формулировку теоремы, при e=0 и мере искажения

совпадает со скоростью создания сообщений заданным И. с.

Лит.:[1] Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963; [2] Добрушин P. Л., "Успехи матем. наук", 1959, т. 14, в. 6, с. 3-104; [3] Галлагер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [4] Вerger Т., Rate distortion theory, N.Y., 1971.

Р. Л. Добрушин, В. В. Прелое.