Энтропия и производительность дискретного источника сообщений

МПС СССР

ВСЕСОЮЗНЫЙ ЗАОЧНЫЙ ИНСТИТУТ

ИНЖЕНЕРОВ ЖЕЛЕЗНОДОРОЖНОГО ТРАНСПОРТА

Одобрено кафедрой Автоматики,

Телемеханики

И связи

Теоретические основы транспортной связи

Задание на контрольную работу N 1 с методическими указаниями для студентов 1Y курса

Специальности

А втоматика, телемеханика и связь на железнодорожном транспорте

Москва-1987

Общие указания

Дисциплина «Теоретические основы транспортной связи» ставит задачей рассмотреть вопросы преобразования сообщений и сигналов и дать количественную оценку качества работы системы транспортной связи, независимо от их технического назначения и физической природы передаваемых сообщений.

Для успешной творческой работы в области производства и эксплуатации средств железнодорожной телемеханики и связи современный инженер должен быть в достаточной степени знаком с теоретическими основами транспортной связи, позволяющими, не прибегать к дорогостоящим экспериментам, установить при помощи расчетов количественную основу для поиска оптимальных решений в инженерной практике. Даже когда в силу определенных особенностей решаемой задачи более целесообразным оказывается экспериментальный подход, знание принципов, лежащих в основе предмета, позволит выбрать оптимальные направления проводимых экспериментов и дать количественную оценку полученных результатов.

Предмет устанавливает количественные характеристики информации, формирует условия согласования источников информации с каналами связи, определяет информационные параметры каналов связи, развивает идеи о применении кодирования для повышения помехоустойчивости передачи по каналам связи шумами, рассматривает вопросы построения оптимальных кодов для передачи информации при отсутствии помех в каналах связи.

Работу по изучению дисциплины «Теоретические основы транспортной связи» следует начинать с подбора литературы, рекомендованной программой. Затем можно приступить к изучению соответствующих разделов курса и выполнению контрольной работы, состоящей из трех задач.

Каждый студент выполняет контрольную работу в соответствии с индивидуальным заданием. Номер варианта выбирается по шифру студента.

Задание на контрольную работу и методические указания к решению задач

Задача 1

Количественное определение информации.

Энтропия и производительность дискретного источника сообщений

Количество информации I (ai), содержащееся в символе ai, выбираемом из ансамбля { ai } (i=1,2,3,…,K), где К – объем алфавита, с вероятностью P(αi), причем P(αi) = 1, определяется по формуле

I (αi) = -Iog2 P (αi).

Основание логарифма может быть произвольным, оно определяет лишь систему единиц измерения количества информации.

Информация измеряется в двоичных единицах (битах). Одна двоичная единица информации – это количество информации, содержащееся в одном из двух выбираемых с равной вероятностью символов.

Средне количество информации Н(А), приходящееся на один символ выдаваемых дискретным источником независимых сообщений с объемом алфавита К, можно найти как математическое ожидание дискретной случайной величины I (αi), определяющей количество информации, содержащейся в одном случайно выбранном символе (знаке) (αi).

H(A) = M{I(ai)} = - .

Эта величина называется энтропией источника независимых сообщений.

Одной из информационных характеристик дискретного источника является избыточность

p u= 1 -

Избыточность источника зависит как от протяженности статистических связей между последовательно выбираемыми символами (памятью источника), так и от степени неравновероятности отдельных символов.

Если источник без памяти, т.е. последовательно передаваемые символы независимы, все символы равновероятны P(αi) = 1/K, то Н(А) и избыточность pи=0.

Если в единицу времени источник выдает в среднем υи символов (скорость источника υи), то среднее количество информации, создаваемой источником в единицу времени,

H´(A) = υи H(A) = H(A),

Где Тср – средняя длительность одного символа.

Характеристику H´(A) называют производительностью дискретного источника. Источник называется стационарным, если описывающие его вероятностные характеристики не меняются во времени.

1. Источник сообщений выдает символы из ансамбля А={αi} (где i = 1,2,,3,4,5) с вероятностями, представленными в табл.1 в зависимости от последней цифры шифра.

Таблица 1

Параметр Последняя цифра шифра
                   
P(α1) 0,2 0,3 0,25 0,15 0,1 0,2 0,45 0,15 0,2 0,05
P(α2) 0,3 0,2 0,35 0,2 0,45 0,25 0,15 0,4 0,11 0,45
P(α3) 0,25 0,15 0,1 0,3 0,25 0,35 0,2 0,1 0,45 0,25
P(α4) 0,15 0,1 0,1 0,15 0,1 0,05 0,15 0,15 0,05 0,15
P(α5) 0,1 0,25 0,2 0,2 0,1 0,15 0,05 0,2 0,3 0,1

Найти количество информации, содержащейся в каждом из символов источника при их независимом выборе (источник без памяти).

Вычислить энтропию и избыточность заданного источника, используя прил.1,2.

2. Показать, что при равных объемах алфавитов К, энтропия Н(А) имеет максимальное значение Нмакс(А) = Iog2K при равновероятных символах.

3. Описать физические характеристики дискретных каналов и сигналов, а также процесс преобразования дискретных сообщений в электрические сигналы.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  




Подборка статей по вашей теме: