Энтропия как мера неопределенности физической системы

Сведения являющиеся объектом хранения, передачи и преобразования, называются информацией. Мера измерения количества информации основана на понятии энтропии. Энтропия - это мера степени неопределенности состоянии системы Х (случайной величины) с конечным или счетным числом исходов.

Что означает неопределенность и как ее измерить?

Пример. Пусть имеются две системы: первая система – игральная кость (имеет 6 состояний), вторая система – монета (имеет 2 состояния).

Спрашивается: состояние какой системы труднее предугадать (неопределенность какой системы больше)? Естественно неопределенность первой системы выше. Значит, степень неопределенности системы зависит от числа возможных ее состояний. Однако число состояний не является исчерпывающей характеристикой степени неопределенности.

Покажем это на примере для систем с двумя устойчивыми состояниями. Пусть имеются 2 монеты М1 и М2 (у монеты имеется два возможных состояния: орёл 0 и решка Р):

М1   Р   М2   Р
Рi 0,5 0,5   Рi 0,999 0,001

Рi – вероятности нахождения монет в состоянии орел или решка.

Нетрудно заметить, что неопределённость этих двух систем будет различной. Неопределенность первой системы больше, так как из таблицы видно, что вторая монета практически постоянно находится в состоянии орел. Первая же монета неизвестно в каком находится состоянии, она с равной вероятностью может находиться или в состоянии орел или в состоянии решка.

Таким образом, мы видим, что степень неопределенности определяется также и вероятностями состояний системы. В качестве меры априорной неопределенности теория информации предлагает энтропию.

Энтропия по Шеннону равна сумме произведений вероятностей состояний системы на логарифмы этих вероятностей, взятых с обратным знаком:

, (1.1)

где X = (x1, x2, … xi,… xn) – множество возможных состояний системы X, принимаемых элементами с вероятностями p(x1), p(x2),…p(xi),… p(xn),

n - число возможных состояний. При этом должно соблюдаться условие нормировки:

В формуле 1.1 основание логарифма может быть двоичным, десятичным или натуральным. Если используется двоичное основание, то оно может быть опущено. При двоичном основании энтропия измеряется в двоичных единицах или битах. Формула (1.1) может быть представлена и в следующем виде:

(1.2)

Энтропия характеризует среднее значение и представляет собой математическое ожидание от -log p, то есть H(X)=M[-log p(x)].

Рассмотрим свойства энтропии:

1. Энтропия есть величина вещественная, ограниченная и неотрицательная: Н≧0.

Это свойство следует из выражения (1.2).

Рассмотрим одно слагаемое - pklog pk . При изменении pk от нуля до единицы это положительное вещественное слагаемое изменяется от нуля, достигает максимума при pk = , затем снова спадает до нуля (см.рис.1.1)

Рис.1.1. График зависимости Hk от pk

В самом деле, устремляя pk к нулю, получаем

, если произвести замену

то получим следующую формулу: то есть слагаемое обращается в нуль, когда pk=0. Если pk=1, то log pk=0 и слагаемое также равно нулю: -pklog pk=0.

Максимальное значение определим из условия:

- log pke =0. Отсюда pk× e =1; Подставим в Hk

Максимальное значение равно 0,531.

2. Энтропия минимальна и равна нулю, если хотя бы одно из состояний системы достоверно известно: H = Hmin = 0.

Пусть система имеет три состояния, и вероятности этих состояний будут равны: p1 = p2 = 0, p1 = 1. Тогда

3. Энтропия максимальна и равна логарифму числа состояний, если состояния системы равновероятны:

H=Hmax= log n (1.3)

При

4. Энтропия бинарных величин изменяется от 0 до 1.

Пусть p1=p; p2=(1-p); Тогда H= - p×log p – (1-p) ×log(1-p);

При

Энтропия равна нулю, когда вероятность одного из состояний равна нулю, затем возрастает и достигает максимума при p=0.5, то есть когда p1=p2=0.5. При этом неопределенность сообщений при приеме наибольшая.

Основание логарифма может быть выражено в двоичных, десятичных или натуральных единицах. В случае оценки энтропии в двоичных единицах основание может быть опущено:

Вычисление энтропии можно упростить, если ввести специальную функцию η(p)= , тогда H(x)=Σ η(p).

Для вычисления энтропии с помощью данной функции имеются специально составленные таблицы (см.табл.1 приложения 1).


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  




Подборка статей по вашей теме: