Формы адекватности и количество информации

Представление и виды информации.

Понятие информации

Понятие информации является центральным понятием информатики, объектом ее исследования. Принято следующее определение:

Определение информации.

ИНФОРМАЦИЯ – это содержание сообщения, сигнала, памяти. Процессы передачи, хранения и переработки информации, называются Информационными процессами. Они всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, используют для этого электронную и голосовую почту. Они передают друг другу просьбы, приказы, объявления и научные статьи; хранят старые письма и документы; размышляют над полученными известиями, реагируют на них. Все это – информационные процессы.

Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Одну и ту же информацию можно хранить в различном материальном виде: на бумаге, в виде фотонегатива, на магнитной ленте и т.д. и передавать с различными затратами энергии – по почте, по телефону, с курьером и т.д.

Информацию часто классифицируют по ее характерным признакам, перечислим виды информации:

1. Числовая инф-я, представленная цифрами и отражающая результаты некоторого вычисления.

2. Текстовая – в виде слов, состоящих из символов.

3. Кодовая, представленная кодами (напр., азбука Морзе, машинные коды и т п.).

4. Графическая – представленная графическими объектами с учетом их геометрических и оптических свойств.

5. Акустическая, представленная звуками.

6. Телевизионная – изображения в ТВ-формате.

7. Видио-информация – это видео- и кинофильмы в специальных форматах.

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространенны одномерные представления информации, при которых сообщения имеют вид последовательности символов, например, - в письменных текстах (набор букв), при передаче по каналам связи (уровень электрического сигнала), в памяти ЭВМ (наличие или отсутствие сигнала). Однако широко используются и многомерные представления информации в виде рисунков, схем, объемных макетов и плюс к этому множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.

Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Наименьшей единицей информации является бит (от англ. binary digit (bit)).

Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.

В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.

В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).

Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.

С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.

Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 210 байт,1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт. В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Различают три формы адекватности и соответствующие им меры информации:

· Синтаксическая, отражающая формально-структурные свойства информации без учета ее смыслового содержания.

· Семантическая – смысловая.

· Прагматическая (потребительская) ценность.

Синтаксическая мера информации характеризуется объемом данных и количеством информации в битах и байтах.

Наименьшее количество информации, это когда надо произвести выбор один из двух возможных – «есть» или «нет» - называется БИТ. В вычислительной технике бит может принимать значения 1 или 0. На этом построена вся структура ЭВМ (триггер – включить - выключить, напряжение – выше, ниже и т.п.).

Объем данных измеряется числом символов (разрядов) Vd в передаваемом сообщении.

Количество (Мера) информации по Шеннону

Если А – предварительные (априорные) сведения о системе, то неосведомленность о некоторой изучаемой системе определяется энтропией Н(А). С получением сообщения B неопределенность сведений о системе станет = Нb(А), тогда количество информации в полученном сообщении будет равно

Ib(А)=Н(А)-Нb(А),

Следовательно количество информации определяется уменьшением неопределенности (неосведомленности) пользователя.

Пусть информационная система имеет N состояний. Шеннон показал, что энтропия системы (мера недостающей информации о ней) определяется

Н (А)= -i=1N Pi log(Pi )

Где Pi – вероятность нахождения системы в i -м состоянии.

Если все составляющие равновероятны, то имеем:

Н(А)=- i=1N (1/N) log(1/N)

Заметим, что N=mn, m - основание системы счисления, n - число разрядов в сообщении.

Степенью информативности сообщения Y называется отношение количества информации I к объему данных в сообщении, т.е. Y= I/Vd. 0<Y<1 Она же - является мерой лаконичности сообщения. Чем она выше, тем меньше объем работ по преобразованию информации.

Семантическая и прагматическая меры информации Для измерения смыслового количества информации используется ТЕЗАУРУС –совокупность сведений которыми располагает пользователь или система распознавания информации.

Пусть S – смысл содержания информации, а Si – тезаурус пользователя.

Если Si=0, то поступающая информация бесполезна, если Si стремится к бесконечности, то пользователь уже все знает и информация для него тоже бесполезна. Таким образом, можно утверждать, что зависимость количества семантической информации Is=F(Si) имеет MAX (максимум) и спадающие участки. Отношение Is/ Vd =C (где Vd - это, напоминаю, объем данных) называют относительной мерой количества семантической информации.

Прагматическая мера информации определяется ее ценностью для некоторого пользователя. Например, информация может быть ценна потому, что относится к определенному лицу или устройству или расположена на доступных носителях…

Мы помним определение ИНФОРМАЦИИ, как содержание сообщения, сигнала, памяти.

Различают разные виды сигналов для передачи данных: Они могут быть дискретные, аналоговые, видео-, звуковые сигналы.

Непрерывные (аналоговые) сигналы – их недостаток – ШУМЫ, низкое качество передаваемого сигнала.

Дискретный сигнал – можно представить разными уровнями параметра, например, вкл – выкл. Если уровней много, можно говорить о цифровом представлении информации. Сигналы, мгновенные значения которых представлены цифрами (числами), принято называть цифровыми сигналами.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: