Представление и виды информации.
Понятие информации
Понятие информации является центральным понятием информатики, объектом ее исследования. Принято следующее определение:
Определение информации.
ИНФОРМАЦИЯ – это содержание сообщения, сигнала, памяти. Процессы передачи, хранения и переработки информации, называются Информационными процессами. Они всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, используют для этого электронную и голосовую почту. Они передают друг другу просьбы, приказы, объявления и научные статьи; хранят старые письма и документы; размышляют над полученными известиями, реагируют на них. Все это – информационные процессы.
Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Одну и ту же информацию можно хранить в различном материальном виде: на бумаге, в виде фотонегатива, на магнитной ленте и т.д. и передавать с различными затратами энергии – по почте, по телефону, с курьером и т.д.
|
|
Информацию часто классифицируют по ее характерным признакам, перечислим виды информации:
1. Числовая инф-я, представленная цифрами и отражающая результаты некоторого вычисления.
2. Текстовая – в виде слов, состоящих из символов.
3. Кодовая, представленная кодами (напр., азбука Морзе, машинные коды и т п.).
4. Графическая – представленная графическими объектами с учетом их геометрических и оптических свойств.
5. Акустическая, представленная звуками.
6. Телевизионная – изображения в ТВ-формате.
7. Видио-информация – это видео- и кинофильмы в специальных форматах.
При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространенны одномерные представления информации, при которых сообщения имеют вид последовательности символов, например, - в письменных текстах (набор букв), при передаче по каналам связи (уровень электрического сигнала), в памяти ЭВМ (наличие или отсутствие сигнала). Однако широко используются и многомерные представления информации в виде рисунков, схем, объемных макетов и плюс к этому множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.
Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.
|
|
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).
Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.
С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 210 байт,1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт. В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.Различают три формы адекватности и соответствующие им меры информации:
· Синтаксическая, отражающая формально-структурные свойства информации без учета ее смыслового содержания.
· Семантическая – смысловая.
· Прагматическая (потребительская) ценность.
Синтаксическая мера информации характеризуется объемом данных и количеством информации в битах и байтах.
Наименьшее количество информации, это когда надо произвести выбор один из двух возможных – «есть» или «нет» - называется БИТ. В вычислительной технике бит может принимать значения 1 или 0. На этом построена вся структура ЭВМ (триггер – включить - выключить, напряжение – выше, ниже и т.п.).
Объем данных измеряется числом символов (разрядов) Vd в передаваемом сообщении.
Количество (Мера) информации по Шеннону
Если А – предварительные (априорные) сведения о системе, то неосведомленность о некоторой изучаемой системе определяется энтропией Н(А). С получением сообщения B неопределенность сведений о системе станет = Нb(А), тогда количество информации в полученном сообщении будет равно
Ib(А)=Н(А)-Нb(А),
Следовательно количество информации определяется уменьшением неопределенности (неосведомленности) пользователя.
Пусть информационная система имеет N состояний. Шеннон показал, что энтропия системы (мера недостающей информации о ней) определяется
Н (А)= -i=1 ∑N Pi log(Pi )
Где Pi – вероятность нахождения системы в i -м состоянии.
Если все составляющие равновероятны, то имеем:
Н(А)=- i=1 ∑N (1/N) log(1/N)
Заметим, что N=mn, m - основание системы счисления, n - число разрядов в сообщении.
Степенью информативности сообщения Y называется отношение количества информации I к объему данных в сообщении, т.е. Y= I/Vd. 0<Y<1 Она же - является мерой лаконичности сообщения. Чем она выше, тем меньше объем работ по преобразованию информации.
Семантическая и прагматическая меры информации Для измерения смыслового количества информации используется ТЕЗАУРУС –совокупность сведений которыми располагает пользователь или система распознавания информации.
Пусть S – смысл содержания информации, а Si – тезаурус пользователя.
Если Si=0, то поступающая информация бесполезна, если Si стремится к бесконечности, то пользователь уже все знает и информация для него тоже бесполезна. Таким образом, можно утверждать, что зависимость количества семантической информации Is=F(Si) имеет MAX (максимум) и спадающие участки. Отношение Is/ Vd =C (где Vd - это, напоминаю, объем данных) называют относительной мерой количества семантической информации.
Прагматическая мера информации определяется ее ценностью для некоторого пользователя. Например, информация может быть ценна потому, что относится к определенному лицу или устройству или расположена на доступных носителях…
Мы помним определение ИНФОРМАЦИИ, как содержание сообщения, сигнала, памяти.
|
|
Различают разные виды сигналов для передачи данных: Они могут быть дискретные, аналоговые, видео-, звуковые сигналы.
Непрерывные (аналоговые) сигналы – их недостаток – ШУМЫ, низкое качество передаваемого сигнала.
Дискретный сигнал – можно представить разными уровнями параметра, например, вкл – выкл. Если уровней много, можно говорить о цифровом представлении информации. Сигналы, мгновенные значения которых представлены цифрами (числами), принято называть цифровыми сигналами.