Раздел 1.ИНФОРМАЦИЯ
Термин ИНФОРМАЦИЯ возник от латинского слова INFORMATIO – РАЗЪЯСНЕНИЕ, ИЗЛОЖЕНИЕ. На сегодняшний день существует большое количество различных определений этого понятия. Связано это со, специфичностью и многообразием подходов к толкованию сущности этого понятия.
С философской точки зрения информация это отражение реального мира с помощью сведений (сообщений). Сообщение – это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п.
С юридической точки зрения – это сведения (сообщения) о лицах, предметах, фактах, явлениях и процессах независимо от формы их представления. (Федеральный закон статья вторая).
В теории информации различают три основных подхода к понятию информация – структурный, статистический и семантический.
Структурный подход рассматривает информацию как свойство материи, т.е. любое сообщение, будь то текст на бумаге или шум моря, несет в себе информацию о природе материи. Носителем информации является сообщение, состоящее из символов.
|
|
Согласно этой концепции информация всегда передается в материально-энергетической форме. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать, хранить, перерабатывать. В структурном подходе к информации различают три способа ее измерения: геометрический, комбинаторный и аддитивный.
Геометрической мерой информации может являться, длина, площадь, объем (рис. 1.). Сообщение формируется координатами текущего состояния системы.
Рис. 1.
Комбинаторная мера информации использует количество возможных перестановок символов в сообщении. Количество информации равно количеству возможных сочетаний, перестановок и размещений элементов в сообщении.
Аддитивная мера (мера Хартли) – использует для подсчета количества информации двоичные единицы (бит, от англ. bit – bi nary digi t). Этот принцип измерения информации основан на понятие глубины и длинны числа.
Глубина числа – это количество различных элементов, которые могут быть использованы для записи информации (основание системы счисления).
Длина числа – количество символов использованных для записи числа (разрядность числа).
При заданном и можно посчитать, сколько всего чисел можно записать, используя данный алфавит и количество символов.
.
Для подсчета количества информации используют двоичный логарифм N.
– формула Хартли.
Согласно этой формуле один бит информации соответствует выбору одного из двух возможных состояний (N= 2, т.е. q= 2, n=1). В вычислительной технике в качестве таких состояний выступает наличие или отсутствие заряда в транзисторе.
|
|
Статистический подход является количественно-информационным и представляет информацию как меру неопределенности (энтропию) события, т.е. информация – это снятая неопределенность.
Данный метод называется статистическим, поскольку рассматривает события как возможные исходы некоторого опыта, причем все возможные исходы составляют полную группу событий. При этом каждый опыт несет в себе неопределенность (энтропию), снятием которой получается информация. Эта теория была предложена американским ученым Клодом Шенноном в 1948 г. Им же была предложена формула для подсчета среднего количества информации, получаемого одним опытом.
– формула Шеннона,
где – количество возможных исходов опыта,
– количество разнотипных исходов (результаты которые существенно разнятся),
– количество повторений однотипных исходов,
– вероятность -го исхода.
Можно получить и другую форму записи этой формулы, если посчитать, что :
В случае равенства вероятностей событий формула Шеннона преобразуется в формулу Хартли.
Данный подход к измерению количества информации получил широкое применение в вычислительной технике. Именно на основе статистического представления информации кодируются все сообщения в ЭВМ.
Семантический [1] подход рассматривает информацию как «полезное» знание, которое можно применить в процессе управления, ориентировки и активного действия. «Полезность» знания зависит от его логичности, целесообразности, содержательности и существенности.
Каждый из способов представления информации рассматривает разные ее аспекты и дополняет друг друга. На основе трех представлений можно сделать обобщенное определение информации: " Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний ".
Помимо термина «информация» в информатике встречаются и другие понятия обозначающие знания.
Данные – это информация, представленная в форме, пригодной для ее передачи и обработки с помощью компьютера.
Команда – это элементарная инструкция, предписывающая компьютеру выполнить ту или иную операцию.
Сообщение – совокупность данных, представляющая смысл для пользователя как целое. С помощью сообщения передается информация.
Сигнал – (от лат. signum – знак) – результат взаимодействия элементов объективного мира; регистрируется качественным или количественным изменением этих элементов. С помощью сигналов можно передавать данные