Подходы к понятию информации и измерению информации

Термин информация имеет множество определений. «Информация» происходит от латинского слова «informatio», что означает разъяснение, изложение, осведомление. Информация всегда представляется в виде сообщения. Сообщение – это форма представления каких-либо сведений в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.д. В широком смысле информация – это сведения, совокупность каких-либо данных, знаний. Наряду с понятие информация в информатике часто употребляется понятие данные. Данные – это результаты наблюдений над объектами и явлениями, которые по каким-то причинам не используются, а только хранятся. Как только данные начинают использовать в каких-либо практических целях, они превращаются в информацию.

Виды информации:

1. По отношению к окружающей среде:

· входная информация;

· выходная информация;

· внутрисистемная информация.

2. По способам восприятия:

· визуальная – 90%;

· аудиальная – 9%;

· тактильная;

· вкусовая;                 1%

· обонятельная;

3. По форме представления для персонального компьютера:

· текстовая информация;

· числовая информация;

· знаковая информация;

· графическая информация;

· звуковая информация;

· анимационная информация;

· комбинированная информация.

Свойства информации:

· полнота – наличие достаточных сведений;

· актуальность – степень соответствия информации текущему моменту времени;

· достоверность – насколько информация соответствует истинному положению дел;

· ценность – насколько информация важна для решения задачи;

· точность – степень близости к действительному состоянию объекта, процесса, явления;

· понятность – выражение информации на языке, понятном тем, кому она предназначена.

Важным вопросом является измерение количества информации. Как понять, сколько информации мы получили в том или ином сообщении? Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.

В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. При этом нельзя объективно оценить количество информации, содержащейся даже в простом сообщении. Поэтому, когда информация рассматривается как новизна сообщения для получателя (бытовой подход), не ставится вопрос об измерении количества информации.

Информация - это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.

Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости, неполноты знаний.

Информация - это понимание (смысл, представление, интерпретация), возникающее в аппарате мышления человека после получения им данных, взаимоувязанное с предшествующими знаниями и понятиями.

Информация, первоначально - сведения, передаваемые людьми, устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.); с середины 20 века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму.

Информация - содержание сообщения или сигнала, сведения, рассматриваемые в процессе их передачи или восприятия; одна из исходных общенаучных категорий, отражающая структуру материи и способы её познания, несводимая к другим, более простым понятиям.

 Существует три основные интерпретации понятия "информация".
Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.

· в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;

· в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

· в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...

Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.

Можно выделить следующие подходы к определению информации:

Традиционный (обыденный) - используется в информатике:

  Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

Вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств.

Вся информация, которую обрабатывает компьютер, представлена двоичным кодом с помощью двух цифр – 0 и 1. Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак). Бит – наименьшая единица измерения объема информации.

 

Название Усл. обозн. Соотношение
Байт Байт 1 байт = 23 бит = 8 бит
Килобит Кбит 1Кбит = 210 бит = 1024 бит
КилоБайт Кб 1 Кб = 210 байт = 1024 байт
МегаБайт Мб 1 Мб = 210 Кб = 1024 Кб
ГигаБайт Гб 1 Гб = 210 Мб = 1024 Мб
ТераБайт Тб 1 Тб = 210 Гб = 1024 Гб

Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

В информатике используются различные подходы к измерению информации:





Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: