Термин информация имеет множество определений. «Информация» происходит от латинского слова «informatio», что означает разъяснение, изложение, осведомление. Информация всегда представляется в виде сообщения. Сообщение – это форма представления каких-либо сведений в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.д. В широком смысле информация – это сведения, совокупность каких-либо данных, знаний. Наряду с понятие информация в информатике часто употребляется понятие данные. Данные – это результаты наблюдений над объектами и явлениями, которые по каким-то причинам не используются, а только хранятся. Как только данные начинают использовать в каких-либо практических целях, они превращаются в информацию.
Виды информации:
1. По отношению к окружающей среде:
· входная информация;
· выходная информация;
· внутрисистемная информация.
2. По способам восприятия:
· визуальная – 90%;
· аудиальная – 9%;
· тактильная;
· вкусовая; 1%
· обонятельная;
|
|
3. По форме представления для персонального компьютера:
· текстовая информация;
· числовая информация;
· знаковая информация;
· графическая информация;
· звуковая информация;
· анимационная информация;
· комбинированная информация.
Свойства информации:
· полнота – наличие достаточных сведений;
· актуальность – степень соответствия информации текущему моменту времени;
· достоверность – насколько информация соответствует истинному положению дел;
· ценность – насколько информация важна для решения задачи;
· точность – степень близости к действительному состоянию объекта, процесса, явления;
· понятность – выражение информации на языке, понятном тем, кому она предназначена.
Важным вопросом является измерение количества информации. Как понять, сколько информации мы получили в том или ином сообщении? Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.
В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. При этом нельзя объективно оценить количество информации, содержащейся даже в простом сообщении. Поэтому, когда информация рассматривается как новизна сообщения для получателя (бытовой подход), не ставится вопрос об измерении количества информации.
|
|
Информация - это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.
Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости, неполноты знаний.
Информация - это понимание (смысл, представление, интерпретация), возникающее в аппарате мышления человека после получения им данных, взаимоувязанное с предшествующими знаниями и понятиями.
Информация, первоначально - сведения, передаваемые людьми, устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.); с середины 20 века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму.
Информация - содержание сообщения или сигнала, сведения, рассматриваемые в процессе их передачи или восприятия; одна из исходных общенаучных категорий, отражающая структуру материи и способы её познания, несводимая к другим, более простым понятиям.
Существует три основные интерпретации понятия "информация".
Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.
· в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;
· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
· в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;
· в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;
· в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...
Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.
Можно выделить следующие подходы к определению информации:
Традиционный (обыденный) - используется в информатике:
Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).
Вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств.
Вся информация, которую обрабатывает компьютер, представлена двоичным кодом с помощью двух цифр – 0 и 1. Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак). Бит – наименьшая единица измерения объема информации.
|
|
Название | Усл. обозн. | Соотношение |
Байт | Байт | 1 байт = 23 бит = 8 бит |
Килобит | Кбит | 1Кбит = 210 бит = 1024 бит |
КилоБайт | Кб | 1 Кб = 210 байт = 1024 байт |
МегаБайт | Мб | 1 Мб = 210 Кб = 1024 Кб |
ГигаБайт | Гб | 1 Гб = 210 Мб = 1024 Мб |
ТераБайт | Тб | 1 Тб = 210 Гб = 1024 Гб |
Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.
В информатике используются различные подходы к измерению информации: