В каком виде существует информация
Информация может существовать в виде:
текстов,
рисунков,
чертежей,
фотографий;
световых или звуковых сигналов;
радиоволн;
электрических и нервных импульсов;
магнитных записей;
жестов и мимики;
запахов и вкусовых ощущений;
хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т. д.
Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.
Как передается информация
Информация передается в виде сообщений от некоторого источника информации к ее приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением (рис. 1).
Рис. 1.
Пример 1. Сообщение, содержащее информацию о прогнозе погоды, передается приёмнику (телезрителю) от источника - специалиста-метеоролога посредством канала связи - телевизионной передающей аппаратуры и телевизора.
|
|
Пример 2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т. д.) воспринимает информацию из внешнего мира, перерабатывает ее в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т. п., использует в процессе своей жизнедеятельности.
Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.
3. Как измеряется количество информации
Какое количество информации содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Ответы на эти вопросы наука не дает и, по всей вероятности, даст не скоро.
А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод:
В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить ее количество числом, а также сравнить количество информации, содержащейся в различных группах данных.
В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны, или, иначе, уменьшения неопределенности наших знаний об объекте.
|
|
Ниже представлены два подхода такого рода. В них используются математические понятия вероятности и логарифма.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащейся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли:
I = log2N
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644.
Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Приведем другие примеры равновероятных сообщений:
1) при бросании монеты: «выпала решка», «выпал орел»;
2) на странице книги: «количество букв будет числом четным», «количество букв будет числом нечетным».
А теперь определим, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина».
Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач такого рода американский ученый Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе
Формула Шеннона:
I= -[p1Log(p1)+ p1Log(p1)+ p1Log(p1)+ … + p1Log(p1) ]
где pi - вероятность того, что именно i-e сообщение выделено в наборе из N сообщений.
Заметим, что если вероятности p1...,pN равны, то каждая из них равна 1/N и формула Шеннона превращается в формулу Хартли.
Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями.
4. Единицы измерения информации
В качестве единицы информации условились принять один бит (англ. bit - binary digit - двоичная цифра).
Бит в теории информации - количество информации, необходимой для | различения двух равновероятных сообщений. В вычислительной технике J битом называют наименьшую «порцию» памяти, необходимую для хранения одного из двух знаков «О» и «1», используемых для внутримашинного представления данных и команд.
Бит слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам. Именно восемь бит требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28).
Широко используются также еще более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт
1 Мегабайт (Мбайт) — 1024 Кбайт = 220 байт
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт
В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт
За единицу информации можно было бы выбрать количество информации, необходимой для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.
5. Что можно делать с информацией
Информацию можно:
создавать; | принимать; | комбинировать; | хранить; |
передавать; | копировать; | обрабатывать; | искать; |
воспринимать; | формализовать; | делить на части; | измерять; |
использовать; | распространять; | упрощать; | разрушать |
запоминать; | преобразовывать; | Собирать; | и т.д. |
Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.
|
|
6. Свойства информации
Информация обладает следующими свойствами:
· достоверность;
· ценность;
· понятность;
· краткость
· полнота;
· своевременность;
· доступность и т.д.
Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной,так как она обладает свойством устаревать,т. е. перестает отражать истинное положение дел.
Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение и каких-либо видах деятельности человека.
Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.
Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.
Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.
Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.
Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозможных инструкциях.
7. Что такое обработка информации
Обработка информации - получение одних информационных объектов из других путем выполнения некоторых алгоритмов.
|
|
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объема и разнообразия информации.
Средства обработки информации - это всевозможные устройства и системы, созданные человечеством, и в первую очередь компьютер - универсальная машина для обработки информации.
Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.
8. Что такое информационные ресурсы и информационные технологии
Информационные ресурсы - это идеи человечества и указания по реализации этих идей, накопленные в форме, позволяющей их воспроизводство.
Это книги, статьи, патенты, диссертации, научно- исследовательская и опытно-конструкторская документации, технические переводы, данные о передовом производственном опыте и др. Информационные ресурсы (в отличие от всех других видов ресурсов - трудовых, энергетических, минеральных и т. д.) тем быстрее растут, чем больше их расходуют.
Информационные технологии - это совокупность методов и устройств, используемых людьми для обработки информации.
Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счетов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.
Внастоящее время термин информационная технология употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и отчасти бытовую электронику, телевидение и радиовещание. Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.
Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную, задачу.
В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.
9. Что понимают под информатизацией общества
Информатизация общества - организованный социально-экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления, организаций, общественных объединений на основе формирования и использования информационных ресурсов.