Единицы измерения количества информации

Национальный исследовательский ядерный университет «МИФИ»

Волгодонский инженерно-технический институт – филиал НИЯУ МИФИ

КРАТКИЙ КУРС ЛЕКЦИЙ

По дисциплине «Информатика» 3 семестр

Для студентов заочной формы обучения

По направлению (специальности)

«Электроэнергетика и электротехника»

Составители:

Драка О.Е.

Волгодонск


Содержание

Раздел «Информация»  
Понятие информации……………………………………………………  
Свойства информации ………………………………………………...  
Единицы измерения информации ……………………………………..  
Раздел «Технические средства реализации информационных процессов»  
Поколения вычислительных машин………………………………….  
Принципы организации информационных процессов в   вычислительных устройствах    
Память ЭВМ. Виды памяти………………………………………..   Устройства ввода   Устройства вывода    
Раздел «Аппаратные средства реализации информационных процессов»  
Состав и назначение основных элементов персонального компьютера  
Внешние (периферийные) устройства компьютера ………….  
Раздел «Программное обеспечение компьютера»  
Понятие программного обеспечения………………………………….   Системное программное обеспечение   Инструментальное программное обеспечение   Прикладное программное обеспечение ……………………………….   Распространение программных продуктов ……………………………   Операционные системы и их основные функции   Классификация операционных систем   Интерфейс пользователя   Раздел «Эволюция и классификация языков программирования»   Языки программирования Основные понятия.   Языки программирования высокого уровня   Системы программирования   Основные этапы разработки программного обеспечения   Виды алгоритмов   Раздел «Базы данных»  
Понятие базы данных………………………………….   Системы управления базами данных (СУБД). Классификация   Режимы работы с базами данных   Понятие данных, их роль в проектировании баз данных.   Основные типы данных   Раздел «Локальные и глобальные сети»   Понятие компьютерной сети   Классификация и основные характеристики компьютерных сетей   Топология сетей   Сетевое оборудование   Структура и принципы работы интернет   Протоколы передачи данных   Поиск информации в интернет   Электронная почта   Телеконференции. Чат. ISQ.   Раздел «Основы защиты информации»  

 

Понятие информационной безопасности

 

Компьютерные вирусы и их классификация

 

Средства защиты от вирусов

 

 


ИНФОРМАЦИЯ

Понятие информации

Слово " информация " произошло от латинского слова informatio – разъяснение, изложение. Оказывается, что точно, строго научно определить понятие "информация", вообще говоря, невозможно. Дело в том, что понятие " информация " относится к так называемым первичным, неопределяемым понятиям. Любая попытка каким-либо образом определить ее сведется к использованию синонимов. Например, часто исполь­зуемыми синонимами для термина " информация " являются термины " сведе­ния " и " данные ". В таких случаях понятие вводится путем его объяснения, ко­торое опирается на интуицию, здравый смысл или бытовое применение термина. Дадим одно из часто используемых пояснений понятия " информация "

Информация – это отображение в человеческом сознании знаний и фак­тов (сведений, данных), используемых или встречающихся в различных областях человеческой деятельности.

Знания и отдельные факты (сведения или данные) передаются с помощью сообщений. В качестве при­меров сообщений можно привести следующие предложения: "Поезд но­мер 10 задерживается до 12 часов 40 минут московского времени"; "Вес выпавшего осадка 15 мг"; "Уровень радиации не превышает 10 микрорентген в час" и т. д.

Любое сообщение всегда материально, то есть, представлено некоторой материальной субстанциейкамнем, глиной, бумагой, магнитной пленкой, различными сигналами (электромагнитными, акустическими и т.д.)

Сообщение — это материальная форма информации.

Информация — это нематериальный смысл, извлекаемый человеком из сообщения.

Соответствие между информацией и сообщением, с помощью которого она пере­дается, не является взаимно однозначным. Одна и та же информация может пе­редаваться с помощью различных сообщений. Например, сообщение о задержке рейса, передаваемое в аэропорту на различных языках, — одна и та же инфор­мация, а сообщения разные. И наоборот, одно и то же сообщение может нести различную информацию вследствие того, что разные получатели информации по-разному воспри­нимают, трактуют, интерпретируют сообщение.

Как правило, сообщения записываются или передаются с помощью некоторой последовательности знаков — букв письменной или звуков разговорной речи, специально подобранных значков (точек и тире, математических символов и т.д.). Набор знаков, которые используются для формирования и пере­дачи сообщений, принято называть алфавитом языка сообщений. Алфавит, обычно, задается прямым перечислением всех входящих в него знаков. Например, набор знаков (цифр) {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} представляет со­бой алфавит, обычно используемый для записи чисел.

Таким образом, решающим фактором для извлечения информации из сообщения является зна­ние языка сообщения или способа его кодирования, то есть совокупности правил интерпретации сообщения, истолкования его смысла. Из множества возможных способов кодированиясообщений наиболее важным для информатики частным случаем является кодирование двоичными наборами знаков, то есть наборами, состоящими всего из двух различных знаков, симво­лов, цифр. Именно к таким наборам относится двоичный код с алфавитом {0, 1}, который применяется при хранении информации в памяти компьютера, в связи с чем его называют еще и машинным кодом.

Отметим, что, несмотря на существенную разницу между понятиями " сообщение " и " инфор­мация ", на практике в устной и письменной речи часто используется термин " информация ", хотя по смыслу следовало бы использовать термин " сообщение ". Поэтому и мы иногда в дальнейшем также говоря об " информации " будем понимать ее материальную форму, т.е. " сообщение ".

Основными операциями, выполняемыми над информацией (или точнее говоря, над со­общениями), являются сбор, передача (обмен), хранение и обработка.

Свойства информации

Как правило, свойства любых рассматриваемых объектов можно разделить на внешние и внутренние свойства.

Внутренние свойства — это свойства, органически присущие объекту. Они обычно "скрыты" от изучающего объект и проявляют себя косвенным образом при взаимодействии данного объекта с другими.

Внешние свойства — это свойства, характеризующие поведение объекта при взаимодействии с другими объектами.

Поясним сказанное на примере. Масса является внутренним свойством вещества (материи). Проявляет же она себя во взаи­модействии или в ходе некоторого процесса. Отсюда появляются такие понятия физики, как гравитационная масса и инерциальная масса, которые можно было бы назвать внешними свойствами вещества.

Подобное разделение свойств можно применить и к информации. Сначала рассмотрим ее внутренние свойства.

Среди внутреннихсвойств информации важнейшими являются объем (количество) информации и ее внутренняя организация, структура. По способу внутренней организации информацию делят на две группы:

1. Данные или простой, логически неупорядоченный набор све­дений.

2. Логически упорядоченные, организованные наборы данных.

Упорядоченность данных достигается наложением на данные некоторой структуры (отсюда часто используемый термин – структура данных).

Во второй группе выделяют особым образом организованную информацию – знания. Знания, в отличие от данных, представляют собой информацию не о каком-то единичном и конкретном факте, а о том, как устроены всефакты определенного типа.

Внутренними свойствами инфор­мации, связанными с процессом ее хранения, являются:

1) Живучесть – способность информации сохра­нять свое качество с течением времени.

2) Уникальность (уникальной называют информацию, храня­щуюся в единственном экземпляре).

Чтобы определить внешние свойства необходимо выявить объекты, с которыми информация может взаимодействовать. Для любой информации можно указать три объекта взаимодействия: источник информации, приемник информации (ее потребитель) и объект или явление, которые данная информация отражает. Поэтому можно выделить три группы внешних свойств, проявляемых по отношению одного из указанных объектов взаимодействия.

Для характеристики качества (степени полезности) информации по отношению к ее потребителю, можно использовать следую­щие свойства информации:

Релевантность — способность информации соответствовать нуждам (запросам) потребителя.

Полнота — свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект и/или процесс.

Своевременность — способность информации соответствовать нуждам потребителя в нужный момент времени.

Достоверность — свойство информации не иметь скрытых ошибок.

Доступность — свойство информации, характеризующее воз­можность ее получения данным потребителем.

Защищенность — свойство, характеризующее невозможность несанкционированного использования или изменения.

Эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Из другой группы внешних свойств информации, проявляемых по отношению к отражаемому объекту или явлению, можно выделить одно наиболее важное свойство – адек­ватность.

Адекватность — свойство информации однозначно соответ­ствовать отображаемому объекту или явлению. Адекватность ока­зывается для потребителя внутренним свойством информации, проявляющем себя через релевантность и достоверность.

 

Единицы измерения количества информации

Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа "бит".

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем

1 байт = 23 бит = 8 бит

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где п = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;
1 Мбайт = 210 Кбайт = 1024 Кбайт;
1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I:

N=2I  

По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло:

N = 24 = 16.

Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно /. Например, в игре "Крестики-нолики" на поле 8x8 перед первым ходом существует 64 возможных события (64 различных варианта расположения "крестика"), тогда уравнение принимает вид:

64 = 2I.

Так как 64 = 26, то получим:

26 = 2I.

Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: