Подходы к измерению информации

Понятие информации — одно из фундаментальных в современной науке. Вместе с такими понятиями, как материя, пространство, энергия и время, он составляет основу современного образа мира. Понятие «информация» является основополагающим при изучении курса информатики и отражается практически во всех темах изучаемых направлений.

Решая различные задачи, человек вынужден использовать информацию об окружающем мире. И чем больше человек изучил те или иные явления всесторонне и подробно, тем легче иногда найти ответ на поставленный вопрос.

Цель данной работы, Задачи курсовой работы:

  • изучить литературу и выделить основные подходы к измерению информации,
  • изучить единицы измерения информации и соотношения между ними,
  • рассмотреть различные примеры на тему.

1. Подходы к измерению информации

Современная наука о свойствах информации и законах информационных процессов называется теорией информации. Содержание понятия «информация» можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Хартли и Шеннона: первый из них основан на теории множеств и комбинаторике, а второй — на теории множеств и комбинаторике теория вероятности.

Информацию можно понимать и интерпретировать в разных проблемах, предметных областях по-разному. Следовательно, существуют разные подходы к определению измерения информации и разные способы введения меры количества информации.

Количество информации — числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если мы рассматриваем систему, которая может принимать одно из n возможных состояний, то актуальной задачей является оценка этого выбора, результата. Такой оценкой может стать мера информации(события).

Мера — непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равнасуммемер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

2. Алфавитный (объемный) подход

10 стр., 4551 слов

Единицы измерения информации

... определению К. Шеннона, информация -- это снятая неопределенность. 1. Подходы к измерению информации При всем многообразии подходов к определению понятия информации, с позиций измерения информации нас интересуют два ... менее, они хорошо согласуются при выборе единиц измерения. 2. Единицы измерения информации Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И ...

Алфавитный подход основан на том, что любое сообщение можно закодировать, используя конечную последовательность символов из некоторого алфавита.

Алфавит — это упорядоченный набор символов, используемый для кодирования сообщений на определенном языке.

Мощность алфавита — количество символов алфавита.

Двоичный алфавит содержит 2 символа, его мощность равна двум.

Сообщения, написанные с использованием символов ASCII, используют 256-символьный алфавит. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

С точки зрения информационных технологий, носители информации — это все последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.

Информация трактуется по-разному, например, как:

  • o любая сущность, которая вызывает изменения в некоторой информационно-логической модели системы (математика, системный анализ);
  • o сообщения, полученные системой от внешнего мира в процессе адаптивного управления, приспособления (теория управления, кибернетика);
  • o отрицание энтропии, отражение меры хаоса в системе (термодинамика);
  • o связи, устраняющие неопределённость в системе (теория информации);
  • o вероятность выбора в системе (теория вероятностей);
  • o отражение разнообразия в системе (физиология, биокибернетика);
  • o отражение материи, атрибут сознания, “интеллекта” системы (философия).

Если мы отвлечемся от конкретного семантического содержания информации и рассмотрим информационные сообщения как последовательность символов, сигналов, то они могут быть представлены в битах и ​​измерены в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и ​​петабайтах.

N = 2b формула, связывающая между собой информационный вес каждого символа, выраженный в битах (b), и мощность алфавита (N):

Пример 1. Алфавит содержит 32 буквы. Какое количество информации несет одна буква?

Дано: Мощность алфавита N=32

Какое количество информации несет одна буква?

Решение: 32 = 2 5 , значит вес одного символа b = 5 бит

Ответ: одна буква несет 5 бит информации.

Пример 2. Сообщение, написанное буквами 16-значного алфавита, содержит 10 символов. Какой объем информации в битах оно несет?

Дано: Мощность алфавита N=16

Текст состоит из 10 символов

Определить объем информации в битах.

Решение: 1. 16 = 2 4 , значит вес одного символа b = 4 бита.

2. Всего символов 10, значит объем информации 10 * 4 = 40 бит.

Ответ: сообщение несет 40 бит информации (8 байт).

Пример 3. Информационное сообщение объемом 300 бит содержит 100 символов. Какова мощность алфавита?

Дано: Объем сообщения = 300 бит текст состоит из 100 символов.

Какова мощность алфавита?

7 стр., 3256 слов

Кодирование информации

... используются для кодирования информации. Код — это набор символов, которым приписывается определенный смысл. Код — это набор символов, содержащий конечное количество символов: буквы алфавита, числа, знаки препинания, знаки математических операций и др. Кодирование, Кодирование информации, Кодирование информации, Шифрование ...

Решение: 1. Определим вес одного символа: 300 / 100 = 3 бита.

2. Мощность алфавита определяем по формуле: 2 3 = 8.

Ответ: мощность алфавита N=8.

3. Энтропийный (вероятностный) подход

Этот подход принят в теории информации и кодирования. Этот метод измерения основан на следующей модели: получатель сообщения имеет определенное представление о возможном наступлении определенных событий. Эти идеи, как правило, ненадежны и выражаются вероятностями, с которыми можно ожидать того или иного события. Общая мера неопределенностей называется энтропией. Энтропия характеризуется определенной математической зависимостью от совокупности вероятности того, что эти события произойдут.

Количество информации в сообщении определяется тем, насколько эта мера уменьшилась после получения сообщения: чем больше энтропия системы, тем больше степень ее неопределенности. Входящее сообщение полностью или частично устраняет эту неопределенность; следовательно, количество информации можно измерить по тому, насколько энтропия системы уменьшилась после получения сообщения. Сама энтропия принимается за меру количества информации, но с обратным знаком.

Рассмотрим пример вычисления количества информации сообщения о наступлении одного из N равновероятных событий. Обозначим численную величину, измеряющую неопределённость (энтропию) через H . Величины N и H связаны некоторой функциональной зависимостью:H = f (N ).

Эта функция, очевидно, является возрастающей, неотрицательной и определённой при всех значениях 1, 2, …, N .

Обозначим через H 1 неопределённость, имеющуюся до совершения события. Через H 2 — неопределённость после наступления события. Тогда за I — количество информации об исходе опыта — примем разность неопределённостей до и после опыта: I = H 1H 2 .

В случае, когда получен конкретный результат, имевшаяся неопределённость снята (т.к. H 2 = 0).

Следовательно, количество полученной информации совпадает с начальной энтропией. Неопределенность, содержащаяся в опыте, совпадает с информацией о результате этого опыта.

Определим функцию H = f (N ).

Будем варьировать N (число возможных исходов) и M (число опытов).

Общее число исходов равноX = N M . Каждый исход — некоторый вектор длины M , состоящий из знаков 1, 2, …, N .

Ситуацию с проведением М опытов можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем — однократных опытов. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»): f (N M ) = M f (N ).

Прологарифмируем левую и правую части равенства X = N M . Получим:

ln X = M ln N, M = .

Подставив полученное для M значение в равенство f (N M ) = M f (N ), получим:

f(X) = f(N)

Обозначив положительную константу

получим формулу:

f(x) = K ln X

7 стр., 3035 слов

Проблема измерения информации

... проблемы требовали разработки теории информации как теории передачи сообщений. Одним из основных вопросов был вопрос о возможности измерения информации. По определению А.Д. Урсула – «информация есть отраженное разнообразие». Количество информации ... вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит (bit) – сокращение от английских слов ...

Т.е. получаем: H=KlnX . Обычно принимают K= , тогда H=log 2 N .

формулой Хартли

При вводе количества возникает важный вопрос, что принять за единицу измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (например, бросание монеты).

Такая единица количества информации называется битом .

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N -я часть общей неопределенности опыта: .При этом вероятность i -гo исхода Р i ; равняется, очевидно, 1/N . Таким образом:

H = .

формулой Шеннона

В жизни мы сталкиваемся не только с равновероятными событиями, но и с событиями, которые имеют разную вероятность реализации.

Например:

1. Когда сообщается прогноз погоды, более вероятно, что летом будет дождь, а сообщение о том, что пойдет снег, более вероятно зимой.

2. Если вы лучший ученик в своем классе, у вас больше шансов получить за тест 5, чем плохую оценку.

3. Если в мешке 20 белых и 5 черных шаров, вероятность получить черный шар меньше, чем вероятность вытащить белый.

Как вычислить количество информации в таком сообщении?

Для этого необходимо использовать следующую формулу:

i=log 2 (1/p)

где р — вероятность отдельного события. Это формула Хартли.

Пример 1. В корзине лежат 8 мячей разного цвета (красный, синий, желтый, зеленый, оранжевый, фиолетовый, белый, коричневый).

Какое количество информации несет в себе сообщение о том, что из корзины будет вынут мяч красного цвета?

Решение.

Так как возможности вынуть мяч каждого из возможных цветов равновероятны, то для определения количества информации, содержащегося в сообщении о выпадении мяча красного цвета, воспользуемся формулой i= log 2 N.

Имеем i= log 2 8= 3 бита.

Ответ: 3 бита.

Пример 2. В корзине лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?

Решение:

8+24=32 — общее количество шаров в корзине;

8/32 = 0,25 — вероятность того, что из корзины достали черный шар;

i= log 2 (1/0,25) =log2 4 = 2 бита.

Ответ: 2 бита

Пример 3. В корзине лежат 32 клубка шерсти. Среди них — 4 красных. Сколько информации несет сообщение о том, что достали клубок красной шерсти?

Решение:

4/32 = 1/8 — вероятность того, что из корзины достали клубок красной шерсти;

i= log 2 8 = 3 бита.

Ответ: 3 бита

Пример 4. В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в коробке?

9 стр., 4175 слов

Понятие и измерение информации

... должна обладать следующими свойствами: функциональностью связанностью маскировкой 1.2 Измерение информации Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем ... подходы к определению информации:, Информация, Информация, Знания делят на две группы: 1. Декларативные - от слова декларация (утверждения, сообщения) начинаются со слов ...

Решение:

Пусть в коробке было х белых карандашей.

Вероятность того, что достали белый карандаш, равна х/64.

Количество информации сообщения о том, что достали белый шар, равно

i= log 2 (64/x) бит, что по условию задачи составляет 4 бита, т.е. имеет место уравнение: log2 (64/x)=4, т.е. 64/x=2 4 , 64/x=16, x=4 , значит в коробке было 4 белых карандаша.

Ответ: 4 карандаша

4. Содержательный подход

По словам Шеннона, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая полностью устраняет или снижает неопределенность ситуации.

По Шеннону, информация — уменьшение неопределенности наших знаний.

Неопределенность события — это количество возможных результатов данного события.

Так, например, если карта случайным образом выбирается из колоды карт, неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если сообщение уменьшило неопределенность знания ровно в два раза, то говорят, что сообщение несет 1 бит информации.

1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

N = 2 i — формула для решения задач на содержательный подход к измерению информации.

N — количество возможных событий

i — количество информации

Пример 1. В коробке лежат 8 разноцветных карандашей. Какое количество информации содержится в сообщении, что достали зелёный карандаш?

N = 8 N = 2 i

i — ? 8 = 2 i

i = 3

Ответ: сообщение содержит 3 бита информации.

Пример 2. Сообщение о том, что ваш друг живёт на 5 этаже, несёт 4 бита информации. Сколько этажей в доме?

i = 4 N = 2 i

N — ? N = 2 4 N = 16

Ответ: в доме 16 этажей.

5. Алгоритмический подход

Отличный от взглядов Хартли, Шеннона, Винера и Бриллюэна подход к определению понятия «количество информации», был предложен в 1965 году академиком А.Н. Колмогоровым, который он назвал алгоритмическим.

Исходя из того, что «по существу наиболее содержательным является представление о количестве информации «в чем-либо» ( Х ) и «о чем-либо» (Y )» , А.Н. Колмогоров предложил использовать теорию алгоритмов для оценки информации в одном конечном объекте относительно другого конечного объекта. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой.

Решение задачи определения количества информации в алгоритмическом подходе имеет общий вид и схематично представлено следующим образом.

«Относительной сложностью» объекта Y при заданном Х будем считать минимальную длину L(P) «программы» Р получения Y из Х . Сформулированное так определение зависит от «метода программирования». Метод программирования есть не что иное, как функция ц(P,X)=Y , ставящая в соответствие программе Р и объекту Х объект Y » .

11 стр., 5001 слов

Хранение и поиск информации

... виду и форме носителя информации (рис. ). Рис. 2, Виды и формы носителя информации Документ как сообщение характеризуется четырьмя параметрами [19]: (габариты)', 2) информационным объемом (длина записи); (количество переданной информации); (количество полученной информации). ...

Так как каждый из объектов может быть бесконечно сложным, то доказывается теорема, согласно которой относительной сложности K ц (Y|X) объекта Y , при заданном методе программирования, может быть поставлена в соответствие иная относительная сложность, полученная при другом методе программирования A(P,X) , такая, что выполняется неравенство:

K A (Y|X)?K ц (Y|X)+C ц ,

где C ц — некоторая постоянная программирования, не зависящая от X и Y .

Учитывая, что при любых Х и Y относительная сложность K A (Y|X) является конечной величиной, а K A (Y)=K A (Y|1) можно считать просто сложностью объекта Y , А.Н. Колмогоров для оценки алгоритмического количества информации l A (X:Y) в объекте X относительно объекта Y предложил использовать формулу:

  • l A (X:Y) = K A (Y)K A (Y|X) . (1)

причем K A (X|X)?0 и, соответственно, l A (X:X)? K A (X) .

Алгоритмическая информация (1) может принимать как положительные, так и отрицательные значения. В связи с этим А.Н. Колмогоров делает два замечания. Во-первых, » l A (X:Y) не меньше некоторой отрицательной константы C , зависящей лишь от условностей избранного метода программирования» . Во-вторых, «вся теория рассчитана на применение к большим количествам информации, по сравнению с которыми |C| будет пренебрежимо мал».

Алгоритмический подход к измерению количества информации по ряду объективных причин не нашел широкого практического применения. Во-первых, как писал сам А.Н. Колмогорова, «существует очевидная трудность в том, как это формализовать: то, что просто описывается на одном языке, может не иметь простого описания на другом, и неясно, какой способ описания выбрать» . То есть алгоритмическая оценка информации зависит от выбранного метода программирования, а этот выбор, в свою очередь, на самом деле всегда субъективен. Во-вторых, практическое использование формулы (1) возможно лишь применительно к весьма простым объектам, имеющим математическое описание, в то время как отсутствие последнего является характерной и обязательной чертой сложных объектов. Кроме того, само понятие «сложность» относительно и зависит от уровня рассмотрения объектов. И, наконец, в-третьих, в соответствии с теоремой Геделя о неполноте формальных систем, нельзя доказать, что минимальная длина программы L(P) преобразования X в Y , составленная на каком-либо языке программирования, действительно является объективно минимальной .

6 стр., 2751 слов

Хранение информации

... ячейке компьютер находит в ней байт данных. Данные в оперативной памяти хранятся байтами. Количество байтов которые можно сохранить в оперативной ... хороши для обработки информации, но для длительного хранения данных они не годятся — здесь нужны другие способы. Когда человеку надо ... не замечаем, как каждую секунду несколько раз обновляются мегабайты памяти, но стоит только на мгновение отключить питание ...

В своих комментариях относительно алгоритмического подхода А.Н. Колмогоров писал, что он «основан на применении теории алгоритмов для определения концепции энтропии или сложности конечного объекта и концепции информации в одном конечном объекте над другим» . В соответствии с этим, переходя к рассмотрению алгоритмического подхода с точки зрения количественного определения негэнтропии отражения, прежде всего следует отметить следующее. — В рассматриваемой нами ситуации каждый из объектов может быть закодирован с помощью двоичного языка, символами которого являются «0» и «1». Кодируя каждый элемент символом «1», мы получим для отражаемого и отражающего объектов соответствующий код длины m(A) и m(B) . Естественно, что сложность К каждого из объектов является функцией длины такого кода, которая, в свою очередь, для энтропийной сложности представляет собой логарифм числа элементов конечного множества , то есть:

K(A)=log 2 m(A), K(B)=log 2 m(B) (2)

|m(A) — m(B)|

K(A|B)=K(B|A)=log

Подставляя выражения (2) и (3) в формулу (1), получаем, что алгоритмическое количество информации, которое содержит отражающий объект B относительно отражаемого объекта A , равно:

l(B:A)=K(A)-K(A|B)=log

m(B)>2m(A)

6. Прагматический подход

Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и эта информация поддается количественной оценке.

Подход Хартли основан на фундаментальных основах теории множеств, по существу комбинаторных, а также на нескольких интуитивно понятных и довольно очевидных предположениях.

Если элементов много и один из них выбран, то передается или генерируется определенный объем информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора он становится известен. необходимо найти тип функции, которая связывает количество информации, полученной при выборе определенного элемента из набора, с количеством элементов в этом наборе, то есть с его мощностью. измерение алгоритмический прагматический байт

Если набор элементов, из которых производится выбор, состоит из одного элемента, то ясно, что его выбор предопределен, то есть нет неопределенности выбора — нет количества нулевой информации.

Если набор состоит из двух элементов, неопределенность выбора минимальна. В этом случае минимально и количество информации.

Чем больше элементов в наборе, тем больше неопределенность выбора, тем больше информации.

Количество этих чисел (элементов) в множестве равно: N=2i

Из этих очевидных соображений следует первое требование: информация является монотонной функцией мощности исходного множества.

Выбор одного числа дает нам следующее количество информации: i=Log 2 (N)

Следовательно, количество информации, содержащейся в двоичном числе, равно количеству двоичных цифр в этом числе.

Это выражение является формулой Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем так же должно возрасти в два раза, не смотря на то, что количество чисел в множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), то есть если N2=(N1)2, то I2=2*I1,

8 стр., 3880 слов

Обработка и хранение информации

... сообщения (информационная емкость сообщения) – количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.). 1 килобайт (Кбайт) = 210 байт = 1024 байт, 1 мегабайт (Мбайт) = 210 Кбайт ...

F(N1*N1)=F(N1)+F(N1).

Это невозможно, если количество информации выражается линейной функцией количества элементов в наборе. Но известна функция, обладающая именно таким свойством: это Log:

Log 2 (N2)=Log2 (N1)2=2*Log2 (N1)

Это второе требование называется требованием аддитивности.

Следовательно, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к своей оценке на основе эвристических соображений, подобных только что упомянутым, но теперь было строго продемонстрировано, что логарифмическая мера количества информации однозначно следует из этих двух условий, которые он постулировал.

Пример. Имеются 192 монеты. Известно, что одна из них фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить её. Если положить на весы разное количество монет , то получим три независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание обеспечивает количество информации I = log23, следовательно, для определения фальшивой монеты необходимо провести не менее k взвешиваний, где наименьшее k удовлетворяет условию log23k log2192. Отсюда, k 5или, k=4 (или k=5 — если считать за одно взвешивание и последнее, очевидное для определения монеты).

Итак, необходимо сделать не менее пять взвешиваний (достаточно 5).

Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области наиболее тесно связаны с семиотикой — теорией знаковых систем. Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками Семиотика исследует знаки как особый вид носителей информации. При этом знаком является условное изображение элемента сообщения, словом — совокупность знаков, имеющих смысловое значение, языком — словарь и правила пользования им. Поэтому при обсуждении количества, содержания и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа структур знаков.

В качестве знаковых систем используются естественные и искусственные языки, включая языки информации и программирования, различные сигнальные системы, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации).

Примером могут служить живые организмы, машины с определенными свойствами.

Рассматривая системы знаков, можно выделить три основных аспекта их изучения: синтаксический, семантический и прагматический.

Синтактика изучает синтаксис знаковых структур, т.е. способы сочетаний знаков, правила образования этих сочетаний и их преобразований безотносительно к их значениям. В этой связи следует отметить, что методы определения количества ранее рассмотренной информации можно проследить до синтаксических методов.

Семантика изучает знаковые системы как средства выражения смысла, определенного содержания, т.е. правила интерпретации знаков и их сочетаний, смысловую сторону языка.

12 стр., 5726 слов

Передача,преобразование,хранение и использование информации в технике

... используются для контроля правильности сообщения при получении. Компьютер - это самое популярное средство для обработки, хранения и передачи информации и по сей день, но так как в наши дни информации ... изначально создавался как средство обработки информации и только теперь он стал выполнять множество других функций: хранение, преобразование, создание и обмен информацией. Но прежде чем принять ...

Прагматика рассматривает отношения между системами знаков и их пользователями или получателями-интерпретаторами сообщений. Иными словами, к прагматике относится изучение практической полезности знаков, слов и, следовательно, сообщений, т.е. потребительской стороны языка.

Основная идея семантической концепции информации заключается в возможности измерения содержания (предметного значения) суждений. Но содержание всегда связано с формой, поэтому синтаксические и семантические свойства информации связаны, хотя и различны. Получается, что содержание все-таки можно измерить через форму, т.е. семантические свойства информации выразить через синтаксические. Таким образом, поиск семантики основывался на концепции информации как уменьшения или устранения неопределенности.

8. Первичные единицы

Количество информации можно представить как логарифм количества состояний.

Наименьшее целое число, логарифм которого положителен — 2. Соответствующая единица, бит, является основой для вычисления информации в цифровых технологиях.

Единица, соответствующая числу 3 (трит) равна log 2 3?1.585 бита, числу 10 (хартли) — log2 10?3.322 бита.

Такая единица как нат (nat), соответствующая натуральному логарифму применяется в вычислительной технике в инженерных и научных расчётах. Основание натуральных логарифмов не является целым числом.

В проводной технике связи (телеграф и телефон) и радио исторически впервые единица информации получила обозначение бод.

9. Единицы, производные от бита

Целые числа битов соответствуют количеству состояний, равных степеням двойки.

Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре.

Что такое «байт»?

Байт (англ. byte) — единица хранения и обработки цифровой информации. В настольных вычислительных системах байт считается равным восьми битам, в этом случае он может принимать одно из 256 (28) различных значений. Следует понимать, что количество битов в байте не является уникальным значением и может варьироваться в широком диапазоне. Так, в первых компьютерах размер байта был равен 6 битам. В суперкомпьютерах из-за используемой адресации один байт содержит 32 бита. Для того, чтобы подчеркнуть, что имеется в виду восьмибитный байт, а также во избежание широко распространенного заблуждения, что в одном байте исключительно восемь бит, в описании сетевых протоколов используется термин «октет» (лат. octet).

Название «байт» (слово byte представляет собой сокращение словосочетания BinarY TErm — «двоичный терм») было впервые использовано в 1956 году В. Бухгольцем (англ. Werner Buchholz) при проектировании первого суперкомпьютера IBM 7030 (англ.) для пучка одновременно передаваемых в устройствах ввода-вывода шести битов. Позже, в рамках того же проекта, байт был расширен до восьми бит.

Октет. Октет в информатике — 8 бит. В русском языке октет обычно называют байтом.

Слово «октет» часто используется при описании сетевых протоколов, поскольку они предназначены для связи между компьютерами, которые не обязательно имеют одну и ту же платформу. В отличие от байта, который (в широком смысле) может быть равен 10, 12 и т. п. битам, октет всегда равен 8 битам.

Чтобы устранить двусмысленность, во французском языке слово «октет» используется почти везде, где слово «байт» используется в русском или английском языках».

Такие величины как машинное слово и т. п., составляющие несколько байт, в качестве единиц измерения почти никогда не используются.

Килобайт (кБ, Кбайт, КБ) — единица измерения количества информации, равная в зависимости от контекста 1000 или 1024 (2??) стандартным (8-битным) байтам. Он используется для обозначения объема памяти в различных электронных устройствах.

1 килобайт (КБ) = 8 килобит (Кб)

Название килобайт часто используется для 1024 байтов, но формально оно неверно, поскольку префикс килобайт традиционно означает умножение на 1000, а не на 1024. Согласно предложению МЭК (Международной электротехнической комиссии), формально правильной (хотя и относительно редко используемой) для 2?? является двоичная приставка киби-.

Исторически сложилось, что со словом «байт» несколько некорректно (вместо 1000 = 10? принято 1024 = 2??) использовали и продолжают использовать приставки СИ: 1 Кбайт = 1024 байт, 1 Мбайт = 1024 Кбайт, 1 Гбайт = 1024 Мбайт и т. д. При этом обозначение Кбайт начинают с прописной буквы в отличие от строчной буквы «к» для обозначения множителя 10?.

Мегабайт (Мбайт, М, МБ) — единица измерения количества информации, равная, в зависимости от контекста, 1 000 000 или 1 048 576 стандартным (8-битным) байтам. Сокращенное название МБ отличается от Мегабита (Мб) строчной буквой (но на самом деле иногда происходит некоторая путаница в сокращениях).

Он используется для обозначения объема памяти в различных электронных устройствах.

Название «Мегабайт» распространено, но не соответствует ГОСТ 8.417-2002, где приставка мега- означает умножение на 1 000 000, а не 1 048 576. Текущая ситуация используется некоторыми компаниями, производящими жесткие диски, которые, когда они маркируют свои продукты, означают 1000000 байтов меньше мегабайта и 1000000000 байтов меньше гигабайта. Согласно предложению МЭК, для 2 20 предлагается двоичная приставка меби-.

Наиболее оригинальное толкование термина «мегабайт» используется производителями компьютерных CD, DVD и дискет, что означает 1 024 000 байт. Таким образом, дискета, на которой указан объём 1,44 Мбайт, на самом деле вмещает лишь 1440 Кбайт, то есть 1,38 Мбайт в обычном понимании.

В связи с этим получилось, что мегабайт бывает коротким, средним и длинным:

короткий — 1 000 000 байт

средний — 1 024 000 байт

длинный — 1 048 576 байт

По этим, а также по ряду других причин, одинаково маркированные носители информации могут иметь различную емкость в байтах.

На IT-сленге мегабайт ещё называют: метр и мег. В 90-е годы XX века, когда мегабайт был ещё достаточно большой единицей измерения, а основной единицей передачи через Интернет был килобайт, называемый килограммом, мегабайт соответственно назывался тонной.

Единицы «мегабайт» = 1000 килобайт = 1000000 байт и «Мбайт» (мебибайт, mebibyte) = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации.

Современные жёсткие диски имеют объёмы, выражаемые в этих единицах минимум шестизначными числами, поэтому для них применяются гигабайты.

Гигабайт (Гбайт, Г, ГБ) — кратная единица измерения количества информации, равная 109 стандартным (8-битным) байтам или 1 000 000 000 байтам. Он используется для обозначения объема памяти в различных электронных устройствах.

Для 2 30 же следует употреблять двоичную приставку гиби- согласно предложению Международной электротехнической.

На IT-сленге гигабайт ещё называют: гектар и гиг.

Единицы «гигабайт» = 1024 мегабайт = 1024000000 байт и «Гбайт» (гибибайт, gibibyte) = 1024 Мбайт = 2 30 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %.

Итак:

1 Кбайт (один килобайт) = 2 10 байт = 1024 байта;

1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайта = 2 40 байта,

1 Петабайт (Пб) = 1024 Тбайта = 2 50 байта.

Заключение

Понятие «информации» используется во всех без исключения сферах: философии, естественных и гуманитарных науках, биологии, медицине и физиологии, психологии человека и животных, социологии, искусстве, технике и экономике и в повседневной жизни.

Каждый подход к измерению информации старается ухватить ее смысл, ее ценность, ее качество.

Цель данной работы достигнута, мы изучили литературу и выделили основные подходы к измерению информации, изучили единицы измерения информации и соотношения между ними, а также рассмотрели различные примеры.

Список литературы

[Электронный ресурс]//URL: https://drprom.ru/kursovaya/podhodyi-k-ponyatiyu-informatsii-i-izmereniyu-informatsii/

1. А.Н.Голодный «Подходы к измерению количества информации. Мера Хартли» [электронный ресурс]/А.Н.Голодный — Режим доступа: www.coolreferat.com. — Дата обращения: 21 марта 2014г.

2. Информация и информационные процессы [электронный ресурс]/ Режим доступа: www.akak-ich.ru/inf-inf_pr.php#name3. — Дата обращения: 1 апреля 2014.

3. Информатика. Базовый курс. 7-9 классы. И.Г.Семакин, Л.А.Зологова, С.В.Русаков, Л.В.Шестакова. — 2-е изд., испр. и доп. — М.: БИНОМ. Лаборатория знаний, 2004.

4. Разработка Института дистантного образования Российского университета дружбы народов. «Измерение информации» [электронный ресурс]/ Режим доступа: www.ido.rudn.ru/nfpk/inf/inf2.html . — Дата обращения: 21 марта 2014г