Скачать 94.17 Kb.
|
Измерение информацииПодходы к измерению информацииКак измерить информацию? Часто мы говорим, что, прочитав статью в журнале или просмотрев новости, не получили никакой информации, или наоборот, краткое сообщение может оказаться для нас информативным. В то же время для другого человека та же самая статья может оказаться чрезвычайно иноформативной, а сообщение — нет. Информативными сообщения являются тогда, когда они новы, понятны, своевременны, полезны. Но то, что для одного понятно, для другого — нет. То, что для одного полезно, ново, для другого — нет. В этом проблема определения и измерения информации. При всем многообразии подходов к определению понятия информации, с позиции измерения информации нас будут интересовать два из них: определение К. Шеннона, применяемое в математической теории информации (содержательный подход), и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (алфавитный подход). Содержательный подходСогласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. По Шеннону, информация — уменьшение неопределенности наших знаний. Неопределенность некоторого события — это количество возможных исходов данного события. Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2. Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной. Если сообщение уменьшило неопределеность знаний ровно в два раза, то говорят, что сообщение несет 1 бит информации. 1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза. Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход. Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных (равновозможных) событий. Тогда количество информации i, заключенное в этом сообщении, и число событий N связаны формулой: 2i = N. Эта формула носит название формулы Хартли. Получена она в 1928 г. американским инженером Р. Хартли. Если N равно целой степени двойки (2, 4, 8, 16 и т.д.), то вычисления легко произвести "в уме". В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно (ближайшее целое число, большее). Например, если из 256 одинаковых, но разноцветных шаров наугад выбрали один, то сообщение о том, что выбрали красный шар несет 8 бит информации (28=256). Для угадывания числа (наверняка) в диапазоне от 0 до 100, если разрешается задавать только двоичные вопросы (с ответом "да" или "нет"), нужно задать 7 вопросов, так как объем информации о загаданном числе больше 6 и меньше 7 (26<100>27) Алфавитный подходАлфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке. Мощность алфавита — количество символов алфавита. Двоичный алфавит содержит 2 символа, его мощность равна двум. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов. С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение. Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:
Например, если текстовое сообщение, закодированное по системе ASCII, содержит 100 символов, то его информационный объем составляет 800 бит. Для двоичного сообщения той же длины информационный объем составляет 100 бит. В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено — не намагничено, есть отверстие — нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое — цифрой 1. Единицы измерения информацииКак уже было сказано, основная единица измерения информации — бит. 8 бит составляют 1 байт. Наряду с байтами для измерения количества информации используются более крупные единицы: 1 Кбайт (один килобайт) = 210 байт = 1024 байта; 1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта; 1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта. В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тб) = 1024 Гбайта = 240 байта, 1 Петабайт (Пб) = 1024 Тбайта = 250 байта. Вопросы для самоконтроля
В информатике используются различные подходы к измерению информации: Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными Информация - знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику) Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации. Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон. Количество информации - это мера уменьшения неопределенности. 1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. БИТ- это аименьшая единица измерения информации Единицы измерения информации: 1байт = 8 бит 1Кб (килобайт) = 210 байт = 1024 байт 1Мб (мегабайт) = 210 Кб = 1024 Кб 1Гб (гигабайт) = 210 Мб = 1024 Мб Измерение информации В информатике, как правило, измерению подвергается информация, представленная дискретным сигналом. При этом различают следующие подходы:
Структурный подход к измерению информации В рамках структурного подхода выделяют три меры информации:
Комбинаторная мера Оценивает возможность представления информации при помощи различных комбинаций информационных элементов в заданном объеме. Использует типы комбинаций элементов и соответствующие математические соотношения, которые приводятся в одном из разделов дискретной математики – комбинаторике. Комбинаторная мера может использоваться для оценки информационных возможностей некоторого автомата, который способен генерировать дискретные сигналы (сообщения) в соответствии с определенным правилом комбинаторики. Пусть, например, есть автомат, формирующий двузначные десятичные целые положительные числа (исходное множество информационных элементов {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}). В соответствии с положениями комбинаторики, данный автомат генерирует размещения (различаются числа, например, 34 и 43) из 10 элементов (используются 10 цифр) по 2 (по условию задачи, формируются двузначные числа) с повторениями (очевидно, возможны числа, состоящие из одинаковых цифр, например, 33). Тогда можно оценить, сколько различных сообщений (двузначных чисел) может сформировать автомат, иначе говоря, можно оценить информационную емкость данного устройства: Рп(102) = 102 = 100. Комбинаторная мера используется для определения возможностей кодирующих систем, которые широко используются в информационной технике. Пример 1. Определить емкость ASCII-кода, представленного в двоичной или шестнадцатеричной системе счисления. ASCII-код – это сообщение, которое формируется как размещение с повторениями:
Тогда в соответствии с положениями комбинаторики: I(двоичное) = РП(28) = 28 = 256; I(шестнадцатеричное) = РП(162) = 162 = 256, где I(двоичное), I(шестнадцатеричное) – количества информации, соответственно, для двоичного и шестнадцатеричного представления ASCII-кода. Таким образом, емкость ASCII-кода для двоичного и шестнадцатеричного представления одинакова и равна 256. Следует отметить, что все коды постоянной длины формируются по правилам комбинаторики или их комбинациям. В случае, когда сообщения формируются как размещения с повторениями из элементов алфавита мощности h и известно количество сообщений М, можно определить требуемый объем сообщения (т.е. его длину l) для того, чтобы в этом объеме представить все сообщения: l = log h М . Например, есть 4 сообщения – a, b, c, d. Выполняется двоичное кодирование этих сообщений кодом постоянной длины. Для этого требуются 2 двоичных разряда. В самом деле: l = log 2 4 = 2. Очевидно, комбинаторная мера является развитием геометрической меры, так как помимо длины сообщения учитывает объем исходного алфавита и правила, по которым из его символов строятся сообщения. Особенностью комбинаторной меры является то, что ею измеряется информация не конкретного сообщения, а всего множества сообщений, которые могут быть получены. Единицей измерения информации в комбинаторной мере является число комбинаций информационных элементов. Аддитивная мера Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название – мера Хартли. Хартли впервые ввел специальное обозначение для количества информации – I и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита: I = l log h, где I – количество информации, содержащейся в сообщении; l – длина сообщения; h – мощность исходного алфавита. При исходном алфавите {0,1}; l = 1; h = 2 и основании логарифма, равном 2, имеем I = 1*log22 = 1. Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре. Единицей измерения информации в аддитивной мере является бит. Пример 1. Рассчитать количество информации, которое содержится в шестнадцатеричном и двоичном представлении ASCII-кода для числа 1. В соответствии с таблицей ASCII-кодов имеем: шестнадцатеричное представление числа 1 – 31, двоичное представление числа 1 – 00110001. Тогда по формуле Хартли получаем: для шестнадцатеричного представления I = 2log216 = 8 бит; для двоичного представления I = 8 log22 = 8 бит. Таким образом, разные представления ASCII-кода для одного символа содержат одинаковое количество информации, измеренной аддитивной мерой.100> |
Программа по формированию навыков безопасного поведения на дорогах... Учитель просит измерить силу тока на лампе №2 и №3, измерить напряжение на источнике тока, на лампе №1 | Урок по информатике 8 класс Тема: «Поиск информации в Интернет» Интернет. Сегодня на уроке вы познакомитесь, как искать информацию в Интернет. Как сохранять информацию, полученную из Интернета.... | ||
Измерения параметров транзисторов Как оценить качество транзистора? Какие параметры транзистора надо знать, чтобы предугадать его работу в приемнике, усилителе? Как... | Дуглас Хаббард. Как измерить всё, что угодно Федеральное государственное автономное образовательное учреждение высшего профессионального образования | ||
Программа по формированию навыков безопасного поведения на дорогах... Мы с вами говорили, что основным понятием в информатике является “информация”. А можно ли измерить количество информации и как это... | Рабочая программа составлена на основе примерной программы «Информатика и икт» Амостоятельно и в совместной деятельности: фиксировать информацию об окружающем мире; искать, анализировать, критически оценивать,... | ||
План урока: Постановка цели урока Чтобы правильно ориентироваться в мире, он запоминает полученные сведения (хранит информацию). В процессе достижения каких-либо целей... | Учитель физики В наши дни информацию рассматривают как источник ресурсов наравне с трудом и капиталом, а информационные системы и технологии – как... | ||
Исследовательская работа по дисциплине «Математика» по теме: «Время. Остановить нельзя измерить» Бузмакова Светлана Владимировна учитель информатики высшей квалификационной категории | Условия конкурса журнала «я леонардо» Ваша задача – решить кейс (подробную информацию о том, как это делается, ищи на сайте changellenge spb ru). Участвовать можно как... | ||
Реферат История криптографии Для засекречивания и расшифровки данных криптография зачастую использует ключи – секретную информацию, позволяющую шифровать/дешифровать... | Как искать в интернете? Интернет предоставил нам лёгкий и быстрый доступ к большому количеству информационных материалов, возможность как читать, сохранять,... | ||
Всех форм обучения Умение определять в тексте различные виды информации (предметно-логическую, побудительную, оценочную), отличать главную информацию... | Урок 41. Тема: Сложные и сложносокращённые слова, образование и правописание М/п: извлекать информацию, представленную в разных формах, преобразовывать информацию из одной формы в другую, сравнивать, классифицировать,... | ||
Конспект по теме «Ветер» Цели и задачи урока Познакомить учащихся с причинами образования ветра, приборами, позволяющим измерить направление и скорость ветра | Отражательный клистрон Цель работы: изучить устройство и принцип действия отражательного клистрона, проанализировать физические процессы, происходящие в... |