Синтаксические свойства информации - Информация как отраженное разнообразие

Синтаксическая мера информации

Как уже отмечалось, понятие информации можно рассматривать при различных ограничениях, накладываемых на ее свойства, то есть при различных уровнях рассмотрения.

В основном выделяют три уровня — синтаксический, семантический и прагматический. Соответственно на каждом из них для определения количества информации применяют различные оценки. На синтаксическом уровне для оценки количества информации используют вероятностные методы, которые принимают во внимание только вероятностные свойства информации и не учитывают другие смысловое содержание, полезность, актуальность и т. Разработанные в середине XXв.

Такой подход, называемый также вероятностным, постулирует принцип: При этом сообщения содержат информацию о каких-либо событиях, которые могут реализоваться с различными вероятностями. Формулу для определения количества информации для событий с различными вероятностями и получаемых от дискретного источника информации предложил американский ученый К. Согласно этой формуле количество информации может быть определено следующим образом:. Определяемое с помощью формулы 2. Поскольку вероятность отдельных событий меньше единицы, то соответственно выражение log 2 ,- является отрицательной величиной и для получения положительного значения количества информации в формуле 2.

Если вероятность появления отдельных событий одинаковая и они образуют полную группу событий, т. Применение логарифмов в формулах 2. Для простоты рассуждений воспользуемся соотношением 2. Будем последовательно присваивать аргументу N значения, выбираемые, например, из ряда чисел: Чтобы определить, какое событие из N равновероятных событий произошло, для каждого числа ряда необходимо последовательно производить операции выбора из двух возможных событий.

Таким образом, получим следующий ряд чисел: Последовательность значений чисел, которые принимает аргумент N , представляет собой ряд, известный в математике как ряд чисел, образующих геометрическую прогрессию, а последовательность значений чисел, которые принимает функция I , будет являться рядом, образующим арифметическую прогрессию.

Таким образом, логарифм в формулах 2. Для количественного определения оценки любой физической величины необходимо определить единицу измерения, которая в теории измерений носит название меры.

Информация

Кодирование производится с помощью специальных алфавитов знаковых систем. В информатике, изучающей процессы получения, обработки, передачи и хранения информации с помощью вычислительных компьютерных систем, в основном используется двоичное кодирование, при котором используется знаковая система, состоящая из двух символов 0 и 1. По этой причине в формулах 2. Исходя из вероятностного подхода к определению количества информации эти два символа двоичной знаковой системы можно рассматривать как два различных возможных события, поэтому за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза до получения событий их вероятность равна 0,5, после получения — 1, неопределенность уменьшается соответственно: Такая единица измерения информации называется битом от англ.

Таким образом, в качестве меры для оценки количества информации на синтаксическом уровне, при условии двоичного кодирования, принят один бит. Следующей по величине единицей измерения количества информации является байт, представляющий собой последовательность, составленную из восьми бит, т. Выбор этот объясняется тем, что компьютер в основном оперирует числами не в десятичной, а в двоичной системе счисления.

Для устранения этой некорректности международная организация International Electrotechnical Commission , занимающаяся созданием стандартов для отрасли электронных технологий, утвердила ряд новых приставок для единиц измерения количества информации: Однако пока используются старые обозначения единиц измерения количества информации, и требуется время, чтобы новые названия начали широко применяться.

Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле 2.

При равновероятном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой 2. Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входит в этот алфавит.

Количество знаков, входящих в алфавит, называется мощностью алфавита. Количество информации информационный объем , содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков символов , определяется с помощью формулы:.

Нужна качественная работа по этой теме? Все права принадлежат авторам этих материалов.