Оценка количества информации

Оценка количества информации

Невозможно объективно (без учета полезности ее для потребителя, владельца, собственника) оценить количество информации. Для обеспечения эффективной защиты информации важно знать количество защищаемой информации.

Однако объективно определить ее невозможно. Например, количество информации, содержащейся в книге, для разных читателей — разное. Даже один и тот же человек в разные периоды своей жизни находит в книге каждый раз что-то новое для себя. Количество информации в голове человека можно косвенно оценить по его действиям, так как для принятия обоснованного решения необходимо больше информации.

Иногда полезность информации связывают с ее качеством. Но понятие «качество» применительно к информации не имеет самостоятельного значения, так как оно поглощается понятием «количество». Действительно, количество информации, например, в фотографии зависит от ее качества. Чем более резкое изображение на фотографии, чем больше в нем полутонов и оттенков цвета, гем больше информации она содержит. Ухудшение качества изображения при копировании, например, видеокассет приводит к снижению количества информации и, как следствие, к уменьшению психологического воздействия фильма на зрителя. Под качеством информации обычно подразумевают качество отображения ее на носителе или ее достоверность (соответствие оригиналу). Качество информации в этом смысле можно достаточно объективно измерить.

Для определения количества информации в теории информации рассматривается так называемый энтропийный подход. В соответствии с ним количество информации оценивается мерой уменьшения у получателя неопределенности (энтропии) выбора или ожидания событий после получения информации. Количество получаемой информации гем больше, чем меньше вероятность события. Такой подход хорошо разработан для определения количества информации в сообщении, передаваемом по каналам связи. Выбор при приеме осуществляется между символами алфавита сообщения. Количество информации в передаваемом по каналам связи сообщении из N символов (без учета связи между символами в сообщении) рассчитывается по известной формуле Шеннона:

Оценка количества информации

где Pi — вероятность появления в сообщении символа i; n — количество символов в алфавите языка.

Как следует из формулы, количество информации, измеряемое в двоичных элементах (в битах, байтах), зависит только от количества и статистики символов, но не зависит от содержания сообщения. Количество информации, определяемое по этой формуле, одинаковое при передаче бессмысленного текста или сообщения о жизненно важных для получателя сведениях, содержащих одинаковые символы. С точки зрения передачи таких сообщений по каналам связи такой подход обоснован, так как затраты на передачу этих сообщений одинаковы. А на что потрачены деньги отправителя сообщения и насколько оно информативно для получателя, — эти вопросы к связи отношения не имеют.

Аналогично, когда при телефонном разговоре ваш собеседник сообщает известные сведения, то количество полученной вами информации мало, хотя разговор может длиться достаточно долго. В таком случае возникает вопрос, что передавалось в этом случае. Очевидно, что осуществлялась передача лишь акустических и электрических сигналов.

Яндекс.Метрика