Размер шрифта
-
+

Седьмое доказательство - стр. 15

Для измерения информации придумана специальная единица – бит. Что это такое? Один бит – это количество информации, устраняющее неопределенность при выборе одной возможности из двух равноценных. По существу, это ответ на элементарный вопрос, допускающий только два ответа – «да» или «нет». Как говаривал Иисус: «да будет слово ваше: да, да; нет, нет; а что сверх этого, то от лукавого» (Матф.5:37).

Очевидно, что чем более сложно организованную систему мы рассматриваем, тем больше число вопросов, которые у нас в относительно нее могут возникнуть, следовательно, тем большее количество информации содержится в этой системе.

Ну что, например, можно рассказать о Хаосе? Только то, что он существует. Но попробуйте описать Космос, состоящий из галактик, метагалактик, звездных систем, планет с лунами, астероидов, комет, «белых карликов», «черных дыр», нейтронных звезд, – и каждый из этих объектов движется по определенным законам и оказывает влияние на другие объекты! Безусловно, Космос (упорядоченное состояние Вселенной) содержит гораздо большее количество информации, чем Хаос.

В теории информации известен закон, гласящий, что количество информации, введенное в какую-либо систему, в результате различных ее преобразований не возрастает. Вследствие наличия помех (шумов) в каналах связи оно может либо уменьшиться, либо, в лучшем случае, остаться неизменным (закон сохранения информации). Здесь идет речь о так называемой абсолютной информации.

Существует также понятие распределенной информации. Если мы вводим одну и ту же информацию в несколько разных систем, то количество распределенной информации будет во столько раз больше количества абсолютной информации, во сколько систем она была введена. Например, если вот эту книгу прочитают 10 человек, то количество распределенной информации станет в 10 раз больше количества абсолютной информации, содержащейся в книге.

Если имеется алфавит из 32 букв, частота появления которых в тексте одинакова (предположим, что это так), то знание одной буквы из алфавита дает 5 битов информации (2>5 = 32). Следовательно, в простейшем случае равенства исходных вероятностей количество информации (I), выраженное в битах, равно двоичному логарифму числа возможных результатов (N):

I = log2 N [5]

Несложно заметить, что эта формула совпадает с формулой Больцмана [4] с точностью до постоянного множителя. Это совпадение не случайно.

Известный физик Л. Бриллюэн установил так называемый негэнтропийный принцип информации, согласно которому введение в систему информации уменьшает энтропию системы.

Страница 15