Битва при черной дыре - страница 45
Сколько различных сообщений азбукой Морзе можно составить из 110 точек и/или тире? Всё, что нужно, — это перемножить 110 двоек и получить 2>110, что составляет примерно миллион миллиардов миллиардов миллиардов.
Когда информация кодируется с помощью двух символов — это могут быть точки и тире, единицы и нули или любые другие пары, — такие символы называются битами. Таким образом, в кодировке Морзе фраза «У короля Кнуда была бородавка на подбородке» представляет собой 110-битное сообщение. Если вы собираетесь читать эту книгу дальше, то было бы неплохо запомнить определение технического термина бит. Его значение отличается от того, что использовано во фразе: «За это он не раз бывал бит». Бит — это отдельная минимальная единица информации, подобно точкам или тире в азбуке Морзе.
Зачем нам эти трудности с переводом информации в точки и тире, нули и единицы? Почему не использовать последовательность 0, 1, 2, 3,4, 5, 6, 7, 8, 9, а еще лучше буквы алфавита? Сообщения было бы проще читать, и они занимали бы гораздо меньше места.
Суть в том, что буквы алфавита (как и десять обычных цифр) — это человеческое изобретение, которые мы обучаемся распознавать и хранить в памяти. Но каждая буква или цифра несет сразу много информации за счет весьма тонкой разницы между буквами А и Б или цифрами 5 и 8. Телеграфисты и компьютерщики, которые полагаются только на простейшие математические правила, предпочитают — на самом деле они просто вынуждены — использовать двоичный код из точек и тире или нулей и единиц. Между прочим, когда Карл Саган разрабатывал систему для отправки сообщений негуманоидным цивилизациям, живущим в далеких планетных системах, он использовал двоичный код.
Вернемся к королю Кнуду. Сколько из 110-битных сообщений будут связными? На самом деле я не знаю, возможно, несколько миллиардов. Но все равно это — чрезвычайно малая доля от 2>110. Так что почти наверняка если вы возьмете 110 битов или 37 букв фразы «У короля Кнуда была бородавка на подбородке» и перемешаете их, результатом будет абракадабра. Вот что я получил, когда проделал это с фишками «Эрудита» (выкинув пробелы):
ОРКЫУРООЛО ДАДВЛБОНБРЕ ДКБКАУАОЯНАОКДПА
Допустим, вы перемешивали буквы совсем недолго. Сообщение лишь слегка утратит связность. «У кролоя Кнуда была бородавка а подбородкен». Но постепенно буквы будут превращаться во все менее осмысленную мешанину. Бессмысленных комбинаций так много, что сползание к абракадабре неизбежно.
Теперь я могу дать определение энтропии. Энтропия — это мера числа вариантов, которые соответствуют некоему конкретному распознаваемому критерию. Если критерий состоит в наличии 110 битов, тогда число вариантов составляет 2>110.
Но энтропия — это не само число вариантов, в данном случае — не 2>110. Она равна просто 110—числу раз, сколько надо помножить на себя двойку, чтобы получить количество вариантов. В математике количество перемножений двойки на себя, необходимое для получения определенного числа, называют логарифмом[63]. Так, 110 — это логарифм 2>110. Энтропия, таким образом, — это логарифм числа вариантов.
Из 2>110 возможностей лишь очень небольшая доля представляет собой осмысленные фразы. Допустим, что их миллиард. Чтобы получить миллиард, надо возвести двойку в 30-ю степень. Иными словами, миллиард — это около 2>30, или, что эквивалентно, логарифм миллиарда равен 30. Отсюда следует, что энтропия осмысленного предложения всего лишь около 30, что намного меньше 110. Бессмысленные цепочки символов, очевидно, имеют большую энтропию, чем комбинации, составляющие осмысленные фразы. Неудивительно, что энтропия возрастает, когда буквы перемешиваются.
Предположим, компания BMW подняла управление качеством до такого уровня, что все автомобили, сходящие с конвейера, абсолютно идентичны. Иными словами, допустим, что существует одна, и только одна комбинация атомов, которая может считаться истинным BMW. Какова будет ее энтропия? Ответ — ноль. Когда такой BMW сходит с конвейера, в нем не будет никакой неопределенности. Когда задан единственный уникальный вариант, энтропии вообще нет.