Физик стремится делать измерения. Но что можно измерить в неуловимых движущихся образах? Шоу и другие члены группы попытались отделить те особые свойства, которые делали странные аттракторы столь чарующими. Сильная зависимость от начальных условий – стремление близлежащих траекторий отдалиться друг от друга. Именно эта характеристика заставила Лоренца понять, что долгосрочное предсказание погоды невозможно. Но где взять инструменты, чтобы определить степень зависимости? Да и поддается ли измерению непредсказуемость?
Ответ на этот вопрос дала концепция, родившаяся в России, а именно – показатели Ляпунова. Эти величины выражали меру как раз тех топологических характеристик, которые соответствовали понятию непредсказуемости. Показатели Ляпунова некоторой системы давали возможность оценить противоречивые результаты сжатия, растяжения и изгибания в фазовом пространстве аттрактора, позволяя тем самым судить обо всех свойствах системы, которые ведут к устойчивости или неустойчивости. Если значение показателя оказывалось больше нуля, это свидетельствовало о растяжении, при котором близлежащие точки разделялись. Значение меньше нуля указывало на сжатие. Для аттрактора, представлявшего собой неподвижную точку, все показатели Ляпунова были отрицательными, поскольку притяжение было направлено внутрь, к конечному устойчивому состоянию. Аттрактор в форме периодической орбиты характеризовался одним нулевым показателем, а все другие были отрицательными. Странный аттрактор, как выяснилось, должен был обладать по крайней мере одним положительным показателем Ляпунова.
К досаде молодых ученых, оказалось, что они не создали ничего нового, а всего лишь развили готовую идею настолько, насколько было возможно с точки зрения практики, научившись измерять показатели Ляпунова и соотносить их с другими важными характеристиками. Используя компьютерную анимацию, они строили серии движущихся картин, иллюстрировавших биения порядка и хаоса в динамических системах. Проделанный ими анализ ясно показывал, каким образом некоторые системы, будучи неупорядоченными в одном направлении, могут оставаться вполне определенными и устойчивыми в другом. Один из таких своеобразных фильмов демонстрировал, что происходит с крошечным кластером соседствующих точек на странном аттракторе – олицетворением начальных условий – по мере развития системы во времени. Кластер начинал «распыляться», теряя фокус, превращался в точку, затем – в маленький шарик, который у некоторых типов систем быстро распространялся по всему аттрактору. Такие аттракторы представляли интерес при изучении перемешивания. У других аттракторов распространение шло лишь в определенных направлениях: шарик превращался в ленту, хаотичную по одной оси и упорядоченную по другой. Создавалось впечатление, будто в системе уживаются упорядоченный и хаотический импульсы – и они обособленны. В то время как один импульс приводил к случайности и непредсказуемости, другой работал словно точнейшие часы. И оба могли быть определены и измерены.
Хаотическое перемешивание. Одна капля перемешивается быстро, другая, расположенная чуть ближе к центру, почти вовсе не перемешивается. В экспериментах Джулио Оттино и других ученых с реальными жидкостями процесс перемешивания – повсеместно встречающийся как в природе, так и в промышленности, но при этом все еще слабо изученный – оказался очень тесно связан с математикой хаоса. Поведение жидкостей обнаруживало процессы растяжения и складывания, которые возвращали ученых к подкове Смейла.
Наибольший вклад исследований, проведенных в Санта-Крузе, в науку о хаосе оказался связан с разделом математики, в котором присутствует изрядная доля философии, – с теорией информации
[326]. Эта теория была создана в конце 1940-х годов Клодом Шенноном, американским инженером, трудившимся в компании BellTelephoneLaboratories. Он назвал свою работу «Математическая теория коммуникации», но, поскольку речь в ней шла об особом понятии, называемом информацией, за новой дисциплиной закрепилось наименование «теория информации». То был продукт века электроники. Линии связи и радиопередачи несли в себе нечто определенное, в недалеком будущем компьютерам предстояло хранить это «нечто» на перфокартах или магнитных цилиндрах, и все же оно не являлось знаниями и само по себе не обладало смыслом. Основными единицами этого загадочного предмета служили не идеи, не понятия и даже не всегда слова или числа. Независимо от того, нес ли он в себе смысл или бессмыслицу, инженеры и математики могли его измерять, пересылать по линиям передач и проверять такие передачи на точность. Слово «информация» было таким же словом, как и все остальные, но люди должны были запомнить, что они используют специальный, свободный от оценочных суждений термин, не связанный привычными коннотациями с фактами, обучением, мудростью, пониманием и просвещением.
Технические средства определили очертания теории. Поскольку информация хранилась в ячейках компьютерной памяти в двоичном представлении – в битах, бит стал основной мерой информации. С технической точки зрения теория информации превратилась в инструмент, который помогал выяснить, каким образом шумы в форме случайных помех препятствуют передаче битов. Теория подсказывала способ определения необходимой пропускной способности коммуникационных каналов, компакт-дисков и прочих продуктов технологии, кодировавшей язык, звуки и изображения. Она предлагала теоретические средства для расчета эффективности различных схем коррекции ошибок, в частности, применения некоторых битов для проверки остальных. Наконец, она исследовала такое важнейшее понятие, как «избыточность». Согласно теории информации Шеннона, обычный язык более чем на 50 % избыточен, то есть содержит звуки или буквы, которые не являются строго необходимыми для передачи сообщения. Знакомая идея, не правда ли? Повседневная коммуникация в мире, где невнятно проговаривают слова и допускают опечатки, существенным образом зависит от избыточности. Известная всем реклама курсов стенографии «если в мжт прчть здс сбщн» наглядно иллюстрирует выдвинутое утверждение, а теория информации позволяет дать количественную оценку данного феномена. Избыточность являет собой предсказуемое отклонение от случайного. В обычном языке она проявляется в повторяемости значений, которую весьма сложно измерить – мера ее зависит от общих для людей знаний о собственном языке и мире. Именно элемент избыточности помогает людям решать кроссворды или вставлять пропущенное слово, если оно начинается, скажем, на букву а. Есть и другие типы избыточности, больше пригодные для численных измерений. Согласно статистическим данным, вероятность того, что взятой наугад буквой английского языка окажется буква е, гораздо выше 1/26
[327]. К тому же не стоит рассматривать буквы как изолированные единицы. К примеру, зная, что в английском тексте есть буква t, можно предположить, что за ней следует буква h или о, а зная две буквы, можно предсказать следующую с еще большей точностью. Частотность употребления комбинаций из двух или трех букв восходит к пониманию характерных особенностей того или иного языка. Компьютер, руководствуясь одними лишь относительными вероятностями возможных трехбуквенных последовательностей, может выдать бессмысленный текст, но это будет узнаваемо английская бессмыслица. Криптологи долгое время использовали такой статистический принцип при расшифровке простых кодов. Сейчас инженеры, работающие в сфере коммуникаций, применяют его к технологиям сжатия данных и устранения избыточности, чтобы экономить пространство передающей линии или дискового накопителя. По Шеннону, нужно рассматривать эти модели, руководствуясь следующими соображениями: поток информации в обычном языке менее чем случаен; каждый новый бит частично ограничен предшествующими; таким образом, каждый новый бит несет в себе в некоторой степени меньше содержания, чем мог бы. В такой формулировке просматривается некий парадокс: чем выше доля случайности в потоке данных, тем больше информации будет передано каждым новым битом.