Огромный потенциал для взаимного обогащения существует и у ранее не связанных областей. Скажем, генетика превратила биологию и медицину в информационные науки. Растет объем двустороннего обмена данными между неврологией и наукой о строении мозга с одной стороны, и информатикой и наукой о построении искусственных нейронных сетей — с другой.
В чем‑то скорость прогресса является просто беспрецедентной, а в иных аспектах она уже кажется привычной. Возникают новые области исследований и новые инструменты, с помощью которых они будут изучаться. В воображаемом будущем XXI века два писателя‑фантаста — Ким Стенли Робинсон и Чарльз Стросс — даже дали этой развивающейся научно‑технической революции название «аччелерандо».
Конечно, предсказать, каким именно окажется будущее, невозможно. Но если знать, на что обращать внимание, можно сделать вполне обоснованные предположения.
2. Физические основы будущей технологии
Фрэнк Вильчек
Достижения фундаментальной физики качественно изменили ее взаимоотношения с технологиями. Надежный фундамент позволяет четко видеть как ограничения, так и возможности. Перед нами открываются не только блестящие перспективы, но и опасности.
Фундаментальная физика одновременно сдерживает и развивает технологии. В принципе, это очевидная истина: большая часть технологий воплощена в жизнь в виде машин и структур, которые, будучи физическими объектами, подчиняются законам физики. Однако на протяжении большей части истории почти все области техники были довольно слабо связаны с фундаментальной наукой. Рассмотрим, например, некоторые наиболее яркие моменты использования технологий римлянами — их великолепные дороги, акведуки и Колизей. Согласно книге «De Architectura», написанной в I веке до н. э., технология, на которую опираются эти технические чудеса, основана на опыте, накапливавшемся в течение очень долгих лет. Последний и породил ряд эмпирических правил. Например, найдены подробные инструкции по выбору и подготовке строительных материалов, в некотором роде предвосхищающих современные композиты. При этом не нашлось ничего такого, что можно было бы признать систематизированной наукой — материаловедением. Точно так же центральный элемент римского строительства — арка — представлен в виде шаблона, а не как математически выверенное решение проблемы распределения нагрузки и напряжений. Причем этот шаблон, основанный на сегментах круга, не оптимален.
Сегодня связь между фундаментальной физикой и технологией гораздо более тесная. Примечательно, что современные микроэлектроника и телекоммуникация поддерживают обработку и передачу информации со скоростью, всего несколько десятилетий назад казавшейся совершенно фантастической. Эти технологии, предоставляющие массу интереснейших возможностей, были бы невозможны без глубокого, надежного понимания квантовой теории материи и света (включая радио‑, микро‑ и остальные волны электромагнитного спектра). Без нее невозможны никакие новаторские разработки.
В этом кратком обзоре я намерен исследовать нынешнее состояние фундаментальной физики в той мере, в которой оно актуально для развития технологий, могущих возникнуть в течение последующих 50 лет. Я также рассмотрю будущие направления их развития и открывающиеся возможности.
От тайны к умению
Позвольте мне начать с главного утверждения, которое я буду потом и объяснять, и отстаивать.
Сегодня у нас уже есть точные и полные уравнения, способные лечь в основу ядерной физики, материаловедения, химии и любых важных направлений инженерного дела.
Таким образом, решив соответствующие уравнения, во всех этих областях мы могли бы заменить эксперименты расчетами. Это — качественно новая ситуация в истории человечества, возникшая в XX веке в первую очередь благодаря впечатляющим достижениям в области квантовой механики.
Чтобы получить более ясное представление об этом, следует вернуться в прошлое.
В начале XX века фундаментальная физика еще не могла учесть множество основополагающих и чрезвычайно важных свойств природы. Химики эмпирически пришли к периодической таблице элементов. Они также создали детализированную картину геометрии молекул — в частности, кольцевую структуру бензола и других органических веществ — и успешно использовали ее для разработки новых молекул и реакций. Но известные тогда законы физики не объясняли существование стабильных атомов, не говоря уж об их свойствах или формировании химических связей. Аналогичным образом с законами фундаментальной физики не связывались и основные свойства материалов, такие как электропроводность, прочность и цвет. Ничего не было известно о Солнце как об источнике энергии, а скорость охлаждения светила, рассчитанная лордом Кельвином, была слишком высокой, чтобы соответствовать эволюционной теории Чарлза Дарвина. Открытым оставался вопрос, могли ли основные явления жизни (метаболизм и размножение) и мысли (познание) возникнуть вследствие обычного поведения физической материи, или для этого потребовались дополнительные «жизненно важные» ингредиенты.
За несколько десятилетий все эти проблемы были убедительно решены, для чего понадобилась не прямая атака, а продуманное применение стратегии Исаака Ньютона, носящей название «анализ и синтез» — метода, на который сегодня часто навешивают полупрезрительный ярлык «редукционизм». Согласно этой стратегии, сначала мы добиваемся глубокого понимания свойств и взаимодействия основных элементов (анализ), а затем используем это понимание для математического вычисления свойств более сложных конструкций (синтез).
Оглядываясь назад, в качестве ключевых можно выделить два события на границе начала XX века. Первое — открытие Дж. Дж. Томсоном в 1897 году важного компонента материи — электрона. У него есть отличительные свойства, одинаковые для всех электронов в любом месте и в любое время. В этом отношении они являются архетипическими «элементарными частицами». Поскольку электроны идеально подчиняются простым уравнениям, они и сегодня рассматриваются как элементарные частицы. Их роль в химии и, конечно же, в электронике сложно переоценить.
Другим событием стало открытие Максом Планком в 1900 году неразложимой единицы или кванта действия — постоянной Планка h (технически действие = энергия × время). Ученый использовал эту постоянную в ходе сложной для понимания дискуссии о термодинамике излучения и оперировал ею исключительно в этом контексте. И лишь Альберт Эйнштейн в 1905 году интерпретировал постоянную Планка, чтобы показать: свет движется в виде потока неразрушимых частиц, которые мы сегодня называем фотонами. Фотон — вторая элементарная частица. Важным философским следствием идей Планка — Эйнштейна является облегчение понимания разницы между светом (состоящим из элементарных частиц) и другими видами материи (также состоящими из частиц). Эти идеи выдержали испытание временем. В дальнейшем под словом «материя» я буду подразумевать все ее виды, включая свет.
Следующим значительным шагом стало получение физически обоснованной модели атомов. Это произошло в 1911–1913 годах. Процесс включал в себя как экспериментальные, так и теоретические компоненты. В 1911 году Ханс Гейгер и Эрнест Марсден по предложению Эрнеста Резерфорда изучали отклонение быстро движущихся альфа‑частиц золотой фольгой. Резерфорд изучал неожиданную способность золота вызывать значительные изменения траекторий частиц. Все указывало на то, что весь положительный электрический заряд и почти вся масса атома золота сосредоточены в крошечном ядре, занимающем примерно миллионную долю от миллиардной части объема атома. Резерфорд предположил, что электрические силы связывают электроны с ядром, образуя атом. Но эту правдоподобную картину нельзя было примирить с известными тогда законами физики. Не было известно ничего, что могло бы предотвратить падение электрона на ядро по спирали. В 1913 году Нильс Бор предположил возможность существования лишь очень ограниченного класса орбит, что вопиюще противоречило ньютоновской картине мира. Критерий Бора, определяющий эти орбиты, включал в описание электронов константу Планка, до тех пор применявшуюся только к фотонам.