Книга WTF? Гид по бизнес-моделям будущего, страница 38. Автор книги Тим О’Рейли

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «WTF? Гид по бизнес-моделям будущего»

Cтраница 38

Со временем, когда сети достигают статуса монополии или почти монополии, они вынуждены решать проблему, как больше принести пользы, чем получить: какую сумму вывести из экосистемы и сколько нужно оставить для других игроков, чтобы рынок продолжал процветать.

И Google, и Amazon решительно настроены создавать ценность для одной стороны рынка – пользователей – и этим оправдывают свои действия. Но поскольку они заменяют все больше и больше участников со стороны поставщиков сети, предлагая свои собственные услуги, они рискуют ослабить рынок в целом. В конце концов, кто-то изобрел эти товары и услуги, которые они предлагают, и инвестировал в них. Вот почему антимонопольное законодательство не может использовать в качестве основного показателя только более низкую стоимость для потребителей, игнорируя общий уровень конкуренции на рынке. Более низкая стоимость – это лишь один из результатов конкуренции. Инновационная деятельность иссякает, когда только одна группа участников может позволить себе внедрять инновации или когда существует только одна площадка для продажи новых товаров на рынке. Ментальная карта, используемая регулятивными органами, формирует их решения и, следовательно, будущее.

Также существует системный риск для экономики, когда широкомасштабная веб-платформа начинает конкурировать со своими участниками. В 2008 году незадолго до финансового кризиса я организовал конференцию под названием «Деньги: Техника изучения, какие уроки о будущем Интернета мы можем извлечь из более обширной и более старой сферы сетевой финансовой экономики». Уроки, которые я извлек, меня встревожили.

В своем исследовании 2007 года, предшествовавшем конференции, я привел высказывание Билла Джейнвэя, бывшего вице-председателя частной акционерной компании Warburg Pincus и автора книги «Doing Capitalism in Innovation Economy», начавшего свою карьеру на Уолл-стрит. Он отметил, что компании с Уолл-стрит из посредников превратились в активных игроков, которые «начали торговать самостоятельно, торгуя против своих клиентов, так что теперь прямая инвестиционная деятельность такой фирмы, как Goldman Sachs, мешает росту их инвестиционной деятельности от имени внешних клиентов». События, которые в том же году достигли своего апогея, показали нам, насколько далеко зашли компании с Уолл-стрит в торговле против своих клиентов и, что еще более тревожно, что их торговые операции включали в себя создание сложных инструментов, которые значительно опережали способность их создателей к пониманию их сути или контролю.

Наши политика и экономика все еще не оправились от ущерба.

Централизация против децентрализации

Впервые я осознал уровень напряжения между централизованными и децентрализованными сетями, а также между закрытыми и открытыми платформами, когда я изучал разницу между индустрией персональных компьютеров, в которой в 1980-х и 1990-х годах доминировала компания Microsoft, и развивающимся миром открытого программного обеспечения и Интернета. В основе этих двух миров лежали две конкурирующие архитектуры, две конкурирующие платформы. Одна из них, как «одно кольцо, чтоб править всеми» Толкиена, была инструментом контроля. Другая использовала то, что я называю «партнерской архитектурой», открытой и всеобъемлющей.

На меня оказал сильное влияние дизайн операционной системы Unix, системы, благодаря которой я отточил свое мастерство в начале карьеры и которая разожгла во мне негасимую страсть к компьютерным технологиям. Вместо тесно взаимосвязанной операционной системы, предоставляющей любые возможные функции в одном большом пакете программ, Unix предлагала небольшое ядро (основной код операционной системы), окруженное большим набором узконаправленных инструментов, каждый из которых следовал единым правилам и которые можно было творчески перекомбинировать для выполнения сложных функций. Возможно, потому, что создатель Unix, компания AT&T Bell Labs, была коммуникационной компанией, функциональная совместимость между программами была хорошо налажена.

Как сказано в книге «UNIX – универсальная среда программирования», написанной двумя специалистами по компьютерным технологиям Брайаном Керниганом и Пайком Робом, которые были ведущими участниками раннего сообщества, создавшего Unix: «Несмотря на то что система UNIX включает ряд инновационных программ и техник, ее нормальное функционирование обеспечивается не какой-то программой или идеей. Что действительно делает ее эффективной – это подход к программированию, философия использования компьютера. Хотя эту философию невозможно уместить в одно предложение, в ее основе лежит идея о том, что мощь системы скорее зависит от взаимосвязей между программами, чем от самих программ». У Интернета также была коммуникационно-ориентированная архитектура, в которой «свободно соединенные мелкие частички» (используя замечательную формулировку Дэвида Вейнбергера) взаимодействуют, чтобы стать чем-то гораздо большим.

В классическом произведении о системах проектирования, «Системантике», Джон Галл писал: «Неизменно обнаруживается, что сложная работающая система эволюционировала из простой работающей системы. Также является верным и обратное утверждение. Сложная система, созданная с чистого листа, никогда не работает, и вы никогда не сможете заставить ее работать. Вы должны начать все заново с простой работающей системы».

Простые децентрализованные системы лучше работают для создания новых возможностей, чем сложные централизованные системы, потому что они могут развиваться быстрее. Каждый децентрализованный компонент в общем контексте простых правил способен искать свою собственную функцию приспособленности. Те компоненты, которые работают лучше, распространяются, те, что нет, – вымирают.

«Функция приспособленности» – это термин из генетического программирования, обозначающий методику искусственного интеллекта, с помощью которой он пытается смоделировать разработку компьютерных программ по образу эволюционной биологии. Алгоритм предназначен для создания небольших программ, оптимизированных для выполнения конкретной задачи. В ходе серии итераций те программы, которые работают плохо, уничтожаются, а новые варианты «порождаются» наиболее успешными.

Когда в 1975 году Джон Галл писал свою книгу, он не мыслил в терминах функций приспособленности. Генетическое программирование появилось только в 1988 году. Но добавьте понятие функции приспособленности и понятие о количестве экологических ниш в фазовом пространстве организма к его идее о том, что простые системы могут развиваться так, что удивляют своих создателей, и у вас появится мощный инструмент для наблюдения и понимания того, как работают компьютерные сети и платформы.

Сам Интернет служит тому доказательством.

В 1960-х годах Пол Бэран, Дональд Дэйвис, Леонард Клейнрок и другие разработали теоретическую альтернативу телефону и телеграфу под названием коммутация пакетов для соединений с коммутацией каналов. Вместо того чтобы создавать физическую цепь между двумя конечными точками на протяжении всего сеанса связи, сообщения разбиваются на небольшие стандартизированные фрагменты, которые отправляются любым наиболее удобным для конкретного пакета маршрутом и собираются заново в месте их назначения.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация