Книга Понимать риски. Как выбирать правильный курс, страница 18. Автор книги Герд Гигеренцер

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Понимать риски. Как выбирать правильный курс»

Cтраница 18

Для одного эксперимента нам потребовались два списка вопросов: простых и сложных. Так как участниками эксперимента были немцы, то мы решили подготовить вопросы о населении городов Германии (которые, как мы полагали, окажутся легкими) и о населении городов США (их мы считали трудными). Мы выбрали по 75 крупнейших городов в каждой стране. Наши вопросы звучали, например, так:


«Численность населения какого из городов больше – Детройта или Милуоки?»

«Численность населения какого из городов больше: Билефельда или Ганновера?»

Нас поразили полученные результаты. Ответы немцев на вопросы о городах Германии, о которых они знали много, отнюдь не были более правильными, Более того, они даже немного лучше отвечали на вопросы о городах США, о которых они знали гораздо меньше. Мы совершили ошибку, решив, что знать больше – это значит всегда делать более правильные заключения. Эксперимент оказался неудачным. Но эта ошибка привела нас к открытию чего-то нового, что мы назвали эвристикой узнавания {48}.

Если вы узнаете название одного города, но не знаете название другого, то население города, название которого вы знаете, больше.

Многие немцы никогда не слышали о Милуоки и поэтому делали правильный вывод о том, что население Детройта больше. Однако, поскольку они знали о существовании и Билефельда, и Ганновера, то это простое практическое правило в данном случае не срабатывало. Американец, который никогда не слышал о Билефельде, правильно решит, что население Ганновера больше, но немец окажется здесь в затруднительной ситуации. Аналогичные результаты были получены и в другом исследовании: только 60 % американцев правильно указывали, что Детройт больше Милуоки, в то время как немцы верно отвечали на этот вопрос в 90 % случаев. Эвристика узнавания берет верх над мудростью полуневежества.

Это простое практическое правило работает не всегда, а только лишь в тех случаях, когда более крупные объекты действительно оказываются более узнаваемыми. Полезные ошибки помогают нам учиться и делать открытия. Система, которая не делает ошибок, будет меньше обучаться и еще меньше открывать что-то новое.

Вредные ошибки

Преподаватели часто размышляют о том, как можно было бы развить умственные способности молодого поколения, чтобы они в идеале не делали никаких ошибок. Подобные воззрения – не что иное, как пример вредной ошибки. Если людям запретят делать ошибки, то исчезнут интеллект, креативность и инновации. Но это не означает, что каждая ошибка полезна. Распространение СПИДа в Африке были слишком недооценено Всемирной организацией здравоохранения (ВОЗ), в компьютерные модели которой было заложено предположение о том, что вероятность инфицирования повышается с ростом числа половых контактов независимо от числа сексуальных партнеров. Но при десяти контактах с одним партнером вероятность заражения оказывается намного ниже, чем при разовых контактах с десятью разными партнерами {49}. Постоянными источниками вредных ошибок являются иллюзия нулевого риска и иллюзия индюка. Например, банки продолжают использовать модели, подобные модели стоимости, подверженной риску, которые предполагают, что риски известны и могут быть точно оценены, даже несмотря на то, что эта иллюзия определенности во многом способствовала финансовому кризису.

Грубые просчеты, подобные этим, не только вызывают недоумение, но и могут иметь катастрофические последствия. Вредные ошибки – это ошибки, не являющиеся функциональными, те, которые следует не допускать каждому из нас.

Позитивная и негативная культура ошибок

Профессии, компании и группы лиц имеют свои культуры ошибок. На одном краю спектра находятся негативные культуры ошибок. Люди в таких культурах боятся совершать любые ошибки, независимо от того, полезные они или вредные, и, если ошибка все же случается, они делают все, чтобы ее скрыть. В таких культурах имеется мало шансов на то, что человек будет учиться на ошибках и открывать новые возможности. На другом краю спектра находятся позитивные культуры ошибок, которые не скрывают допущенные ошибки, поощряют полезные ошибки и учатся на вредных ошибках, чтобы создавать более безопасную среду.

Давайте сравним две профессии, культура ошибок в которых различается: коммерческую авиацию и медицину. Культура ошибок пилотов Lufthansa и других международных авиакомпаний становится все более позитивной и способствует дальнейшему повышению безопасности пассажиров. Вместо того чтобы создавать иллюзию определенности, Lufthansa открыто показывает, каков риск крушения ее авиалайнеров: один случай на 10 миллионов полетов. Для достижения этой крайне низкой частоты авиакатастроф применяют несколько простых правил обеспечения безопасности рейсов. Например, запас топлива, который берет с собой каждый самолет, определяется следующим образом:

Минимальный запас топлива складывается из:

1) количества топлива, необходимого для достижения пункта назначения;

2) дополнительного запаса (5 % от основного запаса, определяемого в п. 1. на случай ошибок в расчете основного запаса из-за ошибок прогнозирования силы и направления ветра и т. п.;

3) резерва на случай, если возникнет необходимость совершить несколько дополнительных кругов над целевым аэродромом или уйти на запасной аэродром;

4) резерва топлива на 30 минут полета над запасным аэродромом;

5) резерва топлива на экстренный случай, его запас определяется самим экипажем с учетом возможных непредвиденных обстоятельств, например резкого ухудшения погоды.


Создание дополнительных резервов топлива на самолете стоит Lufthansa денег, потому что перевозка дополнительного веса требует большего расхода топлива. При дальних перелетах около 30 % топлива расходуется на транспортировку самого топлива.

Меры безопасности – это только один аспект культуры ошибок, другим является информирование о реальных ошибках. О серьезных ошибках сообщают те, кто их совершил, а затем подробное описание этих ошибок делается группой специалистов, которые впоследствии беседуют с пилотами и информируют о случившемся общественность. Это дает пилотам возможность учиться на чужих ошибках. Хотя безопасность полетов уже достаточно высока, авиакомпании прикладывают дальнейшие усилия по снижению числа инцидентов, в частности в рамках действующей в США программы «Системное мышление». Все участники этой программы – пилоты, механики, авиадиспетчеры, производители, авиаперевозчики и регуляторы – совместно обсуждают ошибки и учатся тому, как сделать полеты еще более безопасными.

Ничего подобного не наблюдается в больницах. Культура фиксирования и осмысления ошибок в медицине во множестве учреждений не слишком высока, система составления подробных отчетов о критических случаях налажена далеко не везде. Опасаясь возможных судебных тяжб, больницы проводят преимущественно оборонительную политику, при которой врачи рассматривают пациентов как потенциальных истцов, а допущенные в лечении ошибки часто скрывают. Национальные системы отчетности и организации обучения на ошибках, подобные созданным в авиации, встречаются крайне редко. В результате безопасность пациентов больниц – в отличие от безопасности авиапассажиров – представляет собой серьезную проблему.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация