В обоих случаях отношение субъекта к окружающим определяет характер его внутреннего информационного потока. При отсутствии обмана информация хранится логично и в связном виде; при его наличии искажается, что приводит к определенным потерям. Однако заметьте, что в случае с НАСА страдают астронавты, остальные же члены организации получают выгоду. Фейнман даже наглядно представил, какие разговоры могли вестись в пределах организации, при которых информация искажалась в нужном ключе. Предположим, инженер доносит свои опасения насчет безопасности до начальника и получает один из двух ответов. Начальник может сказать: «Расскажите мне подробнее» или: «Вы пробовали то-то и то-то?» Но если он несколько раз отвечает: «Ну, посмотрите, что можно с этим сделать», то инженер может подумать: «А-а, к черту это». Вот такие взаимодействия между двумя индивидами (клетками) могут приводить к самообману. Ведь занятость организации под угрозой! Когда главный инженер донес до сведения начальства, что он и все остальные инженеры проголосовали против старта корабля, его попросили «снять шляпу инженера и надеть шляпу управленца». Трюк удался, и главный инженер изменил свое мнение. Однако отдел безопасности достиг необычайного успеха в деле предсказания возможности катастрофы. Когда им было дано задание оценить риски, они рассчитали их как «1 из 70». Затем их снова попросили сделать оценку рисков, и на этот раз цифра оказалась совсем другой: «1 из 90». После этого высшее руководство по своему усмотрению переделало оценку в «1 из 200», а после пары удачных полетов – в «1 из 10 000». Как заметил Фейнман, это как будто играть в «русскую рулетку» и чувствовать себя более уверенным после каждого выстрела, оставившего вас в живых. В любом случае, итоговая цифра оказалась совершенно фантастической: можно было летать на этих хитроумных изобретениях каждый день в течение 300 лет и ожидать только одного провала? В реальности ближе всего к правде оказалась самая первая оценка. К тому времени, как произошла катастрофа «Колумбии», насчитывалось 126 полетов, два из которых закончились трагедией: итого «1 из 63». Подумайте только: если бы такие риски существовали в гражданской авиации, то каждый день только в США разбивалось бы по 300 самолетов. Интересно, если бы астронавты осознавали реальную опасность, испытывали ли бы они такой энтузиазм по поводу полетов? Заметьте, несмотря на то что общая работа отдела безопасности была крайне неудовлетворительной, оценку рисков он произвел очень точно. Это свидетельствует о том, что на его действия сильно влияло вышестоящее руководство. Здесь тоже можно провести аналогию с индивидуальным самообманом, когда первоначальная спонтанная оценка (например, справедливости) делается объективно, после чего ментальные процессы на более высоком уровне приводят к искажению информации. — 148 —
|