Параллели между физикой и психологией не должны удивлять вас. Ведь человеческая нервная система — «ум», еслиговорить по-ненаучному, — собственно, и создала современную науку, включая физику и квантовую математику. В творениях человеческого ума, по идее, должны содержаться и его гений, и его дефекты, как в любой картине всегда содержится автобиография художника. Давайте рассмотрим самую простую параллель. Муж и жена обращаются в семейную консультацию за помощью. Он рассказывает одну историю о семейных проблемах. Она излагает совершенно иную версию. Если консультант опытен и умен, он не поверит полностью ни одной из сторон. Где-то в том же городе два студента-физика повторяют два хрестоматийных эксперимента. Первый эксперимент вроде бы показывает, что свет распространяется в виде отдельных частиц. Второй вроде бы показывает, что свет — это волны. Если студенты хорошо учились и обладают широтой мышления, они не поверят ни тому, ни другому результату. Дело вот в чем: психолог знает, что каждая нервная система создает свою собственную модель мира, а нынешние студенты-физики знают, что каждый инструмент тоже создает свою собственную модель мира. И в психологии, и в физике мы уже переросли средневековые аристотелевские понятия об «объективной реальности» и вошли в неаристотелевский мир, — хотя в обеих науках мы пока еще точно не знаем (и любим об этом поспорить до хрипоты), какая новая парадигма придет на смену аристотелевской парадигме «истинное—ложное». Знаменитое уравнение Клода Шаннона для вычисления информативности (Н) сообщения выглядит так: Н = -Epilogepi Если вас пугает математика (точнее говоря, если бездарные учителя убедили вас в том, что «этот орешек вам не по зубам»), не торопитесь впадать в панику. E означает просто сумму (результат сложения). Символ рi показывает нам, что именно мы будем суммировать. Мы будем суммировать различнью вероятности (p1, р2, р3... и так далее до рn, где n равняется общему числу сигналов в данном сообщении). Это вероятности того, что мы сможем предсказать заранее то, что будет сказано дальше. Логарифмическая функция просто показывает нам, что этосоотношение — не линейное, а логарифмическое (в графическом виде выражается логарифмической кривой). Обратите внимание на минус. Информативность сообщения обратно пропорциональна вероятности того, что вы на каждом шагу сможете предсказать, что будет сказано дальше. Иначе говоря, чем легче вы можете предсказать содержание сообщения, тем меньше информации это сообщение содержит. Норберт Винер однажды сказал, что в великой поэзии содержится больше информации, чем в речах политиков. Вы никогда не знаете, что будет сказано дальше в хорошем стихотворении, но, слушая речь Джорджа Буша, вы не только знаете, что будет дальше, но и часто можете предсказать общее содержание всей речи еще до того, как оратор раскроет рот. — 24 —
|