Формула удачи

Страница: 1 ... 121122123124125126127128129130131 ... 277

V.I. ПОРЯДОК И БЕСПОРЯДОК. ЭНТРОПИЯ, НЕГЭНТРОПИЯ И ИНФОРМАЦИЯ

Все к лучшему в этом лучшем из миров.

Вольтер

Проявление феноменов Фортуны можно определить как случайные (на первый взгляд) стечения обстоятельств, приводящие в соответствии с КРИТЕРИЯМИ НЕБЕЗРАЗЛИЧИЯ к благоприятному для данного биологического объекта (БО) (или сообщества БО) результату. Благоприятным же, в свою очередь, можно считать такой результат, который способствует улучшению качества жизни. Последнее всегда связано с уменьшением неопределенности, то есть с увеличением предсказуемости того, что может произойти с БО.

Отсюда следует, что явления Фортуны тесно связаны с такими важнейшими понятиями современной физики и кибернетики, какими являются энтропия и информация. Чтобы установить эту связь, напомним кратко их определения.

Энтропия S вводится как мера упорядочения системы [1] и определяется с помощью соотношения:

S=kmW, (1)

где k - коэффициент (так называемая постоянная Больцмана); W - термодинамическая вероятность реализации данного состояния рассматриваемой системы, то есть число различных способов его реализации.

Из (1) следует, что чем больше величина W, то есть чем большим числом способов реализуется данное состояние, тем больше разупорядоченность системы и тем больше ее энтропия S. И, наоборот, с ростом упорядоченности в системе меньше становится величина энтропии. Имеет место фундаментальный закон природы, так называемое второе начало термодинамики, согласно которому упорядоченность изолированной неравновесной системы должна убывать со временем, а энтропия возрастать соответственно энтропия равновесной изолированной системы сохраняется. Проявлением этого закона является, например, исчезновение искусственно созданных неоднородностей в распределении плотности или температуры газа (жидкости) в замкнутом теплоизолированном объеме. Эти неоднородности, которые представляют собой определенную упорядоченность, постепенно исчезают в результате самодиффузии или теплопроводности, а энтропия данного объема газа возрастает по отношению к ее значению, в исходном, неоднородном состоянии.

Таким образом, в изолированной системе не может сохраниться никакое искусственно созданное упорядочение. Ход развития такой системы всегда приводит к постепенному разупорядочению, то есть к беспорядку.

Важную роль в анализе рассматриваемых вопросов играет также понятие информации. Оно непосредственно связано с понятием энтропии как меры беспорядка. Информация, содержащаяся в каком-либо событии, дает количественную меру сведений, которое это событие содержит. Пусть оно состоит в подбрасывании монеты. Пока она не брошена, событие отсутствует, и информации о ней нет, то есть она равна нулю. После того как монета подброшена и выпал, например, орел - событие реализовано и информация уже отлична от нуля. Оценим количество этой информации. Пусть мы бросаем две монеты одновременно. Ясно, что мы получим вдвое большую информацию. Вероятность реализации двух независимых событий (например, выпадение на одной монете орла, а на другой - решки), равна произведению их вероятностей, а информация - сумме информации об этих событиях. Следовательно, естественно определить меру информации как логарифм вероятности. В нашем примере вероятность выпадения определенной стороны монеты следующая: Р1= 1/2.

— 126 —
Страница: 1 ... 121122123124125126127128129130131 ... 277