Информация как основа жизни

Страница: 1 ... 1819202122232425262728 ... 170

Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных со­стояний. Увеличение информации о ней, что было бы эквива­лентно фиксации в определенном состоянии, приведет к умень­шению энтропии системы. Другими словами,

I + S = const. (9)

Чем больше известно о системе, тем меньше ее энтропия. Важ­но еще одно обстоятельство. Утрачивая информацию, мы уве­личиваем энтропию системы. Увеличивать информацию о систе­ме мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда

Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятно­сти отдельных состояний системы различаются (3), формально совпадают. Мы замечали, что они имеют совершенно различ­ный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информа­ции I = lnW. Энтропия (3) соответствует возможности нахожде­ния системы с некоторой вероятностью I/W в каждом из дос­тупных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.

В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к «забыванию» информации, и мы прихо­дим к соотношению I + S = const. В соответствии со вторым за­коном термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотноше­ние (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы.

Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать «физической информацией». Колмогоров [15] ввел понятие «алгоритмической информации». Алгоритмическую информацию можно рассматривать как меру алгоритмической хао­тичности. Алгоритмическая информация практически совпадает с информацией по Шеннону.

Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радио­чувствительность клеток популяции дрожжей. Мы ставим экспе­римент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем ра­диочувствительность клеток по числу выросших колоний. В хо­де этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каж­дой клетки. Тем самым мы выбираем и фиксируем одно един­ственное состояние из всех возможных. Этот эксперимент, кото­рый выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т.д.). Второй пример – завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (нака­чивание внешней 7) перед выборами сменяются крайней полити­зацией. После выборов определяется количество проголосовав­ших за того или иного кандидата – поведение электората соответствует максимуму «информированности» о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.

— 23 —
Страница: 1 ... 1819202122232425262728 ... 170