Глава седьмая. Предвидимо ли будущее? Обозначение используемых понятий Contents Prolegomenon Chapter 1. History Chapter 2. Information and Its Properties Chapter 3. Information Systems Chapter 4. Porism Principle Chapter 5. Dynamics of Information Chapter 6. Biosphere and Technogenes Chapter 7. Can One Predict the Future Designation of the Notions Used Термин «информация» Термин «информация» широко используется в научной литературе. Трудно найти область знаний, избежавшую соблазна его применять. Это – следствие все продолжающегося расширения смыслового поля этого термина. В тридцатые годы и ранее слово «информация» использовали, в основном, как «сведения» или «осведомление», т.е. как прямой перевод латинского informatio. К концу сороковых годов под «информацией» начали понимать функцию статистических характеристик букв какого-либо языка. Так, согласно К. Шеннону [1], количество информации, содержащейся в каком-либо сообщении, состоящем из М букв, равно (1) где п – число букв в данном языке, ар– частота встречаемости i–той буквы (i=1,2...n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество информации Н всегда было положительным. Под влиянием работ Л. Бриллюэна [2], начиная с шестидесятых годов, возник и приобрел широкую известность «негэнтропийный принцип информации». В отличие от энтропии, рассматриваемой в качестве меры неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода антиэнтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит формальное сходство обобщенной формулы К. Шеннона (2) и знаменитой формулы Больцмана для физической энтропии S = lnW, где W - число состояний, которые может принимать система. Если микросостояния системы различны, то формула будет выглядеть так (3) Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или энтропийных (эрг/град). Б. Б. Кадомцев указывает [3], что величины I и S формально равны потому, что I соответствует информации одного единственного состояния из множества возможных, a S определена по множеству всех состояний. Здесь понятие информации дается в терминах физической статистики. Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности [4]. Эти два определения практически совпадают [5]. — 2 —
|