Информация как основа жизни

Страница: 1 ... 1617181920212223242526 ... 170

Напомним, что ко времени выхода в свет работы К. Шенно­на [3] научная общественность была уже подготовлена к ее вос­приятию. Зарождавшаяся тогда же кибернетика, или «наука об управлении и связи в животном и машине» [2], уже использовала термин «информация» для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или ма­шиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое «поведение». Уже был пу­щен в оборот термин «генетическая информация» [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию «информация» полиморфизма в целях раз­работки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответство­вала шенноновская концепция количества информации.

Однако надо ясно представить себе, что, не давая определе­ния понятию «информация» и в то же время называя «количеством информации» частотную характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совер­шенно разных по своей природе феноменов информации как семантики сообщения и «информации» как частоты осуществле­ния какого-либо события. Это делало возможной подмену тер­минов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо со­бытия. Термин «информация» в указанном выше смысле окон­чательно слился с термином «количество информации».

Формула К. Шеннона (6) по структуре своей подобна форму­ле, предложенной Л. Больцманом для выражения количества эн­тропии. Это формальное сходство послужило К. Шеннону пово­дом называть «энтропией», по аналогии с физической энтропи­ей, свойство источника сообщений порождать в единицу време­ни то или иное число сигналов на выходе, а «энтропией сооб­щения» – частотную характеристику самих сообщений, выражаемую формулами (6) и (7).

Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала види­мость столь же легкого решения и других связанных с исполь­зованием термина «информации» проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информа­ции, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе «Бандвагон» [7].

— 21 —
Страница: 1 ... 1617181920212223242526 ... 170