(2.2) где Pi — вероятность i-того сигнала (нахождения системы в i-том состоянии); п — общее число различных сигналов (состояний системы). В случае, если все сигналы равновероятны (Pi), то энтропия при данном n достигает своего максимального значения, равного H = log2 n,(2.3) При поступлении сообщения о каком-либо событии энтропия системы уменьшается, причем это уменьшение и характеризует количество поступившей информации I = Н—Н0,(2.4) где Н и Н0 — соответственно априорная (доопытная) и апостериорная (послеопытная, т. е. после получения сообщения) энтропия. В том практически важном случае, когда после поступления сведений состояние системы стало полностью определенным (а именно такой случай наиболее характерен для деятельности оператора), то количество информации численно равно априорной энтропии системы, т. е. I = Н. В формулах (2.2) и (2.3) логарифм может браться по любому основанию, но наиболее часто используется основание, равное двум. При этом единица измерения количества информации носит название двоичной единицы информации (деи), или бита. Информация в один бит будет иметь место в том случае, когда осуществляется выбор одного из двух равновероятных событий. Передача информации, равной одному биту позволяет уменьшить неопределенность ситуации вдвое. Количество информации, перерабатываемое оператором в единицу времени, называется скоростью переработки информации оператором, то есть VОП. Наибольшая скорость переработки информации человеком, рассматриваемом в качестве канала связи, т. е. канала передачи информации со средств ее отображения к органам управления, называется пропускной способностью оператора. Ее величина в общем случае определяется формулой (2.5) где Н(х) — энтропия источника сообщений; Ну(х) — условная энтропия, характеризующая влияние шумов (помех) на передачу сообщений, она характеризует потери информации в процессе ее передачи; t — время передачи информации. Любой канал связи, в том числе и систему переработки и передачи информации оператором, можно представить в виде нескольких последовательных участков передачи информации. Очевидно, пропускная способность канала в целом будет определяться пропускной способностью того участка, для которого она минимальна. Подробнее этот вопрос рассматривается при изучении информационных характеристик зрительного анализатора. Количество информации характеризует объем полученных человеком сведений, оно совершенно не зависит от свойств получателя сообщений и характеризует только одну сторону информации — структурную, статистическую. Однако кроме нее есть и прагматическая сторона, которая всегда связана с целью деятельности человека и поэтому зависит от его индивидуальных качеств. Эта сторона информации характеризуется таким понятием как ценность информации. Знание ценности информации позволяет рационально размещать датчики и измерительные приборы на рабочем месте оператора, сокращать общий объем информационного потока, разумно планировать очередность передачи сообщений оператору, назначая приоритеты согласно ценности, и т. п. — 31 —
|