Интересной, но относительно мало исследованной, областью для построения прогностических моделей является психология музыкального восприятия. С одной стороны, прогностические модели в этой области помогают лучше понять различные теоретические аспекты, а с другой, – они могут использоваться во всех случаях, где требуется целенаправленное музыкальное воздействие, – начиная от психотерапии и воспитательной работы и заканчивая рекламой и массовой агитацией. Использование математических моделей в прогнозировании предполагает выделение независимых (НП) и зависимых (ЗП) переменных. Применительно к заявленной нами области исследования, в качестве таковых может использоваться сама музыка и ее производные показатели (напр., частотные характеристики) – НП; в роли ЗП могут выступать различные реакции испытуемого – объекта музыкального воздействия, которые могут варьироваться от чисто физиологических феноменов (ЧСС, КГР и т. п.) до эмоциональных и эстетических. Кроме того, можно классифицировать НП на внешние или объективные – параметры самой музыки (напр., лад, темп, тембр и т. п.) и внутренние или субъективные – психофизиологические и психологические особенности испытуемого (устойчивые, такие как личностные черты, и динамические, такие как функциональное состояние, настроение и т. п.). Нами была предпринята попытка исследовать действие такой объективной НП как информационная энтропия. Термин «энтропия» (от греч. «en» – «в», «внутрь» и «trope» – «поворот», «движение») первоначально использовался в термодинамике. Впервые его применил немецкий физик Рудольф Клаузиус в 1865 г. Современную его интерпретацию обычно связывают с именем австрийского физика Людвига Больцмана. В 1948 г. американский ученый Клод Шеннон использовал это понятие при разработке теории информации – важного направления в кибернетике. Понятие «энтропия» в интерпретации Шеннона прямым образом связано с понятием «информация». В широком смысле энтропия является мерой неопределенности системы (системой в данном случае может быть все, что имеет определенные состояния). Математически информационная энтропия выражается следующим образом: n H=-? pi log2pi. i=1 Это классическая формула Шеннона. Кроме того, используется также нормированная энтропия: n H=(-? pi log2pi)/log2n i=1 Она позволяет сравнивать системы с разным числом степеней свободы и имеет верхний предел – 1. Именно ей мы и пользовались при проведении исследования. Энтропия максимальна и имеет значение 1, когда неопределенность системы максимальна. Примером системы с максимальной энтропией является игральная кость. Поскольку вероятность выпадения любой грани одинакова, система находится в состоянии максимальной неопределенности. Система «солнце завтра взойдет» имеет минимальную (нулевую) энтропию, поскольку это достоверное событие, т. е. его вероятность равна 1. — 135 —
|