Социальная психология XXI столетия. Том 2. 2005

Страница: 1 ... 130131132133134135136137138139140 ... 318

Интересной, но относительно мало исследованной, областью для построения прогностических моделей является психология музыкального восприятия. С одной стороны, прогностические модели в этой области помогают лучше понять различные теоретические аспекты, а с другой, – они могут использоваться во всех случаях, где требуется целенаправленное музыкальное воздействие, – начиная от психотерапии и воспитательной работы и заканчивая рекламой и массовой агитацией.

Использование математических моделей в прогнозировании предполагает выделение независимых (НП) и зависимых (ЗП) переменных. Применительно к заявленной нами области исследования, в качестве таковых может использоваться сама музыка и ее производные показатели (напр., частотные характеристики) – НП; в роли ЗП могут выступать различные реакции испытуемого – объекта музыкального воздействия, которые могут варьироваться от чисто физиологических феноменов (ЧСС, КГР и т. п.) до эмоциональных и эстетических.

Кроме того, можно классифицировать НП на внешние или объективные – параметры самой музыки (напр., лад, темп, тембр и т. п.) и внутренние или субъективные – психофизиологические и психологические особенности испытуемого (устойчивые, такие как личностные черты, и динамические, такие как функциональное состояние, настроение и т. п.). Нами была предпринята попытка исследовать действие такой объективной НП как информационная энтропия.

Термин «энтропия» (от греч. «en» – «в», «внутрь» и «trope» – «поворот», «движение») первоначально использовался в термодинамике. Впервые его применил немецкий физик Рудольф Клаузиус в 1865 г. Современную его интерпретацию обычно связывают с именем австрийского физика Людвига Больцмана. В 1948 г. американский ученый Клод Шеннон использовал это понятие при разработке теории информации – важного направления в кибернетике.

Понятие «энтропия» в интерпретации Шеннона прямым образом связано с понятием «информация». В широком смысле энтропия является мерой неопределенности системы (системой в данном случае может быть все, что имеет определенные состояния). Математически информационная энтропия выражается следующим образом:

n

H=-? pi log2pi.

i=1

Это классическая формула Шеннона. Кроме того, используется также нормированная энтропия:

n

H=(-? pi log2pi)/log2n

i=1

Она позволяет сравнивать системы с разным числом степеней свободы и имеет верхний предел – 1. Именно ей мы и пользовались при проведении исследования.

Энтропия максимальна и имеет значение 1, когда неопределенность системы максимальна. Примером системы с максимальной энтропией является игральная кость. Поскольку вероятность выпадения любой грани одинакова, система находится в состоянии максимальной неопределенности. Система «солнце завтра взойдет» имеет минимальную (нулевую) энтропию, поскольку это достоверное событие, т. е. его вероятность равна 1.

— 135 —
Страница: 1 ... 130131132133134135136137138139140 ... 318