1 1 1 4 4 1 |
||||||
N ИХ: |=1 |
= 12 |
N I (JT-Л;)2 = 12 м |
||||
Х = |
N 1/NZ X) 1=1 |
= 2 |
\ о2 = [ I (Х- Xf ] / (N- м |
- 1) - 2,4 |
||
Значение дисперсии используется в различных статистических расчетах, но не имеет непосредственно наблюдаемого характера. Величиной, непосредственно связанной с содержанием наблюдаемой переменной, является среднее квадратическое отклонение. Оно равно корню квадратному из дисперсии и определяется по формуле
Стандартное отклонение широко применяется как мера разброса для различных характеристик. На рис. 28 приведены примеры распределений частот значений двух переменных с одинаковыми средними, но различным разбросом (примеры к этому разделу взяты из работы [13. С. 42—49]).
Меры связи между переменными. Связи (зависимости) между двумя или более переменными в статистике называют корреляцией. Она оценивается с помощью значения коэффициента корреляции. Коэффициент корреляции является мерой степени и величины этой связи. Например, мы можем поставить вопрос: "Существует ли зависимость в конкретной группе успеваемости от уровня развития в ней межличностных отношений?".
Частота '1
Значения варианты
Рис. 28. Частотное распределение данных для двух переменных с равными значениями средних, но с различным разбросом:
1 — большой разброс; 2 — малый разброс данных
Коэффициентов корреляций очень много. Мы рассмотрим лишь часть из них, которые учитывают наличие линейной связи между переменными. Их выбор зависит от шкал измерения переменных, зависимость между которыми мы хотим оценить. Наиболее часто в психологии применяются коэффициенты корреляции Пирсона и Спирмена.
Вычисление значений коэффициентов корреляции. Случай А. Пусть две сравниваемые переменные X (семейное положение) и У (исключение из института) измеряются в дихотомической шкале (частный случай шкалы наименований). Для определения связи используется коэффициент Пирсона для дихотомических данных.
В тех случаях, когда нет необходимости подсчитывать частоту появления различных значений переменных X и У, удобно проводить вычисления значения коэффициента корреляции с помощью таблицы сопряженности (табл. 20), показывающей количество совместных появлений пар значений по двум переменным (признакам). А — количество случаев, когда переменная Л'имеет значение, равное нулю, и, одновременно, переменная Уимеет значение, равное единице; В — количество случаев, когда переменные Хи Г имеют одновременно значения, равные единице; С — количество случаев, когда переменные Хи У имеют одновременно значения, равные единице; D — количество случаев, когда переменная Jf имеет значение, равное единице, и, одновременно, переменная Уимеет значение, равное нулю.