Форум » Что, как и когда мы учим » мат.методы в психологии » Ответить

мат.методы в психологии

kadril:

Ответов - 4

kadril: 1. Зависимые и независимые выборки. Репрезентативность выборки. При сравнении двух (и более) выборок важным параметром является их зависимость. Если можно установить гомоморфную пару (то есть, когда одному случаю из выборки X соответствует один и только один случай из выборки Y и наоборот) для каждого случая в двух выборках (и это основание взаимосвязи является важным для измеряемого на выборках признака), такие выборки называются зависимыми. Примеры зависимых выборок: • пары близнецов, • два измерения какого-либо признака до и после экспериментального воздействия, • мужья и жёны • и т. п. В случае, если такая взаимосвязь между выборками отсутствует, то эти выборки считаются независимыми, например: • мужчины и женщины, • психологи и математики. Соответственно, зависимые выборки всегда имеют одинаковый объём, а объём независимых может отличаться. Сравнение выборок производится с помощью различных статистических критериев: • t-критерий Стьюдента • T-критерий Вилкоксона • U-критерий Манна-Уитни • Критерий знаков • и др. Репрезентативность Выборка может рассматриваться в качестве репрезентативной или нерепрезентативной. Пример нерепрезентативной выборки: В США одним из наиболее известных исторических примеров нерепрезентативной выборки считается случай, происшедший во время президентских выборов в 1936 году. Журнал «Литрери Дайджест», успешно прогнозировавший события нескольких предшествующих выборов, ошибся в своих предсказаниях, разослав десять миллионов пробных бюллетеней своим подписчикам, людям, выбранным по телефонным книгам всей страны, и людям из регистрационных списков автомобилей. В 25 % вернувшихся бюллетеней (почти 2,5 миллиона) голоса были распределены следующим образом: • 57 % отдавали предпочтение кандидату-республиканцу Альфу Лэндону • 40 % выбрали действующего в то время президента-демократа Франклина Рузвельта На действительных же выборах, как известно, победил Рузвельт, набрав более 60 % голосов. Ошибка «Литрери Дайджест» заключалась в следующем: желая увеличить репрезентативность выборки, — так как им было известно, что большинство их подписчиков считают себя республиканцами, — они расширили выборку за счёт людей, выбранных из телефонных книг и регистрационных списков. Однако они не учли современных им реалий и в действительности набрали ещё больше республиканцев: во время Великой депрессии обладать телефонами и автомобилями могли себе позволить в основном представители среднего и верхнего класса (то есть большинство республиканцев, а не демократов). 2. Общие принципы проверки статистических гипотез. Процедура проверки нулевой гипотезы в общем случае включает следующие этапы: 1. задается допустимая вероятность ошибки первого рода (Ркр=0,05) 2. выбирается статистика критерия (Т) 3. ищется область допустимых значений 4. по исходным данным вычисляется значение статистики Т 5. если Т (статистика критерия) принадлежит области принятия нулевой гипотезы, то нулевая гипотеза принимается (корректнее говоря, делается заключение, что исходные данные не противоречат нулевой гипотезе), а в противном случае нулевая гипотеза отвергается и принимается альтернативная гипотеза.[1] Это основной принцип проверки всех статистических гипотез. Обычно первые три этапа выполняют профессиональные математики, а последние два – пользователи для своих частных данных. В современных статистических пакетах на ЭВМ используются не стандартные уровни значимости, а уровни, подсчитываемые непосредственно в процессе работы с соответствующим статистическим методом. Эти уровни, обозначенные буквой P, могут иметь различное числовое выражение в интервале от 0 до 1, например, 0,7 0,23 0,012. Понятно, что в первых двух случаях полученные уровни значимости слишком велики и говорить о том, что результат значим нельзя. В последнем случае результаты значимы на уровне 12 тысячных. Это достоверный результат. При проверке статистических гипотез с помощью статистических пакетов, программа выводит на экран вычисленное значение уровня значимости Р и подсказку о возможности принятия или неприятия нулевой гипотезы. Если вычисленное значение Р превосходит выбранный уровень Ркр, то принимается нулевая гипотеза, а в противном случае — альтернативная гипотеза. Чем меньше вычисленное значение Р, тем более исходные данные противоречат нулевой гипотезе. Число степеней свободы у какого-либо параметра определяют как число опытов, по которым рассчитан данный параметр, минус количество одинаковых значений, найденных по этим опытам независимо друг от друга. Величина Ф называется мощностью критерия и представляет собой вероятность отклонения неверной нулевой гипотезы, то есть вероятность правильного решения. Мощность критерия – вероятность попадания критерия в критическую область при условии, что справедлива альтернативная гипотеза. Чем больше Ф, тем вероятность ошибки 2-го рода меньше. 3. Этапы принятия статистического решения. Принятие статистического решения разбивается на этапы или шаги. 1. Формулировка нулевой и альтернативной гипотез. 2. Определение объема выборки N. 3. Выбор соответствующего уровня значимости или вероятности отклонения нулевой гипотезы. Это может быть величина меньшая или равная 0,05 (5 % уровень значимости). В зависимости от важности исследования можно выбрать уровень значимости в 0,1 % или даже в 0,001 %. 4. Выбор статистического метода, который зависит от типа решаемой психологической задачи. 5. Вычисление соответствующего эмпирического значения по экспериментальным данным, согласно выбранному статистическому методу. 6. Нахождение по таблице Приложения для выбранного статистического метода критических значений, соответствующих уровню значимости для Р = 0,05 и для Р = 0,01. 7. Построение оси значимости и нанесении на нее табличных критических значений и эмпирического значения Чэмп. Для этого целесообразно каждый раз пользоваться приведенными выше рисунками. 8. Формулировка принятия решения (выбор соответствующей гипотезы Н0 или Н1). 4. Статистические критерии различий. Q-критерий Розенбаума. Q-критерий Розенбаума — простой непараметрический статистический критерий, используемый для оценки различий между двумя выборками по уровню какого-либо признака, измеренного количественно. Описание критерия Простой непараметрический критерий. Мощность критерия не очень велика. В том случае, если он не выявляет различий, можно обратиться к другим статистическим критериям, например, к U-критерию Манна-Уитни или критерию φ* Фишера. Данные для применения Q-критерия Розенбаума должны быть представлены хотя бы в порядковой шкале. Признак должен измеряться в значительном диапазоне значений (чем более значительном – тем лучше). Ограничения применимости критерия 1.В каждой из выборок должно быть не менее 11 значений признака. 2.Объемы выборок должны примерно совпадать. • Если объемы выборок меньше 50, то абсолютная величина разности n1 (количество единиц в первой выборке) и n2 (количество единиц во второй выборке) не должна быть больше 10. • Если объемы выборок между 50 и 100, то абсолютная величина разности n1 и n2 не должна быть больше 20; • Если объемы выборок больше 100, то допускается, чтобы одна из выброк превышала другую не более чем в 1,5 – 2 раза. 3.Диапазоны значений признака в двух выборках не должны совпадать между собой. Использование критерия Для применения Q-критерия Розенбаума нужно произвести следующие операции. Упорядочить значения отдельно в каждой выборке по степени возрастания признака; принять за первую выборку ту, значения признака в которой предположительно выше, а за вторую – ту, где значения признака предположительно ниже. Определить максимальное значение признака во второй выборке и подсчитать количество значений признака в первой выборке, которые больше его (S1). Определить минимальное значение признака в первой выборке и подсчитать количество значений признака во второй выборке, которые меньше его (S2). Рассчитать значение критерия Q = S1 + S2. По таблице определить критические значения критерия для данных n1 и n2. Если полученное значение Q превышает табличное или равно ему, то признается наличие существенного различия между уровнем признака в рассматриваемых выборках (принимается альтернативная гипотеза). Если же полученное значение Q меньше табличного, принимается нулевая гипотеза. 5. Статистические критерии различий. U-критерий Манна-Уитни. Назначение U-критерия Манна-Уитни Настоящий статистический метод был предложен Фрэнком Вилкоксоном (см. фото) в 1945 году. Однако в 1947 году метод был улучшен и расширен Х. Б. Манном и Д. Р. Уитни, посему U-критерий чаще называют их именами. Критерий предназначен для оценки различий между двумя выборками по уровню какого-либо признака, количественно измеренного. Он позволяет выявлять различия между малыми выборками, когда n1,n2≥3 или n1=2, n2≥5, и является более мощным, чем критерий Розенбаума. Описание U-критерия Манна-Уитни Существует несколько способов использования критерия и несколько вариантов таблиц критических значений, соответствующих этим способам (Гублер Е. В., 1978; Рунион Р., 1982; Захаров В. П., 1985; McCall R., 1970; Krauth J., 1988). Этот метод определяет, достаточно ли мала зона перекрещивающихся значений между двумя рядами. Мы помним, что 1-м рядом (выборкой, группой) мы называем тот ряд значений, в котором значения, по предварительной оценке, выше, а 2-м рядом - тот, где они предположительно ниже. Чем меньше область перекрещивающихся значений, тем более вероятно, что различия достоверны. Иногда эти различия называют различиями в расположении двух выборок (Welkowitz J. et al., 1982). Эмпирическое значение критерия U отражает то, насколько велика зона совпадения между рядами. Поэтому чем меньше Uэмп, тем более вероятно, что различия достоверны. Гипотезы U - критерия Манна-Уитни H0: Уровень признака в группе 2 не ниже уровня признака в группе 1. H1: Уровень признака в группе 2 ниже уровня признака в группе 1. Ограничения U-критерия Манна-Уитни 1. В каждой выборке должно быть не менее 3 наблюдений: n1,n2 ≥ З; допускается, чтобы в одной выборке было 2 наблюдения, но тогда во второй их должно быть не менее 5. 2. В каждой выборке должно быть не более 60 наблюдений; n1, n2 ≤ 60. 6. Оценка достоверности сдвига в значениях исследуемого признака. G-критерий знаков. В психологических исследованиях часто бывает важно доказать, что в результате действия каких-либо факторов произошли достоверные изменения ("сдвиги") в измеряемых показателях. К числу таких факторов должен быть отнесен прежде всего фактор времени. Сопоставление показателей, полученных у одних и тех же испытуемых по одним и тем же методикам, но в разное время, дает нам временной сдвиг. Сопоставление показателей, полученных по одним и тем же методикам, но в разных условиях измерения (например, "покоя" и "стресса"), дает нам ситуационный сдвиг. Мы можем создать специальные экспериментальные условия, предположительно влияющие на те или иные показатели, и сопоставить замеры, произведенные до и после экспериментального воздействия. Если сдвиги окажутся статистически достоверными, это позволит нам утверждать, что экспериментальные воздействия были существенными, или эффективными. Например, мы можем сделать вывод о том, что данная программа тренинга действительно способствует развитию уверенности, или что данный способ внушающего воздействия влияет на изменение отношения испытуемых к той или иной проблеме, или что психодраматическая замена ролей подтверждает постулат Дж.Л. Морено о сближении позиций спорщиков после того, как им пришлось играть роль своего оппонента и т.п. Во всех этих случаях мы говорим о сдвиге под влиянием контролируемых или не контролируемых воздействий. И здесь мы наталкиваемся на методическую трудность, которую оказывается возможным преодолеть только путем введения контрольной группы, которая не испытывала бы на себе воздействия данного экспериментального фактора. Если нет контрольной группы, то сдвиг в экспериментальной группе может объясняться действием самых разных причин: временем суток, в которое производились замеры, важным для испытуемых событием, которое произошло между 1-м и 2-м замерами и по мощности воздействия значительно перекрыло экспериментальный фактор и т. п. Мы никогда не сможем исключить той возможности, что изменения, достигнутые, как нам кажется, в результате наших воздействий, на самом деле объясняются неучтенными причинами. Вот если в экспериментальной группе сдвиги окажутся достоверными, а в контрольной группе - недостоверными, то это, действительно, может свидетельствовать об эффективности воздействий. При отсутствии контрольной группы мы констатируем, что сдвиг произошел, но не имеем права приписать его именно данным, изучаемым нами, факторам воздействия. 3.1. G- критерий знаков Назначение критерия G Критерий знаков G предназначен для установления общего направления сдвига исследуемого признака. Он позволяет установить, в какую сторону в выборке в целом изменяются значения признака при переходе от первого измерения ко второму: изменяются ли показатели в сторону улучшения, повышения или усиления или, наоборот, в сторону ухудшения, понижения или ослабления. Описание критерия G Критерий знаков применим и к тем сдвигам, которые можно определить лишь качественно (например, изменение отрицательного отношения к чему-либо на положительное), так и к тем сдвигам, которые могут быть измерены количественно (например, сокращение времени работы над заданием после экспериментального воздействия). Во втором случае, однако, если сдвиги варьируют в достаточно широком диапазоне, лучше применять критерий Т Вилкоксона. Он учитывает не только направление, но и интенсивность сдвигов и может оказаться более мощным в определении достоверности сдвигов, чем критерий знаков. Как правило, исследователь уже в процессе эксперимента может заметить, что у большинства испытуемых показатели во втором замере имеют тенденцию, скажем, повышаться. Однако ему еще требуется доказать, что положительный сдвиг является преобладающим. Для начала мы назовем сдвиги, которые нам кажутся преобладающими, типичными сдвигами, а сдвиги более редкого, противоположного направления, нетипичными. Если значения показателя повышаются у большего количества испытуемых, то этот сдвиг мы будем считать типичным. Если мы исследуем отношение испытуемых к какому-либо событию или предложению, и после экспериментальных воздействий у большинства испытуемых отрицательное отношение сменилось на положительное, то этот сдвиг мы назовем типичным. Есть еще, правда, возможность "нулевых" сдвигов, когда реакция не изменяется или показатели не повышаются и не понижаются, а остаются на прежнем уровне. Однако такие "нулевые" сдвиги в критерии знаков исключаются из рассмотрения. При этом количество сопоставляемых пар уменьшается на число таких "нулевых" сдвигов. Суть критерия знаков состоит в том, что он определяет, не слишком ли много наблюдается "нетипичных сдвигов", чтобы сдвиг в "типичном" направлении считать преобладающим? Ясно, что чем меньше "нетипичных сдвигов", тем более вероятно, что преобладание "типичного" сдвига является преобладающим. Gэмп - это количество "нетипичных" сдвигов. Чем меньше Gэмп, тем более вероятно, что сдвиг в "типичном" направлении статистически достоверен. Гипотезы Н0: Преобладание типичного направления сдвига является случайным. H1: Преобладание типичного направления сдвига не является случайным. Ограничения критерия знаков Количество наблюдений в обоих замерах - не менее 5 и не более 300. АЛГОРИТМ 8 Расчет критерия знаков G 1. Подсчитать количество нулевых реакций и исключить их из рассмотрения. В результате п уменьшится на количество нулевых реакций. 2. Определить преобладающее направление изменений. Считать сдвиги в преобладающем направлении "типичными". 3. Определить количество "нетипичных" сдвигов. Считать это число эмпирическим значением G. 4. По Табл. V Приложения 1 определить критические значения G для данного п. 5. Сопоставить Gэмп с Gкр. Если Gэмп меньше Gкр или по крайней мере равен ему, сдвиг в типичную сторону может считаться достоверным. 7. Оценка достоверности сдвига в значениях исследуемого признака. T-критерий Вилкоксона. Назначение Т - критерия Вилкоксона Критерий применяется для сопоставления показателей, измеренных в двух разных условиях на одной и той же выборке испытуемых. Он позволяет установить не только направленность изменений, но и их выраженность. С его помощью мы определяем, является ли сдвиг показателей в каком-то одном направлении более интенсивным, чем в другом. Описание Т – критерия Вилкоксона Этот критерий применим в тех случаях, когда признаки измерены по крайней мере по шкале порядка, и сдвиги между вторым и первым замерами тоже могут быть упорядочены. Для этого они должны варьировать в достаточно широком диапазоне. В принципе, можно применять Т - критерий Вилкоксона и в тех случаях, когда сдвиги принимают только три значения: -1, 0 и +1, но тогда критерий Т вряд ли добавит что-нибудь новое к тем выводам, которые можно было бы получить с помощью критерия знаков. Вот если сдвиги изменяются, скажем, от -30 до +45, тогда имеет смысл их ранжировать и потом суммировать ранги. Суть метода состоит в том, что мы сопоставляем выраженность сдвигов в том и ином направлениях по абсолютной величине. Для этого мы сначала ранжируем все абсолютные величины сдвигов, а потом суммируем ранги. Если сдвиги в положительную и в отрицательную сторону происходят случайно, то суммы рангов абсолютных значений их будут примерно равны. Если же интенсивность сдвига в одном из направлений перевешивает, то сумма рангов абсолютных значений сдвигов в противоположную сторону будет значительно ниже, чем это могло бы быть при случайных изменениях. Первоначально мы исходим из предположения о том, что типичным сдвигом будет сдвиг в более часто встречающемся направлении, а нетипичным, или редким, сдвигом - сдвиг в более редко встречающемся направлении. Гипотезы Т – критерия Вилкоксона H0: Интенсивность сдвигов в типичном направлении не превосходит интенсивности сдвигов в нетипичном направлении. H1: Интенсивность сдвигов в типичном направлении превышает интенсивность сдвигов в нетипичном направлении. Ограничения в применении Т – критерия Вилкоксона 1. Минимальное количество испытуемых, прошедших измерения в двух условиях - 5 человек. Максимальное количество испытуемых - 50 человек, что диктуется верхней границей имеющихся таблиц. 2. Нулевые сдвиги из рассмотрения исключаются, и количество наблюдений n уменьшается на количество этих нулевых сдвигов (при условии, если флажок «Учитывать нулевой сдвиг?» не установлен). Можно обойти это ограничение (установив флажок «Учитывать нулевой сдвиг?»), сформулировав гипотезы, включающие отсутствие изменений, например: "Сдвиг в сторону увеличения значений превышает сдвиг в сторону уменьшения значений и тенденцию сохранения их на прежнем уровне". 8. Выявление различий в распределении признака. χ2-критерий Пирсона. Назначение критерия χ2 - критерия Пирсона Критерий χ2 применяется в двух целях: 1) для сопоставления эмпирического распределения признака с теоретическим - равномерным, нормальным или каким-то иным; 2) для сопоставления двух, трех или более эмпирических распределений одного и того же признака (в скрипте до 10). Описание критерия Критерий χ2 отвечает на вопрос о том, с одинаковой ли частотой встречаются разные значения признака в эмпирическом и теоретическом распределениях или в двух и более эмпирических распределениях. Преимущество метода состоит в том, что он позволяет сопоставлять распределения признаков, представленных в любой шкале, начиная от шкалы наименований. В самом простом случае альтернативного распределения "да - нет", "допустил брак - не допустил брака", "решил задачу - не решил задачу" и т. п. мы уже можем применить критерий χ2. Чем больше расхождение между двумя сопоставляемыми распределениями, тем больше эмпирическое значение χ2. 9. Выявление различий в распределении признака. λ-критерий Колмогорова-Смирнова. 10. Понятие корреляционной связи. Исследователя нередко интересует, как связаны между собой две или большее количество переменных в одной или нескольких изучаемых выборках. Например, могут ли учащиеся с высоким уровнем тревожности демонстрировать стабильные академические достижения, или связана ли продолжительность работы учителя в школе с размером его заработной платы, или с чем больше связан уровень умственного развития учащихся — с их успеваемостью по математике или по литературе и т.п.? Такого рода зависимость между переменными величинами называется корреляционной, или корреляцией. Корреляционная связь — это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого. Известно, например, что в среднем между ростом людей и их весом наблюдается положительная связь, и такая, что чем больше рост, тем больше вес человека. Однако из этого правила имеются исключения, когда относительно низкие люди имеют избыточный вес, и, наоборот, астеники, при высоком росте имеют малый вес. Причиной подобных исключений является то, что каждый биологический, физиологический или психологический признак определяется воздействием многих факторов: средовых, генетических, социальных, экологических и т.д. Корреляционные связи — это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. «Оба термина, — пишет Е.В. Сидоренко, — корреляционная связь и корреляционная зависимость — часто используются как синонимы. Зависимость подразумевает влияние, связь — любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого. Корреляционная зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака (Е.В. Сидоренко, 2000). Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции. Корреляционные связи различаются по форме, направлению и степени (силе). По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи (см. рис. 1). При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности. По направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака - низкие значения другого. При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции - отрицательный знак, например r=—0,207. Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции. Сила связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции. Максимальное возможное абсолютное значение коэффициента корреляции r=1,00; минимальное r=0,00. Общая классификация корреляционных связей (по Ивантер Э.В., Коросову А.В., 1992): сильная, или тесная при коэффициенте корреляции r>0,70; средняя при 0,50<r<0,69; умеренная при 0,30<r<0,49; слабая при 0,20<r<0,29; очень слабая при r<0,19.

kadril: 11. Ранговый коэффициент корреляции Спирмена. Случай одинаковых рангов. Назначение рангового коэффициента корреляции Метод ранговой корреляции Спирмена позволяет определить тесноту (силу) и направление корреляционной связи между двумя признаками или двумя профилями (иерархиями) признаков. Описание метода Для подсчета ранговой корреляции Спирмена необходимо располагать двумя рядами значений, которые могут быть проранжированы. Такими рядами значений могут быть: 1) два признака, измеренные в одной и той же группе испытуемых; 2) две индивидуальные иерархии признаков, выявленные у двух испытуемых по одному и тому же набору признаков (например, личностные профили по 16-факторному опроснику Р. Б. Кеттелла, иерархии ценностей по методике Р. Рокича, последовательности предпочтений в выборе из нескольких альтернатив и др.); 3) две групповые иерархии признаков; 4) индивидуальная и групповая иерархии признаков. Вначале показатели ранжируются отдельно по каждому из признаков. Как правило, меньшему значению признака начисляется меньший ранг. 12. Ранговый коэффициент корреляции Кендалла. Случай одинаковых рангов. Ранг - это порядковый номер значений признака, расположенных в порядке возрастания или убывания их величин. Ранжирование - это процедура упорядочения объектов изучения, которая выполняется на основе предпочтения. Ранговый коэффициент корреляции Кендалла (t ) может также использоваться для измерения взаимосвязи между качественными и количественными признаками, характеризующими однородные объекты, ранжированные по одному принципу. Расчет данного коэффициента выполняется в следующей последовательности: • значения X ранжируются в порядке возрастания или убывания; • значения Y располагаются в порядке, соответствующем значениям X; • для каждого ранга Y определяется число следующих за ним значений рангов, превышающих его величину. Суммируя таким образом числа, определяется величина P как мера соответствия последовательностей рангов по X и Y и учитывается со знаком (+); • для каждого ранга Y определяется число следующих за ним рангов, меньших его величины. Суммарная величина обозначается через Q и фиксируется со знаком (-); • определяется сумма баллов по всем членам ряда. Как правило, коэффициент Кендалла меньше коэффициента Спирмена. Этот коэффициент называют еще коэффициентом конкордации. Таким образом, основной идеей данного метода то, что о направлении связи можно судить, попарно сравнивая между собой испытуемых: если у пары испытуемых изменение по X совпадает по направлению с изменением по Y, то это свидетельствует о положительной связи, если не совпадает – то об отрицательной связи. Например, при исследовании личностных качеств, имеющих определяющее значение для семейного благополучия. В этом методе одна переменная представляется в виде монотонной последовательности (например, данные мужа) в порядке возрастания величин; другой переменной (например, данные жены) присваиваются соответствующие ранговые места. Количество инверсий (нарушений монотонности по сравнению с первым рядом) используется в формуле для корреляционных коэффициентов. Случай одинаковых рангов. При наличии одинаковых рангов формула расчета коэффициента линейной корреляции Спирмена будет несколько иной. В этом случае в формулу вычисления коэффициентов корреляции добавляются два новых члена, учитывающие одинаковые ранги. Они называются поправками на одинаковые ранги и добавляются в числитель расчетной формулы. где n – число одинаковых рангов в первом столбце, k – число одинаковых рангов во втором столбце. Для применения коэффициента корреляции Спирмена, необходимо соблюдать следующие условия: 1. Сравниваемые переменные должны быть получены в порядковой (ранговой) шкале, но могут быть измерены также в шкале интервалов и отношений. 2. Характер распределения коррелируемых величин не имеет значения. 3. Число варьирующих признаков в сравниваемых переменных X и У должно быть одинаковым. 4. Таблицы для определения критических значений коэффициента корреляции Спирмена (таблица 21 Приложения 1) рассчитаны от числа признаков равных n = 5 до n = 40 и при большем числе сравниваемых переменных следует использоватьтаблицу для пирсоновского коэффициента корреляции (таблицу 20 Приложения 1). Нахождение критических значенийосуществляется при k = n. 13. Коэффициент корреляции Пирсона. измеряет степень линейной зависимости между двумя интервальными переменными. Корреляция Пирсона (далее называемая просто корреляцией) предполагает, что две рассматриваемые переменные измерены, по крайней мере, в интервальной шкале. Она определяет степень, с которой значения двух переменных "пропорциональны" друг другу. Важно, что значение коэффициента корреляции не зависит от масштаба измерения. Например, корреляция между ростом и весом будет одной и той же, независимо от того, проводились измерения в дюймах и фунтах или в сантиметрах и килограммах. Пропорциональность означает просто линейную зависимость. Корреляция высокая, если на графике зависимость "можно представить" прямой линией (с положительным или отрицательным углом наклона). Проведенная прямая называется прямой регрессии или прямой, построенной методом наименьших квадратов. Последний термин связан с тем, что сумма квадратов расстояний (вычисленных по оси Y) от наблюдаемых точек до прямой является минимальной. Заметим, что использование квадратов расстояний приводит к тому, что оценки параметров прямой сильно реагируют на выбросы. 14. Линейная регрессия. Вычисление коэффициентов линейной регрессии. Широкое применение линейной регрессии обусловлено тем, что достаточно большое количество реальных процессов в экономике и бизнесе можно с достаточной точностью описать линейными моделями. Линейная регрессия является одним из известнейших методов регрессии, достаточно хорошо работающим в ряде простых задач. И, несмотря на наличие более совершенных методов, линейная регрессия нашла свою нишу. К достоинствам линейной регрессии можно отнести простоту алгоритма и высокое быстродействие. Недостаток только один, и он очевиден - неприспособленность к решению существенно нелинейных задач. Регрессионный анализ (линейный) — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Значения параметров в случае линейной регрессии находят с помощью метода наименьших квадратов (расчёт коэффициентов) Вычисление коэффициентов линейной регрессии Регрессионные коэффициенты (или B-коэффициенты) представляют независимые вклады каждой независимой переменной в предсказание зависимой переменной. 15. Множественная линейная регрессия. Общее назначение множественной регрессии (этот термин был впервые использован в работе Пирсона - Pearson, 1908) состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной. Например, агент по продаже недвижимости мог бы вносить в каждый элемент реестра размер дома (в квадратных футах), число спален, средний доход населения в этом районе в соответствии с данными переписи и субъективную оценку привлекательности дома. Как только эта информация собрана для различных домов, было бы интересно посмотреть, связаны ли и каким образом эти характеристики дома с ценой, по которой он был продан. Например, могло бы оказаться, что число спальных комнат является лучшим предсказывающим фактором (предиктором) для цены продажи дома в некотором специфическом районе, чем "привлекательность" дома (субъективная оценка). Могли бы также обнаружиться и "выбросы", т.е. дома, которые могли бы быть проданы дороже, учитывая их расположение и характеристики. Специалисты по кадрам обычно используют процедуры множественной регрессии для определения вознаграждения адекватного выполненной работе. Можно определить некоторое количество факторов или параметров, таких, как "размер ответственности" (Resp) или "число подчиненных" (No_Super), которые, как ожидается, оказывают влияние на стоимость работы. Кадровый аналитик затем проводит исследование размеров окладов (Salary) среди сравнимых компаний на рынке, записывая размер жалования и соответствующие характеристики (т.е. значения параметров) по различным позициям. Эта информация может быть использована при анализе с помощью множественной регрессии для построения регрессионного уравнения в следующем виде: Salary = .5*Resp + .8*No_Super Как только эта так называемая линия регрессии определена, аналитик оказывается в состоянии построить график ожидаемой (предсказанной) оплаты труда и реальных обязательств компании по выплате жалования. Таким образом, аналитик может определить, какие позиции недооценены (лежат ниже линии регрессии), какие оплачиваются слишком высоко (лежат выше линии регрессии), а какие оплачены адекватно. В общественных и естественных науках процедуры множественной регрессии чрезвычайно широко используются в исследованиях. В общем, множественная регрессия позволяет исследователю задать вопрос (и, вероятно, получить ответ) о том, "что является лучшим предиктором для...". Например, исследователь в области образования мог бы пожелать узнать, какие факторы являются лучшими предикторами успешной учебы в средней школе. А психолога мог быть заинтересовать вопрос, какие индивидуальные качества позволяют лучше предсказать степень социальной адаптации индивида. Социологи, вероятно, хотели бы найти те социальные индикаторы, которые лучше других предсказывают результат адаптации новой иммигрантской группы и степень ее слияния с обществом. Заметим, что термин "множественная" указывает на наличие нескольких предикторов или регрессоров, которые используются в модели. Вычислительные аспекты Общая вычислительная задача, которую требуется решать при анализе методом множественной регрессии, состоит в подгонке прямой линии к некоторому набору точек. В простейшем случае, когда имеется одна зависимая и одна независимая переменная, это можно увидеть на диаграмме рассеяния. Метод наименьших квадратов Уравнение регрессии Однозначный прогноз и частная корреляция Предсказанные значения и остатки Остаточная дисперсия и коэффициент детерминации R-квадрат Интерпретация коэффициента множественной корреляции R Метод наименьших квадратов. На диаграмме рассеяния имеется независимая переменная или переменная X и зависимая переменная Y. Эти переменные могут, например, представлять коэффициент IQ (уровень интеллекта, оцененный с помощью теста) и достижения в учебе (средний балл успеваемости - grade point average; GPA) соответственно. Каждая точка на диаграмме представляет данные одного студента, т.е. его соответствующие показатели IQ и GPA. Целью процедур линейной регрессии является подгонка прямой линии по точкам. А именно, программа строит линию регрессии так, чтобы минимизировать квадраты отклонений этой линии от наблюдаемых точек. Поэтому на эту общую процедуру иногда ссылаются как на оценивание по методу наименьших квадратов. (см. также описание оценивания по методу взвешенных наименьших квадратов). Уравнение регрессии. Прямая линия на плоскости (в пространстве двух измерений) задается уравнением Y=a+b*X; более подробно: переменная Y может быть выражена через константу (a) и угловой коэффициент (b), умноженный на переменную X. Константу иногда называют также свободным членом, а угловой коэффициент - регрессионным или B-коэффициентом. Например, значение GPA можно лучше всего предсказать по формуле 1+.02*IQ. Таким образом, зная, что коэффициент IQ у студента равен 130, вы могли бы предсказать его показатель успеваемости GPA, скорее всего, он близок к 3.6 (поскольку 1+.02*130=3.6). Например, анимационный ролик ниже показывает доверительные интервалы (90%, 95% и 99%), построенные для двумерного регрессионного уравнения. В многомерном случае, когда имеется более одной независимой переменной, линия регрессии не может быть отображена в двумерном пространстве, однако она также может быть легко оценена. Например, если в дополнение к IQ вы имеете другие предикторы успеваемости (например, Мотивация, Самодисциплина), вы можете построить линейное уравнение, содержащее все эти переменные. Тогда, в общем случае, процедуры множественной регрессии будут оценивать параметры линейного уравнения вида: Y = a + b1*X1 + b2*X2 + ... + bp*Xp Однозначный прогноз и частная корреляция. Регрессионные коэффициенты (или B-коэффициенты) представляют независимые вклады каждой независимой переменной в предсказание зависимой переменной. Другими словами, переменная X1, к примеру, коррелирует с переменной Y после учета влияния всех других независимых переменных. Этот тип корреляции упоминается также под названием частной корреляции (этот термин был впервые использован в работе Yule, 1907). Вероятно, следующий пример пояснит это понятие. Кто-то мог бы, вероятно, обнаружить значимую отрицательную корреляцию в популяции между длиной волос и ростом (невысокие люди обладают более длинными волосами). На первый взгляд это может показаться странным; однако, если добавить переменную Пол в уравнение множественной регрессии, эта корреляция, скорее всего, исчезнет. Это произойдет из-за того, что женщины, в среднем, имеют более длинные волосы, чем мужчины; при этом они также в среднем ниже мужчин. Таким образом, после удаления разницы по полу посредством ввода предиктора Пол в уравнение, связь между длиной волос и ростом исчезает, поскольку длина волос не дает какого-либо самостоятельного вклада в предсказание роста помимо того, который она разделяет с переменной Пол. Другими словами, после учета переменной Пол частная корреляция между длиной волос и ростом нулевая. Иными словами, если одна величина коррелирована с другой, то это может быть отражением того факта, что они обе коррелированы с третьей величиной или с совокупностью величин. Предсказанные значения и остатки. Линия регрессии выражает наилучшее предсказание зависимой переменной (Y) по независимым переменным (X). Однако, природа редко (если вообще когда-нибудь) бывает полностью предсказуемой и обычно имеется существенный разброс наблюдаемых точек относительно подогнанной прямой (как это было показано ранее на диаграмме рассеяния). Отклонение отдельной точки от линии регрессии (от предсказанного значения) называется остатком. Остаточная дисперсия и коэффициент детерминации R-квадрат. Чем меньше разброс значений остатков около линии регрессии по отношению к общему разбросу значений, тем, очевидно, лучше прогноз. Например, если связь между переменными X и Y отсутствует, то отношение остаточной изменчивости переменной Y к исходной дисперсии равно 1.0. Если X и Y жестко связаны, то остаточная изменчивость отсутствует, и отношение дисперсий будет равно 0.0. В большинстве случаев отношение будет лежать где-то между этими экстремальными значениями, т.е. между 0.0 и 1.0. 1.0 минус это отношение называется R-квадратом или коэффициентом детерминации. Это значение непосредственно интерпретируется следующим образом. Если имеется R-квадрат равный 0.4, то изменчивость значений переменной Y около линии регрессии составляет 1-0.4 от исходной дисперсии; другими словами, 40% от исходной изменчивости могут быть объяснены, а 60% остаточной изменчивости остаются необъясненными. В идеале желательно иметь объяснение если не для всей, то хотя бы для большей части исходной изменчивости. Значение R-квадрата является индикатором степени подгонки модели к данным (значение R-квадрата близкое к 1.0 показывает, что модель объясняет почти всю изменчивость соответствующих переменных). Интерпретация коэффициента множественной корреляции R. Обычно, степень зависимости двух или более предикторов (независимых переменных или переменных X) с зависимой переменной (Y) выражается с помощью коэффициента множественной корреляции R. По определению он равен корню квадратному из коэффициента детерминации. Это неотрицательная величина, принимающая значения между 0 и 1. Для интерпретации направления связи между переменными смотрят на знаки (плюс или минус) регрессионных коэффициентов или B-коэффициентов. Если B-коэффициент положителен, то связь этой переменной с зависимой переменной положительна (например, чем больше IQ, тем выше средний показатель успеваемости оценки); если B-коэффициент отрицателен, то и связь носит отрицательный характер (например, чем меньше число учащихся в классе, тем выше средние оценки по тестам). Конечно, если B-коэффициент равен 0, связь между переменными отсутствует. В начало Предположения, ограничения и обсуждение практических вопросов Предположение линейности Предположение нормальности Ограничения Выбор числа переменных Мультиколлинеарность и плохая обусловленность матрицы Важность анализа остатков 16. Алгоритмы проверки гипотез о значимости коэффициентов корреляции. 17. Понятие дисперсионного анализа, основные определения. Дисперсионный анализ (от латинского Dispersio - рассеивание) - статистический метод, позволяющий анализировать влияние различных факторов на исследуемую переменную. Метод был разработан биологом Р. Фишером Основные понятия дисперсионного анализа: В зависимости от количества факторов, определяющих вариацию результативного признака, дисперсионный анализ подразделяют на однофакторный и многофакторный. Однофакторный дисперсионный анализ для несвязанных выборок. Назначение метода. Метод однофакторного дисперсионного анализа применяется в тех случаях, когда исследуются изменения результативного признака (зависимой переменной) под влиянием изменяющихся условий или градаций какого-либо фактора. Влиянию каждой из градаций фактора подвержены разные выборки. Должно быть не менее трех градаций фактора и не менее двух наблюдений в каждой градации. Однофакторный дисперсионный анализ для связанных выборок. Назначение метода. Метод применяется в тех случаях, когда исследуется влияние разных условий действия фактора (градаций фактора) на одну и ту же выборку. (Одни и те же респонденты в разных условиях.) Условий (градаций) должно быть не менее трех. Индивидуальных значений по каждому условию должно быть не менее двух. В основе дисперсионного анализа лежит разделение дисперсии на части или компоненты. Обобщенно задача дисперсионного анализа состоит в том, чтобы из общей вариативности признака выделить три частные вариативности: - Вариативность, обусловленную действием каждой из исследуемых независимых переменных. - Вариативность, обусловленную взаимодействием исследуемых независмых переменных. - Вариативность случайную, обусловленную всеми неучтенными обстоятельствами. Вариативность, обусловленная действием исследуемых переменных и их взаимодействием соотносится со случайной вариативностью. Показателем этого соотношения является F – критерий Фишера (метод, не имеющий ничего общего, кроме автора, с «угловым преобразованием Фишера»). FэмпА = Вариативность, обусловленная действием переменной А / Случайная вариативность FэмпБ = Вариативность, обусловленная действием переменной Б / Случайная вариативность FэмпАБ = Вариативность, обусловленная взаимодействием А и Б / Случайная вариативность Виды дисперсионного анализа. Дисперсионный анализ схематически можно подразделить на несколько категорий. Это деление осуществляется, смотря по тому, сколько, во-первых, факторов принимает участие в рассмотрении, во-вторых, - сколько переменных подвержены действию факторов, и, в-третьих, - по тому, как соотносятся друг с другом выборки значений. При наличии одного фактора, влияние которого исследуется, дисперсионный анализ именуется однофакторным, и распадается на две разновидности: - Анализ несвязанных (то есть – различных) выборок. Например, одна группа респондентов решает задачу в условиях тишины, вторая – в шумной комнате. (В этом случае, к слову, нулевая гипотеза звучала бы так: «среднее время решения задач такого-то типа будет одинаково в тишине и в шумном помещении», то есть не зависит от фактора шума.)

kadril: 18. Подготовка данных к дисперсионному анализу. 1) Создание комплексов Лучше всего для каждого испытуемого создать отдельную карточку, куда были бы занесены данные по всем исследованным признакам. Дело в том, что в процессе анализа у исследователя могут измениться гипотезы. Потребуется создавать, быть может, не один, а множество дисперсионных комплексов, различающихся как по факторам, так и по результативным признакам. Карточки помогут нам быстро создавать новые дисперсионные комплексы. Благодаря карточкам мы сразу увидим, равномерно ли распределяются данные по градациям в случае, если за фактор мы решили принять один из исследованных психологических признаков. С помощью карточек мы можем помочь себе выделить три, четыре или более градаций этого фактора, например, уровни мотивации, настойчивости, креативности и др. 2) Уравновешивание комплексов Комплекс, в котором каждая ячейка представлена одинаковым количеством наблюдений, называется равномерным. Равномерность комплекса позволяет нам обойти требование равенства дисперсий в каждой из ячеек комплекса (Шеффе Г., 1980). Равномерные комплексы позволяют также избежать значительных трудностей, которые неизбежно возникают при обсчете неравномерных, или неортогональных, комплексов. В настоящем руководстве приведены алгоритмы расчета лишь для равномерных комплексов. С методами обсчета неравномерных комплексов можно ознакомиться у НА. Плохинского (1970), Г.В. Суходольского (1972), Г. Шеффе (1980). В случае, если в разных градациях комплекса оказалось неравное количество наблюдений, необходимо отсеять некоторые из них. Если в комплексе со связанными выборками кто-либо из испытуемых не был подвергнут одному из условий действия переменной (градаций фактора), то его данные исключаются. Если же комплекс включает независимые выборки, каждая из которых была подвергнута определенному условию воздействия (градации фактора), то "лишние" испытуемые в какой-либо из ячеек комплекса отсеиваются путем случайного выбора необходимого количества карточек. 3) Проверка нормальности распределения результативного признака. Дисперсионный анализ относится к группе параметрических методов и поэтому его следует применять только тогда, когда известно или доказано, что распределение признака является нормальным (Суходольский Г.В., 1972; Шеффе Г., 1980 и др.). Строго говоря, перед тем, как применять дисперсионный анализ, мы должны убедиться в нормальности распределения результативного признака. Нормальность распределения результативного признака можно проверить путем расчета показателей асимметрии и эксцесса и сопоставления их с критическими значениями (Пустыльник Е.И., 1968* Плохинский Н.А., 1970 и др.). Произведем необходимые расчеты на примере параграфа 8.3, в котором анализируется длительность мышечного волевого усилия. Действовать будем по следующему алгоритму: а) определим показатели асимметрии и эксцесса по формулам Н.А. Плохинского и сопоставим их с критическими значениями, указанными Н.А. Плохинским; б) рассчитаем критические значения показателей асимметрии и эксцесса по формулам Е.И. Пустыльника и сопоставим с ними эмпирические значения; в) если эмпирические значения показателей окажутся ниже критических, сделаем вывод о том, что распределение признака не отличается от нормального. 4) Преобразование эмпирических данных с целью упрощения расчетов Н.А. Плохинский указывает на возможность следующих преобразований: 1) все наблюдаемые значения можно разделить на одно и то же число k, например перевести показатели из миллиметров в сантиметры и т.п.; 2) все наблюдаемые значения можно умножить на одно и то же число k, например для того, чтобы избавиться от дробных значений; 3) от всех наблюдаемых значений можно отнять одно и то же число А, например наименьшее значение; 4) можно сделать двойное преобразование: из каждого значения вычесть число А, а полученный результат разделить на другое число k. При всех этих преобразованиях результативного признака показатели соотношения дисперсий получаются точными и не требуют никаких поправок. Средние величины изменяются, но их можно восстановить, умножая среднюю величину на число k или деля ее на k (варианты 1 и 2) или прибавляя к средней число А (вариант 3) и т. п. Стандартное отклонение изменяется только при введении множителя или делителя; полученный результат затем придется либо разделить на число к, либо умножить на него (Плохинский Н.А.,1964, с.34-36; Плохинский Н.А., 1970, с.71-72). В последующих трех параграфах будет рассмотрен метод одно-факторного анализа в двух вариантах: а) для дисперсионных комплексов, представляющих данные одной и той же выборки испытуемых, подвергнутой влиянию разных условий (разных градаций фактора); б) для дисперсионных комплексов, в которых влиянию разных условий (градаций фактора) были подвергнуты разные выборки испытуемых. Первый вариант называется однофакторным дисперсионным анализом для связанных выборок, второй - для несвязанных выборок. Все предложенные алгоритмы расчетов предназначены для равномерных комплексов, где в каждой ячейке представлено одинаковое | число наблюдений. 19. Однофакторный дисперсионный анализ для несвязанных выборок. Назначение метода Метод однофакторного дисперсионного анализа применяется в тех случаях, когда исследуются изменения результативного признака (зависимой переменной) под влиянием изменяющихся условий или градаций какого-либо фактора. Влиянию каждой из градаций фактора подвержены разные выборки. Должно быть не менее трех градаций фактора и не менее двух наблюдений в каждой градации. Описание метода. Расчеты начинаются с расстановки всех данных по столбцам, относящимся к каждому из факторов соответственно. Следующим действием будет нахождение сумм значений по столбцам (то есть – градациям) и возведение их в квадрат. Фактически метод состоит в сопоставлении каждой из полученных и возведенных в квадрат сумм с суммой квадратов всех значений, полученных во всем эксперименте. Алгоритм расчета. Промежуточные величины. T_c -суммы индивидуальных значений по каждому из условий сумма(T^2_c)-сумма квадратов суммарных значений по каждому из условий с-количество условий (градаций фактора) n-количество значений в каждом комплексе (испытуемых в каждой группе) N-общее количество индивидуальных значений (суммаx_i)^2-квадрат общей суммы индивидуальных значений сумма(x_i)^2 /N - константа, необходимая для вычитания из каждой суммы квадратов x_i -каждое индивидуальное значение сумма(x_i)^2 - сумма квадратов индивидуальных значений Принятые в литературе сокращения: СК или SS – сумма квадратов SSфакт. – вариативность, обусловленная действием исследуемого фактора SSобщ. – общая вариативность SSсл. – случайная вариативность MS – «средний квадрат» (математическое ожидание суммы квадратов, усредненная величина соответствующих SS) df – число степеней свободы. Основные вычисления. Подсчитать SSфакт. SSфакт. = 1/n суммаT^2_c – 1/n (сумма_xi)^2 Подсчитать SSобщ. SSобщ. = суммаx^2_i – 1/N (сумма_xi)^2 Подсчитать случайную остаточную величину SSсл. SSсл. = SSобщ. – SSфакт. Определить число степеней свободы dfфакт. = с – 1 dfобщ. = N – 1 dfсл. = dfобщ. – dfфакт. Разделить каждую SS на соответствующее число степеней свободы MSфакт. = SSфакт. / dfфакт. MS сл. = SS сл. / df сл. Подсчитать значение Fэмп. Fэмп. = MSфакт. / MS сл. Определить по таблицам критические значения F и сопоставить с ним полученное эмпирическое значение При Fэмп. >= Fкр. H0 отклоняется. 20. Однофакторный дисперсионный анализ для связанных выборок. Назначение метода. Метод применяется в тех случаях, когда исследуется влияние разных условий действия фактора (градаций фактора) на одну и ту же выборку. (Одни и те же респонденты в разных условиях.) Условий (градаций) должно быть не менее трех. Индивидуальных значений по каждому условию должно быть не менее двух. Описание метода. В этом случае различия могут быть вызваны не только влиянием фактора, но и индивидуальными различиями между испытуемыми. При анализе несвязанных выборок это обстоятельство не оказывало воздействия за счет того, что выборки были различны, и сводилось к случайным причинам различий, - здесь же индивидуальные различия между элементами выборки (респондентами) необходимо особо учитывать. (Индивидуальные различия могут оказаться более значимыми, чем изменение условий действия фактора.) Исходя из сказанного, в расчеты вводятся дополнительные компоненты – суммы квадратов сумм индивидуальных значений. Расчет промежуточных величин. Tc Суммы индивидуальных значений по каждому из условий СуммаT2c Сумма квадратов суммарных значений по каждому из условий с Количество значений у каждого респондента, то есть – количество условий n Количество респондентов N общее количество значений Tn Суммы индивидуальных значений по каждому респонденту СуммаT2n Сумма квадратов сумм индивидуальных значений по респондентам xi каждое индивидуальное значение (Суммаxi)2 квадрат общей суммы индивидуальных значений 1/N(Суммаxi)2 константа, необходимая для вычитания из каждой суммы квадратов Сумма(xi)2 сумма квадратов индивидуальных значений Основные вычисления. Подсчитать SSфакт. SSфакт. = 1/n СуммаT2c – 1/n (Суммаxi)2 Подсчитать SSресп. SSресп. =1/c СуммаT2n – 1/N (Суммаxi)2 Подсчитать SSобщ. SSобщ. = Суммаx2i – 1/N (Суммаxi)2 Подсчитать случайную остаточную величину SSсл. SSсл. = SSобщ. – SSфакт. – SSресп. Определить число степеней свободы dfфакт. = с – 1 dfресп. = n – 1 dfобщ. = N – 1 dfсл. = dfобщ. – dfфакт. – dfресп. Разделить каждую SS на соответствующее число степеней свободы MSфакт. = SSфакт. / dfфакт. MS респ. = SS респ. / df респ. MS сл. = SS сл. / df сл. Подсчитать значения F Fфакт.= MSфакт. / MS сл. Fресп.= MSресп. / MS сл. Определить по таблицам критические значения F и сопоставить с ними полученные эмпирические значения При Fэмп. >= Fкр. H0 отклоняется. 21. Двухфакторный дисперсионный анализ для несвязанных выборок. Двухфакторный дисперсионный анализ для несвязанных выборок Назначение метода Данный вариант двухфакторного дисперсионного анализа применяется в тех случаях, когда исследуется одновременное действие двух факторов на разные выборки испытуемых, т. е. когда разные выборки, испытуемых оказываются под воздействием разных сочетаний двух факторов. Количество выборок определяется количеством ячеек дисперсионного комплекса. Описание метода Суть метода остается прежней, но в двухфакторном дисперсионном анализе мы можем проверить большее количество гипотез. Расчеты гораздо сложнее, чем в однофакторных комплексах. Используемый в данном руководстве алгоритм расчетов предназначен только для равномерных комплексов. Если комплекс получился неравномерным, необходимо случайным образом отсеять несколько испытуемых. Работу начинаем с построения специальной таблицы, отражающей весь дисперсионный Ограничения двухфакторного дисперсионного анализа для несвязанных выборок 1. У каждого фактора должно быть не менее двух градаций. 2. В каждой ячейке комплекса должно быть не менее двух наблюдаемых значений для выявления взаимодействия градаций. 3. Количества значений во всех ячейках комплекса должны быть равны для обеспечения равенства дисперсий в ячейках комплекса и для использования приведенного выше алгоритма расчетов; для неравномерных комплексов можно использовать алгоритмы Н.А. Плохинского (1970). 4. Комплекс должен представлять собой симметричную систему: каждой градации фактора А должно соответствовать одинаковое количество градаций фактора В. 5. Результативный признак должен быть нормально распределен в исследуемой выборке, в противном случае значимые различия будет выявить гораздо труднее и применение метода будет не вполне корректным. 6. Факторы должны быть независимыми. В рассмотренном примере скорость предъявления слов и их длина - внешне независимые факторы. В других случаях независимость факторов может быть подтверждена отсутствием корреляционной связи между переменными, выступающими в качестве факторов. 22. Двухфакторный дисперсионный анализ для связанных выборок. Назначение метода Данный вариант двухфакторного дисперсионного анализа применяется в тех случаях, когда исследуется действие двух факторов на од-ну и ту же выборку испытуемых. Описание метода Допустим, мы измерили одни и те же показатели у одних и тех же испытуемых несколько раз - в разное время, в разных условиях, с помощью параллельных форм методики и т. п., и нам необходимо провести множественное сравнение показателей, изменяющихся при переходе от условия к условию. Критерий L Пейджа для анализа тенденций изменения признака и критерий ?2r Фридмана неприменимы, так как необходимо определить тенденцию изменения признака под влиянием двух факторов одновременно. Это позволяет сделать только дисперсионный анализ. Фактически в данной модели дисперсионного двухфакторного анализа проверяются 4 гипотезы: о влиянии фактора А, о влиянии фактора В, о влиянии взаимодействия факторов А и В и о влиянии фактора индивидуальных различий. В данном варианте дисперсионного анализа нам потребуются две рабочие таблицы, которые позволят рассчитывать сумму по разным комбинациям ячеек комплекса. Рассмотрим это на примере, являющемся продолжением примера из п. 3.3. Ограничения двухфакторного дисперсионного анализа для связанных выборок Все ограничения такие же, как и в модели для несвязанных выборок, с одним уточнением. Все испытуемые должны пройти все сочетания градаций двух факторов. Этим достигается равномерность комплекса. Итак, мы убедились, что двухфакторный дисперсионный анализ действительно позволяет нам оценить влияние двух факторов в их взаимодействии. Мы показали, что влияние одного фактора может оказаться различным при разных уровнях другого фактора, иногда различным вплоть до противоположности. Так, в примере о влиянии скорости предъявления слов и их длины на объем воспроизведения мы убедились в том, что фактор скорости при предъявлении коротких слов повышает результаты, а при предъявлении длинных слов - снижает результаты испытуемых. Дисперсионный анализ позволяет также доказать, что влияние индивидуальных различий может оказаться сильнее экспериментальных или иных факторов, как это было продемонстрировано в последнем из примеров. Более сложные схемы дисперсионного анализа позволяют анализировать совокупное действие трех, четырех и более факторов и получить еще более глубокие результаты.


jokerslot191: joker slot slot1688 slotxoth pg สล็อต เครดิตฟรี ไม่ต้องแชร์ https://jokerslot191.com/



полная версия страницы