Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

парной линейной корреляции




Простейшей системой корреляционной связи является линейная связь между двумя признаками - парная линейная корреляция. Практическое ее значение в том, что есть системы, в которых среди всех факторов, влияющих на результативный признак, выделяется один важнейший фактор, который в основном определяет вариацию результативного признака. Измерение парных корреляций составляет необходимый этап в изучении сложных, многофакторных связей. Есть такие системы связей, при изучении которых необходимо предпочесть парную корреляцию.

Измерение связи количественных признаков

 

В случае, когда параметры измеряются количественно, теснота парной линейной корреляционной связи может быть измерена корреляционным отношением:

.

Кроме того, при линейной форме уравнения применяется и другой показатель тесноты связи - коэффициент корреляции rxy. Этот показатель представляет собой стандартизованный коэф-фициент регрессии, т.е. коэффициент выраженный не в абсолют-ных единицах измерения признаков, а в долях среднего квадратичного отклонения результирующего признака:

.

Коэффициент корреляции был предложен английским статистиком Пирсоном. Его интерпретация такова: отклонение признака-фактора от его среднего значения на величину своего среднего квадратичного отклонения в среднем по совокупности приводит к отклонению признака-результата от своего среднего значения на Rxy его среднего квадратичного отклонения.

Для интерпретации коэффициента корреляции необходимо знать область его существования 0<=|r|<=1. Как ясно из формулы, минимальное, именно нулевое значение коэффициента корреляции может быть достигнуто, если положительные и отрицательные произведения отклонений признаков от их средних величин в числителе уравновесят друг друга. Это свидетельствовало бы о полном отсутствии связи, но вероятность такого абсолютно точного взаимопогашения абсолютно мала для любой реальной, но бесконечно большой совокупности. Поэтому и при отсутствии реальной связи коэффициент корреляции на практике не равен 0. Максимально тесная связь - это связь функциональная.

 

Измерение связи порядковых признаков

Показатель ранговой корреляции Спирмена применяется в случаях, если изучается линейная связь между рядами, представленными в количественной или порядковой шкале. Практически при анализе количественных признаков применять показатель Спирмена вместо коэффициента корреляционного отношения Пирсона не следует, так как при его вычислении происходит понижение количественной шкалы до порядковой. Расчет ведется по формуле:

,

где ri,si, i=1,2, …, n – массивы рангов;

n – число пар вариант исследуемых рядов;

Bx,By – поправки на объединение рангов в соответствующих рядах;

m – число групп объединенных рангов в ряду;

ni, i=1,2, …, m – число рангов в i-й группе.

Предположим, что группа городов ранжирована по чис-ленности населения и уровню загрязненности окружающей среды.

Города а б В г д е ж з и к
Численность 3 7 5 9 1 8 6 10 4 2
Загрязнение 2 4 3 5 1 9 8 10 7 6
Разности S 1 3 2 4 0 -1 -2 0 -3 -4
Разности S2 1 9 4 16 0 1 4 0 9 16

.

 

 

Измерение связи номинальных признаков

 

Учеными ряда стран за последние 100 лет разработано несколько методов измерения связи таких признаков. Описательные признаки - обычно альтернативные признаки, при которых каждый имеет по две разновидности. Например, больные могут выздороветь, а могут не выздороветь, признак есть (нет).

Коэффициент взаимной сопряженности Бравайса. В тех случаях, когда находящиеся в связи явления представлены описательными величинами, коэффициент корреляции находят по следующей формуле.

, где a,b,c,d - количество случаев отдельных комбинаций разновидностей исследуемых явлений.

При вычислении коэффициента корреляции знаменатель формулы всегда имеет положительный знак. Знак перед r зависит от того, какое из произведений больше ad или bc. Для того чтобы легче вычислить коэффициент корреляции, пользуются так называемой четырехпольной таблицей. В первом столбце этой таблицы указывают обе разновидности одного явления - Х1 и Х2, а в первой строке - обе разновидности второго -Y1 и Y2. При этом X1 и Y2 обозначают положительные разновидности, а X2 и Y1 - отрицательные. В указанных выше примерах под положительными разновидностями подразумевают выздоровевших, получивших отравление. При таком состоянии четырехпольная таблица принимает следующий вид:

X Y1 Y2 Всего
X1 a B (a+b)
X2 c D (c+d)
Всего (a+c) (b+d) (a+b+c+d)

Пример: Имеются следующие данные о вакцинации против гриппа и заболеваемости гриппом во время эпидемии:

  Заболело Не заболело Всего
Вакцинировано 10 490 500
Не вакцинировано 990 510 1500
Всего 1000 1000 2000

Требуется определить размер связи между проведенной вакцинацией и заболеваемостью. r=-0,6. Коэффициент корреляции показывает обратную связь: вакцинированные реже болеют, чем не вакцинированные.

Коэффициент сопряженности Чупрова. Дальнейшим обоб-щением четырехпольных таблиц являются многопольные таблицы, для которых сопряженность наиболее часто оценивается по формуле, предложенной русским статистиком А. А. Чупровым. Прежде чем приводить ее рассмотрим несколько реальных ситуаций, когда такая оценка может потребоваться. Известно, например, что окраска тюльпанов связана с наличием определенных пигментов. Может представлять интерес вопрос о том, с какими именно пигментами преимущественно связана та или иная окраска цветка. Или другой пример. Окружающая гнездо полярной крачки обстановка может представлять собой зеленые растения, растения и гальку, пестрые камешки и т. д. При этом можно наблюдать самые разные по качеству гнезда: от его отсутствия до очень хорошо сделанного. В этом случае желательно знать, связано ли качество гнезда с какой-то одной или несколькими характеристиками окружающей среды. Общим для этих и других подобных задач является то, что в распоряжении экспериментатора оказываются данные о некотором множестве объектов, обладающих двумя признаками, причем каждый из признаков может иметь несколько градаций. В этом случае , где m - число разновидностей явления Х; k - число разновидностей явления Y, n – общее число объектов (m*k).

Независимо то того, что каждый из описательных признаков, несмотря на разницу в численности его разновидностей, можно свести к альтернативному - только с двумя разновидностями, довольно часто в практике возникает необходимость работать с описательными признаками более двух разновидностей. В таких случаях необходимо при вычислении коэффициента корреляции составлять так называемую корреляционную таблицу (где X1,X2,...Xn - обозначают разновидность одного признака, а Y1, Y2... Yn - разновидности другого).

При наличии такой схемы коэффициент корреляции находят по формуле: , где - коэффициент связи, m- число разновидностей явления Х; k - число разновидностей явления Y.

Данный метод пригоден также и для экспрессной оценки связи между количественными (например возраст) и качествен-ными (например брак) параметрами.

На практике (особенно в зоологии и ботанике) довольно часто встречаются другие меры измерения связи.

Коэффициент Жаккара
Простой коэффициент втречаемости (показатель подобия Сокала и Миченера)
Показатель подобия Рассела и Рао
Коэффициент ассоциации Юла
Хеммингово расстояние H=a+d
Коэффициент детерминации R=r2
Коэффициент определения R=100r2
Коэффициент акорреляции

Относительный риск. Отношение шансов

 

  Исход есть (1) Исхода нет (0) Всего
Фактор риска есть (1) 10 (А) 13 (В) 23 (А+В)
Фактора риска нет (0) 4 (С) 21 (D) 25 (С+D)
Всего      

 

Мы рассмотрели способы проверки гипотез о наличии статистической связи между номинальными переменными, а также способы оценки силы взаимосвязи между этими переменными. Тем не менее сообщение о том, что была обнаружена статистически значимая связь средней силы между фактором риска и исходом, для исследователей в области биомедицинских наук, заинтересованных в практическом применении результатов исследования, недостаточно информативно. Гораздо продуктивнее было бы говорить о количественной оценке вероятности исхода, связанной с наличием фактора риска. Однако не все исследования позволяют говорить о риске и оценивать вероятность возникновения исхода в зависимости от наличия или отсутствия фактора риска.

Мы же остановимся только на некоторых расчетах, применимых к нашему примеру. Учитывая, что наше гипотетическое исследование было проспективным, мы можем рассчитать относительный риск (Relative Risk, RR). Поскольку в примере ничего не сообщается о времени наблюдения, но подразумевается, что оно было одинаковым для обеих групп (с наличием фактора риска и без него), относительный риск будет равен отношению рисков. Отношение рисков отражает, во сколько раз риск исхода при наличии фактора риска выше риска исхода при отсутствии фактора риска и рассчитывается применимо к таблице следующим образом:

 

Это говорит о том, что фактор риска может увеличивать вероятность возникновения исхода в 2,7 раза или что риск исхода у тех, у кого есть фактор риска, в 2,7 раза выше, чем у тех, у кого фактора риска нет. Такой результат гораздо более информативен. Однако различия в 2,7 раза справедливы только для нашей выборочной совокупности. Даже если допустить, что наша выборка репрезентативна, систематические ошибки отсутствуют, а влияние вмешивающихся факторов (конфаундеров) минимально, относительный риск для генеральной совокупности может отличаться, поэтому всегда рекомендуется представлять интервальную оценку относительного риска с помощью 95 % доверительного интервала. Этот интервал представляет собой область, в которую попадает истинное значение доли в 95 % случаев. Другими словами, можно с 95 % надежностью сказать, что истинное значение частоты встречаемости признака в генеральной совокупности будет находиться в пределах 95 % доверительного интервала. Методы расчета доверительного интервала для частот и долей рассматривались в предыдущем номере журнала [4]. Для относительного риска 95 % доверительный интервал можно рассчитать по формуле:

 

Верхняя граница: ex, где

 

Нижняя граница: ех, где

 

а е – основание натурального логарифма (число Эйлера ~ 2,7). Для данного примера можно с 95 % уверенностью сказать, что относительный риск будет находиться в промежутке от 1,0 до 7,5. Значительная ширина доверительного интервала вызвана малым объемом выборки. Хотелось бы предостеречь читателей от переоценки важности относительного риска. Например, относительный риск может быть равен 2,0 как в ситуации, когда абсолютные риски развития заболевания равны 1 на 1 000 000 и 2 на 1 000 000, а также 1 на 10 и 2 на 10. В первом случае абсолютная разница рисков будет не очень важна, так как составит 0,000 001. Во втором же разница рисков составит 0,1. Если взять обратные величины из полученных разностей рисков, то можно будет увидеть у скольких человек необходимо устранить фактор риск, чтобы предотвратить 1 исход. В первом случае надо устранить фактор риска у миллиона, а во втором – всего у 10 человек. Особенно актуальными такие расчеты становятся при оценке эффективности лечебного вмешательства. Рассчитанная величина будет называться числом пациентов, подвергаемых лечению, на один предотвращенный неблагоприятный исход (в англоязычной литературе NNT – Number Needed to Treat).

Для нашего примера тоже можно рассчитать разность рисков: А(А+В)/С(С+D), которая будет равна 0,275, или 27,5 %, а для того, чтобы предотвратить один исход, необходимо устранить фактор риска всего у 4 человек (NNT ~3,6), что говорит о том, что потенциальный эффект от профилактических мер, направленных на устранение изучаемого фактора риска, очень велик (при условии, что распространенность фактора риска в генеральной совокупности такая же, как и в выборке).

Если бы наше исследование было типа «случай – контроль», было бы неверным рассчитывать относительный риск. В таких исследованиях в качестве меры эффекта выступает отношение шансов (Odds Ratio, OR). Представим на минуту, что наше исследование было исследованием типа «случай – контроль». Тогда

то есть шансы на изучаемый исход были в 4 раза выше у тех участников исследования, у кого имелся фактор риска, чем у тех, у кого фактора риска не было. При проецировании результатов на генеральную совокупность также необходимо рассчитать 95 % доверительный интервал, в который попадут значения

от

 

до

 

где е – основание натурального логарифма. Для нашего примера 95 % значений отношения шансов (ОШ) будут попадать в интервал от 1,0 до 15,6. Следует помнить, что вышеприведенные формулы для расчета доверительных интервалов предназначены только для независимых данных и неприменимы в исследованиях типа «до – после», а также в исследованиях типа «случай – контроль» по методу подобранных пар (Matched case-control study). Не стоит представлять в одном исследовании и относительный риск, и отношение шансов в одном и том же исследовании. Для исследований типа «случай – контроль» описанные выше расчеты относительного риска, разницы рисков и NNT провести невозможно.

Статистическая оценка надежности параметров

парной корреляции

Показатели корреляционной связи, вычисленные по ограниченной совокупности (по выборке), являются лишь оценкой той или иной статистической закономерности, поскольку в любом параметре сохраняется элемент не полностью погасившейся случайности, присущей индивидуальным значениям признака. Поэтому необходима статистическая оценка степени точности и надежности параметров корреляции. Под надежностью здесь понимается вероятность того, что значение проверяемого параметра не равно 0, не включает в себя величины противоположных знаков.

Вероятностная оценка параметров корреляции проводится по общим правилам проверки статистических гипотез, разработанным математической статистикой, в частности путем сравнения оцениваемой величины со средней случайной ошибкой оценки. Для коэффициента парной регрессии b средняя вычисляется как:

, где n-2 число степеней свободы. Зная среднюю ошибку коэффициента регрессии, можно вычислить вероятность того, что нулевое значение коэффициента входит в интервал возможных с учетом ошибки значений. С этой целью находится отношение коэффициента к его средней ошибке, т.е. t-критерий Стьюдента.

t=b/mb.

или

 

Надежность установления связи можно проверить и по средней случайной ошибке коэффициента корреляции:

Если коэффициент корреляции близок к единице, то распределение его оценок отличается от нормального или распределения Стьюдента, так как он ограничен величиной 1. В таких случаях Фишер предложил для оценки надежности коэффициента преобразовать его величину в форму не имеющую ограничения:

, средняя ошибка величины z определяется по формуле

Частная корреляция

 

Ранее упоминалось, что обнаруживаемая по коэффициенту корреляции взаимосвязь между двумя случайными величинами может быть всего лишь отражением того, что обе они коррелируют с третьей величиной. В такой ситуации необходимо рассмотреть так называемую частную корреляцию.

Найдено три взаимосвязи

Артериальное давление – возраст: -0,59

Артериальное давление – вес: -0,41

Возраст – вес: 0,91

Что же показывает частная корреляция? Если корреляция между двумя величинами уменьшается, когда фиксируется третья величина, то это значит, что взаимосвязь между этими двумя величинами возникает частично за счет действия третьей величины. В пределе, если корреляция между указанными двумя величинами становится равной нулю, то можно считать, что взаимосвязь между ними целиком возникает за счет третьей величины.

Частный коэффициент корреляции вычисляется по формуле:

.

Два других коэффициента r13,2 и r23,1 вычисляются циклической перестановкой коэффициентов.

Рассчитаем частные коэффициенты для примера:

,

,

.

Прежде всего мы видим, что r12,3 и r23,1 практически не отличаются от r12 и r23. Что касается взаимосвязи между весом и артериальным давлением, то здесь наглядно видно, какие «ловушки» подстерегают исследователя при истолковании коэффициентов корреляции.

В самом деле, если бы в нашем распоряжении оказались только данные о максимальном артериальном давлении и весе детей, то, базируясь только на вычисленном коэффициенте корреляции, нужно было бы сделать вывод о том, что увеличение веса в среднем приводит к уменьшению артериального давления. На самом же деле такая связь существует между возрастом и артериальным давлением, а вес имеет очень тесную взаимосвязь с возрастом, за счет чего и получается вычисленное значение r13.

Метод множественных корреляций в отличие от метода пар­ных корреляций позволяет выявить общую структуру корреля­ционных зависимостей, существующих внутри многомерного экспериментального материала, включающего более двух пере­менных, и представить эти корреляционные зависимости в виде некоторой системы

 

ФАКТОРНЫЙ АНАЛИЗ

 

Один из наиболее распространенных вариантов этого мето­да — факторный анализ — позволяет определить совокупность внутренних взаимосвязей, возможных причинно-следственных связей, существующих в экспериментальном материале. В ре­зультате факторного анализа обнаруживаются так называемые факторы причины, объясняющие множество частных (пар­ных) корреляционных зависимостей.

Фактор — математико-статистическое понятие. Будучи пере­веденным на язык психологии (эта процедура называется содер­жательной или психологической интерпретацией факторов), он становится психологическим понятием. Например, в известном 16-факторном личностном тесте Р. Кеттела каждый фактор взаимно одно­значно связан с определенными чертами личности человека.

С помощью выявленных факторов объясняют взаимозави­симость психологических явлений. Поясним сказанное на при­мере. Допустим, что в некотором психолого-педагогическом экс­перименте изучалось взаимовлияние таких переменных, как ха­рактер, способности, потребности и успеваемость учащихся. Предположим далее, что, оценив каждую из этих переменных у достаточно представительной выборки испытуемых и подсчитав коэффициенты парных корреляций между всевозможными па­рами данных переменных, мы получили следующую матрицу ин­теркорреляций (в ней справа и сверху цифрами обозначены в пе­речисленном выше порядке изученные в эксперименте переменные, а внутри самого квадрата показаны их корреляции друг с другом; поскольку всевозможных пар в данном случае меньше, чем клеток в матрице, то заполнена только верхняя часть матри­цы, расположенная выше ее главной диагонали).

Анализ корреляционной матрицы показывает, что пе­ременная 1 (характер) значи­мо коррелирует с переменны­ми 2 и 3 (способности и по­требности). Переменная 2 (способности) достоверно коррелирует с переменной 3 (потребности), а переменная 3 (потребности) — с перемен­ной 4 (успеваемость). Факти­чески из шести имеющихся в матрице коэффициентов корреля­ции четыре являются достаточно высокими и, если предполо­жить, что они определялись на совокупности испытуемых, пре­вышающей 10 человек, — значимыми.

         
    0,82 0,50 0,04
      0,40 0,24
        0,75
         

Зададим некоторое правило умножения столбцов цифр на стро­ки матрицы: каждая цифра столбца последовательно умножается на каждую цифру строки и результаты парных произведений за­писываются в строку аналогичной матрицы. Пример: если по это­му правилу умножить друг на друга три цифры столбца и строки, представленные в левой части матричного равенства, то получим матрицу, находящуюся в правой части этого же равенства:

  X       =      
               
                 

Задача факторного анализа по отношению к только что рас­смотренной является как бы противоположной. Она сводится к тому, чтобы по уже имеющейся матрице парных корреляций, ана­логичной представленной в правой части показанного выше мат­ричного равенства, отыскать одинаковые по включенным в них цифрам столбец и строку, умножение которых друг на друга по заданному правилу порождает корреляционную матрицу.

 

Иллю­страция:

Х1 х Х1 Х2 Х3 Х4 =   0,16 0,50 0,30
Х2   0,16   0,40 0,24
Х3 0,50 0,40   0,75
Х4 0,30 0,24 0,75  

Здесь х1 х2, x3 и х4 — искомые числа.

Для их точного и быст­рого определения существуют специальные математические про­цедуры и программы для ЭВМ.

Допустим, что мы уже нашли эти цифры: x1= 0,45, х2 =,36 х3 = 1,12, х4= 0,67. Совокупность найденных цифр и называется фактором, а сами эти цифры — факторными весами или нагруз­ками.

Эти цифры соответствуют тем психологическим переменным, между которыми вычислялись парные корреляции,

х1— харак­тер,

х2 способности,

х3 — потребности,

х4 — успеваемость.

По­скольку наблюдаемые в эксперименте корреляции между пере­менными можно рассматривать как следствие влияния на них общих причин — факторов, а факторы интерпретируются в пси­хологических терминах, мы можем теперь от факторов перейти к содержательной психологической интерпретации обнаружен­ных статистических закономерностей. Фактор содержит в себе ту же самую информацию, что и вся корреляционная матрица, а факторные нагрузки соответствуют коэффициентам корреляции. В нашем примере х3 (потребности) имеет наибольшую фактор­ную нагрузку (1,12), а х2 (способности) — наименьшую (0,36).

Следовательно, наиболее значимой причиной, влияющей на все остальные психологические переменные, в нашем случае явля­ются потребности, а наименее значимой — способности. Из кор­реляционной матрицы видно, что связи переменной х3 со всеми остальными являются наиболее сильными (от 0,40 до 0,75), а кор­реляции переменной х2 самыми слабыми (от 0,16 до 0,40).

Чаще всего в итоге факторного анализа определяется не один, а несколько факторов, по-разному объясняющих матрицу интер­корреляций переменных. В таком случае факторы делят на ге­неральные, общие и единичные.

 

Генеральными называются фак­торы, все факторные нагрузки которых значительно отличают­ся от нуля (нуль нагрузки свидетельствует о том, что данная пе­ременная никак не связана с остальными и не оказывает на них никакого влияния в жизни).

Общие — это факторы, у которых часть факторных нагрузок отлична от нуля.

Единичные — это факторы, в которых существенно отличается от нуля только одна из нагрузок.

 

Вопросы для самопроверки:

 

1. Объясните значения фраз «высокая положительная корреляция» и «низкая отрицательная корреляция». Приведите примеры и графики, иллюстрирующие эти понятия.

2. Сформулируйте в содержательных понятиях задачу из области специализации, при решении которой необходимо вычислять: коэффициент корреляции Пирсона, коэффициент корреляции Спирмена, коэффициент взаимной сопряженности.

3. Перечислите причины появления ложной корреляции.

4. Объясните смысл коэффициента ранговой корреляции?

5. Может ли коэффициент корреляции быть равным нулю, когда между измеряемыми признаками наблюдается функциональная зависимость?

6. Приведите примеры, когда нулевая корреляция предполагает независимость и когда нулевая корреляция такой зависимости не предполагает?


Регрессионный анализ

Довольно часто в практике исследовательской работы имеет место ситуация, когда важнейшие переменные, описывающие некоторый процесс, известны заранее, но модель процесса еще не известна. В этом случае возможны разные подходы. Одним из них является построение эмпирических моделей.

Построение эмпирических моделей предполагает проведение экспериментов или наблюдений для сбора опытных данных, выбор одной определенной модели из некоторого множества возможных, вычисление коэффициентов модели («подгонку») и оценку полученных результатов.

Число цветков при разном количестве неорганического брома в почве.

Кол-во брома (мкг/см3) 2 4 6 8 10 12 14
Среднее число цветков 3,6 2,9 3,2 1,8 2,3 1,7 0,8

 

Метод наименьших квадратов

 

Метод наименьших квадратов, разработанный знаменитыми математиками К. Гауссом и А. Лежандром, берет свое начало от задач геодезии и астрономии. Рассмотрим его существо на примере линейной модели. Итак, пусть для представления полученных данных мы выбрали линейную модель y*=a+bx, где х – независимая переменная, т. е., переменная, которую экспериментатор может менять по своему усмотрению; y* - зависимая переменная или отклик; a и b – коэффициенты (параметры). Из данных, приведенных в примере, видно, что именно такой моделью (уравнением прямой линии) может быть описана зависимость.

С другой стороны, видно что реально наблюдаемые значения отклика yi несколько отличаются от откликов yi*, соответствующих уравнению модели. И такое положение будет всегда, даже в тех случаях, когда зависимая и независимая переменные будут связаны строгой функциональной зависимостью. В этом случае отклонения эмпирических значений от теоретических связаны с погрешностями измерений, которые всегда имеют место.

Итак, каждому значению независимой переменной в общем случае соответствует ошибка: ei=yi-yi*.

Естественно, что в зависимости от того, как будет проведена прямая, аппроксимирующая набор экспериментальных данных, величины ei будут различны. Именно, для того, чтобы избежать субъективности при построении эмпирической модели, и был разработан метод наименьших квадратов, позволяющий однозначно определить параметры выбранной модели. В основе этого метода лежит критерий минимизации суммы квадратов ошибок, т. е. требование, чтобы была минимальной.

Покажем, как используется метод наименьших квадратов на примере оценки параметров для уравнения y*=a+bx.

В общем случае необходимо решить систему уравнений:

, из которых находятся коэффициенты a и b.

Подставляя данные из примера, получаем:

16,3=7a+56b

107=56a+560b

Откуда a=4, b=-0,209.

В таблице приведено сравнение между реальными и теоретическими данными, а также величины ошибок.

Y 3,6 2,9 3,2 1,8 2,3 1,7 0,8
y* 3,582 3,164 2,746 2,328 1,91 1,492 1,074
ei 0,018 -0,264 0,454 -0,528 0,39 0,208 -0,274
Сумма ei 0,825            

 

Выбор формы функциональной зависимости

 

Пусть имеется ряд данных, представляющих одну зависимую и одну независмую переменную, и требуется определить функциональную связь между ними. Универсального способа решения этой задачи не существует. Иногда анализ графического изображения имеющихся данных, а также понимание механизма исследуемого процесса помогают выбрать вид аналитической зависимости. Особенно просто оценить вид функциональной зависимости, если экспериментальные данные укладываются или группируются относительно некоторой прямой.

Значительное число зависимостей, встречающихся в практике научных исследований в самых разных областях знаний, может быть описано следующими уравнениями:

y=a+bx,

y=a+bx+cx2,

y=abx,

y=axb,

y=x/(a+bx).

 

Применение парного линейного уравнения регрессии

 

Прежде чем обсуждать вопросы использования уравнений парной регрессии, вспомним, что парный корреляционный анализ не дает чистых мер влияния только одного изучаемого фактора. Если факторы взаимосвязаны, то парная связь измеряет влияние данного фактора и часть влияния прочих факторов, связанных с ним.

Уравнение регрессии применимо для прогнозирования возможных ожидаемых значений результативного признака. При этом следует учесть, что перенос закономерности связи, измеренной в варьирующей совокупности, в статике на динамику, не является, строго говоря, корректным и требует условий допустимости такого переноса (экстраполяции), что выходит за рамки статистики и может быть сделано только специалистом, хорошо знающим объект (систему) и возможности его развития в будущем).

Ограничением прогнозирования на основе регрессионного уравнения, тем более парного, служит условие стабильности или по крайней мере малой изменчивости других факторов и условий изучаемого процесса, не связанных с ними. Если резко изменится внешняя среда протекающего процесса, прежнее уравнение результативного признака на факторный потеряет свое значение. В сильно засушливый год доза удобрения может не оказать влияния на урожайность, так как последнюю лимитирует пониженная влагообеспеченность (закон Либиха).

 

 

Корреляционно-регрессионные модели (КРМ)

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...