Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Метод Райта путевого анализа




Содержание

Введение

Методы путевого анализа и их применение к системам одновременных уравнений

1.Метод Райта путевого анализа

2. Основная теорема путевого анализа

3. Процедура Саймона-Блейлока

Заключение

Список используемой литературы


Введение

 

Методы корреляций и регрессий создавались как методы описания совместных изменений двух и более переменных. Совместные изменения переменных могут не означать наличия причинных связей между ними. Потребность в причинном объяснении корреляции привела американского генетика С. Райта к созданию метода путевого анализа (1910—1920) как одного из разновидностей структурного моделирования. Путевой анализ основан на изучении всей структуры причинных связей между переменными, т. е. на построении графа связей и изоморфной ему рекурсивной системы уравнений. Его основным положением является то, что оценки стандартизированных коэффициентов рекурсивной системы уравнений, которые интерпретируются как коэффициенты влияния (путевые коэффициенты), рассчитываются на основе коэффициентов парной корреляции. Это позволяет проанализировать структуру корреляционной связи с точки зрения причинности. Каждый коэффициент парной корреляции рассматривается как мера полной связи двух переменных.

Путевой анализ позволяет разложить величину этого коэффициента на четыре компоненты.

Таким образом, путевой анализ С. Райта, так же как и структурные модели, позволил прояснить проблему ложной корреляции, которой занимались многие видные статистики, начиная с К. Пирсона (1857-1936).


Методы путевого анализа и их применение к системам одновременных уравнений

Метод Райта путевого анализа

 

Метод путевого анализа (или путевых коэффициентов) предложен в 20-х гг. XX в. американским генетиком С. Райтом. Сегодня этот метод нашел широкое применение в биометрии построении социологических причинных моделей, но все еще остается мало знакомым экономистам. Основные положения метода сводятся к следующему. Пусть x1, x2,...., xp— случайные переменные, измеренные в соответствующих единицах. Основным предположением метода является предположение об аддитивности и линейности связей между переменными. (1)

Здесь xui— символ неизмеримого имплицитного фактора ui, действующего на хi, и обозначающего действие на хi всех переменных, не включенных во множество {xj}; gij- некоторые константы; giu— коэффициент влияния xuiна xi.

Будем называть xj j-йпричиной, а хi — следствием комбинированного действия всех m-причин. Использование линейных зависимостей между всеми переменными делает р-анализ специальным случаем регрессионного анализа, в котором коэффициенты регрессии интерпретируются в терминах причинно-следственных отношений.

Соотношение (1) можно записать также в виде (2)

где xj – среднее значение j-й переменной

Без потери общности можно допустить, что xiuимеет нулевое среднее и единичную дисперсию. В стандартизованной форме уравнение (2) будет иметь вид: (3)

где, Sj – стандартное отклонение j-й переменной.

Тогда pij = (sj/si)cij.

 Коэффициенты cijявляются специальным типом частных коэффициентов регрессии. Коэффициент pij является стандартизованным коэффициентом p-регрессии. Будем называть pijкоэффициентом влияния (согласно С. Райту), понимая при этом, что pijесть числовая величина, которая измеряет долю стандартного отклонения i-й эндогенной переменной (следствия) с соответствующим знаком, обусловленную влиянием j-й экзогенной переменной (причины) в том смысле, что если произвести измерение этого влияния при изменении j-й переменной в тех же условиях, что и в данных наблюдениях и при неизменных прочих условиях (включая постоянное воздействие фактора xij ), то полученный результат будет равен pij. (4)

В формуле (4) si.12…(j-1)(j+1)…p.u показывает стандартное отклонение i-й переменной с учетом влияния переменных от, 1 до (j-1) и от (j+1) до p при постоянном влиянии фактора u.

Из данного определения следует, что квадрат p-коэффициента показывает, какая часть общей вариации следствия определяется j-й причиной. Эта величина представляет собой коэффициент детерминации: dxij  = p2ij.

Относительно имплицитных переменных xuiзаметим, что фактор xui, представляющий постоянное воздействие на следствие xiпеременных, не включенных явным образом в модель, считается некоррелированным ни с другими аналогичными факторами xu, ни с экзогенными переменными (входами или причинами) системы xj.

Входом системы называют переменную xj,при которой ее вариация целиком и полностью определяется фактором xuj, т. е. pjuj = 1, djuj = 1. Входы системы могут быть коррелированы попарно.

Простейшим случаем является модель звена линейной причинной цепи, т. е. детерминации следствия y, всего лишь одной переменной — причиной x. Уравнение этой модели в форме линейной регрессии будет иметь вид (для стандартизованных переменных): (5)

Систему (5) можно представить в виде графа связей (рис.1). Встает вопрос об оценке коэффициентов pyx, pyu2.Коэффициент корреляции случайных переменных xи yкак первый смешанный момент нормированных случайных величин определяется соотношением

так как cov(x, x)= 1, cov(x, xu)= 0 по условию о некоррелированности имплицитных факторов. Но, как известно, в данном частном случае ryx=byx, где byx — стандартизованный коэффициент линейной регрессии. Таким образом, p-коэффициент (рyx)есть стандартизованный регрессионный коэффициент byx, и его оценка методом наименьших квадратов будет являться оценкой эффективности влияния по С. Райту (рис.1 и 2).

Прямая оценка влияний неизмеримых факторов хиневозможна, поэтому ее получают косвенным образом из соотношений для коэффициентов детерминации. В случае модели (5) оценку коэффициента pyu2, можно получить следующим образом. Соотношение полной детерминации у посредством хи u2 имеет вид: r2yy = p2yx + p2yu2 = 1,

Откуда pyu2 = √1-p2yx = √1-b2yx  = √1-r2yx.

Обобщение рассмотренной модели на случай n-звенной линейной цепи, а также случай к независимых причин xkодного и того же следствия у могут быть проведены индуктивно.

Широко распространена структурная модель системы с коррелированными входами (случай множества взаимодополняющих причин), изображенная на рис.2. Для этой модели основное уравнение системы записывается следующим образом: (6), а корреляция следствия с i-й причиной определяется из соотношения (7)

Соотношение (7) демонстрирует важную особенность коэффициента влияния Райта — он может быть как больше, так и меньше соответствующего коэффициента корреляции по абсолютной величине и не совпадать с ним по знаку.

Значения p-коэффициента заключены в интервале [-∞, ∞]. Положительное значение р- коэффициента указывает на то, что фактор xjвлияет на хi,- таким образом, что при изменении xjв одном направлении (допустим, увеличении) признак xi ,- изменяется в этом же направлении. Отрицательное значение показывает, что хi, и xjизменяются противоположно. Знак коэффициента влияния получается автоматически в результате решения системы уравнений, связывающей rij и pij. Содержательная интерпретация коэффициентов влияния Райта как показателей интенсивности влияния по дуге графа аналогична интерпретации b-коэффициентов (как показателей сравнительной силы воздействия факторов) в обычных моделях множественной регрессии.

Выражение полной детерминации у посредством множества взаимокоррелированных причин {хj} имеет вид: (8)

Слагаемое называется показателем корреляционной детерминации. Квадрат множественного коэффициента корреляции (коэффициент множественной детерминации):

Таким образом, метод p-коэффициентов позволяет найти наилучшую оценку множественной корреляции R2y*x1…xk.

Подчеркнем, что попарная корреляция входов в модели (8) не структурируется. Между тем эта корреляция может быть как следствием координированного изменения двух различных взаимонезависимых причин — истинной корреляцией, так и ложной — результатом воздействия третьей переменной — общей для этих двух переменных причины.

Пусть на рис.3аизображен граф модели, истинность корреляции входов которой находится под вопросом. Г. Саймон показал, что если корреляция x1и x2является ложной в отмеченном смысле, то частный коэффициент корреляции первого порядка rx1x2*zгде z — общая для х1и х2причина — должен быть равен нулю.

В самом деле, для такой модели (сравните граф на риc.3б с рис.3а) будут справедливы следующие отношения:


Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...