От Ксении (более полный ответ)
Компонентный и факторный анализы проводятся с несколькими целями. Как методы снижения размерности они позволяют выявить закономерности, которые непосредственно не наблюдаются. Эта задача решается по матрице нагрузок, как и классификация признаков в пространстве главных компонент (или общих факторов). А индивидуальные значения используются для классификации объектов (не по исходным признакам, а по главным компонентам или общим факторам) и для построения уравнения регрессии на эти обобщенные показатели. Интерпретируются главные компоненты и общие факторы, которым соответствуют дисперсии больше 1, и которые имеют хотя бы одну весомую нагрузку. Выбор критической величины, при превышении которой элемент матрицы нагрузок признается весовым и оказывает влияние на интерпретацию главной компоненты или общего фактора, определяется по смыслу решаемой задачи и может варьировать в пределах от 0,5 до 0,9 в зависимости от получаемых промежуточных результатов. Формальные результаты должны хорошо интерпретироваться. Факторный анализ - более мощный и сложный аппарат, чем метод главных компонент, поэтому он применяется в том случае, если результаты компонентного анализа не вполне устраивают. Но поскольку эти два метода решают одинаковые задачи, необходимо сравнить результаты компонентного и факторного анализов, т.е. матрицы нагрузок, а также уравнения регрессии на главные компоненты и общие факторы, прокомментировать сходство и различия результатов. Компонентный анализ предназначен для преобразования системы k исходных признаков, в систему k новых показателей (главных компонент). Главные компоненты не коррелированны между собой и упорядочены по величине их дисперсий, причем, первая главная компонента, имеет наибольшую дисперсию, а последняя, k-я, наименьшую. При этом выявляются неявные, непосредственно не измеряемые, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.
Компонентный анализ является одним из основных методов факторного анализа. В задачах снижения размерности и классификации обычно используются m первых компонент (m< k). При наличии результативного показателя Y может быть построено уравнение регрессии на главных компонентах. На основании матрицы исходных данных: размерности (n×k), где xij – значение j-го показателя у i-го наблюдения (i=1,2,...,n; j=1,2,...,k) вычисляют средние значения показателей , а также s1,..., sk и матрицу нормированных значений: с элементами: Рассчитывается матрица парных коэффициентов корреляции: с элементами: , где, j = 1,2,..., k.
На главной диагонали матрицы R, т.е. при j=l, Модель компонентного анализа имеет вид: (1), где: aiν – “вес”, факторная нагрузка, ν-ой главной компоненты на j-ой переменной; fiν – значение ν-й главной компоненты для i-го наблюдения (объекта), где ν=1,2,...,k. В матричной форме модель (1) имеет вид: , где: – матрица значений главных компонент размерности (n×k) – матрица факторных нагрузок размерности (k×k). АТ – транспонированная матрица А; fiν – значение ν-й главной компоненты у i-го наблюдения (объекта); ajν – значение факторной нагрузки ν-й главной компоненты на j-й переменной.
Матрица F описывает n наблюдений в пространстве k главных компонент. При этом элементы матрицы F нормированы, то есть: , , а главные компоненты не коррелированны между собой. Из этого следует, что, (2),
где – единичная матрица размерности (k×k). Выражение (2) может быть также представлено в виде: (3) ν,ν ′ =1,2,..., k.
С целью интерпретации элементов матрицы А, рассмотрим выражение для парного коэффициента корреляции, между Zj-переменной и, например, f1-й главной компонентой. Так как, zj и f1 нормированы, будем иметь с учетом (1):
Принимая во внимание (3), окончательно получим: Рассуждая аналогично, можно записать в общем виде: для всех j=1,2,..., k и ν=1,2,..., k.
Таким образом, элемент ajv матрицы факторных нагрузок А, характеризует тесноту линейной связи между zj-исходной переменной и fv-й главной компонентой, то есть . Рассмотрим теперь выражение для дисперсии zj-й нормированной переменной. С учетом (1) будем иметь:
, где ν, ν'=1,2,..., k.
Учитывая (3), окончательно получим: (4) По условию переменные zj нормированы и sj2=1. Таким образом, дисперсия zj-й переменной согласно (4), представлена своими составляющими, определяющими долю вклада в нее всех k главных компонент. Полный вклад ν-й главной компоненты в дисперсию всех k исходных признаков вычисляется по формуле: Одно из основополагающих условий метода главных компонент, связано с представлением корреляционной матрицы R, через матрицу факторных нагрузок А:
Учитывая (2), окончательно получим:
Перейдем теперь непосредственно к отысканию собственных значений и собственных векторов корреляционной матрицы R. Из линейной алгебры известно, что для любой симметрической матрицы R, всегда существует такая ортогональная матрица U, что выполняется условие: (5), где – диагональная матрица собственных значений размерности (k*k) – ортогональная матрица собственных векторов размерности (k*k)
Так как матрица R положительно определена, т.е. ее главные миноры положительны, то все собственные значения положительны – λν>0 для всех ν=1,2,..., k. В компонентном анализе элементы матрицы Λ ранжированы λ1≥λ2≥...≥λν ≥...≥λk>0. Как будет показано ниже, собственное значение λν характеризует вклад ν-й главной компоненты в суммарную дисперсию исходного признакового пространства. Таким образом, первая главная компонента вносит наибольший вклад в суммарную дисперсию, а последняя k-я – наименьший. В ортогональной матрице U собственных векторов, ν-й столбец является собственным вектором, соответствующим λν-му значению.
Собственные значения λ1≥...≥λν≥...≥λk находятся как корни характеристического уравнения: Собственный вектор Vν, соответствующий собственному значению λν корреляционной матрицы R, определяется как отличное от нуля решение уравнения, которое следует из: Нормированный собственный вектор Uν равен: Из условия ортогональности матрицы U следует, что , но тогда по определению матрицы R и Λ подобны, так как они согласно (5) удовлетворяют условию: Так как следы, т.е. суммы диагональных элементов у подобных матриц равны, то: Напомним из линейной алгебры, что умножение матрицы U на обратную матрицу U-1, дает единичную матрицу Е. Следы матричных произведений (U-1)×(RU) и R×(UU-1) также равны. Учитывая, что сумма диагональных элементов матрицы R равна k, будем иметь: Таким образом, (6) Представим матрицу факторных нагрузок А в виде: (7) а ν-й столбец матрицы А: , где Uν – собственный вектор матрицы R, соответствующий собственному значению λν. Найдем норму вектора Аν: Здесь учитывалось, что вектор Uν нормированный и . Таким образом, Сравнив полученный результат с полным вкладом ν-й главной компоненты в дисперсию всех k исходных признаков (вычисляется по формуле ), можно сделать вывод, что собственное значение λν характеризует вклад ν-й главной компоненты в суммарную дисперсию всех исходных признаков. Из (7) следует:
Согласно (6) общий вклад всех главных компонент в суммарную дисперсию равен k. Тогда удельный вклад ν-й главной компоненты определяется по формуле:
Суммарный вклад m первых главных компонент определяется из выражения: Обычно для анализа используют m первых главных компонент, суммарный вклад которых превышает 60–70%. Матрица факторных нагрузок А используется для экономической интерпретации главных компонент, которые представляют линейные функции исходных признаков. Для экономической интерпретации fν используются лишь те xj, для которых, |аjν|>0,5.
Значения главных компонент для каждого i-го объекта (i=1,2,...,n) задаются матрицей F. Матрицу значений главных компонент можно получить из формулы: откуда, , где Z – матрица нормированных значений исходных показателей.
Уравнение регрессии на главных компонентах строится по алгоритму пошагового регрессионного анализа, где в качестве аргументов используются главные компоненты, а не исходные показатели. К достоинству последней модели следует отнести тот факт, что главные компоненты не коррелированы. При построении уравнений регрессии следует учитывать все главные компоненты. содержание
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|