Мультиколинеарнисть часть 1

дисперсии каждой независимой переменной имеют следующие значения:

Тогда знаменатель для стандартизации каждой независимой переменной будет такой: < / p>

Матрица стандартизированных переменных представляется в виде:

.

Шаг 2. Нахождение корреляционной матрицы:

где & mdash; матрица, транспонированная к.

Эта матрица симметрична и имеет размер 3 3.

Для данной задачи

Каждый элемент этой матрицы характеризует тесноту связи одной независимой переменной с другой. Поскольку диагональные элементы характеризует тесноту связи каждой независимой от этой самой переменной, то они равны единице. Заметим, что при нахождении произведения матриц за счет змищености коэффициентов парной корреляции числовые значения диагональных элементов могут приближаться к единице. Если это так, то они заменяются единицами, а другие значения матрицы r увеличиваются на величину, определяется как разница между единицей и диагональным элементом.

Другие элементы матрицы r равны:

то есть они являются парными коэффициентами корреляции между пояснительными переменными. Пользуясь этими коэффициентами, можно сделать вывод, что между переменными существует связь. Но можно утверждать, что эта связь является проявлением мультиколлинеарности, а через это негативно влиять на оценку эконометрической модели?

Чтобы ответить на этот вопрос, нужно еще раз обратиться к алгоритму Фаррара & mdash; Глобера и найти статистические критерии оценки мультиколлинеарности.

Шаг 3. Вычислим детерминант корреляционной матрицы r и критерий

а)

б)

При степени свободы и уровне значимости = 0,01 критерий табл = 11,34. поскольку факт <табл, приходим к выводу, что в массиве переменных не существует мультиколлинеарности.

Шаг 4. Найдем матрицу, обратную матрице r

< b> Шаг 5. Используя диагональные элементы матрицы C , вычислим F  — критерия

< p> Для уровня значимости = 0,05 и степеней свободы = 7 и = 2 критическое (табличное) значение критерия F = 4,74.

Поскольку

F 1факт < F табл;

F 2факт < F табл;

F 3факт < F табл

то ни одна из независимых переменных обычно не мультиколинеарна с двумя другими.

Чтобы определить наличие попарно мультиколлинеарности, продолжим исследования и перейдем к шагу 6. ​​

Шаг 6. Вычислим частные коэффициенты корреляции, воспользовавшись элементами матрицы C

Частные коэффициенты корреляции характеризуют тесноту связи между двумя переменными при условии, что третья не влияет на эту связь.

Сравнив частные коэффициенты корреляции с парными, которые были приведены ранее, можно заметить, что частные коэффициенты значительно меньше парные. Это еще раз показывает, что на основании парных коэффициентов корреляции нельзя сделать выводов о наличии мультиколлинеарности или ее отсутствие.

Шаг 7. Определим t  — критерий на основе частных коэффициентов корреляции.

Табличное значение t  — критерия при = 7 степенях свободы и уровне значимости & # 61537; = 0,05 равен 1,69. Все числовые значения t  — критерия, найденных для каждой пары переменных, меньше их табличные значения. Отсюда делаем вывод, что все пары независимых переменных не является мультиколинеарнимы.

Итак, несмотря на то, что между пояснительными переменными исследуемой модели существует линейная зависимость, это не мультиколинеарнисть, то есть негативного влияния на количественные оценки параметров эконометрической модели, не будет.

Если F  — критерий больше табличное значение, то есть когда k та переменная зависит от всех в массиве, то необходимо решать вопрос о ее изъятия из перечня переменных.

Если & mdash; критерий больше табличный, то эти две переменные (и) тесно связаны одним из другой. Отсюда, анализируя уровень обоих видов критериев и, можно сделать обоснованный вывод о том, какую из переменных необходимо исключить из исследования или заменить другой. Однако замена массива независимых переменных всегда должно согласовываться с экономической целесообразностью, что следует из цели исследования.

Самое избавиться мультиколлинеарности в эконометрической модели можно, отбросив одну из переменных мультиколинеарнои пары. Но на практике изъятия какого фактора часто противоречит логике экономических связей. Тогда можно превратить определенным образом объяснительные переменные модели:

а) взять отклонение от средней;

б) вместо абсолютных значений взять относительные;

в) стандартизировать объяснительные переменные

и т. д.

При наличии мультиколлинеарности переменных нужно обращать внимание и на спецификацию модели. Иногда замена одной функции другой, если это не противоречит априорной информации, позволяет избежать явления мультиколлинеарности.

Когда ни один из рассмотренных способов не позволяет избавиться мультиколлинеарности, то параметры модели следует оценивать по методу главных компонентов.

Метод главных компонентов

Этот метод предназначен для оценки моделей большого размера, а также для оценки параметров модели, если в нее входят мультиколинеарни переменные.

Существуют различные модификации метода главных компонент, которые различаются между собой в зависимости от того, что берется за основу при определении ортогональных переменных & mdash; ковариационная или корреляционная матрица независимых переменных.

Пусть имеем матрицу Х , которая описывает независимые переменные модели. Поскольку наблюдения, образуют матрицу Х , как правило, коррелированы между собой, то можно поставить вопрос о количестве реально независимых переменных, входящих в этой матрицы.

Точнее, идея метода заключается в том, чтобы превратить множество переменных Х на новую множество попарно некоррелированных переменных, среди которых первая соответствует максимально возможной дисперсии, а вторая & mdash; максимально возможной дисперсии в подпространстве, который является ортогональным к первому, и т. д.

Пусть новая переменная запишется

В матричной форме

(6.10)

где & mdash; вектор значений новой переменной; & mdash; m  — вимирний собственный вектор матрицы.

Сумма квадратов элементов вектора представим в виде:

(6.11)

Отсюда необходимо выбрать такой вектор, максимизуватиме, но на вектор надо наложить ограничения, чтобы он не стал слишком большим. Поэтому мы его нормируем, наложив ограничения:

(6.12)

Поскольку Z 1 = Xa 1, то максимизация a 1 будет максимизировать Z 1, а Z 1 характеризует вклад переменной Z 1 в общую дисперсию.

Задача теперь заключается в том, чтобы максимизировать условиях (6.12). Построим функцию Лагранжа:

где & mdash; множитель Лагранжа.

Взяв, получим

. (6.13)

Отсюда видим, что & mdash; собственный вектор матрицы , который ответствен дает характеристическом числу .

Подставив значение (6.13) в (6.11), получим:

(6.14)

Итак, нужно для значения выбрать наибольший характеристический корень матрицы. При отсутствии мультиколлинеарности матрица будет положительно определенной и, соответственно, ее характеристические корни будут положительными. Первым главным компонентом матрицы X будет вектор Z 1.

Определим теперь. При этом вектор имеет максимизировать выражение при следующих условиях:

1);

2)

Второе условие обеспечит отсутствие корреляции между и, поскольку ковариация между и подается в виде, причем она равна нулю только тогда, когда.

Для решения этой задачи функцию Лагранжa запишем в виде

где и & mdash; множители Лагранжa.

Взяв и, получим где для значения следует выбрать второй по величине характеристический корень матрицы.

Этот процесс продолжается до тех пор, пока все m характеристических значений матрица не будут найдены; найдены m собственных векторов матрицы объединим в ортогональную матрицу

.

Итак, главные компoненты матрицы X задаются матрицей