4.8. Мультиколлинеарность: последствия, признаки и методы ее устранения Одна из предпосылок линейной множественной регрессии - отсутствие коллинеарности (линейной зависимости) между регрессорами. Однако в эмпирических эконометрических исследованиях функциональная линейная зависимость встречается не часто, но возможно существование высокой корреляции между двумя или несколькими независимыми переменными. В этом случае говорят о проблеме мультиколлинеарности. Рассмотрим более подробно, к каким последствиям приводит коллиненарность регрессоров. Увеличение дисперсий оценок коэффициентов Эффект увеличения дисперсий проиллюстрируем на примере регрессии с двумя (не считая вспомогательного) регрессорами
Здесь y, u - скалярные
случайные переменные. Формулы для
истинных дисперсий МНК-оценок
параметров
где Задание. Используя общую формулу для ковариационной матрицы оценок коэффициентов регрессии (3.27) получите формулы (4.58), (4.59). Неидентифицируемость модели и неустойчивость оценок Если существует
функциональная линейная зависимость
между регрессорами (столбцы матрицы X
линейно зависимы), то говорят, что
существует полная
коллинеарность. В этом случае Для модели вида (4.57) функциональная
зависимость между регрессорами
означает, что можно выразить явную
зависимость
Уравнение (4.60) определяет парную
линейную регрессию, для которой можно
оценить коэффициент При сильной (но не
функциональной) связи регрессоров (сильной
коллинеарности) матрица Увеличение доверительных интервалов Оценки стандартных
отклонений входят в формулы для
доверительных интервалов
коэффициентов (см. глава 3, п. 3.4.4):
Признаки (меры) коллинеарности регрессоров Выше мы установили основные отрицательные последствия коллинеарности регрессоров. В эмпирических исследованиях редко проявляется полная коллинеарность, однако отрицательные последствия даже не полной коллинеарности могут быть весьма существенны. Естественно попытаться каким-то образом оценить степень коллинеарности регрессоров - ввести меру коллинеарности и по ней судить о степени отрицательного влияния этого эффекта. К сожалению, не возможно однозначно и наглядно определить уровень границы, которая отделяет существенную и несущественную коллинеарность. Рассмотрим некоторые из возможных мер коллинеарности. Мерой коллинеарности может
служить определитель матрицы Другой мерой коллинеарности может служить определитель корреляционной матрицы регрессоров. Корреляционная матрица регрессоров имеет вид
ее элементы - коэффициенты
корреляции между i - ым и j - ым
регрессорами. Очевидно, при
формировании матрицы R нет
необходимости учитывать
вспомогательный регрессор
Определитель матрицы R
меняется в границах: До сих пор мы рассматривали
обобщенные (интегральные) показатели
степени коллинеарности. Можно
попытаться оценить степень
коллинеарности регрессоров,
анализируя отдельные элементы
корреляционной матрицы. В модели
регрессии с двумя регрессорами
исчерпывающей мерой коллинеарности
регрессоров служит коэффициент
корреляции Рекомендации по устранению коллинеарности Коллинеарность регрессоров может представлять серьезную проблему при построении моделей множественной регрессии. Поэтому важно, во-первых, убедиться, что модель свободна от существенной коллинеарности, и, во- вторых, обнаружить (не пропустить) существенную коллинеарность, если она имеет место. Существуют различные подходы к устранению коллинеарности. В рамках данного курса можно рекомендовать следующее: изменить спецификацию модели, удалив из нее регрессор, который сильно коррелирует с другими. Однако, при этом следует иметь ввиду, что отбрасывание существенной независимой переменной, которая действительно воздействует на зависимую переменную, может привести к искажению модели и нарушению предпосылки о правильной спецификации (так называемым ошибкам спецификации), что, в свою очередь, приводит к другим неприятным последствиям (см. п. 4.1.4). Поэтому, при определении кандидатов на удаление, следует учитывать содержательный (экономический) смысл переменных и степень их влияния на зависимую переменную.
|