- •Тема 1. Природа эконометрики
- •1.1. Общие понятия эконометрических моделей
- •1. 2. Типы эконометрических моделей
- •1. 3. Типы данных
- •Тема 2. Корреляционный анализ в эконометрических исследованиях
- •2.1. Функциональная, статистическая и корреляционная зависимости
- •2.2. Понятие о двумерном корреляционном анализе
- •2.3. Понятие о многомерном корреляционном анализе
- •2.4. Ранговая корреляция
- •Тема 3. Регрессионный анализ в эконометрических исследованиях
- •3.1. Задача регрессионного анализа
- •3.2. Идентификация модели регрессии
- •3.3. Линейная парная регрессия и оценка параметров
- •3.4. Проверка значимости параметров линейной парной регрессии
- •3.5. Интервалы прогноза по линейному уравнению регрессии
- •3.6. Нелинейная регрессия
- •3.7. Корреляционное отношение и индекс корреляции
- •3.8. Множественный регрессионный анализ
- •4.9. Ковариационная матрица и ее выборочная оценка
- •4.10. Определение доверительных интервалов для коэффициентов и функции множественной регрессии
- •4.11. Мультиколлинеарность
- •Тема 5. Методы и модели анализа динамики экономических процессов
- •5.1. Понятия экономических рядов динамики
- •5.2. Предварительный анализ динамических рядов экономических показателей
- •5.3. Сглаживание динамических рядов
- •4.3. Расчет показателей динамики развития эконометрических процессов
- •4.4. Тренд-сезонные экономические процессы и их анализ
- •Тема 5. Модели прогнозирования экономических процессов
- •5.7. Трендовые модели на основе кривых роста
- •5.2. Оценка адекватности и точности трендовых моделей
- •5.3. Прогнозирование экономической динамики на основе трендовых моделей
- •5.4. Адаптивные модели прогнозирования
- •Лучшая модель ар(1,1)
- •Характеристика остатков
- •Тема 8. Системы взаимозависимых эконометрических моделей
- •8.1. Особенности систем взаимозависимьех моделей
- •8.2. Формы представления систем взаимозависимых эконометрических моделей
- •8.3. Косвенный метод оценки коэффициентов структурной формы систем взаимозависимых эконометрических моделей
- •8.4. Оценивание параметров структурной формы на основе двухшагового мнк с использованием инструментальных переменных
- •1. На первом шаге конструируются новые значения зависимых
- •2. На втором шаге значения используются вместо значений
- •8.5. Оценки параметров системы взаимозависимых эконометрических моделей с использованием трехшагового мнк
4.11. Мультиколлинеарность
Под мульттоллинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах.
При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объясняющими переменными является линейной функциональной зависимостью. В этом случае матрица особенная, так как содержит линейно зависимые векторы-столбцы и ее определитель равен нулю, т.е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели.
Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица в этом случае является неособенной, но ее определитель очень мал. В то же время вектор оценок и его ковариационная матрица К в соответствии с формулами (13.28) и (13.36) пропорциональны обратной матрице а значит, их элементы обратно пропорциональны величине определителяВ результате получаются значительные средние квадратические отклонения (стандартные ошибки) коэффициентов регрессии и оценка их значимости по критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой покритерию.
Оценки становятся очень чувствительными к незначительному изменению результатов наблюдений и объема выборки. Уравнения регрессии в этом случае, как правило, не имеют реального смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения экономической теории знаки и неоправданно большие значения.
Один из методов выявления мультиколлинеарности заключается в анализе корреляционной матрицы между объясняющими переменными и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними.
Полезно также находить множественные коэффициенты корреляции между одной из объясняющих переменных и некоторой группой из них. Наличие высокого множественного коэффициента корреляции (обычно принимают больше 0,8) свидетельствует о мультиколлинеарности.
Другой подход состоит в исследовании матрицы . Если определитель матрицы близок к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности.
Для устранения или уменьшения мультиколлинеарности используется ряд методов. Один из них заключается в том, что из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной.
Другим из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например, вначале рассматривается линейная регрессия зависимой переменной Кот объясняющей переменной, имеющей с ней наиболее высокий коэффициент корреляции (или индекс корреляции при нелинейной форме связи). На втором шаге включается в рассмотрение та объясняющая переменная, которая имеет наиболее высокий частный коэффициент корреляции с Y и вычисляется множественный коэффициент (индекс) корреляции. На третьем шаге вводится новая объясняющая переменная, которая имеет наибольший частный коэффициент корреляции с Y, и вновь вычисляется множественный коэффициент корреляции и т.д.
Процедура введения новых переменных продолжается до тех пор, пока добавление следующей объясняющей переменной существенно не увеличивает множественный коэффициент корреляции.