Различные аспекты многомерной регрессии


Министерство Образований и Науки Республики Казахстан
Евразийский Институт Рынка
Реферат
На тему: Различные аспекты многомерной регрессии
Выполнил (а):
студентка 2 курса
Нуришева Г.Т.
Проверил (а):
Рысбаева А.К.
Алматы-2006
Введение
В данном реферате рассматриваются некоторые проблемы многомерных
регрессионных моделей, часто возникающие при их практическом использовании.
На практике исследователю нередко приходится сталкиваться с
ситуацией, когда полученная им регрессия является плохой, т.е. t-
статистики большинства оценок малы, что свидетельствует о незначимости
соответствующих независимых переменных (регрессоров. В то же время F-
статистика может быть достаточно большой, что говорит о значимости
регрессии в целом. Одна из возможных причин такого явления носит названия
мультиколлинеарности и возникает при наличии высокой корреляции между
регрессорами. Проблеме мультиколлинеарности посвящено начало этого
реферата.
Регрессионные модели являются достаточно гибким инструментом,
позволяющим, в частности, оценивать влияние качественных признаков на
изучаемую переменную. Это достигается введением в число регрессоров так
называемых фиктивных переменных, принимающих, как правило, значения 1 и 0 в
зависимости от наличия или отсутствия соответствующего признака в очередном
наблюдении. С формальной точки зрения фиктивные переменные ничем не
отличаются от других регрессоров. Наиболее сложный и интересный вопрос,
возникающий при их использовании,-это правильная интерпретация получаемых
оценок.
В этом реферате мы также рассмотрим задачу нахождения частной
корреляции модели.
1. Мультиколлинеарность
Одним из условий классической регрессионной модели является
предположение о линейной независимости объясняющих переменных, что означает
линейную независимость столбцов матрицы регрессоров Х или (эквивалентно),
что матрица (Х’Х)-1 имеет полный ранг к. При нарушении этого условия, т.е.
когда один из столбцов матрицы Х есть линейная комбинация остальных
столбцов, говорят, что имеет место полная коллинеарность. В этой ситуации
нельзя построить МНК-оценку параметра (, что формально следует из
сингулярности матрицы Х’Х и невозможности решить нормальное уравнение.
Нетрудно также понять и содержательный смысл этого явления. Рассмотрим
следующий простой пример регрессии (Green 1993): С=(1+(2S+(3N+(4T+(, где С
- потребление, S – зарплата, N – доход, получаемый вне работы, T – полный
доход. Поскольку выполнено равенство T=S+N, то для произвольного числа h
исходную регрессию можно переписать в следующем виде: С=(1+(2 ‘S+(3 ‘N+(4
‘T+(, где (2’=(2+h, (3 ‘=(3+h, (4’=(4-h. Таким образом, одни и те же
наблюдения могут быть объяснены различными наборами коэффициентов (. Эта
ситуация тесно связана с проблемой идентифицируемости системы, о чем более
подробно будет говориться позднее. Кроме того, если с учетом равенства
T=S+N переписать исходную систему в виде.
С=(1+((2 +(4)S+((3 +(4)N+(, то становится ясно, что оценить можно лишь три
параметра (1, ((2 +(4) и ((3 +(4), а не четыре исходных. В общем случае
можно показать, что если rank (Х’Х)=lk, то оценить можно только l линейных
комбинаций исходных коэффициентов. Если есть полная коллинеарность, то
можно выделить в матрице Х максимальную линейно независимую систему
столбцов и, удалив остальные столбцы, провести новую регрессию.
На практике полная коллинеарность встречается исключительно редко.
Гораздо чаще приходится сталкиваться с ситуацией, когда матрица Х имеет
полный ранг, но между регрессорами имеется высокая степень корреляции, т.е.
когда матрица Х’Х, говоря нестрого, близка к вырожденной. Тогда говорят о
наличии мультиколлинеарности. В этом случае МНК-оценка формально
существует, но обладает плохими свойствами. Это нетрудно объяснить,
используя геометрическую интерпретацию метода наименьших квадратов. Как уже
отмечалось Rn вектора Y на векторы, образованные столбцами матрицы Х. Если
между этими векторами существует приблизительная линейная зависимость, то
операция проектирования становится неустойчивой: небольшому изменению в
исходных данных может привести к существенному изменению оценок. Рисунок
1.1 наглядно это демонстрирует. Векторы Y и Y’ мало отличаются друг от
друга, но в силу того, что угол между регрессорами Х1 и Х2 отличаются
значительно. У проекции вектора Y оба коэффициента разложения по Х1 и Х2
положительны и относительно невелики. У проекции вектора Y’ коэффициент при
Х1 принимает большое отрицательное значение. В сил этого обстоятельства
интерпретация коэффициентов регрессии становится весьма проблематичной.
Y’ Y
Х2
Х1
Рис 1.1
Мультиколлинеарность может возникать в силу разных причин. Например,
несколько независимых переменных могут иметь общий временной тренд,
относительно которого они совершают малые колебания. В частности, так может
случиться, когда значения одной независимой переменной ... продолжение
Евразийский Институт Рынка
Реферат
На тему: Различные аспекты многомерной регрессии
Выполнил (а):
студентка 2 курса
Нуришева Г.Т.
Проверил (а):
Рысбаева А.К.
Алматы-2006
Введение
В данном реферате рассматриваются некоторые проблемы многомерных
регрессионных моделей, часто возникающие при их практическом использовании.
На практике исследователю нередко приходится сталкиваться с
ситуацией, когда полученная им регрессия является плохой, т.е. t-
статистики большинства оценок малы, что свидетельствует о незначимости
соответствующих независимых переменных (регрессоров. В то же время F-
статистика может быть достаточно большой, что говорит о значимости
регрессии в целом. Одна из возможных причин такого явления носит названия
мультиколлинеарности и возникает при наличии высокой корреляции между
регрессорами. Проблеме мультиколлинеарности посвящено начало этого
реферата.
Регрессионные модели являются достаточно гибким инструментом,
позволяющим, в частности, оценивать влияние качественных признаков на
изучаемую переменную. Это достигается введением в число регрессоров так
называемых фиктивных переменных, принимающих, как правило, значения 1 и 0 в
зависимости от наличия или отсутствия соответствующего признака в очередном
наблюдении. С формальной точки зрения фиктивные переменные ничем не
отличаются от других регрессоров. Наиболее сложный и интересный вопрос,
возникающий при их использовании,-это правильная интерпретация получаемых
оценок.
В этом реферате мы также рассмотрим задачу нахождения частной
корреляции модели.
1. Мультиколлинеарность
Одним из условий классической регрессионной модели является
предположение о линейной независимости объясняющих переменных, что означает
линейную независимость столбцов матрицы регрессоров Х или (эквивалентно),
что матрица (Х’Х)-1 имеет полный ранг к. При нарушении этого условия, т.е.
когда один из столбцов матрицы Х есть линейная комбинация остальных
столбцов, говорят, что имеет место полная коллинеарность. В этой ситуации
нельзя построить МНК-оценку параметра (, что формально следует из
сингулярности матрицы Х’Х и невозможности решить нормальное уравнение.
Нетрудно также понять и содержательный смысл этого явления. Рассмотрим
следующий простой пример регрессии (Green 1993): С=(1+(2S+(3N+(4T+(, где С
- потребление, S – зарплата, N – доход, получаемый вне работы, T – полный
доход. Поскольку выполнено равенство T=S+N, то для произвольного числа h
исходную регрессию можно переписать в следующем виде: С=(1+(2 ‘S+(3 ‘N+(4
‘T+(, где (2’=(2+h, (3 ‘=(3+h, (4’=(4-h. Таким образом, одни и те же
наблюдения могут быть объяснены различными наборами коэффициентов (. Эта
ситуация тесно связана с проблемой идентифицируемости системы, о чем более
подробно будет говориться позднее. Кроме того, если с учетом равенства
T=S+N переписать исходную систему в виде.
С=(1+((2 +(4)S+((3 +(4)N+(, то становится ясно, что оценить можно лишь три
параметра (1, ((2 +(4) и ((3 +(4), а не четыре исходных. В общем случае
можно показать, что если rank (Х’Х)=lk, то оценить можно только l линейных
комбинаций исходных коэффициентов. Если есть полная коллинеарность, то
можно выделить в матрице Х максимальную линейно независимую систему
столбцов и, удалив остальные столбцы, провести новую регрессию.
На практике полная коллинеарность встречается исключительно редко.
Гораздо чаще приходится сталкиваться с ситуацией, когда матрица Х имеет
полный ранг, но между регрессорами имеется высокая степень корреляции, т.е.
когда матрица Х’Х, говоря нестрого, близка к вырожденной. Тогда говорят о
наличии мультиколлинеарности. В этом случае МНК-оценка формально
существует, но обладает плохими свойствами. Это нетрудно объяснить,
используя геометрическую интерпретацию метода наименьших квадратов. Как уже
отмечалось Rn вектора Y на векторы, образованные столбцами матрицы Х. Если
между этими векторами существует приблизительная линейная зависимость, то
операция проектирования становится неустойчивой: небольшому изменению в
исходных данных может привести к существенному изменению оценок. Рисунок
1.1 наглядно это демонстрирует. Векторы Y и Y’ мало отличаются друг от
друга, но в силу того, что угол между регрессорами Х1 и Х2 отличаются
значительно. У проекции вектора Y оба коэффициента разложения по Х1 и Х2
положительны и относительно невелики. У проекции вектора Y’ коэффициент при
Х1 принимает большое отрицательное значение. В сил этого обстоятельства
интерпретация коэффициентов регрессии становится весьма проблематичной.
Y’ Y
Х2
Х1
Рис 1.1
Мультиколлинеарность может возникать в силу разных причин. Например,
несколько независимых переменных могут иметь общий временной тренд,
относительно которого они совершают малые колебания. В частности, так может
случиться, когда значения одной независимой переменной ... продолжение
Похожие работы
Дисциплины
- Информатика
- Банковское дело
- Оценка бизнеса
- Бухгалтерское дело
- Валеология
- География
- Геология, Геофизика, Геодезия
- Религия
- Общая история
- Журналистика
- Таможенное дело
- История Казахстана
- Финансы
- Законодательство и Право, Криминалистика
- Маркетинг
- Культурология
- Медицина
- Менеджмент
- Нефть, Газ
- Искуство, музыка
- Педагогика
- Психология
- Страхование
- Налоги
- Политология
- Сертификация, стандартизация
- Социология, Демография
- Статистика
- Туризм
- Физика
- Философия
- Химия
- Делопроизводсто
- Экология, Охрана природы, Природопользование
- Экономика
- Литература
- Биология
- Мясо, молочно, вино-водочные продукты
- Земельный кадастр, Недвижимость
- Математика, Геометрия
- Государственное управление
- Архивное дело
- Полиграфия
- Горное дело
- Языковедение, Филология
- Исторические личности
- Автоматизация, Техника
- Экономическая география
- Международные отношения
- ОБЖ (Основы безопасности жизнедеятельности), Защита труда