Основи економетрії
Розгляд поняття про мультиколінеарність та її впливу на оцінку параметрів багатофакторної регресійної моделі, де дві або більше незалежних змінних пов’язані між собою лінійною залежністю, тобто мають високий ступінь економетричної статистичної кореляції.
Рубрика | Экономико-математическое моделирование |
Вид | контрольная работа |
Язык | украинский |
Дата добавления | 05.03.2011 |
Размер файла | 38,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Міністерство аграрної політики України
Полтавська державна аграрна академія
Кафедра інформаційних систем і технологій
КОНТРОЛЬНА РОБОТА
з дисципліни « Економетрія»
Полтава - 2007
15) Поняття про мультиколінеарність та її вплив на оцінку параметрів моделі.
Одна з передумов застосування методу найменших квадратів до оцінювання параметрів лінійних багатофакторних моделей -- відсутність лінійних зв'язків між незалежними змінними моделі. Якщо такі зв'язки існують, то це явище називають мультиколінеарністю. Вона негативно впливає на кількісні характеристики економетричної моделі або робить її побудову взагалі неможливою.
Суть мультиколінеарності полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов'язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:
(rxi x j > 1, i ? j).
Наявність мультиколінеарності створює певні проблеми при розробці моделей. Насамперед, визначник матриці спостережень X T X наближається до нуля, і оператор оцінювання за звичайним МНК стає надзвичайно чутливий до похибок вимірювань і похибок обчислень. При цьому МНК-оцінки можуть мати значне зміщення відносно дійсних оцінок узагальненої моделі, а в деяких випадках можуть стати взагалі беззмістовними.
Передусім потрібно зрозуміти природу мультиколінеарності. Наприклад, коли вивчається залежність між ціною акції, дивідендами на акцію та отриманим прибутком на акцію, то дивіденди та отриманий прибуток на одну акцію мають високий ступінь кореляції. Іншими словами, виникає ситуація, коли два колінеарних фактори змінюються в одному напрямку. У такому разі майже неможливо оцінити вплив кожного з них на досліджуваний показник.
З'ясуємо, до яких наслідків може призвести мультиколінеарність. Це одне з найважливіших питань, яке потрібно зрозуміти при розробці економетричних моделей.
Практичні наслідки мультиколінеарності:
- мультиколінеарність незалежних змінних (факторів) призводить до зміщення оцінок параметрів моделі, які розраховуються за методом найменших квадратів. На основі цих оцінок неможливо зробити конкретні висновки про результати взаємозв'язку між показником і факторами;
- збільшення дисперсії та коваріації оцінок параметрів, обчислених за методом найменших квадратів.
Для ілюстрації розглянемо двофакторну регресійну модель
y = a0 + a2 x1 + a2 x2 + u
та її вибірковий аналог
y = a0 + a1 x1 + a2 x2.
Дисперсія оцінок параметрів a1 і a2 має вигляд:
де - дисперсія залишків;
- коефіцієнт парної кореляції між пояснювальними змінними х1 і х2;
- середні значення пояснювальних змінних х1 і х2;
- і-те значення відповідно першої та другої пояснювальних змінних.
З останньої формули випливає, що якщо r збільшується, соv(а1, a2) зростає за абсолютною величиною. Причому при наближенні до граничного значення це збільшення має експоненціальний характер.
- збільшення довірчого інтервалу (оскільки збільшується середній квадрат відхилення параметрів);
- незначущість t-статистик.
(Оскільки значення t-статистики Стьюдента t = 1 , то у випадку мультиколінеарності уai > ?, а отже, t > 0 ).
Зауваження. Мультиколінеарність не є проблемою, якщо єдиною метою регресійного аналізу є прогноз (оскільки чим більше значення R2, тим точніший прогноз). Якщо метою аналізу є не прогноз, а дійсне значення параметрів, то мультиколінеарність перетворюється на проблему, оскільки її наявність призводить до значних стандартних похибок оцінок параметрів.
Тестування наявності мультиколінеарності Єдиного способу визначення мультиколінеарності, на жаль, немає.
Зовнішні ознаки наявності мультиколінеарності такі:
- велике значення R2 і незначущість t-статистики.
Наявність цих двох факторів одночасно є “класичною” ознакою мультиколінеарності. З одного боку, незначущість t-статистики Стьюдента означає, що один або більше оцінених параметрів статистично незначуще відрізняються від нуля. З іншого боку, якщо значення R2 велике, ми приймаємо з великою ймовірністю .-критерій Фішера, який відкидає нульову гіпотезу (Н0 : a1 = a2 = … = am = 0). Суперечність свідчить про наявність мультиколінеарності;
- велике значення парних коефіцієнтів кореляції.
Якщо значення хоча б одного коефіцієнта кореляції rxi x j > 0, 8, i ? j, то мультиколінеарність є серйозною проблемою.
Зауважимо, що велике значення парних коефіцієнтів кореляції -- достатня, але не необхідна умова наявності мультиколінеарності.
Мультиколінеарність може мати місце навіть при відносно невеликих значеннях парних коефіцієнтах кореляції у більш ніж двофакторній регресійній моделі.
Для визначення мультиколінеарності здебільшого застосовують такі тести:
- тест, запропонований Глобером і Фарраром (він має й іншу назву: побудова допоміжної регресії);
- характеристичні значення та умовний індекс.
Розглянемо їх більш детально. мультиколінеарність регресія кореляція
Перший із них базується на тому, що за наявності мультиколінеарності один чи більше факторів пов'язані між собою лінійною або приблизно лінійною залежністю. Одним із способів визначення щільності регресійного зв'язку є побудова регресійної залежності кожного фактора хі з усіма іншими факторами. Тому тест має іншу назву: побудова допоміжної регресії. Обчислення відповідного коефіцієнта детермінації для цього допоміжного регресійного рівняння та його перевірка за допомогою критерію дають змогу виявити лінійні зв'язки між незалежними змінними.
Нехай Rxi x1x2 ,K, xm -- коефіцієнт детермінації в регресії, яка пов'язує фактор хі з іншими факторами.
2) кр знаходимо за таблицею .-розподілу Фішера з (m-1) і (n-m)
ступенями свободи і заданим рівнем значущості;
3) якщо .i > .кр, то гіпотезу Н0 відкидаємо (хі -- мультиколінеарний фактор), якщо .i < .кр, то гіпотезу Н0 приймаємо (фактор хі не є мультиколінеарним).
Тест, що застосовує характеристичні значення (власні числа матриці спостережень) та умовний індекс R (що обчислюється як відношення максимального власного числа матриці до її мінімального власного числа), використовується в сучасних статистичних пакетах. Ми не розглядатимемо його детально, бо це потребує застосування апарату теорії матриць.
Зазначимо лише, що за цим тестом розраховується не тільки умовне число R, а й умовний індекс CI = R . Якщо 100 ? R ? 1000 , мультиколінеарність помірна, якщо R > 1000 -- висока. Аналогічно, якщо 10 ? CI ? 30, мультиколінеарність помірна, якщо CI > 0 -- висока.
Ми розглянули лише основні методи тестування мультиколінеарності. Жоден з них не є універсальним. Усі вони мають один спільний недолік: жоден із них не проводить чіткої межі між тим, що треба вважати “суттєвою” мультиколінеарністю, яку необхідно враховувати, і тим, коли нею можна знехтувати.
Отже, між незалежними змінними може існувати лінійна залежність, однак вона може й не бути явищем мультиколінеарності змінних, а тому не впливатиме на кількісні оцінки параметрів моделі, розрахованих за допомогою звичайного МНК;
Якщо .k > .табл, то хk залежить від усіх інших незалежних змінних і треба вирішити питання про її виключення з переліку змінних;
Якщо tkj > tтабл, то хk і хj щільно пов'язані між собою;
Аналізуючи .- i t-критерії, робимо висновок, яку зі змінних треба виключити з моделі (зрозуміло, якщо це можливо з економіко-логіко-теоретичних міркувань).
Засоби усунення мультиколінеарності.
Метод головних компонентів
Виявлення мультиколінеарності є лише частиною справи. Інша частина -- як її усунути. Безпомилкових і абсолютно правильних порад немає, оскільки мультиколінеарність є прикладною проблемою Звичайно, усе залежить від ступеня мультиколінеарності, однак у будь-якому разі можна запропонувати кілька простих методів усунення мультиколінеарності:
1) використання додаткової або первинної інформації;
2) об'єднання інформації;
3) відкидання змінної з високою кореляцією;
4) перетворення даних (використання перших різниць);
5) збільшення кількості спостережень.
Які поради спрацюють на практиці, залежить від істотності проблеми та її характеру.
Якщо переліченими методами не вдається усунути мультиколінеарність, то для оцінювання параметрів багатовимірної моделі доцільно застосувати метод головних компонентів.
Зауважимо, що метод головних компонентів доцільно застосовувати, по-перше, для оцінювання параметрів моделей з великою кількістю факторів, по-друге, для моделей, у яких незалежні змінні (стовпці матриці спостережень X) мають однакові одиниці вимірювання.
Цей метод призначений для оцінювання моделей великого розміру, а також для оцінювання параметрів моделей, якщо до неї входять мультиколінеарні зміни.
Існують різні модифікації методу головних компонентів, які різняться залежно від того, що береться за основу для визначення ортогональних змінних - коваріаційна чи кореляційна матриця пояснювальних змінних.
Нехай маємо матрицю Х, яка описує пояснювальні змінні моделі. Оскільки спостереження, що утворюють матрицю Х, як правило, корельовано між собою, то можна поставити питання про кількість реально незалежних змінних, які входять до цієї матриці.
Точніше, ідея методу полягає в тому, щоб перетворити можину змінних Х на нову множину паперно некорельованих змінних, серед яких перша відповідає максимально можливій дисперсії, друга - максимально можливій дисперсії в підпросторі, який є ортогональним до першого, і т.д.
Нехай нова зміна подається у вигляді:
.
У матричній формі
,
Де Z1 - вектор значення нової змінної; а1 - т-вимірний власний вектор матриці Х'Х.
Суму квадратів елементів вектора подамо у вигляді:
.
Отже, необхідно вибрати такий вектор а1, який максимізуватиме , причому на вектор а1 потрібно накласти обмеження, щоб він не став досить великим. Тому ми його нормуємо, накладаючи обмеження:
.
Оскільки , то максимізація а1 максимізуватиме Z1, де Z1 характеризує вказує вклад цієї змінної в загальну дисперсію.
Задача тепер полягає в тому, щоб максимізувати за умов .
Побудуємо функцію Лагранжа:
,
де - множник Лагранжа.
Узявши , дістанемо
,
Звідси бачимо, що а - власний вектор матриці Х'Х, який відповідає характеристичному числу.
Підставивши значення дістанемо:
.
Отже, потрібно для значення вибрати найбільший характеристичний корінь матриці Х' Х.за відсутності мультиколінеарності матриця Х' Х буде додатно визначеною і, відповідно, її характеристичні корені будуть додатними. Першим головним компонентом матриці Х буде вектор Z1.
Далі визначимо ; згідно з цим вектор а2 має максимізувати вираз за таких умов:
1) ; 2) .
Друга умова забезпечить відсутність кореляції між Z2 i Z1, або коваріація між Z2 i Z1 подається у вигляді , причому вона дорівнює нулю лише тоді, коли .
Для розв'язання цієї задачі функцію Лагранжа запишемо у вигляді
,
де і - множники Лагранжа.
Уявивши , дістанемо , де для значення треба вибрати другий за абсолютною величиною характеристичний корінь матриці Х' Х.
Цей процес триває доти, доки всі т характеристичних значень матриці Х' Х не буде знайдено. Усі т власних векторів матриці Х' Х об'єднаємо в ортогональну матрицю:
.
Визначивши всі головні компоненти і відкинувши ті з них, які відповідають невеликим значенням характеристичних коренів, знайдемо зв'язок залежної змінної Y з основними головними компонентами, а далі за допомогою оберненого перетворення повернемось від параметрів моделі з головними компонентами до знаходження оцінок параметрів змінних Х.
Список використаної літератури
1. Кулинич О. І. Економетрія. Навчальний посібник. - Хмельницький: Поділля, 1997, - 115 с.
2. Лук'яненко І. Г. Краснікова Л. І. Економетрика: підручник. - К.: Товариство «Знання», ККО, 1998. - 494с.
3. Мазаракі А. А. Тол батов Ю. А. Математичне програмування в Excel. - К.: Четверта хвиля, 1998. - 208с.: іл.
4. Толбатов Ю.А. Економетрика: Підручник для студентів екон. спеціальн. вищ. навч. Зал. - К.: Четверта хвиля, 1997. - 302с.:
Размещено на Allbest.ru
Подобные документы
Особливість проведення розрахунків параметрів чотирьохфакторної моделі, обчислення розрахунків значень Yр за умови варіювання. Аналіз методів перевірки істотності моделі за допомогою коефіцієнтів кореляції і детермінації, наявності мультиколінеарності.
контрольная работа [36,2 K], добавлен 24.01.2010Зміст методики перевірки статистичної вибірки на розподіл за нормальним законом. Формування рандомізованого плану проведення спостережень за обсягами перевезень, поняття регресійної моделі та коефіцієнтів детермінації і кореляції, виявлення помилок.
контрольная работа [77,8 K], добавлен 18.05.2011Поняття системи одночасних рівнянь. Структурна форма економетричної моделі. Побудова лінійної багатофакторної економіко-математичної моделі залежності фактору Y від факторів Xi. Аналіз на наявність мультиколінеарності згідно алгоритму Фаррара-Глобера.
курсовая работа [342,6 K], добавлен 18.07.2011Поняття лагової змінної; загальна характеристика моделі розподіленого лага, його структура. Інтерпретація коефіцієнтів моделей з розподіленим лагом. Побудова моделі, процедура застосування методу Алмон. Оцінка моделей с лагами в незалежних змінних.
курсовая работа [264,3 K], добавлен 18.12.2014Специфікація економетричної моделі парної регресії. Побудова лінійної, степеневої та показникової економетричної моделі, поняття коефіцієнта регресії та детермінації. Графічне зображення моделювання лінійного зв’язку, застосування F–критерію Фішера.
контрольная работа [5,1 M], добавлен 17.03.2010Параметри проведення економетричного аналізу. Метод найменших квадратів. Оцінка параметрів лінійної регресії за методом найменших квадратів. Властивості простої лінійної регресії. Коефіцієнти кореляції і детермінації. Ступені вільності, аналіз дисперсій.
контрольная работа [994,5 K], добавлен 29.03.2009Перевірка макроекономічних показників Австрії на стаціонарність даних. Побудова економетричної моделі впливу показників інфляції, кількості зайнятих та безробітних на приріст валового внутрішнього продукту. Аналіз скоригованого коефіцієнту детермінації.
контрольная работа [35,0 K], добавлен 05.01.2014Статистичний і економічний зміст коефіцієнтів кореляції і детермінації. Економічне тлумачення довірчих інтервалів коефіцієнтів моделі, точкового значення прогнозу. Форма відображення статистичних даних моделі. Параметри стандартного відхилення асиметрії.
контрольная работа [20,1 K], добавлен 03.08.2010Перевірка загальної якості рівняння регресі та статистичної значущості оцінок параметрів економетричної моделі. Прогнозування значень залежної змінної. Визначення коефіцієнта еластичності. Економетричний аналіз лінійної функції парної регресії в MS Exel.
презентация [1,4 M], добавлен 10.10.2013Виконання економетричної моделі, що визначає залежність товарообороту від торгової площі. Побудова діаграми розсіювання, обґрунтування можливості використання парної, нелінійної, багатофакторної лінійної регресії для розробки економічної інтерпретації.
контрольная работа [449,4 K], добавлен 09.02.2014