Поняття про мультиколінеарність та її вплив на оцінку параметрів моделі

Автор: Пользователь скрыл имя, 27 Декабря 2012 в 17:22, контрольная работа

Описание работы

Одна з передумов застосування методу найменших квадратів до оцінювання параметрів лінійних багатофакторних моделей — відсутність лінійних зв'язків між незалежними змінними моделі. Якщо такі зв'язки існують, то це явище називають мультиколінеарністю.
Суть мультиколінеарності полягає в тому, що в багатофакторній регресійній моделі дві або більше незалежних змінних пов'язані між собою лінійною залежністю або, іншими словами, мають високий ступінь кореляції:

Работа содержит 1 файл

КР.doc

— 110.50 Кб (Скачать)

r12 = 0,910257, r13 = 0,070234, r23 = 0,297472.

Однак якщо порівняти  абсолютні значення часткових парних коефіцієнтів, то можна побачити, що перші значно менші, ніж останні. Тому на основі знання парних коефіцієнтів кореляції висновок про мультиколінеарність робити неможливо. Для цього необхідно ще виконати 7-й крок.

7-й крок: розрахуємо t-критерії:

t12 = 9,064506, t13 = 0,290302, t23 = 1,284666;

значення критеріїв tkj порівняємо з табличними при (n–m) = 17 ступенях свободи й рівні значущості α=0,05 (дод. 4): tтабл = 2,109818.

Оскільки t12 > tтабл, t13 < tтабл, t23 < tтабл, то між першою та дру-гою  незалежними змінними існує мультиколінеарність.

Якщо ^-критерій перевищує  табличне значення, а це означає  що k-та змінна залежить від інших  змінних у масиві, необхідно вирішу-вати питання про її виключення з переліку змінних.

Якщо tkj-критерій перевищує  табличне значення, то ця пара змінних (k i j) тісно взаємопов’язана. Звідси, аналізуючи рівень обох видів кри-теріїв F i t, можна зробити обґрунтований  висновок про те, яку зі змінних необхідно виключити із дослідження чи замінити її іншою. Але заміна масиву незалежних змінних завжди має узгоджуватися з еко-номічною доцільністю, що зумовлена метою дослідження.

 

 

 

 

 

 

 

 

Засоби усунення мультиколінеарності. Метод головних компонентів

Виявлення мультиколінеарності  є лише частиною справи. Інша частина - як її усунути. Безпомилкових і  абсолютно правильних порад немає, оскільки мультиколінеарність є  прикладною проблемою.

Звичайно, усе залежить від ступеня мультиколінеарності, однак у будь-якому разі можна запропонувати кілька простих методів усунення мультиколінеарності:

1) використання додаткової  або первинної інформації;

2) об’єднання інформації;

3) відкидання змінної  з високою кореляцією;

4) перетворення даних  (використання перших різниць);

5) збільшення кількості  спостережень.

Які поради спрацюють  на практиці, залежить від істотності про-блеми та її характеру.

Якщо переліченими методами не вдається усунути мультиколіне-арність, то для оцінювання параметрів багатовимірної моделі доціль-но застосувати метод головних компонентів.

Алгоритм методу головних компонентів

Цей алгоритм включає  дев’ять кроків.

1-й крок: нормалізувати  змінні x1 x2, ... хт регресійної моделі, обчисливши  де п кількість спостережень (і= 1, «);

т - кількість пояснюючих змінних у моделі (/= 1, т); х. - середня арифметична ;-ї незалежної змінної;

σ - середньоквадратичне  відхилення ;-ї незалежної змінної.

2-й крок: побудувати  нову матрицю Ґ, елементами  якої є нормалізовані незалежні  змінні.

3-й крок: обчислити кореляційну матрицю (матрицю моментів нормалізованої системи нормальних рівнянь) за формулою

де X** - транспонована  матриця Ґ:

(недіагональні елементи  матриці R характеризують щільність  зв’яз-ку однієї незалежної змінної  з іншою (rij = rxixj ), тобто є парними ко-ефіцієнтами кореляції).

4-й крок: знайти характеристичні  числа матриці r, тобто визначити  корені

X1,X2,..., Хm рівняння m-то  порядку:

 де E - одинична матриця розмірності  mxm; Хj, j = 1, 2,..., m - харак-теристичні числа  матриці r.

5-й крок: ранжувати власні значення Я , i = 1, 2, ..., m, за абсолютним рівнем внеску кожного головного компонента в загальну дисперсію.

6-й крок: розв’язати  систему рівнянь

і обчислити власні вектори ai , і = 1, 2, ..., m, за умови, що вони відповідають таким співвідношенням:

7-й крок:

знайти головні компоненти векторів zi=xai, і= 1, 2, ..., m, які задо-вольняють  умови 

8-й крок: визначити  параметри моделі Y = ZP :

9-й крок: знайти параметри  моделі Y = XА:

Зауважимо, що метод головних компонентів доцільно застосовувати, по-перше, для оцінювання параметрів моделей з великою кількістю факторів, по-друге, для моделей, у яких незалежні змінні (стовпці матриці спостережень X) мають однакові одиниці вимірювання.

 

Список використаної літератури

 

 

 

 

  1. Хеш Д. Причинный анализ в статистических исследованиях. — М.: Финансы и статистика, 1981. — 224 с.
  2. Венецкий И. Г., Венецкая В. И. Основные математико-статистические понятия и формулы в экономическом анализе: Справочник. — 2-е изд., перераб. и доп. — М.: Статистика, 1979. — 448 с.
  3. Винн Р., Холден К. Введение в прикладной эконометрический анализ. — М: Финансы и статистика, 1981. — 294 с.
  4. Геец В. М. Отраслевое прогнозирование: методологический и организационный аспекты. — К.: Наук, думка, 1990. — 120 с.
  5. Гранберг А. Г. Динамические модели народного хозяйства. — М.: Экономика, 1985. — 204 с.
  6. Гранберг А. Г. Статистическое моделирование и прогнозирование. — М.: Финансы и статистика, 1990. — 378 с.
  7. Дадаян В. С. Моделирование глобальных экономических процессов. — М.: Экономика, 1984. - 278 с.
  8. Демиденко Е. 3. Линейная и нелинейная регрессии. — М.: Финансы и статистика, 1981. — 302 с.
  9. Дружинин В. В., Конторов Д. С. Проблемы системологии. Проблемы теории сложных систем. — М.: Радио и связь, 1986. — 296 с.
  10. Дружинин В. В., Конторов Д. С. Системотехника. — М.: Радио и связь, 1985. - 200 с.
  11. Дюран Б., Одел П. Кластерный анализ. — М.: Статистика, 1977. — 128 с.
  12. Емельянов А. С. Общественное производство: Динамика, тенденции, модели. - К.: Наук, думка, 1980. - С. 347-409.

 


Информация о работе Поняття про мультиколінеарність та її вплив на оцінку параметрів моделі