Классический метод наименьших квадратов

Автор: Пользователь скрыл имя, 28 Января 2011 в 06:22, контрольная работа

Описание работы

Целью работы является рассмотрение методики классического метода наименьших квадратов.
Для достижения поставленной цели необходимо решить следующие задачи:
o рассмотреть применение метода наименьших квадратов для нахождения неизвестных параметров уравнения регрессии на примере модели линейной парной регрессии;
o изучить свойства оценок МНК;
o рассмотреть применение МНК на конкретном примере.

Содержание

Введение…………………………………………………………………….3
1. Процедура оценки параметров по методу наименьших квадратов…..5
2. Свойства оценок МНК…………………………………………………..9
Заключение………………………………………………………………..21
Список использованной литературы…………………………………….22

Работа содержит 1 файл

эконометрика.doc

— 312.50 Кб (Скачать)

или                               Х¢Хa=Х¢у.

     Откуда  следует, что “оптимальный” вектор оценок параметров a определяется на основе следующего векторно-матричного выражения:

                                        a=(Х¢Х)–1×Х¢у.                                             (2.8)

     Все переменные в правой части выражения (2.8) являются известными – это исходные данные, сведенные в матрицу  Х  и вектор у.

     Рассмотрим  применение МНК на конкретном примере. Имеются данные о цене на нефть x (долларов за баррель) и индексе акций  нефтяной компании y (в процентных пунктах). Требуется найти эмпирическую формулу, отражающую связь между ценой  на нефть и индексом акций нефтяной компании исходя из предположения, что связь между указанными переменными линейна и описывается функцией вида yi=β0+β1xi. Зависимой переменной (y) в данной регрессионной модели будет являться индекс акций нефтяной компании, а независимой (x) — цена на нефть.

     Для нахождения коэффициентов β0 и β1 построим вспомогательную таблицу 1.

                                                                                                            Таблица 1

     Таблица для нахождения коэффициентов β0 и β1

№ наблюдения Цена на нефть  – х, ден.ед. Индекс нефтяной компании - % xi *yi хi2
1 17,28 537 9279,36 298,5984
2 17,05 534 9104,70 290,7025
3 18,30 550 10 065,00 334,8900
4 18,80 555 10 434,00 353,4400
5 19,20 560 10 752,00 368,6400
6 18,50 552 10 212,00 342,2500
Сумма по столбцу 110,13 3288 59 847,06 1988,52

     Запишем систему нормальных уравнений исходя из данных таблицы:

     1988,52β  + 110,13β = 59847,06,

     110,13β  + 6β = 3288.

     Решением  данной системы нормальных уравнений  будут следующие числа:  β1=15,317; β0=266,86. Таким образом, уравнение регрессии, описывающее зависимость между ценой на нефть и индексом акций нефтяной компании, можно записать как: y = 15,317x + 266,86.

     На  основании полученного уравнения  регрессии можно сделать вывод  о том, что с изменением цены на нефть на 1 денежную единицу за баррель индекс акций нефтяной компании изменяется примерно на 15,317 процентных пункта.

2. Свойства оценок МНК.

     Рассмотрим  основные условия, при которых оценки коэффициентов линейной эконометрической модели, во-первых, могут быть в принципе найдены, а, во-вторых, их “качество” будет “достаточно высоким”, что является определенным свидетельством и достаточного качества построенной модели.

       “Качество” оценок, их свойства тесно связаны со “статистической” трактовкой исходных данных и,  в первую очередь, независимых переменных. Рассмотрим сначала случай, когда измеренные (наблюдаемые) значения независимых факторов трактуются как детерминированные (неслучайные) величины.

     В этом случае матрица Х представляет собой матрицу, состоящую из констант, и элементы матриц (Х¢Х) и (Х¢Х)–1 также рассматриваются как константы.

     Прежде  всего заметим, что выражение (2.3) и аналогичное ему выражение (2.7) представляют собой систему (n+1) уравнений с (n+1) неизвестными. Вследствие этого решение, т. е. вектор a, на основе выражения (2.8) теоретически можно получить почти всегда, кроме тех случаев, когда матрица   Х¢Х   является вырожденной и, следовательно, обратная ей матрица (Х¢Х)–1  не существует.

     Вырожденная матрица Х¢Х будет иметь место в том случае, если хотя бы один из столбцов матрицы Х представим в виде линейной комбинацией нескольких других ее столбцов. От свойства вырожденности матрицы  Х¢Х следует отличать ее плохую обратимость. Это свойство может быть обусловлено существованием почти линейной зависимости между столбцами матрицы Х. В этом случае определитель матрицы Х¢Х близок к нулю и при расчете элементов обратной ей матрицы могут возникнуть проблемы вычислительного характера, когда неизбежные в расчетах на ЭВМ ошибки округления будут значительно искажать конечный результат. Это, в свою очередь, может повлечь существенные искажения оценок параметров модели, т. е. элементов вектора a.

     Другое  достаточно естественное ограничение  для получения решения состоит  в том, что количество измерений факторов Т должно быть больше их числа n+1 (Т>n+1). В противном случае получить однозначную оценку параметров модели невозможно, так как количество неизвестных в системе (2.3) превысит число  ее уравнений [5, с.367].

     Наряду  с отмеченными трудностями “вычислительного характера” проблема получения “хороших” оценок параметров эконометрических моделей усложняется еще из-за ряда обстоятельств. Дело в том, что найденные с помощью выражения (2.8) оценки ai, i=0,1,..., n являются случайными величинами. Их можно представить как сумму истинного значения ai  и некоторой случайной ошибки Dai .

  

     Для доказательства справедливости этого  утверждения подставим   в   выражение  (2.8)   вместо  вектора  у   его выражение Х×a+e,  где   a  – вектор истинных значений параметров aii=0,1,..., n. После подстановки получим:

     a=(Х¢Х)–1×Х¢(Х×a+e)=(Х¢Х)–1Х¢Х×a+(Х¢Х)–1Х¢×e=

=a+(Х¢Х)–1Х¢×e,                                        (2.9)

где (Х¢Х)–1Х¢×e=Da – вектор ошибки оценок параметров ai .

     При случайном характере оценок коэффициентов модели aii=0,1,..., n; их “высокое качество” подтверждается наличием у них свойств несмещенности и эффективности.

     Рассмотрим  сначала условие несмещенности  этих оценок. Оно означает, что математическое ожидание оценки ai, i=0,1,..., n; равно истинному значению параметра ai, т. е. M[ai]=ai.

     При условии, что матрица (Х¢Х) обратима, возьмем математическое ожидание от правой и левой частей выражения (2.9). Получим

                                        М[a]=a+М[(Х¢Х)–1Х¢×e].               (2.10)

     Из  выражения (2.10) непосредственно вытекает, что для того, чтобы значения aii=0,1,..., n; полученные из выражения (2.8), были несмещенными оценками параметров эконометрической модели ai необходимо выполнение следующего условия:

                М[(Х¢Х)–1Х¢×e] = 0.                             (2.11)

     Поскольку матрица Х является ненулевой, то  для выполнения условия (2.11) необходимо, чтобы

  а) М[e]=0;                                                                                                (2.12)

  б) факторы хit и ошибка et были независимыми между собой, i=0,1,..., n.

     В этом случае математическое ожидание произведения    (Х¢Х)–1Х¢×e  можно представить как произведение математических ожиданий двух величин (постоянной матрицы (Х¢Х)–1Х¢ на случайный вектор ошибки e, т. е. М[(Х¢Х)–1Х¢×e]=М[(Х¢Х)–1Х¢]×М[e], откуда следует, что при справедливости (2.12) условие (2.11) выполняется.

     Оценка  ai  параметра модели ai  считается эффективной, если ее дисперсия является минимальной среди дисперсий всех  других возможных оценок данного параметра.

     Дисперсии оценок aii=0,1,..., n;  можно найти как диагональные элементы их ковариационной матрицы. Напомним, что ковариационная матрица вектора оценок a (в общем случае) определяется следующим выражением:

    Сov(a)=   ,    (2.13)

где si2=D(ai) – дисперсия i-ой оценки; cov(ai, aj)  – ковариация оценок i-го и j-го параметров.

     Ковариационная  матрица вектора оценок а может быть представлена как математическое ожидание произведения вектора-столбца ошибки на ее вектор-строку, т. е. Сov(a)=М[Da×Da¢]. С учетом (2.9) получим:

Сov(a)=М[(Х¢Х)–1Х¢×e×e¢×Х(Х¢Х )–1].            (2.14)

     Поскольку матрица Х образована постоянными величинами, то выражение (2.14) можно переписать в следующем виде:

  Сov(a)=(Х¢Х)–1Х¢×М[e×e¢]×Х(Х¢Х)–1=

                    =(Х¢Х)–1Х¢×Сov(e)×Х(Х¢Х)–1,                  (2.15) 

где Сov(e) является ковариационной матрицей вектора “идеальной” ошибки модели, определяемой следующим выражением:

Сov(e)=      ,      (2.16)

Информация о работе Классический метод наименьших квадратов