Автокорреляция

Автор: Пользователь скрыл имя, 18 Апреля 2011 в 21:15, курсовая работа

Описание работы

Модели, построенные по данным, характеризующим один объект за ряд последовательных моментов (периодов), называются моделями временных рядов. Временной ряд – это совокупность значений какого-либо показателя за несколько последовательных моментов или периодов. Применение традиционных методов корреляционно-регрессионного анализа для изучения причинно-следственных зависимостей переменных, представленных в форме временных рядов, может привести к ряду серьезных проблем, возникающих как на этапе построения, так и на этапе анализа эконометрических моделей. В первую очередь эти проблемы связаны со спецификой временных рядов как источника данных в эконометрическом моделировании.

Содержание

Введение
1. Суть и причины автокорреляции
2. Обнаружение автокорреляции
0. 2.1 Графический метод
0. 2.2 Метод рядов
0. 2.3 Критерий Дарбина-Уотсона
0. 2.4 Тест серий (тест Бреуша-Годфри)
0. 2.5 Q-тест Льюинга - Бокса
3. Последствия автокорреляции
4. Методы устранения
0. 4.1 Определение на основе статистики Дарбина-Уотсона
0. 4.2 Метод Кохрана-Оркатта
0. 4.3 Метод Хилдрета-Лу
0. 4.4 Метод первых разностей
Заключение
Список использованной литературы

Работа содержит 1 файл

Курсовая.doc

— 512.50 Кб (Скачать)

     Есть  несколько существенных ограничений  на применение критерия Дарбина–Уотсона. Во-первых, он неприменим к моделям, включающим в качестве независимых переменных лаговые значения результативного признака, т. е. к моделям авторегрессии. Во-вторых, методика расчета и использования критерия Дарбина – Уотсона направлена только на выявление автокорреляции остатков первого порядка. При проверке остатков на автокорреляцию более высоких порядков следует применять другие методы. В-третьих, критерий Дарбина–Уотсона дает достоверные результаты только для больших выборок. 
 
 
 

2.4. Тест серий (Бреуша-Годфри)

     Тест основан на следующей идее: если имеется корреляция между соседними наблюдениями, то естественно ожидать, что в уравнении

      , t =1,…,n    (2.4.1)

     (где  -остатки регрессии, полученные обычным методом наименьших квадратов), коэффициент окажется значимо отличающимся от нуля.

     Практическое  применение теста заключается в  оценивании методом наименьших квадратов  регрессии (2.4.1)

     Преимущество  теста Бреуша–Годфри по сравнению  с тестом Дарбина-Уотсона содержит зону неопределенности для значений статистики d. Другим преимуществом  теста является возможность обобщения: в число регрессоров могут быть включены не только остатки с лагом 1, но и с лагом 2,3 и т.д., что позволяет выявить корреляцию не только между соседними, но и между более отдаленными наблюдениями.

     Рассмотрим  в качестве примера (2.4) временной ряд - ряд последовательных значений курса ценной бумаги А, наблюдаемых в моменты времени 1,…,100. Результаты наблюдений графически изображены на рисунке 2.4.

     

     Рис.2.4

     Очевидно, курс ценной бумаги А имеет тенденцию к росту, что можно проследить на графике.

     Оценивая  обычным методом наименьших квадратов  зависимость курса наблюдений (т.е. от времени), получим следующие результаты:

         

     Имеет место положительная автокорреляция (т.к. результаты предыдущих торгов оказывают влияние на результаты последующих)

     Проверим  это с помощью теста Бреуша-Годфри.

     Рассмотрим  авторегрессионную зависимость  остатков от их предыдущих значений, используя  авторегрессионную модель р-го порядка. Применяя МНК, получим:

         (2.4.2)

           (0,10)    (0,12)   (0,10)

     Как видно, значимым оказывается только регрессор ,т.е. существенное влияние на результат наблюдения оказывает только одно предыдущее значение . Положительность оценки соответствующего коэффициента регрессии указывает на положительную корреляцию между ошибками регрессии и . 
 

2.5.Q-тест Льюинга-Бокса

     Тест  основан на рассмотрении выборочных автокорреляционной и частной автокорреляционной функцией временного ряда.

     Если  ряд стационарный, то,  как можно  доказать, выборочный частный коэффициент  корреляции совпадает с оценкой  обычного метода наименьших квадратов  коэффициента в авторегрессионной модели AR(p):

     

     Это утверждение лежит в основе вычисления значений частной автокорреляционной функции.

     Очевидно, что в случае отсутствия автокорреляции все значения автокорреляционной функции  равны нулю. Разумеется, ее выборочные значения окажутся отличными от нуля, но в этом случае отличие не должно быть существенным. На этой идее и основан тест Льюинга-Бокса, проверяющий гипотезу об отсутствии автокорреляции.

     Статистика  Льюинга-Бокса имеет вид:

            (2.5)

     Можно доказать, что если верна гипотеза о равенстве нулю всех коэффициентов корреляции , где , то статистика имеет распределение с р степенями свободы.

     Пример 2.5 Проверить гипотезу об отсутствии автокорреляции в модели зависимости курса ценной бумаги А от времени t (пример 2.4)

     Значение d-статистики Дарбина-Уотсона, примерно равное единице, дает оценку коэффициента корреляции между  и , т.е. r(1)=0,5/

     Отсюда  по формуле 2.5

     

     Так как фактическое значение статистики больше критического , то гипотеза отвергается

      Заметим, что гипотеза =0 и о равенстве нулю коэффициента в уравнении  2.4.1 представляют собой по сути одно и то же утверждение об отсутствии авторегрессии первого порядка. Результат тестирования этих гипотез должен совпадать с выводом, к которому приводит значение статистики Дарбина- Уотсона. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

3. Последствия автокорреляции

Среди последствий  автокорреляции при применении МНК обычно выделяются следующие.

    1.Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок (ВLUE-оценок).

     2.Дисперсии оценок являются смещенными. Зачастую дисперсии, вычисляемые по           стандартным формулам, являются заниженными, что приводит к увеличению t-статистик. Это может привести к признанию статистически значимыми объясняющие переменные, которые в действительности таковыми могут и не являться.

     3.Оценка дисперсии регрессии

     является смещенной

    оценкой истинного значения , во многих случаях занижая его.

    4.В силу вышесказанного выводы по t- и F-статистикам, определяющим значимость коэффициентов регрессии и коэффициента детерминации, возможно, будут неверными. Вследствие этого ухудшаются прогнозные качества модели. 
     
     
     
     
     
     
     
     
     
     
     
     
     
     

4.Методы устранения автокорреляции

        Основной причиной наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных. Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то для ее устранения необходимо, прежде всего, попытаться скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Необходимо попытаться определить данный фактор и учесть его в уравнении регрессии . Также можно попробовать изменить формулу зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т. д.). Однако если все разумные процедуры изменения спецификации модели. на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда {ет}. В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).

            Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии

        (4.1)

    Тогда наблюдениям t и (t-1) соответствуют формулы

                          (4.2)

                     (4.3)

     Пусть случайные отклонения подвержены воздействию  авторегресси первого порядка:

     

     где vt,t=2,3…T- случайные отклонения, удовлетворяющие всем предпосылкам МНК, а коэффициент р известен.

     Вычтем  из (4.2) соотношение (4.3),умножив на :

      (4.4)

     Положив , получим:

                    

         Так как по предположению коэффициент р известен, то очевидно, вычисляются достаточно просто. В силу того, что случайные отклонения удовлетворяют предпосылкам МНК, то оценки и будут обладать свойствами наилучших линейных несмещенных оценок.

     Однако  способ вычисления y, х приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюдением). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Виистена:

                                          (4.5) 
 

4.1. Определение на основе статистики Дарбина-Уотсона

Статистика Дарбина-Уотсона  тесно связана с коэффициентом  корреляции между соседними отклонениями через соотношение:

                              (4.1.1)

Тогда в качестве оценки коэффициента может быть взят коэффициент . Из (5.1.1) имеем:

                  (4.1.2)

Этот метод  оценивания весьма неплох при большом  числе наблюдений. В этом случае оценка r параметра будет достаточно точной.

 

4.2 Метод Кохрана- Оркатта

Другим возможным  методом оценивания является итеративный процесс, называемый методом Кохрана- Оркатта. Опишем данный метод на примере парной регрессии:

                        

И авторегрессионной  схемы первого порядка AR(1)

                        

  1. Оценивается по МНК регрессия и для нее определяются оценки отклонений t=1,2,…n.
  2. Используя схему AR(1), оценивается регрессионная зависимость

                             (4.2.1)

    

  1. На основе данной оценки строится уравнение:

      (4.2.2)

     с  помощью которого оцениваются  коэффициенты  и (в этом случае значение известно).

  1. Значения подставляются в уравнение регрессии. Вновь вычисляются оценки отклонений и процесс возвращается к этапу 2.

Чередование этапов осуществляется до тех пор, пока не будет достигнута требуемая точность. То есть пока разность между предыдущей и последующей оценками не станет меньше любого наперед заданного числа. 

4.3. Метод Хилдрета-Лу

По данному  методу регрессия

оценивается для  каждого возможного значения из интервала [-1;1] с любым шагом (например, 0,001;0,01 и т.д.). Величина , дающая наименьшую стандартную ошибку регрессии, принимается в качестве оценки коэффициента  . И значение и оценивается из уравнения регрессии именно с данным значением . 
 
 
 

4.4. Метод первых разностей

В случае, когда  есть основания считать, что автокорреляция отклонений очень велика, можно использовать метод превых разностей.

Для временных  рядов характерна положительная автокорреляция остатков. Поэтому при высокой автокорреляции полагают ,и, следовательно, уравнение (4.4) принимает вид:

              (4.4.1)

Или 

Обозначив из (4.4.1) получим

                  (4.4.2)

Из уравнения (4.4.2) по МНК оценивается коэффициент .Заметим, что коэффициент в данном случае  не определяется непосредственно. Однако из МНК известно, что

В случае , можно получить следующее уравнение регрессии:

          

Или

Информация о работе Автокорреляция