Математическое моделирование экономических процессов методом наименьших квадратов

Автор: Пользователь скрыл имя, 27 Февраля 2013 в 14:55, курсовая работа

Описание работы

Сегодня для любого гражданина России не секрет, что экономика его страны практически перешла на рыночные рельсы и функционирует исключительно по законам рынка. Каждое предприятие отвечает за свою работу само и само принимает решения о дальнейшем развитии. Современные условия рыночного хозяйствования предъявляют к методам прогнозирования очень высокие требования, ввиду всё возрастающей важности правильного прогноза для судьбы предприятия, да и экономики страны в целом.
В данной курсовой работе мною был приведён метод наименьших квадратов (МНК), как один из способов прогнозирования экономических показателей.

Содержание

Введение
1. Постановка задачи множественной линейной регрессии 3
2. Расчётные формулы с помощью метода наименьших квадратов 4
3. Достаточное условие применения метода наименьших квадратов 6
Теорема Гаусса-Маркова
4. Проверка адекватности модели 16
Коэффициент детерминации
Список использованной литературы 18

Работа содержит 1 файл

Курсовая.docx

— 1.22 Мб (Скачать)

МОРДОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ИМ. Н.П. ОГАРЁВА

 

Факультет математический

 
Кафедра прикладной математики

 
 
 
 
 

КУРСОВАЯ РАБОТА

 
МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ ЭКОНОМИЧЕСКИХ  ПРОЦЕССОВ МЕТОДОМ НАИМЕНЬШИХ КВАДРАТОВ 

 
 
 
 
 
 
 
Автор курсовой работы                   10.05.2011                   Ерёмкина К.А.

Специальность       01051        прикладная математика

Обозначение курсовой работы     КР-

Руководитель работы                       10.05.2011                   Шамонин П.А.

Заведующий кафедрой, 
кандидат ф.-м. н., доцент

 

 

 

                                                                                              Оценка

 

 

 

 

 

 

Саранск 2011

Содержание

Введение

 

1. Постановка задачи множественной  линейной регрессии                                      3

 

2. Расчётные формулы с  помощью метода наименьших квадратов                        4

 

3. Достаточное условие  применения метода наименьших  квадратов                      6

    Теорема Гаусса-Маркова

 

4. Проверка адекватности  модели                                                                              16

    Коэффициент детерминации

 

Список использованной литературы                                                                         18

 
   
   
   
   
   
   

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введение

 

Сегодня  для любого гражданина России не секрет, что экономика  его страны практически перешла  на рыночные рельсы и функционирует  исключительно по законам рынка. Каждое предприятие отвечает за свою работу само и само принимает решения о дальнейшем развитии. Современные условия рыночного хозяйствования предъявляют к методам прогнозирования очень высокие требования, ввиду всё возрастающей важности правильного прогноза для судьбы предприятия, да и экономики страны в целом.

Именно прогнозирование функционирования экономики регионов или даже страны, на мой взгляд нужно уделять пристальное  внимание на данный момент, потому что  за пеленой сиюминутных собственных  проблем все почему-то забыли о  том, что экономика страны тоже должна управляться, а следовательно и  прогнозирование показателей ее развития должно быть поставлено на твердую  научную основу.

В данной курсовой работе мною был приведён метод наименьших квадратов (МНК), как один из способов прогнозирования экономических показателей.

 

 

 

 

 

 

 

 

 

 

 

  1. Постановка задачи множественной линейной регрессии

Классическая нормальная линейная модель  множественной  регрессии 

Экономические явления, как  правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной Y от нескольких объясняющих переменных Х1, Х2,…,Хn. Эта задача решается с помощью множественного регрессионного анализа.

Обозначим i-е наблюдение зависимой переменной yi, a объясняющих переменных — хi1,xi2,…xip. Тогда модель множественной линейной регрессии можно представить в виде:

yi01xi12xi2+...+βpxipi                                                                                                                    (4.1)

где i = 1,2,..., n; εi удовлетворяет предпосылкам :

  1. M(εi)=0
  2. D(εi)=δ2
  3. M(εi εj)=0 (i≠j)

Модель (4.1), в которой зависимая переменная yi возмущения εi и объясняющие переменные

xi1,xi2,…,xip удовлетворяют предпосылкам  регрессионного анализа и, кроме того, предпосылке о невырожденности матрицы (независимости столбцов) значений объясняющих переменных, называется классической нормальной линейной моделью множественной регрессии (Classic Normal Linear Multiple Regression model).

Включение в регрессионную  модель новых объясняющих переменных усложняет получаемые формулы и вычисления. Это приводит к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические концепции анализа, так и необходимые расчетные процедуры.

Введем обозначения: y=(y1 y2 … yn)— матрица-столбец, или вектор, значений зависимой переменной размера n;

— матрица значений объясняющих  переменных, или матрица плана  размера n×(p+1) (обращаем внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в модели (4.1) свободный член β0 умножается на фиктивную переменную хi0, принимающую значение 1 для всех i: хi0 = 1 (i= 1,2,..., n);

Β=(β0 β1 … βp) - матрица-столбец, или вектор, параметров размера (p+1)

ε=(ε1 ε2 … εn) - матрица-столбец, или вектор, возмущений (случайных ошибок, остатков) размера n.

Тогда в матричной форме  модель (4.1) примет вид:

Y=Xβ+ε.                                                                  (4.2)

Оценкой этой модели по выборке  является уравнение 

Y= Xb+e,                                                                  (4.2')

где b = (bo b1... bp), e = (e1 e2... en).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  1. Расчётные формулы с помощью метода наименьших квадратов

Для оценки вектора неизвестных  параметров β применим метод наименьших квадратов. Так как произведение транспонированной матрицы е’ на саму матрицу е

то условие минимизации  остаточной суммы квадратов запишется  в виде:

Учитывая, что при транспонировании произведения матриц получается произведение транспонированных матриц, взятых в обратном порядке, т.е. (Хb)’=b’X;

после раскрытия скобок получим:

S = Y′Y-b′ХY-Y′Xb + bX′Xb.

Произведение Y’Xb есть матрица размера (l×n)[n×(p+1)]×[(p+1)×1]=(1×1), т.е. величина скалярная, следовательно, оно не меняется при транспонировании, т.е. У′Xb = (Y′Xb)′ = b′X′Y.

Поэтому условие минимизации (4.3) примет вид:

На основании необходимого условия экстремума функции нескольких переменных S(b0,b1...bp), представляющей (4.3), необходимо приравнять нулю частные производные по этим переменным или в матричной форме — вектор частных производных

Для вектора частных производных  доказаны следующие формулы:

где b и с — вектор-столбцы; А — симметрическая матрица, в которой элементы, расположенные симметрично относительно главной диагонали, равны.

Поэтому, полагая с= X’Y, а матрицу А = X’X (она является симметрической), найдем

Откуда получаем систему нормальных уравнении в матричной форме для определения вектора b:

X’Xb = X’Y.                                        (4.5)

Найдем матрицы, входящие в это уравнение. Матрица Х’Х представляет матрицу сумм первых степеней, квадратов и попарных произведений n наблюдений объясняющих переменных:

Матрица X'Y есть вектор произведений n наблюдений объясняющих и зависимой переменных:

В частном случае из рассматриваемого матричного уравнения (4.5) с учетом (4.6) и (4.7) для одной объясняющей переменной (р=1) нетрудно получить систему нормальных уравнений. Действительно, в этом случае матричное уравнение (4.5) принимает вид:

откуда непосредственно  следует система нормальных уравнений.

Для решения матричного уравнения (4.5) относительно вектора оценок параметров b необходимо ввести еще однупредпосылку для множественного регрессионного анализа: матрица X'X является неособенной, т.е. ее определитель не равен нулю. Следовательно, ранг матрицы Х'Х равен ее порядку, т.е. r(Х'Х)=р+1. Из матричной алгебры известно, что r(Х'Х)=r(Х), значит, r(Х)=р+1, т. е. ранг матрицы плана X равен числу ее столбцов. Это позволяет сформулировать предпосылку  множественного регрессионного анализа в следующем виде:

Векторы значений объясняющих переменных, или столбцы матрицы плана X, должны быть линейно независимыми, т. е. ранг матрицы X — максимальный (г (Х)=р+1).

Кроме того, полагают, что  число имеющихся наблюдений (значений) каждой из объясняющих и зависимой переменных превосходит ранг матрицы X, т. е. n>r(X) или n>р+1, ибо в противном случае в принципе невозможно получение сколько-нибудь надежных статистических выводов.

Предпосылки для множественного регрессионного анализа могут быть записаны следующим образом:

1. В модели (4.2) ε - случайный вектор, X — неслучайная (детерминированная) матрица.

2. M(ε)=0n.

3, 4. ∑ε=M(εε’)=δ2En.

5. ε — нормально распределенный случайный вектор, т.е. ε~Nn(0;δ2En).

6. r(Х) =р+1<n.

Как уже отмечено в модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии; если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии.

Решением уравнения (4.5) является вектор

                                                                b = (X'X)-1X’Y,                                                                   (4.8)

где (Х'Х)-1 — матрица, обратная матрице коэффициентов системы (4.5), X'Y — матрица-столбец, или вектор, ее свободных членов.

 

 

 

 

 

 

 

 

  1. Достаточное условие применения метода наименьших квадратов

Теорема Гаусса—Маркова.

 

Теорема Гаусса—Маркова

Если регрессионная модель yi01xii удовлетворяет предпосылкам

1. В этой модели возмущение εi (или зависимая переменная yi) есть величина случайная, а объясняющая переменная xi - величина неслучайная.

2. Математическое ожидание возмущения εi равно нулю:

                                                                    M(εi)=0                                                                          (3.23)

(или математическое ожидание  зависимой переменной уi равно линейной функции регрессии:       M(yi)=β01xi).

3. Дисперсия возмущения  еi (или зависимой переменной уi) постоянна для любого i:

                                                                    D(εi)=δ2                                                                                                     (3.24)

(или D(уi)=δ2— условие гомоскедастичности или равноизменчивости возмущения (зависимой переменной)).

4. Возмущения εi  и εj (или переменные уi и yj) не коррелированы:

                                                                  M(εiεj)=0 (i≠j)                                                                  (3.25) 

то оценки b0, b1 имеют наименьшую дисперсию в классе всех линейных несмещенных оценок (Best Linear Unbiased Estimator, или BLUE).

Таким образом, оценки b0 и b1 в определенном смысле являются наиболее эффективными линейными оценками параметров β0 и β1.

Теорема Гаусса—Маркова, рассмотренная выше для парной регрессионной модели, оказывается верной и в общем виде для модели (4.2) множественной регрессии:

При выполнении предпосылок  множественного регрессионного анализа  оценка метода наименьших квадратов  b = (Х'Х)-1X'Y является наиболее эффективной, т. е. обладает наименьшей дисперсией в классе линейных несмещенных оценок (Best Linear Unbiased Estimator, или BLUE).

Информация о работе Математическое моделирование экономических процессов методом наименьших квадратов