Математическое моделирование экономических процессов методом наименьших квадратов
Курсовая работа, 27 Февраля 2013, автор: пользователь скрыл имя
Описание работы
Сегодня для любого гражданина России не секрет, что экономика его страны практически перешла на рыночные рельсы и функционирует исключительно по законам рынка. Каждое предприятие отвечает за свою работу само и само принимает решения о дальнейшем развитии. Современные условия рыночного хозяйствования предъявляют к методам прогнозирования очень высокие требования, ввиду всё возрастающей важности правильного прогноза для судьбы предприятия, да и экономики страны в целом.
В данной курсовой работе мною был приведён метод наименьших квадратов (МНК), как один из способов прогнозирования экономических показателей.
Содержание
Введение
1. Постановка задачи множественной линейной регрессии 3
2. Расчётные формулы с помощью метода наименьших квадратов 4
3. Достаточное условие применения метода наименьших квадратов 6
Теорема Гаусса-Маркова
4. Проверка адекватности модели 16
Коэффициент детерминации
Список использованной литературы 18
Работа содержит 1 файл
Курсовая.docx
— 1.22 Мб (Скачать)МОРДОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ИМ. Н.П. ОГАРЁВА
Факультет математический
Кафедра прикладной математики
КУРСОВАЯ РАБОТА
МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ
Автор курсовой работы
10.05.2011
Ерёмкина К.А.
Специальность 01051 прикладная математика
Обозначение курсовой работы КР-
Руководитель работы
Заведующий
кафедрой,
кандидат ф.-м. н., доцент
Саранск 2011
Содержание Введение |
|||
1. Постановка задачи |
|||
2. Расчётные формулы с
помощью метода наименьших |
|||
3. Достаточное условие применения метода наименьших квадратов 6 Теорема Гаусса-Маркова |
|||
4. Проверка адекватности
модели Коэффициент детерминации |
|||
Список использованной литературы |
|||
Введение
Сегодня для любого гражданина России не секрет, что экономика его страны практически перешла на рыночные рельсы и функционирует исключительно по законам рынка. Каждое предприятие отвечает за свою работу само и само принимает решения о дальнейшем развитии. Современные условия рыночного хозяйствования предъявляют к методам прогнозирования очень высокие требования, ввиду всё возрастающей важности правильного прогноза для судьбы предприятия, да и экономики страны в целом.
Именно прогнозирование
В данной курсовой работе мною был приведён метод наименьших квадратов (МНК), как один из способов прогнозирования экономических показателей.
- Постановка задачи множественной линейной регрессии
Классическая нормальная линейная модель множественной регрессии
Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной Y от нескольких объясняющих переменных Х1, Х2,…,Хn. Эта задача решается с помощью множественного регрессионного анализа.
Обозначим i-е наблюдение зависимой переменной yi, a объясняющих переменных — хi1,xi2,…xip. Тогда модель множественной линейной регрессии можно представить в виде:
yi =β0
+β1xi1+β2xi2+...+βpxip+εi
где i = 1,2,..., n; εi удовлетворяет предпосылкам :
- M(εi)=0
- D(εi)=δ2
- M(εi εj)=0 (i≠j)
Модель (4.1), в которой зависимая переменная yi возмущения εi и объясняющие переменные
xi1,xi2,…,xip удовлетворяют предпосылкам регрессионного анализа и, кроме того, предпосылке о невырожденности матрицы (независимости столбцов) значений объясняющих переменных, называется классической нормальной линейной моделью множественной регрессии (Classic Normal Linear Multiple Regression model).
Включение в регрессионную модель новых объясняющих переменных усложняет получаемые формулы и вычисления. Это приводит к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические концепции анализа, так и необходимые расчетные процедуры.
Введем обозначения: y=(y1 y2 … yn)’— матрица-столбец, или вектор, значений зависимой переменной размера n;
— матрица значений объясняющих переменных, или матрица плана размера n×(p+1) (обращаем внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в модели (4.1) свободный член β0 умножается на фиктивную переменную хi0, принимающую значение 1 для всех i: хi0 = 1 (i= 1,2,..., n);
Β=(β0 β1 … βp)’ - матрица-столбец, или вектор, параметров размера (p+1)
ε=(ε1 ε2 … εn) - матрица-столбец, или вектор, возмущений (случайных ошибок, остатков) размера n.
Тогда в матричной форме модель (4.1) примет вид:
Y=Xβ+ε.
Оценкой этой модели по выборке является уравнение
Y= Xb+e,
где b = (bo b1... bp)’, e = (e1 e2... en)’.
- Расчётные формулы с помощью метода наименьших квадратов
Для оценки вектора неизвестных параметров β применим метод наименьших квадратов. Так как произведение транспонированной матрицы е’ на саму матрицу е
то условие минимизации остаточной суммы квадратов запишется в виде:
Учитывая, что при транспонировании произведения матриц получается произведение транспонированных матриц, взятых в обратном порядке, т.е. (Хb)’=b’X;
после раскрытия скобок получим:
S = Y′Y-b′Х’Y-Y′Xb + b′X′Xb.
Произведение Y’Xb есть матрица
размера (l×n)[n×(p+1)]×[(p+1)×1]=(1×1)
Поэтому условие минимизации (4.3) примет вид:
На основании необходимого условия экстремума функции нескольких переменных S(b0,b1...bp), представляющей (4.3), необходимо приравнять нулю частные производные по этим переменным или в матричной форме — вектор частных производных
Для вектора частных производных доказаны следующие формулы:
где b и с — вектор-столбцы; А — симметрическая матрица, в которой элементы, расположенные симметрично относительно главной диагонали, равны.
Поэтому, полагая с= X’Y, а матрицу А = X’X (она является симметрической), найдем
Откуда получаем систему нормальных уравнении в матричной форме для определения вектора b:
X’Xb = X’Y.
Найдем матрицы, входящие в это уравнение. Матрица Х’Х представляет матрицу сумм первых степеней, квадратов и попарных произведений n наблюдений объясняющих переменных:
Матрица X'Y есть вектор произведений n наблюдений объясняющих и зависимой переменных:
В частном случае из рассматриваемого матричного уравнения (4.5) с учетом (4.6) и (4.7) для одной объясняющей переменной (р=1) нетрудно получить систему нормальных уравнений. Действительно, в этом случае матричное уравнение (4.5) принимает вид:
откуда непосредственно следует система нормальных уравнений.
Для решения матричного уравнения (4.5) относительно вектора оценок параметров b необходимо ввести еще однупредпосылку для множественного регрессионного анализа: матрица X'X является неособенной, т.е. ее определитель не равен нулю. Следовательно, ранг матрицы Х'Х равен ее порядку, т.е. r(Х'Х)=р+1. Из матричной алгебры известно, что r(Х'Х)=r(Х), значит, r(Х)=р+1, т. е. ранг матрицы плана X равен числу ее столбцов. Это позволяет сформулировать предпосылку множественного регрессионного анализа в следующем виде:
Векторы значений объясняющих переменных, или столбцы матрицы плана X, должны быть линейно независимыми, т. е. ранг матрицы X — максимальный (г (Х)=р+1).
Кроме того, полагают, что число имеющихся наблюдений (значений) каждой из объясняющих и зависимой переменных превосходит ранг матрицы X, т. е. n>r(X) или n>р+1, ибо в противном случае в принципе невозможно получение сколько-нибудь надежных статистических выводов.
Предпосылки для множественного регрессионного анализа могут быть записаны следующим образом:
1. В модели (4.2) ε - случайный вектор, X — неслучайная (детерминированная) матрица.
2. M(ε)=0n.
3, 4. ∑ε=M(εε’)=δ2En.
5. ε — нормально распределенный случайный вектор, т.е. ε~Nn(0;δ2En).
6. r(Х) =р+1<n.
Как уже отмечено в модель (4.2), удовлетворяющая приведенным предпосылкам 1—6, называется классической нормальной линейной моделью множественной регрессии; если же среди приведенных не выполняется лишь предпосылка 5 о нормальном законе распределения вектора возмущений е, то модель (4.2) называется просто классической линейной моделью множественной регрессии.
Решением уравнения (4.5) является вектор
где (Х'Х)-1 — матрица, обратная матрице коэффициентов системы (4.5), X'Y — матрица-столбец, или вектор, ее свободных членов.
- Достаточное условие применения метода наименьших квадратов
Теорема Гаусса—Маркова.
Теорема Гаусса—Маркова
Если регрессионная модель yi=β0+β1xi+εi удовлетворяет предпосылкам
1. В этой модели возмущение εi (или зависимая переменная yi) есть величина случайная, а объясняющая переменная xi - величина неслучайная.
2. Математическое ожидание возмущения εi равно нулю:
(или математическое ожидание зависимой переменной уi равно линейной функции регрессии: M(yi)=β0+β1xi).
3. Дисперсия возмущения еi (или зависимой переменной уi) постоянна для любого i:
(или D(уi)=δ2— условие гомоскедастичности или равноизменчивости возмущения (зависимой переменной)).
4. Возмущения εi и εj (или переменные уi и yj) не коррелированы:
то оценки b0, b1 имеют наименьшую дисперсию в классе всех линейных несмещенных оценок (Best Linear Unbiased Estimator, или BLUE).
Таким образом, оценки b0 и b1 в определенном смысле являются наиболее эффективными линейными оценками параметров β0 и β1.
Теорема Гаусса—Маркова, рассмотренная выше для парной регрессионной модели, оказывается верной и в общем виде для модели (4.2) множественной регрессии:
При выполнении предпосылок множественного регрессионного анализа оценка метода наименьших квадратов b = (Х'Х)-1X'Y является наиболее эффективной, т. е. обладает наименьшей дисперсией в классе линейных несмещенных оценок (Best Linear Unbiased Estimator, или BLUE).