Теория вероятности. Ответы

Автор: Пользователь скрыл имя, 23 Января 2011 в 23:51, шпаргалка

Описание работы

Ответы на 24 вопроса.

Содержание

1. Введение в теорию вероятностей. Задачи Де Мере. Историческая справка. Области применения теории вероятностей и математической статистики.
2. Определения основных понятий о событиях. Классическое определение вероятности. Свойства вероятности. Статистическое определение вероятности, его связь с классическим.
3. Комбинаторные правила суммы и произведения. Соединения без повторений: перестановки, размещения и сочетания, формулы для вычисления их числа, свойства соединений. Построение и использование треугольника Паскаля.
4. Геометрическое определение вероятности: частные случаи, общая постановка задачи и общее определение. Задача о встрече и ее решение.
5. Сумма и произведение событий. Теоремы сложения вероятностей: формулы для совместных и несовместных событий, частные случаи.
6. Произведение событий. Зависимые и независимые события в паре. Независимость событий в совокупности. Теоремы умножения вероятностей.
7. Схема испытаний Байеса. Формулы полной вероятности и Байеса.
8. Независимые повторные испытания. Формула Бернулли. Наивероятнейшее число наступлений события: определение, отрезок для оценки числа.
9. Независимые повторные испытания. Асимптотические формулы Пуассона и Муавра -Лапласа.
10. Понятия дискретных и непрерывных случайных величин. Закон распределения случайной величины и его формы (табличная, графическая, аналитическая).
11. Зависимые и независимые случайные величины. Математические операции над одной и двумя дискретными случайными величинами.
12. Математическое ожидание дискретной случайной величины: определение, формула
для вычисления, смысл, свойства. Мода дискретной случайной величины.
13. Дисперсия дискретной случайной величины: определение, формула для вычислений, смысл, свойства. Среднее квадратическое отклонение.
14. Основные законы распределения дискретной случайной величины: биномиальный закон, закон Пуассона (формулировка, аналитическая форма закона, формулы для числовых характеристик).
15. Непрерывная случайная величина: отличие от дискретной и определение. Теорема об изолированном значении. Плотность вероятности непрерывной случайной величины и ее свойства.
16. Числовые характеристики непрерывной случайной величины: математическое ожидание, дисперсия, мода, медиана.
17. Основные законы распределения непрерывной случайной величины: равномерный и нормальный (формулировка, плотность вероятности, функция распределения, числовые характеристики).
18. Неравенство Чебышева и его смысл. Неравенство Чебышева для …..
19. Закон больших чисел: его смысл, формулировки теорем Чебышева и Бернулли.
20. Центральная предельная теорема: ее смысл, формулировка теоремы Ляпунова, частные случаи.
21. Марковский процесс. Граф состояний системы. Понятие и примеры Пуассоновского процесса.
22. Основные задачи математической статистики. Генеральная совокупность и_ выборка, виды выборок. Вариационный ряд.
23. Дискретное статистическое распределение
24. Интервальное статистическое распределение.

Работа содержит 1 файл

3 семестр.doc

— 472.50 Кб (Скачать)

Статистические  гипотезы бывают просты и сложные.

Пусть - независимая выборка, соответствующая неизвестной функции распределения

Простой гипотезой называют предположение, состоящее в том, что неизвестная функция   отвечает некоторому совершенно конкретному вероятностному распределению. Пример простой гипотезы: данные являются выборкой из равномерного распределения в отрезке [-1, 1] Сложной гипотезой называют предположение о том, что неизвестная функция принадлежит некоторому множеству распределений, состоящему из более чем одного элемента. Пример: Проверить статистическую гипотезу H  это значит на основе имеющихся данных принять или отвергнуть сделанное предположение. Для этого используется подход, основанный на выборе так называемого критического множества   Мы поступаем следующим образом: если данные наблюдений попадают в критическое множество (то есть, ), то гипотеза H отвергается; если же данные находятся вне критического множества (то есть, ) , то гипотеза H принимается. Такое решающее правило будем называть критерием, основанным на критическом множестве S.

В силу случайной природы наблюдаемых  данных возможна ситуация в то время, когда гипотеза H справедлива. Однако, согласно решающему правилу, в этом случае мы отвергнем верную гипотезу H и, тем самым, допустим ошибку. Очевидно, что в случае простой гипотезы H вероятность такой ошибки равна . Эту вероятность называют также уровнем значимости статистического критерия. Такого рода ошибки неизбежны при анализе случайных данных, и их не следует драматизировать. На практике уровень значимости критерия задается изначально, исходя из реальных приложений и потенциальных последствий возможных ошибок.

 

26. Элементы регрессионного  и корреляционного  анализа.

До сих  пор мы рассматривали случайные величины, возможные значения которых определяли одним числом. Такие величины называются одномерными. Наряду с этим существуют случайные величины, возможные значения которых определяются п числами. Такие случайные величины называются п-мерными случайными величинами. Они бывают в общем случае и дискретными непрерывными. Рассмотрим двумерную случайную величину (Х,У). Геометрически ее возможны значения можно изобразить как точки плоскости или как соответствующие им векторы.

    Обычно  двумерная случайная величина задается в виде таблицы с двойным входом. В таблице перечислены все возможные значения случайной величины и соответствующие им вероятности.

Сумма всех вероятностей, помещенных в клетках  таблицы, равна единице, так как  события образуют полную группу.

  x1 x2 xi xn
y1 P(x1,y1) P(x2,y1)   P(xi,y1)   P(xn,y1)
y2 P(x1,y2)          
           
yj P(x1,yj)          
           
ym P(x1,ym)         P(xn,ym)
 

    Замечание. Обычно двумерная случайная величина задается при помощи интегральной функции. Непрерывная случайная величина также задается при помощи дифференциальной функция распределения.

    Опр.1. Две случайные величины называются независимыми, если закон распределения одной зависит от того, какие возможные значения приняла другая величина.

Пусть X и У- случайные величины.

     Опр.2. Корреляционным моментом двух случайных  величин X и У называется математическим ожидание произведения их отклонений:

М ху = М[(Х - М(Х)) * (Y - М(Y))] . Для   вычисления   корреляционного   момента дискретных   случайных   величин   пользуют формулой: M ху =  ∑n/j=1*∑m/j=1 * (xj- M(Y)) * (yj - М(Y)) * Р(xj, yi) .

Корреляционный  момент М ху служит для характеристики связи между величинами X и У.

Замечания.

1.Размерность  корреляционного момента равна  произведению размерностей величиной  У.

2.Если  корреляционный момент X, У равен нулю, то Х и У- независимые величины.

3.Если  Мху=0, то X и У зависимые случайные величины.

Опр.  3. Коэффициентом корреляции   r ху  двух  случайных величин называется  чисел

r ху = M ху/ ζ х ζ у, где ζ х = √D(X), ζ у = √D(Y).

Замечания.

    1.Коэффициент    корреляции    есть    безразмерная.,   величина    (число),    поэтому    он преимущество перед корреляционным моментом, так как не зависит ни от единиц измерения, ни от выбора.

2.Коэффициент  корреляции двух независимых  случайных величин равен нулю, то есть если X и У- независимые, то rХУ =0.

    3.Во   многих   вопросах   статистики   целесообразно   вместо   случайных   величин   X или рассматривают так называемые нормированные случайные величины X’ или  У’, которые ее отклонение случайной величины к ее среднему квадратичному отклонению:

X’=X–M(X) / ζх , Y’ =Y–M(Y) / ζ у.

4. M(X’)=0, D(X’)=1

5.Коэффициент  корреляции гп нормированных случайных величин равен их корреляционно] моменту.

Опр. 4. Две случайные величины X и У называются коррелированными, если их коэффициенты  корреляции rХУ ≠0 (или корреляционный момент). Две случайные величины X и У называю! некоррелированными, если их коэффициент корреляции rХУ =0.

Теорема. Если две случайных величины коррелированны, то они зависимы.

Замечание. Обратная теорема не верна. Это означает, что если две случайные величины X и У зависимы, то они могут быть коррелированными, а могут быть и некоррелированными.

Информация о работе Теория вероятности. Ответы