Теория вероятности. Ответы

Автор: Пользователь скрыл имя, 23 Января 2011 в 23:51, шпаргалка

Описание работы

Ответы на 24 вопроса.

Содержание

1. Введение в теорию вероятностей. Задачи Де Мере. Историческая справка. Области применения теории вероятностей и математической статистики.
2. Определения основных понятий о событиях. Классическое определение вероятности. Свойства вероятности. Статистическое определение вероятности, его связь с классическим.
3. Комбинаторные правила суммы и произведения. Соединения без повторений: перестановки, размещения и сочетания, формулы для вычисления их числа, свойства соединений. Построение и использование треугольника Паскаля.
4. Геометрическое определение вероятности: частные случаи, общая постановка задачи и общее определение. Задача о встрече и ее решение.
5. Сумма и произведение событий. Теоремы сложения вероятностей: формулы для совместных и несовместных событий, частные случаи.
6. Произведение событий. Зависимые и независимые события в паре. Независимость событий в совокупности. Теоремы умножения вероятностей.
7. Схема испытаний Байеса. Формулы полной вероятности и Байеса.
8. Независимые повторные испытания. Формула Бернулли. Наивероятнейшее число наступлений события: определение, отрезок для оценки числа.
9. Независимые повторные испытания. Асимптотические формулы Пуассона и Муавра -Лапласа.
10. Понятия дискретных и непрерывных случайных величин. Закон распределения случайной величины и его формы (табличная, графическая, аналитическая).
11. Зависимые и независимые случайные величины. Математические операции над одной и двумя дискретными случайными величинами.
12. Математическое ожидание дискретной случайной величины: определение, формула
для вычисления, смысл, свойства. Мода дискретной случайной величины.
13. Дисперсия дискретной случайной величины: определение, формула для вычислений, смысл, свойства. Среднее квадратическое отклонение.
14. Основные законы распределения дискретной случайной величины: биномиальный закон, закон Пуассона (формулировка, аналитическая форма закона, формулы для числовых характеристик).
15. Непрерывная случайная величина: отличие от дискретной и определение. Теорема об изолированном значении. Плотность вероятности непрерывной случайной величины и ее свойства.
16. Числовые характеристики непрерывной случайной величины: математическое ожидание, дисперсия, мода, медиана.
17. Основные законы распределения непрерывной случайной величины: равномерный и нормальный (формулировка, плотность вероятности, функция распределения, числовые характеристики).
18. Неравенство Чебышева и его смысл. Неравенство Чебышева для …..
19. Закон больших чисел: его смысл, формулировки теорем Чебышева и Бернулли.
20. Центральная предельная теорема: ее смысл, формулировка теоремы Ляпунова, частные случаи.
21. Марковский процесс. Граф состояний системы. Понятие и примеры Пуассоновского процесса.
22. Основные задачи математической статистики. Генеральная совокупность и_ выборка, виды выборок. Вариационный ряд.
23. Дискретное статистическое распределение
24. Интервальное статистическое распределение.

Работа содержит 1 файл

3 семестр.doc

— 472.50 Кб (Скачать)
 

16 Числовые хар-ки непрерывной случайной величины:

                                                               +∞

1. Математическое  ожидание М(х)=∫хf(х)dx

                                                               -∞

                                   +∞        2

2. Дисперсия  D(х)=∫[x-M(x)] * f(x)dx

                                  -∞                                                                                                                                                                 

Замечание: как  и в случае дискретной случайной  величины, дисперсию очень удобно вычислять по св-вам:

                  2    2   

 D(x)=M(x)-M(x)

3. Среднее квадратическое  отклонение Ϭ(х)=√dx

4. Мода – это  значение непрерывной случайной  величины, в которой f(x) имеет мах.

5. Медиана –  это значение для которого  выполняется равенство P(x<Me(x))=P(x≥Me(x))=1/2

Замечания: 1. По определению фун-ия распределения  вероятность того, что непрерывная  случайная величина х примет случайные  значения Me(x): Р(x<Me(x))=F(Me(x))=1/2

                    2. Геометрический смысл медианы:  вертикальная прямая х=Me(x) делит площадь криволинейной трапеции  от кривой распределения на две равные части.

                    3. Приближенно медиану можно найти  по графику функции распределения  из условия, что F(Me(x))=1/2

 

17  Равномерный закон распределения и нормальный закон.

Равномерный закон  распределения с параметрами  А и B имеет непрерывная случайная величина у которой плотность вероятности постоянна на этом отрезки и равна 0 вне его.

         

            0,x<a

f(x)=   1/b-a, a≤x≤b

            0, x>b

             0, x<a

F(x)=   x-a/b-a, a≤x≤b

            1, x>b

 

Числовые хар-ки. M(x) = a+b/2

                                                   2

                               D(x) = (b-a)/12

                               Mода=пустое множество

                               Me(x) = M(x)

                               P(2≤x≤β) = β-α/b-a, α,β принадлежит [a,b]

 

Нормальный закон  распределения с параметрами  μ и σ имеет непрерывная  случайная величина , плотность вероятности  которой задаются формулой:  f(x) = 1/ σ√2π * е (в степени) –(х-μ)^2 / 2σ^2

 

F(х) = ½ + Ф(х-μ / σ) , где Ф(х) – функция Лапласа.

 

Числовые характеристики:

М(х) = Мо(х) = Ме(х) = μ

Д(х) = σ^2

P(α≤х≤β) = Ф(β-μ / σ) – Ф(α-μ / σ)

 

18. Неравенство Чебышева  и его смысл.  Неравенство для   ε = 3σ(Χ)

 

Для любого ε>0 вероятность того, что случайная  величина отклонится от его математического  ожидания по абсолютной величине менее, чем на ε ограничено с низу величиной: , т.е.

 

Смысл неравенства заключается в следующем: Вероятность того, что случайная величина Х примет значения в пределах интервала не может быть меньше, чем 

 

Замечание: Часто употребляется другая форма неравенства Чебышева, которую можно получить перейдя от вероятности события к вероятности противоположного события

 Это вероятность  того, что величина Х отклонится  от своего математического ожидания  не меньше чем на ε ограничена  с верху величиной 

Следствие: (правило  трех сигм)

Вероятность того, что случайная величина Х отклонится от своего математического ожидания  менее чем, на три ее средних квадратических отклонений не может быть меньше 8/9

19. Закон больших чисел: его смысл, формулировки теоремы Чебышева и Бернулли

З-н  больших чисел в широком смысле – принцип, согласно которому при  большом числе случайных величин  их среднее перестаёт быть случайным  и может быть предсказано с  большей степенью определённости. В узком смысле – это ряд теорем, в каждой из которых устанавливается факт приближения средних результатов большого числа испытаний к определённым постоянным.

В дальнейшем рассматриваем случайную величину которая яв-ся среднеарифметическим случайной величины т.е.

Заметим, что мат.ожидание среднеарифметического  равно среднеарифметическому мат.ожидания т.е. Аналогично, дисперсия среднеарифметического в случае независимости случайной величины выражается ч/з их дисперсии по формуле:

Теорема Чебышева. Если дисперсии попарно независимых случайных величин ограничены одной и той же постоянной с, то при перестаёт быть случайно величиной и становиться достоверной сколь угодно мало отличаясь от мат.ожидания

Следствие. Для независимых случайных величин с одинаковыми мат.ожтданиями и дисперсиями, ограниченными одной и той же постоянной с, их среднеарифметическое сходиться по вероятности к т.е.

Теорема Бернулли. Если в каждом из n независимых повторных испытаний событие А может произойти с одной и той же вероятностью p, то статистическая вероятность этого события, при неограниченном увеличении числа опытов сходиться по вероятности p этого события в одиночном опыте

Замечание. Теорема Бернулли яв-ся частным случаем Теоремы Чебышева. Исторически она была первой формой закона больших чисел. Она даёт теоретическое обоснование замены классической теоремы на статистическую при большом числе опытов.

 

21. Марковский процесс.  Граф состояний  системы. Понятие  и примеры Пуассоновского  процесса 

Марковский случайный процесс («процесс без последствий») — это такой процесс, для которого характерно свойство: на вероятность любого состояния системы в будущем (при ) для каждого момента времени влияние оказывает только ее состояние в настоящем (при ) То есть, вероятность системы не зависит от способа перехода системы из одного состояние в другое. Это связано с тем, что развитие процесса осуществлялось в прошлом. С практической точки зрения, непредсказуемые процессы представляются достаточно распространенным явлением. Хотя определение таких случайных процессов в качестве марковских осуществляется весьма условно.

Граф  состояний и переходов:

Допустим, что существует система S, которая  предусматривает n дискретные состояния: Каждое состояние представлено в виде прямоугольника, стрелки же ГСП изображают возможные переходы из одного состояния в другое.

Следует отметить, что стрелки обозначают лишь непосредственные переходы из состояния  в состояние. Если имеет место  условие, сущность которого сводится к  тому, что трансформация системы  в осуществляется только через

вот так выглядит граф состояний переходов:

 

Пуассоновский процесс — это случайный процесс с непрерывным временем, выходящий из нуля и имеющий кусочно-постоянные траектории, возрастающие скачками величины 1 таким образом, что вероятность 0, 1, ..., k, ... скачков на отрезке времени имеет распределение Пуассона с параметром и не зависит от того, как процесс вел себя до момента времени . Параметр называется интенсивностью процесса. Пуассоновский процесс обладает интересным свойством: время между двумя последовательными скачками — это случайная величина с экспоненциальным распеределением с параметром . При моделировании пуассоновского процесса Вы можете указать его интенсивность lambda, длительность промежутка времени T, а также максимальное значение (max), до которого будет производиться моделирование процесса.

Пуассоновский процесс применяется для построения моделей различных систем обслуживания и анализа пригодности их дисциплин часто применяют Пуассоновский процесс. Так же возможно применение для анализа финансовых механизмов, таких как поток платежей и пр.

 
 

     22. Основные задачи математической статистики. Генеральная совокупность и выборка, виды выборок. Вариационный ряд.

           Генеральная совокупность и выборка.

     Статистическое  наблюдение могут быть сплошными(перепись населения)или выборочными(уличный  опрос) вся подлежащая изучению совокупность объектов называется генеральной совокупностью.

     К генеральной совокупности относится  все мысленные наблюдения, которые  могли бы быть произведены при  данных условиях.

     Часть объектов из генеральной совокупности, отобранные для непосредственного изучения называются выборочной.

     Число объектов в совокупности называется ее объемом и обозначается для  генеральной совокупности N, для выборочной n.

     Сущность  выборочного метода в том, чтобы  по выборке судить о всей генеральной  совокупности.

     Чтобы это было возможным выборка должна быть реперезентативной (представительной) т.е она должна отражать свойство генеральной совокупности, поэтому необходимо обеспечить каждому элементу генеральной совокупности равные шансы составлений попасть в выборку, тогда по закон больших чисел, при неограниченном увеличении объема выборки, сходятся по вероятности к характеристикам к генеральной совокупности.

     Виды  выборок:

  1. собственно случайная выборка. Производится без расчленения на гуппы.
  2. механическая выборка. Отбор производится через определенные интервалы.
  3. типическая выборка. Генеральная совокупность разбивается на типические группы и из каждой группы берется собственно случайная вборка.
  4. серийная выборка. Для сплошного изучения отбирается целая серия среди однородных серий.
 

23. Интервальное статистическое распределение.

    Формы интервального статистического  распределения.

    Пусть изучается признак Х и для  этого из генеральной совокупности извлекается выборка. Причем и число  признака m тоже велико. Тогда удобно сгруппировать значение признака полуинтервала одинаковой ширины и поставить в соответствии каждому полуинтервалу [Хi , Хi + 1] частому ni попаданию значения Х в этот полуинтервал. В результате получится интервальная статистическое распределение в значении признака Х, которое является аналогом распределения непрерывной случайной велечины и тоже имеет формулы:

  1. табличная.
  2. графическая. ( гистограммное)относительных частот – это ступенчатая фигура из прямоугольника основаниями которой служит полуинтервалы, а высотами являются частоты(относительные частоты)

    замечания: кроме гистограммы для интервальногостатистического распределения можно построить  полигон, если соединить середины верхних  оснований прямоугольника последовательно  и добавить справа и слева  от гистограммы по фиксированному полуинтервалу, такой же ширины как и остальные.

  1. Аналитическая . кроме эмпирической функции распределения графиком которой по аналогии с непрерывной случайной величиной является непрерывная ломанная – пумулянта. Вводится аналог водности вероянтности – плотность относительных частот.

    Замечание: график плотности относительных  частот f (х) ступенчатой, а площадь фигуры ограниченной ступенчатой или осью АХ=1.

 

24. понятие статистической  гипотезы. Виды статистических  гипотез. Статистический  критерий, его уровень значимости и мощности.

На разных этапах статистического исследования возникает необходимость в формулировании и экспериментальной проверке некоторых  предположительных утверждений (гипотез). Статистической называют гипотезу о  виде неизвестного распределения или о параметрах известных распределений. Выдвигается основная (нулевая) гипотеза и проверяется, не противоречит ли она имеющимся эмпирическим данным. Конкурирующей (альтернативной) называют гипотезу которая противоречит нулевой.

Информация о работе Теория вероятности. Ответы