Шпаргалка по "Прикладной математике"

Автор: Пользователь скрыл имя, 15 Апреля 2012 в 11:56, реферат

Описание работы

Работа содержит ответы на вопросы для экзамена по "Математике".

Работа содержит 1 файл

ответы на теоретические вопросы 1 сем.doc

— 425.50 Кб (Скачать)

1. Случайные события,  их классификация.  Понятие вероятности.

Случайное событие – событие, которое в условиях опыта оно может произойти, а может и не произойти. Причем заранее неизвестно, произойдет оно или нет.

Два события  несовместны, если появление одного из них исключает появление другого в том же опыте.

Теория  вероятностей изучает закономерности, присущие массовым случайным явлениям. Основные понятия теории вероятностей были заложены в переписке Паскалем и Ферма. Эти понятия зародились в результате попыток математически описать азартные игры.

2. Алгебра случайных  событий, диаграммы  Вьенна-Эйлера.

Сумма событий А и  В называется такое событие, которое происходит, когда происходит либо А, либо В, либо оба события.

Произведением А и В называется событие, которое происходит, если в опыте происходят оба события.

Событием  Ā, противоположное  событию А называется событие, которое происходит всякий раз, когда не наступает событие А.

A\B (дополнение А до В) – происходит А, но не происходит В

3. Классическое определение  вероятности. Комбинаторика.

– классическое определение вероятности.

m – общее число исходов

n – число исходов, благоприятствующих наступлению события А..

Комбинаторика – раздел математики, изучающий расположение объектов в соответствии со специальными правилами и подсчитывает количество способов таких расположений. Комбинаторика возникла в 18 веке. Рассматривается как раздел теории множеств.

4. Аксиоматическое  построение теории  вероятностей.

Аксиома 1. «аксиома неотрицательности» P(A)≥0

Аксиома 2. «аксиома нормированности» P(Ω)=1

Аксиома 3. «аксиома аддитивности» Если события А и В несовместны (АВ=Ø), то P(A+B)=P(A)+P(B)

5. Теорема о вероятности суммы событий.

Для любых событий Р(А+В) = Р(А) + Р(В) – Р(АВ) (док-во в лекции)

6. Условная вероятность.  Зависимые и независимые  события. Теоремы  о вероятности  произведения событий.

Р(А|В) –  вероятность события А, если событие  В уже произошло – условная вероятность.

Событие А называют независимым, от события В, если вероятность события А не меняется в зависимости от того, происходит или нет событие В.

Теорема умножения вероятностей: Р(АВ) = Р(А|В)·Р(В) = Р(В|А)·Р(А)

Теорема умножения вероятностей независимых событий: Р(АВ) = Р(А)·Р(В)

По определению  условной вероятности,

7. Формула полной  вероятности.

Есть события Н1, Н2,….,Нn попарно несовместные и образуют полную группу. Такие события называют гипотезами. Пусть есть некоторое событие А. А=АН1+АН2+…+АНn (слагаемые этой суммы попарно несовместны).

8. Формула Байеса.

Н1, Н2,….,Нn   A

9. Схема Бернулли. Формула  Бернулли. Наивероятнейшее число успехов.

Пусть проводится конечное число n последовательных испытаний, в каждом из которых некоторое событие А может либо наступить «успех», либо не наступить «неудача», причем эти испытания удовлетворяют следующим условиям:

  • Каждое испытание случайно относительно события А .т.е. до проведения испытания нельзя сказать, появится А или нет;
  • Испытания проводятся в одинаковых с вероятностной точки зрения условиях, т.е. вероятность успеха в каждом отдельно взятом испытании равна р и не меняется от испытания к испытанию;
  • Испытания независимы, т.е. исход любого из них никак не влияет ни исходы других испытаний.

Такая последовательность испытаний называется схемой Бернулли или биноминальной  схемой, а сами испытания – испытаниями Бернулли.

Для расчета  вероятности Рn(к) того, что в серии из n испытаний Бернулли окажется ровно k успешных, применяется формула Бернулли: (k = 0,1,2,…n).

10. Понятие случайной  величины. Дискретная  случайная величина, способы ее задания:  ряд распределения.

Случайной величиной называется величина, которая в каждом испытании (при каждом наблюдении) принимает одно из множества своих возможных значений, заранее не известно, какое.

Дискретная  с.в. – с.в., множество возможных значений которой конечно или счетно.

Ряд распределения с.в. (ряд распределения вероятности). График ряда распределения задается многоугольником распределения – ломанная, которая соединяет точки с координатами (xi,pi)

X x1 x2 x3 xk
P p1 p2 p3 pk

Закон распределения с.в.: pk=P({X=xk})

11. Функция распределения  дискретной случайной  величины и ее  свойства.

Функцией  распределения случайной  величины Х называется функция FX(x) = P(X<x), .

Под (X<x) понимается событие, состоящее в том, что случайная величина Х примет значение, меньшее, чем число х. Если известно, о какой случайной величине идет речь, то индекс, обозначающий эту случайную величину, опускается: FX(x) = F(x).

Свойства:

  1. Если , то

12. Математическое ожидание  дискретной случайной  величины и ее  свойства.

Математическое  ожидание дискретной случайной величины Х называется взвешенная сумма всех ее значений:

Свойства:

  1. М(С) = С, С =const
  2. M(C+X)=M(X)=C
  3. M(C·X)=C·M(X)
  4. M(X+Y)=M(X)+M(Y)
  5. Если X, Y – независимые, то M(X·Y)=M(X) ·M(Y)

13. Дисперсия дискретной  случайной величины  и ее свойства.

Дисперсия случайной величины называется математическое ожидание квадрата ее отклонения от математического ожидания D(X) = M[(X-mX)2] или D(X) = M(X2) – (M(X))2;

Свойства:

  1. D(C) = 0; C=const
  2. D(X+C)=D(X)
  3. D(C·X)=C2·D(X)
  4. Если X, Y – независимые, то D(X+Y)=D(X) ·(D(Y)

Средним квадратичным отклонением Х называется неотрицательное значение квадратного корня из дисперсии:

14. Биноминальный закон  распределения: ряд  распределения и  основные числовые  характеристики.

, где n – число испытаний в схеме Бернулли, р – вероятность появления события в каждом испытании. Х = {0,1,2,…,n}

M(X)=np; D(X)=np(1-p)

15. Геометрический закон  распределения.

, где р – вероятность появления  события в каждом испытании;  X = {1,2,3,…,k,…}

16. Пуассоновский закон  распределения: ряд  распределения и  основные числовые  характеристики.

Если  n→∞, а р→0, то , где X = {0,1,2,…,k,…}; λ>0; λ=np – среднее число появлений события в n испытаний.

M(X)=D(X)= λ

17. Непрерывная случайная величина. Функция распределения и функция плотности вероятности, их свойства.

Случайная величина Х называется непрерывной, если она примет более чем счетное число значений.

fx(x) называется плотностью распределения случайной величины Х. График плотности распределении случайной величины Х называется кривой распределения случайной величины.

Свойства  плотности распределения:

  • для всех : f(x)≥0;
  • ∫f(z)dz = 1;
  • для всех точек , в которых существует производная F`(x).

Вероятность того, что непрерывная случайная  величина Х примет конкретное число  значения, равна нулю для всех :  Р(Х=х0) = 0.

Вероятность попадания непрерывной случайной величины в числовой промежуток можно рассчитать: для всех : таких, что с<d:

Р(с≤X≤d) = P(c≤X≤d) = P(c≤X≤d) = P(c<X<d) = F(d)-F(c) = ∫f(x)dx.

18. Математическое ожидание  и дисперсия непрерывной  случайной величины и их свойства (без доказательства).

Математическое  ожидание непрерывной  с.в. называется число

Свойства:

  1. М(С) = С, С =const
  2. М(С·Х) = С·М(Х), С = const
  3. Если X,Y – дискретные с.в., то М(Х+Y) = М(Х) + М(Y)

Дисперсия случайной величины:

Свойства:

  1. D(C) = 0
  2. D(C·X) = C2·D(X)
  3. Если X,Y – дискретные с.в., то D(X+Y) = D(X) + D(Y)

19. Начальные и центральные  моменты.

Начальным моментом порядка  k случайной величины Х называют математическое ожидание величины Xkvk=[M(X)]k.

Оценка  начального момента:

В частности, начальный момент первого порядка  равен математическому ожиданию: v1 = M(x).

  Центральным моментом  порядка k случайной величины Х называют математическое ожидание величины [Х-М(Х)]k μk = М[Х-М(Х)]=0;

Оценка  центрального момента:

В частности, центральный момент первого порядка  равен 0: μ1 = М(Х-М(Х))=0;

Центральный момент второго порядка равен  дисперсии: μ2 = М(Х – М(Х))2 = D(X).

20. Равномерный  закон распределения: плотность и функция распределения, основные числовые характеристики.

Плотность распределения:

 

Плотность распределения:

Функция распределения:

21. Показательный закон  распределения: плотность  и функция распределения,  основные числовые  характеристики.

Функция распределения:

 

Плотность распределения:

22. Поток событий.  Простейший поток.  Распределение промежутка  времени между  последовательными событиями простейшего потока.

Поток событий – среднее число событий, происходящих в единицу времени.

Стационный  поток – его плотность: постоянная величина.

Поток без последействия – если вероятность попадания определенного числа событий на определенный промежуток времени не зависимо от того, когда и в какие моменты событие появлялось до этого.

Информация о работе Шпаргалка по "Прикладной математике"