Классическое определение вероятности

Автор: Пользователь скрыл имя, 28 Марта 2013 в 11:52, лекция

Описание работы

Возможный результат (исход) некоторого эксперимента (испытания) при определенных условиях называется событием. Событие, которое обязательно имеет место при испытании называется достоверным событием и обозначается U, событие, которое не может наступить не при каких условиях данного испытания называется невозможным (V). Два события называются несовместимыми, если появление одного из них исключает появление другого. Совокупность всех возможных ри данном испытании событий включая достоверные и невозможные называется полем событий.

Содержание

. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ
2. ОСНОВНЫЕ ФОРМУЛЫ КОМБИНАТОРИКИ
3.Относительная чистота.
4. Теорема сложения вероятностей.
5. ПОЛНАЯ ГРУППА СОБЫТИЙ
6.Противоположные события
7. Произведение событий
8.Условная вероятность
9. Теорема умножения вероятностей
10. независимые события
11. Вероятность появления хотябы одного события.
12.Теорема сложения совместных событий
13.ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ
14.Вероятность гипотез. Формула Бейеса.
15.Формула бернулли
16. Локальная теорема Лапласа
17. интегральная теорема Лапласа.
18. Вероятность отклонения частоты от постоянной вероятности в независимый испытаниях.
19. случайная величина
20. ЗАКОН РАСПРЕДЕЛЕНИЯ ДСВ.
21. Математическое ожидание (МО)
22. Дисперсия СВ
23. Среднее квадратическое отклонение
24. Функция распределения вероятностей непрерывной случайной величины. 25.Плотность распределения вероятностей непрерывной случайной величины.
26. Математическое ожидание и Дисперсия Непрерывные Случайные Величины
27. Виды законов РАСПРЕДЕЛЕНИЯ вероятностей непрерывной св
28.Равномерное распределение
29. Нормальное распределение
30. Функция одной случайного аргумента 31.Функции от двух случайных аргументов

Работа содержит 1 файл

коллоквиум по теории вероятности.doc

— 124.00 Кб (Скачать)

Следствие: Pn(½k-np½≤e)=2Ф(e/Önpq)

np-e≤k≤np+e;   x1=-e/Önpq; x2=e/Önpq

 

18. Вероятность  отклонения частоты от постоянной  вероятности в независимый испытаниях.

Производная n независимых испытаний в каждом из которых появления события А постоянно равна Р. 0<Р<1. Чтобы найти вероятность отклонения частоты m/n от постоянной Р по абсолютной величине не превышающий e>0. (m/n-Р)<eÞ -e≤m/n-Р≤e; умножаем на Ön/pqÞ -Ön/pq * e≤Ön/pq m/n-Р≤e*Ön/pq; -Ön/pq * e≤ m -nР / Ön/pq ≤e*Ön/pq; -Ön/pq * e=х’; Ön/pq * e=х’’ÞР(х’≤ m -nР / Ön/pq ≤ х’’)»1/Ö2П х’òх’’ е-z²dz/2Þ1/Ö2П -Ön/pq * eòÖn/pq * e е-z²dz/2Þ2/Ö2П 0òÖn/pq * e е-z²dz/2=2Ф(Ön/pq * e)-Ön/pq * e. Равна ф-ции Лапласа.

 

 

 

 

 

 

 

 
 
19. случайная величина

Случайная величина – численная функция, задаваемая на множестве элементарных событий. На одном множестве может быть несколько случайных величин.  

Дискретная  случайная величина (ДСК) – величина, принимающая счетное (конечное или бесконечное) множество значений.

Непрерывная случайная величина (НСВ) – случайная величина, значения которой образуют несчетные множества. (Например, расход бензина на 100 км у автомобиля Жигули в Нижнем Новгороде).

Задать св – значит указать все множество ее значений и соответствующие этим значениям вероятности. Говорят, что задан закон распределения случайной величины.

Случайная величина может быть задана несколькими способами:

1.Табличный.

Х a1    a2 … аn

Р p1    p2 … pn

åpi=1  Значения случайных величин в таблице указываются в порядке возрастания.

Недостпаток табличного способа в  том, что он пригоден только для случайных  величин, принимающих небольшое  количество значений.

2. Функция распределения F(x) = P(X<x) или интегральный закон распределения. Указывается вероятность того, что случайная величина принимает значение < x.

Х       a1    a2 … аn-1

Р       p1    p2 … pn-1

f(x)  p1   p1+p2 … p1+p2+…+pn-1

При увеличении значения случайной  величины, количество ступенек функции  F(х) возрастает, уменьшается их высота и в пределе при получаем гладкую непрерывную функцию F(х).

 

  

20. ЗАКОН РАСПРЕДЕЛЕНИЯ ДСВ.

Случайная величина называется дискретной,если она принимает случайные изолированные  значения, причем каждое значение этой СВ содержит окрестность, в которой нет других значений СВ. Причем каждое значение СВ определяется с некоторой вероятностью. Соответствие всех значений ДСВ и вероятности этих значений Х(х1,х2…) называется распределением случайной величины P(p1,p2…). ПРИМЕРЫ: 1) схема Бернули – P=e(c.m)(инд.n)p(c.n)q(c.n-m), 2) локальный закон Лапласа: P=φ(x)/√npq`. Эти 2 закона используются при 0,1<p>1 и при nà∞. Если P мало, а n велико, тогда используется феноминальный закон Пуассона:

P(k)=λ(c.k)e(c.-λ)/k!, λ=np, k=0,1,2…n. Зная закон распределения ДСВ мы можем найти функцию распределения ДСВ F(x). функцию распределения СВ – вероятность того, что СВ принимает значения <x, F(x)=P(X<x).

F(x)=∑[k, x(инд.k)<X] P(X=x(инд.k).

21. Математическое  ожидание (МО)

М(х) =åxipi   å pi=1

свойства МО:

  1. М(х) СВ Х ÞХmin£М(х)£Хmax
  2. 2. М(С)=С   МО постоянной величины есть величина постоянная

3. М(Х±У)=М(Х) ±М(У)

4. М(Х×У)=М(х) ×М(у)ÞМ(Сх)=СМ(х) – МО произведения двух независимых СВ

5. М(аХ+вУ)=аМ(Х)+вМ(У)

6. М(Х-m)=0 – МО СВ Х от её  МО.

Дискретные Случайные  Величины

1. Биноминальные СВ  МО(Х)=np

2. Пуассоновские СВ  МО(Х)=l

3. Бернуллиевы СВ  МО(Х)=р

4. Равномерно распред. СВ M(x)= (a1 +   a2 +…+аn)/n

Пример. Случайная величина Х, заданна функцией распределения F(x)=x2.Найти МО. РЕШЕНИЕ: f(x)=2xÞM(x)=0ò¥x*f(x)dx=0ò¥x*2x= 2 0ò¥ x2=2*(2x 0½¥)

22. Дисперсия  СВ

D(X)=å (xi-m)2pi;  åpi =1

свойства дисперсии:

1. Для любой СВ Х: D(X)³0. При Х=const D(X)º0.

2. D(X)=M(X2)-M2(X)=M(X2-2mX-m2)

3. D(cX)=c2D(X)

4. D(X+c)=D(X)

5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)

6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)

Дисперсия СВ

1. Биноминальные D(X)=npq

2. Пуассоновские D(X)=l

3. Бернуллиевы D(X)=pq

Пример: Найти D(X) числа отказов элемента некоторого устройства в 10 независимых опытах, если p=0,9 Решение: n=10; p=0,9; q=0,1Þ D(X)=n*p*q=10*0,9*0,1=0,9

 

23. Среднее  квадратическое отклонение

Среднее квадратическое отклонение являются характеристикой степени рассеянности случайной величины относительно ее центра симметрии, т.е. мат. ожид. Пусть  ε – случайная величине, тогда  ее дисперсией называется число D(ε)=E(ε-E(инд.ε))(с.2). Средним квадратическим отклонением случайной величины назвается число τ(ε)=√D(ε)`

 

24. Функция  распределения вероятностей непрерывной  случайной величины.

F(x)=P(X<х). Случайная величина непрерывна в том случае если ее ф-ия распределена и если она непрерывна с непрерывной производной. Св-ва: 1)Значение ф-ии распределения Î отрезку [0,1]; 0≤F(X)≤1;  2)F(X)-неубывающая ф-ия P(a≤x≤b)=F(b)-F(a); 3)x≤a; F(X)=1ÞLim F(X)x®¥=0; Lim F(X)x®¥=1.

 

25.Плотность  распределения вероятностей непрерывной случайной величины.

Это ф-ия f(x) производная от ф-ии распределения F(X)=f(x). Св-ва: Плотность распределения не отрицательная ф-я f(x)≥0. 1) График Плотности распределения называется кривой распределения. 2) Не собстенный интеграл от Плотности распределения в (-¥;¥) =1 -¥ò ¥f(x)dx=1.

 

26. Математическое  ожидание и Дисперсия Непрерывные  Случайные Величины

M(x)=-¥ò¥xf(x)dx

Св-ва

1. Равномерно распределенная СВ MO(X)=b+a/2  

2. Нормально распределенная СВ MO(X)=m

3. Экспоненциально распределенная СВ MO(X)=1/l 

D(X)=-¥ò¥(x-m)2f(x)dx

СВ-ва

1. Равномерно распределенные  D(X)=(b-a)2/12

2. Нормально распределенные  D(X)= s2

3. Экспоненциально распределенные  D(X)=1/l2

Пример: Случайная величина Х в (0;5) задана дифференциальной ф-ий: 2/25*х  вне этого интервала f(x)=0. Найти D(X). РЕШЕНИЕ: D(X)=aòbx2f(x)dx-(M(x)) 2ÞМ(х)=0(кривая распределена симметрично относительно прямой х=0) Þ D(X)=2/250ò5x3dx=2/25(x4/40½5)=2/25*54/4=25/2

27. Виды  законов РАСПРЕДЕЛЕНИЯ вероятностей  непрерывной св

Случайная величина называется дискретной,если она принимает случайные изолированные значения, причем каждое значение этой СВ содержит окрестность, в которой нет других значений СВ. Причем каждое значение СВ определяется с некоторой вероятностью. Соответствие всех значений ДСВ и вероятности этих значений Х(х1,х2…) называется распределением случайной величины P(p1,p2…). ПРИМЕРЫ: 1) схема Бернули – P=e(c.m)(инд.n)p(c.n)q(c.n-m), 2) локальный закон Лапласа: P=φ(x)/√npq`. Эти 2 закона используются при 0,1<p>1 и при nà∞. Если P мало, а n велико, тогда используется феноминальный закон Пуассона:

P(k)=λ(c.k)e(c.-λ)/k!, λ=np, k=0,1,2…n. Зная закон распределения ДСВ мы можем найти функцию распределения ДСВ F(x). ФРСВ – вероятность того, что СВ принимает значения <x, F(x)=P(X<x).

F(x)=∑[k, x(инд.k)<X] P(X=x(инд.k).


28.Равномерное  распределение

Это распределение нам уже знакомо. Говорят, что ξ имеет равномерное распределение на отрезке [a, b], и пишут ξ Î Ua,b если

в точках a и b функция распределения недифференцируема, и плотность можно задать как угодно.

29. Нормальное распределение

ξ имеет нормальное распределение с параметрами а и σ2 , где а Î R, σ>0, и пишут ξÎ если ξ имеет следующую плотность распределения: fξ(x)= λ(x-a)²/2s²/sÖ2П для любого x Î R

Убедимся, что fξ(x)действительно является плотностью распределения. Так как fξ(x) > 0 для всех x Î R, то свойство (f1) выполнено. Проверим выполнение (f2). Используем табличный интеграл (интеграл Пуассона) -¥ò¥ λ-x²/2dx=Ö2П

Нормальное играет исключительно  важную роль в теории вероятностей, поэтому мы очень подробно изучим все свойства этого распределения.

Свойства нормального распределения

1. Нормальное распределение задается, как мы видим, с помощью плотности  распределения. Связано это с  тем, что нельзя выписать первообразную  от функции λ иначе как в виде интеграла, поэтому функцию распределения этого закона можно записать лишь в таком виде: Fξ (x)=Фa,s²(x)= -¥òx λ-(t-a)²/2s²dt/sÖ2П

2. Для любого x Î R справедливо соотношение

Фa,s²(x)= Ф0,1(x-a/s)

Следствие  Если ξ ÎNa,s² то h= ξ-a/sÎN0,1

Свойство  Ф0,1(0) = 0,5; Ф0,1(-х) = 1 - Ф0,1(х); Если ξ Î N0,1, то P(ξ <x)=1-2 Ф0,1(-х)=2 Ф0,1(х) - 1

Следствие. Если ξ Î N0,1, то η = σξ+а Î Na,s²

Если η Î , то ξ = (η –а)/ σ Î N0,1.

Если ξ Î Еα, то η = αξÎ Е1

 

 

9. Теорема  умножения вероятностей

Опыт повторяется n раз, mB раз наступает событие В, mАВ раз наряду с событием В наступает событие А. n(B) = mB/n ; n(AB) = mAB/n

Рассмотрим относительную частоту  наступления события А, когда  событие В уже наступило: n(A/B)=mAB/mB=mAB/n¸mAB/n= n(AB)/n(B)

P(A/B)=P(AB)/P(B)- условная вероятность события А по событию В – вероятность события А, когда событие В уже наступило.

10. независимые  события

События А и В называются независимыми, если появление или непоявление одного из них не сказывается на появлении другого.P(A/B)=P(A); P(A/B)=P(B)- критерий независимости событий

События А и В называются независимыми тогда, когда Р(АВ) = Р(А)*Р(В)

Пример. В урне есть 4 белых и 6 черных шаров. Половина из них имеют фирменную маркировку. Пусть среди шаров с маркировкой: а) 2 белых; в) 3 белых шара. Наугад вынимают шар. Выяснить независимость событий.

Рассматриваем события: А{белый шар} и В{шар с маркировкой}. Независимость  выясняем по критерию:

Р(А)=4/10=0,4 Р(В)=10/2=0,5 Р(А)*Р(В) = 0,2

а) Р(АВ) = 2/10 = 0,2 в) Р(АВ) = 3/10 = 0,3

Ответ: в случае а) события независимы, т.к. признаки распределены равномерно среди всей совокупности (т.к. доля шаров  с маркировкой = половине всех шаров  и доля белых шаров с маркировкой = половине всех белых).

Свойства независимых  событий.Если события А и В независимы, то независимы и каждая из пар: А и I, А и Ī, Ā и I, Ā и Ī

Если события Н1, Н2, …Нn независимы, то заменяя любые из них на противоположные, вновь получаем независимые события.

 

 


Информация о работе Классическое определение вероятности