Лекции по теории вероятности для студентов 2 курса химического факультета

                                     Предисловие

Задачи любой науки состоят в выявлении и исследовании закономерностей, которым подчиняются реальные процессы.

Теория вероятностей – математическая наука, изучающая закономерности случайных явлений. Знание закономерностей, которым подчиняются массовые случайные события, позволяет предвидеть, как эти события будут протекать.

Методы теории вероятностей широко применяются в различных отраслях науки и техники: в теории надёжности, теории массового обслуживания, теоретической физике, геодезии, астрономии, теории ошибок, теории управления, теории связи и во многих других теоретических и прикладных науках. Теория вероятностей служит для обоснования математической статистики.

 

 

 

 

 

 

 

 

 

          

 

 

                                 §1. Основы комбинаторики

Факториалом целого положительного числа n (обозначается n!) называется произведение 1×2×3×...n = n! Основное свойство факториала: n! = n×(n – 1)!.

Размещениями из n элементов по k называются такие соединения по k элементов, которые отличаются друг от друга самими элементами или их порядком. Число всех размещений из n различных элементов по k (обозначается  ). 

Перестановками из n элементов называются их соединения, отличающиеся друг от друга только порядком входящих в них элементов. Число всех перестановок из n различных элементов (обозначается P(n)). P(n)=n!.

Сочетаниями  элементов называются их соединения, отличающиеся друг от друга только самими элементами. Число всех сочетаний из n различных элементов по k (обозначается ).  . Основное свойство сочетаний  .

Основной закон комбинаторики. Пусть нужно провести k действий, причём, первое k действие можно провести  способами, второе –  способами, ... , k-  способами. Тогда все действия можно провести   способами.

 

                            §2. Основные понятия теории вероятностей.

Наблюдаемые события можно разделить на три вида: достоверные, невозможные и случайные.

Событие называется достоверным, если оно обязательно произойдет при выполнении данного ряда условий.

Событие называется невозможным, если оно заведомо не произойдет при выполнении данного ряда условий.

Событие называется случайным, если при осуществлении ряда условий оно может либо произойти, либо не произойти.

Испытанием называется осуществление ряда условий. Результат произведенного испытания называется исходом. Если в результате произведенного испытания наступило событие  А, то такой исход называют благоприятным для события  А. если же событие А не наступает, то исход называют неблагоприятным.

События называются несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.

События называются единственно возможными, если появление в результате испытания одного и только одного из них является достоверным событием.

Очевидно, единственно возможные события являются попарно несовместимыми.

События называются равновозможными, если можно считать, что ни одно из них не является более возможным, чем другие.

Элементарным исходом называется каждый из возможных результатов испытания.

Полной группой называется совокупность единственно возможных событий испытания.

Противоположными называются два единственно возможных события, образующих полную группу. Если одно из двух противоположных событий обозначено через А, то другое обозначают  .

Суммой A + B двух событий A и B называется событие, состоящее в появлении  или события A или события B, или обоих этих событий одновременно, т.е. суммой нескольких событий называется событие, которое состоит в появлении хотя бы одного из этих событий.

Произведением двух событий A и B называется событие AB, состоящее в совместном появлении этих событий.

Определение. Вероятностью события А называется отношение числа благоприятных исходов к общему числу всех элементарных исходов испытания, если все исходы равновозможны (классическое определение вероятности).

Формулой это определяется так:      P(A)=  ,

где m – число элементарных исходов, благоприятных событию A; n – число всех возможных элементарных исходов.

Из определения вероятности вытекают следующие свойства:

а) вероятность достоверного события равна единице;

б) вероятность невозможного события равна нулю;

в) вероятность случайного события есть положительное число, заключенное между нулем и единицей;  0 .

г) вероятность суммы двух несовместных событий равна сумме вероятностей этих событий: P(A + B) = P(A) + P(B).

Пример 1. В ящике 10 пронумерованных шаров с номерами от 1 до 10.Вынули один шар. Какова вероятность того, что номер вынутого шара не превышает 10?

Решение. Так как номер любого шара, находящегося в ящике, не превышает 10, то число случаев, благоприятствующих событию А, равно числу всех возможных случаев, т.е. m = n = 10 и P(A) = 1. В этом случае событие А достоверно.

Пример 2 . В урне 15 шаров: 5 белых и 10 чёрных. Какова вероятность вынуть из урны синий шар?

Решение. Синих шаров в урне нет, т.е. m = 0, а n = 15. Следовательно, P(A) = 0/15 = 0. В данном случае событие А – невозможное.

Пример 3. В урне 12 шаров: 3 белых, 4 чёрных и 5 красных. Какова вероятность вынуть из урны чёрный шар?

Решение. Здесь m = 4, n = 12 и P(A) = 4/12 = 1/3.

Пример 4. В урне 10 шаров: 6 белых и 4 чёрных. Вынули 2 шара одновременно. Какова вероятность того, что оба шара – белые?

Решение. Здесь число всех случаев   n=  .  Число же случаев, благоприятствующих событию А, определяется числом . Поэтому вероятность события равна р= .

Пример 5. Из 10 ответов к данным задачам 2 ответа имеют опечатки. Студент решает 5 задач. Какова вероятность того, что в одной из них ответ дан с опечаткой?

Решение.  ,   , p=

 

                              §3.  Произведение вероятностей.

Определение. Условной вероятностью события А относительно события В ( обозначается Р(А/В) или ) называется вероятность события А, вычисленная при условии, что событие В наступило и влияет на наступление события А.

Теорема. Вероятность произведения двух событий равна произведению одного из них на условную вероятность другого, вычисленную при условии, что первое событие уже наступило:  Р(А В)= Р(А)

Определение. События А и В называются независимыми, если наступление или не наступление одного из них не влияет на наступление или не наступление другого. В этом случае справедлива формула  Р(А В) = Р(А) Р(В).

Пример 6. В первом ящике 2 белых и 10 черных шаров, во втором ящике 8 белых и 4 черных шара. Из каждого ящика вынули по одному шару. Какова вероятность, что оба шара белые?

Пусть событие А-из первого ящика достали белый шар и событие В – из второго ящика достали белый шар, эти события являются независимыми, поэтому Р(А = Р(А) Р(В) =                        

Пример 7. В ящике 5 белых и 9 черных шаров. По одному достают 3 шара и откладывают в сторону. Какова вероятность того, что все щары черные?

Решение. Пусть событие А -  первый шар черный, Р(А) = , событие В – второй шар тоже черный, но т.к. количество шаров в ящике изменилось, то вероятность события В является условной вероятностью и , событие С – третий шар –черный, а т.к. событие С происходит при условии, что уже наступили события А и В, то вероятность события С является условной вероятностью и  , Р(АВС) = .

Теорема.   Если события А и В несовместные, то вероятность суммы событий равна сумме их вероятностей, т.е.  Р(А+В) = Р(А) + Р(В).

Если события   попарно несовместны и их сумма является достоверным событием, то эти события образуют полную группу событий и Р(

Если события А и В образуют полную группу событий, то событие В противоположно событию А и обозначается В=   и  Р(В)+Р(А) = 1

Пример 7. Два стрелка стреляют по мишени. Вероятность попадания в цель первым стрелком равна 0,7, вероятность попадания в цель вторым стрелком равна 0,8. Найти вероятность того, что 1) оба стрелка попадут в цель, 2) хотя бы один попадет в цель.

Решение. Пусть А-первый стрелок попадает в цель, В- второй стрелок попадает в цель. Т.К эти события взаимно независимы, то попадание в цель обоими стрелками есть произведение событий и р(А  Р(В) = 0,7 .  Пусть С- событие « хотя бы один стрелок попадет в цель», тогда  событие С можно рассматривать как сумму событий А, В и АВ, тогда вероятность события С Р(С)= 0.7+0,8-0,7  или рассмотреть противополложнле событию С событие , тогда вероятность Р(С)=1- Р( =1- (1- 0,7)(1- 0,8)=1- 0,3

              §4.   Основные свойства вероятностей.

Вероятность события  удовлетворяет следующим свойствам:

1. Вероятность любого события неотрицательна: P(A) > 0.

2. Вероятность достоверного события равна 1: P(W) = 1.

3. Вероятность суммы несовместных событий равна сумме вероятностей

этих событий, т.е. если A= В+С , то Р(А)= P(В+С ) = P(В) + P(С ).

4. P(A) = 1- P( ).

5. P(Æ) = 0.

6. 0 £ P(A) £1.   

              §5    Формула полной вероятности.

Теорема.  Пусть событие А может наступить при условии появления одного из несовместных событий  , которые образуют полную группу событий ( события  называются гипотезами ). Тогда вероятность события А равна сумме произведений вероятностей каждого события  на соответствующую условную вероятность события А: 

P(A)=P(

Эта формула называется формулой полной вероятности.

Пример 9. Студент знает только 10 из 25 экзаменационных билетов. В каком случае вероятность сдать экзамен больше: когда студент подходит брать билет первым или вторым по счету?

Решение. Обозначим события: А – берет выученный билет, подходя первым; В – берет выученный билет, подходя вторым.  Р(А ) = 10/25 = 0,4 (число благоприятствующих исходов равно числу выученных билетов; число всех элементарных исходов равно числу билетов). Событие В может наступить при появлении одного из двух несовместных событий:  (первый взятый билет был известен ) или   (первый взятый билет был невыученный билет). По формуле полной вероятности

P(B) = P( ) ×P(B | ) + P( ) ×P(B | ) =

Так как Р(А) = Р(В) = 0,4, то вероятность одинакова.

Пример10.  В первой урне 5 белых и 10 чёрных шаров, во второй – 3 белых и 7 чёрных шаров. Из второй урны в первую переложили один шар, а затем из первой урны вынули наугад один шар. Определить вероятность того, что вынутый шар – белый.

Решение. Обозначим события: А – вынули белый шар из первой урны после того, как в неё переложили шар из второй урны;  – из второй урны в первую переложили белый шар;  – из второй урны в первую переложили чёрный шар.

P(  = 3/10; P(  ) = 7 /10.

Если из второй урны в первую переложили белый шар, то в первой урне стало 16 шаров, из них 6 белых, поэтому  = 6/16 = 3/8. Если переложили чёрный шар, то в первой урне стало 16 шаров, из них 5 белых, поэтому P(  = 5/16. По формуле полной вероятности

P(A) = P( ) ×    + P(  ) ×   =

                     §6.     Формула Байеса

Теорема.  Пусть событие А может наступить при условии появления одного из несовместных событий  , которые образуют полную группу событий ( события  называются гипотезами ). Тогда условная вероятность любого события Bi (i = 1, 2, ..., к) при условии, что событие A уже произошло, вычисляется по формуле Байеса:

 

Пример 11  В первой урне 4 белых и 6 чёрных шаров, во второй – 5 белых и 4 черных шара.  Из первой урны во вторую не глядя перекладывают  один шар, после чего из второй урны извлекают один шар. Найти вероятность, что этот шар белый. Какова вероятность, что из первой во вторую урну был переложен чёрный шар, если извлечённый из второй урны шар оказался белым?

Решение. Пусть А – событие, состоящее в том, что извлечённый шар из второй

урны оказался белым,  – из первой урны во вторую переложили белый шар,  – чёрный. Найдём P( ) и P(  ).

Если переложили белый шар, то во второй урне стало 10 шаров, из них 6 белых, тогда  P( ) =  ,     если переложили чёрный, то шаров так же 10, но белых 5, тогда P(  ) =  . По формуле полной вероятности

P( A) = Р(  P(  ) + Р(  P(  ) =

По формуле Байеса   Р( ) =  =

                     

                            

                              §7.  Формула  Бернулли

Испытания называются независимыми относительно события А, если при нескольких испытаниях вероятность события А не зависит от исходов других испытаний. Говорят, что испытания проводятся по схеме Бернулли, если для них выполняются следующие условия:

1) испытания независимы;

2) количество испытаний известно заранее;

3) в результате испытания может произойти только два исхода: «успех» или «неуспех»;

4) вероятность «успеха» в каждом испытании одна и та же.

Вероятность того, что при n испытаниях «успех» осуществится ровно k раз c вероятностью р и, следовательно, «неуспех» (n – k) раз с вероятностью q=1-p , вычисляется по следующей формуле:

Данная формула называется формулой Бернулли.

Пример12.  В урне 20 белых и 10 чёрных шаров. Вынули подряд 4 шара, причём каждый вынутый шар возвращают в урну перед извлечением следующего, и шары в урне перемешивают. Какова вероятность того, что из четырёх вынутых шаров окажется два белых?

Решение. Вероятность извлечения белого шара р = 20/30 = 2/3 можно считать одной и той же во всех четырёх испытаниях; q = 1 – p = 1/3. Используя формулу Бернулли, получаем

 

 

 

§8. Локальная и интегральная теоремы Лапласа

В тех случаях, когда использование формулы Бернулли затруднено из-за большого значения n, можно использовать асимптотическую формулу из следующей теоремы.                 

 Локальная теорема Лапласа.  Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна p (0 < p < 1), событие наступит ровно k раз (безразлично, в какой последовательности), приближенно равна (тем точнее, чем больше n)

,

где                                  (х) =    ,   х =

   Имеются таблицы, в которых помещены значения функции  соответствующие положительным значениям аргумента  x .  Для отрицательных значений аргумента пользуются теми же таблицами,     т.к. функция  j(x) четна, т.е. j(–x) = j(x).  При х > 4 j(x) » 0.

                               §9. Интегральная теорема Лапласа.

 Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна p  (0 <p < 1), событие наступит не менее  раз и не более  раз, приближенно равна

                                  P(  » F( ) – F( ) ,

где                          =

 

Имеются таблицы функции Лапласа для положительных значений x   (0 £ x £ 5); для значений x > 5 полагают  F(x) = 0,5. Для отрицательных значений используют эту же таблицу, учитывая, что функция Лапласа нечетна, т.е. F(–x)= –F(x).

Пример 12. Вероятность рождения мальчика равна 0,51. Найти вероятность того,что среди 100 новорожденных окажется 50 мальчиков.

Решение. По условию задачи n = 100; k = 50; p = 0,51; q = 1– p = 0,49.

Так как     n = 100 – достаточно большое число, воспользуемся локальной теоремой Лаплаca               ,         

 

Пример 13. Вероятность поражения мишени стрелком при одном выстреле равна 0,8. Найти вероятность того, что при 100 выстрелах мишень будет поражена не менее 75 раз и не более 90 раз.

Решение. По условию задачи n = 100; k1 = 75; k2 = 90; p = 0,8; q = 1- p = 0, 2.

Воспользуемся интегральной теоремой Лапласа: вычислим

   ,       =

Так как функция Лапласа нечетна, т.е.  Ф(-х) = -Ф(х) , получим

 (75 £ k £ 90) = Ф(2,25) -Ф(-1,25) = Ф(2, 25) +Ф(1, 25).

По справочным таблицам  найдём:

F(2,25) = 0,4938;     F(1,25) = 0,3944.

Искомая вероятность

(75 £ k £ 90) = 0,4938 + 0,3944 = 0,8882.

 

                 §8 . Наивероятнейшее число появлений события

в независимых  испытаниях

Число k (наступление события в независимых испытаниях, в каждом из которых вероятность появления события равна p) называют наивероятнейшим, если вероятность того, что событие наступит в этих испытаниях k раз, превышает (или, по крайней мере, не меньше) вероятности остальных возможных исходов испытаний .

Hаивероятнейшее число k определяют из двойного неравенства

                                         np – q £ k £ np + p,

причем: а) если число  np-q  дробное, то существует одно число наивероятнейшее число k, б) если число  np-q  целое, то существуют два  наивероятнейших числа    k     и  k+1, с) если число  np  целое, то наивероятнейшее число k = np.

Пример 14. В урне 10 белых и 40 чёрных шаров. Вынимают подряд 14 шаров, причём цвет вынутого шара регистрируют, а затем шар возвращают в урну. Определить наивероятнейшее число появлений белого шара.

Решение. Здесь n = 14, p = 10/ 50 = 1/ 5, q = 1- p = 4/ 5.

 Используя двойное неравенство         np - q £ k £ np + p             при указанных значениях n, р и q, получим

14 / 5 - 4 / 5 £ k £ 14/ 5 +1/ 5, т.е. 2 £ k £ 3.

Таким образом, задача имеет два решения: k  = 2, k = 3.

Пример15 . В результате многолетних наблюдений установлено, что вероятность выпадения дождя 1 октября в данном городе  равна 1/7. Определить наивероятнейшее число дождливых дней 1 октября в данном городе за 40 лет.

Решение. Имеем n = 40, p = 1/7, q = 6/7. Таким образом,  40 40

               £ k £                т.е.    k = 5.

 

               § 9. Формула Пуассона

При достаточно больших n, если вероятность события мала (p £ 0,1), формула Лапласа непригодна. В этих случаях  (n велико, p £ 0,1)  пользуются формулой Пуассона: вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность события очень мала, событие наступит ровно k раз, приближенно равна

                       ,     где  

 Имеются таблицы для вычисления Pn (k) , для различных   и k

Пример  16 .Прядильщица обслуживает 1000 веретен. Вероятность обрыва нити на одном веретене в течение 1 минуты равна 0,004. Найти вероятность того, что в течение 1 минуты обрыв произойдет на пяти веретенах.

Решение. Так как вероятность p = 0,004 очень мала, применение локальной теоремы Лапласа приведет к значительному отклонению от точного значения Pn(k).  Поэтому при   p £ 0,1    применяют формулу Пуассона:        ,     где   . По условию задачи n = 1000; k = 5; p = 0,004. Тогда   = 1000 × 0,004 = 4. Подставляя данные задачи, получим 

Замечание. Формулы Бернулли, Пуассона и формула, следующая из локальной теоремы Лапласа, служат для нахождения вероятности,  того что в n испытаниях, проводимых по схеме Бернулли, «успех» наступит ровно k раз.

 

                                         Глава 2

                      §1  .   Случайная величина

Случайной величиной называется переменная величина, значения которой зависят от случая. Примеры случайных величин: число попаданий в мишень при данном числе выстрелов; число очков, выпадающее при бросании игральной кости.

Случайная величина, возможные значения которой можно перенумеровать, называется дискретной. При этом число значений может быть конечным или бесконечным.

Cлучайная  величина называется непрерывной, если она принимает  все значения из некоторого конечного или бесконечного промежутка. Очевидно, число возможных значений непрерывной случайной величины – бесконечно.

      §2 . Закон распределения дискретной случайной  величины

Для характеристики случайной величины нужно знать совокупность возможных значений этой величины, а также вероятности, с которыми эти значения могут появиться. Эти данные образуют закон распределения случайной величины. Закон распределения дискретной случайной величины  X  может быть задан в виде таблицы, первая строка которой содержит возможные значения   , а вторая – вероятности  :

 

Х

…..

р

…..

Если множество возможных значений X бесконечно, то ряд   сходится и его сумма равна единице.

Закон распределения дискретной случайной величины можно изобразить графически, для чего в прямоугольной системе координат строят точки  , где  значения дискретной величины, а соответствующие вероятности,  и соединяют их отрезками прямых. Полученную фигуру называют многоугольником или полигоном распределения вероятностей.

§3.    Числовые характеристики дискретных     случайных величин.

Определение. Математическим ожиданием дискретной случайной величины называется сумма произведений всех ее возможных значений на их вероятности:

M(X) = .

Если дискретная случайная величина принимает бесконечное множество возможных значений, то

,

причем математическое ожидание существует, если ряд в правой части равенства сходится абсолютно.

Дисперсией случайной величины X называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:

D(X) = M .

Дисперсию удобно вычислять по формуле

D(X) = M( ) –

Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии:  s(X ) =  .

§4 . Свойства математического ожидания, дисперсии

Свойство 1. Математическое ожидание постоянной величины равно самой постоянной: M(C) = C.

Свойство 2. Постоянный множитель можно выносить за знак математического ожидания: M(CX) = C×M(X).

Свойство 3. Математическое ожидание произведения взаимно независимых случайных величин равно произведению математических ожиданий сомножителей:

M( ) = M( )×M( )×...×M( ).

Свойство 4. Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:

M( ) = M( ) + M( ) + ... + M(Xn).       

Свойство 5. Дисперсия постоянной  величины равна нулю: D(C) = 0.

Свойство 6. Постоянный множитель можно выносить за знак дисперсии, предварительно возведя в квадрат:   D(CX) = ×D(X).

Свойство 7. Дисперсия суммы независимых случайных величин равна сумме дисперсий слагаемых:

D( ) = D( ) + D( ) + ... + D( ).

Определение. Биномиальным называют закон распределения дискретной случайной величины  X – числа появлений «успеха» в n независимых испытаниях (возможные значения случайной величины X = 0,1,2,...,n), в каждом из которых вероятность появления «успеха» равна p; вероятность возможного значения X = k (числа k появлений «успеха») вычисляют по формуле Бернулли:

Математическое ожидание биномиального распределения равно произведению числа испытаний на вероятность появления события в одном испытании: M(X ) = np.

Дисперсия биномиального распределения равна произведению числа испытаний на вероятности появления и не появления события в одном испытании:   D(X ) = npq.

Если число испытаний велико, а вероятность p появления события в каждом испытании очень мала, то используют приближенную формулу

                       ,     где  

где k – число появлений события в n независимых испытаниях,  = np, и говорят, что случайная величина распределена по закону Пуассона.

Пример 16. Производится n независимых испытаний, в каждом из которых некоторое событие А наступает с вероятностью Р(А) = р, Х – число наступлений события А в n испытаниях. Для случая  1) малого n построить ряд распределения, функцию распределения случайной величины Х, найти М(Х), D(Х) и Р(Х £ 2);  2) большого n и малого p найти Р(Х £ 2) приближённо с помощью распределения Пуассона;  3) большого n найти вероятность  Р(  £ Х £ ).

Решение. 1) n = 4, p = 0,8.

Возможные значения случайной величины Х: 0,1,2,3,4. Пусть им соответствуют вероятности  . Найдём их, используя формулу Бернулли:       

   

 = 4×0,8×  = 0,0256 ,

 = 6×  ×  = 0,1536 ,

 = 4×  ×0, 2 = 0, 4096 ,

 =1×  ×1 = 0, 4096 .

Таким образом, ряд  распределения имеет следующий вид:

 

 

X

0

1

2

3

4

p

0,0016

0,0256

0,1536

0,4096

0,4096

 

             §5.      Функция распределения случайной величины.

  Определение. Функцией распределения F(x)  случайной величины Х называется функция равная вероятности события « значения случайной величины Х меньше значения переменной величины х» : F(x) = P(X<x).

     Свойства функции распределения.

1). Область значений функции распределения –интервал .

2) Функция распределения является неубывающей функцией, т.е. если х1<x2, то F(x1) F(x2).

3). Вероятность того, что случайная величина принимает значения в промежутке  равна P(

4). Вероятность того, что непрерывная случайная величина примет только одно значение х рана 0: F(x)=0.

5). Справедливы следующие равенства: ,

6). Функция распределения непрерывна слева, т.е. :

Пример. В ящике 7 красных и 8 синих шариков. Случайно берут 3 шарика. Случайная величина Х-количество красных шариков. Найти закон распределения, математическое ожидание и дисперсию случайной величины Х. Построить график функции распределения и найти вероятность того. Что значения случайной величины меньше 2.

Решение. Возможные значения случайной величины Х равны 0,1,2,3, соответствующие этим значениям вероятности равны р0123.

 ,     , 

Проверка: 

Закон распределения дискретной величины Х задается таблицей

Х

0

1

2

3

р

 

Найдем М(Х):   

D(X)=

0

1

4

9

p

 

D(X)= 0 2,6-1,96=0,64

 По определению функция распределения находится равна F(x) = P(X < x) :

По функции  распределения   Р(Х<2)= F(2)=            

§6.  Плотность распределения вероятностей непрерывной случайной  величины.

Плотностью распределения вероятностей непрерывной случайной величины называется первая производная от функции распределения:  f (x) = F¢(x).

Вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a; b), определяется равенством

                       

Зная плотность распределения, можно найти функцию распределения       F(x) = .

Свойства плотности распределения:

 1). Плотность распределения неотрицательна, т.е. f (x) ³ 0.

 2). Несобственный интеграл от плотности распределения по всей числовой оси равен единице:

 

§7. Числовые характеристики непрерывных случайных величин.

Математическое ожидание непрерывной случайной величины X, возможные значения которой принадлежат всей оси Ox, определяется равенством  

 где f(x) – плотность распределения случайной величины X. Предполагается, что интеграл сходится абсолютно.

Дисперсия непрерывной случайной величины X, возможные значения которой принадлежат всей оси Ox, определяется равенством

D(X) =

или равносильным равенством

D(X) =

Среднее квадратическое отклонение непрерывной случайной величины определяется так же, как и для дискретной величины: s(X ) = D(X ) .

Все свойства числовых характеристик, указанные для дискретных случайных величин, сохраняются и для непрерывных величин.

Пример. Дана функция плотности распределения

f(x)=

Найти: 1) параметр А;  2) построить графики плотности и функции распределения;  3) Р(1 < x < 4);  4) М(Х), D(X), s(X);  5) вероятность Р, что отклонение случайной величины от М(Х) не более 1.

Решение. Так как    то    

откуда  А=  .  тогда   f(x)=

Найдём F(х), функцию распределения по формуле  F(x) =

если x £ 0 ,  то     F(x) =

если 0 < x < 2 ,  то      F(x) =  

если 2 £ x < ¥ ,  то    F(x) =   + =(

Итак,   F(x)=

Найдём P(1 < x < 4).     P(x1<x<x2)=F(x2) – F(x1)= F(4)- F(1)=

Найдём М(X) по формуле M(X )=

Дисперсия вычисляется по формуле   D(X) =

Среднее квадратическое отклонение s(X ) =  .

Найдём    P(  <1) . Так как   < 1,   то  следует

M(X ) -1< X < M(X) +1 в нашей задаче       или   то необходимо найти 

 

§8. Примеры непрерывных распределений

Определение. Распределение вероятностей непрерывной случайной величины X называется равномерным,  если на интервале (a; b), которому принадлежат все возможные значения X, плотность сохраняет постоянное значение, а именно

   и , если х

Математическое ожидание случайной величины, равномерно распределенной в интервале (a; b), равно полусумме концов этого интервале   

Дисперсия случайной величины, равномерно распределенной в интервале (a; b), определяется равенством   D(X)=

Нормальным называется распределение вероятностей непрерывной случайной величины X, плотность которого имеет вид

где a – математическое ожидание, s – среднее квадратическое отклонение X. Для случайной величины X, распределенной по нормальному закону, вероятность того, что X примет значение, принадлежащее интервалу (a; b), вычисляется по формуле

 ,     F(x) – функция Лапласа.

Функция распределения случайной величины X находится по формуле

,

а вероятность отклонения нормально распределённой случайной величины от её математического ожидания менее чем на d равна:

Правило трёх сигм. Если случайная величина распределена нормально, то абсолютная величина её отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения с вероятностью  0,9973.

Пример. Масса вагона - случайная величина, распределённая по нормальному закону с математическим ожиданием 65 т и средним квадратичным отклонением 0,9 т. Найти вероятность того, что вагон имеет массу не более 67 т и не менее 64 т. По правилу трёх сигм найти наибольшую и наименьшую границы предполагаемой массы.

Решение. Для нормально распределённой случайной величины

Ф(2,22) +Ф(1,11) = 0, 4868 + 0,3665 = 0,8533.

По правилу трёх сигм наименьшая  граница    а - 3s , наибольшая граница а + 3s . Таким образом, 65 ± 3×0,9 = 65 ± 2,7 .

Наименьшая граница 62,3 т, наибольшая 67,7 т.

 

§9. Закон больших чисел. Hеравенство Чебышева.

Вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше положительного числа e, не меньше чем  1-   :

                         P(|X – M(X)| < e) ³ 1-

Теорема Чебышева. Если последовательность попарно независимых случайных величин X1, X2,..., Xn имеет конечные математические ожидания и дисперсии этих величин равномерно ограничены (не превышают постоянного числа С), то среднее арифметическое случайных величин сходится по вероятности к среднему арифметическому их математических ожиданий, т.е. если e – любое положительное число, то

 

Теорема Бернулли (Закон больших чисел).   Если в каждом из n независимых испытаний вероятность p появления события А постоянна, то вероятность того, что отклонение относительной частоты от вероятности р как угодно близка к единице , если число испытаний достаточно велико, т.е.

 

 , где e – любое сколь угодно малое положительное число.

 

 Центральная предельная теорема

Теорема Ляпунова. Если случайные величины в последовательности X1, X2,...,Xn,... независимы, одинаково распределены и имеют конечное математическое ожидание mх и дисперсию 2 sх , то для любого действительного x – функция распределения случайной величины 1

.

                §10. Системы случайных величин

Часто результат опыта описывается не одной случайной величиной X, а несколькими случайными величинами: Х1, Х2, …, Хп. В этом случае принято говорить, что указанные случайные величины образуют систему

1, Х2, …, Хп).

Систему двух случайных величин (Х, Y) можно изобразить случайной точкой на плоскости. Событие, состоящее в попадании случайной точки (X, Y) в область D, принято обозначать в виде (X, Y) Î D.

Закон распределения системы двух дискретных случайных величин может быть задан с помощью таблицы

 

    

у1

у2

Уm

x1

P11

P12

P1m

x2

P21

P22

...

P2m

xn

Pn1

Pn1

pnm

 

Где  х1<x2<…<xn , y1<y2<…<ym ,  рij – вероятность события, заключающегося в одновременном выполнении равенств X = хi, Y = уj. При этом 

Таблица может содержать бесконечное множество строк и столбцов.

§11. Функция распределения случайной величины

Функцией распределения n-мерной случайной величины (Х1, Х2, …, Хп) называется функция F(х1, х2, …, хn), выражающая вероятность одновременного выполнения   n   неравенств  X1 < x1, X2 < x2 , …, Xn < xn , т.е.

                   F(x1, x2 ,.., xn ) = P(X1 < x1, X2 < x2 , Xn < xn ).

(Функцию F(х1, х2, …, хп) называют также совместной функцией распределения случайных величин Х1, Х2, …, Хп.)

В двумерном случае для случайной величины (X, Y) функция распределения F(x, y) определяется равенством F(x, y) = P(X < x, Y < y).

Геометрически функция распределения F(x, y) означает вероятность попадания случайной точки (X, Y) в бесконечный квадрант, лежащий левее и ниже точки M(x, y). Правая и верхняя границы области в квадрант не включаются – это означает, что функция распределения непрерывна слева по каждому из аргументов.

В случае дискретной двумерной случайной величины её функция распределения определяется по формуле:

  F(x,y)= ååpij

где суммирование вероятностей распространяется на все i, для которых xi < x, и все j, для которых y j < y.

Свойства функции распределения двумерной случайной величины, аналогичны свойствам функции распределения одномерной случайной величины.

1. Функция распределения F(x, y) есть неотрицательная функция, заключённая между нулём и единицей, т.е. 0 £ F(x, y) £1.

2. Функция распределения F(x, y) есть неубывающая функция по каждому из аргументов, т.е. при x2 > x1    F(x2 , y) ³ F(x1, y),

при y2 > y1     F(x, y2 ) ³ F(x, y1).

3. Если  хотя  бы один из аргументов обращается в –∞, то функция распределения  F(x, y) равна нулю, т.е.  F(-¥, y)  = F(x, -¥) =  F(-¥, -¥) = 0.

4. Если один из аргументов обращается в +∞,  то функция распределения F(x, y) становится равной функции распределения случайной величины, соответствующей другому аргументу:

F(x, +¥) = F1(x),  F(+¥, y) = F2 ( y),

где F1(x) и F2 ( y) – функции распределения случайных величин Х и Y, т.е.

Если оба аргумента равны +∞, то функция распределения равна единице:

             F(+¥, +¥) = 1.

§12 .  Плотность распределения

Закон распределения системы непрерывных случайных величин (X, Y) будем задавать с помощью функции плотности вероятности f (x, y).

Определение.   Плотностью вероятности  (плотностью распределения или совместной плотностью)   непрерывной двумерной случайной величины (X, Y) называется вторая смешанная частная производная её функции распределения, т.е.

Функция плотности вероятности обладает следующими свойствами:

1. f (x, y) ³ 0.

2. f (x, y)dxdy=1.

Если все случайные точки (X, Y) принадлежат конечной области D, то последнее условие принимает вид       

Математические ожидания дискретных случайных величии Х и Y, входящих в систему, определяются по формулам

      mx  =     ,    my =   M(Y)=

Дисперсии дискретных случайных величин Х и Y определяются по формулам

D(X)=      D(Y) =

Дисперсии же непрерывных случайных величии Х и Y, входящих в систему, находятся по формулам

D(X) =  f (x, y)dxdy  

   D(Y) = f (x, y)dxdy

Средние квадратические отклонения случайных величин Х и Y определяются по формулам

                            sх = , sy = .

Для вычисления дисперсий могут быть применены формулы

D(X ) = M(X2 ) -[M(X)]2 , D(Y) = M(Y2 ) -[M(Y)]2

 

§13. Корреляционный момент

Важную роль в теории систем случайных величин играет так называемый корреляционный момент (ковариация)

                              Cху = M[(X -mx )(Y - my )].

Ковариация двух случайных величин характеризует как степень зависимости случайных величин, так и их рассеяние вокруг точки (mx , my ).

Для дискретных случайных величин корреляционный момент находится по формуле

  

а для непрерывных – по формуле

f (x, y)dxdy

Случайные величины Х и Y называются независимыми, если вероятность одной из них  принять значение, лежащее в любом промежутке области её значений, не зависит от того, какое значение приняла другая величина. В этом случае

М(ХY) = М(Х) × М(Y).

Свойства ковариации случайных величин:

1. Cxy = M(XY) -M(X )M(Y).

Здесь  M(XY)=

для дискретных случайных величин Х и Y и

M(XY)=  f (x,y) dxdy

для непрерывных величин.

2. Ковариация двух независимых случайных величин равна нулю, т.е. Сху = 0.

3. Ковариация двух случайных величин по абсолютной величине не превосходит произведения их средних квадратических отклонений, т.е. Cxy £ sxsy .

Для характеристики связи между величинами Х и Y рассматривается так называемый коэффициент корреляции

= ,

являющийся безразмерной величиной.

Свойства коэффициента корреляции:

1. Коэффициент корреляции удовлетворяет условию: -1£  £ 1.

2. Если случайные величины Х и Y независимы, то  = 0.

3. Если случайные величины Х и Y связаны точной линейной зависимостью

Y = aX + b, то .  = 1 при а > 0 и  = –1 при а < 0.

Пример. В двух ящиках находятся по шесть шаров; в первом ящике: 1 шар с №1, 2 шара с №2, 3 шара с №3; во втором ящике: 2 шара с №1, 3 шара с №2, 1шар с №3. Пусть Х – номер шара, вынутого из первого ящика, Y – номер шара, вынутого из второго ящика. Из каждого ящика вынули по шару. Составить таблицу закона распределения системы случайных величин (X, Y). Найти математические ожидания и дисперсии случайных величин X и Y. Определить коэффициент корреляции.

Решение.

Случайная точка (1, 1) имеет кратность 1 ´ 2 = 2;

– // – (1, 2) – // – 1 ´ 3 = 3;

– // – (1, 3) – // – 1 ´ 1 = 1;

– // – (2, 1) – // – 2 ´ 2 = 4;

– // – (2, 2) – // – 2 ´ 3 = 6;

– // – (2, 3) – // – 2 ´ 1 = 2;

– // – (3, 1) – // – 3 ´ 2 = 6;

– // – (3, 2) – // – 3 ´ 3 = 9;

– // – (3, 3) – // – 3 ´ 1 = 3.

Всего случайных точек 6 ´ 6 = 36 (n-кратную точку принимаем за n точек). Так как отношение кратности точки ко всему количеству точек равно вероятности появления этой точки, то таблица закона распределения системы случайных величин имеет вид

X

1

2

3

1

2

3

 

Сумма всех вероятностей, указанных в таблице, равна единице.

Найдём математические ожидания случайных величин X и Y

Точка (7/3; 11/6) является центром рассеивания для заданной системы (X, Y).

От системы величин (X, Y) перейдём к системе центрированных величин

(X0 ,Y0), где X0 = X -mx = X - 7 / 3, Y0 = Y -my = Y -11/ 6.

 Составим таблицу

 

D(X) =

D(Y) =

Отсюда sX = 5 / 3,    sY = 17 / 6.

Для вычисления коэффициента корреляции используем таблицу системы распределения величин (Х00). Определим ковариацию:

Так как Cxy = 0, то и коэффициент корреляции rху = 0.

независимы. Отсюда следует, что коэффициент корреляции равен нулю.

Пример. Система случайных величин (X, Y) подчинена закону распределения с плотностью

f(x,y ) = a (x+y) в области D ; f(x ,y )= 0 0 вне этой области.

Область D – квадрат, ограниченный прямыми х = 0, х = 3, у = 0, у = 3. Требуется: 1) определить коэффициент а; 2) вычислить вероятность попадания случайной точки (X; Y) в квадрат Q, ограниченный прямыми х = 1, х = 2, у = 1, 3) найти математические ожидания mx и my; 4) найти средние квадратические отклонения s и sy.

Решение. 1. Коэффициент a  находим из уравнения

a

a ,   откуда  а   =  ,  тогда если  (х,у) , то Р(Х,У)=

3. Находим математические ожидания mх и mу; имеем

4. Находим средние квадратические отклонения sx и sy

               

Глава 3.§1. Задачи математической статистики.  Основные понятия математической статистики

Установление закономерностей, которым подчинены массовые случайные явления, основано на изучении статистических данных – результатах наблюдений.

Первая задача математической статистики – указать способы сбора и группировки (если данных очень много) статистических сведений. Вторая задача математической статистики – разработать методы анализа статистических данных в зависимости от целей исследования.

Генеральная совокупность – совокупность всех изучаемых объектов, N – её объём (количество всех объектов).

Выборочная совокупность – совокупность объектов, отобранных для изучения, n – объём выборки. Объемом совокупности (выборочной или генеральной) называют число объектов этой совокупности.

Таким образом, вместо большой совокупности объектов изучается совокупность объёма, значительно меньшего по количеству объектов (n << N).

Результаты, полученные при изучении выборки, распространяются на объекты всей генеральной совокупности. Для этого выборка должна быть репрезентативной (представительной), то есть правильно представлять генеральную совокупность. Это обеспечивается случайностью отбора.

.

§2. Статистическое распределение выборкии его характеристики

Пусть из генеральной совокупности извлечена выборка, причем x1 наблюдалось n1 раз, x2 – n2 раз, xk – nk раз   и   åni = n – объем выборки. Hаблюдаемые значения xi называют вариантами, а последовательность вариант, записанных в возрастающем порядке, – вариационным рядом. Числа наблюдений называются частотами, а их отношения к объему выборки – относительными частотами.

Статистическим распределением выборки называют перечень вариант и соответствующих им частот или относительных частот.

Результаты выборки представляются в виде статистического распределения:

 

xi – варианты; ni – соответствующие им частоты; n – объём выборки;     – относительные частоты.

Основные характеристики выборки:

xв – выборочная средняя; Dв – выборочная дисперсия;

σв – выборочное среднее квадратичное отклонение;

S2 – исправленная дисперсия.

 ,     Dв ,    σв ,   S2  Dв

Эмпирической функцией распределения (функцией распределения выборки) называют функцию F*(x), определяющую для каждого значения x относительную частоту события X < x:

F*(x) =

где nx – число вариант, меньших x; n – объем выборки.

§30. Полигон и гистограмма

Полигон абсолютных частот – это ломаная, отрезки которой соединяют точки (хi, ni).

Полигон относительных частот – это ломаная, отрезки которой соединяют точки (хi, Wi).

 

§3. Точечные оценки параметров генеральной совокупности

Точечной называют оценку, которая определяется одним числом.

Оценка q% n параметра q называется несмещённой, если её математическое ожидание равно оцениваемому параметру, т.е. M(q% n ) = q. В противном случае оценка называется смещённой.

Оценка q% n параметра q называется состоятельной, если она удовлетворяет закону больших чисел, т.е. сходится по вероятности к оцениваемому параметру:

lim ( n ) 1. n

P

®¥

q% - q < e =

В случае использования состоятельных оценок следует увеличить объём выборки, так как при этом становятся маловероятными значительные ошибки при оценивании. Поэтому практический смысл имеют только состоятельные оценки. Если оценка состоятельна, то практически достоверно, что при достаточно большом n  qn » q.

Несмещённая оценка qn  параметра q называется эффективной, если она имеет наименьшую дисперсию среди всех возможных несмещённых оценок параметра q, вычисленных по выборкам одного и того же объёма n.

Параметры генеральной совокупности xг – генеральная средняя и Dг – генеральная дисперсия оцениваются по соответствующим параметрам выборки:

            хг » xв , Dг » D  , sг » Dг  при     n ³ 30,

,  при

2 ( 30), Dг » S n <

Для интервального распределения сначала находят середины интервалов xi.

§3. Интервальная оценка (доверительный интервал)

для генеральной средней

Интервальной называют оценку, которая определяется двумя числами концами интервала.

Доверительным интервалом для параметра q называется интервал (q1, q2), содержащий истинное значение q с заданной вероятностью γ = 1 – a,   т.е. P(q1 < q < q2) = 1 – a.

Число γ = 1 – a называется доверительной вероятностью (надежностью), а значение a – уровнем значимости.

Интервальной оценкой (с надежностью γ) математического ожидания а нормально распределенного количественного признака X по выборочной средней x при известном среднем квадратическом отклонении s служит доверительный интервал

  ,

где n – объем выборки; t – значение аргумента функции Лапласа F(t) , при котором F(t) =

г – генеральная средняя (оцениваемый параметр);

в – средняя выборочная, точечная оценка генеральной средней;

δ – точность оценки.

γ – надёжность оценки.

( в - d; в + d) – доверительный интервал для    = a

 Î(  - d;  + d) с вероятностью (надёжностью) γ.

Для нормального распределения признака

где s = sг ; n – объём выборки; t – находят из соотношения 2Ф(t) = g с помощью таблицы значений функции Ф(х). Таким образом, для нормально распределённой величины Х:

P(

Чем больше n, тем меньше δ, то есть точность оценки увеличивается при увеличении объёма выборки.

Чем выше γ – надёжность оценки, тем меньше её точность (δ увеличивается).

Если σ неизвестно, то

– исправленная выборочная дисперсия, tg находится из таблице  по заданным значениям γ и n.

Интервальной оценкой (с надежностью γ) среднего квадратического отклонения s нормально распределенного качественного признака X по «исправленному» выборочному среднему квадратическому отклонению S служит доверительный интервал

S× (1 – q) < s < S× (1 + q),   при q < 1;

0 < s < S× (1 + q),   при q > 1,

где     -исправленное выборочное среднее квадратическое отклонение,  по значениям n и  по таблице

 

                                           ЛИТЕРАТУРА

1.     Гмурман В.Г.  Теория вероятностей и математическая статистика. М.,2004 г.

2.     Гмурман В.Г. Сборник задач по теории вероятностей и математической статистики., М.,2005 г.

3.