4. ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

4.1. Введение

В предыдущих главах были рассмотрены эмпирические распределения и методы вычисления их числовых характеристик. Но обработка экспериментальных данных не ограничивается рассмотренными методами. Обычно исследователь, получив данные эксперимента на одной или нескольких группах испытуемых и определив по ним некоторые обобщающие числовые характеристики (среднее, стандартное отклонение и др.). пытается найти ответ на следующие вопросы: насколько точно полученные результаты можно обобщить для более широкой совокупности (например, на всех жителей данного возраста)? Как хорошо его данные согласуются с данными других исследователей? Насколько достоверно различие экспериментальных данных, полученных в разных группах испытуемых или в одной и той же группе, но в разные промежутки времени? Существует ли связь между различными признаками, изучаемыми в проводимом исследовании, и если да, то насколько она сильна?

В ряде случаев исследователь пытается установить такую экспериментальную зависимость между изучаемыми признаками, чтобы по значениям одного из них, легко поддающегося измерению, установить значение другого, измерить который трудно или невозможно.

Конечно, в зависимости от целей конкретного исследования задачи могут быть различными и не ограничиваются приведенным перечнем.

Методы математической статистики, с помощью которых можно получить ответы на поставленные выше вопросы, рассматриваются в следующих главах. Чаще всего эти методы основаны на использовании тех или иных согласующихся с условиями проводимого эксперимента математических моделей, разработанных теорией вероятностей.

В данной главе рассматриваются некоторые ее элементарные, положения в том минимальном объеме, который необходим для дальнейшего изложения.

4.2. Определение вероятности

4.2.1. Испытание, событие, случайная величина

Под испытанием (опытом) в теории вероятностей принято понимать наблюдение какого-либо явления при соблюдении определенного комплекса условий, который должен каждый раз строго выполняться при повторении данного испытания. Если то же самое явление наблюдается при другом комплексе условий, то это уже другое испытание.

Когда речь идет о соблюдении комплекса условий данного испытания, имеется в виду постоянство значений всех факторов, контролируемых в данном испытании. Но при этом, как правило, имеет место большое число неконтролируемых факторов, которые трудно или невозможно учесть.

Результаты испытаний можно охарактеризовать качественно и количественно.

Качественная характеристика заключается в регистрации какого-либо явления, которое может наблюдаться или не наблюдаться при данном испытании. Любое из этих явлений называется в теории вероятностей событием.

События делятся на:

невозможные

(в результате опыта никогда не произойдут),

достоверные

(в результате опыта происходят всегда),

случайные

(в результате опыта событие может произойти или не произойти).

Теория вероятностей рассматривает именно случайные события. При этом предполагается, что испытание может быть повторено неограниченное (по крайней мере, теоретически) число раз. Например, выполнение штрафного броска в баскетболе есть испытание, а попадание в кольцо — событие.

Другим примером события, часто приводимым в учебниках по теории вероятностей, является выпадение определенного числа очков (от 1 до 6) при бросании игральной кости.

События в теории вероятностей принято обозначать начальными прописными латинскими буквами А, В, С, ...

Случайные события называются несовместными если появление одного исключает появление другого. В противном случае они называются совместными.

Если в результате опыта произойдет хоть одно из некой группы событий, то они образуют полную группу. Появление хотя бы одного события из полной группы – достоверное событие.

Если, по условиям испытания нет никаких оснований предполагать, что один из исходов появляется чаще других, то все исходы являются равновозможными.

Два события называются независимыми, если появление одного из них не изменяет вероятности другого.

Количественная характеристика испытания состоит в определении значений некоторых величин, которыми интересуются при данном испытании (например, число подтягиваний на перекладине или время на беговой дистанции). В силу действия большого числа неконтролируемых факторов эти величины могут принимать различные значения в результате испытания. Причем до испытания невозможно предсказать значение величины, поэтому она называется случайной величиной.

4.2.2. Вероятность событий

Вероятность какого либо события – численное выражение возможности его наступления.

В некоторых простейших случаях вероятности событий могут быть легко определены непосредственно исходя из условий испытаний.

Представим себе общую схему таких испытаний.

Пусть испытание имеет n возможных несовместных исходов, т. е. отдельных событий, могущих появиться в результате данного испытания; причем при каждом повторении испытания возможен один и только один из этих исходов. Кроме того, пусть по условиям испытания, нет никаких оснований предполагать, что один из исходов появляется чаще других, т. е. все исходы являются равновозможными.

Допустим теперь, что при n равновозможных несовместных исходах интерес представляет некоторое событие А, появляющееcя при каждом из m исходов и не появляющееся при остальных nт исходах. Тогда принято говорить, что в данном испытании имеется п случаев, из которых т благоприятствуют появлению события А.

Вероятность события А равна отношению числа исходов, благоприятствующих событию А, к общему числу всех равновозможных несовместных исходов опыта:

                                                                                                                                      (4.1)

Формула (4.1) представляет собой так называемое классическое определение вероятности по Лапласу, пришедшее из области азартных игр, где теория вероятностей применялась для определения перспективы выигрыша.

Статистическое определение вероятности.

Будем фиксировать число испытаний, в результате которых появилось некоторое событие А. Пусть было проведено N испытаний, в результате которых событие А появилось ровно nN раз. Тогда число nN называется частотой события, а отношение  — частостью (относительной частотой) события.

Замечательным экспериментальным фактом является то, что частость события при большом числе повторений испытания начинает мало изменяться и стабилизируется около некоторого определенного значения, в то время как при малом числе повторений она принимает различные, совершенно случайные значения. Поэтому интуитивно ясно, что если при неограниченном повторении испытания частость события будет стремиться к вполне определенному числовому значению, то это значение можно принять и качестве объективной характеристики события А. Такое число Р(А), связанное с событием А, называется вероятностью события А.

Математически неограниченное число повторений испытания записывается в виде предела (lim) при N, стремящемся к бесконечности ():

Поскольку nN никогда не может превзойти N, то вероятность оказывается заключенной в интервале

Следует отметить, что приведенное определение вероятности является абстрактным, оно не может быть экспериментально проверено, так как на практике нельзя реализовать бесконечно большое число повторений испытания.

Пусть проводятся независимые испытания, при каждом из которых вероятность события А неизменна. Справедливо утверждение, называемое законом больших чисел или теоремой Бернулли: если N достаточно велико, то с вероятностью сколь угодно близкой к единице, отличие  от Р(А) меньше любого наперед заданного положительного числа или, в символьной записи, . Т.е. много раз бросая монету, мы “почти наверняка” будем получать примерно равные частоты выпадения герба и цифры.

4.3. Действия над событиями

В этом разделе приводятся основные правила операций над событиями с использованием для наглядности их графического изображения в виде диаграмм.

Вначале введем понятие “поле событий” как совокупности всех случайных событий данного испытания, для которых определены вероятности. На рис. 4.1 поле событий изображено в виде заштрихованного прямоугольника.

1. Сумма (объединение) событий (рис. 4.2) представляет собой сложное событие, состоящее в появлении хотя бы одного из событий А и В. Объединение событий обозначается как , или .

2. Произведением (пересечением) событий А и В называется их совместное появление (рис. 4.3). Обозначается произведение событий как , или .

3. Достоверным событием называется событие, которое обязательно происходит в результате данного испытания (рис. 4.4). Оно обозначается обычно как Е.

4. Невозможное событие – событие, которое не может произойти в результате данного испытания. Принятое обозначение – .

5. Несовместными называются события, которые в результате данного испытания не могут произойти вместе (рис. 4.5). Примеры несовместных событий: попадание и промах при выстреле, выпадение двух и трех очков при бросании игральной кости. Рис. 4.5 наглядно показывает, что для несовместных событий .

6. Противоположным к А событием называется событие, состоящее в непоявлении события А (рис. 4.6). Обозначается противоположное событие символом . Примеры противоположных событий: промах и попадание при выстреле, выпадение герба или цифры при одном подбрасывании монеты.

                     

                    Рис. 4.1. Поле событий                                               Рис. 4.2. Сумма событий

                     

             Рис. 4.3. Произведение событий                                    Рис. 4.4. Достоверное событие

                     

            Рис. 4.5. Несовместные события                               Рис. 4.6. Противоположные события

4.4. Исчисление вероятностей

4.4.1.Примеры непосредственного определения вероятностей

Рассмотрим несколько примеров на вычисление вероятностей по формуле (4.1).

Пример 4.1

Испытание состоит в подбрасывании игральной кости, на каждой из граней которой проставлено число очков (от 1 до 6). Какова вероятность того, что: 1) выпадает 2 очка? 2) выпадает нечетное число очков?

Решение 1: В данном испытании имеется 6 равновозможных случаев (выпадение 1, 2, 3, 4, 5, 6 очков), так как нет оснований предполагать, что появление какого-то определенного числа очков более вероятно (если, конечно, кость симметрична). Поэтому вероятность выпадения любого числа очков, в том числе и 2, при одном подбрасывании равна .

Событию А, заключающемуся в появлении нечетного числа очков, благоприятствуют три случая (выпадение 1, 3 и 5), поэтому по формуле (4.1) получаем

Решение 2: В данном испытании имеется 2 равновозможных исхода (выпадение четного числа очков (т.е. 2, 4, 6) и нечетного), так как кость симметрична, то очевидно, что эти исходы равновозможные.

Событию А, заключающемуся в появлении нечетного числа очков, благоприятствуют 1 случай из двух, поэтому по формуле (4.1) получаем

Отметим, что построенную таким образом пространство элементарных событий непригодно для расчета вероятности того, что выпадает 2 очка, так как этому событию не благоприятствует не один из введенных нами элементарных исходов.

Пример 4.2

В урне 5 белых и 10 черных шаров, не отличающихся по размеру. Шары тщательно перемешивают и затем наугад вынимают 1 шар. Какова вероятность того, что вынутый шар окажется белым?

Решение. В этом примере имеется 15 равновозможных (шары не отличаются по размеру) исходов опыта, причем ожидаемому событию (появлению белого шара) благоприятствуют 5 из них, поэтому искомая вероятность составит .

4.4.2. Основные правила вычисления вероятностей сложных событий

Ниже приведены основные правила, позволяющие определить вероятность появления сложного события на основании известных вероятностей составляющих его более простых событий.

1. Вероятность достоверного события равна единице:

                                                                    .                                                                    (4.2)

2. Вероятность объединения (суммы) несовместных событий равна сумме их вероятностей:

                                                                          (4.3)

Эти два равенства являются аксиомами теории вероятностей, т. е. принимаются в качестве исходных, но требующих доказательства свойств вероятностей. На их основе строится вся теория вероятностей.

Все остальные, приведенные ниже без доказательств формулы могут быть выведены из принятых аксиом.

3. Вероятность невозможного события равна нулю:

                                                                   .                                                                  (4.4)

4. Вероятность события, противоположного событию А, равна

                                                                                                                            (4.5)

Формула (4.5) оказывается полезной на практике в тех случаях, когда вычисление вероятности непосредственно события А затруднительно, в то время как вероятность противоположного события находится просто (см. ниже п.9).

5. Теорема сложения вероятностей. Вероятность объединения произвольных событий равна сумме их вероятностей за вычетом вероятности произведения событий:

                                                 .                                                (4.6)

Для несовместных событий  и формула (4.6) переходит в (4.3).

6. Условная вероятность. Если требуется найти вероятность события В при условии, что произошло некоторое другое событие А, то такую ситуацию характеризуют с помощью условной вероятности. Условная вероятность равна отношению вероятности произведения событий А и В к вероятности события А:

                                                                                                                            (4.7)

В тех случаях, когда события А и В несовместны,  и соответственно.

7. Определение условной вероятности в виде (4.7) дает возможность записать следующую формулу для вычисления вероятности произведения событий (теорема умножения вероятностей)

                                                                                          (4.8)

8. Поскольку вероятность события А (или В) для независимых событий по определению не изменяется при появлении другого события, то условная вероятность  совпадает с вероятностью события А, а условная вероятность  — с Р(В). Вероятности Р(А) и Р(В) в отличие от условных вероятностей называются безусловными.

                                                  , ,                                                   (4.9)

Теорема умножения вероятностей для независимых событий записывается следующим образом:

                                        ,                                       (4.10)

т. е. вероятность произведения независимых событий равна произведению их вероятностей.

9. Вычислим вероятность появления хотя бы одного события в n испытаниях

А – появление в n испытаниях хотя бы один раз интересующего нас события.

 – интересующее нас событие не появлилось в n испытаниях ни разу.

А1 – интересующее нас событие появлилось в первом испытании.

А2 – интересующее нас событие появлилось во втором испытании.

….

Аn – интересующее нас событие появлилось в n-ом испытании.

                                                        (4.11)

10. Формула полной вероятности.

Если событие А может произойти только при появлении одного из несовместных событий Н1, Н2, …, Нn, то

                        .                      (4.12)

Пример 4.3

В урне 5 белых, 20 красных и 10 черных шаров, не отличающихся по размеру. Шары тщательно перемешивают и затем наугад вынимают 1 шар. Какова вероятность того, что вынутый шар окажется белым или черным?

Решение. Пусть событие А – появление белого или черного шара. Разобьем это событие на более простые. Пусть В1 – появление белого шара, а В2 – черного. Тогда, А=В12 по определению суммы событий. Следовательно Р(А)=Р(В12). Так как В1 и В2 – несовместные события, то по теореме о вероятности суммы несовместных событий (формула 4.3) Р(В12) = Р(В1)+Р(В2).

Вычислим вероятности событий В1 и В2. В этом примере имеется 35 равновозможных (шары не отличаются по размеру) исходов опыта, событию В1 (появлению белого шара) благоприятствуют 5 из них, поэтому . Аналогично, . Следовательно, .

Пример 4.4

Ведутся поиски двух преступников. Каждый из них независимо от другого может быть обнаружен в течение суток с вероятностью 0,5. Какова вероятность того, что в течение суток будет обнаружен хотя бы один преступник?

Решение. Пусть событие А – “обнаружен хотя бы один преступник”. Разобьем это событие на более простые. Пусть В1 – обнаружен первый преступник, а В2 – обнаружен второй преступник. Тогда, А=В12 по определению суммы событий. Следовательно Р(А)=Р(В12). Так как В1и В2 – совместные события, то по теореме о вероятности суммы событий (формула 4.6)

Р(В12) = Р(В1)+Р(В2)-Р(В1 В2) = 0,5+0,5 – 0,25=0,75.

Можно решать и через обратное событие: .

Пример 4.5 а)

Преступник имеет 3 ключа. В темноте он открывает дверь выбирая ключ случайным образом. На открытие каждой из дверей он тратит 5 сек. Найти вероятность того, что он откроет все двери за 15 сек.

Решение. Пусть событие А – “открыты все двери”. Разобьем это событие на более простые. Пусть В – “открыта 1-я“, С – “ открыта 2-я“, а D – “ открыта 3-я“. Тогда, А=ВСD по определению произведения событий. Следовательно Р(А)=Р(ВСD). По теореме о вероятности произведения независимых событий (формула 4.10) Р(ВСD) = Р(В)Р(C) Р(D).

Вычислим вероятности событий В, Cи D. В этом примере имеется 3 равновозможных (каждый ключ выбираем из 3-х) исходов опыта. Каждому из событий В, Cи D благоприятствует 1 из них, поэтому . .

Пример 4.5 б)

Изменим задачу: считаем, что преступник – забывчивый человек. Пусть преступник открыв дверь, оставляет ключ в ней. Какова тогда вероятность, что он откроет все двери за 15 сек?

Решение. Событие А – “открыты все двери”. Опять, А=ВСD по определению произведения событий. Следовательно Р(А)=Р(ВСD). Но, теперь события В, Cи D – зависимы. По теореме о вероятности произведения зависимых событий Р(ВСD) = Р(В)Р(C|B) Р(D|BC).

Вычислим вероятности : ,  (ключа осталось только два и один из них подходит!),  и, значит, .

Пример 4.6

Ведутся поиски двух преступников. Каждый из них независимо от другого может быть обнаружен в течение суток с вероятностью 0,5. После поимки одно из них, в связи с увеличением количества сотрудников, занятых в поисках,  вероятность найти второго возрастает до 0,7. Какова вероятность того, что в течение суток будет обнаружены оба преступника.

Решение. Пусть событие А – “обнаружены два преступника”. Разобьем это событие на более простые. Пусть В1 – обнаружен первый преступник, а В2 – обнаружен второй преступник, после того, как пойман первый. Тогда, А=В1В2 по определению произведения событий. Следовательно Р(А)=Р(В1В2). Так как В1 и В2 – зависимые события, то по теореме о вероятности произведения зависимых событий (формула 4.8) Р(В1В2) = Р(В1)Р(В2/В1) = 0,5 0,7=0,35.

Пример 4.7

Найти вероятность того, что при подбрасывании монеты 10 раз герб выпадет хотя бы 1 раз.

Решение. Пусть событие А – “герб выпадет хотя бы 1 раз”. Рассмотрим обратное событие:  – “герб не выпадет ни разу”. Очевидно, что обратное событие легче чем исходное разбить на более простые. Пусть А1 – герб не выпал при первом броске, А2 – герб не выпал при втором броске, … А10 – герб не выпал при 10-м броске. Все события А1А10 независимы, следовательно, (формула 4.11)

.

Пример 4.8

В проведении операции по освобождению заложников участвуют 2 группы снайперов: 10 человек с винтовкой ОП21 и 20 человек с АКМ47. Вероятность поражения из ОП21 – 0,85, а АКМ47 – 0,65. Найти вероятность того, что при одном выстреле произвольного снайпера преступник будет поражен.

Решение. Пусть событие А – “преступник поражен”. Разобьем это событие на более простые. Преступник может быть поражен либо из ОП21, либо из АКМ47. Вероятность того, что произвольный снайпер вооружен ОП21 (событие Н1) равна 10/30. Вероятность того, что произвольный снайпер вооружен АКМ47 (событие Н2) равна 20/30.

Вероятность того, что преступник поражен равна (формула 4.12)

.

В подобных задачах полезно изобразить дерево всех возможных исходов (с указанием вероятностей каждого исхода):

.

4.4.3. Комбинаторика

Правило сложения.

Если первое действие можно выполнить n  различными способами, а второе — m  способами, то выполнить первое ИЛИ второе действие можно n+m способами.

Правило умножения.

Если первое действие можно выполнить n различными способами, а второе — m способами, то выполнить первое И второе действие (в таком порядке) можно  способами.

Эти правила можно обобщить на случай 3-х, 4-х и более действий.

Пример 4.9.

Рекламный плакат мебельной фабрики утверждает, что возможно составить 100000 различных вариантов расстановки производимых ей шкафов если купить хотя бы 5 шкафов. Верно ли это, если выпускается всего 10 различных типов шкафов?

Решение.

Вычислим, сколькими способами можно расставить 5 шкафов рядом друг с другом. Первую позицию можно заполнить 10-ю различными способами (принцип сложения), вторую — также 10-ю (никто не мешает купить и второй шкаф той же модели, что и первый), третью — опять 10-ю и т.д. Вообще имеем (принцип умножения) 10·10·10·10·10=100000 различных вариантов расстановки пяти шкафов рядом друг с другом. Если же купить шкафов больше, чем 5, то, очевидно, вариантов расстановки будет еще больше. Вывод: реклама является добросовестной.

Пример 4.10.

Из тщательно перемешанной колоды в 52 карты вытягивают 3 карты. Сколько существует различных вариантов карт на руках у игрока?

Решение.

В данном опыте производится 3 действия: вытягивание 1-й карты, 2-й карты и 3-й карты.

Вычислим, сколькими способами можно вытянуть 1-ую карту. Так как всего в колоде 52 карты, то имеем 52 различных способа. (Здесь мы применили принцип сложения: карта может быть двойка пик ИЛИ тройка пик ИЛИИЛИ туз червей. Значит, всего имеем 1+1+…+1=52 способа.)

Вычислим, сколькими способами можно вытянуть 2-ую карту. Так как в колоде осталось 51 карта, то, значит, второе действие можно выполнить 51-м способом.

Аналогично рассуждая, находим, что 3-е действие можно осуществить 50-ю способами.

Всего различных вариантов расположения карт на руках у игрока будет 52·51·50= 132600 способов. Для ответа осталось разделить это число на 3·2·1 – это кол-во способов перетасовать эти 3 розданные карты.

Ответ:

22100.

Число сочетаний, размещений и перестановок

Если стоит задача вычислить сколькими способами можно расположить “в ряд”(т.е. важен порядок их следования) вытянутые m предметов из коробки содержащей различных n предметов, то имеем так называемую ситуацию” перестановок”.
Вычислим это количество: первую позицию можно заполнить n способами, вторую – n – 1 способом, третью – n – 2 способом, и т.д. Искомое количество способов заполнить все n позиций равно (по принципу умножения)

n(n – 1)(n – 2) (n – 3)... (n – m + 1)

и обозначается Аnm.

Если стоит задача вычислить сколькими способами можно расположить “в ряд”(т.е. важен порядок их следования) вытянутые m предметов из коробки содержащей различных n предметов, то имеем так называемую ситуацию” перестановок”.
Вычислим это количество: первую позицию можно заполнить n способами, вторую – n – 1 способом, третью – n – 2 способом, и т.д. Искомое количество способов равно (по принципу умножения)
Аnm = n(n – 1)(n – 2) (n – 3)... (n – m + 1).
Но, поскольку нам не важно какой именно элемент стоит на каком месте, то необходимо Аnm разделить на количество способов по разному переставлять уже выбранные элементы. А это количество равно Аnn= n(n – 1)(n – 2) (n – 3)... 3 2 1 = n! (читается n факториал).
Искомое количество способов заполнить все n позиций равно Аnm / n! и обозначается Сnm.

Пример 4.11.

В совбезе ООН 11 членов: 5 постоянных и 6 так называемые ”малые нации”. Для принятия решении, надо, чтобы было 7 голосов ”ЗА”, причем следующим образом: все постоянные+как минимум 2 временных. Сколько всего вариантов голосования? Сколько всего можно организовать выигрышных коалиций? (Выигрышной коалицией называется такая, когда как бы не голосовали противники решение все равно будет принято.)

Решение.

Так, как голосуют 11 делегаций и у них есть 2 выбора (“за”,”против”), то по принципу умножения имеем 2·2·2·2·2·2·2·2·2·2·2 = 211  = 2048– вариантов голосования. Так как все постоянные члены должны проголосовать ”за”, то выигрышная коалиция определяется только временными членами , а кол-во – количеством способов выбрать2 или 3 или 4 или 5 или 6 временных членов, голосующих ”за”.

Имеем  способов, причем 15 – число так называемых минимальных выигрышных коаличий.

4.4.4. Схема Бернулли

Пусть производится  одинаковых независимых опытов. В каждом испытании некоторое событие А может произойти с вероятностью  (а, значит, не произойти с вероятностью ).

Вычислим вероятность того, что событие произойдет ровно  раз в проведенных  опытах.

 – вероятность того, что во всех опытах событие не произойдет (см. также пример 4.7)

 – вероятность того, что событие произойдет ровно в одном опыте.

 – вероятность того, что событие произойдет ровно 2 раза в n опытах.

…………………………

 – вероятность того, что событие произойдет РОВНО k раз в n попытках.

…………………………

– вероятность того, что событие произойдет во всех опытах.

4.5. Случайные величины

Случайные величины (с.в.) – численное значение появляющееся в результате опыта, и принимающее произвольное значение из заранее определенного множества.

Существует два типа случайных величин: дискретные и непрерывные.

Дискретные случайные величины принимают в результате испытания одно из изолированного дискретного множества значений. Они хорошо подходят для описания результатов измерений, связанных с подсчетом и выражаемых целыми числами.

Примеры дискретных случайных величин: оценка, полученная на экзамене, число попаданий в мишень в серии из 10 выстрелов и т. п.

Вероятность принятия дискретной случайной величиной каждого из возможных ее значений больше нуля. Эта вероятность может быть записана как

,

где i =... −1, 0, 1 ...

Здесь X — обозначение случайной величины; xi — конкретные числовые значения, принимаемые дискретной случайной величиной; pi — вероятности этих значений.

Индекс i может в общем случае пробегать значения от − до .

Функция , связывающая значения дискретной случайной величины с их вероятностями, называется ее распределением (законом распределения). Обычно закон распределения записывается в виде таблицы вида 

Х

x1

x2

xn

 

Р

p1

p2

pn

 

Пример 4.12. Пусть Х – число очков выпавшее на игральной кости при одном броске. Тогда, эта с.в. распределена по закону

Х

1

2

3

4

5

6

Р

1/6

1/6

1/6

1/6

1/6

1/6

Непрерывные случайные величины в результате испытания могут принимать любые значения из некоторого интервала.

Примеры непрерывных случайных величин: спортивный результат в беге или прыжках, рост и масса тела человека, сила мышц и др.

Поскольку число возможных значений непрерывной случайной величины бесконечно велико и чаще всего нет оснований предположить, что одни значения появляются существенно чаще других, то вероятность принятия непрерывной случайной величиной каждого отдельного значения оказывается равной нулю. По этой причине нельзя описать распределение непрерывной случайной величины в виде вероятностей ее отдельных значений, как в случае дискретных случайных величин. Здесь необходимы другие подходы, которые рассмотрены в разделах 4.6 и 4.7.

4.6. Функция распределения

Рассмотрим вероятность того, что случайная величина X окажется меньше или равной некоторому заданному числу х, т. е.

.                                                             (4.11)

Эта вероятность, рассматриваемая как функция переменной х, называется функцией распределения случайной величины X. Она используется для записи распределений как дискретных, так и непрерывных случайных величин. Функция распределения непрерывной случайной величины будет непрерывной функцией (рис. 4.8).

Как было сказано ранее, вероятность принятия непрерывной случайной величиной какого-либо конкретного значения равна 0.

Для непрерывной случайной величины обычно интересует вероятность попадания ее в заданный интервал , которая по известной функции распределения находится как

(4.12)

В этом выражении совершенно не обязательно записывать интервал таким образом. Можно было бы записать , или , при этом вероятность попадания случайной величины в интервал не изменится. Это связано с тем, что, как уже отмечалось, функция распределения случайной непрерывной величины не имеет скачков ни при каких значениях х.

Свойства функции распределения совпадает со свойствами эмпирической функции распределения (см. 2.3.4)

1. F(x) неубывающая функция.

2.

3.

График функция распределения представляет собой теоретический аналог полигона накопленных частот, рассмотренного в разделе 2.3.3.

Рис. 4.8. Функция распределения непрерывной случайной величины

4.7. Плотность распределения вероятностей

Для непрерывных случайных величин вводится понятие плотность распределения вероятностей, или “плотность вероятностей”, играющее исключительно важную роль при их описании.

Плотность вероятностей — это производная от функции распределения непрерывной случайной величины, т.е.

                                                                (4.14)

Более подробно при рассмотрении конкретных непрерывных распределений об этой функции рассказано в разделе 4.9. Типичный вид графика плотности вероятностей показан на рис. 4.9.

Вероятность попадания непрерывной случайной величины в интервал между значениями х1 и х2 пропорциональная площади под кривой плотности вероятностей, заключенной между точками х1 и х2. Эта вероятность математически записывается в виде интеграла от f(x) в пределах х1 и х2.

.                                                 (4.15)

Свойства :

1. ;

2.  при ;

3.  при ;

4. .

Рис. 4.9. Вид графика плотности распределения вероятностей

4.8. Числовые характеристики случайных величин

Распределение случайной величины, заданное в виде функции распределения или плотности вероятностей, полностью ее характеризует. Однако такая исчерпывающая характеристика случайной величины сложна и далеко не всегда необходима. Для решения многих практических задач не нужно знать распределение случайной величины, а достаточно иметь лишь некоторые обобщающие числовые характеристики этого распределения.

4.8.1. Математическое ожидание

Для более наглядного определения математического ожидания (среднего значения) случайной величины рассмотрим подход к этому понятию на конкретном примере.

Пусть имеется дискретная случайная величина X с возможными значениями  и вероятностями этих значений . В качестве примера X рассмотрим случайную величину — количество правонарушений за сутки. Каждое из значений  (отмечено 0; 1; ... нарушений) будет наблюдаться некоторое число раз. Обозначим эти числа через . Очевидно, что сумма .

Таким образом, имеем n наблюдений за случайной величиной X, т. е. выборку объема n. Определим выборочное среднее арифметическое:

Здесь индекс n при  обозначает, что среднее арифметическое вычислено по n наблюдениям.

Теперь представим, что испытание, состоящее в регистрации количества правонарушений, повторяется неограниченное число раз. Здесь, абстрагируясь от физической реализуемости такого эксперимента, будем считать, что наблюдению доступна вся теоретически бесконечная генеральная совокупность значений случайной величины X.

Согласно статистическому определению вероятности, данному в разделе 4.2.2, относительные частоты событий стремятся к их вероятностям при неограниченном повторении испытания.

Поэтому в пределе при

Таким образом, выборочное среднее арифметическое случайной величины X стремится при неограниченном повторении испытания (при неограниченном увеличении объема выборки) к некоторому постоянному числу, так как в последней сумме xi и рi — постоянные числа. Это число носит название математического ожидания (среднего значения) случайной величины.

Математическое ожидание обозначает как  или .

Математическое ожидание дискретной случайной величины равно сумме всех ее возможных значений, умноженных на вероятности этих значений:

                                                                                       (4.16)

В этой записи означает, что суммирование производится по всем возможным i.

Только что рассмотренный пример показывает, что математическое ожидание — абстрактное понятие. Оно является теоретическим аналогом выборочного среднего арифметического.

Математическое ожидание равно среднему значению генеральной совокупности.

Для непрерывных случайных величин математическое ожидание определяется с помощью плотности вероятностей по формуле:

                                                                                                             (4.17)

Свойства математического ожидания

1.       M(C)=C,

2.       M(CX)=CM(X).

3.       M(X+Y)= M(X)+M(Y),

4.       M(X×Y)= M(X)M(Y), если X и Y – независимые C.B.

4.8.2. Дисперсия и стандартное отклонение

Точно так же, как математическое ожидание, являющееся теоретическим аналогом среднего арифметического, можно ввести теоретические аналоги всех числовых характеристик выборки, рассмотренных в гл. 3. Для этого нужно в соответствующих формулах для выборочных характеристик заменить все средние арифметические на математические ожидания.

Дисперсией случайной величины X называется математическое ожидание квадрата отклонений случайной величины от ее математического ожидания (сравните с определением п. 3.4.2). Дисперсия обозначается как D(Х), или .

.

Для дискретных случайных величин

                                                                                                        (4.18)

т. е. дисперсия дискретной случайной величины равна сумме квадратов отклонений отдельных значений случайной величины от ее математического ожидания, умноженных на вероятности этих значений.

Для непрерывных случайных величин

                                                 (4.19)

Положительный корень квадратный из дисперсии называется средним квадратическим (стандартным) отклонением случайной величины.

Эта величина обозначается, как

.                                                                 (4.20)

Дисперсия и стандартное отклонение характеризуют изменчивость (вариативность) случайной величины. Чем сильнее случайная величина отклоняется от своего математического ожидания, тем больше величины D(X) и . Последнюю () использовать удобнее, так как его размерность совпадает с размерностью случайной величины (например, если Х - кол-во долларов, выигранное в лотерею, то - измеряется в $.

Свойства дисперсии

1.       D(C)=0,

2.       D(CX)= C2D(X).

3.       D(X+Y)= D(X)+D(Y),если X и Y – независимые с.в.

Обобщение 4.8.1 и 4.8.2.

Пусть  – с.в., а  – константы. Тогда . В частности . Если более того  – независимые, то . В частности .

Пример 4.13.

Играем в следующую игру: один раз бросаем игральную кость и получаем столько $, сколько выпало очков. Цена игры: 4$. Выгодно ли играть?

Пусть с.в. Х – количество очков, выпавшее при броске игральной кости. (см. пример 4.12)

Вычислим  – именно столько очков (а, значит, и $) ”в среднем” мы будем получать если играть достаточно долго. Значит, игра невыгодна для нас. Мы ”в среднем” теряем 0.5$ в каждой игре.
Для вычисления D(X) обычно пользуются формулой D(X) = M(X2) – M2(X).

С.В. Х2 имеет следующее распределение

Х2

1

22=4

32=9

42=16

52=25

62=36

Р

1/6

1/6

1/6

1/6

1/6

1/6

Вычислив М(Х2)=91/6 находим D(X) = 91/6 – 441/36 = 105/36 = .

4.8.3. Моменты

Математическое ожидание и дисперсия представляют собой частные случаи общих числовых характеристик случайной величины, называемых моментами.

Ниже кратко рассматриваются лишь так называемые центральные моменты случайной величины.

S-ым центральным моментом случайной величины X называется математическое ожидание s-й степени отклонения случайной величины от ее математического ожидания:

.

В частности, при s = 2 второй центральный момент случайной величины есть дисперсия.

На практике часто используются также третий и четвертый центральные моменты, позволяющие судить о симметричности и остроте вершины кривой распределения случайной величины.

Если  = 0, то распределение симметрично относительно математического ожидания, если >0, то преобладают положительные отклонения от математического ожидания, если <0 — отрицательные. Для удобства применяется так называемый коэффициент асимметрии, который является безразмерной величиной и определяется как

                                                                                                                                       (4.21)

Об остроте вершины кривой распределения судят по коэффициенту эксцесса:

                                                                (4.22)

Если >0, то распределение имеет острый пик, если <0 (минимальное значение = –2), то распределение имеет плосковершинную форму по сравнению с рассмотренным ниже нормальным распределением, для которого  = 0.

4.9. Распределения Бернулли и Пуассона.

Пусть проводятся  испытаний по схеме Бернулли (см. 4.4.3.). Событие А может произойти в результате этой серии опытов 0 раз, 1 раз, …  раз. Рассмотрим случайную величину — число испытаний в которых событие А произошло. Имеем дискретную с.в. с законом распределения

Х

0

1

k

n

Р

Также говорят, что с.в. Х распределена по биномиальному закону с параметрами  и  и пишут .

Если , то говорят, что с.в. Х имеет распределение Бернулли параметром .

Теорема.

Пусть  — независимые с.в. распределенные по Бернулли с одинаковым параметром . Пусть . Тогда .

Числовые характеристики биномиального закона.

,

.

Если  — велико, а  — мало, то вычисления вероятности по формуле  на практике невозможно. При этих условиях используется формула Пуассона для вычисления вероятности маловозможных событий в массовых испытаниях: , где , , 0! = 1. Соответствующая с.в. распределена по закону Пуассона.

4.10. Нормальное распределение

4.10.1. Определение и значение

Большинство экспериментальных исследований, в том числе и в области правоведения, связано с измерениями, результаты которых могут принимать практически любые значения в заданном интервале и, как уже было отмечено, описываются моделью непрерывных случайных величин. Поэтому в дальнейшем будут рассматриваться в основном непрерывные случайные величины и связанные с ними непрерывные распределения.

Одним из непрерывных распределений, имеющим основополагающую роль в математической статистике, является нормальное, или гауссово*, распределение.

Нормальное распределение является самым важным в статистике. Это объясняется целым рядом причин.

1. Прежде всего, многие экспериментальные наблюдения можно успешно описать с помощью нормального распределения. Следует сразу же отметить, что не существует распределений эмпирических данных, которые были бы в точности нормальными, поскольку (как будет показано ниже) нормально распределенная случайная величина находится в пределах от  до , чего никогда не бывает на практике. Однако нормальное распределение очень часто хорошо подходит как приближение.

Проводятся ли измерения IQ, роста и других физиологических параметров — везде на результаты оказывает влияние очень большое число случайных факторов (естественные причины и ошибки измерения). Причем, как правило, действие каждого из этих, факторов незначительно. Опыт показывает, что результаты именно в таких случаях будут распределены приближенно нормально.

2. Нормальное распределение хорошо подходит в качестве аппроксимации (приближенного описания) других распределений (например, биномиального).

3. Многие распределения, связанные со случайной выборкой, при увеличении объема последней переходят в нормальное.

4. Нормальное распределение обладает рядом благоприятных математических свойств, во многом обеспечивших его широкое применение в статистике.

В то же время следует отметить, что в природе встречается много экспериментальных распределений, для описания которых модель нормального распределения малопригодна. Для этого в математической статистке разработан ряд методов, некоторые из которых приводятся в следующих главах.

Говорят, что с.в. распределена по нормальному закону с параметрами  и  и записывать если ее плотность вероятностей задается следующим образом

                                                                                     (4.23)

График плотности (нормальная кривая) представлен на рис. 4.10.

Укажем основные свойства нормального распределения .

1. Нормальная кривая имеет колоколообразную форму, симметричную относительно точки , с точками перегиба, абсциссы которых отстоят от  на .

2. Для нормального распределения математическое ожидание , дисперсия равна  и, следовательно, стандартное отклонение равно .

3. Как видно из выражения (4.23), нормальное распределение полностью определяется двумя параметрами:  и  — математическим ожиданием и стандартным отклонением.

График плотности вероятности нормального распределения показывает, что для нормально распределенной случайной величины вероятность отклонения от среднего значения  быстро уменьшается с ростом величины отклонения.

4. Медиана и мода нормального распределения совпадают и равны математическому ожиданию .

5. Коэффициенты асимметрии и эксцесса нормального распределения равны нулю (, ).

Последнее свойство (5) используется для проверки предположения о нормальности распределения генеральной совокупности (гл. 6).

Рис. 4.10. Плотность вероятностей нормального распределения

4.10.2. Нормированное нормальное распределение

Формула (4.23) описывает целое семейство нормальных кривых, зависящих, как было сказано выше, от двух параметров — и , которые могут принимать любые значения, поэтому возможно бесконечно много нормально распределенных совокупностей.

Чтобы избежать неудобств, связанных с расчетами для каждого конкретного случая по достаточно сложной формуле (4.23), используют так называемое нормированное (или стандартное) нормальное распределение N(0;1), для которого составлены подробные таблицы.

Нормированное нормальное распределение имеет параметры  и . Это распределение получается, если пронормировать нормально распределенную величину X по формуле:

                                                                                                                                      (4.24)

Плотность распределения вероятностей нормированного нормального распределения записывается в виде:

                

На кривой нормированного нормального распределения (рис. 4.11) указаны в процентах доли площадей соответствующих отмеченным значениям нормированного отклонения и, по отношению к общей площади под кривой, равной 1 (100%). Эти площади определяют вероятности попадания случайной величины в соответствующие интервалы.

Рис. 4.11. Нормированное нормальное распределение

Таблица значений — ординат нормальной кривой приведена в специальных таблицах. Значения  для некоторых характерных нормированных отклонений представлены в табл. 4.1.

Таблица 4.1

Ординаты нормальной кривой

Нормированное отклонение, u

0

±0,5

±1,0

±2,0

±3,0

Ордината нормальной кривой,

0,399

0,352

0,242

0,054

0,004

4.10.3. Вероятность попадания в заданный интервал

Очень часто исследователя интересует вопрос: какова вероятность того, что изучаемый признак генеральной совокупности находится в заданных границах (например, вероятность того, что результат измерения IQ для группы испытуемых окажется в пределах 115 — 125)? Если предполагается нормальное распределение признака в генеральной совокупности, то получить ответ на этот вопрос очень просто.

Как говорилось ранее, вероятность попадания нормально распределенной случайной величины в заданный интервал  можно определить по функции распределения:  или с помощью функции плотности вероятностей: .

Итак, вероятность попадания с.в. U-->N(0;1) в заданный интервал:

,

где Ф — принятое обозначение для функции нормированного нормального распределения которое имеет следующий вид:

                                                         ,                                                       (4.25)

при этом .

Часто представляет интерес вероятность попадания с.в. U-->N(0;1) в симметричный интервал. Тогда

Учитывая свойства функции Лапласа, получаем:

Интеграл, входящий в выражение (4.25), не выражается в элементарных функциях, поэтому для вычисления функции Ф(u) используют вспомогательную функцию — функцию Лапласа (интеграл вероятностей):

                                                                                                              (4.26)

который табулируется. Функция Лапласа является нечетной, т.е. Ф0(-u)=–Ф0(u).

В книгах по теории вероятности приведена либо таблица значений функции Лапласа , либо .

Чтобы найти вероятность попадания нормально распределенной случайной величины  в заданный интервал  с помощью функции Лапласа, сначала с.в. Х нормализуется (см. 4.24), а затем  используется следующая формула:

          

                                                        =                                                      (4.27)

Пример 4.14. Вычислить  если .

Решение.

4.10.4. Правило трех сигм

В табл. 4.2 приведены полученные по формуле (4.28) вероятности того, что нормально распределенная случайная величина отклонится от своего среднего значения m, не более, чем на ±0,5s, ±s, ±2s, ±3s.

Таблица 4.2

Вероятности попадания нормально распределенной случайной величины в заданный интервал

Границы интервала,

Вероятность попадания в интервал

0,3829

0,6827

0,9545

0,9973

Из табл. 4.2 следует, что 0,9973.

Это выражение известно в статистике как “правило трех сигм”. Оно означает, что с вероятностью 0,9973 (практически с единичной) нормально распределенная случайная величина окажется в пределах ±3 от среднего значения. Иначе говоря, отклонения от среднего больше чем на  +3 можно ожидать примерно в 1 случае из 370 испытаний.

4.11. Применение нормального распределения.

Теорема Муавра-Лапласа

.

Пусть Х — с.в. распределенная по биномиальному закону с параметрами  и  ( т.е. ).

Если , , то можно приблизительно описать закон распределения с.в. с помощью .

Тогда вероятность того, что дискретная с.в. Х примет значение (т.е. событие произойдет ровно  раз в проведенных  опытах) вычисляют так: , где U

— нормированная нормальная с.в.

Пример 4.15

Вычислить вероятность того, что при 144 бросках игральной кости двойка выпадет от 28 до 30 раз.

Пусть Х — кол-во выпадений двойки в этих 144 бросках. Очевидно, что Х — с.в. распределенная по биномиальному закону . Вычислить  по формуле Бернулли не представляется возможным. Но т.к.  и , то применим теорему Муавра-Лапласа: , и, следовательно

Теорема (центральная предельная в упрощенной формулировке).

Если случайные величины Х1, Х2, … Хn — независимы, одинаково распределены (все равно по какому закону!) и имеют конечные мат.ожидания и дисперсии , то при  их среднее арифметическое  распределено близко к  или, что то же самое, их сумма  распределена близко к .

Пример 4.16.

Игровая кость, используемая мошенниками, подверглась испытаниям в результате которых были установлены вероятности выпадения граней (т.е. построен закон распределения с.в. Х — кол-во выпавших очков):

Х

1

2

3

4

5

6

Р

0,1

0,1

0,1

0,1

0,2

0,4

Вычислить вероятность того, что при 50 бросках среднее кол-во очков будет между 3 и 4 (т.е. вычислить , где  — число полученное при i-ом броске).

Решение.

Очевидно, что Х1, Х2, … Х50 — независимы, одинаково распределены, следовательно центральная предельная теорема можно аппроксимировать закон распределения с.в.  с помощью .

Вычислим мат. ожидание и дисперсию для с.в. Х:

M[X]=1·0,1+2·0,1+3·0,1+4·0,1+5·0,2+6·0,4=4,4 очка,

D[X]=3,04.

Итак, с.в.   распределена приблизительно по закону .

Вычислим теперь

.

Итак, получить в среднем между 3 и 4 очками маловероятно (вероятность лишь около 5% в то время как для стандартной игральной кости эта вероятность будет более 96%. Получите этот результат самостоятельно).

4.12. Некоторые специальные непрерывные распределения

Нормальное распределение широко применяется как математическая модель для описания экспериментальных данных. В этом разделе будут рассмотрены три распределения, которые играют очень важную роль при обработке результатов, связанных со случайной выборкой объема n, и составляют основу применения критериев значимости и проверки статистических гипотез. Примеры использования этих распределений приводятся в гл. 6, посвященной указанным статистическим методам.

4.12.1. -распределение

Если U1, U2, ..., Uv независимые случайные величины, каждая из которых имеет нормированное нормальное распределение с параметрами  и , то сумма квадратов этих величин

имеет так называемое  (хи-квадрат)-распределение. Его плотность вероятностей представлена на рис. 4.12 и зависит от единственного параметра — числа степеней свободы v.

Рис. 4.12. -распределение

Кривая -распределения имеет положительную асимметрию. С ростом числа степеней свободы v она становится все более симметричной и при v30 переходит в нормальное.

Таблицы -распределения приводятся в в приложениях к учебникам по ТВ. В этих таблицах обычно содержатся значения х, соответствующие вероятностям Р = 1 –a, при a, равном 0,05; 0,01 и 0,001 для различного числа степеней свободы v.

4.12.2. t-распределение Стьюдента

Вторым из широко используемых специальных распределений является t-распределение Стьюдента, или просто t-распределение. Это распределение случайной величины:

где U — случайная величина, имеющая нормированное нормальное распределение; V — случайная величина с распределением с v степенями свободы, t-распределение применяется при проверке статистических гипотез при малом объеме выборки. Эти вопросы рассмотрены в гл. 6. Форма t-распределения полностью определяется одним параметром — числом степеней свободы v.

Вид кривой плотности t-распределения показан на рис. 4.13. t-распределение симметрично при любом v и при vЗ0 переходит в нормальное с параметрами  = 0 и .

Рис. 4.13. t-распределение Стьюдента

Таблицы t-распределения обычно приводятся в приложениях к учебникам по ТВ.

4.12.3. F-распределение

Если случайные величины U и V независимы и каждая из них распределена как  с v1 и v2 степенями свободы соответственно, то величина

 

подчиняется так называемому F-распределению, которое зависит от двух параметров — v1 и v2, называемых числами степеней свободы, F-распределение применяется в основном в задачах, связанных с дисперсиями. Эти задачи также рассмотрены в гл. 6. Таблицы -распределения приводятся в в приложениях к учебникам по ТВ.



* Гаусс Карл Фридрих (1777—1855) — немецкий ученый в области практической и прикладной математики. Распределение названо по его имени, так как он ввел его одним из первых.

Сайт создан в системе uCoz