Основные понятия теории вероятности

Основные подходы к определению вероятности события и формулы комбинаторики. Дискретное распределение вероятности и понятие математического ожидания. Дисперсия и стандартное отклонение. Биноминальный закон распределения. Непрерывные случайные величины.

Рубрика Математика
Вид учебное пособие
Язык русский
Дата добавления 25.01.2012
Размер файла 505,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

I. ПОНЯТИЕ ВЕРОЯТНОСТИ

Теория вероятностей - раздел математики, изучающий закономерности случайных явлений.

Опыт - действие, результат которого заранее неизвестен. Например, бросание монеты, игральной кости, продажа товаров, оценка на экзамене.

Эксперимент - один или несколько опытов. Например, бросание монеты шесть раз.

Исход - возможный результат эксперимента. Например, в результате 2-х бросаний игральной кости выпали шестерка и двойка.

Событие - один или несколько исходов эксперимента. Например, выпадение четного числа при 2-х бросаниях кости, продано товаров на сумму больше 100000 рублей, дождливая погода и т.д.

Случайное событие - событие, которое при осуществлении некоторых условий может произойти или не произойти. Например, студент на экзамене может получить оценки 2, 3, 4, 5. То, что он получит конкретную оценку - случайное событие, но шансы получить конкретную оценку разные.

Существует три подхода к определению вероятности события.

Классический подход.

В результате эксперимента может появиться событие А. Вероятность события А равна отношению количества исходов, благоприятных для появления события А, к общему количеству исходов эксперимента, которые считаются равновозможными и взаимноисключающимися (т.е. никакие два из них не могут появиться в данном опыте).

p(A) = m/n

m - число благоприятных для события А исходов,

n - число всех исходов.

Пример 1. Эксперимент состоит в бросании пары игральных костей. Какова вероятность выпадения 9 очков.

Решение. Прежде всего заметим, что шансы появления любого количества очков на кубиках одинаковы, т.е. исходы здесь равновозможны. Определим общее количество исходов. Это может быть (1,1), (1,2), (2,1) и т.д., т.е. общее число исходов 36. Затем определим количество тех исходов, когда сумма очков у двух кубиков будет равна 9. Это исходы (3,6) (4,5) (5,4) (6,3), т.е. число благоприятных исходов 4. Тогда вероятность выпадения 9 очков.

p(A) = 4/36 = 1/9

Однако определить вероятность получения на экзамене, например, оценки 4, исходя из классического подхода, невозможно, т.к. шансы получить ту или иную оценку неравновозможные.

Классический подход к определению вероятности ограничен и ограниченность заложена в условии равновозможности исходов.

Частотный подход.

Пусть в прошлом было проведено достаточно большое количество опытов, где в результате каждого из них наблюдалось появление или не появление события А. Если событие А появилось в m опытах (частота появления события А) из n проведенных опытов, то вероятность

p(A) = m/n

Заметим, что здесь вероятность равна относительной частоте появления события. Частотный подход даёт оценочное значение вероятности и вероятность приближается к своему точному значению с увеличением числа опытов.

Пример 2. Рынок некоторого товара принадлежит трем фирмам А, В и С. Из 1000 опрошенных 230 покупают товар А, 320 покупают товар фирмы В, 450 покупают товар фирмы С. Какова вероятность, что следующий опрошенный покупает товар фирмы С?

Решение. Если мы применим частотный подход, то p(С) = 450/1000 = 0,45

Заметим, что если бы мы применяли классический подход, то вероятность, что 1001-й клиент покупает товар фирмы С равна 1/3.

Субъективный подход.

Субъективная вероятность основывается на индивидуальном или коллективном мнении людей, которые выступают в роли экспертов. Субъективная вероятность применяется в случаях когда отсутствует объективная информация о появлении события в прошлом, либо нет подходящей схемы случаев. В качестве примеров, отражающих необходимость получения субъективной вероятности, можно рассмотреть задачи:

- оценить вероятность того, что данная команда в конкретном поединке добьется победы;

- оценить будущее состояние рынка и т.д.

Из приведенного выше следует:

1. Вероятность события - это число, заключенное между 0 и 1, т.е.

0 ? p (A) ? 1

2. Сумма вероятностей всех возможных исходов должна быть равна 1.

1.1 Основные формулы комбинаторики

При классическом подходе определения вероятности требуется найти общее количество случаев, а также число случаев, благоприятствующих данному событию. Часто нахождение количества удобно проводить по формулам комбинаторного анализа.

Перестановки

Пусть дано n элементов. Расположим их в определенном порядке, в результате получим некоторое упорядоченное множество. Поменяем порядок элементов, в результате получим другое упорядоченное множество.

Перестановкой из n элементов называется любое упорядоченное множество из n элементов.

Перестановки отличаются одна от другой только порядком. Будем обозначать перестановки через Pn. Количество перестановок:

Pn = n!

Например, чтобы ответить на вопрос: сколько существует разных вариантов рассадки за столом 5 человек, нужно отождествить каждый вариант рассадки с перестановкой. Ответ простой: P5 = 5! = 1Ч2Ч3Ч4Ч5 = 120

Если перестановка образуется не из всего множества элементов n, а из части k, то такая перестановка называется размещением. Два размещения считаются различными, если они различаются либо составом элементов, либо порядком элементов. Размещения из n элементов по k (количество элементов в каждом размещении равно k, каждый из которых выбирается из n элементов) будем обозначать через Ank, количество размещений определяется по формуле:

Ank = n! / (n - k)!

Например, сколько различных двузначных чисел можно составить из данных 5 цифр? Каждое двузначное число - это какое-то размещение из данных 5 чисел.

A52 = 5! / (5 - 2)! = 1Ч2Ч3Ч4Ч5/1Ч2Ч3 = 4Ч5 = 20

Сочетания

Сочетания - это такие наборы элементов, в которых порядок элементов не важен.

Сочетанием из n элементов по k (k<n) называется неупорядоченное множество, состоящее из k элементов, которые взяты из данных n элементов.

Сочетания из n элементов по k будем обозначать Cnk (часто сочетания обозначают (kn)). Количество Cnk

Например, сколько разных групп, состоящих из трех человек, можно выбрать из данных шести человек? Здесь каждая группа - это какое-то сочетание. Число таких сочетаний

Принцип умножения.

Пусть эксперимент состоит из k шагов, следующих один за другим. Пусть на первом шаге имеется n1 исходов, на втором шаге n2 исходов и т. д., наконец, на последнем k-ом шаге - nk исходов. Тогда общее количество исходов всего эксперимента равно произведению

Например, сколько исходов будет при бросании трех костей?

Здесь бросание трех костей можно рассматривать как последовательное трехкратное бросание одной кости, следовательно, у нас есть эксперимент, состоящий из трех шагов. На каждом шаге возможно 6 исходов. Значит общее количество исходов .

Пример 3.

Совет директоров состоит из 6 менеджеров, 3 финансистов и 4 инженеров. Во вновь созданный подкомитет должны войти 3 человека. Какова вероятность, что подкомитет будет состоять полностью из финансистов?

Решение.

Число сочетаний трех финансистов из трех возможных

.

Из 13 человек подкомитет из 3 человек можно выбрать количеством способов, но =286. Таким образом, искомая вероятность, подсчитываемая по классическому подходу, будет .

Пример 4.

Тест TOEFL не сдало 3 студента из группы 1, 8 студентов из группы 2 и 6 студентов из группы 3. Формируется новая группа для не сдавших тест студентов. Какова вероятность, что в новой группе будет 1 студент из группы 1, 5 студентов из группы 2 и 4 студента из группы 3.

Решение.

Найдем общее количество вариантов групп из 10 человек

.

Благоприятными в нашей ситуации будут 1 студент из 3 студентов группы 1. Таких вариантов выбора

.

Вариантов выбора 5 студентов из 8 в группе 2

.

Вариантов выбора 4 студентов из 6 в группе 3

.

Таким образом, число благополучных случаев (вспомним принцип умножения) . Тогда искомая вероятность

.

1.2 Основные правила действий над вероятностями

Любые два события А и В называются несовместными, если появление одного из них делает невозможным появление другого.

Например, событие А - получение оценки 5 и событие В - получение оценки 4 являются несовместными для одного студента на конкретном экзамене. Если мы будем рассматривать двух студентов или два разных экзамена, то событие А и событие В не являются несовместными, т.е. они совместимы.

Пусть дано n несовместных событий А1, А2, …, Аn. Несовместные события А1, А2, …, Аn образуют полную группу, если одно из этих событий в результате эксперимента обязательно осуществится.

Например, событие А - выигрыш, В - ничья, С - проигрыш одной команды. Эти события образуют полную группу, если эксперимент состоял в проведении до конца игры.

Если полная группа состоит из двух событий, то эти события называются противоположными.

Если и противоположные события, то

.

Аналогично для событий, образующих полную группу

.

Событие А называется достоверным, если оно обязательно произойдет. Вероятность достоверного события равна 1.

Событие называется невозможным, если в результате эксперимента оно произойти не может. Вероятность невозможного события равна 0.

События А и В называются независимыми, если появление одного из них не изменяет вероятности появления другого

Например, по одному разу брошены кость и монета. Выпало 6 очков и герб. Событие «6 очков» и событие «герб» независимы.

Суммой или объединением событий А и В называется такое событие, состоящее в том, что в результате эксперимента произойдет хотя бы одно из этих событий. Сумму будем обозначать как или .

Произведением или пересечением событий А и В называется такое событие, состоящее в том, что произошли оба события. Произведение будем обозначать как или .

Изобразим объединение и пересечение в виде диаграммы Венна. Основой диаграмм Венна является прямоугольник, все точки которого отождествляются со всеми возможными исходами. Событие А обозначается некоторой областью прямоугольника.

Тогда противоположное событие - это множество точек, не принадлежащих области. Вероятность события на диаграмме Венна равна площади области, соответствующей этому событию. Площадь всего прямоугольника берется равной 1.

Легко записать формулу вероятности суммы событий, основываясь на диаграмме Венна

.

Эта формула называется правилом сложения вероятностей.

Несовместные события можно рассматривать как события, не имеющие общих точек. Тогда для несовместных событий

,

а формула сложения вероятностей имеет вид

.

Пример 5.

По прогнозу метеорологов вероятность дождя 0,33, вероятность ветра 0,7 и вероятность, что будет дождь и ветер 0,2. Какова вероятность: a) что будет либо дождь, либо ветер, либо то и другое; b) будет либо дождь, либо ветер, но не оба одновременно; c) будет сухая безветренная погода.

Решение.

a) Событие, вероятность которого мы хотим найти, есть не что иное, как сумма двух событий А(дождь) и В(ветер). Тогда по формуле сложения вероятностей .

b) Данное событие, обозначим его через С, есть не что иное, как объединение событий А и В без их общей части. Тогда .

c) Сухая, безветренная погода - это событие, противоположное событию, что будет либо дождь, либо ветер, либо и то и другое, т.е. в наших обозначениях По формуле находим что искомая вероятность равна 0,19.

1.3 Условная вероятность

Рассмотри два события E и F, которые происходят друг за другом. При этом возможны следующие случаи:

1. События E и F независимы, т.е. появление одного не влияет на вероятность появления другого.

2. E и F зависимы, т.е. появление одного события влияет на вероятность появления другого. В этом случае вероятность события E в зависимости от того произошло или не произошло событие F называется условной вероятностью и обозначается P(EF) (вероятность E при условии, что имело место событиеF).

Если события E и F независимы, то

P(EF)=P(E) и P(FE)=P(F)

Пример 6.

В урне 4 красных и 5 синих шаров. Какова вероятность, что при втором вытаскивании будет красный шар?

Решение.

В данной ситуации возможны 2 варианта:

1. Первым вытащен красный шар. Тогда вероятность того, что снова будет вытащен красный шар (в урне осталось 3 красных и 5 синих шаров)= .

2. Первым вытащен синий шар. Тогда вероятность того, что во второй раз будет вытащен красный шар = = 0,5.

Правило умножения вероятностей.

Если события А и В независимы, то

.

Справедливо и обратное, т.е. если , то А и В - независимы.

Пример 7.

Какова вероятность, что два первые наугад вытащенные из колоды карты, окажутся тузами?

Решение.

Пусть А - вытащенный туз при первом вытаскивании, В - вытащенный туз при втором вытаскивании. Тогда АВ - вытащенные два туза при первых двух вытаскиваниях. Но

В нашем случае

Тогда

Из формулы умножения следует

Замечание.

Иногда происходит путаница в понятиях «независимые события» и «несовместные события». Несовместные события зависимы, т.к. появление одного меняет вероятность появления другого (если это событие не является невозможным).

1.4 Дерево вероятностей

Сложные события представляют серию экспериментов и комбинацию всех возможных исходов. Часто для определения вероятностей сложных событий используют дерево вероятностей, на котором отражают последовательность экспериментов и их результаты.

Дерево вероятностей состоит из узлов (как правило, кружочки или квадратики) и ветвей, представляющих линии.

Каждый узел отождествляется с испытанием, каждая ветвь - с исходом. Вероятность соответствующего исхода указывается около ветви, а вероятность всего сложного события - в конце суммарной ветви. Покажем, как строится дерево вероятностей и подсчитываются вероятности сложных событий на примере.

Пример 7.

В студенческой группе 15 юношей и 10 девушек. Выбираются случайным образом 3 студента. Какова вероятность:

а. В числе 3 выбранных - 1 девушка

б. В числе 3 выбранных как минимум 1 юноша.

в. В числе выбранных нет девушек

Решение.

Найдем вероятности с помощью дерева вероятностей. Выбор каждого студента отождествим с отдельным экспериментом. В результате каждого эксперимента будут два исхода: выбран юноша или девушка. Вероятности каждого эксперимента изобразим над соответствующей ветвью. У нас 3 эксперимента.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Справа изобразим все 8 исходов. Их вероятности находятся по правилу умножения (т.е. надо перемножить вероятности всех составляющих данной составной ветви). Тогда,

а. Одна выбранная девушка соответствует 3 исходам

б. Этой ситуации соответствует 7 исходов, т.е. все, кроме последнего

в. Это только один исход

Заметим, что сумма вероятностей всех исходов равна 1.

Дерево вероятностей удобно использовать, когда необходимо подсчитать вероятности сложных событий, которые можно представить в виде набора отдельных экспериментов (шагов), и когда количество исходов каждого шага невелико.

1.5 Таблицы вероятностей

Часто для определения вероятностей используют таблицы. Чтобы лучше понять смысл таких таблиц, рассмотрим следующую ситуацию.

Из 400 студентов факультета 150 сдали тест TOEFL. По курсам это составляет 10 из 88, 35 из 79, 45 из 77, 26 из 81 и 34 из 75. Эти данные удобно изобразить в виде таблицы.

Таблица 1

Курсы

1

2

3

4

5

Всего

Сдали тест

10

35

45

26

34

150

Не сдали тест

78

44

32

55

41

250

Всего

88

79

77

81

75

400

Требуется, например, найти вероятности:

а. Случайно встреченный студент сдал тест;

б. Студент со 2-го курса;

в. Студент с 3-го курса и не сдал тест;

г. Студент либо с 1-го курса, либо не сдал тест;

д. Из студентов 2 курса выбран студент, сдавший тест;

е. Из студентов, сдавших тест, выбран студент 2-го курса.

Прежде чем ответить на эти вопросы, введем обозначения:

А - событие, что студент сдал тест;

В = - событие, что студент не сдал тест;

I - студент первого курса;

II - студент второго курса; и т.д.

Т.е. каждую строку и каждый столбец мы отождествим с cоответствующим событием.

Вероятности событий А и В находятся делением значений, стоящих в соответствующих строках в колонках «Всего», на общее количество студентов. Аналогично находятся вероятности событий I, II, III, IV, V.

Значения, стоящие на пересечении строк и столбцов внутри Таблицы 1, характеризуют количество студентов, которые удовлетворяют событию строки и событию столбца, т.е. эти значения характеризуют события, заключающиеся в пересечении событий строки и столбца. Вероятности пересечения находятся аналогичным образом, т.е. делением соответствующие числа на общее количество. Таким образом, таблица объединенных вероятностей будет:

Таблица объединенных вероятностей.

Заметим, что сумма вероятностей в столбце «Всего» равна 1. Аналогично и по строке «Всего».

Составив такую таблицу легко дать ответ на поставленные вопросы.

а.

б.

в.

г. Данное событие есть объединение событий . По формуле суммы вероятностей ;

д. В данном случае сначала произошло событие III, а затем событие А. Для подсчета вероятностей такого события используем формулу нахождения условной вероятности

В нашем случае

е. Здесь тоже подсчитываем вероятность по формуле условной вероятности

1.6 Формула полной вероятности

Пусть имеются события , которые образуют полную группу событий. Событие А может осуществиться только при выполнении одного из событий . Тогда вероятность события А вычисляется по формуле

Эта формула называется формулой полной вероятности.

Пример 8.

По цели произведено три последовательных выстрела. Вероятность попадания при первом выстреле = 0.3, при втором = 0.5, при третьем = 0.8. При одном попадании вероятность поражения цели , при двух попаданиях , при трех попаданиях . Определить вероятность поражения цели при 3-х выстрелах. (здесь А - поражение цели - одно попадание, - два попадания, - три попадания, )

Решение.

Здесь полная группа событий . Эти события несовместимы. У нас неизвестны вероятности событий . Их можно вычислить разными способами.

Тогда ; ;

Вероятность поражения цели найдем по формуле полной вероятности:

1.7 Формула Байеса

По формуле полной вероятности можно подсчитать вероятность события А, которое может произойти, если произойдет какое-либо из событий При этом используются вероятности этих событий . События называются гипотезами и в данном случае считаются известными до того, как событие А произошло (априорными). Возникает вопрос: изменится ли вероятности гипотез после того, как событие А произошло и если да, то как их подсчитать?

Если событие А произошло, то необходимо найти , т.е. условную вероятность гипотез . По формуле умножения вероятностей

Получим

Подставляя в знаменатель значение , найденное по формуле полной вероятности, получим

Последняя формула называется формулой Байеса. По этой формуле можно корректировать априорные вероятности гипотез (т.е. принятые до испытания) по результатам уже произведенного опыта (т.е. получить значения апостериорных вероятностей). Вероятности более точны с практической точки зрения.

Пример 9.

Потребитель получает товар от трёх поставщиков А, В и С. Причём, 50% товара от А, 30% товара от В и 20% от С. Из предыдущего опыта известно, что 8% товара, полученного от А - браковано, 10% товара, полученного от В - браковано, и 5% товара, полученного от С - браковано. В результате проверки единичного товара оказалось, что он бракован. Какова вероятность, что этот товар:

а. Получен от А

б. Получен от В

в. Получен от С

Решение.

Вероятность, что товар получен от А Р(А)=0.5, аналогично Р(В) = 0.3 и Р(С)=0.2. Кроме того, по условию известно, что

Р(брак|A)=0.08

Р(брак|B)=0.1

Р(брак|C)=0.05

Найдем вероятность того, что единичный товар бракован по формуле полной вероятности.

Событие «выбран брак» произошло. Тогда по формуле Байеса:

а.

б.

Удобно вычислить апостериорные вероятности, используя таблицы. Эти таблицы состоят из 5 колонок.

Колонка 1 - названия гипотез ;

Колонка 2 - априорные вероятности гипотез

Колонка 3 - условные вероятности

Колонка 4 - вероятности пересечений

Последние вероятности вычисляются для каждого ряда умножением числа, стоящего во второй колонке, на число, стоящее в третьей колонке.

Сумма значений этой 4-ой колонки равна полной вероятности события А, т.е. Р (А);

Колонка 5 - апостериорные вероятности Эти вероятности для каждого ряда вычисляются делением числа в соответствующем ряду в колонке 4 на сумму чисел колонки 4, т.е. на Р(А).

Пример 10.

По вероятности попадания в дорожную аварию водители подразделяются страховой компанией на 3 группы - низкая, средняя, высокая. Среди застрахованных водители этих групп составили 25%, 60% и 15% соответственно. Вероятность, что водитель из низкой группы попадет в аварию в течение года равна 0.04, из средней группы - 0.10, из высокой - 0.26. Если водитель Иванов не попал в аварию в течение года, какова вероятность того, что он принадлежит:

а. К низкой группе

б. К средней группе

в. К высокой группе

Решение.

Вероятности, что водитель принадлежит к одной из трёх групп, равны соответственно Р(Н)=0.25; Р(С)=0.6; Р(В)=0.15.

Кроме того, известно, что Р(нет аварии|Н)=0.96, Р(нет аварии|С)=0.9, Р(нет аварии|В)=0.74

Для определения искомых вероятностей нам надо найти:

а. Р(Н | нет аварии)

б. Р(С | нет аварии)

в. Р(В | нет аварии)

Применим табличный способ.

Гипотезы Bi

Вероятности гипотез P(Bi)

Условные вероятности P(нет ав. | Bi)

Вероятности пересечений P(нет ав. Bi)

Вероятности после опыта P(Bi | нет ав.)

Низкая

Средняя

Высокая

0.25

0.6

0.15

0.96

0.9

0.76

0.25·0.96=0.24

0.54

0.114

P(нет аварии)=0.894

0.24:0.894=0.27

0.60

0.13

Таким образом, если в течение года водитель Иванов не совершил аварии, то вероятность, что он из низкой группы - 0.27 средней группы - 0.60, из высшей - 0.13.

II. ДИСКРЕТНОЕ РАСПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ

2.1 Случайные величины

Если исходы могут быть количественно измерены, то представление этих исходов и их вероятностей удобно анализировать, используя случайные величины.

Переменная величина x, принимающая в результате испытания одно из возможных значений x1, x2, …, xn, называется дискретной случайной величиной, если каждому значению xk соответствует определённая вероятность Pk того, что переменная величина x принимает значение xk.

Из определения следует, что случайная величина - это функция, которая связывает значения случайной величины с вероятностью их получения.

Примерами случайных величин могут служить:

a) При бросании игральной кости может появиться любой результат от 1 до 6. Вероятность появления любого результата известна. Значит количество очков - случайная величина.

b) На экзамене можно получить оценки 2, 3, 4, 5. Вероятности получения этих оценок неодинаковы, но их можно оценить, например, с помощью субъективного подхода. Значит оценка на экзамене - случайная величина.

c) Количество телефонных звонков в течение определённого промежутка времени. Вероятности конкретного количества в этом случае можно найти, но как, об этом будет сказано позже.

Функциональная зависимость вероятности Pk от xk называется законом распределения вероятностей дискретной случайной величины x.

Закон распределения вероятностей может быть задан таблично, графически или в виде формулы, т. е. теми же способами, что и обычная функция.

То, что случайная величина x примет в результате испытания одно из всех возможных значений x1, x2, …, xn, есть достоверное событие, и поэтому должно выполняться условие:

P1+P2+…+Pn=1

Значение случайной величины xi, имеющее наибольшую вероятность, называется модой.

Замечание: Вообще-то количество возможных значений случайной величины может быть бесконечным. Такие случаи рассматриваться не будут.

Пример 11. Рассматривается эксперимент, состоящий в трёхкратном подбрасывании монеты. Случайная величина - количество выпадений герба. Найти закон распределения вероятностей этой случайной величины.

Решение. Возможные значения в данном случае 0, 1, 2, 3. Найдём вероятности с помощью дерева вероятностей.

Вероятность, что не будет ни одного орла:

P(x=0)=0.125

Аналогично найдём:

P(x=1)=0.375

P(x=2)=0.375

P(x=3)=0.125

Закон распределения будет

Значения x

0

1

2

3

Вероятности

0.125

0.375

0.375

0.125

Здесь 2 моды x=1 и x=2.

2.2 Математическое ожидание

Пусть задан закон распределения дискретной случайной величины, т. е. для каждого значения случайной величины xk известны вероятности этих значений P(x=xk).

Математическим ожиданием случайной величины x называется число, равное сумме произведений значений xk на вероятности P(x=xk)

Математическое ожидание будем обозначать через M[x] (или E(x)). Тогда, согласно определению:

M[x]=x1·P(x=x1)+x2·P(x=x2)+…+xn·P(x=xn).

Математическое ожидание имеет тот же смысл, что и среднее значение, т. е. является аналогом центра распределения и характеризует наиболее типичное значение случайной величины, около которого с обеих сторон концентрируются все возможные значения. Обратим внимание, что математическое ожидание часто не совпадает ни с одним из xk.

Пример 12. Пусть случайная величина x может принимать значения 0, 1, 2, 3, 4. Вероятности этих значений определяются по формуле P(x=xk)=. Найти математическое ожидание x.

Решение. По формуле нахождения математического ожидания получим:

M[x]=0·+1·+2·+3·+4·=0+=3.

Пример 13. Количество продаж автомобилей в день и вероятности этих количеств показано следующей таблицей

Количество

0

1

2

3

4

5

Вероятности

0.1

0.15

0.3

0.2

0.15

0.1

Найти среднее количество проданных в день автомобилей.

Решение. Количество проданных в день автомобилей - это случайная величина. Среднее случайной величины есть её математическое ожидание. Тогда

M[x]=0·0.1+1·0.15+2·0.3+3·0.2+4·0.15+5·0.1=2.45

Смысл математического ожидания в этом примере можно интерпретировать с практической точки зрения. Например, мы можем оценить доход в будущем месяце, квартале, году. Если доход от одной машины равен 200 000 руб., то ожидаемый доход в будущем месяце

200 000·2,45·30=14 700 000 руб.

В будущем квартале

200 000·2.45·90=44 100 000 руб.

В будущем году

200 000·2.45·365=178 850 000 руб.

Следует обратить внимание на то, чем больше будущий промежуток времени, тем более близок ожидаемый доход к реальному.

2.3 Дисперсия и стандартное отклонение

Возможные значения случайной величины есть такие числа, которые в ту или иную сторону отклонены от математического ожидания. Естественно величины отклонений различны.

Числовой характеристикой разброса значений случайной величины является дисперсия. Дисперсию будем обозначать D[x] или д2.

Дисперсией случайной величины x называется математическое ожидание квадрата разности случайной величины x и её математического ожидания

D[x]=M[(x-M[x])2], или

D[x]=(x1-M[x])2·P(x=x1)+(x2-M[x])2·P(x=x2)+…+(xn-M[x])2·P(x=xn)

Если математическое ожидание можно рассматривать как прогнозную величину, то дисперсия будет отражать степень риска или надёжности прогноза: чем меньше дисперсия, тем надёжнее прогноз.

Пример 14.Имеется возможность вложить определённую сумму в один из 2-х проектов. Прибыль от вложения будет зависеть от будущего состояния рынка. На рынке может быть спад, рынок может быть стабильным или на рынке может быть подъём. Эксперты определили, что вероятность спада 0.2, вероятность стабильности 0.5, вероятность подъёма 0.3. Пусть x и y - прибыль от инвестиции в проект 1 и проект 2 соответственно. Рассчитанные величины прибылей в зависимости от будущего состояния приведена в таблице:

Таблица

Состояние рынка

Проект 1

Проект 2

x

P(x)

y

P(y)

Спад

50

0.2

0

0.2

Стабильный

150

0.5

100

0.5

Подъём

200

0.3

300

0.3

a) Какая инвестиция более привлекательна с точки зрения максимума ожидаемой прибыли?

b) Какое вложение предпочтительнее с точки зрения минимизации риска?

Решение. a) Ожидаемую прибыль мы найдём, вычислив математические ожидания

M[x]=50·0.2+150·0.5+200·0.3=145

M[y]=0·0.2+100·0.5+300·0.3=140.

Следовательно, первый вариант более предпочтителен.

b) Мерой риска является дисперсия. Найдём дисперсии.

D[x]=(50-145)2·0.2+(150-145)2+(200-145)2·0.3=2725

D[y]=(0-140)2·0.2+(100-140)2·0.5+(300-145)2·0.3=11927.5.

Т.к. D [y] > D[x], то менее рискованный вариант вложения в проект 1.

Дисперсия случайной величины имеет размерность квадрата, т.е. если случайная величина имеет, например, размерность «рубль», то дисперсия имеет размерность «рубль в квадрате», что не имеет никакого смысла. Поэтому вместо дисперсии часто используют в качестве характеристики разброса стандартное или среднеквадратическое отклонение, которое равно квадратному корню из дисперсии

Если дисперсия или стандартное отклонение нулевые, то случайная величина перестает быть случайной, т.к. с вероятностью 1 она будет в каждом опыте принимать одно и то же значение. Заметим, что в этом случае математическое ожидание будет равно этому постоянному значению.

2.4 Биномиальный закон распределения

Дискретная случайная величина имеет биномиальный закон распределения, если выполняются следующие условия:

1. Имеет место эксперимент, состоящий из n последовательных идентичных опытов (испытаний).

2. В каждом опыте может появиться только 2 исхода, которые называются «успех» и «неуспех».

3. Вероятность появления «успеха» в каждом испытании одна и та же (а следовательно и «неуспеха»).

4. Каждый опыт независим от других.

Нас интересует как найти вероятность определенного количества «успехов» в n испытаниях. Пусть состоялось n испытаний. Тогда количество «успехов» есть случайная величина, которая может принимать значения 0, 1, …, n. Обозначим случайную величину через x. Вероятность того, что в n испытаниях будет x успехов в случае, когда случайная величина распределена по биноминальному закону, выражается формулой

P(x)=Cxn px qn-x,

где - Cxn - число сочетаний из n элементов по х,

- p - вероятность «успеха» (она постоянна в каждом испытании),

- q=1-p - вероятность «неуспеха».

Биномиальный закон распределения имеет много приложений. Например, монета подбрасывается 5 раз. Какова вероятность выпадения 3 орлов? Другой пример. Страховой агент планирует посетить 15 семей. Из прошлого вероятность, что семья застрахуется, равна 0.15. Какова вероятность, что застрахуется 3 семьи?

В каждом из этих примеров:

1. Имеется n опытов: в первом 5, во втором 15.

2. Нас интересует «успех»: в первом «орел», во втором - застраховался.

3. Вероятности успехов одни и те же: в первом р=0.5, во втором р=0.1.

4. Все испытания независимы.

Подсчитаем вероятность выпадения 3-х орлов.

Рассмотрим другой случай. Вытаскиваем из колоды 5 карт. Какова вероятность, что будет вытащено 4 туза? Что же у нас есть?

1. Эксперимент из 5 испытаний.

2. В каждом испытании может появится «успех (вытащили туза и «неуспех (туза не вытащили).

3. Вероятности успехов разные в каждом испытании.

Действительно, в первом испытании вероятность, что будет вытащен туз . Во втором испытании вероятность вытаскивания туза будет либо (если при первом вытаскивании нет туза), либо (если при первом вытаскивании вытащили туз). Значит в данном случае случайная величина х (количество тузов) не распределена по биномиальному закону. Но если бы после каждого вытаскивания карта обратно возвращалась в колоду, то биномиальный закон имел бы в этом случае место.

Пользование формулой вероятности х успехов в n испытаниях в случае биномиального закона распределения иногда приводит к трудностям вычислительного характера. Поэтому рекомендует пользоваться специальными таблицами биномиального распределения, которые приведены в современных учебниках или находить вероятность в Excel.

Пример 15. Социологический опрос показал, что 70% жителей города поддерживают идею сноса недостроенного дома на центральной площади. Выбрана случайно одна семья, состоящая из 4 человек. Какова вероятность, что не более двух членов семьи поддерживают идею сноса здания?

Решение. Прежде всего, проверим, имеет ли место в этом случае биномиальный закон.

1. Имеется 4 испытания.

2. Имеется 2 исхода: «успех» (кто за снос) и «неуспех» (кто против).

3. Вероятность успеха р=0.3.

4. Испытания независимы, т.к. каждый опрашивался отдельно и независимо.

Итак, условия биномиального закона выполняются. Пусть х - случайная величина, выражающая количество людей, кто за снос. Нас интересует х?2, т.е. х=0, х=1, х=2.

Если необходимо находить вероятности событий х>k (т.е. в n испытаниях число «успехов» больше k), то часто удобно пользоваться формулой

Р(x>k)=1-P(x?k)

Например, в 20 испытаниях надо найти вероятность, что число «успехов» больше 4. Если бы вероятность подсчитывалась бы напрямую, то надо было находить 16 слагаемых P(x>4)=P(x=5)+P(x=6)+…+P(x=20), тогда как по последней формуле только 5.

P(x>4)=1-P(x?4)=1-(P(x=0)+P(x=1)+…+P(x=4))

Конечно же, можно пользоваться этой формулой в обратном случае, т.е.

P(x<k)=1-P(x?k)

Для дискретной случайной величины, распределенной по биномиальному закону, математическое ожидание и дисперсия находятся по формулам:

Пример 16. В среднем из каждых 10 семей одна не платит за жилищные услуги. В доме 20 квартир. Найти вероятность, что не более чем одна семья не платит за квартиру, а также найти математическое ожидание и стандартное отклонение.

Решение. Если обозначим через х - число семей, не оплачивающих за услуги ЖКХ, то можно убедиться, что х - распределена по биномиальному закону с р=0.1.

P(x?1)=P(x=0)+P(x=1)=0.392

Математическое ожидание:

Это означает, что в среднем из 20 квартир 2 квартиры являются неплательщиками

Следовательно, стандартное отклонение:

квартиры

Замечание. В таблицах биномиального распределения присутствуют значения для р?0.5. Если р (вероятность «успеха») больше 0.5, то в этом случае «успех» заменяется на «неуспех» и тогда вероятность нового «успеха» будет меньше 0.5 и можно пользоваться таблицами, т.к. вероятность n-x «неуспехов» равна вероятности х «успехов». Например, если за кандидата А собирается проголосовать 70% избирателей и необходимо узнать вероятность, что в группе из 50 человек за кандидата А проголосует 30 человек, то в этом случае за «успех» следует брать число людей, не собирающихся голосовать за кандидата А, и вероятность «успеха» будет равной 0.3. в этом случае надо определить вероятность 20 «успехов», которая будет равна вероятности, что 30 проголосуют за кандидата А.

2.5 Гипергеометрическое распределение

Другим видом распределения случайной дискретной величины является гипергеометрическое распределение, которое идейно близко к биномиальному.

В гипергеометрическом законе распределения известен размер генеральной совокупности (т.е. количество элементов) N. Обозначим через r - число элементов, которые благоприятны «успеху», тогда N-r - число элементов, которые благоприятны «неуспеху». Общее количество испытаний n (n<N), в каждом из которых может появиться «успех» или «неуспех». Пусть х - количество «успехов» в n испытаниях. Тогда вероятность х «успехов» определяется по формуле

Как видим, в гипергеометрическом законе:

1. Имеется n испытаний.

2. Размер генеральной совокупности N. В ней имеется r элементов «успеха» и N-r элементов «неуспеха».

3. Имеется только два исхода в каждом испытании: «успех» и «неуспех», причем испытания являются безвозвратными, т.е. если какой-то элемент выбран (соответствующий «успеху» или «неуспеху»), то он обратно не возвращается.

Основное отличие гипергеометрического закона распределения от биномиального заключается в том, что вероятность «успеха» меняется от испытания к испытанию, а следовательно испытания зависимы. Это происходит потому, что задан размер генеральной совокупности.

Вернемся к примеру с вытаскиванием 5 карт из колоды. Как уже было отмечено выше, вероятность появления туза при каждом испытании менялась. Проверим, подходит ли данный случай к гипергеометрическому закону.

1. Имеется 5 испытаний.

2. Генеральная совокупность состоит из 52 карт (N=52). Количество элементов, благоприятных «успеху» 4 (r=4), количество элементов, благоприятных «неуспеху» 48 (N-r=48).

Налицо гипергеометрический закон. Тогда вероятность, что в результате 5 вытаскиваний будет 4 туза (х=4):

Пример 17. В студенческой группе 25 человек, 13 из которых сдали тест TOEFL, 12 не сдали. Выбираются 10 студентов. Какова вероятность, что среди этих 10 будет не менее 8, которые сдали тест?

Решение. Проверим выполнение условий для гипергеометрического закона. Почему не биномиального, потому что задан размер генеральной совокупности N=25.

1. Имеется n испытаний (n=10). Испытания безвозвратные.

2. В генеральной совокупности 13 элементов благоприятных «успеху» и 25-13=12 благоприятных «неуспеху».

Условия выполняются. Тогда:

В случае больших N вычисление вероятностей гипергеометрического распределения представляет некоторые трудности, поэтому при определенных условиях гипергеометрический закон может быть аппроксимирован (приблизительно заменен) биномиальным. Условием замены гипергеометрического закона биномиальным является условие:

,

т.е. количество испытаний меньше 5% от размера генеральной совокупности. При этом вероятность успеха в биномиальном законе определяется как:

Пример 18. В партии из 500 деталей 50 являются дефектными. Выбираются 10 деталей. Определить вероятность, что среди 10 деталей будет только 1 дефектная.

Решение. В данном случае n/N=10/500=0.02<0.05 и мы вероятность можем найти, используя биномиальный закон. Найдем Р=50/500=0.1. Тогда:

2.6 Распределение Пуассона

Рассмотрим случайную дискретную величину, характеризующую число появлений какого-то события на определенном интервале, причем эти интервалы могут быть как временными, так и пространственными. Например, количество автомобилей, прибывающих на автозаправочную станцию в течение 1 часа или количество аварий на определенном участке дороги.

Если при этом выполняются следующий свойства:

1. Вероятность появления есть одинаковая для любых интервалов одной и той же длины;

2. Появление или непоявление события на определенном интервале не зависит от появления или непоявления на другом интервале,

то дискретная величина, характеризующая количество появлений имеет распределение Пуассона.

Вероятность числа появлений на каком-то интервале в этом случае подсчитывается по формуле:

,

где P(x) - вероятность того, что количество появлений на данном интервале

равно х;

м - среднее значение количества появлений на данном интервале.

Заметим, что х вообще-то неограниченно сверху, т.е. может принимать значения 0, 1, 2, … Распределение Пуассона затабулировано и поэтому рекомендуется находить соответствующие вероятности по таблицам или в Excel.

Пример 19. В среднем на телефон управляющего компанией поступает 3 звонка в течение 5 минут. Какова вероятность, что в течение 5 минут будет: а) два звонка; б) не больше одного звонка?

Решение. Прежде всего убедимся, что в данном случае случайная величина, характеризующая количество звонков в течение 5 минут, имеет закон распределения Пуассона. У нас есть временной интервал (5 минут), вероятности звонков на каждом 5 минутном интервале независимы и одни и те же. Т.к. налицо закон распределения Пуассона, то:

а)

б)

2.7 Математическое ожидание дискретной случайной величины, имеющий закон распределения Пуассона, как и дисперсия равны м

Для пуассоновской случайной величины имеет место следующее свойство. Если промежуток увеличить в k раз, то точно в такое же количество раз увеличится математическое ожидание (среднее значение). А это позволяет вычислить вероятности для промежутков любого размера

Пример 20. В среднем магазин посещает 5 человек за 10 минут. Какова вероятность, что за полчаса магазин посетит 10 человек?

Решение. Налицо закон распределения Пуассона. Известно среднее количество посетителей за 10 минут. Тогда на основании свойства среднее количество посетителей за полчаса будет 3*5=15.

Тогда

Распределение Пуассона служит хорошей аппроксимацией биномиального закона, когда вероятность «успеха» мала, а число испытаний велико. Правило, когда биномиальный закон может быть заменён Пуассоновским:

Р?0,05; n>20; np?7

Такая аппроксимация делается из-за того, что расчёты вероятностей в этом случае по биномиальному закону трудоёмки, а таблицы для таких ситуаций не пригодны. Например, мы хотим найти вероятность трёх «успехов» в 250 испытаниях, если вероятность «успеха» 0.01

Заменяя биномиальное распределение Пуассоновым (а у нас 0.01<0.05; 250>20; 250•0.01=2.5<7), найдём µ=n•p=2.5. Тогда по таблицам Пуассонового распределения получим

Р(х=3)=0.2138

III. Непрерывные случайные величины

вероятность комбинаторика дисперсия распределение

Если в ходе эксперимента все значения случайной величины оказываются на определённом замкнутом промежутке и могут принимать любые значения из данного промежутка, то такая случайная величина называется непрерывной.

Примерами непрерывной случайной величины могут служить сроки службы различных приборов, вес, рост, напряжение в сети и т.д.

Теоретически результат измерения может быть выражен любым действительным числом, взятым из некоторого промежутка, при этом предполагается, что возможна любая точность измерения.

Для характеристики распределения вероятностей непрерывной случайной величины Х используют не вероятность события Х=х, а вероятность события Х<х, где х - некоторое значение. Вероятность того, что Х<х является функцией от х.

F(x)=P(X<x).

Эта функция называется функцией распределения вероятностей или интегральным законом распределения.

Функция распределения вероятностей обладает рядом свойств.

1. F(x)?0, т.к. вероятность не может быть отрицательной;

2. 0?F(x)?1, т.к. вероятность не может быть больше 1.

3. Если , то F()?F(), т.е. F(x) является неубывающей функцией.

4.

5. F(x) является дифференцируемой функцией, т.е. существует

Функция f(x) называется функцией плотности распределения вероятностей непрерывной случайной величины или законом распределения. Функция f(x) не является вероятностью.

Вероятность того, что случайная величина x примет значения из интервала б < x < в находится по формуле

P(б < x < в)=

На практике задаётся функция плотности f(x) и вероятности находятся интегрированием. Вспомним, что определённый интеграл геометрически представляет площадь криволинейной трапеции. Если задана f(x), то можно построить её график (рис 5)

Вероятность P(б < x < в) будет равна площади заштрихованной криволинейной трапеции.

Вероятность того, что непрерывная случайная величина примет конкретное значение равна 0. Действительно,

P(x=a)= P(a < x < a)=

Этот факт называется парадоксом нулевой вероятности. Суть его можно объяснить так. Взят конкретный человек. Вероятность, что вес его равен, например, 70 кг равна нулю. Измерили вес и он оказался равным 70 кг. Из парадокса нулевой вероятности следует, что для непрерывной случайной величины справедливо

P(б < x < в)= P (б ? x ? в).

Правая часть отличается от левой тем, что добавлены вероятности P(x= б) и P(x= в), которые равны нулю.

Отметим, что для функции плотности вероятности выполняются свойства:

1. Плотность распределения есть неотрицательная функция, т.е. f(x)?0, отсюда её график не может лежать ниже оси Ох.

2.

Геометрически это означает, что площадь, ограниченная кривой плотности распределения и осью Ох, равна единице.

3. Если непрерывная случайная величина может принимать только значения из конечного промежутка [a,b], то

Количественные характеристики непрерывной случайной величины можно найти с помощью соответствующих интегралов. Так математическое ожидание (среднее значение)

А дисперсия

Если непрерывная случайная величина распределена на конечном промежутке [a,b], то формулы будут

3.1 Равномерное распределение

Пусть непрерывная случайная величина распределена на некотором интервале (a, b), причём значения случайной величины внутри этого интервала равновероятны. Такое распределение называется равномерным.

Пусть случайная величина равномерно распределена на (a, в). Запишем для неё функцию плотности вероятности

c, x Є (а, b)

(x) = о, для x ? a и x ? b,

где с - постоянная величина, которую определим из свойств функции (x)

?

Из ? (x)dx = 1,

-?

найдём

? b

? (x)dx = ? (x)dx = с • (b-а) = 1

-? а

Отсюда

с =

Заметим, что случайная величина может иметь равномерное распределение только на промежутках конечной длины, т.к. в противном случае величина “с” не определяется.

Найдём математическое ожидание и дисперсию непрерывной случайной величины, распределённой равномерно

a b

M[x] = ? x• (x)dx = ? xdx =

b а

Соответственно стандартное отклонение

Пусть (c,d) какой-то промежуток, находящийся внутри промежутка (а, b), на котором распределена равномерно случайная величина. Вероятность, что случайная величина распределена на (с,d) подсчитывается по формуле

d d

P (c < x < d) = ? (x)dx = ? dx =

c c

Вероятности P (x < a) и P (x > b) равны нулю.

Пример 21. Время прибытия на работу сотрудников в офис равномерно распределено в промежутке от 8 часов до 8 часов 30 минут. Найти вероятности:

a) Сотрудник прибыл между 8 часов 20 минут и 8 часов 25 минут.

b) Сотрудник прибыл в 8 часов 23 мин.

c) Среднее время прибытия всех сотрудников.

Решение: Прежде всего, найдём функцию плотности вероятностей в этом случае. Пусть x-время прибытия

мин. для 8 < x <8 ч.30мин.

(x) 0 для x<8часов и x>8час.30мин.

По вышеприведенным формулам

a) P (8ч.20м. < x <8ч.25м.) =

b) P ( x = 8ч.23м.) = 0 по парадоксу нулевой вероятности.

c) Среднее время прибытия - это математическое ожидание.

M[x] = = 8час.15мин.

3.2 Экспоненциальное распределение вероятностей

Для описания таких ситуаций, как время между прибытиями покупателей в торговый центр, время загрузки грузового транспортного средства, время ожидания в очереди, расстояние между выбоинами на дороге используют непрерывную случайную величину, которая имеет экспоненциальное распределение.

Функция плотности вероятности экспоненциального распределения имеет вид

для х?0, м>0

Как пример такого распределения рассмотрим время загрузки вагона. Если среднее время загрузки вагона составляет 20 минут (м=20), то время загрузки конкретного вагона есть случайная величина, у которой функция плотности вероятности

(t) = ?

Вероятности того, что случайная величина будет меньше определённого значения x0, находится по формуле

а вероятность, что случайная величина будет больше x0

Смысл м нами был уже определён - это среднее случайной величины. Покажем это:

Пример 22 Среднее время обслуживания клиентов в отделении сбербанка составляет 4 минуты. Каков процент клиентов, которые обслуживаются менее чем за 3 минуты?

Решение Нам необходимо найти вероятность, что клиент будет обслужен менее чем за 3 минуты. Время обслуживания - это непрерывная случайная величина, распределённая по экспоненциальному закону. Найдём функцию плотности вероятности:

(x) = ?

Тогда

3

P (x < 3) = ??dx = 1 - ? = 1 - 0,4724 = 0,5276

0

(значение ?-x находится по таблицам или на компьютере)

Следовательно 52,76% клиентов обслуживаются менее чем за 3 минуты.

Экспоненциальное распределение идейно имеет общие черты с распределением Пуассона. Распределение Пуассона позволяет описывать число появлений какого-то события на заданном интервале, экспоненциальное распределение обеспечивает описание длин интервалов между появлениями событий. Для иллюстрации этого соотношения рассмотрим, например, следующую ситуацию.

В среднем в ателье обслуживается 5 клиентов в течение часа. Тогда вероятность, что x0 клиентов будет обслужено в течение часа, найдем с помощью функции Пуассонового закона распределения вероятности:

Т.к за час в среднем обслуживается 5 клиентов, то среднее время между двумя обслуживаниями равно 60:5=12 минут. Тогда вероятности, что время от начала одного обслуживания до начала следующего обслуживания будем определять по экспоненциальному закону с функцией плотности

3.3 Нормальный закон распределения

Многие непрерывные случайные величины, такие как вес, рост, оценки по тестам TOEFL, ошибки при измерениях и т.д. распределены по нормальному закону. Нормальный закон играет важную (если не важнейшую) роль в статистике, где показывается, что сумма большого количества независимых случайных величин распределяется по нормальному закону или близкому к нему. Кроме того, нормальный закон распределения является предельным законом, к которому приближаются другие законы распределения при определенных условиях, часто встречающихся на практике.

Нормальное вероятностное распределение - это симметричное относительно среднего распределение. Функция плотности вероятности для нормального закона имеет вид

,

где

- среднее значение случайной величины;

- стандартное отклонение

Нормальный закон обладает следующими свойствами:

1. Существует множество различных нормальных распределений, каждое из которых определяется конкретными значениями и .

2. Кривая функции нормального распределения имеет симметричную колоколообразную форму (рис.6), которую будем называть кривой нормального распределения

3. Наивысшая точка на кривой нормального распределения соответствует точке средней случайной величины.

4. Среднее случайной величины может принимать любые числовые значения.

5. Стандартное отклонение определяет ширину кривой. Большие значения стандартного отклонения соответствует большей ширине (рис.7)

6.Общая площадь под кривой нормального распределения равна 1 (как и для любого непрерывного распределения).

7.Вероятности для нормально распределенной случайной величины численно равны площадям соответствующих областей (рис.8)

8.Для нормального закона справедливо:

а). Приблизительно 68,2% всех значений случайной величины расположены в промежутке плюс-минус одно стандартное отклонение от среднего.

б). Приблизительно 95,4% всех значений случайной величины расположено в промежутке плюс-минус два стандартных отклонения от среднего.

в). Приблизительно 99,7% всех значений случайной величины расположено в промежутке плюс-минус три стандартных отклонения от среднего.

Вычисление вероятностей того, что случайная величина находится в промежутке по формуле

затруднительно, т.к интеграл в правой части точно не берется. Поэтому на практике данный конкретный нормальный закон приводят к стандартному виду.


Подобные документы

  • Основные понятия комбинаторики. Определение теории вероятности. Понятие математического ожидания и дисперсии. Основные элементы математической статистики. Условная вероятность как вероятность одного события при условии, что другое событие уже произошло.

    реферат [144,6 K], добавлен 25.11.2013

  • Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.

    контрольная работа [263,8 K], добавлен 13.01.2014

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Проверка выполнимости теоремы Бернулли на примере надёжности электрической схемы. Примеры решения задач с игральными костями, выигрыша в лотерею, вероятности брака и др. Биноминальный закон распределения: решение математического ожидания и дисперсии.

    контрольная работа [74,4 K], добавлен 31.05.2010

  • Определение вероятности наступления события, используя формулу Бернулли. Вычисление математического ожидания и дисперсии величины. Расчет и построение графика функции распределения. Построение графика случайной величины, определение плотности вероятности.

    контрольная работа [390,7 K], добавлен 29.05.2014

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Определение вероятности попадания в мишень по формуле Бернулли. Закон и многоугольник распределения случайной величины. Построение функции распределения, графика. Математическое ожидание, дисперсия, среднее квадратическое отклонение случайной величины.

    контрольная работа [86,4 K], добавлен 26.02.2012

  • Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.

    контрольная работа [725,5 K], добавлен 12.02.2010

  • Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.

    контрольная работа [59,7 K], добавлен 26.07.2010

  • Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.

    контрольная работа [38,5 K], добавлен 25.03.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.