Основные понятия теории вероятностей

Предмет, определение, понятия и основные теоремы теории вероятности. Формулы комбинаторики, Байеса, Бернулли и полной вероятности. Классификация событий и операции над ними. Определение вероятности случайного события и повторных независимых испытаний.

Рубрика Математика
Вид контрольная работа
Язык русский
Дата добавления 01.04.2016
Размер файла 334,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

1. Предмет теории вероятности

Наблюдаемые нами события (явления) можно подразделить на следующие три вида: достоверные, невозможные и случайные.

Достоверным называют событие, которое обязательно произойдет, если будет осуществлена определенная совокупность условий S . Например, если в сосуде содержится вода при нормальном атмосферном давлении и температуре 20°С, то событие «вода в сосуде находится в жидком состоянии» есть достоверное. В этом примере заданные атмосферное давление и температура воды составляют совокупность условий ,S .

Невозможным называют событие, которое заведомо не произойдет, если будет осуществлена совокупность условий S. Например, событие «вода в сосуде находится в твердом состоянии» заведомо не произойдет, если будет осуществлена совокупность условий предыдущего примера.

Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Например, если брошена монета, то она может упасть так, что сверху будет либо герб, либо надпись. Поэтому событие «при бросании монеты выпал герб» -- случайное. Каждое случайное событие, в частности выпадение герба, есть следствие действия очень многих случайных причин (в нашем примере: силы, с которой брошена монета, формы монеты и многих других).

Классическое определение вероятности.

Вероятность -- одно из основных понятий теории вероятностей. Существует несколько определений этого понятия. Приведем определение, которое называют классическим. Далее укажем слабые стороны этого определения и приведем другие , определения, позволяющие преодолеть недостатки классического определения.

Рассмотрим пример. Пусть в урне содержится б одинаковых, тщательно перемешанных шаров, причем 2 из них -- красные, 3 -- синие и 1 -- белый. Очевидно, возможность вынуть наудачу из урны цветной (т.е. красный или синий) шар больше, чем возможность извлечь белый шар. Можно ли охарактеризовать эту возможность числом? Оказывается, можно. Это число и называют вероятностью события (появления цветного шара). Таким образом, вероятность есть число, характеризующее степень возможности появления события.

Одним из важнейших основных понятий теории вероятностей является понятие о случайной величине.

Случайной величиной называется величина, которая в результате опыта может принять то или иное значение, причем неизвестно заранее, какое именно.

Примеры случайных величин:

1) число попаданий при трех выстрелах.

Во всех трех приведенных примерах случайные величины могут принимать отдельные, изолированные значения, которые можно заранее перечислить.

Существуют случайные величины другого типа, например:

1) абсцисса точки попадания при выстреле;

2) ошибка взвешивания тела на аналитических весах;

3) скорость летательного аппарата в момент выхода на заданную высоту;

4) вес наугад взятого зерна пшеницы.

Возможные значения таких случайных величин не отделены друг от друга; они непрерывно заполняют некоторый промежуток, который иногда имеет резко выраженные границы, а чаще - границы неопределенные, расплывчатые.

Такие случайные величины, возможные значения которых непрерывно заполняют некоторый промежуток, называются непрерывными случайными величинами.

2) Комбинаторика - это раздел математики, в котором изучаются вопросы о том, сколько различных комбинаций, подчиненных тем или иным условиям, можно составить из заданных объектов. Основы комбинаторики очень важны для оценки вероятностей случайных событий, т.к. именно они позволяют подсчитать принципиальновозможное количество различных вариантов развития событий.

При решении задач комбинаторики используют следующие правила:

Правило суммы. Если некоторый объект А может быть выбран из совокупности объектов m способами, а другой объект В может быть выбран n способами, то выбрать либо А, либо В можно m + n способами.

Правило произведения. Если объект А можно выбрать из совокупности объектов m способами и после каждого такого выбора объект В можно выбрать n способами, то пара объектов (А, В) в указанном порядке может быть выбрана m*n способами.

Пример. Наряд студентки состоит из блузки, юбки и туфель. Девушка имеет в своем гардеробе четыре блузки, пять юбок и трое туфель. Сколько нарядов может иметь студентка?

Решение. Пусть сначала студентка выбирает блузку. Этот выбор может быть совершен четырьмя способами, так как студентка имеет четыре блузки, затем пятью способами произойдет выбор юбки и тремя способами выбор туфель. По принципу умножения получается 4*5*3=60 нарядов (комбинаций).

2. Основная формула комбинаторики

Пусть имеется k групп элементов, причем i-я группа состоит из ni элементов. Выберем по одному элементу из каждой группы. Тогда общее число N способов, которыми можно произвести такой выбор, определяется соотношением N=n1*n2*n3*...*nk.

Пример 1. Поясним это правило на простом примере. Пусть имеется две группы элементов, причем первая группа состоит из n1 элементов, а вторая - из n2 элементов. Сколько различных пар элементов можно составить из этих двух групп, таким образом, чтобы в паре было по одному элементу от каждой группы? Допустим, мы взяли первый элемент из первой группы и, не меняя его, перебрали все возможные пары, меняя только элементы из второй группы. Таких пар для этого элемента можно составить n2. Затем мы берем второй элемент из первой группы и также составляем для него все возможные пары. Таких пар тоже будет n2. Так как в первой группе всего n1 элемент, всего возможных вариантов будет n1*n2.

В том случае, когда все группы состоят из одинакового числа элементов, т.е. n1=n2=...nk=n можно считать, что каждый выбор производится из одной и той же группы, причем элемент после выбора снова возвращается в группу. Тогда число всех способов выбора равно nk. Такой способ выбора в комбинаторики носит название выборки с возвращением.

3. Число размещений из n элементов по m

Определение 1. Размещением из n элементов по m в комбинаторике называется любой упорядоченный набор из m различных элементов, выбранных из генеральной совокупности в n элементов.

Пример 4. Различными размещениями из трех элементов {1, 2, 3} по два будут наборы (1, 2), (2, 1), (1, 3), (3, 1), (2, 3),(3, 2). Размещения могут отличаться друг от друга как элементами, так и их порядком.

Число размещений в комбинаторике обозначается Anm и вычисляется по формуле:

Определение 2. Сочетанием из n элементов по m в комбинаторике называется любой неупорядоченный набор из m различных элементов, выбранных из генеральной совокупности в n элементов.

Пример 6. Для множества {1, 2, 3}сочетаниями являются {1, 2}, {1, 3}, {2, 3}.

Число сочетаний из n элементов по m

Число сочетаний обозначается Cnm и вычисляется по формуле:

Пример 7. Сколькими способами читатель может выбрать две книжки из шести имеющихся?

Решение: Число способов равно числу сочетаний из шести книжек по две, т.е. равно:

Перестановки из n элементов

Определение 3. Перестановкой из n элементов называется любой упорядоченный набор этих элементов.

Пример 7a. Всевозможными перестановками множества, состоящего из трех элементов {1, 2, 3} являются: (1, 2, 3), (1, 3, 2), (2, 3, 1), (2, 1, 3), (3, 2, 1), (3, 1, 2).

Число различных перестановок из n элементов обозначается Pn и вычисляется по формуле Pn=n!.

Пример 8. Сколькими способами семь книг разных авторов можно расставить на полке в один ряд?

Различия : Решение:эта задача о числе перестановок семи разных книг. Имеется P7=7!=1*2*3*4*5*6*7=5040 способов осуществить расстановку книг.

В этом примере нас не интересует порядок фамилий в списке комитета. Если в результате в его составе окажутся одни и те же люди, то по смыслу для нас это один и тот же вариант. Поэтому мы можем воспользоваться формулой для подсчета числа сочетаний из 20 элементов по 5.

Иначе будут обстоять дела, если каждый член комитета изначально отвечает за определенное направление работы. Тогда при одном и том же списочном составе комитета, внутри него возможно 5! вариантовперестановок, которые имеют значение. Количество разных (и по составу, и по сфере ответственности) вариантов определяется в этом случае числом размещений из 20 элементов по 5.

4. Основные понятия теории вероятностей

Теория вероятностей объясняет и исследует различные закономерности, которым подчинены случайные события и случайные величины. Событием является любой факт, который можно констатировать в результате наблюдения или опыта. Наблюдением или опытом называют реализацию определенных условий, в которых событие может состояться.

Опыт означает, что упомянутый комплекс обстоятельств создан сознательно. В ходе наблюдения сам наблюдающий комплекс этих условий не создает и не влияет на него. Его создают или силы природы или другие люди.

Все события, за которыми люди наблюдают или сами создают их, делятся на:

· достоверные события;

· невозможные события;

· случайные события.

Достоверные события наступают всегда, когда создан определенный комплекс обстоятельств. Например, если работаем, то получаем за это вознаграждение, если сдали экзамены и выдержали конкурс, то достоверно можем рассчитывать на то, что включены в число студентов. Достоверные события можно наблюдать в физике и химии. В экономике достоверные события связаны с существующим общественным устройством и законодательством. Например, если мы вложили деньги в банк на депозит и выразили желание в определенный срок их получить, то деньги получим. На это можно рассчитывать как на достоверное событие.

Невозможные события определенно не наступают, если создался определенный комплекс условий. Например, вода не замерзает, если температура составляет плюс 15 градусов по Цельсию, производство не ведется без электроэнергии.

Случайные события при реализации определенного комплекса условий могут наступить и могут не наступить. Например, если мы один раз подбрасываем монету, герб может выпасть, а может не выпасть, по лотерейному билету можно выиграть, а можно не выиграть, произведенное изделие может быть годным, а может быть бракованным. Появление бракованного изделия является случайным событием, более редким, чем производство годных изделий.

Случайные события обычно обозначают большими буквами латинского алфавита A, B, C и т.д.

Случайные события могут быть:

· несовместными;

· совместными.

События A, B, C … называют несовместными, если в результате одного испытания может наступить одно из этих событий, но невозможно наступление двух или более событий.

Если наступление одного случайного события не исключает наступление другого события, то такие события называют совместными. Например, если с ленты конвейера снимают очередную деталь и событие А означает «деталь соответствует стандарту», а событие B означает «деталь не соответствует стандарту», то A и B - несовместные события. Если событие C означает «взята деталь II сорта», то это событие совместно с событием A, но несовместно с событием B.

Если в каждом наблюдении (испытании) должно произойти одно и только одно из несовместных случайных событий, то эти события составляют полное множество (систему) событий.

Достоверным событием является наступление хотя бы одного события из полного множества событий.

Если события, образующие полное множество событий, попарно несовместны, то в результате наблюдения может наступить только одно из этих событий. Например, студент должен решить две задачи контрольной работы. Определенно произойдет одно и только одно из следующих событий:

· будет решена первая задача и не будет решена вторая задача;

· будет решена вторая задача и не будет решена первая задача;

· будут решены обе задачи;

· не будет решена ни одна из задач.

Эти события образуют полное множество несовместных событий.

Если полное множество событий состоит только из двух несовместных событий, то их называют взаимно противоположными или альтернативными событиями.

Событие, противоположное событию , обозначают . Например, в случае одного подбрасывания монеты может выпасть номинал () или герб (). События называют равновозможными, если ни у одного из них нет объективных преимуществ. Такие события также составляют полное множество событий. Это значит, что в результате наблюдения или испытания определенно должно наступить по меньшей мере одно из равновозможных событий.

Например, полную группу событий образуют выпадение номинала и герба при одном подбрасывании монеты, наличие на одной печатной странице текста 0, 1, 2, 3 и более 3 ошибок.

5. Классификация событий

Классификация событий на возможные, вероятные и случайные. Понятия простого и сложного элементарного события. Операции над событиями. Классическое определение вероятности случайного события и её свойства. Элементы комбинаторики в теории вероятностей. Геометрическая вероятность. Аксиомы теории вероятностей.

Одним из основных понятий теории вероятностей является понятие события. Под событием понимают любой факт, который может произойти в результате опыта или испытания. Под опытом, или испытанием, понимается осуществление определённого комплекса условий.

Примеры событий:

- попадание в цель при выстреле из орудия (опыт -- произведение выстрела; событие -- попадание в цель);

- выпадение двух гербов при трёхкратном бросании монеты (опыт -- трёхкратное бросание монеты; событие -- выпадение двух гербов);

- появление ошибки измерения в заданных пределах при измерении дальности до цели (опыт -- измерение дальности; событие -- ошибка измерения).

Можно привести бесчисленное множество подобных примеров. События обозначаются заглавными буквами латинского алфавита A,B,C и т.д.

Различают события совместные и несовместные. События называются совместными, если наступление одного из них не исключает наступления другого. В противном случае события называются несовместными. Например, подбрасываются две игральные кости. Событие AA -- выпадание трех очков на первой игральной кости, событие B -- выпадание трех очков на второй кости. A и В -- совместные события.

Пусть в магазин поступила партия обуви одного фасона и размера, но разного цвета. Событие A -- наудачу взятая коробка окажется с обувью черного цвета, событие B -- коробка окажется с обувью коричневого цвета, A и B -- несовместные события.

Событие называется достоверным, если оно обязательно произойдет в условиях данного опыта.

Событие называется невозможным, если оно не может произойти в условиях данного опыта. Например, событие, заключающееся в том, что из партии стандартных деталей будет взята стандартная деталь, является достоверным, а нестандартная -- невозможным.

Событие называется возможным, или случайным, если в результате опыта оно может появиться, но может и не появиться. Примером случайного события может служить выявление дефектов изделия при контроле партии готовой продукции, несоответствие размера обрабатываемого изделия заданному, отказ одного из звеньев автоматизированной системы управления.

События называются равновозможными, если по условиям испытания ни одно из этих событий не является объективно более возможным, чем другие. Например, пусть магазину поставляют электролампочки (причем в равных количествах) несколько заводов-изготовителей. События, состоящие в покупке лампочки любого из этих заводов, равновозможны.

Важным понятием является полная группа событий. Несколько событий в данном опыте образуют полную группу, если в результате опыта обязательно появится хотя бы одно из них. Например, в урне находится десять шаров, из них шесть шаров красных, четыре белых, причем пять шаров имеют номера.

A -- появление красного шара при одном извлечении,

B -- появление белого шара,

C -- появление шара с номером. События A,B,C образуют полную группу совместных событий.

Введем понятие противоположного, или дополнительного, события. Под противоположным событием

AЇ понимается событие, которое обязательно должно произойти, если не наступило некоторое событие

A. Противоположные события несовместны и единственно возможны. Они образуют полную группу событий.

6. Операции над событиями

При разработке аппарата и методики исследования случайных событий в теории вероятностей очень важным является понятие суммы и произведения событий.

Суммой, или объединением, нескольких событий называется событие, состоящее в наступлении хотя бы одного из этих событий.

Сумма S событий A,B,C,…,N обозначается так:

S=A+B+C+…+N

Например, если событие AA есть попадание в цель при первом выстреле, событие BB -- при втором, то событие C=A+B есть попадание в цель вообще, безразлично, при каком выстреле -- первом, втором или при обоих вместе.

Произведением, или пересечением, нескольких событий называется событие, состоящее в совместном появлении всех этих событий.

Произведение S событий A,B,C,…,N обозначается S=ABC…N Например, если событие A есть попадание в цель при первом выстреле, событие B -- при втором, то событие C=AB состоит в том, что в цель попали при обоих выстрелах.

Отметим, что все же некоторые правила алгебры сохраняются и для действий над событиями. Например, имеет место переместительный закон:

А + В = В + А, АВ = ВА;

выполняется распределительный закон:

(А + В) С = АС + BС,

так как левая и правая части представляют событие, состоящее в том, что происходят событие C и по крайней мере одно из событий A и B. Справедлив также сочетательный закон:

А + (В + С) = (А + В) - С = А + В + С; А(ВС) = (АВ)С = АВС.

Определение 7. Если

A1 + A2 + ... + An = D,

т.е. если хотя бы одно из событий A1 , A2 , ... , An непременно должно осуществиться, то говорят, что события A1 , A2 , ... , An образуютполную группу событий.

Если при этом Ai попарно несовместимы (т. е. достоверное событие D подразделяется на частные случаи A1 , A2 , ... , An ), то говорят что события A1 , A2 , ... , An образуют полную систему событий.

7. Определение вероятности случайного события

Для количественного сравнения событий по степени возможности их появления вводится числовая мера, которая называется вероятностью события.

Вероятностью события называется число, являющееся выражением меры объективной возможности появления события.

Вероятность события A будем обозначать символом P{A}

Вероятность события A равна отношению числа случаев m , благоприятствующих ему, из общего числа n единственно возможных, равновозможных и несовместных случаев к числу n, т. е.

P{A}=mn.

Это есть классическое определение вероятности. Таким образом, для нахождения вероятности события необходимо, рассмотрев различные исходы испытания, найти совокупность единственно возможных, равновозможных и несовместных случаев, подсчитать общее их число n, число случаев m, благоприятствующих данному событию, и затем выполнить расчет по формуле (1.1).

Из формулы (1.1) следует, что вероятность события является неотрицательным числом и может изменяться в пределах от нуля до единицы в зависимости от того, какую долю составляет благоприятствующее число случаев от общего числа случаев:

Свойства вероятностей

Свойство 1. Если можно вычислить возможности возникновения события А и их число совпадает общим числом равновозможных событий, то вероятность событияА равна 1.

Например, при бросании игральной кости число возможностей выпадения чисел 1, 2, 3, 4, 5, 6 равно 6. Насчитывается также 6 равновозможных несовместимых событий. Таким образом, M = N и

Свойство 2. Вероятность невозможного события равна 0. Если число возможностей события А равна 0, то и

Например, при бросании игральной кости не может выпасть число 9, потому что такого числа нет на гранях игральной кости.

Свойство 3. Вероятность случайного события всегда больше 0 и меньше 1:

или

Определение статистической вероятности. В определении статистической вероятности используется понятие относительно частоты события А. Относительной частотой события А называют отношение числа наблюдений, в которых наблюдается А, к числу всех наблюдений. Относительную частоту обычно обозначают буквой W. Если в n наблюдениях событие А наблюдается m раз, то относительная частота события А:

Например, баскетболист у штрафной линии готовится совершить бросок. Из собранной тренером статистической информации известно, что у этого баскетболиста из 100 штрафных бросков успешны 70. Вероятность того, что баскетболист реализует штрафной бросок:

Длительные наблюдения показали, что с увеличением числа наблюдений относительная частота события А становится всё более стабильной. Число, около которого при серии наблюдений колеблется относительная частота, называется статистической вероятностью события А:

если .

Вычислить точную статистическую вероятность невозможно, так как невозможно выбрать бесконечно большое число наблюдений.

Преимущество статистического определения вероятности в том, что оно не требует априорных знаний об исследуемом объекте. Классическую вероятность можно вычислить до наблюдения или испытания, а статистическую - после наблюдения или испытания.

8. Основные теоремы теории вероятностей

Теорема о произведении вероятностей

Вероятность произведения двух независимых событий A и B равна произведению вероятностей событий: P(A·B)=P(A)·P(B).

Пусть, например, одновременно бросают два кубика. Количество очков, выпавших на кубиках, можно считать независимыми событиями. Поэтому вероятность того, что на обоих кубиках выпадет 6 очков, равна.

Вероятность произведения двух зависимых событий A и B равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие уже наступило: P(A·B)=P(A)·P(B|A).

Приведем пример пары событий, для которых выполняется формула P(A·B)=P(A)·P(B|A), но не выполняется формула P(A·B)=P(A)·P(B). Для любого дня в октябре вероятность того, что в Лондоне идет дождь, равна 0,3. При этом если в какой-то день шел дождь, то вероятность того, что на следующий день пойдет дождь, равна 0,7. Найдем вероятность того, что и 1-го и 2-го октября следующего года в Лондоне будет идти дождь: она равна P(A·B)=P(A)·P(B|A)=0,3·0,7=0,21. В последнем равенстве события A и B соответственно означают, что 1-го и 2-го октября следующего года будет идти дождь.

Легко видеть, что если вычислять вероятность по формуле P(A·B)=P(A)·P(B), то мы получим заниженную оценку: 0,09. Это связано с тем, что события A и B -- зависимые, поскольку вероятность дождя 2-го октября зависит от того, был ли дождь 1-го октября.

Во время испытания смешали шарики из двух ваз и вытащили случайный шарик.

Рассмотрим события:

A: шарик белого цвета,

B: шарик из первой вазы.

В первой вазе было 24 шарика, а во второй -- 12. Поэтому вероятность того, что шарик из первой вазы, равна P(B)=. Поскольку доля белых шариков в первой вазе равна , то P(A|B)=.Тогда P(A·B)=P(B)P(A|B)=

Можно проверить результат: всего в двух вазах 36 шариков, из них 8 белые из первой вазы. Поэтому P(A·B)=

Теорема о сумме вероятностей

Вероятность суммы двух несовместных событий A и B равна сумме вероятностей этих событий:P(A+B)=P(A)+P(B).

Вероятность суммы двух совместных событий A и B равна сумме вероятностей этих событий минус вероятность их произведения:

P(A+B)=P(A)+P(B)?P(A·B).

Если изобразить события A и B в виде множеств на плоскости, то легко убедиться, что эти утверждения выполняются.

P(A+B)=P(A)+P(B)?P(A·B)

P(A+B)=P(A)+P(B)

A и B несовместные

Следующие примеры иллюстрируют эти утверждения:

1. Несовместные события. Вероятность того, что на кубике выпало число очков, кратное трем равно сумме вероятностей того, что на кубике выпало 3 очка и 6 очков.

2. Совместные события. Пусть событие A состоит в том, что число очков на кубике кратно 3, а B в том, что оно кратно двум. Событие A состоит из двух результатов, а B -- из трех:A=3,6, B=2,4,6. Сумма событий A+B состоит из четырех результатов: 2,3,4,6, а пересечение -- из одного результата: A·B=6. Легко видеть что последнее равенство выполняется:

P(A+B)=P(A)+P(B)?P(A·B).

Условной вероятностью события при условии, что произошло событие , называется число

Условная вероятность определена только в случае, когда .

9. Формула полной вероятности

Предположим, что событие может осуществляться только с одним из несовместных событий . Например, в магазин поступает одна и та же продукция от трех предприятий в разном количестве. Существует разная вероятность выпуска некачественной продукции на разных предприятиях. Случайным образом отбирается одно из изделий. Требуется определить вероятность того, что это изделие некачественное (событие ). Здесь события -- это выбор изделия из продукции соответствующего предприятия.

В этом случае вероятность события можно рассматривать как сумму произведений событий

По теореме сложения вероятностей несовместных событий получаем

Используя теорему умножения вероятностей, находим

(3.1)

Формула (3.1) носит название формулы полной вероятности.

Пример. Для рассмотренного выше случая с поступлением товара в магазин от трех предприятий зададим численные значения. Пусть от первого предприятия поступило 20 изделий, от второго -- 10 изделий и от третьего -- 70 изделий. Вероятности некачественного изготовления изделия на предприятиях соответственно равны 0,02; 0,03 и 0,05.

Определить вероятность взятия некачественного изделия.

Решение. Вероятности событий будут равны P(А1) = 0,2; P(А2) = 0,1; P(А3) = 0,7. Используя формулу (3.1), находим

P(B) = 0,2Ч0,02 + 0,1Ч0,03 + 0,7Ч0,05 = 0,042.

Если B1,B2,…,Bn -- несовместные и в сумме дают достоверное событие, то вероятность события A можно вычислить, зная вероятности событий B1,B2,…,Bn, а также условные вероятности этого события в предположении событийB1,B2,…,Bn. Выполняется следующая формула:

P(A)=P(A|B1)·P(B1)+P(A|B2)·P(B2)+…+P(A|Bn)·P(Bn).

Следующий пример показывает, что эта формула верна:

Во время испытания смешали шарики из двух ваз и вытащили случайный шарик.

Рассмотрим события:

A: шарик белого цвета,

B1: шарик из первой вазы,

B2: шарик из второй вазы.

Поскольку доля белых шариков в первой вазе равна

В первой вазе 24 шарика, а во второй -- 12 шариков. Поэтому вероятности событий B1 и B2:

Тогда вероятность вытащить белый шарик:

P(A)=P(A|B1)·P(B1)+P(A|B2)·P(B2)=

Можно проверить результат: всего в двух вазах 36 шариков, из них 14 белых.

Пример. В магазин поступила новая продукция с трех предприятий. Процентный состав этой продукции следующий: 20% - продукция первого предприятия, 30% - продукция второго предприятия, 50% - продукция третьего предприятия; далее, 10% продукции первого предприятия высшего сорта, на втором предприятии - 5% и на третьем - 20% продукции высшего сорта. Найти вероятность того, что случайно купленная новая продукция окажется высшего сорта.

Решение. Обозначим через В событие, заключающееся в том, что будет куплена продукция высшего сорта, через обозначим события, заключающиеся в покупке продукции, принадлежащей соответственно первому, второму и третьему предприятиям.

Можно применить формулу полной вероятности, причем в наших обозначениях:

Подставляя эти значения в формулу полной вероятности, получим искомую вероятность:

10. Формула Байеса

Пусть событие происходит одновременно с одним из несовместных событий . Требуется найти вероятность события , если известно, что событие произошло.

На основании теоремы о вероятности произведения двух событий можно написать

Откуда

или

(3.2)

Формула (3.2) носит название формулы Байеса.

Пример. Три организации представили в контрольное управление счета для выборочной проверки. Первая организация представила 15 счетов, вторая -- 10, третья -- 25. Вероятности правильного оформления счетов у этих организаций известны и соответственно равны: 0,9; 0,8; 0,85. Был выбран один счет и он оказался правильным. Определить вероятность того, что этот счет принадлежит второй организации.

Решение. Пусть -- события выбора счета у первой, второй и третьей организаций. Соответствующие вероятности будут

,,

По формуле полной вероятности определяем вероятность выбора правильно оформленного счета

По формуле Байеса находим исходную вероятность

.

Если до опыта вероятности гипотез относительно взаимно исключающих событий из полного множества событий были , а в результате опыта появилось событие А , то "новые", т. е. условные вероятности гипотез вычисляются по формуле Байеса:

или

Формула Байеса даёт возможность "пересмотреть" вероятности гипотез с учётом полученного в результате наблюдения опыта.

Аналогично, для остальных гипотез

Полученная формула называется формулой Байеса (формулой Бейеса). Вероятности гипотез называются апостериорными вероятностями, тогда как - априорными вероятностями.

11. Определение повторных независимых испытаний. Формулы Бернулли

вероятность теорема комбинаторика

Определение повторных независимых испытаний. Формулы Бернулли для вычисления вероятности и наивероятнейшего числа. Асимптотические формулы для формулы Бернулли (локальная и интегральная, теоремы Лапласа). Использование интегральной теоремы. Формула Пуассона, для маловероятных случайных событий.

Повторные независимые испытания

На практике приходится сталкиваться с такими задачами, которые можно представить в виде многократно повторяющихся испытаний, в результате каждого из которых может появиться или не появиться событие А

При этом интерес представляет исход не каждого "отдельного испытания, а общее количество появлений события A в результате определенного количества испытаний. В подобных задачах нужно уметь определять вероятность любого числа m появлений события A в результате n испытаний. Рассмотрим случай, когда испытания являются независимыми и вероятность появления события A в каждом испытании постоянна. Такие испытания называются повторными независимыми.

Примером независимых испытаний может служить проверка на годность изделий, взятых по одному из ряда партий. Если в этих партиях процент брака одинаков, то вероятность того, что отобранное изделие будет бракованным, в каждом случае является постоянным числом.

Формула Бернулли

Воспользуемся понятием сложного события, под которым подразумевается совмещение нескольких элементарных событий, состоящих в появлении или непоявлении события A в i-м испытании. Пусть проводится n независимых испытаний, в каждом из которых событие A может либо появиться с вероятностью p, либо не появиться с вероятностью q=1?p. ссмотрим событие Bm, состоящее в том, что событие A в этих n испытаниях наступит ровно m раз и, следовательно, не наступит ровно (n?m)(n?m) раз. Обозначим Ai (i=1,2,…,n)Ai (i=1,2,…,n) появление события A , a AЇi -- непоявление события A в i-м испытании. В силу постоянства условий испытания имеем

P{A1}=P{A2}=P{An}=p,P{AЇЇ1}=P{AЇЇ2}=P{AЇЇn}=1?p=q

Вероятность каждого сложного события, входящего в формулу (3.1), по теореме умножения вероятностей для независимых событий равна pmqn?mpmqn?m

Так как общее количество таких событий равно CmnCnm, то, используя теорему сложения вероятностей для несовместных событий, получаем вероятность события BmBm (обозначим ее Pm,nPm,n)

Pm,n=Cmnpmqn?m or Pm,n=n!m!(n?m) !pmqn?m.Pm,n= Cnmpmqn?morPm,n=n!m!(n?m)!pmqn?m.

Формулу (3.2) называют формулой Бернулли, а повторяющиеся испытания, удовлетворяющие условию независимости и постоянства вероятностей появления в каждом из них события A, называют испытаниями Бернулли, или схемой Бернулли.

Биномиальное распределение (распределение Бернулли)

Возникает в тех случаях, когда ставится вопрос: сколько раз происходит некоторое событие в серии из определенного числа независимых наблюдений (опытов), выполняемых в одинаковых условиях.

Для удобства и наглядности будем полагать, что нам известна величина p - вероятность того, что вошедший в магазин посетитель окажется покупателем и (1- p) = q - вероятность того, что вошедший в магазин посетитель не окажется покупателем.

Если X - число покупателей из общего числа n посетителей, то вероятность того, что среди n посетителей оказалось k покупателей равна

P(X= k) =

где k=0,1,…n (1)

Формулу (1) называют формулой Бернулли. При большом числе испытаний биномиальное распределение стремиться к нормальному

12. Дискретные случайные величины

Различают два вида случайных величин: дискретные и непрерывные.

Определение: Случайной называется величина, которая в результате испытания принимает только одно значение из возможного множества своих значение, наперед неизвестное и зависящее от случайных причин.

Определение: Случайная величина Х называется дискретной (прерывной), если множество ее значений конечное или бесконечное, но счетное.

Другими словами, возможные значения дискретной случайной величину можно перенумеровать.

Описать случайную величину можно с помощью ее закона распределения.

Определение: Законом распределения дискретной случайной величины называют соответствие между возможными значениями случайной величины и их вероятностями.

Закон распределения дискретной случайной величины Х может быть задан в виде таблицы, в первой строке которой указаны в порядке возрастания все возможные значения случайной величины, а во второй строке соответствующие вероятности этих значений, т.е.

Такая таблица называется рядом распределения дискретной случайной величины.

Если множество возможных значений случайной величины бесконечно, то ряд р1+ р2+…+ рn+… сходится и его сумма равна 1.

Закон распределения дискретной случайной величины Х можно изобразить графически, для чего в прямоугольной системе координат строят ломаную, соединяющую последовательно точки с координатами (xi;pi), i=1,2,…n. Полученную линию называют многоугольником распределения:

Закон распределения дискретной случайной величины Х может быть также задан аналитически (в виде формулы):

P(X=xi)=ц(xi),i =1,2,3…n

Величина, которая в результате испытания может принять то или иное значение, заранее неизвестно какое именно, считается случайной.

Дискретной случайной величиной называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений, причем принятие ею каждого из значений есть случайное событие с определенной вероятностью.

Соотношение, устанавливающее связь мужду отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины.

Дискретная случайная величина может быть задана функцией распределения.

Функцией распределения случайной величины Х называется функция F(х), выражающая вероятность того, что Х примет значение, меньшее чем х:

F(x) = P(X < x) = pi, где суммирование по хi < x

Реальное содержание понятия «случайная величина» может быть выражено с помощью такого определения: случайной величиной, связанной с данным опытом, называется величина, которая при каждом осуществлении этого опыта принимает то или иное числовое значение, причем заранее неизвестно, какое именно. Случайные величины будем обозначать буквами

Определение. Говорят, что задана дискретная случайная величина , если указано конечное или счетное множество чисел

и каждому из этих чисел поставлено в соответствие некоторое положительное число , причем

Числа называются возможными значениями случайной величины , а числа - вероятностями этих значений ( ).

Таблица

называется законом распределения дискретной случайной величины .

Для наглядности закон распределения дискретной случайной величины изображают графически, для чего в прямоугольной системе координат строят точки и соединяют последовательно отрезками прямых. Получающаяся при этом ломаная линия называется многоугольником распределения случайной величины .

Если возможными значениями дискретной случайной величины являются 0, 1, 2, …, n, а соответствующие им вероятности вычисляются по формуле Бернулли:

то говорят, что случайная величина имеет биномиальный закон распределения:

Пусть заданы натуральные числа m, n, s, причем Если возможными значениями дискретной случайной величины являются 0,1,2,…, m, а соответствующие им вероятности выражаются по формуле

то говорят, что случайная величина имеет гипергеометрический закон распределения.

Другими часто встречающимися примерами законов распределения дискретной случайной величины являются:

геометрический

где ;

13)Непрерывная случайная величина

Непрерывной случайной величиной называется такая случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка.

Случайную величину Х называют непрерывной (непрерывно распределенной) величиной, если существует такая неотрицательная функция p(t), определенная на всей числовой оси, что для всех х функция распределения случайной величины F(x) равна:

. (6.7)

При этом функция p(t) называется плотностью распределения вероятностей непрерывной случайной величины.

Если такой функции p(t) не существует, то Х не является непрерывно распределенной случайной величиной.

Таким образом, зная плотность распределения, по формуле (6.7) можно легко найти функцию распределения F(x). И, наоборот, по известной функции распределения можно восстановить плотность распределения:

.

Значит, наряду с функцией распределения, плотность распределения вероятностей непрерывной случайной величины задает ее закон распределения.

Если функция распределения F? (x) непрерывна, то случайная величина называется непрерывной случайной величиной.

Если функция распределения непрерывной случайной величины дифференцируема, то более наглядное представление о случайной величине дает плотность вероятности случайной величины p?(x), которая связана с функцией распределения F? (x) формулами

и .

Отсюда, в частности, следует, что для любой случайной величины .

13. Свойства плотности распределения вероятностей непрерывной случайной величины:

1. Плотность распределения - неотрицательная функция:

Геометрически это означает, что график плотности распределения расположен либо выше оси Ох, либо на этой оси.

2.

=1.

Учитывая, что F(+?)=1, получаем: =1. Т.е. площадь между графиком плотности распределения вероятностей и осью абсцисс равна единице.

Эти два свойства являются характеристическими для плотности распределения вероятностей. Доказывается и обратное утверждение:

Любая неотрицательная функция p(t), для которой =1, является плотностью распределения вероятностей некоторой непрерывно распределенной случайной величины.

Общий вид графика функции плотности распределения вероятностей непрерывной случайной величины приведен на рис. 6.7.

Рис. 6.7

Зная плотность распределения, можно вычислить вероятность попадания значений непрерывной случайной величины в заданный интервал.

Вероятность того, что непрерывная случайная величина примет значения, принадлежащие интервалу (a, b), равна определенному интервалу от плотности распределения, взятому в пределах от а до b:

P(аХ<b)=.

Действительно, P(а?Х<b)=F(b) - F(a)= -= по одному из свойств определенного интеграла.

Из вышеприведенного утверждения можно сделать вывод, что вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю. Отсюда,

P(aХ<b)=P(a<Х<b)=P(ab)=P(aХb)=F(b) - F(a).

Математическим ожиданием непрерывной случайной величины называется несобственный интеграл

М[X] =.

Если возможные значения случайной величины принадлежат отрезку [a,b], то М[X]= .

Используя определение дисперсии (6.4) для случая непрерывной случайной величины, можно получить следующую формулу для вычисления дисперсии

D[X] =.

Если возможные ненулевые значения случайной величины принадлежат отрезку [a, b], то

D[X] =.

Более удобные формулы для вычисления дисперсии таковы:

D[X] = ,

если функция p(t) отлична от 0 на всей числовой оси;

D[X] = (6.8)

если возможные ненулевые значения случайной величины принадлежат отрезку [a,b].

Среднее квадратическое отклонение непрерывной случайной величины определяется также, как и для случая дискретной случайной величины:

.

14. Числовые характеристики дискретных случайных величин

Закон распределения полностью характеризует случайную величину. Однако часто построение закона или ряда распределения представляет весьма трудоемкую задачу, либо закон распределения неизвестен вовсе. На практике иногда бывает достаточно описать случайную величину «суммарно», указав ее отдельные числовые параметры, до некоторой степени характеризующие существенные черты распределения случайной величины. К таким параметрам можно отнести среднее значение, около которого группируются возможные значения случайной величины; число, характеризующее степень разбросанности значений случайной величины относительно среднего и др. Назначение таких характеристик - выразить компактно, в сжатой форме наиболее существенные особенности распределения. Все эти характеристики называются числовыми характеристиками случайной величины.

Так, для полной характеристики успеваемости учащегося и прогнозирования получения им оценки в будущем можно построить ряд распределения его оценок. Однако достаточно часто успеваемость характеризуется лишь одной, средней оценкой.

Числовые характеристики играют большую роль в теории вероятностей, поскольку, оперируя ими, можно значительно упростить ряд практических вероятностных задач и получить важные результаты. Например, в тех случаях, когда на численный результат эксперимента оказывают влияние отдельные случайные величины и их достаточно много, то закон распределения результирующей случайной величины, оказывается, не будет зависеть от законов распределения составляющих величин. В этих случаях для анализа результирующей величины необходимо лишь знать некоторые числовые характеристики отдельных случайных величин.

Рассмотрим наиболее важные числовые характеристики случайной величины.

Математическое ожидание дискретной случайной величины

Рассмотрим дискретную случайную величину Х, принимающую значения , , …, с вероятностями , , …,.

Сумма произведений всех возможных значений случайной величины на вероятности этих значений называетсяматематическим ожиданием случайной величины и обозначается М[X].

Пример 6.6. Найти математическое ожидание дискретной случайной величины, ряд распределения которой:

Вероятностный смысл этой числовой характеристики таков: математическое ожидание случайной величины приближенно равно среднему значению случайной величины.

Пусть произведено n испытаний, в которых случайная величина приняла раз значение , раз значение , …, раз значение , причем ++…+ =n. Тогда среднее арифметическое всех значений, принятых случайной величиной Х, вычисляется по формуле:

=.

Или =. Заметим, что - относительная частота значения , - относительная частота значения , …, - относительная частота значения . Если число испытаний n достаточно велико, то относительная частота приближенно равна вероятности появления события:

, , …,

Тогда ++…+. Значит,

Математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины. Равенство будет тем точнее, чем больше число испытаний.

Математическое ожидание больше наименьшего и меньше наибольшего возможных значений. Поэтому можно сказать, что математическое ожидание характеризует положение случайной величины на числовой оси, т.е. указывает некоторое среднее значение, около которого группируются все возможные значения случайной величины. Такое среднее значение является «представителем» случайной величины и может замещать ее при грубых оценочных расчетах.

Свойства математического ожидания случайной величины:

1. Математическое ожидание постоянной величины равно самой величине:

М[C]=C.

2. Постоянный множитель можно выносить за знак математического ожидания:

М[CХ]=CM[X].

3. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий этих величин:

М[Х+Y]=M[X]+M[Y].

4. Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий этих величин:

М[ХY]=M[X]M[Y].

(Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения принимает другая величина.)

15. Числовые характеристики непрерывных случайных величин

Пусть непрерывная случайная величина Х задана функцией распределения f(x). Допустим, что все возможные значения случайной величины принадлежат отрезку [a,b].

Определение. Математическим ожиданием непрерывной случайной величины Х, возможные значения которой принадлежат отрезку [a,b], называется определенный интеграл

Если возможные значения случайной величины рассматриваются на всей числовой оси, то математическое ожидание находится по формуле:

При этом, конечно, предполагается, что несобственный интеграл сходится.

Определение. Дисперсией непрерывной случайной величины называется математическое ожидание квадрата ее отклонения.

По аналогии с дисперсией дискретной случайной величины, для практического вычисления дисперсии используется формула:

Определение. Средним квадратичным отклонением называется квадратный корень из дисперсии.

Определение. Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода - такое значение случайной величины, при которой плотность распределения имеет максимум.

Если многоугольник распределения для дискретной случайной величины или кривая распределения для непрерывной случайной величины имеет два или несколько максимумов, то такое распределение называется двухмодальным или многомодальным.

Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным.

Определение. Медианой MD случайной величины Х называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины.

Геометрически медиана - абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам.

Отметим, что если распределение одномодальное, то мода и медиана совпадают с математическим ожиданием.

Определение. Начальным моментом порядка k случайной величины Х называется математическое ожидание величины Хk.

Для дискретной случайной величины: .

Для непрерывной случайной величины: .

Начальный момент первого порядка равен математическому ожиданию.

Определение. Центральным моментом порядка k случайной величины Х называется математическое ожидание величины

Для дискретной случайной величины: .

Для непрерывной случайной величины: .

Центральный момент первого порядка всегда равен нулю, а центральный момент второго порядка равен дисперсии. Центральный момент третьего порядка характеризует асимметрию распределения.

Определение. Отношение центрального момента третьего порядка к среднему квадратическому отклонению в третьей степени называется коэффициентом асимметрии.

Определение. Для характеристики островершинности и плосковершинности распределения используется величина, называемая эксцессом.


Подобные документы

  • Возникновение теории вероятности как науки. Классическое определение вероятности. Частость наступления события. Операции над событиями. Сложение и умножение вероятности. Схема повторных независимых испытаний (система Бернулли). Формула полной вероятности.

    реферат [175,1 K], добавлен 22.12.2013

  • Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

    практическая работа [55,0 K], добавлен 23.08.2015

  • Показатели безотказности как показатели надежности невосстанавливаемых объектов. Классическое и геометрическое определение вероятности. Частота случайного события и "статистическое определение" вероятности. Теоремы сложения и умножения вероятностей.

    курсовая работа [328,1 K], добавлен 18.11.2011

  • Теория вероятности как математическая наука, изучающая закономерность в массовых однородных случаях, явлениях и процессах, предмет, основные понятия и элементарные события. Определение вероятности события. Анализ основных теорем теории вероятностей.

    шпаргалка [777,8 K], добавлен 24.12.2010

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Применение классического определения вероятности в решении экономических задач. Определение вероятности попадания на сборку бракованных и небракованных деталей. Вычисление вероятности и выборочного значения статистики при помощи формулы Бернулли.

    контрольная работа [309,4 K], добавлен 18.09.2010

  • Определение вероятности случайного события, с использованием формулы классической вероятности, схемы Бернулли. Составление закона распределения случайной величины. Гипотеза о виде закона распределения и ее проверка с помощью критерия хи-квадрата Пирсона.

    контрольная работа [114,3 K], добавлен 11.02.2014

  • Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

    шпаргалка [945,2 K], добавлен 18.06.2012

  • Случайные события, их классификация. Свойство статистической устойчивости относительной частоты события. Предельные теоремы в схеме Бернулли. Аксиоматическое и геометрическое определение вероятности. Локальная и интегральная теоремы Муавра-Лапласа.

    реферат [1,4 M], добавлен 18.02.2014

  • Определение вероятности появления поломок. Расчет вероятности успеха, согласно последовательности испытаний по схеме Бернулли. Нахождение вероятности определенных событий по формуле гипергеометрической вероятности. Расчет дискретной случайной величины.

    контрольная работа [69,3 K], добавлен 17.09.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.