Теория вероятности

Предмет теории вероятности и ее задачи. Элементарные и сложные события. Частота событий и вероятность случайных событий. Классический способ задания вероятности. Теорема Муавра–Лапласа, схема Бернулли, теорема Пуассона. Распределение случайных величин.

Рубрика Математика
Вид шпаргалка
Язык русский
Дата добавления 09.09.2011
Размер файла 91,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

1.Предмет теории вероятности (ТВ) и ее задачи

ТВ-раздел математики, в которой используются различные разделы математики для своего развития.

Задача: выяснение закономерностей, возникающих при взаимодействии большого числа случайных факторов.

Предмет: случайные события, величины и функции.

2.Элементарные и сложные события. Операции над ними

Событие-всякий факт, который может произойти или не произойти в результате опыта.

Элементарные события - определенное множество ? возможных исходов ? испытаний. (? принадлежит ? ).

Операции:

1. Сложение А+В только тогда, когда произошедшее событие входит или в А, или в В.

2. Умножение А*В событие, состоящие из элементарных событий, принадлежащих одновременно А и В.

3. Противоположным событием события А называется событие А , состоящее из элементарных события , не принадлежащих А.

4. Разность А-В событие, состоящее из всех элементарных событий, входящих в А, но не входящих в В.

3. Частота событий и вероятность случайных событий

Частота - отношение числа опытов, в результате которого произошло событие А к общему числу опытов. (W(A)= m\n, где n - число опытов, m - число появление события А ).

Вероятность - математическая оценка возможности появления это события в результате опыта - обозначается Р (А).- при условии :0 ?Р (А)?1, Р (? Ак)= ? Р (Ак).

4.Классический способ задания вероятности. Примеры

При данном способе пространство элементарных событий является конечным, и все элементарные события равновероятны. Тогда вероятность события определяется равенством

Р (А)= m\n ,

где m - число элементарных исходов испытания, благоприятствующих появлению события А; n - общее число возможных элементарных исходов испытания.

5.Элементы комбинаторики

Комбинаторика - это раздел математики, в котором изучается вопрос о том, сколько различных комбинаций подчиненных тем или иным условиям можно составить из конечного числа различных элементов.

Элементы комбинаторики:

*Перестановка из n различных элементов называется комбинация, которая состоит из n элементов и отличающиеся друг от друга только порядком их расположения. .

Размещение из n элементов по m элементов (m?n) называется комбинация, состоящая из m элементов, взятых из данных n различных элементов, отличающиеся друг от друга либо самими элементами, либо порядком их расположения.

*Сочетание из n элементов по m элементов (m?n) называется комбинация, состоящая из m элементов, взятых из данных n элементов, отличающиеся друг от друга только составом. .

Сочетания с повторениями - это такие соединения, состоящие из n-различных элементов по m-элементам, отличающиеся друг от друга или хотя бы одним элементом, или тем что хотя бы один элемент входит различное число раз.

.

6.Свойства вероятностей

Вероятность - математическая оценка возможности появления это события в результате опыта - обозначается Р (А).- при условии :0 ?Р (А)?1, Р (? Ак)= ? Р (Ак).

Свойства: 1.Р (A)= 1 - Р (А); 2. Р (O)=0; 3. Есла А входит в В, то Р (А)? Р (В); 4. Р (А+В)=Р(А)+Р(В)-Р(АВ).; 5. Р(А1+А2+…+Аn)??(Р(Ак)).

Доказательства: 1.?=А+A, Р (?)= Р(А)+Р(A)=1, следовательно, Р(A)=1-Р(А). 2. O= ?, Р(O)=1-Р(?)=1-1=0 , где 1-Р(?) из первого свойства. 3. Р(В)= Р(ВА)+Р(ВA)?Р(ВА)=Р(А), Р(ВA)?0, следовательно, Р(В)?Р(А). 4. А+В=(А+В)*(В+В)= АВ+ВВ+АВ+ВВ= =АВ+В+АВ+O=В+АВ. Далее, Р(А+В)=Р(В)+Р(АВ) , А=А(В+В)= =АВ+АВ; Р(А)=Р(АВ)+Р(АВ), подставив, получаем что Р(А+В)=Р(В)+Р(А)-Р(АВ).

7.Формула сложения вероятностей. Применение

Р (А+В)=Р(А)+Р(В)-Р(АВ).

Док-во: А+В=(А+В)*(В+В)= АВ+ВВ+АВ+ВВ=АВ+В+АВ+O=В+АВ. Далее, Р(А+В)=Р(В)+Р(АВ) , А=А(В+В)=АВ+АВ; Р(А)=Р(АВ)+Р(АВ), подставив, получаем что Р(А+В)=Р(В)+Р(А)-Р(АВ).

8.Условная вероятность. Свойства. Примеры

Условная вероятность - это наступление события В при условии, что событие А наступило или наступит.

Условная вероятность определяется равенством: Р(ВІА)= Р(АВ) / Р(А)

Свойства: 1. 0?Р(АІВ)?1; 2. Р(АІВ)?Р(СІВ), если а Входит в В, так как Р(АВ)/Р(В)?Р(СВ)/Р(В) ; 3. Р(АІВ)=1; 4. Р(А+СІВ)= Р(АІВ)+ Р(СІВ); 5. Р(А+СІВ)= Р(АІВ)+ Р(СІВ)- Р(АСІВ); 6. Р(AІВ)=1- Р(AІВ), так как (Р(AВ)/Р(В)) + (Р(АВ)/Р(В))=Р((А+A)В)/Р(В)=Р(В)/Р(В)=1.

10.Независимые события. Примеры

События А и В называются независимыми, если Р(АВ)=Р(А)*Р(В).

Пусть например бросаются две монеты; А-выпадение «герба» при первом бросании, В-выпадение «герба» при втором бросании. Допустим, что Р(А)=Р(В)=1/2 , Р(АВ)=1/4. Тогда события А и В независимы.

11.Формула полной вероятности. Примеры

Пусть Н1, Н2,…,-полная система событий (будем называть эти события гипотезами). Пусть А-некоторое событие, т.е. вероятность события А есть сумма произведений вероятностей каждой гипотезы на условную вероятность события А при этой гипотезе.

Док-во: событие А может произойти одновременно с некоторым событием Н1, Н2, …, так как Н1, Н2,…,-система событий. Поэтому событие А есть сумма: А=АН1+АН2+….. Р(А)=Р(АН1)+Р(АН2)+… Ио свойства вероятности, получаем Р(А)=?Р(АНк). применив к вероятностям Р(АНк) правило умножения, имеем Р(АНк)=Р(Нк)*Р(АІНк), откуда Р(А)=?Р(Нк)*Р(АІНк).

12.Формула Байеса. Применение

Пусть Н1, Н2,…,-полная система событий (гипотез). Пусть А - некоторое событие, для которого Р(А)?0. Тогда,

(формула Байеса)

Док-во: Р(НкІА)=Р(АНк)/Р(А), но Р(АНк)=Р(Нк)*Р(АІНК)-по правилу умножения вероятностей; а Р(А)= ?Р(Нi)*Р(АІНi).-по формуле полной вероятности. Отсюда, учитывая формулу Р(АІВ)=Р(АВ)/Р(В) имеем, Р(НкІА)= Р(Нк)*Р(АІНК) / ?Р(Нi)*Р(АІНi)., ч. т. д.

13. Схема Бернулли. Применение

Пусть - один и тот же опыт повторяется n-раз, не зависимо от результатов; в любом опыте может наступить событие А с вероятностью p, либо событие A с вероятностью q ; m - число повторений события А.,

Тогда, , при m=0,1,2…n.

Применяется в тех случаях, где есть наличие двух различных исходов испытания. Или формула Бернулли применяется в тех случаях, когда число опытов невелико, а вероятности появления достаточно велики

14. Теорема Пуассона (в схеме Бернулли)

Если число испытаний n стремится к 0, а вероятность появления события А в каждом из опытов р стремится к 0, то для определения вероятности появления события А ровно m раз применяют формулу Пуассона:

,где ?=n*p

15. Теорема Муавра - Лапласа. Применение

Если число опытов достаточно велико, но не бесконечно, а вероятность появления события А в каждом опыте не стремится к 0, применяют локальную и интегральную теоремы Лапласа

Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р причем 1>р>0, то это событие наступает ровно m раз приблизительно равна:

Интегральная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р, причем 1>р>0, то событие А наступит не менее m1 раз и не более m2 раза приблизительно равно:

16.Дискретные случайные величины. Распределение случайных величин. Примеры

Опытом называется всякое осуществление определенных условий и действий, при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно.

Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z)

Дискретными называются случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить.

Простейшей формой закона распределения дискретной величины является ряд распределения.

х-набор значений

x1

x2

x3

P-набор вероятностей

P1

P2

P3

Графической интерпретацией ряда распределения является многоугольник распределения.

17.Функция распределения случайной величины. Свойства. Примеры

Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения.

Функция распределения случайной величины Х, называется функцией аргумента х, что случайная величина Х принимает любое значение меньшее х (Х<х)

F(х)=Р(Х<х)

F(х) - иногда называют интегральной функцией распределения или интегральным законом распределения.

Функция распределения обладает следующими свойствами:

теория вероятность событие

0<F(х)<1; если х1>х2,то F(х1)>F(х2);

монотонно не убывающая; непрерывна слева для любого х;

lim F(x) = F(-?)=0 и lim F(x)=F(?)=1.

функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками.

18.Непрерывные случайные величины. Плотность распределения. Примеры

Непрерывные величины - возможные значение, которых непрерывно заполняют некоторый диапазон.

Плотность распределения вероятности непрерывной случайной величины Х называется функция f(х), равная первой производной от функции распределения F(х).

График плотности распределения называется кривой распределения.

Основные свойства плотности функции распределения:

1.f(х)>0

2.

19.Биномиальное распределение. Примеры

Х- количество «успехов» в последовательности из n независимых случайных экспериментов, таких что вероятность «успеха» в каждом из них равна P . q=1-p.

Закон распределения X имеет вид:

хк

0

1

………

k

……

n

Рr

qn

n*p*qn-1

pn

Здесь вероятности находятся по формуле Бернулли: .

20.Пуассоновское распределение. Примеры

Распределение Пуассона моделирует случайную величину, представляющую собой число событий, произошедших за фиксированное время, при условии, что данные события происходят с некоторой фиксированной средней интенсивностью и независимо друг от друга.

При условии закон распределения Пуассона является предельным случаем биномиального закона. Так как при этом вероятность P события A в каждом испытании мала, то закон распределения Пуассона называют часто законом редких явлений.

Ряд распределения:

Хк

0

1

к

Рк

e-?

?e-?

?k e-? \k!

Вероятность вычисляют по формуле Пуассона:

21.Нормальное распределение. Свойства. Примеры

Нормальное распределение, также называемое распределением Гаусса, - распределение вероятностей, которое играет важнейшую роль во многих областях знаний, особенно в физике. Физическая величина подчиняется нормальному распределению, когда она подвержена влиянию огромного числа случайных помех. Ясно, что такая ситуация крайне распространена, поэтому можно сказать, что из всех распределений в природе чаще всего встречается именно нормальное распределение -- отсюда и произошло одно из его названий.

Плотность распределения:

Нормальный закон распределения случайной величины с параметрами a=0 и ?=1 называется стандартным или нормированным, а соответствующая нормальная кривая - стандартной или нормированной.

Функция Лапласа

Вероятность попадания нормально распределенной случайной величины X в заданный интервал (?;?)

26. Числовые характеристики случайных величин. Примеры

Характеристики положения случайной величины.

Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину.

Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины

n=2k+1, то Ме=хк+1 (среднее по порядку значение)

Если значение случайных величин четное, т.е n=2k, то .

Математическим ожиданием случайной величины х (М[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений.

Для дискретной случайной величины

Для непрерывной

Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольшего

Характеристики рассеяния.

Дисперсия

Дисперсия (D[x]) характеризует рассеивание или разряженность случайной величины около ее математического ожидания

Для дискретных

:

Для непрерывных :

Дисперсия случайной величины всегда величина положительная. Размерность дисперсии равна квадрату разности случайной величины.

Среднеквадратическое (стандартное) отклонение.

27.Мат.ожидание случайной величины. Примеры

Математическим ожиданием случайной величины х (М[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений.

Для дискретной случайной величины

Для непрерывной

.

28. Дисперсия случайной величины. Свойства. Примеры

Дисперсия (D[x]) характеризует рассеивание или разреженность случайной величины около ее математического ожидания.

D(x)= M((x-M(x))2),

Свойства: 1. D(x)=M(x2)-(M(x))2. D(x)=M(x2 - 2x*M(x)+ (M(x))2)=M (x2-2M(x)*M(x)+ (M(x))2=M(x2)-(M(x))2.

2. D(x)?0 ; 3. D(x)=0,когда p(X=c)=1 ; 4.D(c*x)=c2* D(x)

29. Ковариация и коэффициент корреляции. Свойства

Коэффициентом ковариации называется выражение:

cov(X,Y)=Е[(X-ЕX)(Y-ЕY)].

Если X и Y независимы, то коэффициент ковариации равен 0 и следовательно: D(X±Y)=DX±DY

Коэффициент корреляции - отношение их ковариации к произведению их средних квадратичных отклонений:

X*=(X-MX)/?x

Y*=(Y-MY)/?y

Если случайные величины XY независимы, то их коэффициент ковариации равен нулю.

Свойства коэффициента корреляции

1. -1?pxy?1

2. Если |pxy|=1, то с вероятность 1 X и Y связаны линейно.

То есть, если коэффициент корреляции |pxy|=1, то результаты опыта лежат на прямой

В общем случае Y можно представить в виде:

y=ax+b+z , DZ=?y2(1-pxy)2

Коэффициент корреляции является мерой близости линейной связи между случайными величинами X и Y: чем ближе коэффициент корреляции по модулю к 1, тем более тесно результаты конкретного испытания над X и Y соотносятся с прямой ax+b.

Размещено на Allbest.ru


Подобные документы

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Правила применения уравнения Бернулли для определения возможности наступления события. Использование формул Муавра-Лапласа и Пуассона при неограниченном возрастании числа испытаний. Примеры решения задач с помощью теоремы Бернулли о частоте вероятности.

    курсовая работа [265,6 K], добавлен 21.01.2011

  • Теория вероятности – математическая наука, изучающая закономерности в случайных явлениях. Метод наибольшего правдоподобия. Доверительные оценки. Точечные оценки и критерий согласия. Теорема Чебышева. Распределение Пуассона. Доверительный интервал.

    курсовая работа [349,0 K], добавлен 16.01.2009

  • Теория вероятности как наука убеждения, что в основе массовых случайных событий лежат детерминированные закономерности. Математические доказательства теории. Аксиоматика теории вероятности: определения, вероятность пространства, условная вероятность.

    лекция [287,5 K], добавлен 02.04.2008

  • Закон распределения случайной величины дискретного типа (принимающей отдельные числовые значения). Предельные теоремы схемы Бернулли. Вычисление вероятности появления события по локальной теореме Муавра-Лапласа. Интегральная формула данной теоремы.

    презентация [611,2 K], добавлен 17.08.2015

  • Теория вероятности как математическая наука, изучающая закономерность в массовых однородных случаях, явлениях и процессах, предмет, основные понятия и элементарные события. Определение вероятности события. Анализ основных теорем теории вероятностей.

    шпаргалка [777,8 K], добавлен 24.12.2010

  • Определение числа исходов, благоприятствующих данному событию. Теорема умножения вероятностей и сложения несовместных событий, локальная теорема Лапласа. Расчет среднеквадратического отклонения величин. Несмещенная оценка генеральной средней и дисперсии.

    контрольная работа [91,0 K], добавлен 31.01.2011

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Определение вероятности появления поломок. Расчет вероятности успеха, согласно последовательности испытаний по схеме Бернулли. Нахождение вероятности определенных событий по формуле гипергеометрической вероятности. Расчет дискретной случайной величины.

    контрольная работа [69,3 K], добавлен 17.09.2013

  • Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.

    задача [104,1 K], добавлен 14.01.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.