Нормальный закон распределения случайной величины
Плотность распределения нормальной случайной величины. Вычисление ее дисперсии, математического ожидания и среднеквадратического отклонения. Интегральная функция Лапласа. Правило "трех сигм". Понятие "двумерной" величины. Формула условной вероятности.
Рубрика | Математика |
Вид | лекция |
Язык | русский |
Дата добавления | 19.01.2015 |
Размер файла | 79,8 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Нормальный закон распределения
Если плотность распределения случайной величины определяется формулой:
, (1)
где а - произвольное число, а - положительное число, то говорят, что распределена по нормальному закону или что "нормальная" случайная величина. распределение нормальная случайная вероятность
Значения а и полностью определяют функцию р(х). Для неё иногда вводится обозначение:
p(x) = n(x;a;).
График плотности распределения нормальной случайной величины при некоторых значениях а и представлен на рисунке 6. График симметричен относительна прямой х = а, и выполняются условия: р(х) 0 при х . Если а увеличивать, оставляя неизменной, то график будет перемещаться вправо, а если а уменьшать, то - влево, не изменяя формы.
Если значение а неизменно, то относительно малому значению будет соответствовать график р(х) с выраженным пиком, как на рисунке 2. При относительно большом значении график р(х) представляет собой пологую кривую, как изображено на рисунке 3.
Функция распределения F(x) нормальной случайной величины иногда обозначается N(x;a;). Она обычным образом получается из плотности распределения :
Графики функции F(x) для нормально распределённых случайных величин при относительно малых и относительно больших значениях изображены, соответственно, на рисунках 4 и 5.
Из симметрии графика функции плотности распределения р(х) нормально распределённой случайной величины относительно прямой х = а следует, что М = а.
Если вычислить дисперсию D нормально распределённой случайной величины, то оказывается, что она равна 2.
Таким образом, параметры а и в формуле для плотности распределения случайной величины, распределённой по нормальному закону, приобретают смысл: а - математическое ожидание, 2 - дисперсия.
Вероятность того, что нормально распределённая случайная величина примет значение из промежутка (х 1, х 2) рассчитывается по формуле:
Здесь - интегральная функция Лапласа
;
.
Значения (х) определяются из таблиц, как это показывалось ранее.
Если случайная величина имеет плотность распределения, выражающуюся функцией n(x;0;1), то есть - нормально распределённая случайная величина с математическим ожиданием, равным нулю, и дисперсией, равной единице, то
.
Случайную величину с плотностью распределения n(x;0;1) можно принять за некоторый эталон для случайных величин, распределённых по нормальному закону. График плотности распределения такой случайной величины симметричен относительно оси ординат.
Пусть и - независимые нормально распределённые случайные величины, при этом:
М = а 1, D = 12, М = а 2, D = 22.
Тогда случайная величина , равная сумме с 1 + с 2 (с 1 и с 2 - любые числа), тоже распределена по нормальному закону. Её математическое ожидание и дисперсия определяются формулами:
М = с 1а 1 + с 2 а 2, D = с 1212 + с 2222.
Задача
Масса ящика, вмещающего 12 бутылок - нормально распределённая случайная величина с математическим ожиданием 2 кг и среднеквадратическим отклонением 0,01 кг. Масса бутылки с пивом - тоже нормально распределённая случайная величина с математическим ожиданием 0,8 кг и среднеквадратическим отклонением 0,04 кг. Найти вероятность того, что масса ящика с 12-ю бутылками пива будет находиться в пределах от 11 до 11,5 килограммов.
Правило 3-х (трех "сигм"). Пусть имеется нормально распределённая случайная величина с математическим ожиданием, равным а и дисперсией 2. Определим вероятность попадания в интервал (а - 3; а + 3), то есть вероятность того, что принимает значения, отличающиеся от математического ожидания не более, чем на три среднеквадратических отклонения.
P(а - 3< < а + 3)=Ф(3) - Ф(- 3)=2Ф (3)
По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практически равняется единице. Таким образом, можно сделать важный вывод: нормальная случайная величина принимает значения, отклоняющиеся от ее математического ожидания не более чем на 3.
Выбор числа 3 здесь условен и никак не обосновывается: можно было выбрать 2,8, 2,9 или 3,2 и получить практически тот же вероятностный результат. Учитывая, что Ф(2)=0,477, можно было бы говорить и о правиле 2-х "сигм".
Совместное распределение двух случайных величин
Пусть пространство элементарных исходов случайного эксперимента таково, что каждому исходу ij ставиться в соответствие значение случайной величины , равное xi и значение случайной величины , равное yj.
1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).
2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины и - это доходности акций этих корпораций.
В этих случаях мы можем говорить о совместном распределении случайных величин и или о "двумерной" случайной величине.
Если и дискретны и принимают конечное число значений ( - n значений, а - k значений), то закон совместного распределения случайных величин и можно задать, если каждой паре чисел xi, yj (где xi принадлежит множеству значений , а y j-множеству значений ) поставить в соответствие вероятность pij, равную вероятности события, объединяющего все исходы ij (и состоящего лишь из этих исходов), которые приводят к значениям = xi; = y j.
Такой закон распределения можно задать в виде таблицы:
y1 |
y2 |
yj |
yk |
||||||
x1 |
р 11 |
р 12 |
р 1j |
р 1k |
P1 |
||||
xi |
рi1 |
рi2 |
рij |
рik |
Pi |
(*) |
|||
xn |
рn1 |
рn2 |
рnj |
рnk |
Pn |
||||
P1 |
P2 |
Pj |
Pk |
Очевидно:
Если просуммировать все рij в i-й строке, то получим:
- вероятность того, что случайная величина примет значение xi. Аналогично, если просуммировать все рij в j-м столбце, то получим:
вероятность того, что принимает значение y j.
Соответствие xi Pi (i = 1,2,,n) определяет закон распределения , также как соответствие yj P j (j = 1,2,,k) определяет закон распределения случайной величины .
Очевидно:
, .
Раньше мы говорили, что случайные величины и независимы, если:
pij=PiP j (i=1,2,,n; j=1,2,,k).
Если это не выполняется, то и зависимы.
В чем проявляется зависимость случайных величин и и как ее выявить из таблицы?
Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число:
pi/1 = (1)
которое будем называть условной вероятностью = xi при =y1. Обратите внимание на то, что это не вероятность Pi события = xi, и сравните формулу (1) с уже известной формулой условной вероятности:
.
Соответствие xiрi/1, (i=1,2,,n) будем называть условным распределением случайной величины при =y1. Очевидно:
.
Аналогичные условные законы распределения случайной величины можно построить при всех остальных значениях , равных y2; y3,, yn, ставя в соответствие числу xi условную вероятность:
pi/j = ().
В таблице приведён условный закон распределения случайной величины при =yj
x1 |
x2 |
xi |
xn |
||||
pi/j |
Можно ввести понятие условного математического ожидания при = yj
Заметим, что и равноценны. Можно ввести условное распределение при =xi соответствием
(j = 1,2,,k).
Также можно ввести понятие условного математического ожидания случайной величины при =xi:
.
Из определения следует, что если и независимы, то все условные законы распределения одинаковы и совпадают с законом распределения (напоминаем, что закон распределения определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М:
/ = yj,
при j = 1,2,,k, которые равны М.
Если условные законы распределения при различных значениях различны, то говорят, что между и имеет место статистическая зависимость.
Пример I. Пусть закон совместного распределения двух случайных величин и задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины , а первая и последняя строки - закон распределения случайной величины .
1 |
2 |
3 |
|||
10 |
1/36 |
0 |
0 |
1/36 |
|
20 |
2/36 |
1/36 |
0 |
3/36 |
|
30 |
2/36 |
3/36 |
2/36 |
7/36 |
|
40 |
1/36 |
8/36 |
16/36 |
25/36 |
|
6/36 |
12/36 |
18/36 |
Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).
Здесь явно просматривается зависимость условного закона распределения от величины .
Пример II. (Уже встречавшийся). Пусть даны две независимые случайные величины и с законами распределения
0 |
1 |
1 |
2 |
||||
Р |
1/3 |
2/3 |
Р |
3/4 |
1/4 |
Найдем законы распределений случайных величин:
=+ и =
1 |
2 |
3 |
0 |
1 |
2 |
||||
Р |
3/12 |
7/12 |
2/12 |
Р |
4/12 |
6/12 |
2/12 |
Построим таблицу закона совместного распределения и .
0 |
1 |
2 |
|||
1 |
3/12 |
0 |
0 |
3/12 |
|
2 |
1/12 |
6/12 |
0 |
7/12 |
|
3 |
0 |
0 |
2/12 |
2/12 |
|
4/12 |
6/12 |
2/12 |
Чтобы получить =2 и =0, нужно чтобы приняла значение 0, а приняла значение 2. Так как и независимы, то
Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.
Очевидно также Р(=3; =0)=0.
Построим полигоны условных распределений. Здесь зависимость от довольно близка к функциональной: значению =1 соответствует единственное =2, значению =2 соответствует единственное =3, но при =0 мы можем говорить лишь, что с вероятностью 3/4 принимает значение 1 и с вероятностью 1/4 - значение 2.
Пример III. Рассмотрим закон совместного распределения и , заданный таблицей
0 |
1 |
2 |
|||
1 |
1/30 |
3/30 |
2/30 |
1/5 |
|
2 |
3/30 |
9/30 |
6/30 |
3/5 |
|
3 |
1/30 |
3/30 |
2/30 |
1/5 |
|
1/6 |
3/6 |
2/6 |
В этом случае выполняется условие:
P(=xi; =yj)=P(=xi)P(=yj), i, j =1,2,3.
Построим законы условных распределений
1 |
2 |
3 |
||
р=1()=р=2()=р=3()=р=4() |
1/5 |
3/5 |
1/5 |
Законы условных распределений не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины . В данном случае и независимы.
Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.
cov(; ) = M((- M)(- M))
Пусть = x1, x2, x3,, xn, = y1, y2, y3,,yk.
cov(; )= (2)
Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения , а при малых значениях более вероятны малые значения , то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.
Если же более вероятны произведения (xi - M)(yj - M), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.
В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.
Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (xi - M)(yj - M)pij, то можно сказать, что в сумме они будут "гасить" друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.
Легко показать, что если:
P(( = xi)( = yj)) = P( = xi)P( = yj) (i = 1,2,,n; j = 1,2,,k),
то cov(; )= 0.
Действительно из (2) следует:
.
Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю.
Доказательство (для дискретных случайных величин с конечным числом значений).
Ковариацию удобно представлять в виде
cov(; )=M(- M- M+MM)=M()- M(M)- M(M)+M(MM)= M()- MM- MM+MM=M()- MM
Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.
Легко доказывается следующее свойство математического ожидания: если и -независимые случайные величины, то:
М()=ММ.
(Доказать самим, используя формулу:
M() = ).
Таким образом, для независимых случайных величин и cov(;)=0.
Задачи
1. Монету подбрасывают 5 раз. Случайная величина - число выпавших гербов, случайная величина - число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения при различных значениях . Найти условные математические ожидания и ковариацию и .
2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина - число тузов в выборке, случайная величина - число королей в выборке. Построить совместный закон распределения и , построить условные законы распределения при различных значениях . Найти условные математические ожидания и ковариацию и .
Размещено на Allbest.ru
Подобные документы
Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.
контрольная работа [38,5 K], добавлен 25.03.2015Определение математического ожидания и дисперсии параметров распределения Гаусса. Расчет функции распределения случайной величины Х, замена переменной. Значения функций Лапласа и Пуассона, их графики. Правило трех сигм, пример решения данной задачи.
презентация [131,8 K], добавлен 01.11.2013Определение вероятности для двух несовместных и достоверного событий. Закон распределения случайной величины; построение графика функции распределения. Нахождение математического ожидания, дисперсии, среднего квадратичного отклонения случайной величины.
контрольная работа [97,1 K], добавлен 26.02.2012Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.
контрольная работа [33,8 K], добавлен 13.12.2010Определение вероятностей различных событий по формуле Бернулли. Составление закона распределения дискретной случайной величины, вычисление математического ожидания, дисперсии и среднеквадратического отклонения случайной величины, плотностей вероятности.
контрольная работа [344,8 K], добавлен 31.10.2013Построение доверительных интервалов для математического ожидания и дисперсии, соответствующие вероятности. Исследование статистических характеристик случайной величины на основе выбора объема. Теоретическая и эмпирическая плотность распределения.
курсовая работа [594,4 K], добавлен 02.01.2012Вычисление вероятностей возможных значений случайной величины по формуле Бернулли. Расчет математического ожидания, дисперсии, среднеквадратического отклонения, медианы и моды. Нахождение интегральной функции, построение многоугольника распределения.
контрольная работа [162,6 K], добавлен 28.05.2012Особенности выполнения теоремы Бернулли на примере электрической схемы. Моделирование случайной величины по закону распределения Пуассона, заполнение массива. Теория вероятности, понятие ожидания, дисперсии случайной величины и закон распределения.
курсовая работа [29,7 K], добавлен 31.05.2010Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.
контрольная работа [725,5 K], добавлен 12.02.2010Задачи математической статистики. Распределение случайной величины на основе опытных данных. Эмпирическая функция распределения. Статистические оценки параметров распределения. Нормальный закон распределения случайной величины, проверка гипотезы.
курсовая работа [57,0 K], добавлен 13.10.2009