Нормальный закон распределения случайной величины

Плотность распределения нормальной случайной величины. Вычисление ее дисперсии, математического ожидания и среднеквадратического отклонения. Интегральная функция Лапласа. Правило "трех сигм". Понятие "двумерной" величины. Формула условной вероятности.

Рубрика Математика
Вид лекция
Язык русский
Дата добавления 19.01.2015
Размер файла 79,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Нормальный закон распределения

Если плотность распределения случайной величины определяется формулой:

, (1)

где а - произвольное число, а - положительное число, то говорят, что распределена по нормальному закону или что "нормальная" случайная величина. распределение нормальная случайная вероятность

Значения а и полностью определяют функцию р(х). Для неё иногда вводится обозначение:

p(x) = n(x;a;).

График плотности распределения нормальной случайной величины при некоторых значениях а и представлен на рисунке 6. График симметричен относительна прямой х = а, и выполняются условия: р(х) 0 при х . Если а увеличивать, оставляя неизменной, то график будет перемещаться вправо, а если а уменьшать, то - влево, не изменяя формы.

Если значение а неизменно, то относительно малому значению будет соответствовать график р(х) с выраженным пиком, как на рисунке 2. При относительно большом значении график р(х) представляет собой пологую кривую, как изображено на рисунке 3.

Функция распределения F(x) нормальной случайной величины иногда обозначается N(x;a;). Она обычным образом получается из плотности распределения :

Графики функции F(x) для нормально распределённых случайных величин при относительно малых и относительно больших значениях изображены, соответственно, на рисунках 4 и 5.

Из симметрии графика функции плотности распределения р(х) нормально распределённой случайной величины относительно прямой х = а следует, что М = а.

Если вычислить дисперсию D нормально распределённой случайной величины, то оказывается, что она равна 2.

Таким образом, параметры а и в формуле для плотности распределения случайной величины, распределённой по нормальному закону, приобретают смысл: а - математическое ожидание, 2 - дисперсия.

Вероятность того, что нормально распределённая случайная величина примет значение из промежутка (х 1, х 2) рассчитывается по формуле:

Здесь - интегральная функция Лапласа

;

.

Значения (х) определяются из таблиц, как это показывалось ранее.

Если случайная величина имеет плотность распределения, выражающуюся функцией n(x;0;1), то есть - нормально распределённая случайная величина с математическим ожиданием, равным нулю, и дисперсией, равной единице, то

.

Случайную величину с плотностью распределения n(x;0;1) можно принять за некоторый эталон для случайных величин, распределённых по нормальному закону. График плотности распределения такой случайной величины симметричен относительно оси ординат.

Пусть и - независимые нормально распределённые случайные величины, при этом:

М = а 1, D = 12, М = а 2, D = 22.

Тогда случайная величина , равная сумме с 1 + с 21 и с 2 - любые числа), тоже распределена по нормальному закону. Её математическое ожидание и дисперсия определяются формулами:

М = с 1а 1 + с 2 а 2, D = с 1212 + с 2222.

Задача

Масса ящика, вмещающего 12 бутылок - нормально распределённая случайная величина с математическим ожиданием 2 кг и среднеквадратическим отклонением 0,01 кг. Масса бутылки с пивом - тоже нормально распределённая случайная величина с математическим ожиданием 0,8 кг и среднеквадратическим отклонением 0,04 кг. Найти вероятность того, что масса ящика с 12-ю бутылками пива будет находиться в пределах от 11 до 11,5 килограммов.

Правило 3-х (трех "сигм"). Пусть имеется нормально распределённая случайная величина с математическим ожиданием, равным а и дисперсией 2. Определим вероятность попадания в интервал (а - 3; а + 3), то есть вероятность того, что принимает значения, отличающиеся от математического ожидания не более, чем на три среднеквадратических отклонения.

P(а - 3< < а + 3)=Ф(3) - Ф(- 3)=2Ф (3)

По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практически равняется единице. Таким образом, можно сделать важный вывод: нормальная случайная величина принимает значения, отклоняющиеся от ее математического ожидания не более чем на 3.

Выбор числа 3 здесь условен и никак не обосновывается: можно было выбрать 2,8, 2,9 или 3,2 и получить практически тот же вероятностный результат. Учитывая, что Ф(2)=0,477, можно было бы говорить и о правиле 2-х "сигм".

Совместное распределение двух случайных величин

Пусть пространство элементарных исходов случайного эксперимента таково, что каждому исходу ij ставиться в соответствие значение случайной величины , равное xi и значение случайной величины , равное yj.

1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).

2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины и - это доходности акций этих корпораций.

В этих случаях мы можем говорить о совместном распределении случайных величин и или о "двумерной" случайной величине.

Если и дискретны и принимают конечное число значений ( - n значений, а - k значений), то закон совместного распределения случайных величин и можно задать, если каждой паре чисел xi, yj (где xi принадлежит множеству значений , а y j-множеству значений ) поставить в соответствие вероятность pij, равную вероятности события, объединяющего все исходы ij (и состоящего лишь из этих исходов), которые приводят к значениям = xi; = y j.

Такой закон распределения можно задать в виде таблицы:

y1

y2

yj

yk

x1

р 11

р 12

р 1j

р 1k

P1

xi

рi1

рi2

рij

рik

Pi

(*)

xn

рn1

рn2

рnj

рnk

Pn

P1

P2

Pj

Pk

Очевидно:

Если просуммировать все рij в i-й строке, то получим:

- вероятность того, что случайная величина примет значение xi. Аналогично, если просуммировать все рij в j-м столбце, то получим:

вероятность того, что принимает значение y j.

Соответствие xi Pi (i = 1,2,,n) определяет закон распределения , также как соответствие yj P j (j = 1,2,,k) определяет закон распределения случайной величины .

Очевидно:

, .

Раньше мы говорили, что случайные величины и независимы, если:

pij=PiP j (i=1,2,,n; j=1,2,,k).

Если это не выполняется, то и зависимы.

В чем проявляется зависимость случайных величин и и как ее выявить из таблицы?

Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число:

pi/1 = (1)

которое будем называть условной вероятностью = xi при =y1. Обратите внимание на то, что это не вероятность Pi события = xi, и сравните формулу (1) с уже известной формулой условной вероятности:

.

Соответствие xiрi/1, (i=1,2,,n) будем называть условным распределением случайной величины при =y1. Очевидно:

.

Аналогичные условные законы распределения случайной величины можно построить при всех остальных значениях , равных y2; y3,, yn, ставя в соответствие числу xi условную вероятность:

pi/j = ().

В таблице приведён условный закон распределения случайной величины при =yj

x1

x2

xi

xn

pi/j

Можно ввести понятие условного математического ожидания при = yj

Заметим, что и равноценны. Можно ввести условное распределение при =xi соответствием

(j = 1,2,,k).

Также можно ввести понятие условного математического ожидания случайной величины при =xi:

.

Из определения следует, что если и независимы, то все условные законы распределения одинаковы и совпадают с законом распределения (напоминаем, что закон распределения определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М:

/ = yj,

при j = 1,2,,k, которые равны М.

Если условные законы распределения при различных значениях различны, то говорят, что между и имеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин и задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины , а первая и последняя строки - закон распределения случайной величины .

1

2

3

10

1/36

0

0

1/36

20

2/36

1/36

0

3/36

30

2/36

3/36

2/36

7/36

40

1/36

8/36

16/36

25/36

6/36

12/36

18/36

Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).

Здесь явно просматривается зависимость условного закона распределения от величины .

Пример II. (Уже встречавшийся). Пусть даны две независимые случайные величины и с законами распределения

0

1

1

2

Р

1/3

2/3

Р

3/4

1/4

Найдем законы распределений случайных величин:

=+ и =

1

2

3

0

1

2

Р

3/12

7/12

2/12

Р

4/12

6/12

2/12

Построим таблицу закона совместного распределения и .

0

1

2

1

3/12

0

0

3/12

2

1/12

6/12

0

7/12

3

0

0

2/12

2/12

4/12

6/12

2/12

Чтобы получить =2 и =0, нужно чтобы приняла значение 0, а приняла значение 2. Так как и независимы, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Очевидно также Р(=3; =0)=0.

Построим полигоны условных распределений. Здесь зависимость от довольно близка к функциональной: значению =1 соответствует единственное =2, значению =2 соответствует единственное =3, но при =0 мы можем говорить лишь, что с вероятностью 3/4 принимает значение 1 и с вероятностью 1/4 - значение 2.

Пример III. Рассмотрим закон совместного распределения и , заданный таблицей

0

1

2

1

1/30

3/30

2/30

1/5

2

3/30

9/30

6/30

3/5

3

1/30

3/30

2/30

1/5

1/6

3/6

2/6

В этом случае выполняется условие:

P(=xi; =yj)=P(=xi)P(=yj), i, j =1,2,3.

Построим законы условных распределений

1

2

3

р=1()=р=2()=р=3()=р=4()

1/5

3/5

1/5

Законы условных распределений не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины . В данном случае и независимы.

Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

cov(; ) = M((- M)(- M))

Пусть = x1, x2, x3,, xn, = y1, y2, y3,,yk.

cov(; )= (2)

Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения , а при малых значениях более вероятны малые значения , то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (xi - M)(yj - M), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (xi - M)(yj - M)pij, то можно сказать, что в сумме они будут "гасить" друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если:

P(( = xi)( = yj)) = P( = xi)P( = yj) (i = 1,2,,n; j = 1,2,,k),

то cov(; )= 0.

Действительно из (2) следует:

.

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю.

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

cov(; )=M(- M- M+MM)=M()- M(M)- M(M)+M(MM)= M()- MM- MM+MM=M()- MM

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если и -независимые случайные величины, то:

М()=ММ.

(Доказать самим, используя формулу:

M() = ).

Таким образом, для независимых случайных величин и cov(;)=0.

Задачи

1. Монету подбрасывают 5 раз. Случайная величина - число выпавших гербов, случайная величина - число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения при различных значениях . Найти условные математические ожидания и ковариацию и .

2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина - число тузов в выборке, случайная величина - число королей в выборке. Построить совместный закон распределения и , построить условные законы распределения при различных значениях . Найти условные математические ожидания и ковариацию и .

Размещено на Allbest.ru


Подобные документы

  • Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.

    контрольная работа [38,5 K], добавлен 25.03.2015

  • Определение математического ожидания и дисперсии параметров распределения Гаусса. Расчет функции распределения случайной величины Х, замена переменной. Значения функций Лапласа и Пуассона, их графики. Правило трех сигм, пример решения данной задачи.

    презентация [131,8 K], добавлен 01.11.2013

  • Определение вероятности для двух несовместных и достоверного событий. Закон распределения случайной величины; построение графика функции распределения. Нахождение математического ожидания, дисперсии, среднего квадратичного отклонения случайной величины.

    контрольная работа [97,1 K], добавлен 26.02.2012

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Определение вероятностей различных событий по формуле Бернулли. Составление закона распределения дискретной случайной величины, вычисление математического ожидания, дисперсии и среднеквадратического отклонения случайной величины, плотностей вероятности.

    контрольная работа [344,8 K], добавлен 31.10.2013

  • Построение доверительных интервалов для математического ожидания и дисперсии, соответствующие вероятности. Исследование статистических характеристик случайной величины на основе выбора объема. Теоретическая и эмпирическая плотность распределения.

    курсовая работа [594,4 K], добавлен 02.01.2012

  • Вычисление вероятностей возможных значений случайной величины по формуле Бернулли. Расчет математического ожидания, дисперсии, среднеквадратического отклонения, медианы и моды. Нахождение интегральной функции, построение многоугольника распределения.

    контрольная работа [162,6 K], добавлен 28.05.2012

  • Особенности выполнения теоремы Бернулли на примере электрической схемы. Моделирование случайной величины по закону распределения Пуассона, заполнение массива. Теория вероятности, понятие ожидания, дисперсии случайной величины и закон распределения.

    курсовая работа [29,7 K], добавлен 31.05.2010

  • Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.

    контрольная работа [725,5 K], добавлен 12.02.2010

  • Задачи математической статистики. Распределение случайной величины на основе опытных данных. Эмпирическая функция распределения. Статистические оценки параметров распределения. Нормальный закон распределения случайной величины, проверка гипотезы.

    курсовая работа [57,0 K], добавлен 13.10.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.