Случайные величины, их виды и примеры

Методы обработки результатов опытов и получение из них необходимых данных. Понятие и обозначение случайных величин. Определение суммарной вероятности возможных значений случайной величины, ее математическое ожидание. Функция распределения вероятностей.

Рубрика Математика
Вид курсовая работа
Язык русский
Дата добавления 12.11.2012
Размер файла 325,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Негосударственное некоммерческое образовательное учреждение

высшего профессионального образования

Байкальский филиал Гуманитарного института (г. Москва)

Экономический факультет

Реферат

По дисциплине: «Теория вероятностей»

На тему «Случайные величины, их виды и примеры»

Выполнила студентка 3 курса

Жучкова Татьяна.

Проверил:

Цыренов Д.Д..

Улан-Удэ 2012

Введение

Случайные явления вызываются вполне определенными причинами. Все явления окружающего нас мира взаимно связаны и влияют одно на другое. Поэтому каждое наблюдаемое явление связано причинной зависимостью с множеством других явлений и течение его зависит от множества факторов. Никакой закон не может характеризовать явление всесторонне. Наблюдаемые в реальном явлении отклонения от закономерности, вызываемые совместным действием бесчисленного множества неучтенных факторов, и представляют собой случайные явления.

При экспериментальном изучении какого-либо явления с целью установления его закономерностей приходится наблюдать его многократно в одинаковых условиях. При этом под одинаковыми условиями мы понимаем одинаковые значения всех количественных характеристик контролируемых факторов. Все неконтролируемые факторы будут при этом различными. Вследствие этого действие контролируемых факторов будет практически одинаковым при разных наблюдениях одного и того же явления. В этом как раз и проявляются законы данного явления. Случайные же отклонения от закономерности, вызванные действием неконтролируемых факторов, будут различными при разных наблюдениях, причем предвидеть заранее, какими они будут при данном конкретном наблюдении, принципиально невозможно. Роль случайностей в разных явлениях различна. В некоторых явлениях случайные отклонения от закономерностей настолько малы, что их можно не учитывать. Однако есть и такие явления, в которых невозможно подметить никаких закономерностей, и случайность играет основную роль. При многократном наблюдении случайных явлений в них самих можно заметить определенные закономерности. Изучив эти закономерности, человек получает возможность в известной степени управлять случайными явлениями, ограничивать их влияние, предсказывать результаты их действия и даже целенаправленно использовать их в своей практической деятельности. Изучением закономерностей массовых случайных явлений занимается особая математическая наука -- теория вероятностей. Методы теории вероятностей, называемые вероятностными или статистическими, дают возможность производить расчеты, позволяющие делать определенные практические выводы относительно случайных явлений. Как и всякая прикладная наука, теория вероятностей нуждается в исходных экспериментальных данных для расчетов. Раздел теории вероятностей, изучающий методы обработки результатов опытов и получения из них необходимых данных, называется математической статистикой.

1. Случайные величины

Случайной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперед не известное и зависящее от случайных причин, которые заранее не могут быть учтены.

Пример 1. Число родившихся мальчиков среди ста новорожденных есть случайная величина, которая имеет следующие возможные значения: 0, 1, 2, ..., 100.

Пример 2. Расстояние, которое пролетит снаряд при выстреле из орудия, есть случайная величина. Действительно, расстояние зависит не только от установки прицела, но и от многих других причин (силы и направления ветра, температуры и т. д.), которые не могут быть полностью учтены. Возможные значения этой величины принадлежат некоторому промежутку (а, b).

Случайные величины обозначаются прописными буквами X, Y, Z, а их возможные значения-- сответствующими строчными буквами х, у, z. Например, если случайная величина X имеет три возможных значения, то они будут обозначены так: хх, хz, хy.

Рассмотрим прерывную случайную величину  с возможными значениями х1, х2, … хn. Каждое из этих значений возможно, но не достоверно, и величина Х может принять каждое из них с некоторой вероятностью. В результате опыта величина Х примет одно из этих значений, т.е. произойдет одно из полной группы несовместных событий:

(1.1)

Обозначим вероятности этих событий буквами p с соответствующими индексами:

Так как несовместные события образуют полную группу, то

,

т.е. сумма вероятностей всех возможных значений случайной величины равна единице. Эта суммарная вероятность каким-то образом распределена между отдельными значениями. Случайная величина будет полностью описана с вероятностной точки зрения, если мы зададим это распределение, т.е. в точности укажем, какой вероятностью обладает каждое из событий. Этим мы установим так называемый закон распределения случайной величины.

Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Про случайную величину мы будем говорить, что она подчинена данному закону распределения. Установим форму, в которой может быть задан закон распределения прерывной случайной величины X. Простейшей формой задания этого закона является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности:

Такую таблицу мы будем называть рядом распределения случайной величины X.

Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изображению: по оси абсцисс откладываются возможные значения случайной величины, а по оси ординат - вероятности этих значений. Для наглядности полученные точки соединяются отрезками прямых. Такая фигура называется многоугольником распределения (рис. 1.1). Многоугольник распределения, так же как и ряд распределения, полностью характеризует случайную величину; он является одной из форм закона распределения.

2. Классификация случайных величин

Существует два типа случайных величин: дискретные и непрерывные.

Дискретные случайные величины принимают в результате испытания одно из изолированного дискретного множества значений. Они хорошо подходят для описания результатов измерений, связанных с подсчетом и выражаемых целыми числами.

Примеры дискретных случайных величин: оценка, полученная на экзамене, число попаданий в мишень в серии из 10 выстрелов и т. п.

Вероятность принятия дискретной случайной величиной каждого из возможных ее значений больше нуля. Эта вероятность может быть записана как

,

где i =... ?1, 0, 1 ...

Здесь X -- обозначение случайной величины; xi -- конкретные числовые значения, принимаемые дискретной случайной величиной; pi -- вероятности этих значений.

Индекс i может в общем случае пробегать значения от ? до .

Непрерывные случайные величины в результате испытания могут принимать любые значения из некоторого интервала.

Примеры непрерывных случайных величин: спортивный результат в беге или прыжках, рост и масса тела человека, сила мышц и др.

Поскольку число возможных значений непрерывной случайной величины бесконечно велико и чаще всего нет оснований предположить, что одни значения появляются существенно чаще других, то вероятность принятия непрерывной случайной величиной каждого отдельного значения оказывается равной нулю. По этой причине нельзя описать распределение непрерывной случайной величины в виде вероятностей ее отдельных значений, как в случае дискретных случайных величин.

3. Функция распределения вероятностей

Непрерывную случайную величину нельзя охарактеризовать перечнем всех возможных ее значений и их вероятностей. Естественно, встает вопрос о том, нельзя ли охарактеризовать случайную величину иным способом, одинаково годным как для дискретных, так и для непрерывных случайных величин.

Функцией распределения случайной величины Х называют функцию F(x), определяющую для каждого значения х, вероятность того, что случайная величина Х примет значение меньше х, т.е.

F(x) = P (X <x).

Иногда функцию F(x) называют интегральной функцией распределения. Функция распределения обладает следующими свойствами:

1. Значение функции распределения принадлежит отрезку [0,1]: 0 ? F(x) ? 1.

2. Функции распределения есть неубывающая функция.

3. Вероятность того, что случайная величина Х примет значение, заключенное в интервале (а, b), равна приращению функции распределения на этом интервале:

Р(а < X < b) = F(b) - F(а). (2.1)

4. Если все возможные значения случайной величины Х принадлежат интервалу (а, b), то

F(x) = 0 при х ? а?;F(x) = 1 при х ? b.

5. Справедливы следующие предельные отношения:

.

Для дискретной случайной величины Х, которая может принимать значения х1, х2, …,хn, функция распределения имеет вид

где неравенство под знаком суммы означает, что суммирование касается всех тех значений хi, величина которых меньше х.

Поясним эту формулу исходя из определения функции F(x). Предположим, что аргумент х принял какое-то определенное, но такое, что выполняется неравенство xi<x?xi+1. Тогда левее числа х на числовой оси окажутся только те значения случайной величины, которые имеют индекс 1, 2, 3, …, i. Поэтому неравенство Х<x выполняется, если величина Х примет значения хк, где k = 1, 2, …, i. Таким образом, событие Х<x наступит, если наступит любое, неважно какое, из событий Х = х1, Х=х2, Х=х3, …, Х=хi. Так как эти события несовместны, то по теореме сложения вероятностей имеем

. (2.2)

Предположим теперь, что для непрерывной случайной величины Х ее функция распределения F(x) имеет непрерывную производную

F'(x)= ц(x).

Функцию ц(x) называют плотностью вероятности (для данного распределения) или дифференциальной функцией.

Так как плотность вероятности ц(x) является производной неубывающей функции F(x), то она неотрицательна: ц(x)?0. В отличие от функции распределения, плотность вероятности может принимать сколь угодно большие значения.

Так как F(x) является первообразной для ц(x), то на основании формулы Ньютона-Лейбница имеем . Отсюда в силу (3.1) получаем

P(a ? X ? b) = . (2.3)

Полагая а=-? и b=+?, получаем достоверное событие Х принадлежащее (-?, +?), вероятность которого равна единице. Следовательно,

.

В частности, если все возможные значения случайной величины принадлежат интервалу (а, b), то . Полагая в формуле а = -?, b = х и обозначая для ясности переменную интегрирования t, получим функцию распределения

F(x) = P(- ? < X < x) = .

4. Числовые характеристики случайной величины

Функция распределения содержит полную информацию о случайной величине. На практике функцию распределения не всегда можно установить; иногда такого исчерпывающего знания и не требуется. Частичную информацию о случайной величине дают числовые характеристики, которые в зависимости от рода информации делятся на следующие группы.

1. Характеристики положения случайной величины на числовой оси (мода Мo, медиана Мe, математическое ожидание М(Х)).

2. Характеристики разброса случайной величины около среднего значения (дисперсия D(X), среднее квадратическое отклонение у(х)).

3. Характеристики формы кривой y = ц(x) (асимметрия As, эксцесс Ех).

Рассмотрим подробнее каждую из указанных характеристик.

Математическое ожидание случайной величины Х указывает некоторое среднее значение, около которого группируются все возможные значения Х. Для дискретной случайной величины, которая может принимать лишь конечное число возможных значений, математическим ожиданием называют сумму произведений всех возможных значений случайной величины на вероятность этих значений:

. (2.4)

Для непрерывной случайной величины Х, имеющей заданную плотность распределения ц(x) математическим ожиданием называется следующий интеграл:

. (2.5)

Здесь предполагается, что несобственный интеграл  сходится абсолютно, т.е. существует. Свойства математического ожидания:

1. М(С) = C, где С = const;

2. M(C•Х) = С•М(Х);

3. М(Х ± Y) = М(Х) ± М(Y), где X и Y - любые случайные величины;

4. М(Х•Y)=М(Х)•М(Y), где X и Y - независимые случайные величины.

Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина.

Модой дискретной случайной величины, обозначаемой Мо, называется ее наиболее вероятное значение (рис. 2.3), а модой непрерывной случайной величины - значение, при котором плотность вероятности максимальна (рис. 2.4).

Рис. 2.3 Рис. 2.4

Медианой непрерывной случайной величины Х называется такое ее значение Ме, для которого одинаково вероятно, окажется ли случайная величина меньше или больше Ме, т.е.

Р(Х < Ме) = Р(X > Ме)

Из определения медианы следует, что Р(Х<Ме) = 0,5, т.е. F (Ме) = 0,5. Геометрически медиану можно истолковывать как абсциссу, в которой ордината ц(x) делит пополам площадь, ограниченную кривой распределения (рис. 2.5). В случае симметричного распределения медиана совпадает с модой и математическим ожиданием (рис. 2.6).

Рис. 2.5 Рис. 2.6

Дисперсией случайной величины называется математическое ожидание квадрата ее отклонения от математического ожидания

D(X) = M(X -М(Х))2.

Дисперсию случайной величины Х удобно вычислять по формуле:

а) для дискретной величины

; (2.6)

б) для непрерывной случайной величины

j(х)dx - [M(X)]2 . (2.7)

Дисперсия обладает следующими свойствами:

1. D(C) = 0, где С = const;

2. D(C?X) = C2•D(X);

3. D(X±Y) = D(X) + D(Y), если X и Y независимые случайные величины.

Средним квадратическим отклонением случайной величины Х называется арифметический корень из дисперсии, т.е.

у(X) =.

Заметим, что размерность у(х) совпадает с размерностью самой случайной величины Х, поэтому среднее квадратическое отклонение более удобно для характеристики рассеяния.

Обобщением основных числовых характеристик случайных величин является понятие моментов случайной величины.

Начальным моментом k-го порядка бk случайной величины Х называется математическое ожидание величины Хk, т.е.

бk = М(Хk).

Начальный момент первого порядка - это математическое ожидание случайной величины.

Центральным моментом k-го порядка мk случайной величины Х называется математическое ожидание величины (Х-М(Х))k, т.е.

мk = М(Х-М(Х))k.

Центральный момент второго порядка - это дисперсия случайной величины. Для дискретной случайной величины начальный момент выражается суммой

бk = ,

а центральный - суммой

мk =

где рi = p(X = xi). Для начального и центрального моментов непрерывной случайной величины можно получить следующие равенства:

бk = м?,k = ,

где ц(x) - плотность распределения случайной величины Х.

Величина As = м3 / у3 называется коэффициентом асимметрии.

Если коэффициент асимметрии отрицательный, то это говорит о большом влиянии на величину m3 отрицательных отклонений. В этом случае кривая распределения (рис.2.7) более полога слева от М(Х). Если коэффициент As положительный, а значит, преобладает влияние положительных отклонений, то кривая распределения (рис.2.7) более полога справа. Практически определяют знак асимметрии по расположению кривой распределения относительно моды (точки максимума дифференциальной функции).

Рис. 2.7

Эксцессом Еk называется величина

Еk = м4 / у4 - 3.

Можно показать, что для наиболее распространенного в природе нормального закона распределения, который будет рассматриваться в следующем параграфе, отношение м4 / у4 = 3. Поэтому эксцесс служит для сравнения данного распределения с нормальным, у которого эксцесс равен нулю. Можно было бы доказать, что распределения более островершинные, чем нормальное, имеют эксцесс Еk > 0, а более плосковершинные - имеют эксцесс Еk < 0 (рис.3.8).

Рис. 2.8

5. Независимость и зависимость случайных величин

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Понятие о независимых случайных величинах - одно их важных понятий теории вероятностей.

Случайная величина называется независимой от случайной величины , если закон распределения величины Y не зависит от того, какое значение приняла величина X.

Для непрерывных случайных величин условие независимости Y от X может быть записано в виде:

при любом y.

Напротив, в случае, если Yзависит от X, то

.

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина X не зависит от Y.

Действительно, пусть Y не зависит от X:

.

Из формул имеем:

,

откуда получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и Y называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

,

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Условие может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции  можно заключить, что случайные величины X, Y являются независимыми, а именно, если плотность распределения  распадается на произведение двух функций, из которых одна зависит только от x, другая - только от y, то случайные величины независимы.

Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы ( X, Y) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины X и Y независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «независимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую - функциональную зависимость. Две величины X и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости -- с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, и действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины  величина  имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступлении.

Рассмотрим, например, две такие случайные величины: X - рост наугад взятого человека, Y - его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом:

.

Формулы подобного типа, очевидно, не являются точными и выражают лишь некоторую среднюю, массовую закономерность, тенденцию, от которой в каждом отдельном случае возможны отступления.

В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: X - рост наугад взятого человека; Z - его возраст. Очевидно, для взрослого человека величины X и Z можно считать практически независимыми; напротив, для ребенка величины X и Z являются зависимыми.

Приведем еще несколько примеров случайных величин, находящихся в различных степенях зависимости.

1. Из камней, составляющих кучу щебня, выбирается наугад один камень. Случайная величина Q - вес камня; случайная величина L - наибольшая длина камня. Величины Q и L находятся в явно выраженной вероятностной зависимости.

2. Производится стрельба ракетой в заданный район океана. Величина ?X - продольная ошибка точки попадания (недолет, перелет); случайная величина ? V - ошибка в скорости ракеты в конце активного участка движения. Величины ?X и ?V явно зависимы, так как ошибка ?V является одной из главных причин, порождающих продольную ошибку ?X.

3. Летательный аппарат, находясь в полете, измеряет высоту над поверхностью Земли с помощью барометрического прибора. Рассматриваются две случайные величины: ?H - ошибка измерения высоты и G - вес топлива, сохранившегося в топливных баках к моменту измерения. Величины ?H и G практически можно считать независимыми.

6. Распределения случайных величин

случайный величина математический вероятность

Распределение числовой случайной величины - это функция, которая однозначно определяет вероятность того, что случайная величина принимает заданное значение или принадлежит к некоторому заданному интервалу.

если случайная величина принимает конечное число значений. Тогда распределение задается функцией Р(Х = х), ставящей каждому возможному значению х случайной величины Х вероятность того, что Х = х.

если случайная величина принимает бесконечно много значений. Это возможно лишь тогда, когда вероятностное пространство, на котором определена случайная величина, состоит из бесконечного числа элементарных событий. Тогда распределение задается набором вероятностей P(a <X <b) для всех пар чисел a, b таких, что a<b. Распределение может быть задано с помощью т.н. функции распределения F(x) = P(X<x), определяющей для всех действительных х вероятность того, что случайная величина Х принимает значения, меньшие х. Ясно, что

P(a <X <b) = F(b) - F(a).

Это соотношение показывает, что как распределение может быть рассчитано по функции распределения, так и, наоборот, функция распределения - по распределению.

Используемые в прикладных исследованиях функции распределения бывают либо дискретными, либо непрерывными, либо их комбинациями.

Дискретные функции распределения соответствуют дискретным случайным величинам, принимающим конечное число значений или же значения из множества, элементы которого можно перенумеровать натуральными числами (такие множества в математике называют счетными). Их график имеет вид ступенчатой лестницы.

Непрерывные функции распределения не имеют скачков. Они монотонно возрастают при увеличении аргумента - от 0 при  до 1 при . Случайные величины, имеющие непрерывные функции распределения, называют непрерывными.

Практически используемые непрерывные функции распределения, как правило, имеют производные. Первая производная f(x) функции распределения F(x) называется плотностью вероятности,

По плотности вероятности можно определить функцию распределения:

Для любой функции распределения

а потому

Перечисленные свойства функций распределения постоянно используются в вероятностно-статистических методах принятия решений. В частности, из последнего равенства вытекает конкретный вид констант в формулах для плотностей вероятностей.

7. Распределения для дискретных случайных величин

Биномиальное распределение.

Пусть производится n независимых испытаний, в каждом из которых событие А может появиться либо не появиться. Вероятность наступления события во всех испытаниях постоянна и равна р (следовательно, вероятность непоявления q =1--Р). Рассмотрим в качестве дискретной случайной величины X число появлений события А в этих испытаниях. Поставим перед собой задачу: найти закон распределения величины X. Для ее решения требуется определить возможные значения X и их вероятности. Очевидно, событие А в n испытаниях может либо не появиться, либо появиться 1 раз, либо 2 раза, ..., либо n раз. Таким образом, возможные значения X таковы: х 1= 0, x 2 = l, x 3 = 2, ..., х n+1 = n. Остается найти вероятности этих возможных значений, для чего достаточно воспользоваться формулой Бернулли:

Pn (k) = C kn * Pk * q n-k

где k = 0, 1, 2, .... п. Формула Бернулли и является аналитическим выражением искомого закона распределения.

Биномиальным называют распределение вероятностей, определяемое формулой Бернулли. Закон назван «биномиальным» потому, что правую часть равенства можно рассматривать как общий член разложения бинома Ньютона:

(p + q)n - Сnn Pn + С n-1 n P n-1 + … +С k n P k q n-k+ ... +C°nqn

Таким образом, первый член разложения рn определяет вероятность наступления рассматриваемого события n раз в n независимых испытаниях; второй член np n-1 q определяет вероятность наступления события n--1 раз; ...; последний член q n определяет вероятность того, что событие не появится ни разу.

Напишем биномиальный закон в виде таблицы:

X

n

n-1

k

0

Р

P n

np n-1 q

С k n P k q n-k

q n

Распределение Пуассона.

Пусть производится n независимых испытаний, в каждом из которых вероятность появления события А равна р. Для определения вероятности k появлений события в этих испытаниях используют формулу Бернулли. Если же n велико, то пользуются асимптотической формулой Лапласа. Однако эта формула непригодна, если вероятность события мала (p ? 0,1). В этих случаях (n велико, р мало) прибегают к асимптотической формуле Пуассона.

Итак, поставим перед собой задачу найти вероятность того, что при очень большом числе испытаний, в каждом из которых вероятность события очень мала, событие наступит ровно k раз. Сделаем важное допущение: произведение nр сохраняет постоянное значение, а именно nр = Х. Как будет следовать из дальнейшего (см. гл. VII, § 5), это означает, что среднее число появлений события в различных сериях испытаний, т. е. при различных значениях n, остается неизменным. Воспользуемся формулой Бернулли для вычисления интересующей нас вероятности:

P n (k)=

Так как рn = ?, то р = ?/n. Следовательно,

P n (k)=

Приняв во внимание, что n имеет очень большое значение, вместо Р n (k) найдем lim Рn (k). При этом будет найдено лишь приближенное значение отыскиваемой вероятности: n хотя и велико, но конечно, а при отыскании предела мы устремим n к бесконечности. Заметим, что поскольку произведение nр сохраняет постоянное значение, то при n--> ? вероятность р--> 0. Таким образом (для простоты записи знак приближенного равенства опущен),

P n (k)=.

Эта формула выражает закон распределения Пуассона вероятностей массовых (n велико) и редких (р мало) событий. Замечание. Имеются специальные таблицы, пользуясь которыми можно найти Pn(k), зная k и X.

8. Распределения для непрерывных случайных величин

Нормальное распределение.

Нормальный закон распределения, часто называемый законом Гаусса. Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.

Можно доказать, что сумма достаточно большого числа независимых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма нежестких ограничений), приближенно подчиняется нормальному закону, и это выполняется тем точнее, чем большее количество случайных величин суммируется.

Нормальный закон распределения характеризуется плотностью вероятности вида:

(6.1.1)

Кривая распределения по нормальному закону имеет симметричный холмообразный вид (рис. 6.1.1). Максимальная ордината кривой, равная , соответствует точке х=m; по мере удаления от точки m плотность распределения падает, и при  кривая асимптотически приближается к оси абсцисс.

Рис. 6.1.1.

Выясним смысл численных параметров m и ?, входящих в выражение нормального закона (6.1.1); докажем, что величина m есть не что иное, как математическое ожидание, а величина ? - среднее квадратическое отклонение величины X. Для этого вычислим основные числовые характеристики величины X - математическое ожидание и дисперсию.

Применяя замену переменной

имеем:

(6.1.2)

Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера-Пуассона:

. (6.1.3)

Следовательно,

,

т.е. параметр m представляет собой математическое ожидание величины X.

Вычислим дисперсию величины X:

.

Применив снова замену переменной

имеем:

.

Интегрируя по частям, получим:

.

Первое слагаемое в фигурных скобках равно нулю (так как при  убывает быстрее, чем возрастает любая степень ), второе слагаемое по формуле (6.1.3) равно , откуда

.

Следовательно, параметр ? в формуле (6.1.1) есть не что иное, как среднее квадратическое отклонение величины X.

Выясним смысл параметров m и ? нормального распределения. Непосредственно из формулы (6.1.1) видно, что центром симметрии распределения является центр рассеивания m. Это ясно из того, что при изменении знака разности (x-m) на обратный выражение (6.1.1) не меняется. Если изменять центр рассеивания m, кривая распределения будет смещаться вдоль оси абсцисс, не изменяя своей формы (рис. 6.1.2). Центр рассеивания характеризует положение распределения на оси абсцисс.

Рис. 6.1.2.

Размерность центра рассеивания - та же, что размерность случайной величины X.

Параметр ? характеризует не положение, а самую форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна ?; при увеличении ? максимальная ордината уменьшается. Так как площадь кривой распределения всегда должна оставаться равной единице, то при увеличении ? кривая распределения становится более плоской, растягиваясь вдоль оси абсцисс; напротив, при уменьшении ? кривая распределения вытягивается вверх, одновременно сжимаясь с боков, и становится более иглообразной. На рис. 6.1.3 показаны три нормальные кривые (I, II, III) при m=0; из них кривая I соответствует самому большому, а кривая III - самому малому значению ?. Изменение параметра ? равносильно изменению масштаба кривой распределения - увеличению масштаба по одной оси и такому же уменьшению по другой.

Рис. 6.1.3.

Размерность параметра ?, естественно, совпадает с размерностью случайной величины X.

Равномерное распределение.

Равномерное распределение вероятностей является простейшим и может быть как дискретным, так и непрерывным. Дискретное равномерное распределение - это такое распределение, для которого вероятность каждого из значений СВ одна и та же, то есть:

где N - количество возможных значений СВ.

Распределение вероятностей непрерывной CВ Х, принимающие все свои значения из отрезка [а;b] называется равномерным, если ее плотность вероятности на этом отрезке постоянна, а вне его равна нулю:

Заключение

Теория вероятностей является мощным инструментом исследования, и поэтому она находит большое число самых разнообразных применений в различных областях. Области ее применения непрерывно расширяются. В прошлом веке теория вероятностей получила применение в теории измерений, в теории стрельбы и в физике. В нашем веке она постепенно проникла в аэродинамику и гидродинамику, радиотехнику, теорию управления, динамику полета, теорию связи, строительную механику, теорию механизмов и машин, теорию волнения моря и качки кораблей, метеорологию и во многие другие области знания. Сейчас трудно назвать отрасль науки, которая не пользовалась бы вероятностными методами. Вся теория современных сложных систем и процессов управления основана на применении статистических методов. Этот процесс непрерывного расширения областей применения теории вероятностей вполне естествен и легко объясняется. Теория вероятностей во всех таких случаях неизменно дает новую теорию, более точно описывающую изучаемые явления и обеспечивающую совпадение результатов теоретических расчетов с экспериментальными данными. Особенность вероятностных методов состоит в том, что они рассматривают исследуемое явление в целом, изучают результаты совокупного действия всех причинных связей, которые невозможно проследить по отдельности.

Список использованной литературы

1. Гмурман В.Е. Теория вероятностей и математическая статистика: Учеб. пособие для вузов/В.Е. Гмурман. -- 9-е изд., стер. -- М.: Высш. шк., 2003. -- 479 с: ил.

2. Вентцель Е.С. Теория вероятностей: Учеб. для вузов. -- 6-е изд. стер. -- М.: Высш. шк., 1999.-- 576 c.

3. Соловьев А.А. Лекции по теории вероятностей и математической статистике, 2003 г.

4. Русаков А.А., Богатырева Ю.И. Методы математической статистики и анализ данных психолого-педагогических исследований: Для студентов, аспирантов и соискателей. Тула - 2004 г.

5. Орлов А.И Математика случая: Вероятность и статистика - основные факты: Учебное пособие. М.: МЗ-Пресс, 2004.

6. Чернова Н.И. Теория вероятностей -- Учебное пособие. -- Новосибирск: Новосибирский гос. ун-т, 2006. -- 160 с.

7. http://www.tsput.ru

Размещено на Allbest.ru


Подобные документы

  • Случайные величины. Функция и плотность распределения вероятностей дискретной случайной величины. Сингулярные случайные величины. Математическое ожидание случайной величины. Неравенство Чебышева. Моменты, кумулянты и характеристическая функция.

    реферат [244,6 K], добавлен 03.12.2007

  • Математическое ожидание случайной величины. Свойства математического ожидания, дисперсия случайной величины, их суммы. Функция от случайных величин, ее математическое ожидание. Коэффициент корреляции, виды сходимости последовательности случайных величин.

    лекция [285,3 K], добавлен 17.12.2010

  • События и случайные величины. Функция распределения и ее характерные свойства. Сущность и определение основных числовых характеристик случайных величин: математическое ожидание, дисперсия, моменты. Критерии и факторы, влияющие на их формирование.

    контрольная работа [118,5 K], добавлен 30.01.2015

  • Дискретные системы двух случайных величин. Композиция законов распределения, входящих в систему. Определение вероятности попадания случайной величины в интервал; числовые характеристики функции; математическое ожидание и дисперсия случайной величины.

    контрольная работа [705,1 K], добавлен 22.11.2013

  • Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.

    контрольная работа [165,5 K], добавлен 03.01.2012

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Определение вероятности попадания в мишень по формуле Бернулли. Закон и многоугольник распределения случайной величины. Построение функции распределения, графика. Математическое ожидание, дисперсия, среднее квадратическое отклонение случайной величины.

    контрольная работа [86,4 K], добавлен 26.02.2012

  • Функция распределения непрерывной случайной величины. Математическое ожидание непрерывной случайной величины, плотность распределения вероятностей системы. Ковариация. Коэффициент корреляции.

    лабораторная работа [52,3 K], добавлен 19.08.2002

  • Функция распределения вероятностей двух случайных величин. Функция и плотность распределения вероятностей случайного вектора. Многомерное нормальное распределение. Коэффициент корреляции. Распределение вероятностей функции одной случайной величины.

    реферат [241,8 K], добавлен 03.12.2007

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.