Теорія ймовірностей, імовірнісні процеси та математична статистика

Види випадкових подій. Операції над подіями. Класичне визначення ймовірності. Стійкість відносної частоти. Основні формули комбінаторики. Ймовірність суми несумісних подій. Обмеженість класичного визначення ймовірності. Теорема множення ймовірностей.

Рубрика Экономика и экономическая теория
Вид курс лекций
Язык русский
Дата добавления 12.11.2017
Размер файла 514,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

.

3.5 Ймовірність появи хоча б однієї події

Нехай у результаті випробування можуть з'явитися n подій, незалежних у сукупності, або деякі з них (зокрема, тільки одна чи ні одної), причому ймовірності появи кожної із подій відомі. Як знайти ймовірність того, що наступить хоча б одна з цих подій? Наприклад, якщо в результаті випробування можуть з'явитися три події, то поява хоча б одної з цих подій означає настання або одної, або двох, або трьох подій. Відповідь на поставлене питання дає наступна теорема.

Теорема. Ймовірність появи хоча б одної з подій , незалежних в сукупності, дорівнює різниці між одиницею і добутком ймовірностей протилежних подій :

.

Доведення. Позначимо через подію, яка полягає в появі хоча б одної з подій . Події і (ні одна з подій не наступила) протилежні, значить сума їх ймовірностей дорівнює одиниці:

.

Звідси, користуючись теоремою множення, отримаємо

,

або

.

Частковий випадок. Якщо події мають однакову ймовірність, рівну , то ймовірність появи хоча б одної з цих подій

.

Приклад 1. Ймовірності влучення в ціль при стрільбі з трьох гармат такі: p1=0,8; p2=0,7; р3=0,9. Знайти ймовірність хоча б одного влучення (подія А) при одному залпі з усіх гармат.

Розв'язок. Ймовірність влучення в ціль кожною з гармат не залежить від результатів стрільби з інших гармат; тому розглянуті події А1 (влучення першої гармати), A2 (влучення другої гармати) і A3 (влучення третьої гармати) незалежні в сукупності.

Ймовірності подій, протилежних подіям А1 A2 і A3 (тобто ймовірності промахів), відповідно рівні:

;

;

.

Шукана ймовірність

.

3.6 Формула повної ймовірності

Нехай подія А може настати за умови появи однієї з несумісних подій Bl, В2,..., Вn, які утворюють повну групу. Нехай відомі ймовірності цих подій і умовні ймовірності РВ1(А), РВ2(А),..., РВn(А) події А. Як знайти ймовірність події А? Відповідь на це питання дає наступна теорема.

Теорема. Ймовірність події А, яка може настати лише за умови появи одної із несумісних подій В1, В2,..., Вn, що утворюють повну групу, дорівнює сумі добутків ймовірностей кожної з цих подій на відповідну умовну ймовірність події А:

.

Цю формулу називають „формулою повною ймовірності”.

Доведення. За умовою, подія А може настати, якщо настане одна з несумісних подій Bl, В2,..., Вn. Іншими словами, поява події А означає здійснення одної, байдуже якої, з несумісних подій В1А, B2A,..., ВnА. Користуючись для обчислення ймовірності події А теоремою додавання, отримаємо

. (*)

Залишається обчислити кожний з доданків. За теоремою множення ймовірностей залежних подій маємо

.

Підставивши праві частини цієї рівності у співвідношення (*), отримаємо формулу повної ймовірності

.

3.7 Ймовірність гіпотез. Формули Байєса

Нехай подія А може настати за умови появи однієї з несумісних подій В1, В2,... Вn, що створюють повну групу. Оскільки заздалегідь невідомо, яка з цих подій настане, їх називають гіпотезами. Ймовірність появи події А визначається за формулою повної ймовірності (див. п. 2):

.

Припустимо, що проведено випробування, внаслідок якого з'явилася подія А. Поставимо своєю задачею визначити, як змінилися (у зв'язку з тим, що подія А вже настала) ймовірності гіпотез. Іншими словами, будемо шукати умовні вірогідності

.

Знайдемо спочатку умовну ймовірність РА(В1). За теоремою множення маємо

Звідси

.

Замінивши тут Р(А) за формулою (*), отримаємо

.

Аналогічно виводяться формули, що визначають умовні ймовірності інших гіпотез, тобто умовна ймовірність будь-якої гіпотези Ві (і=1, 2, ..., n) може бути обчислена за формулою

.

Отримані формули називають формулами Байєса (по імені англійського математика, який їх вивів; були опубліковані в 1764 році)

Формули Байєса дозволяють переоцінити ймовірності гіпотез після того, як стане відомим результат випробування, внаслідок якого з'явилась подія А.

Запитання для самоперевірки

1. Що називають добутком подій А і В?

2. Поясніть поняття умовної ймовірності.

3. Як визначити ймовірність спільної появи двох подій?

4. Які події називають незалежними?

5. Які події називають попарно незалежними?

6. Які події називають незалежними у сукупності?

7. Як обчислити ймовірність спільної появи декількох подій, незалежних у сукупності?

8. Як обчислити ймовірність появи тільки однієї з декількох незалежних подій?

9. Як обчислити ймовірність появи хоча б однієї події?

10. Яку формулу називають «формулою повної ймовірності»? Виведіть її.

11. Які можливості надає формула Байєса?

12. Покажіть, як за допомогою формули Байєса можна перевірити ймовірність гіпотез.

ТЕМА 4. ПОВТОРНІ НЕЗАЛЕЖНІ ВИПРОБУВАННЯ ЗА СХЕМОЮ БЕРНУЛЛІ

4.1 Формула Бернуллі

Якщо проводиться декілька випробувань, причому ймовірність події А в кожному випробуванні не залежить від результатів інших випробувань, то такі випробування називають незалежними щодо події А.

В різних незалежних випробуваннях подія А може мати або різні, або одну і ту ж ймовірність. Будемо далі розглядати лише такі незалежні випробування, в яких подія А має одну і ту ж ймовірність.

Нижче скористаємося поняттям складної події, розуміючи під ним поєднання декількох окремих подій, які називають простими

Хай проводиться n незалежних випробувань, в кожному з яких подія А може з'явитися або не з'явитися. Умовимося вважати, що ймовірність події А в кожному випробуванні одна і та же, а саме рівна р. Отже, ймовірність ненастання події А в кожному випробуванні також постійна і рівна q=1-p.

Поставимо перед собою задачу обчислити ймовірність того, що при n випробуваннях подія А здійсниться рівно k раз і, отже, не здійсниться n-k разів. Важливо підкреслити, що не потрібно, щоб подія А повторилася рівно k разів в певній послідовності. Наприклад, якщо йдеться про появу події А три рази в чотирьох випробуваннях, то можливі наступні складні події: , , , . Запис означає, що в першому, другому і третьому випробуваннях подія А настала, а в четвертому випробуванні вона не з'явилася, тобто настала протилежна подія ; відповідний сенс мають і інші записи.

Шукану ймовірність позначимо . Наприклад, символ Р5(3) означає ймовірність того, що в п'яти випробуваннях подія з'явиться рівно 3 рази і, отже, не настане 2 рази.

Поставлену задачу можна розв'язати за допомогою так званої формули Бернуллі.

Виведення формули Бернуллі. Ймовірність однієї складної події, що полягає в тому, що у n випробуваннях подія А настане k разів і не настане n-k разів, за теоремою множення ймовірностей незалежних подій дорівнює . Таких складних подій може бути стільки, скільки можна скласти сполучень з n елементів по k елементів, тобто . Оскільки ці складні події несумісні, то за теоремою додавання ймовірностей несумісних подій шукана ймовірність дорівнює сумі ймовірностей всіх можливих складних подій. Оскільки ж ймовірності всіх цих складних подій однакові, то шукана ймовірність (появи k разів події А в n випробуваннях) рівна ймовірності однієї складної події, помноженій на їх число:

або

.

Отриману формулу називають формулою Бернуллі.

4.2 Локальна теорема Лапласа

Вище була виведена формула Бернуллі, що дозволяє обчислити ймовірність того, що подія з'явиться в n випробуваннях рівно k разів. При виведенні ми мали на увазі, що ймовірність появи події в кожному випробуванні постійна. Легко бачити, що користуватися формулою Бернуллі при великих значеннях n достатньо важко, оскільки формула вимагає виконання дій над величезними числами. Наприклад, якщо n=50, k=30, р=0,1, то для знаходження ймовірності Р50(30) треба обчислити вираз Р50(30)=50!/(30!20!)*(0,1)30*(0,9)20, де 50!=30414093*1057, 30!=26525286*1025, 20!=24329020*1011. Правда, можна дещо спростити обчислення, користуючись спеціальними таблицями логарифмів факторіалів. Проте і цей шлях залишається громіздким і до того ж має істотний недолік: в таблицях наведені наближені значення логарифмів, тому в процесі обчислень нагромаджуються погрішності; в результаті остаточний результат може значно відрізнятися від дійсного.

Природно виникає питання, чи не можна обчислити ймовірність, що цікавить нас, не вдаючись до формули Бернуллі? Виявляється, можна. Локальна теорема Лапласа і дає асимптотичну формулу, яка дозволяє приблизно знайти ймовірність появи події рівно k разів в n випробуваннях, якщо число випробувань достатньо велике.

Відмітимо, що для часткового випадку, а саме для р=1/2, асимптотична формула була знайдена в 1730 р. Муавром; в 1783 р. Лаплас узагальнив формулу Муавра для довільного р, відмінного від 0 і 1. Тому теорему, про яку тут йде мова іноді називають теоремою Муавра-Лапласа.

Доведення локальної теореми Лапласа досить складне, тому ми наведемо лише формулювання теореми і приклади, що ілюструють її використання.

Локальна теорема Лапласа. Якщо ймовірність р появи події А в кожному випробуванні постійна і відмінна від нуля і одиниці, то ймовірність Pn(k) того, що подія А з'явиться в n випробуваннях рівно k разів, приблизно дорівнює (тим точніше, чим більше n) значенню функції

при .

Є таблиці, в яких наведені значення функції

що відповідають додатнім значенням аргументу х. Для від'ємних значень аргументу користуються тими ж таблицями, оскільки функція парна, тобто .

Отже, ймовірність того, що подія А з'явиться в n незалежних випробуваннях рівно k разів, приблизно дорівнює

,

де .

4.3 Інтегральна теорема Лапласа

Знову припустимо, що проводиться n випробувань, в кожному з яких ймовірність появи події А постійна і рівна р (0<р<1). Як обчислити ймовірність того, що подія А з'явиться в n випробуваннях не менш k1 і не більше k2 разів (скорочено будемо говорити „від k1 до k2 разів”)? На це питання відповідає інтегральна теорема Лапласа, яка приводиться нижче без доведення.

Теорема. Якщо ймовірність р настання події А в кожному випробуванні постійна і відмінна від нуля і одиниці, то ймовірність того, що подія А з'явиться в n випробуваннях від k1 до k2 разів, приблизно дорівнює визначеному інтегралу

, (*)

де і .

При розв'язанні задач, що вимагають застосування інтегральної теореми Лапласа, користуються спеціальними таблицями, оскільки невизначений інтеграл не виражається через елементарні функції. Таблиця для інтеграла приводиться в довідниках. В таблиці даються значення функції для позитивних значень х і для х=0; для x<0 користуються тією ж таблицею (функція непарна, тобто ). В таблиці приведені значенні інтеграла лише до х=5, так як для можна прийняти . Функцію часто називають функцією Лапласа.

Для того щоб можна було користуватися таблицею функції Лапласа, перетворимо співвідношення (*) так:

.

Отже, ймовірність того, що подія А з'явиться в n незалежних випробуваннях від k1 до k2 разів,

,

де і .

Зауваження. Позначимо через m число появ події A при n незалежних випробуваннях, в кожному з яких ймовірність настання події А постійна і рівна р. Якщо число m змінюється від k1 до k2, то вираз змінюється від до . Отже, інтегральну теорему Лапласа можна записати і так:

.

Ця форма запису використовується нижче.

4.4 Ймовірність відхилення відносної частоти від постійної ймовірності в незалежних випробуваннях

Знову будемо вважати, що проводиться n незалежних випробувань, в кожному з яких ймовірність появи події А постійна і рівна р (0<р<1). Поставимо перед собою завдання знайти ймовірність того, що відхилення відносної частоти від постійної ймовірності р за абсолютною величиною не перевищує заданого числа . Іншими словами, знайдемо ймовірність здійснення нерівності

. (*)

Цю ймовірність будемо позначати так: Р().Замінимо нерівність (*) їй рівносильними:

або .

Перемноживши ці нерівності на додатній множник , отримаємо нерівності, рівносильні початковій:

.

Скористаємося інтегральною теоремою Лапласа у формі, указаній в зауваженні (див. 4.3). Поклавши і , маємо

.

Нарешті, замінивши нерівності, що знаходяться в дужках, рівносильною їм початковою нерівністю, остаточно отримаємо

.

Отже, ймовірність здійснення нерівності приблизно дорівнює значенню подвоєної функції Лапласа при .

Запитання для самоперевірки

1. Які випробування називають незалежними щодо події А?

2. Поясніть поняття «складна подія».

3. Виведіть формулу Бернуллі.

4. Сформулюйте локальну теорему Лапласа (Муавра - Лапласа).

5. При яких умовах застосовується локальна теорема Лапласа?

6. Сформулюйте інтегральну теорему Лапласа.

7. Як на практиці обчислити ймовірність того, що подія А з'явиться від до разів в незалежних випробувань, якщо ймовірність її появи в кожному випробуванні постійна і відмінна від нуля и одиниці?

8. Як обчислити ймовірність відхилення відносної частоти від постійної ймовірності в незалежних випробуваннях?

Розділ 2. ВИПАДКОВІ ВЕЛИЧИНИ

ТЕМА 5. ДИСКРЕТНІ ВИПАДКОВІ ВЕЛИЧИНИ ТА ЇХ РОЗПОДІЛИ

1. Випадкова величина

Вже в першій частині наводились події, що полягають в появі того або іншого числа. Наприклад, при киданні гральної кістки могли з'явитися числа 1, 2, 3, 4, 5 і 6. Наперед визначити число очок, що випали, неможливо, оскільки воно залежить від багатьох випадкових причин, які повністю не можуть бути враховані. В цьому значенні число очок є величина випадкова, а числа 1, 2, 3, 4, 5 і 6 є можливі значення цієї величини.

Випадковою називають величину, яка унаслідок випробування прийме одне і лише одне можливе значення, наперед не відоме і залежне від випадкових причин, які заздалегідь не можуть бути враховані.

Приклад 1. Число хлопчиків, що народилися, серед ста новонароджених є випадкова величина, яка має наступні можливі значення: 0, 1, 2, ..., 100.

Приклад 2. Відстань, яку пролетить снаряд при пострілі із гармати, є випадкова величина. Дійсно, відстань залежить не тільки від установки прицілу, але і від багатьох інших причин (сили і напряму вітру, температури тощо), які не можуть бути повністю враховані. Можливі значення цієї величини належать деякому проміжку (а, b).

Будемо далі позначати випадкові величини прописними буквами X, Y, Z, а їх можливі значення - відповідними рядковими буквами x, y, z. Наприклад, якщо випадкова величина Х має три можливі значення, то вони будуть позначені так: x1, x2, x3.

2. Дискретні і неперервні випадкові величини

Повернемося до прикладів, приведених вище. В першому з них випадкова величина Х могла прийняти одне із наступних можливих значень: 0, 1, 2, ..., 100. Ці значення відокремлені одне від одного проміжками, в яких немає можливих значень Х. Таким чином, в даному прикладі випадкова величина приймає окремі, ізольовані можливі значення. В другому прикладі випадкова величина могла прийняти будь-яке із значень проміжку (а, b). Тут не можна відділити одне можливе значення від іншого проміжком, що не вміщує можливих значень випадкової величини.

Уже із сказаного можна зробити висновок про доцільність розрізняти випадкові величини, що приймають лише окремі, ізольовані значення, і випадкові величини, можливі значення яких суцільно заповнюють деякий проміжок.

Дискретною (переривчастою) називають випадкову величину, яка приймає окремі, ізольовані можливі значення з певними ймовірностями. Число можливих значень дискретної випадкової величини може бути кінцевим або нескінченним.

Неперервною називають випадкову величину, яка може приймати всі значення з деякого кінцевого або нескінченного проміжку. Очевидно, число можливих значень безперервної випадкової величини нескінченне.

Зауваження. Наведене вище визначення неперервної випадковою величини не є точним. Більш суворе визначення буде дано пізніше.

3. Закон розподілу ймовірностей дискретної випадкової величини

На перший погляд може здатися, що для завдання дискретної випадкової величини достатньо перерахувати всі її можливі значення. Насправді це не так: випадкові величини можуть мати однакові переліки можливих значень, а ймовірності їх - різні. Тому для завдання дискретної випадкової величини недостатньо перерахувати всі можливі її значения, потрібно ще указати їх ймовірності.

Законом розподілу дискретної випадкової величини називають відповідність між можливими значеннями і їх ймовірностями; його можна задати таблично, аналітично (у вигляді формули) і графічно.

При табличному завданні закону розподілу дискретної випадкової величини перший рядок таблиці утримує можливі значення, а другий - їх ймовірності:

X

x1

x2

xn

p

p1

p2

pn

Взявши до уваги, що в одному випробуванні випадкова величина приймає одне і лише одне можливе значення, робимо висновок, що події Х=х1, Х=х2, ..., X=хn, утворюють повну групу; отже, сума ймовірностей цих подій, тобто сума ймовірностей другого рядка таблиці, дорівнює одиниці:

p1+p2+...+pn=1.

Якщо безліч можливих значень Х нескінченна (рахунково), то ряд p1+p2+... сходиться і його сума дорівнює одиниці.

Приклад. В грошовій лотереї випущено 100 квитків. Розігрується один виграш в 50 грн. і десять виграшів по 1 грн. Знайти закон розподілу випадкової величини Х - вартості можливого виграшу для власника одного лотерейного квитка.

Рішення. Напишемо можливі значення Х: х1=50, х2=1, х3=0. Ймовірності цих можливих значень такі: p1=0,01, р2=0,1, р3=1-(р1+р2)=0,89.

Напишемо шуканий закон розподілу:

Х

50

1

0

р

0,01

0,1

0,89

Контроль: 0,01+0,1+0,89=1.

Для наочності закон розподілу дискретної випадкової величини можна зобразити і графічно, для чого в прямокутній системі координат будують точки (хі, рі), а потім з'єднують їх відрізками прямих. Отриману фігуру називають багатокутником розподілу.

4. Біноміальний розподіл

* Хай проводиться п незалежних випробувань, в кожному з яких подія А може з'явитися або не з'явитися. Ймовірність настання події у всіх випробуваннях постійна і рівна р (отже, ймовірність непояви q=1-р). Розглянемо в якості дискретної випадкової величини Х число появ події А в цих випробуваннях.

Поставимо перед собою завдання знайти закон розподілу величини Х. Для її рішення потрібно визначити можливі значення Х і їх ймовірності . Очевидно, подія А в n випробуваннях може або не з'явитися, або з'явитися 1 раз, або 2 рази, ..., або n разів. Таким чином, можливі значення Х наступні: х1=0, х2=1, х3=2, ..., хn+1=n. Залишається знайти ймовірності wих можливих значень, для чого достатньо скористатися формулою Бернуллі:

, (*)

де 0, 1, 2, ..., n.

Формула (*) і є аналітичним вираженням шуканого закону розподілу.

Біноміальним називають розподіл ймовірностей, що визначається формулою Бернуллі. Закон названий біноміальним тому, що праву частину рівності (*) можна розглядати як загальний член розкладання бінома Ньютона:

.

Таким чином, перший член розкладання pn визначає ймовірність настання даної події n разів в n незалежних випробуваннях; другий член визначає ймовірність настання події n-1 раз; … ; останній член qn визначає ймовірність того, що подія не з'явиться жодного разу. Напишемо біноміальний закон у вигляді таблиці:

X

n

n-1

k

...

0

P

...

Приклад. Монета кинута 2 рази. Написати у вигляді таблиці закон розподілу випадкової величини Х - числа випадань „герба”.

Рішення. Ймовірність появи „герба» в кожному випробуванні р=1/2, отже, ймовірність непояви „герба”q=1-1/2=1/2.

При двох киданнях монети гербќ може з'явитися або 2 раз, або 1 раз, або зовсім не з'явитися. Таким чином, можливі ачения Х такі: х1=2, х2=1, х3=0. Знайдемо ймовірності цих можливих значень за формулою Бернуллі:

Напишемо шуканий закон розподілу:

Х

2

1

0

р

0,25

0,5

0,25

Контроль: 0,25+0,5+0,25=1.

5. Розподіл Пуассона

Нехай проводиться n незалежних випробувань, в кожному з яких ймовірність появи події А рівна р. Для визначення ймовірності k появ події A в цих випробуваннях використовують формулу Бернуллі. Якщо ж n велике, то користуються асимптотичною формулою Лапласа. Проте ця формула непридатна, якщо ймовірність події мала (р<0,1). В цих випадках (n велике, р малe) вдаються до асимптотичної формули Пуассона.

Отже, поставимо перед собою задачу знайти ймовірність того, що при дуже великому числі випробувань, в кожному з яких ймовірність настання події дуже мала, подія настане рівно k разів. Зробимо важливе допущення: добуток np зберігає постійне значення, а саме . Як буде виходити з подальшого, це означає, що середнє число появ події в різних серіях випробувань, тобто при різних значеннях n, залишається незмінним.

Скористаємося формулою Бернуллі для обчислення ймовірності, що цікавить нас:

.

Так як ,то . Отже

.

Взявши до уваги, що n має дуже велике значення, замість Pn(k) знайдемо . При цьому буде знайдено лише наближене значення відшукуваної ймовірності : n хоча й велике, але кінечне, а при відшуканні межі спрямуємо n до бескінечності. Відмітимо, що оскільки добуток nр зберігає постійне значення, то при ймовірність .

Отже,

Таким чином (для простоти запису знак приблизної рівності опущено),

.

Ця формула виражає закон розподілу Пуассона ймовірностей масових (n велике) і рідких (р мале) подій.

Зауваження. Є спеціальні таблиці, користуючись якими можна знайти , знаючи і .

Приклад. Завод відправив на базу 5000 доброякісних виробів. Ймовірність того, що в дорозі виріб буде пошкоджений, дорівнює 0,0002. Знайти ймовірність того, що на базу прибудуть 3 непридатні вироби.

Рішення. За умовою, n=5000, р=0,0002, k=3. Знайдемо :

.

За формулою Пуассона шукана ймовірність приблизно дорівнює

.

6. Найпростіший потік подій

Розглянемо події, які наступають у випадкові моменти часу.

Потоком подій називають послідовність подій, які наступають у випадкові моменти часу. Прикладами потоків служать: надходження викликів на АТС, на пункт невідкладної медичної допомоги, прибуття літаків до аеропорту, клієнтів на підприємство побутового обслуговування, послідовність відмов елементів і багато інших.

Серед властивостей, якими можуть бути властиві потокам, виділимо властивості стаціонарності, відсутності післядії і ординарності.

Властивість стаціонарності характеризується тим, що ймовірність появи k подій на будь-якому проміжку часу залежить тільки від числа k і від тривалості t проміжку і не залежить від початку його відліку; при цьому різні проміжки часу передбачаються непересічними. Наприклад, ймовірності появи k подій на проміжках часу (1; 7) (10; 16) (Т; Т+ 6) однакової тривалості t=6 од. часу рівні між собою.

Отже, якщо потік володіє властивістю стаціонарності, то ймовірність появи k подій за проміжок часу тривалості t є функція, залежна тільки від k і t.

Властивість відсутності післядії характеризується тим, що ймовірність появи k подій на будь-якому проміжку часу не залежить від того, з'являлися або не з'являлися події в моменти часу, що передували початку даного проміжку. Іншими словами, умовна ймовірність появи k подій на будь-якому проміжку часу, обчислена при будь-яких припущеннях про те, що відбувалося до початку даного проміжку (скільки подій з'явилося, в якій послідовності), дорівнює безумовній ймовірності. Таким чином, передісторія потоку не позначається на ймовірності появи подій в найближчому майбутньому.

Отже, якщо потік володіє властивістю відсутності післядії, то має місце взаємна незалежність появ того або іншого числа подій в непересічні проміжки часу.

Властивість ординарності характеризується тим, що поява двох і більше подій за малий проміжок часу практично неможлива. Іншими словами, ймовірність появи більше однієї події нікчемно мала в порівнянні з ймовірністю появи тільки однієї події.

Отже, якщо потік володіє властивістю ординарності, то за нескінченно малий проміжок часу може з'явитися не більше однієї події.

Найпростішим (пуассонівским) називають потік подій, який володіє властивостями стаціонарності, відсутності післядії і ординарності.

Зауваження. Часто на практиці важко встановити, чи володіє потік перерахованими вище властивостями. Тому були знайдені і інші умови, при дотриманні яких потік можна вважати найпростішим або близьким до найпростішого. Зокрема, встановлено, що якщо потік представляє собою суму дуже великого числа незалежних стаціонарних потоків, вплив кожного з яких на суму (сумарний потік) нікчемно малий, то сумарний потік (за умови його ординарності) близький до найпростішого.

Інтенсивністю потоку називають середнє число подій, які з'являються в одиницю часу.

Можна довести, що якщо постійна інтенсивність потоку відома, то ймовірність появи k подій найпростішого потоку за час тривалістю t визначається формулою Пуассона

.

Ця формула відображає всі властивості найпростішого потоку.

Дійсно, з формули видно, що ймовірність появи k подій за час t, при заданій інтенсивності є функцією k і t, що характеризує властивість стаціонарності.

Формула не використовує інформації про появу подій до початку даного проміжку, що характеризує властивість відсутності післядії.

Переконаємося, що формула відображає властивість ординарності. Поклавши k=0 і k=1, знайдемо відповідно ймовірності не появи подій і появи однієї події:

, .

Отже, ймовірність появи більше однієї події

.

Користуючись розкладанням

після елементарних перетворень отримаємо

.

Порівнюючи Pt(1) і Pt(k>l), робимо висновок, що при малих значеннях t ймовірність появи більше одної події нікчемно мала в порівнянні з ймовірністю появи однієї події, що характеризує властивість ординарності.

Отже, формулу Пуассона можна вважати математичною моделлю найпростішого потоку подій.

7. Геометричний розподіл

Нехай проводяться незалежні випробування в кожному з яких ймовірність появи події А дорівнює р(0<р<1) і, отже, ймовірність її не появи q=l-р. Випробування закінчуються, як тільки з'явиться подія А. Таким чином, якщо подія А з'явилася в k-му випробуванні, то в попередніх k-1 випробуваннях вона не з'являлася.

Позначимо через Х дискретну випадкову величину - число випробувань, які потрібно провести до першої появи події А. Очевидно, що можливими значеннями Х є натуральні числа: х1=1, х2=2, ...

Нехай в перших k-1 випробуваннях подія А не наступила, а в k-му випробуванні з'явилася. Ймовірність цієї «складної події», за теоремою множення ймовірностей незалежних подій,

. (*)

Вважаючи k=1, 2, ... у формулі (*), отримаємо геометричну прогресію з першим членом р і знаменником q (0<q<1;

p, qp, q2p, …, qk-1p, … (**)

З цієї причини розподіл (*) називають геометричним.

Легко переконатися, що ряд (**) сходиться і сума його дорівнює одиниці. Дійсно, сума ряду (**)

p/(1-q)=p/p=1/

Приклад, із гармати проводиться стрільба по цілі до першого влучення. Ймовірність влучення в ціль р=0,6. Знайти ймовірність того що, що влучення відбудеться при третьому пострілі.

Рішення. За умовою, р=0,6, q=0,4, k=3. Шукана ймовірність за формулою (*)

P=qk-1p=0,42*0,6=0,096.

8. Гіпергеометричний розподіл

Перш ніж дати визначення гіпергеометричного розподілу, розглянемо задачу. Хай в партії із N виробів є М стандартних (М<N). З партії випадково відбирають n виробів (кожний виріб може бути відібраний з однаковою ймовірністю), причому відібраний виріб перед відбором наступного не повертається до партії (тому формула Бернуллі тут незастосовна). Позначимо через Х випадкову величину - число m стандартних виробів серед n відібраних. Очевидно, можливі значення Х такі: 0, 1, 2, ..., min(M, n).

Знайдемо ймовірність того, що Х=m, тобто, що серед відібраних виробів рівно m стандартних. Використовуємо для цього класичне визначення ймовірності.

Загальне число можливих елементарних результатів випробування дорівнює числу способів, якими можна вийняти n виробів з N виробів, тобто числу сполучень .

Знайдемо число результатів, що сприяють події Х=m (серед узятих n виробів рівно m стандартних); m стандартних виробів можна вийняти з М стандартних виробів способами; при цьому інші n-m виробів повинні бути нестандартними; узяти ж n-m нестандартних виробів з N- m нестандартних виробів можна способами. Отже, число сприятливих результатів дорівнює (за правилом множення) .

Шукана ймовірність дорівнює відношенню числа результатів, що сприяють події Х=m, до числа всіх елементарних результатів

. (*)

Формула (*) визначає розподіл ймовірностей, який називають гіпергеометричним.

Враховуючи, що m - випадкова величина, робимо висновок, що гіпергеометричний розподіл визначається трьома параметрами: N, М, n. Іноді в якості параметрів цього розподілу розглядають N, n і р=М/N, де р - ймовірність того, що перший вийнятий виріб стандартний.

Відмітимо, що якщо n значно менше N (практично якщо n<0,1N, то гіпергеометричний розподіл дає ймовірності, близькі до ймовірностей, знайдених

9. Функція розподілу імовірностей випадкової величини

9.1 Визначення функції розподілу

Пригадаємо, що дискретна випадкова величина може бути задана переліком всіх її можливих значень і їх ймовірностей. Такий спосіб завдання не є загальним: він непридатний, наприклад, для безперервних випадкових величин.

Дійсно, розглянемо випадкову величину Х, можливі значення якої суцільно заповнюють інтервал (а, b). Чи можна скласти перелік всіх можливих значень Х? Очевидно; що цього зробити не можна. Цей приклад вказує на доцільність дати загальний спосіб завдання будь-яких типів випадкових величин. З цією метою і вводять функції розподілу ймовірностей випадкової величини.

Хай х - дійсне число. Імовірність події, що полягає в тому, що Х прийме значення, менше х, тобто імовірність події Х<х, позначимо через F(х). Зрозуміло, якщо х змінюється, то, взагалі кажучи, змінюється і F(х) тобто F(х) функція від х.

Функцією розподілу називають функцію F(х), яка визначає імовірність того, що випадкова величина Х внаслідок випробування прийме значення, менше х, тобто

.

Геометрично цю рівність можна тлумачити так: F(х) є імовірність того, що випадкова величина прийме значення, яке зображується на числовій осі крапкою, що лежить ліворуч точки х.

Іноді замість терміну “функція розподілу” використовують термін “інтегральна функція”.

Тепер можна дати більш точне визначення безперервної випадкової величини: випадкову величину називають безперервною, якщо її функція розподілу є безперервна функція, що кусочно-диференціюється з безперервною похідною.

9.2 Властивості функції розподілу

Властивість 1. Значення функції розподілу належать відрізку [0, 1]:

.

Доведення. Властивість витікає з визначення функції розподілу як ймовірності: ймовірність завжди є невід'ємне число, що не перевищує одиниці.

Властивість 2. F(х) - не спадна функція, тобто

, якщо .

Доведення. Хай . Подію, що полягає в тому, що Х прийме значення, менше , можна підрозділити на наступні дві несумісні події: 1) Х прийме значення, менше , з імовірністю ; 2) Х прийме значення, що задовольняє нерівність , з імовірністю . За теоремою додавання маємо

.

Звідси

.

Або

. (*)

Оскільки. будь-яка ймовірність є число невід'ємне, то , або , що і вимагалося довести.

Наслідок 1. Імовірність того, що випадкова величина прийме значення, укладене в інтервалі (а, b), рівна приросту функції розподілу на цьому інтервалі:

. (**)

Цей важливий наслідок витікає з формули (*), якщо покласти x1=a і х2=b.

Наслідок 2. Імовірність того, що безперервна випадкова величина Х прийме одне певне значення, рівна нулю.

Дійсно, поклавши у формулі (**) а=x1, b=x1+x, маємо

.

Спрямуємо x до нуля. Оскільки Х - безперервна випадкова величина, то функція F(х) безперервна. Через неперервність F(х) в точці х1 різниця також прагне до нуля; отже, Р (Х=х1)=0. Використовуючи це положення, легко переконатися в справедливі рівностей

. (***)

Наприклад, рівність доводиться так:

.

Таким чином, не представляє інтересу говорити про імовірність того, що безперервна випадкова величина прийме одне певне значення, але має сенс розглядати імовірність попадання її до інтервалу, хай навіть скільки завгодно малого. Цей факт повністю відповідає вимогам практичних задач. Наприклад, цікавляться імовірністю того, що розміри деталей не виходять за дозволені границі, але не ставлять питання імовірності їх співпадіння з проектним розміром.

Відмітимо, що було б неправильним думати, що рівність нулю імовірності Р(Х=х1) означає, що подія Х=xl неможлива (якщо, звичайно, не обмежуватися класичним визначенням імовірності). Дійсно, результаті випробування випадкова величина обов'язково прийме одне з можливих значень; зокрема, це значення може виявитися рівним х1.

Властивість 3. Якщо можливі значення випадкової величини належать інтервалу (а, b), то: 1) F(x)=0 при ; 2) F(x)=l при .

Доведення. 1) Хай . Тоді подія Х<х1 неможлива (оскільки значень, менших х1, величина Х за умовою не приймає) і, отже, імовірність її рівна нулю.

2) Хай . Тоді подія Х<x2 достовірна (оскільки всі можливі значення Х менші х2) і, отже, імовірність її рівна одиниці. Г

Наслідок. Якщо можливі значення безперервної випадкової величини розташовані на всій осі х, та справедливі наступні граничні співвідношення:

; .

9.3 Графік функції розподілу

Доведені властивості дозволяють представити, як виглядає графік функції розподілу безперервної випадкової величини.

Графік розташований в смузі, обмеженій прямими у=0, у=1 (перша властивість).

При зростанні х в інтервалі (а, b), у якому укладені всі можливі значення випадкової величини, графік підіймається вверх (друга властивість).

Рис. 1

При ординати графіка рівні нулю; при ординати графіка рівні одиниці (третя властивість).

Графік функції розподілу безперервної випадкової величини зображений на рис. 1.

Зауваження. Графік функція розподілу дискретної випадкової величини має ступінчастий вигляд (рис. 2).

Приклад. Дискретна випадкова величина Х задана таблицею розподілу

X

1

4

8

p

0,3

0,1

0,6

Знайти функцію розподілу і накреслити її графік.

Розв'язок. Якщо то (третя властивість)

Якщо , то . Дійсно, Х може прийняти значення 1 з ймовірністю 0,3.

Якщо , то . Дійсно, якщо х задовольняє нерівність , то дорівнює ймовірності події , яка може бути здійснена, коли Х прийме значення 1 (ймовірність цієї події дорівнює 0,3) або значення 4 (ймовірність цієї події дорівнює 0,1). Оскільки ці дві події несумісні, то за теоремою додавання ймовірностей ймовірність події рівна сумі ймовірностей 0,3+0,1=04.

Якщо , то. Дійсно, подія достовірна, отже, її ймовірність дорівнює одиниці.

Отже, функція розподілу аналітично може бути записана так:

Графік цієї функції наведений на рис. 3.

Рис. 2.

Запитання для самоперевірки

1. Дайте визначення випадкової величини.

2. Яку випадкову величину називають дискретною?

3. Яку випадкову величину називають неперервною?

4. Якими способами можна задати закон розподілу?

5. Як називають графічне зображення закону розподілу дискретної випадкової величини?

6. Дайте визначення біноміального закону розподілу. Чому його називають біноміальним?

7. При яких умовах для задання закону розподілу використовують асимптотичну формулу Пуассона?

8. Що називають потоком подій?

9. Які властивості притаманні найпростішим потокам подій?

10. У чому полягає властивість стаціонарності потоку?

11. У чому полягає властивість відсутності післядії?

12. У чому полягає властивість ординарності потоку?

13. Якою формулою можна описати властивості найпростішого потоку?

14. Дайте характеристику геометричного розподілу.

15. Дайте визначення і поясніть сутність функції розподілу випадкової величини.

16. Наведіть властивості функції розподілу.

17. Зобразіть графік функції розподілу.

ЧИСЛОВІ ХАРАКТЕРИСТИКИ ДИСКРЕТНИХ ВИПАДКОВИХ ВЕЛИЧИН

Як уже відомо, закон розподілу повністю характеризує випадкову величину. Однак часто закон розподілу невідомий і доводиться обмежуватися меншими відомостями. Іноді навіть вигідніше користуватися числами, які описують випадкову величину сумарно; такі числа називають числовими характеристикам випадкової величини. До числа важливих числових характеристик ставиться математичне сподіванння і дисперсія.

1. Математичне сподіванння дискретної випадкової величини

Математичне сподіванння, як буде показано далі, приблизно дорівнює середньому значенню випадкової величини. Для рішення багатьох задач досить зиати математичне сподіванння. Наприклад, якщо відомо, що математичне сподіванння числа оочок, що вибивають, у першого стрільця більше, ніж у другого, то перший стрілець у середньому вибиває більше оочок, чим другий, і, отже, стріляє краще другого. Хоча математичне сподіванння дає про випадкову величину значно менше відомостей, чим закон її розподілу, але для розв'язання задач, подібних наведеній й багатьох інших, знання математичного сподіванння виявляється достатнім.

Математичним сподіваннням дискретної випадкової величини називають суму добутків всіх її можливих значень на їхні імовірності.

Нехай випадкова величина X може приймати тільки значення х1, х2,..., xn ймовірності яких відповідно рівні р1, р2, …, рn. Тоді математичне сподіванння М(X) випадкової величини X визначається рівністю

.

Якщо дискретна випадкова величина X приймає рахункову множину можливих значень, то

,

причому математичне сподіванння існує, якщо ряд у правій частині рівності сходиться абсолютно.

Зауваження. Із визначення слідує, що математичне сподіванння дискретної випадкової величини є невипадкова (постійна) величина. Рекомендуємо запам'ятати це твердження, тому що далі воно використається багаторазово. Надалі буде показано, що математичне сподіванння безперервної випадкової величини також є постійна величина.

Приклад 1. Знайти математичне сподіванння випадкової величини X, знаючи закон її розподілу:

X

3

5

2

p

0,1

0,6

0,3

Розв'язок. Шукане математичне сподіванння дорівнює сумі добутків всіх можливих значень випадкової величини на їхні ймовірності:

.

Приклад 2. Знайти математичне сподіванння числа появ події А в одному випробуванні, якщо ймовірність події А дорівнює р.

Розв'язок. Випадкова величина Х - число появ події А в одному випробуванні - може приймати тільки два значення: (подія А наступила) з ймовірністю р і (подія А не наступило) з ймовірністю . Шукане математичне сподіванння

.

Отже, математичне сподіванння числа появ події А одному вип

робуванні дорівнює ймовірності цієї події. Цей результат буде використаний нижче.

2. Ймовірнісний зміст математичного сподіванння

Нехай проведено n випробувань, у яких випадкова величина X разів прийняла значення , разів значення , …, разів значення , причому . Тоді сума всіх значень, прийнятих X, дорівнює

.

Знайдемо середнє арифметичне всіх значень, прийнятих випадковою величиною, для чого розділимо знайдену суму на загальне число випробувань:

або

. (*)

Відмітивши, що відношення - відносна частота значення , - відносна частота значення і т. д., запишемо співвідношення (*) так:

.

Припустимо, що число випробувань досить велике. Тоді відносна частота приблизно дорівнює ймовірності появи події (це буде доведене пізніше):

, ,…, .

Замінивши у співвідношенні (**) відносні частоти відповідними ймовірностями, одержиимо

Права частина цієї наближеної рівності є М(Х).

Отже,

.

Ймовірнісний зміст отриманого результату такий: математичне сподіванння приблизно дорівнює (тим точніше, чим більше число випробувань) середньому арифметичному спостережуваних значень випадкової величини.

Зауваження 1. Легко зрозуміти, що математичне сподіванння більше найменшого й менше найбільшого можливих значень. Іншими словами, на числовій осі можливі значення розташовані ліворуч і праворуч від математичного сподіванння. У цьому сенсі математичне сподіванння характеризує розташування розподілу й тому його часто називають центром розподілу.

Цей термін запозичений на механіки: якщо маси , , …, розташовані в точках з абсцисами х1, х2,..., xn, причому , то абсциса центра маси

.

З огляду на те, що і одержимо .

Отже, математичне сподіванння є абсциса центра маси системи матеріальних точок, абсциси яких рівні можливим значенням випадкової величини, а маси - іх ймовірностям.

Зауваження 2. Походження терміна «математичне сподіванння» пов'язане з початковим періодом виникнення теорії ймовірностей (XVI-XVII ст.), коли область її застосування обмежувалася азартними іграми. Гравця цікавило середнє значення очікуваного виграшу, або, іншими словами, математичне сподіванння виграшу.

3. Властивості математичного сподіванння

Властивість 1. Математичне сподіванння постійної величини дорівнює самій постійній:

.

Доведення. Будемо розглядати постійну С як дискретну випадкову величину, що має одне можливе значення С и приймає його з ймовірністю . Отже,

.

Зауваження 1. Визначимо добуток постійної величини С на дискретну випадкову величину Х як дискретну випадкову СХ, можливі значення якої дорівнюють добуткам постійної С на можливі значення X; ймовірності можливих значень СХ дорівнюють ймовірностям відповідних можливих значень X. Наприклад, якщо ймовірність можливого значення дорівнює , то ймовірність того, що величина СХ прийме значення також дорівнює .

Властивість 2. Постійний множник можна виносити за знак математичного сподіванння:

.

Доведення. Нехай випадкова величинах задана законом розподілу ймовірностей:

X

х1

х2

хп

p

р1

р2

рп

З огляду на зауваження 1, напишемо закон розподілу випадкової величини СХ:

СX

Сх1

Сх2

Схп

p

р1

р2

рп

Математичне сподіванння випадкової величини СХ:

Отже,

.

Зауваження 2. Перш ніж перейти до наступної властивості, укажемо, що дві випадкові величини називають незалежними, якщо закон розподілу однієї з них не залежить від того, які можливі значення прийняла інша величина. У протилежному випадку випадкові величини залежні. Кілька випадкових величин називають взаємно незалежними, якщо закони розподілу будь-якого числа з них не залежать від того, які можливі значення прийняли інші величини.

Зауваження 3. Визначимо добуток незалежних випадкових величин X і Y як випадкову величину XY, можливі значення якої дорівнюють добуткам кожного можливого значення X на кожне можливе значення Y; ймовірності можливих значень добутку XY дорівнюють добуткам ймовірностей можливих значень співмножників. Наприклад, якщо ймовірність можливого значення дорівнює ймовірність можливого значення дорівнює то ймовірність можливого значення дорівнює .

Відмітимо, що деякі добутки можуть виявитися рівними між собою. У цьому випадку ймовірність можливого значення добутку дорівнює сумі відповідних ймовірностей. Наприклад, якщо , то ймовірність (або, що те ж саме, ) рівна .

Властивість 3. Математичне сподіванння добутку двох незалежних випадкових величин рівне добутку їх математичних сподіваннь:

.

Доведення. Нехай незалежні випадкові величини X і Y задані своїми законами розподілу ймовірностей:

X

х1

х2

Y

y1

y2

p

р1

р2

g

g1

g2

Складемо всі значення, які може приймати випадкова величина XY. Для цього перемножимо всі можливі значення X на кожне можливе значення Y; у підсумку одержимо , , і . З огляду на зауваження 3, напишемо закон розподілу XY, припускаючи для простоти, що всі можливі значення добутку різні (якщо це не так, то доведення проводиться аналогічно):

XY

х1y1

х2y1

х1y2

х2y2

p

р1g1

р2g1

р1g2

Р2g2

Математичне сподіванння дорівнює сумі добутків всіх можливих значень на їх ймовірності:

.

або

Отже, .

Наслідок. Математичне сподіванння добутку декількох взаємно незалежних випадкових величин дорівнює добутку їхніх математичних сподівань.

Наприклад, для трьох випадкових величин маємо:

.

Для довільного числа випадкових величин доведення проводиться методом математичної індукції.

Приклад 1. Незалежні випадкові величини X та Y задані такими законами розподілу:

X

5

2

4

Y

7

9

p

0,6

0,1

0,3

g

0,8

0,2

Знайти математичне сподіванння випадкової величини XY.

Розв'язок. Знайдемо математичні сподіванння кожної наданих величин:

;

.

Випадкові величини X та Y незалежні, тому шукане математичне сподіванння

.

Зауваження 4. Визначимо суму випадкових величин X та Y як випадкову величину X+Y, можливі значення якої дорівнюють сумам кожного можливого значення X з кожним можливим значенням Y; ймовірності можливих значень X+Y для незалежних величин X та Y дорівнюють добуткам імовірностей доданків; для залежних величин - добуткам ймовірності одного доданка на умовну ймовірність другого.

Відмітимо, що деякі суми x+y можуть виявитися рівними між ссбой. У цьому випадку ймовірність можливого значення суми дорівнює сумі відповідних qмовірностей. Наприклад, якщо x1+y2=x3+y5 і ймовірності цих можливих значень відповідно рівні р12 і p35, то ймовірність x1+y2 (або, що те ж саме, x3+y5) дорівнює р12+p35.

Наведена нижче властивість справедлива як для незалежних, так і для залежних випадкових величин.

СПИСОК РЕКОМЕНДОВАНОЇ ЛІТЕРАТУРИ

1. Aнісімов В.В., Черняк О.І. Математична статистика. - К.: МП "Леся", 1999.

2. Агапов Г. И. Задачник по теории вероятностей. - М.: Высшая школа, 1986. - 80с.

3. Андерсон Т. Статистический анализ временных рядов. - М.: Мир, 1976.

4. Ашманов С. С. Введение в математическую экономику. - М.: Наука, 1984. - 293с.

5. Бyrip М. К. Основні економіко-математичні моделі та розрахункpвi роботи до них. - Тернопіль: Ной, 1994. - 112 с.

6. БоксДж., Дженкинс Г. Анализ временных рядов. Прогноз и управление.- М.: Мир, 1974. - Віп. 1, 2.

7. Большов Л.Н., Смирнов Н.В. Таблицы математической статистики. - М.: Наука, 1983.

8. Боровков А.А. Математическая статистика. - М.: Наука, 1984.

9. Боровков А.А. Теория вероятностей. - М.: Наука, 1986.

10. Ван дер Варден. Математическая статистика. - M.: Мир, 1960.

11. Венецкий И. Г., Венецкая В. И. Основные математико-статистические понятия и формулы в экономическом анализе. - М.: Статистика, 1974.

12. Венецкий И. Г., Килъдишев Г. С. Основы математической статистики. - М.: Госстатиздат, 1963.

13. Вентцелъ Е. С. Теория вероятностей. - М.: Физматгиз, 1962.

14. Вітлінський В, В., Наконечний С. I. Ризик у менеджменті. - К.: ТОВ "Борисфен-М'ю. - 326 с.

15. Володин Б.Г., Танин М.Н., Динер И.Я. и др. Сборник задач по теории вероятностей, математической статистике и теории случайных функций / Под. ред. А.А. Свешникова. - М.: Наука, 1970.

16. Гихман И.Я., Скороход А.В., Ядренко М.И. Теория вероятностей и математическая статистика. - К.: Вища шк. Гол. вид-во, 1988.

17. Гмурман В. Е. Руководство к решению задач по теории вероятностей и математической статистике. Учеб. пособие для студентов вузов. Изд. 6-е, доп. - М.: Высш. шк., 2002. 405 с.: ил.

18. Гмурман В.Е. Теория вероятностей и математическая статистика: Учеб. пособие для вузов - 9-е изд., стер. - М.: Высш. шк., 2003. 479 с.: ил.

19. Гнеденко Б. В. Курс теории вероятностей. - М.: Физматгиз, 1961.

20. Гнеденко Б. В., Хинчин А. Я. Элементарное введение в теорию вероятностей. - М.: Гостехиздат, 1957.

21. Гнеденко Б.В. Курс теории вероятностей. - 6-е изд. - М.: Наука, 1988.

22. Гурский Е. И. Теория вероятностей с элементами математической статистики. - М.: Высш. шк., 1971.

23. Гутер Р. С., Овчинский Б. В. Основы теории вероятностей. - М.: Просвещение, 1967.

24. Жлуктенко В. Ш., Наконечний С. I. Теорія ймовірностей i елементи математичної статистики. - К.: УМК ВО, 1991. - 252 с.

25. Захаров В. К., Севастьянов Б. А., Чистяков В. П. Теория вероятностей. - М.: Наука, 1983. - 160с.

26. Ивченко Г.И..Медведев Ю.И. Математическая статистика. - М.: Высш. шк., 1984.

27. Карасев А. Я. Теория вероятностей и математическая статистика. - М.: Статистика, 1977.

28. Климов Г.П., Кузьмин А.Д. Вероятность, процессы, статистика: Задачи с решениями. - М.: Изд-во Моск. ун-та, 1985.

29. Коваленко И.Н., Гнеденко Б.В. Теория вероятностей. - К.: Вища шк., 1990.

30. Колемаев В.А., Староверова О.В., Турундаевский В.Б. Теория вероятностей и математическая-статистика.- М.: Высш. шк., 1991.

31. Крамер Г. Математические методы статистики. - М.:Мир, 1975.

32. Леоненко М.М., Мішура Ю.С., Пархоменко В.М., Ядренко М.И. Теоретико-ймовірнісні та статистичні методи в економетриці та фінансовій математиці. - К.: Інформтехніка, 1995.

33. Математическая статистика / Под ред. А. М. Длина. - М.: Высш. шк., 1975.

34. Прохоров А.В., Ушаков В.Г., Ушаков Н.Г. Задачи по теории вероятностей. Основные понятия. Предельные теоремы. Случайные процессы. - М.: Наука, 1986.

35. Пугачев В.С. Введение в теорию вероятностей. - М.: Наука, 1968.

36. Розанов Ю.А. Теория вероятностей, случайные процессы и математическая статистика. - М.: Наука, 1985.

37. Румшинский Л. 3. Элементы теории вероятностей. - М.: Наука, 1970.

38. Свешников И. В. (под редакц.) Сборник задач по теории вероятностей и математической статистике. - М.: Наука, 1970. - 656 с.

39. Севастьянов Б.А., Чистяков В.Д., Зубков А.М. Сборник задач по теории вероятностей. - М.: Наука, 1980.

40. Скороход А.В. Элементы теории вероятностей и случайных процессов. - К.: Вища шк. Гол. вид-во, 1980.

41. Смирнов Н. В., Дунин-Барковский И.В. Курс теории вероятностей и математической статистики. - М.: Наука, 1965. - 511с.

42. Соловьев В. М. Методы статистической проверки статистических гипотез. - К.: ІСДО, 1993. - 112 с.

43. Солодовников А. С. Теория вероятностей. - М.: Просвещение, 1983.

44. Теорія ймовірностей: Зб. задач / За ред. А.В. Скорохода. - К.: Вища шк. Гол. вид-во, 1976.

45. Турчин В.М. Математична статистика в прикладах i задачах. - К.: НМК ВО, 1993.

46. Феллер В. Введение в теорию вероятностей и ее приложения. - 3-е изд. - М.: Мир, 1984.- Т. 1-2.

47. Феллер В. Введение в теорию вероятностей и ее приложения: В 2 т. - М.: Мир, 1984.

48. Хартман Ф. Обыкновенные дифференциальные уравнения. - М.: Мир, 1970. - 720с.

49. Черняк А. И. Методические указания и учебные задания для самостоятельной работы по курсу «Теория вероятностей и математическая статистика» для студентов факультета кибернетики. - К.: Изд-во Киев. ун-та, 1988.

50. Черняк О.I. Навчально-методичні матеріали з курсу "Теорія ймовірностей та математична статистика для студентів економічних спещальностей денної та очно-заочної форми навчання. - К.: KIEMBCС, 1998.

51. Чистяков В. П. Курс теории вероятностей. - М.: Наука , 1978. - 224с.

52. Шефтелъ 3.Г. Теорія ймовірностей. - К.: Вища шк., 1994.

Размещено на Allbest.ur


Подобные документы

  • Поняття випадкової величини як одне з основних понять теорії ймовірностей, способи задавання розподілу ймовірностей. Характеристика ризику в ціноутворенні, проблема обліку, оцінка ризику в ціноутворенні на продукцію великовантажного автомобілебудування.

    реферат [116,2 K], добавлен 18.05.2010

  • Правові, законодавчі основи і організаційна структура ВАТ "Бердичівська фабрика одежі". Основні техніко-економічні показники та аналіз фінансового стану підприємства. Діагностика ймовірності банкрутства, розробка заходів антикризового управління.

    курсовая работа [386,7 K], добавлен 29.03.2011

  • Оплата праці та її статистика. Визначення розміру абсолютної і відносної економії (перевитрати) при умові, що для підприємства корегуючий (банківський) коефіцієнт встановлений у певному розмірі. Методи розрахунку та детальне описання формул їх розрахунку.

    задача [10,9 K], добавлен 03.01.2009

  • Оцінка структури капіталу, ліквідності та платоспроможності ТОВ "Вланик". Аналіз забезпечення оборотних активів власними джерелами фінансування. Прогнозування ймовірності банкрутства фірми. Пропозиції щодо поліпшення фінансової стійкості підприємства.

    курсовая работа [110,7 K], добавлен 22.02.2012

  • Теорія досконалої і недосконалої конкуренції. Класичне трактування досконалої конкуренції. Теорія недосконалої конкуренції. Олігополістична конкуренція. Теорія монополістичної конкуренції. Антимонопольна політика в сучасному законодавстві України.

    курсовая работа [66,3 K], добавлен 02.12.2007

  • Сутність банкрутства підприємств як економічного явища. Методи діагностики ймовірності банкрутства суб'єкта господарювання, їхні позитивні риси та недоліки. Аналіз економічного стану ПАТ ДТЕК "Дніпроенерго". Пошук механізмів стабілізації підприємства.

    дипломная работа [833,8 K], добавлен 20.05.2015

  • Концепція вартості грошей у часі, її головний зміст та значення. Поняття проценту, відсоткової ставки та періоду нарахування. Типи відсотків: простий, складний, моделі їх нарощування. Визначення необхідного строку вкладу. Формули кратного зростання суми.

    контрольная работа [664,2 K], добавлен 26.03.2014

  • Визначення норми амортизації усіх основних виробничих фондів підприємства. Розрахунок суми амортизаційних відрахувань для придбаних основних фондів. Визначення коефіцієнту фізичного, морального та загального зношення усіх придбаних основних фондів.

    лабораторная работа [61,2 K], добавлен 09.03.2010

  • Маржиналістські ідеї в Україні, їх представленість у працях М. Тугана-Барановського. Теорія циклів та криз в працях вченого. Аналіз подій та фактори, які впливали на становлення і розвиток господарства України на кінець ХІХ - початок ХХ століття.

    контрольная работа [100,3 K], добавлен 18.09.2014

  • Основні сфери діяльності ПАТ "Сумихімпром". Показники ліквідності та платоспроможності підприємства. Коефіцієнт оборотності основних засобів (фондовіддача). Методики оцінювання ймовірності настання банкротства. Заходи щодо відновлення платоспроможності.

    курсовая работа [154,5 K], добавлен 30.03.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.