Геометричний розподіл із параметром. Геометричний розподіл

У геометричному розподілі досліди в схемі Бернуллі проводяться до першого успіху, з ймовірністю успіху в одиничному досвіді.
Прикладами таких величин можуть бути:

  • число пострілів до першого влучення;
  • кількість випробувань приладу до першої відмови;
  • число куль до першої появи білого. див. рішення;
  • число кидань монети до першого випадання рішки тощо.
Ряд геометричного розподілу ДСВ має вигляд:
X 1 2 3 m
p p qp q 2 p q m-1 p

Імовірності утворюють геометричну прогресію з першим членом р і знаменником q.
Математичне очікування та дисперсія випадкової величини Х, що має геометричний розподіл з параметром р, рівні:

Гіпергеометричний розподіл

Дискретна випадкова величина має гіпергеометричний розподіл з параметрами n, k, m, якщо вона набуває значення 0, 1, 2, ... з ймовірностями .
Гіпергеометричний розподіл має випадкова величина Х, що дорівнює кількості об'єктів, що мають задану властивість, серед m об'єктів, випадково вилучених (без повернення) із сукупності n об'єктів, k з яких мають цю властивість.
Наприклад:
  • У партії з 10 деталей 3 браковані. Витягується 4 деталі. Х – кількість придатних деталей серед одержаних. (m=4, n=10, k=3). див. рішення
Математичне очікування випадкової величини Х, що має гіпергеометричний розподіл, та її дисперсія рівні:

Приклад №1. В урні 2 білих та 3 чорні кулі. Кулі навмання дістають із урни без повернення доти, доки не з'явиться біла куля. Щойно це станеться, процес припиняється. Скласти таблицю розподілу випадкової величини X – числа вироблених дослідів, знайти F(x), P(X ≤ 2), M(X), D(X).
Рішення:Позначимо через А – поява білої кулі. Досвід може бути проведений лише один раз, якщо біла куля з'явиться відразу: . Якщо ж вперше біла куля не з'явилася, а з'явилася при другому видобутку, то X=2. Імовірність такої події дорівнює. Аналогічно: , , . Запишемо дані до таблиці:


X

1

2

3

4

P

0,4

0,3

0,2

0,1

Знайдемо F(x):

Знайдемо P(X ≤ 2) = P(X = 1 або X = 2) = 0,4 + 0,3 = 0,7
M(X) = 1 · 0,4 + 2 · 0,3 +3 · 0,2 + 4 · 0,1 = 2.
D(X) = (1-2) 2 · 0,4 + (2-2) 2 · 0,3 + (3-2) 2 · 0,2 + (4-2) 2 · 0,1 = 1 .

Приклад №2. У ящику міститься 11 деталей, серед яких 5 бракованих. Складальник навмання витягує 4 деталей.
1. Знайти ймовірність того, що серед вилучених деталей: a) 4 бракованих; b) одна бракована; c) дві браковані; d) хоча б одна бракована.
2. Скласти закон розподілу випадкової величини X- Число бракованих деталей серед вилучених.
3. Знайти M(X), D(X), σ(X).
4. Обчислити P(1
Рішення:
1. Знайти ймовірність того, що серед вилучених деталей:
a) 4 бракованих;

b) одна бракована;
Загальна кількість можливих елементарних результатів для даних випробувань дорівнює числу способів, якими можна отримати 4 деталі з 11:

Підрахуємо кількість наслідків, що сприяють даній події (серед 4 деталей рівно 1 деталь дефектна):

Інші 3 деталі можна вибрати з 7:

Отже, кількість сприятливих наслідків дорівнює: 5*20 = 100
Шукана ймовірність дорівнює відношенню числа наслідків, що сприяють події, до всіх елементарних наслідків: P(1) = 100/330 = 0,303
c) дві браковані;

d) хоча б одна бракована.
Імовірність того, що немає дефектних деталей. X = 0.

Тоді ймовірність того, що хоч одна бракована складе:
P = 1 - P (0) = 1 - 0,0455 = 0,95

2. Складемо закон розподілу P(x), X - числа бракованих деталей серед вилучених.
Знайдемо можливість появи трьох бракованих виробів.


X

0

1

2

3

4

P

0,0455

0,303

0,4545

0,182

0,015

2. Знайдемо M(X), D(X),σ(X).
Математичне очікування знаходимо за формулою m = ∑x i p i.
Математичне очікування M[X].
M[x] = 0 * 0.0455 + 1 * 0.303 + 2 * 0.4545 + 3 * 0.182 + 4 * 0.015 = 1.818
Дисперсію знаходимо за формулою d = ∑x 2 i p i - M [x] 2 .
Дисперсія D[X].
D [X] = 0 2 * 0.0455 + 1 2 * 0.303 + 2 2 * 0.4545 + 3 2 * 0.182 + 4 2 * 0.015 - 1.818 2 = 0.694
Середнє квадратичне відхилення σ(x).

3. Обчислимо P(1 F(x≤0) = 0
F(0< x ≤1) = 0.0455
F(1< x ≤2) = 0.303 + 0.0455 = 0.349
F(2< x ≤3) = 0.455 + 0.349 = 0.803
F(3< x ≤4) = 0.182 + 0.803 = 0.985
F(x>4) = 1
Імовірність влучення СВ у той чи інший інтервал перебуває за формулою:
P(a ≤ X< b) = F(b) - F(a)
Знайдемо ймовірність того, що СВ перебуватиме в інтервалі 1 ≤ X< 4
P(1 ≤ X< 4) = F(4) - F(1) = 0.985 - 0.0455 = 0.9395

Приклад №3. У партії 7 деталей 3 браковані. Контролер навмання дістає 4 деталі. Скласти закон розподілу випадкової величини Х – числа придатних деталей у вибірці. Знайти математичне очікування та дисперсію Х. Побудувати графік функції розподілу.
Усього справних деталей: 7-3 = 4
1. Знайдемо ймовірність того, що серед обраних 4 деталей одна справна.
Загальна кількість можливих елементарних результатів для даних випробувань дорівнює числу способів, якими можна отримати 4 деталі з 7:

Підрахуємо кількість результатів, що сприяють цій події.

Статистика приходить до нас на допомогу при вирішенні багатьох завдань, наприклад: коли немає можливості побудувати детерміновану модель, коли занадто багато факторів або коли нам необхідно оцінити правдоподібність побудованої моделі з урахуванням наявних даних. Ставлення до статистики неоднозначне. Є думка, що існує три види брехні: брехня, нахабна брехня та статистика. З іншого боку, багато «користувачів» статистики надто їй вірять, не розуміючи до кінця, як вона працює: застосовуючи, наприклад, тест до будь-яких даних без перевірки їхньої нормальності. Така недбалість здатна породжувати серйозні помилки і перетворювати «шанувальників» тесту на ненависників статистики. Спробуємо поставити струми над і розібратися, які моделі випадкових величин повинні використовуватися для опису тих чи інших явищ і яка між ними існує генетичний зв'язок.

Насамперед, цей матеріал буде цікавий студентам, які вивчають теорію ймовірностей та статистику, хоча і «зрілі» фахівці зможуть його використовувати як довідник. В одній із наступних робіт я покажу приклад використання статистики для побудови тесту оцінки значущості показників біржових торгових стратегій.

У роботі будуть розглянуті:


Наприкінці статті буде поставлено для роздумів. Свої роздуми щодо цього я викладу в наступній статті.

Деякі з наведених безперервних розподілів є окремими випадками.

Дискретні розподіли

Дискретні розподіли використовуються для опису подій з характеристиками, що не диференціюються, визначеними в ізольованих точках. Простіше кажучи, для подій, результат яких може бути віднесений до деякої дискретної категорії: успіх або невдача, ціле число (наприклад, гра в рулетку, кістки), орел або решка і т.д.

Описується дискретний розподіл ймовірністю настання кожного з можливих наслідків події. Як і будь-якого розподілу (зокрема безперервного) для дискретних подій визначено поняття матожидания і дисперсії. Однак, слід розуміти, що маточіння для дискретної випадкової події - величина в загальному випадку нереалізована як результат одиночної випадкової події, а швидше як величина, до якої прагнутиме середнє арифметичне результатів подій при збільшенні їх кількості.

У моделюванні дискретних випадкових подій важливу роль відіграє комбінаторика, тому що ймовірність результату події можна визначити як відношення кількості комбінацій, що дають необхідний результат загальної кількості комбінацій. Наприклад: у кошику лежать 3 білих м'ячі та 7 чорних. Коли ми вибираємо з кошика 1 м'яч, ми можемо зробити це 10 різними способами (загальна кількість комбінацій), але тільки 3 варіанти, при яких буде обраний білий м'яч (3 комбінації, що дають необхідний результат). Таким чином, можливість вибрати білий м'яч: ().

Слід також відрізняти вибірки з поверненням та без повернення. Наприклад, для опису ймовірності вибору двох білих м'ячів важливо визначити, чи перший м'яч буде повернуто до кошика. Якщо ні, то ми маємо справу з вибіркою без повернення () і ймовірність буде така: - ймовірність вибрати білий м'яч із початкової вибірки помножена на ймовірність знову вибрати білий м'яч із решти кошика. Якщо перший м'яч повертається у кошик, це вибірка з поверненням (). І тут ймовірність вибору двох білих м'ячів складе .

Якщо кілька формалізувати приклад з кошиком наступним чином: нехай результат події може приймати одне з двох значень 0 або 1 з ймовірностями і відповідно, тоді розподіл ймовірності отримання кожного із запропонованих результатів буде називатися розподіл Бернуллі:

За традицією, що склалася, результат зі значенням 1 називається «успіх», а результат зі значенням 0 - «невдача». Очевидно, що отримання результату «успіх чи невдача» настає з ймовірністю.

Матерікування та дисперсія розподілу Бернуллі:


Кількість успіхів у випробуваннях, результат яких розподілений з ймовірністю успіху (приклад з поверненням м'ячів у кошик), описується біномним розподілом:


Інакше можна сказати, що биномиальное розподіл визначає суму з незалежних випадкових величин, які вміють розподіл із ймовірністю успіху .
Мотовидання та дисперсія:



Біноміальний розподіл справедливий тільки для вибірки з поверненням, тобто коли ймовірність успіху залишається постійною для всієї серії випробувань.

Якщо величини і мають біномні розподіли з параметрами і відповідно, їх сума також буде розподілена біномно з параметрами .

Уявимо ситуацію, що ми витягуємо м'ячі з кошика і повертаємо назад доти, доки не буде витягнута біла куля. Кількість таких операцій описується геометричним розподілом. Іншими словами: геометричний розподіл визначає кількість випробувань до першого успіху при ймовірності настання успіху в кожному випробуванні. Якщо мається на увазі номер випробування, в якому настав успіх, то геометричний розподіл описуватиметься такою формулою:


Маточування та дисперсія геометричного розподілу:

Геометричний розподіл генетично пов'язаний з розподілом, який описує безперервну випадкову величину: час до настання події, за постійної інтенсивності подій. Геометричний розподіл також є окремим випадком.

Розподіл Паскаля є узагальненням розподілу: описує розподіл кількості невдач у незалежних випробуваннях, результат яких розподілений з ймовірністю успіху до настання успіхів у сумі. При, ми отримаємо розподіл для величини.


де - Число поєднань з .

Маточування та дисперсія негативного біномного розподілу:



Сума незалежних випадкових величин, розподілених за Паскалем, також розподілена за Паскалем: нехай має розподіл , а - . Нехай також і незалежні, тоді їхня сума матиме розподіл

Досі ми розглядали приклади вибірок із поверненням, тобто, ймовірність результату не змінювалася від випробування до випробування.

Тепер розглянемо ситуацію без повернення і опишемо ймовірність кількості успішних вибірок із сукупності із заздалегідь відомою кількістю успіхів та невдач (заздалегідь відома кількість білих та чорних м'ячів у кошику, козирних карт у колоді, бракованих деталей у партії тощо).

Нехай загальна сукупність містить об'єктів, їх позначені як «1», бо як «0». Вважатимемо вибір об'єкта з міткою «1», як успіх, а з міткою «0» як невдачу. Проведемо n випробувань, причому обрані об'єкти більше не братимуть участь у подальших випробуваннях. Імовірність настання успіхів підпорядковуватиметься гіпергеометричному розподілу:


де - Число поєднань з .

Мотовидання та дисперсія:


Розподіл Пуассона


(взято звідси)

Розподіл Пуассона значно відрізняється від розглянутих вище розподілів своєю «предметною» областю: тепер розглядається не ймовірність настання того чи іншого результату випробування, а інтенсивність подій, тобто середня кількість подій за одиницю часу.

Розподіл Пуассона описує ймовірність настання незалежних подій за час при середній інтенсивності подій:


Маточування та дисперсія розподілу Пуассона:

Дисперсія та маточіння розподілу Пуассона тотожно рівні.

Розподіл Пуассона у поєднанні з , що описує інтервали часу між настаннями незалежних подій, становлять математичну основу теорії надійності.

Щільність ймовірності добутку випадкових величин x і y () з розподілами і може бути обчислена наступним чином:

Деякі з наведених нижче розподілів є окремими випадками розподілу Пірсона, який, у свою чергу, є рішенням рівняння:


де - параметри розподілу. Відомі 12 типів розподілу Пірсона залежно від значень параметрів.

Розподіли, які будуть розглянуті у цьому розділі, мають тісні взаємозв'язки між собою. Ці зв'язки виражаються в тому, що деякі розподіли є окремими випадками інших розподілів, або описують перетворення випадкових величин, що мають інші розподіли.

На наведеній нижче схемі відбито взаємозв'язки між деякими з безперервних розподілів, які будуть розглянуті в цій роботі. На схемі суцільними стрілками показано перетворення випадкових величин (початок стрілки вказує на початковий розподіл, кінець стрілки - на результуюче), а пунктирними - відношення узагальнення (початок стрілки вказує на розподіл, що є окремим випадком того, яке вказує кінець стрілки). Для окремих випадків розподілу Пірсона над пунктирними стрілками вказано відповідний тип розподілу Пірсона.


Запропонований нижче огляд розподілів охоплює багато випадків, які трапляються в аналізі даних та моделюванні процесів, хоча, звичайно, і не містить абсолютно всі відомі науці розподілу.

Нормальний розподіл (розподіл Гауса)


(взято звідси)

Щільність ймовірності нормального розподілу з параметрами та описується функцією Гауса:

Якщо і , то такий розподіл називається стандартним.

Маточування та дисперсія нормального розподілу:



Область визначення нормального розподілу – безліч дійсних чисел.

Нормальним розподілом є розподіл типу VI.

Сума квадратів незалежних нормальних величин має, а відношення незалежних гаусових величин розподілено по.

Нормальний розподіл є нескінченно ділимим: сума нормально розподілених величин і з параметрами і відповідно також має нормальний розподіл з параметрами , де і .

Нормальний розподіл добре моделює величини, що описують природні явища, шуми термодинамічної природи та похибки вимірів.

Крім того, згідно з центральною граничною теоремою, сума великої кількості незалежних доданків одного порядку сходить до нормального розподілу, незалежно від розподілів доданків. Завдяки цій властивості, нормальний розподіл популярний у статистичному аналізі, багато статистичних тестів розраховані на нормально розподілені дані.

На нескінченній ділимості нормального розподілу заснований z-тест. Цей тест використовується для перевірки рівності маточіння вибірки нормально розподілених величин деякого значення. Значення дисперсії має бути відомо. Якщо значення дисперсії невідомо і розраховується на підставі аналізованої вибірки, застосовується t-тест, заснований на .

Нехай у нас є вибірка обсягом n незалежних нормально розподілених величин із генеральної сукупності зі стандартним відхиленням висунемо гіпотезу, що . Тоді величина матиме стандартний нормальний розподіл. Порівнюючи отримане значення z з квантилами стандартного розподілу, можна приймати або відхиляти гіпотезу з необхідним рівнем значущості.

Завдяки широкій поширеності розподілу Гаусса, багато дослідників, які не дуже добре знають статистику, забувають перевіряти дані на нормальність, або оцінюють графік щільності розподілу «на вічко», сліпо вважаючи, що мають справу з Гаусовими даними. Відповідно, сміливо застосовуючи тести, призначені для нормального розподілу та отримуючи зовсім некоректні результати. Напевно, звідси й пішла чутка про статистику як найстрашніший вид брехні.

Розглянемо приклад: нам треба виміряти опір набору резистрів певного номіналу. Опір має фізичну природу, логічно припустити, що розподіл відхилень опору від номіналу буде нормальним. Вимірюємо, отримуємо дзвонову функцію щільності ймовірності для виміряних значень з модою в околиці номіналу резистрів. Це нормальний розподіл? Якщо так, то будемо шукати браковані резистри використовуючи або z-тест, якщо нам заздалегідь відома дисперсія розподілу. Думаю, що багато хто саме так і вчинить.

Але давайте уважніше подивимося на технологію вимірювання опору: опір визначається як відношення прикладеної напруги до струму, що протікає. Струм і напруга ми вимірювали приладами, які, своєю чергою, мають нормально розподілені похибки. Тобто, виміряні значення струму та напруги - це нормально розподілені випадкові величиниз маточуваннями, що відповідають істинним значенням вимірюваних величин. І це означає, що отримані значення опору розподілені по , а чи не по Гауссу.

Розподіл визначає суму квадратів випадкових величин, кожна з яких розподілена за стандартним нормальним законом:

Де - Число ступенів свободи, .

Маточування та дисперсія розподілу:



Область визначення – безліч невід'ємних натуральних чисел. є нескінченно поділеним розподілом. Якщо і - розподілені за і мають і ступенів свободи відповідно, то їх сума також буде розподілена і мати ступенів свободи.

Є окремим випадком (а отже, розподілом типу III) та узагальненням. Відношення величин, розподілених за розподілено по .

На розподілі засновано критерій згоди Пірсона. з допомогою цього критерію можна перевіряти достовірність належності вибірки випадкової величини деякому теоретичному розподілу.

Припустимо, що ми маємо вибірка деякої випадкової величини . На підставі цієї вибірки розрахуємо ймовірність потрапляння значень до інтервалів (). Нехай також є припущення про аналітичний вираз розподілу, відповідно до якого, ймовірності попадання у вибрані інтервали повинні становити . Тоді величини будуть розподілені за нормальним законом.

Наведемо до стандартного нормального розподілу: ,
де і .

Отримані величини мають нормальний розподіл з параметрами (0, 1), а отже, сума їх квадратів розподілена зі ступенем свободи. Зниження ступеня свободи пов'язане з додатковим обмеженням на суму ймовірностей потрапляння значень в інтервали: вона повинна дорівнювати 1.

Порівнюючи значення з квантилями розподілу, можна прийняти або відхилити гіпотезу про теоретичний розподіл даних з необхідним рівнем значущості.

Розподіл Стьюдента використовується для проведення t-тесту: тесту на рівність маточіння вибірки розподілених випадкових величин деякому значенню, або рівності маточінь двох вибірок з однаковою дисперсією (рівність дисперсій необхідно перевіряти). Розподіл Стьюдента описує відношення розподіленої випадкової величини до величини, розподіленої на .

Нехай і незалежні випадкові величини, що мають зі ступенями свободи та відповідно. Тоді величина матиме розподіл Фішера зі ступенями свободи, а величина - розподіл Фішера зі ступенями свободи.
Розподіл Фішера визначено для дійсних невід'ємних аргументів і має густину ймовірності:


Маточування та дисперсія розподілу Фішера:



Маточкування визначено для , а диспересія - для .

На розподілі Фішера засновано ряд статистичних тестів, таких як оцінка значущості параметрів регресії, тест на гетероскедастичність та тест на рівність дисперсій вибірок (f-тест слід відрізняти від точноготіста Фішера).

F-тест: нехай є дві незалежні вибірки та розподілені дані обсягами і відповідно. Висунемо гіпотезу про рівність дисперсій вибірок та перевіримо її статистично.

Розрахуємо величину. Вона матиме розподіл Фішера зі ступенями свободи.

Порівнюючи значення з квантилями відповідного розподілу Фішера, ми можемо прийняти або відхилити гіпотезу про рівність дисперсій вибірок із потрібним рівнем значущості.

Експоненційний (показовий) розподіл та розподіл Лапласу (подвійний експоненціальний, подвійний показовий)


(взято звідси)

Експонентний розподіл описує інтервали часу між незалежними подіями, що відбуваються із середньою інтенсивністю. Кількість настання такої події за деякий відрізок часу описується дискретним. Експоненційний розподіл разом з складають математичну основу теорії надійності.

Крім теорії надійності, експоненційний розподіл застосовується в описі соціальних явищ, в економіці, теорії масового обслуговування, в транспортній логістиці - скрізь, де необхідно моделювати потік подій.

Експоненційний розподіл є окремим випадком (для n=2), а отже, і . Так як експоненційно розподілена величина є величиною хі-квадрат з 2-ма ступенями свободи, то вона може бути інтерпретована як сума квадратів двох незалежних нормально розподілених величин.

Крім того, експоненційний розподіл є чесним випадком

лекція 8

Розподіл ймовірностей дискретних випадкових величин.Біноміальний розподіл. Розподіл Пуассон. Геометричний розподіл. Виробляюча функція.

6. РОЗПОДІЛ ІМОВІРНОСТЕЙ
ДИСКРЕТНИХ ВИПАДКОВИХ ВЕЛИЧИН

Біноміальний розподіл

Нехай проводиться nнезалежних випробувань, у кожному з яких подія Aможе або з'явиться, або з'явиться. Ймовірність pпояви події Aу всіх випробуваннях постійна та не змінюється від випробування до випробування. Розглянемо як випадкову величину X число появи події Aу цих випробуваннях. Формула, що дозволяє знайти ймовірність появи події A
рівно kраз на nвипробуваннях, як відомо, описується формулою Бернуллі

Розподіл ймовірностей, що визначається формулою Бернуллі, називається біномним .

Цей закон названий "біноміальним" тому, що праву частину можна розглядати як спільний член розкладання бінома Ньютона

Запишемо біномний закон у вигляді таблиці

X n n–1 k
P p n np n –1 q q n

Знайдемо числові показники цього розподілу.

.

Запишемо рівність, що є біном Ньютона

.

і продиференціюємо його по p. В результаті отримаємо

.

Помножимо ліву та праву частину на p:

.

Враховуючи, що p+q=1, маємо

(6.2)

Отже, математичне очікування числа появи подій у n незалежних випробуваннях дорівнює добутку числа випробувань n на ймовірність p появи події у кожному випробуванні.

Дисперсію обчислимо за формулою

Для цього знайдемо

.

Попередньо продиференціюємо формулу бінома Ньютона двічі по p:

і помножимо обидві частини рівності на p 2:

Отже,

Отже, дисперсія біномного розподілу дорівнює

. (6.3)

Ці результати можна отримати і з суто якісних міркувань. Загальне число X події A у всіх випробуваннях складаються з числа події в окремих випробуваннях. Тому якщо X 1 – число появи події у першому випробуванні, X 2 – у другому тощо, то загальна кількість появи події A у всіх випробуваннях дорівнює X=X 1 +X 2 +…+X n. За якістю математичного очікування:



Кожна з доданків правої частини рівності є математичне очікування числа подій в одному випробуванні, яке дорівнює ймовірності події. Таким чином,

За якістю дисперсії:

Так як , а математичне очікування випадкової величини , яке може набувати лише двох значень, а саме 1 2 з ймовірністю pта 0 2 з ймовірністю q, то. Таким чином, В результаті, отримуємо

Скориставшись поняттям початкових та центральних моментів, можна отримати формули для асиметрії та ексцесу:

. (6.4)

Багатокутник біномного розподілу має такий вигляд (див. рис. 6.1). Можливість P n(k) спочатку зростає при збільшенні k, Досягає найбільшого значення і далі починає зменшуватися. Біноміальний розподіл асиметричний, за винятком випадку p=0,5. Зазначимо, що за великої кількості випробувань nБіноміальний розподіл дуже близький до нормального. (Обґрунтування цієї пропозиції пов'язане з локальною теоремою Муавра-Лапласа.)

Число m 0 наступів події називається найімовірнішимякщо ймовірність настання події дана кількість разів у цій серії випробувань найбільша (максимум у багатокутнику розподілу). Для біномного розподілу

. (6.5)

Зауваження. Цю нерівність можна довести, використовуючи рекурентну формулу для біномних ймовірностей:

(6.6)

Приклад 6.1.Частка виробів вищого гатунку цьому підприємстві становить 31%. Чому дорівнює математичного очікування і дисперсія, а також найімовірніше число виробів вищого гатунку у випадково відібраної партії з 75 виробів?

Рішення. Оскільки p=0,31, q=0,69, n=75, то

M[ X] = np= 75×0,31 = 23,25; D[ X] = npq= 75×0,31×0,69 = 16,04.

Для знаходження найімовірнішого числа m 0 , складемо подвійну нерівність

Звідси випливає, що m 0 = 23.

Розподіл Пуассона

Як було вже зазначено, біномний розподіл наближається до нормального при n®¥. Однак це не має місця, якщо поряд із збільшенням nодна з величин pабо qпрагне нуля. І тут має місце асимптотична формула Пуассона, тобто. при n®¥, p®0

, (6.7)

де l= np. Ця формула визначає закон розподілу Пуассона що має самостійне значення, а не тільки як окремий випадок біномного розподілу. На відміну від біномного розподілу тут випадкова величина kможе приймати безліч значень: k=0,1,2,…

Закон Пуассона описує кількість подій k, що відбуваються за однакові проміжки часу за умови, що події відбуваються незалежно одна від одної з постійною середньою інтенсивністю, що характеризується параметром l. Багатокутник розподілу Пуассон показаний на рис. 6.2. Зазначимо, що за великих l рас
розподіл Пуассона наближається до нормального. Тому розподіл Пуассона застосовується, як правило, у випадках, коли l має порядок одиниці, при цьому кількість випробувань nмає бути велике, а ймовірність появи події pу кожному випробуванні мала. У зв'язку з цим закон Пуассона часто називають ще законом розподілу рідкісних явищ.

Прикладами ситуацій, у яких виникає розподіл Пуассона, можуть бути розподіли: 1) числа певних бактерій в одиниці обсягу; 2) числа електронів, що вилетіли, з розжареного катода за одиницю часу; 3) числа a-часток, що випускаються радіоактивним джерелом за певний проміжок часу; 4) числа дзвінків, що надходять на телефонну станцію за певний час доби і т.д.

Запишемо закон Пуассона у вигляді таблиці

X k
P

Перевіримо, що сума всіх ймовірностей дорівнює одиниці:

Знайдемо числові показники цього розподілу. За визначенням математичного очікування для ДСВ маємо

Зазначимо, що в останній сумі підсумовування починається з k=1, т.к. перший член суми, що відповідає k=0, дорівнює нулю.

Для знаходження дисперсії знайдемо попередньо математичне очікування квадрата випадкової:

Таким чином, математичне очікування та дисперсія випадкової величини, розподіленої за законом Пуассона, збігаються і дорівнюють параметру цього розподілу.

. (6.8)

У цьому полягає відмінність розподілу Пуассона. Так, якщо на підставі досвідчених даних було отримано, що математичне очікування та дисперсія деякої величини близькі між собою, то є підстави припускати, що ця випадкова величина розподілена відповідно до закону Пуассона.

Скориставшись поняттям початкових та центральних моментів, можна показати, що для розподілу Пуассона коефіцієнт асиметрії та ексцес рівні:

. (6.9)

Оскільки параметр l завжди позитивний, то розподіл Пуассона завжди позитивна асиметрія і ексцес.

Покажемо тепер, що формулу Пуассона можна як математичну модель найпростішого потоку подій.

Потоком подійназивають послідовність подій, що настають у випадкові моменти часу. Потік називається найпростішим, якщо він має властивості стаціонарності, відсутності післядіїі ординарності.

Інтенсивністю потоку l називають середню кількість подій, що з'являються за одиницю часу.

Якщо постійна інтенсивність потоку l відома, то ймовірність появи kподій найпростішого потоку за час tвизначається формулою Пуассона:

. (6.10)

Ця формула відбиває всі властивості найпростішого потоку. Більш того, будь-який найпростіший потік описується формулою Пуассона, тому найпростіші потоки часто називають пуасонівськими.

Властивість стаціонарності kподій у будь-якому проміжку часу залежить лише від числа kта від тривалості tпроміжок часу і залежить від початку його відліку. Іншими словами, якщо потік має властивість стаціонарності, то ймовірність появи kподій за проміжок часу tє функція, яка залежить тільки від kі від t.

У разі найпростішого потоку з формули Пуассона (6.10) випливає, що ймовірність kподій за час t, При заданій інтенсивності є функцією лише двох аргументів: kі t, що характеризує властивість стаціонарності

Властивість відсутності післядіїполягає в тому, що ймовірність появи kПодій у будь-якому проміжку часу залежить від того, з'являлися або не з'являлися події в моменти часу, що передують початку проміжку, що розглядається. Іншими словами, передісторія потоку не впливає на ймовірність появи подій у найближчому майбутньому.

У разі найпростішого потоку у формулі Пуассона (6.10) не використовується інформація про появу подій до початку проміжку часу, що розглядається, що характеризує властивість відсутності післядії.

Властивість простотиполягає в тому, що поява двох або більше подій за малий проміжок часу практично неможлива. Інакше кажучи, ймовірність поява більше події за малий проміжок часу зневажливо мала проти ймовірністю появи лише події.

Покажемо, що формула Пуассона (6.10) відбиває властивість простоти. Поклавши k=0 і k=1, знайдемо відповідно до ймовірності не появи подій та появи однієї події:

Отже, ймовірність появи більше однієї події дорівнює

Використовуючи розкладання функції до ряду Маклорена, після елементарних перетворень отримаємо

.

Порівнюючи P t(1) та P t(k>1), укладаємо, що з малих значеннях tймовірність появи більше однієї події зневажливо мала порівняно з ймовірністю настання однієї події, що характеризує властивість ординарності.

Приклад 6.2.У спостереженнях Резерфорда та Гейгера радіоактивна речовина за проміжок часу 7,5 сіквипускало в середньому 3,87 а-частки. Знайти ймовірність того, що за 1 сікця речовина випустить хоча б одну частинку.

Рішення. Як ми зазначали, розподіл числа a-частинок, що випускаються радіоактивним джерелом за певний проміжок часу описується формулою Пуассона, тобто. утворює найпростіший потік подій. Оскільки інтенсивність випромінювання a-часток за 1 сікодно

,

то формула Пуассона (6.10) набуде вигляду

Таким чином, ймовірність того, що за t=1 сікречовина випустить хоча б одну частинку дорівнюватиме

Геометричний розподіл

Нехай проводиться стрілянина по заданій мішені до першого влучення, при цьому ймовірність pвлучення в ціль у кожному пострілі одна і та ж і не залежить від результатів попередніх пострілів. Інакше кажучи, у аналізованому досвіді здійснюється схема Бернуллі. Як випадкова величина X будемо розглядати число зроблених пострілів. Очевидно, що можливими значеннями випадкової величини X є натуральні числа: x 1 =1, x 2 =2, … тоді ймовірність того, що знадобиться kпострілів дорівнюватиме

. (6.11)

Вважаючи в цій формулі k=1,2, … отримаємо геометричну прогресію з першим членом pта множником q:

З цієї причини розподіл, який визначається формулою (6.11) називається геометричним .

Використовуючи формулу суми нескінченно спадної геометричної прогресії, легко переконається, що

.

Знайдемо числові показники геометричного розподілу.

За визначенням математичного очікування для ДСВ маємо

.

Дисперсію обчислимо за формулою

.

Для цього знайдемо

.

Отже,

.

Отже, математичне очікування та дисперсія геометричного розподілу дорівнює

. (6.12)

6.4.* Виробнича функція

При вирішенні завдань, пов'язаних із ДСВ, часто використовуються методи комбінаторики. Одним з найбільш розвинених теоретичних методів комбінаторного аналізу є метод функцій, що виробляють, який є одним з найсильніших методів і в застосуваннях. Стисло познайомимося з ним.

Якщо випадкова величина x набуває лише цілі неотрицательные значення, тобто.

,

то функцією, що виробляє розподілу ймовірностей випадкової величини x називається функція

, (6.13)

де z– дійсна чи комплексна змінна. Зазначимо, що між безліччю виробляючих функцій j x ( x)і безліччю розподілів(P(x= k)} існує взаємно однозначна відповідність.

Нехай випадкова величина x має біномний розподіл

.

Тоді, використовуючи формулу бінома Ньютона, отримаємо

,

тобто. функція біномного розподілу має вигляд

. (6.14)

Додавання. Функціонування розподілу Пуассона

має вигляд

. (6.15)

Функціонування геометричного розподілу

має вигляд

. (6.16)

За допомогою функцій зручно знаходити основні числові характеристики ДСВ. Наприклад, перший і другий початковий моменти пов'язані з функцією, що виробляє наступними рівностями:

, (6.17)

. (6.18)

Метод виробляючих функцій часто буває зручним тим, що в деяких випадках функцію розподілу ДСВ дуже важко визначити, тоді як функцію, що виробляє, часом легко знайти. Наприклад, розглянемо схему послідовних незалежних випробувань Бернуллі, але внесемо до неї одну зміну. Нехай ймовірність здійснення події Aвід випробування до випробування змінюється. Це означає, що формула Бернуллі для такої схеми стає непридатною. Завдання знаходження функції розподілу у разі становить значні труднощі. Однак для даної схеми легко знаходиться функція, а, отже, легко знаходяться і відповідні числові характеристики.

Широке застосування функцій засноване на тому, що вивчення сум випадкових величин можна замінити вивченням творів відповідних функцій. Так, якщо x 1 , x 2 , …, x nнезалежні, то

Нехай p k=P k(A) – ймовірність "успіху" в k-м випробуванні у схемі Бернуллі (відповідно, q k=1–p k- Імовірність "неуспіху" в k-м випробуванні). Тоді, відповідно до формули (6.19), функція, що виробляє, матиме вигляд

. (6.20)

Користуючись цією функцією, можемо написати

.

Тут враховано, що p k +q k=1. Тепер за формулою (6.1) знайдемо другий початковий момент. Для цього попередньо обчислимо

і .

В окремому випадку p 1 =p 2 =…=p n=p(тобто у разі біномного розподілу) з отриманих формул випливає, що Mx= np, Dx= npq.


Тобто. дискретна випадок. величина Х має геом. розподіл. з параметром рта знаменником qякщо вона приймає значення 1,2,3,… k, … з ймовірностями

Р(Х) = pq k-1 , де q=1-р.

Розподіл називається геом. т.к. вер-ти р 1, р 2, …утворюють геом.прогресію, у якої перший член - р, а знаменник – q.

Якщо кількість випробувань обмежена, тобто. якщо випадкова величина може приймати значення 1, 2, ..., ∞, то мат.очікування та дисперсію геометр. розподілу можна знайти за формулами Mх = 1/p, Dх = q/p 2

приклад. Зі зброї проводиться стрілянина за метою до першого влучення. Імовірність влучення в ціль p = 0,6 при кожному пострілі. С.В. X - кількість можливих пострілів до першого влучення.

А) Скласти ряд розподілу, визначити функцію розподілу, побудувати її графік і визначити всі числові показники. б) Знайти математичне очікування та дисперсію для випадку, якщо стрілок має намір зробити не більше трьох пострілів.

а)Випадкова величина може набувати значень 1, 2, 3, 4,..., ∞
P(1) = p = 0,6
P(2) = qp = 0,4 · 0,6 = 0,24
P(3) = q 2 p = 0,4 2 · 0,6 = 0,096 ...
P(k) = q k-1 p = 0,4 k-1 · 0,6 ...
Ряд розподілу:



Контроль: Σp i = 0,6/(1-0,4) = 1 (сума геометричної прогресії)

Ф-ція розподілу – це ймовірність того, що с.в. Х набуде значення менше, ніж конкретне числове значення х. Значення функції розподілу знаходимо підсумовування ймовірностей.

Якщо x ≤ 1, то F(x) = 0

Якщо 1< x ≤ 2, то F(x) = 0,6
Якщо 2< x ≤ 3, то F(x) = 0,6 + 0,24 = 0,84
Якщо 3< x ≤ 4, то F(x) = 0,84 + 0,096 = 0,936 ...
Якщо k-1< x ≤ k, то F(x) = 0,6(1-0,4 k-1)/(1-0,4) = 1-0,4 k-1 (частичная сумма геом-ой прогрессии) ...

Mх = 1/p = 1/0,6 ≈ 1,667
Dх = q/p 2 = 0,4/0,36 ≈ 1,111
σ = √Dх ≈ 1,054

х
р 0,6 0,24 0,16

б)Випадкова величина може набувати значень 1, 2, 3.
P(1) = p = 0,6
P(2) = qp = 0,4 · 0,6 = 0,24
P(3) = q 2 p + q 3 = 0,4 2 · 0,6 + 0,4 3 = 0,16
Ряд розподілу:

Контроль: Σp i = 0,6 + 0,24 + 0,16 = 1
Функція розподілу.

Якщо x ≤ 1, то F(x) = 0
Якщо 1< x ≤ 2, то F(x) = 0,6
Якщо 2< x ≤ 3, то F(x) = 0,6 + 0,24 = 0,84
Якщо x > 3, F(x) = 0,84 + 0,16 = 1
M(X) = 1 · 0,6 + 2 · 0,24 + 3 · 0,16 = 1,56
D(X) = 1 2 · 0,6 + 2 2 · 0,24 + 3 2 · 0,16 - 1,56 2 = 0,5664
σ(Х) ≈ 0,752

Асиметрія та ексцес

Асиметрія - Це властивість розподілу вибірки, що характеризує несиметричність розподілу випадкової величини. Насправді симетричні розподіли зустрічаються рідко і щоб виявити і оцінити ступінь асиметрії, вводять поняття асиметрії. У разі негативного коефіцієнта асиметрії пологіший «спуск» спостерігається ліворуч, інакше – справа. У першому випадку асиметрію називають лівосторонньою, а у другому – правосторонньою.

Коефіцієнт асиметрії дискретнийвипадкової величини обчислюється за такою формулою:
As(X) = (x 1 -M X) 3 p 1 + (x 2 - M X) 3 p 2 + ... + ( x n - M X) 3 p n

Коеф. асиметрії безперервнийсл.вел. обчислюється за такою формулою:

Ексцес - Це міра крутості кривої розподілу. Коефіцієнт ексцесу дискретної випадкової величини обчислюється за такою формулою:

Ex(X) = [(x 1 - M X) 4 p 1 + (x 2 - M X) 4 p 2 + ... + (x n - M X) 4 p n ] / σ 4 - 3

Коефіцієнт ексцесу безперервної випадкової величини обчислюється за такою формулою:

приклад.

Закон розподілу дискретної випадкової величини X – це список всіх можливих значень сл.вел. X, які вона може приймати, та відповідних ймовірностей. Сума всіх вер-ей має дорівнювати 1. Перевірка: 0,1 + 0,2 + 0,5 + 0,1 + 0,1 = 1.

  1. Математичне очікування: M(X) = -2 · 0,1 - 1 · 0,2 + 0 · 0,5 + 1 · 0,1 + 2 · 0,1 = -0,1
  2. Дисперсія- Це математичне очікування квадрата відхилень значень сл.вел. X від її мат.ож.: D (X) = (-2 + 0,1) 2 · 0,1 + (- 1 + 0,1) 2 · 0,2 + (0 + 0,1) 2 · 0,5 + (1 + 0,1) 2 · 0,1 + (2 + 0,1) 2 · 0,1 = 1,09
    або D(X) = (-2) 2 · 0,1 + (-1) 2 · 0,2 + 0 2 · 0,5 + 1 2 · 0,1 + 2 2 · 0,1 - (-0 ,1) 2 = 1,1 - 0,01 = 1,09
  3. Порівн. кв. вимкнути.– це корінь квадратний із дисперсії: σ = √1,09 ≈ 1,044
  4. Коеф. асиметрії As(X) = [(-2 + 0,1) 3 · 0,1 + (- 1 + 0,1) 3 · 0,2 + (0 + 0,1) 3 · 0,5 + (1 + 0,1) 3 · 0,1 + (2 + 0,1) 3 · 0,1] / 1,044 3 = 0,200353
  5. Коеф. ексцеса E x(X) = [(-2 + 0,1) 4 · 0,1 + (- 1 + 0,1) 4 · 0,2 + (0 + 0,1) 4 · 0,5 + (1 + 0 ,1) 4 · 0,1 + (2 + 0,1) 4 · 0,1] / 1,044 4 - 3 = 0,200353
  6. Функція розподілу - це ймовірність того, що випадкова величина X прийме значення менше, ніж яке - чисельне значення x: F(X) = P(X< x). Функція розподілу - функція незнижена. Вона набуває значення в інтервалі від 0 до 1.

P(X< -0,1) = F(-0,1) = 0,3 P(X >-0,05) = P (0) + P (1) + P (2) = 0,5 + 0,1 + 0,1 = 0,7

2) Безперервні випадкові величини. Нормальний розподіл.

Безперервнавипадкова величина набуває не будь-які конкретні числові значення, а будь-які значення на числовому відрізку. Опис закону розподілу у безперервному випадку значно складніше, ніж у дискретному.

Безперервнийназивають випадкову величину, яка може набувати будь-яких значень деякого заданого інтервалу, наприклад, час очікування транспорту, температура повітря в якому-небудь місяці, відхилення фактичного розміру деталі від номінального, і т.д. Інтервал, на якому вона задана, може бути нескінченним в одну або обидві сторони.

Головна відмінність у завдання обчислення ймовірностей для дискретного і безперервного випадків полягає в наступному. У дискретному випадкудля подій типу х = с(випадкова величина набуває певного значення) шукається ймовірність Р(з). У безперервному випадкуймовірності такого типу рівні нулю, тому інтерес представляють ймовірності подій типу «випадкова величина набуває значення деякого відрізка», тобто. ахb. Або для подій типу хзшукається ймовірність р(хз). Отримали графік функції розподілу F( хз).

р
7 / 8
4 / 8
3 / 8
1 / 8
х

Отже, різноманітність випадкових величин дуже велика. Число прийнятих ними значень може бути кінцевим, лічильним або незліченним; значення можуть бути розташовані дискретно або заповнювати інтервали суцільно. Для того щоб задавати ймовірності значень випадкових величин, настільки різних за своєю природою, і до того ж задавати їх одним і тим же способом, теоретично ймовірностей вводять поняття функції розподілу випадкової величини.

Нехай - випадкова величина та х- Довільне дійсне число. Імовірність того, що набуде значення, менше, ніж х,називається функцією розподілу ймовірностейвипадкової величини: F(x)= Р(<х}.

Резюмуємо сказане: випадковою величиноюназивається величина, значення якої залежать від випадку та для якої визначено функцію розподілу ймовірностей.

Для безперервних випадкових величин (Коли безліч можливих значень випадкової величини незліченна) закон розподілу визначається за допомогою функції. Найчастіше це функція розподілу : F( x) = P(X<х) .

Функція F( x) має наступні властивостями:

1. 0 ≤ F( x) ≤ 1 ;

2. F( x) не убуває;

3. F( x) безперервна зліва;

4. F(- ) = 0, F( ) = 1.

За допомогою функції розподілу можна обчислювати ймовірність потрапляння випадкової величини Ху різні проміжки виду х 1х 2 P( х 1х 2) = F( x 2) - F( x 1)

приклад.Відомо, що . Знайти F(2).

За визначенням . Слід, . .

приклад.Ф-я распред. сл.вел.Х має вигляд:
. Знайти ймовірність того, що сл. вів. Х прийме значення в проміжку:

Вер-ть влучення непр.случ.величини в (- ; х]:

Для дискрет.сл.вел. ми знаходили матюки. оч., дисперсію, середньокв. відхилення. Їх аналогами для непр.сл.вел. є:

приклад.Случ.вел. Х задана щільністю розподілу на відрізку: f(x) = 1.



Щільність ймовірностібезперервної випадкової величини або функція розподілу ймовірностей- Аналог закону розподілу дискретної с.в. Але якщо закон розподілу дискретної с. графічно зображується як точок, з'єднаних для наочності ламаною лінією, то щільність ймовірностей графічно є безперервну гладку лінію. Аналітично задається формулою.

Якщо закон розподілу дискретної с. ставить кожному значенню x у відповідність певну ймовірність, то про щільність розподілу такого сказати не можна. Для безперервних С.В. можна знайти лише ймовірність попадання в якийсь інтервал. Вважається, що з кожного окремого значення безперервної с.в. ймовірність дорівнює нулю.

Основна властивість щільності ймовірності:невласний інтеграл від густини ймовірності в межах від -∞ до +∞ дорівнює одиниці (геометрично це виражається тим, що площа фігури, обмеженою зверху графіком густини ймовірності, знизу - віссю OX, дорівнює 1).

Функція розподілувипадкової величини - це функція, що визначає для кожного значення x ймовірність того, що випадкова величина (ξ) прийме значення менше, ніж x: F(x) = P(ξ< x). Численно функция распределения равна площади фигуры, ограниченной сверху графиком плотности вероятности, снизу осью ОХ, с боков - рассматриваемым интервалом.

Розглянемо геометричний розподіл, обчислимо його математичне очікування та дисперсію. За допомогою функції MS EXCEL ОТРБІНОМ.РАСП() побудуємо графіки функції розподілу та щільності ймовірності.

Геометричний розподіл(англ. Geometric distribution) є окремим випадком (при r=1).

Нехай проводяться випробування, у кожному з яких може відбутися лише подія «успіх» з ймовірністю p або подія «невдача» з ймовірністю q =1-p().

Визначимо x як номер випробування, в якому було зареєстровано перший успіх. У цьому випадку випадкова величина x буде мати Геометричний розподіл:

Геометричний розподіл у MS EXCEL

У MS EXCEL, починаючи з версії 2010, для Негативного Біноміального розподілує функція ОТРБІНОМ.РАСП() , англійська назва NEGBINOM.DIST(), яка дозволяє обчислити ймовірність виникнення кількості невдачдо отримання заданого числа успіху за заданої ймовірності успіху.

Для Геометричного розподілудругий аргумент цієї функції має бути 1, т.к. нас цікавить лише перший успіх.

Це визначення дещо відрізняється від формулювання наведеного вище, де обчислюється ймовірність, що перший успіх відбудеться після xвипробувань. Відмінність зводиться до діапазону зміни діапазону x: якщо ймовірність визначена через кількість випробувань, то хможе набувати значень починаючи з 1, а якщо через кількість невдач, то – починаючи з 0. Тому справедлива формула: p(x_ невдач) = p (x_ випробувань-1). Див. файл приклад лист Приклад, де наведено 2 способи розрахунку.

Нижче використовується підхід, прийнятий функції MS EXCEL: через кількість невдач.

Щоб обчислити функцію щільності ймовірності p(x), див. формулу вище, необхідно встановити четвертий аргумент функції ОТРБИНОМ.РАСП() рівним БРЕХНЯ. Для обчислення , необхідно встановити четвертий аргумент рівним ІСТИНА.

Примітка : До MS EXCEL 2010 у EXCEL була функція ОТРБІНОМРАСП() , яка дозволяє обчислити тільки щільність імовірності. У файлі прикладу наведено формулу на основі функції ОТРБІНОМРАСП() для обчислення інтегральної функції розподілу. Там же наведено формулу для обчислення ймовірності через визначення.

У файлі прикладу наведено графіки густини розподілу ймовірностіі інтегральної функції розподілу.

Примітка: Для зручності написання формул для параметра p у прикладному файлі створено .

Примітка: У функції ОТРБІНОМ.РАСП( ) при нецілому значенні х, . Наприклад, такі формули повернуть одне й теж значення:
ОТРБІНОМ.РАСП( 2 ; 1; 0,4; ІСТИНА) =
ОТРБІНОМ.РАСП( 2,9 ; 1; 0,4; ІСТИНА)

Завдання

Розв'язання задач наведено в файл прикладу на аркуші Приклад.

Завдання1. Нафтова компанія бурить свердловини для видобутку нафти. Імовірність виявити нафту в свердловині дорівнює 20%.
Яка ймовірність, що першу нафту буде отримано саме у третю спробу?
Яка ймовірність, що для виявлення першої нафти потрібно три спроби?
Рішення1:
= ОТРБІНОМ.РАСП(3-1; 1; 0,2; БРЕХНЯ)
=ОТРБІНОМ.РАСП(3-1; 1; 0,2; ІСТИНА)

Задача2. Рейтингове агентство робить опитування випадкових перехожих у місті про улюблену марку автомобіля. Нехай відомо, що у 1% городян улюбленим автомобілем є LadaGranta. Яка ймовірність, що зустріти першого шанувальника цієї марки автомобіля після опитування 10 людей?
Рішення2: =ОТРБІНОМ.РАСП(10-1; 1; 0,01; ІСТИНА)=9,56%