Закон розподілу суми двох випадкових. Нормальний закон розподілу системи двох випадкових величин

Насправді нерідко виникає потреба шукати закон розподілу суми випадкових величин.

Нехай є система (Х ь Х 2)двох безперервних с. в. та їх сума

Знайдемо густину розподілу с. в. У. Відповідно до загального рішення попереднього пункту, знаходимо область площини де х+ х 2 (рис. 9.4.1):

Диференціюючи цей вираз по у, отримаємо п. н. випадкової величини У = Х + Х 2:

Так як функція ф (х ь х 2) = Xj + х 2 симетрична щодо своїх аргументів, то

Якщо с. в. Хі Х 2 незалежні, то формули (9.4.2) та (9.4.3) набудуть вигляду:


У разі коли складаються незалежні с. в. Х хі Х 2 ,говорять про композицію законів розподілу. Виконати композиціюдвох законів розподілу - це означає знайти закон розподілу суми двох незалежних с. в., розподілених за цими законами. Для позначення композиції законів розподілу застосовується символічний запис

якою по суті позначаються формули (9.4.4) чи (9.4.5).

Приклад 1. Розглянуто роботу двох технічних пристроїв (ТУ). Спочатку працює ТУ після його виходу з ладу (відмови) включається в роботу ТУ 2 . Часи безвідмовної роботи ТУ ТУ 2 - Х хі Х 2 - незалежні та розподілені за показовими законами з параметрами А,1 та Х2.Отже, час Yбезвідмовної роботи ТУ, що складається із ТУ! та ТУ 2 , визначатиметься за формулою

Потрібно знайти п. н. випадкової величини Y,тобто композицію двох показових законів з параметрами та Х2.

Рішення. За формулою (9.4.4) отримаємо (у > 0)


Якщо є композиція двох показових законів з однаковими параметрами (?ц = Х 2 = У), то у виразі (9.4.8) виходить невизначеність типу 0/0, розкриваючи яку, отримаємо:

Порівнюючи цей вираз із виразом (6.4.8), переконуємось у тому, що композиція двох однакових показових законів (?ц = Х 2 = X)є закон Ерланга другого порядку (9.4.9). При композиції двох показових законів із різними параметрами Х хта А-2 отримують узагальнений закон Ерланга другого порядку (9.4.8). ?

Завдання 1. Закон розподілу різниці двох с. в. Система с. в. (Х та Х 2)має спільну п. р./(х ь х 2). Знайти п. н. їх різниці У = Х - Х2.

Рішення. Для системи с. в. (Х ь – Х 2)п. н. буде/(х ь - х 2),тобто ми різницю замінили сумою. Отже, п. н. випадкової величини Убуде мати вигляд (див. (9.4.2), (9.4.3)):

Якщо с. в. Х х ІХ 2 незалежні, то

Приклад 2. Знайти п. н. різниці двох незалежних показово розподілених с. в. з параметрами Х хі Х2.

Рішення. За формулою (9.4.11) отримаємо

Мал. 9.4.2 Мал. 9.4.3

На малюнку 9.4.2 зображено п. н. g(У). Якщо розглядається різниця двох незалежних, показово розподілених с. в. з однаковими параметрами (A-i= Х 2 = А,),то g(у) = /2 - вже знайомий

закон Лапласа (рис. 9.4.3). ?

Приклад 3. Знайти закон розподілу суми двох незалежних с. в. Хі Х 2 ,розподілених згідно із законом Пуассона з параметрами а хі а 2 .

Рішення. Знайдемо ймовірність події (Х х + Х 2 = т) (т = 0, 1,



Отже, с. в. У = Х х + Х 2 розподілено за законом Пуассона з параметром а х2) - а х + а 2. ?

Приклад 4. Знайти закон розподілу суми двох незалежних с. в. Х хі Х 2 ,розподілених за біноміальними законами з параметрами п х ри п 2 , рвідповідно.

Рішення. Уявимо с. в. Х ху вигляді:

де Х 1) -індикатор події Аву-му досвіді:

Ряд розподілу с. в. X,- має вигляд


Аналогічне уявлення зробимо й у с. в. Х 2:де Х] 2) – індикатор події Ау у"-му досвіді:


Отже,

де Х? 1)+(2) якщо індикатор події А:

Таким чином, ми показали, що с. в. Тесть сума (щ + п 2)індикаторів події А, звідки випливає, що с. в. ^розподілена за біноміальним законом з параметрами ( п х + п 2), нар.

Зауважимо, що якщо ймовірності ру різних серіях дослідів різні, то в результаті додавання двох незалежних с. ст., розподілених за біноміальними законами, вийде с. в., розподілена за біноміальним законом. ?

Приклади 3 і 4 легко узагальнюються довільне число доданків. При композиції законів Пуассона з параметрами а ' а 2 , ..., а тзнову виходить закон Пуассона з параметром а (т) = а х + а 2 + ... + а т.

При композиції біномних законів із параметрами (П ь р); (я 2, р) , (Пт, р)знову виходить біноміальний закон із параметрами («(«), Р),де п(т) = щ+ п 2 + ... + пт.

Ми довели важливі властивості закону Пуассона та біномного закону: «властивість стійкості». Закон розподілу називається стійким,якщо при комбінації двох законів однакового типу виходить закон того самого типу (розрізняються лише параметри цього закону). У підрозділі 9.7 ми покажемо, що така ж властивість стійкості має нормальний закон.

Розглянемо систему двох випадкових безперервних величин. Законом розподілу цієї системи є нормальний закон розподілу, якщо функція щільності ймовірності цієї системи має вигляд

. (1.18.35)

Можна показати, що тут – математичні очікування випадкових величин – їх середньоквадратичні відхилення – коефіцієнт кореляції величин. Обчислення за формулами (1.18.31) та (1.18.35) дають

. (1.18.36)

Легко бачити, що й випадкові величини , розподілені за нормальним законом не корелированны , всі вони є й незалежними

.

Таким чином, для нормального закону розподілу не корелюваність та незалежність – еквівалентні поняття.

Якщо , то випадкові величини залежать. Умовні закони розподілу обчислюються за формулами (1.18.20)

. (1.18.37)

Обидва закони (1.18.37) є нормальними розподілами. Насправді, перетворимо, наприклад, друге із співвідношень (1.18.37) до виду

.

Це справді нормальний закон розподілу, у якого умовне математичне очікування одно

, (1.18.38)

а умовне середньоквадратичне відхилення виражається формулою

. (1.18.39)

Зазначимо, що в умовному законі розподілу величини при фіксованому значенні від цього значення залежить лише умовне математичне очікування, але не умовна дисперсія – .

На координатній площині залежність (1.18.38) є прямою лінією

, (1.18.40)

яка називається лінією регресії на .

Цілком аналогічно встановлюється, що умовний розподіл величини при фіксованому значенні

, (1.18.41)

є нормальний розподіл із умовним математичним очікуванням

, (1.18.42)

умовним середньоквадратичним відхиленням

. (1.18.43)

У цьому випадку лінія регресії має вигляд

. (1.18.44)

Лінії регресії (1.18.40) та (1.18.44) збігаються тільки тоді, коли залежність між величинами і є лінійною. Якщо величини та незалежні, лінії регресії паралельні координатним осям.

Кінець роботи -

Ця тема належить розділу:

Конспект лекцій з математики теорія ймовірностей математична статистика

Кафедра вищої математики та інформатики.. конспект лекцій з математики.

Якщо Вам потрібний додатковий матеріал на цю тему, або Ви не знайшли те, що шукали, рекомендуємо скористатися пошуком по нашій базі робіт:

Що робитимемо з отриманим матеріалом:

Якщо цей матеріал виявився корисним для Вас, Ви можете зберегти його на свою сторінку в соціальних мережах:

Всі теми цього розділу:

Теорія ймовірностей
Теорія ймовірностей – розділ математики, у якому вивчаються закономірності випадкових масових явищ. Випадковим називається явище, яке

Статистичне визначення ймовірності
Подія називається випадкове явище, яке в результаті досвіду може з'явитися або не з'явиться (двозначне явище). Позначають події великими латинськими літерами

Простір елементарних подій
Нехай з деяким досвідом пов'язано безліч подій, причому: 1) в результаті досвіду з'являється одна і одна

Дії на подіями
Сумою двох подій та

Перестановки
Число різних перестановок з елементів позначається

Розміщення
Розміщенням з елементів по

Поєднання
Поєднанням з елементів за

Формула складання ймовірностей для несумісних подій
Теорема. Імовірність суми двох несумісних подій дорівнює сумі ймовірностей цих подій. (1

Формула складання ймовірностей для довільних подій
Теорема. Імовірність суми двох подій дорівнює сумі ймовірностей цих подій без ймовірності їхнього твору.

Формула множення ймовірностей
Нехай дані дві події в. Розглянемо подію

Формула повної ймовірності
Нехай повна група несумісних подій, їх називають гіпотезами. Розглянемо деяку подію

Формула ймовірностей гіпотез (Байєса)
Розглянемо знову – повну групу несумісних гіпотез та подію

Асимптотична формула Пуассона
У тих випадках, коли кількість випробувань велика, а ймовірність появи події

Випадкові дискретні величини
Випадковою називається величина, яка при повторенні досвіду може набувати неоднакові числові значення. Випадкова величина називається дискретною,

Випадкові безперервні величини
Якщо в результаті досвіду випадкова величина може набувати будь-якого значення з деякого відрізка або всієї дійсної осі, то вона називається безперервною. Законо

Функція густини ймовірності випадкової безперервної величини
Нехай. Розглянемо крапку і дамо їй прирощення

Числові характеристики випадкових величин
Випадкова дискретна чи безперервна величини вважаються повністю заданими, якщо відомі їхні закони розподілу. Насправді, знаючи закони розподілу, можна завжди обчислити ймовірність попадання

Квантилі випадкових величин
Квантилем порядку випадкової безперервної величини

Математичне очікування випадкових величин
Математичне очікування випадкової величини характеризує її середнє. Усі значення випадкової величини групуються навколо цього значення. Розглянемо спочатку випадкову дискретну величину

Середньоквадратичне відхилення та дисперсія випадкових величин
Розглянемо спочатку випадкову дискретну величину. Числові характеристики мода, медіана, квантили та математичне очікування

Моменти випадкових величин
Крім математичного очікування та дисперсії в теорії ймовірностей використовуються числові характеристики вищих порядків, які називаються моментами випадкових величин.

Теореми про числові характеристики випадкових величин
Теорема 1. Математичне очікування невипадкової величини дорівнює самій цій величині. Доказ: Нехай

Біноміальний закон розподілу

Закон розподілу Пуассона
Нехай випадкова дискретна величина, яка приймає значення

Рівномірний закон розподілу
Рівномірним законом розподілу випадкової безперервної величини називається закон функція щільності ймовірності, якого

Нормальний закон розподілу
Нормальним законом розподілу випадкової безперервної величини називається закон функція щільності

Експоненційний закон розподілу
Експонентний або показовий розподіл випадкової величини застосовується в таких додатках теорії ймовірностей, як теорія масового обслуговування, теорія надійності

Системи випадкових величин
На практиці в додатках теорії ймовірностей часто доводиться стикатися із завданнями, в яких результати експерименту описуються не однією випадковою величиною, а відразу кількома випадковими

Система двох випадкових дискретних величин
Нехай дві випадкові дискретні величини утворюють систему. Випадкова величина

Система двох випадкових безперервних величин
Нехай тепер систему утворюють дві випадкові безперервні величини. Законом розподілу цієї системи називається ймовірно

Умовні закони розподілу
Нехай і залежні випадкові безперервні велич

Числові характеристики системи двох випадкових величин
Початковим моментом порядку системи випадкових величин

Система кількох випадкових величин
Отримані результати для системи їх двох випадкових велич можуть бути узагальнені на випадок систем, що складаються з довільного числа випадкових величин. Нехай система утворена сукупністю

Граничні теореми теорії ймовірностей
Основною метою дисципліни теорія ймовірностей вивчення закономірностей випадкових масових явищ. Практика показує, що спостереження маси однорідних випадкових явищ виявивши

Нерівність Чебишева
Розглянемо випадкову величину з математичним очікуванням

Теорема Чебишева
Якщо випадкові величини попарно незалежні та мають кінцеві обмежені в сукупності дисперсії

Теорема Бернуллі
При необмеженому збільшенні числа дослідів частота появи події сходиться з ймовірністю до ймовірності події

Центральна гранична теорема
При складанні випадкових величин з будь-якими законами розподілу, але з обмеженими в сукупності дисперсіями, закон расп

Основні завдання математичної статистики
Розглянуті вище закони теорії ймовірностей є математичним виразом реальних закономірностей, що фактично існують у різних випадкових масових явищах. Вивчаючи

Проста статистична сукупність. Статистична функція розподілу
Розглянемо деяку випадкову величину, закон розподілу якої невідомий. Потрібен на підставі досвідчених даних про

Статистичний ряд. Гістограма
При велику кількість спостережень (порядку сотень) генеральна сукупність стає незручною і громіздкою для запису статистичного матеріалу. Для наочності та компактності статистичний матеріал

Числові характеристики статистичного розподілу
Теоретично ймовірностей розглядалися різні числові характеристики випадкових величин: математичне очікування, дисперсію, початкові та центральні моменти різних порядків. Аналогічні числа

Вибір теоретичного розподілу методом моментів
У кожному статистичному розподілі неминуче присутні елементи випадковості, пов'язані з обмеженістю числа спостережень. При великій кількості спостережень ці елементи випадковості згладжуються,

Перевірка правдоподібності гіпотези про вид закону розподілу
Нехай заданий статистичний розподіл апроксимований деякою теоретичною кривою або

Критерії згоди
Розглянемо один із найчастіше застосовуваних критеріїв згоди – так званий критерій Пірсона. Припусти

Точкові оцінки для невідомих параметрів розподілу
У п.п. 2.1. – 2.7 ми докладно розглянули способи вирішення першої та другої основних завдань математичної статистики. Це завдання визначення законів розподілу випадкових величин за дослідними даними

Оцінки для математичного очікування та дисперсії
Нехай над випадковою величиною з невідомим математичним очікуванням

Довірчий інтервал. Довірча ймовірність
На практиці при малій кількості дослідів над випадковою величиною наближена заміна невідомого параметра

Розглянемо випадок, коли третя випадкова величина Zє сумою двох незалежних випадкових величин Xі Y, тобто

Щільності цих величин
відповідно. Щільність розподілу Z

Цей інтеграл називається згорткоюабо композицієющільностей і позначається так:

.

Таким чином, якщо незалежні випадкові величини підсумовуються, їх щільності розподілу згортаються.

Це правило поширюється на суму будь-якої кількості незалежних доданків. Тобто якщо

.

приклад.Визначимо щільність розподілу суми двох рівномірно розподілених величин X 1 і X 2 з густиною:

Після підстановки цих щільностей (13.2.1) та інтегрування в припущенні
отримуємо, що

Ця щільність називається трапеціодальною (див. рис.13.2.1). Якщо
, то трапеція вироджується в рівнобедрений трикутник і відповідна щільність називається щільністю Сипсона.

Рис.13.2.1.Трапеціодальний розподіл - згортка двох рівномірних розподілів.

13.3.Розподіл суми нормально розподілених випадкових величин

Якщо
, Xі Yнезалежні та нормально розподілені із щільностями

то сума Zбуде розподілено теж нормально із щільністю

,

Цей факт доводиться безпосереднім інтегруванням інтеграла згортки (13.2.1) після підстановки
і
.

Справедливіше і загальне твердження: якщо

, (13.3.1)

де і b- Константи, а Х i – незалежні нормально розподілені випадкові величини із середніми значеннями
та дисперсіями , то Yбуде розподілено теж нормально із середнім значенням

(13.3.2)

та дисперсією

. (13.3.3)

Звідси випливає, що й сумуються незалежні нормально розподілені випадкові величини, то сума матиме також нормальний розподіл з математичним очікуванням, рівним сумі математичних очікувань доданків і дисперсією, що дорівнює сумі дисперсій доданків. Тобто якщо

,

. (13.3.4)

14. Граничні теореми

14.1.Поняття про закон великих чисел

З досвіду відомо, що у масових явищах результат мало залежить від окремих проявів. Наприклад, тиск, що чиниться газом на стінки судини, складається в результаті ударів молекул газу об стінки. Не дивлячись на те, що кожен удар по силі та напрямку абсолютно випадкові підсумковий тиск виявляється практично детермінованим. Те саме можна сказати про температуру тіла, яка визначає середню кінетичну енергію руху атомів тіла. Сила струму є проявом руху елементарних зарядів (електронів). Конкретні особливості кожного випадкового явища майже позначаються середньому результаті маси таких явищ. Випадкові відхилення від середнього, неминучі у кожному окремому явище, у масі взаємно погашаються, нівелюються, вирівнюються. Саме цей факт - стійкість середніх - лежить в основі закону великих чисел:при великому числі випадкових явищ середній їхній результат практично перестає бути випадковим і може бути передбачений з великим ступенем визначеності.

Теоретично ймовірностей під законом великих чисел розуміється ряд математичних теорем, у кожній з яких за тих чи інших умов встановлюється факт наближення середніх характеристик великої кількості дослідів до постійних величин або до граничних розподілів.

Нехай простір елементарних результатів випадкового експерименту такий, що кожному результату i j ставитися у відповідність значення випадкової величини, що дорівнює x i і значення випадкової величини, що дорівнює y j.

  • 1. Уявімо велику сукупність деталей, що мають вигляд стрижня. Експеримент полягає у випадковому виборі одного стрижня. Цей стрижень має довжину, яку будемо позначати і товщину (можна вказати інші параметри-обсяг, вага, чистота обробки, виражена в стандартних одиницях).
  • 2. Якщо розглянути акції двох різних корпорацій, то на цей день біржових торгів кожна з них характеризується певною прибутковістю. Випадкові величини - це прибутковості акцій цих корпорацій.

У цих випадках ми можемо говорити про спільний розподіл випадкових величин або про "двовимірну" випадкову величину.

Якщо дискретні і приймають кінцеве число значень (- nзначень, а - kзначень), то закон спільного розподілу випадкових величин і можна задати, якщо кожній парі чисел x i , y j(де x iналежить безлічі значень, а y j-множині значень) поставити у відповідність ймовірність p i j, що дорівнює ймовірності події, що об'єднує всі результати i j(і що складається лише з цих результатів), які призводять до значень = xi; = y j.

Такий закон розподілу можна поставити у вигляді таблиці:

Очевидно:

Якщо підсумувати все р i jв i-й рядку, то отримаємо:

Імовірність того, що випадкова величина набуде значення x i . Аналогічно, якщо підсумувати все р i jв j-м стовпці, то отримаємо:

ймовірність того, що набуває значення y j .

Відповідність x i P i (i = 1,2,n) визначає закон розподілу, також як відповідність y j P j (j = 1,2,k) визначає закон розподілу випадкової величини.

Очевидно:

Раніше ми говорили, що випадкові величини і незалежні, якщо:

pij = PiP j (i= 1,2,,n;j= 1,2,k).

Якщо це не виконується, то залежні.

У чому проявляється залежність випадкових величин і як її виявити з таблиці?

Розглянемо стовпець y 1 . Кожному числу x iпоставимо у відповідність число:

p i/ 1 = (1)

яке будемо називати умовною ймовірністю = x iпри = y 1 . Це не ймовірність P iподії = x i, і порівняйте формулу (1) із вже відомою формулою умовної ймовірності:

Відповідність x i р i / 1 , (i=1,2,n) називатимемо умовним розподілом випадкової величини при = y 1 . Очевидно:

Аналогічні умовні закони розподілу випадкової величини можна побудувати за всіх інших значеннях, рівних y 2 ;y 3 , y n, ставлячи у відповідність до числа x iумовну ймовірність:

p i/j = ().

У таблиці наведено умовний закон розподілу випадкової величини при = y j

Можна запровадити поняття умовного математичного очікування при = y j

Зауважимо, що й рівноцінні. Можна ввести умовний розподіл при = x iвідповідністю

(j = 1,2,k).

Також можна запровадити поняття умовного математичного очікування випадкової величини при = x i :

З визначення випливає, що й незалежні, то всі умовні закони розподілу однакові і збігаються із законом розподілу (нагадуємо, що закон розподілу визначається в таблиці (*) першим та останнім стовпцем). При цьому, очевидно, збігаються всі умовні математичні очікування М:

/ = y j ,

при j = 1,2,kякі рівні М.

Якщо умовні закони розподілу при різних значеннях різні, то кажуть, що між ними і має місце статистична залежність.

Приклад I. Нехай закон спільного розподілу двох випадкових величин та заданий наступною таблицею. Тут, як говорилося раніше, перший і останній стовпці визначають закон розподілу випадкової величини, а перший і останній рядок - закон розподілу випадкової величини.

Знайдемо закони розподілу випадкових величин:

Щоб отримати =2 і =0, потрібно, щоб прийняла значення 0, а прийняла значення 2. Так як і незалежні, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Вочевидь також Р(=3; =0)=0.

Побудуємо полігони умовних розподілів. Тут залежність від досить близька до функціональної: значення =1 відповідає єдине =2, значення =2 відповідає єдине =3, але при =0 ми можемо говорити лише, що з ймовірністю 3/4 набуває значення 1 і з ймовірністю 1/4 - значення 2.

Приклад ІІІ. Розглянемо закон спільного розподілу та, заданий таблицею

Закони умовних розподілів не відрізняються друг від друга при =1,2,3 і збігаються із законом розподілу випадкової величини. В цьому випадку й незалежні.

Характеристикою залежності між випадковими величинами і є математичне очікування твору відхилень та від своїх центрів розподілів (так іноді називають математичне очікування випадкової величини), яке називається коефіцієнтом коваріації чи просто ковариацией.

cov(;) = M((- M)(- M))

Нехай = x 1 , x 2 ,x 3 , x n , = y 1 ,y 2 ,y 3 ,y k .

Цю формулу можна інтерпретувати так. Якщо при великих значеннях більш ймовірні великі значення, а при малих значеннях більш ймовірні малі значення, то у правій частині формули (2) позитивні доданки домінують, і коваріація приймає позитивні значення.

Якщо ж можливі твори ( x i - M)(y j - M), що складаються з співмножників різного знака, тобто результати випадкового експерименту, що призводять до великих значень в основному призводять до малих значень і навпаки, то коваріація набуває великих за модулем негативних значень.

У першому випадку прийнято говорити про прямий зв'язок: зі зростанням випадкова величина має тенденцію до зростання.

У другому випадку говорять про зворотний зв'язок: зі зростанням випадкова величина має тенденцію до зменшення чи падіння. Якщо приблизно однаковий вклад у суму дають і позитивні та негативні твори ( x i - M)(y j - M)p i j, то можна сказати, що в сумі вони "гаситимуть" один одного і коваріація буде близька до нуля. І тут не проглядається залежність однієї випадкової величини з іншого.

Легко показати, що якщо:

P((= x i)(= y j)) = P(= x i)P(= y j) (i = 1,2,n; j = 1,2,k),

Дійсно з (2) випливає:

Тут використано дуже важливу властивість математичного очікування: математичне очікування відхилення випадкової величини від її математичного очікування дорівнює нулю.

Доказ (для дискретних випадкових величин із кінцевим числом значень).

Коваріацію зручно представляти у вигляді

cov(;)= M(- M- M+MM)=M()- M(M)- M(M)+M(MM)= M()- MM- MM+MM=M()- MM

Коваріація двох випадкових величин дорівнює математичному очікуванню їхнього твору мінус добуток математичних очікувань.

Легко доводиться така властивість математичного очікування: якщо і -незалежні випадкові величини, то:

М()=ММ.

(Довести самим, використовуючи формулу:

Таким чином, для незалежних випадкових величин та cov(;)=0.

  • 1. Монету підкидають 5 разів. Випадкова величина - число гербів, що випали, випадкова величина - число гербів, що випали, в останніх двох кидках. Побудувати спільний закон розподілу випадкових величин, побудувати умовні закони розподілу за різних значень. Знайти умовні математичні очікування та підступність в.
  • 2. Дві карти навмання витягуються з колоди в 32 листи. Випадкова величина – число тузів у вибірці, випадкова величина – число королів у вибірці. Побудувати спільний закон розподілу та побудувати умовні закони розподілу при різних значеннях. Знайти умовні математичні очікування та підступність в.