Prawo rozkładu sumy dwóch losowych. Prawo rozkładu normalnego układu dwóch zmiennych losowych

W praktyce często zachodzi potrzeba znalezienia prawa rozkładu sumy zmiennych losowych.

Niech będzie system (Хь Х 2) dwa ciągłe s. V. i ich suma

Znajdźmy gęstość rozkładu c. V. U. Zgodnie z ogólnym rozwiązaniem z poprzedniego akapitu znajdujemy obszar płaszczyzny, gdzie x+ x 2 (ryc. 9.4.1):

Różniczkując to wyrażenie względem y, otrzymujemy p.r. zmienna losowa Y = X + X 2:

Ponieważ funkcja φ (x b x 2) = Xj + x 2 jest symetryczna względem swoich argumentów, to

Jeśli z. V. X I X 2 są niezależne, wówczas wzory (9.4.2) i (9.4.3) przyjmą postać:


W przypadku, gdy niezależne s. V. X x I X2, mówić o składzie przepisów dotyczących dystrybucji. Produkować kompozycja dwa prawa rozkładu - oznacza to znalezienie prawa rozkładu sumy dwóch niezależnych s. c., dystrybuowane zgodnie z tymi przepisami. Aby oznaczyć skład praw dystrybucji, stosuje się notację symboliczną

co zasadniczo oznacza wzory (9.4.4) lub (9.4.5).

Przykład 1. Rozważono działanie dwóch urządzeń technicznych (TD). Początkowo TU działa, po jej awarii (awarii) zostaje włączona do działania TU 2. Czasy bezawaryjnej pracy TU L TU 2 - X x I X 2 - niezależne i rozłożone zgodnie z prawami wykładniczymi z parametrami A,1 i X2. Dlatego czas Y bezproblemowa praca urządzenia technicznego składającego się z wyposażenia technicznego! i TU 2, zostaną określone według wzoru

Wymagane jest znalezienie p.r. zmienna losowa Y, tj. złożenie dwóch praw wykładniczych z parametrami i X2.

Rozwiązanie. Korzystając ze wzoru (9.4.4) otrzymujemy (y > 0)


Jeśli istnieje złożenie dwóch praw wykładniczych o tych samych parametrach (?ts = X 2 = Y), to w wyrażeniu (9.4.8) otrzymujemy niepewność typu 0/0, ujawniając, że otrzymujemy:

Porównując to wyrażenie z wyrażeniem (6.4.8) jesteśmy przekonani, że złożenie dwóch identycznych praw wykładniczych (?ts = X 2 = X) reprezentuje prawo drugiego rzędu Erlanga (9.4.9). Łącząc dwa prawa wykładnicze o różnych parametrach X x i A-2 otrzymują uogólnione prawo drugiego rzędu Erlanga (9.4.8). ?

Zadanie 1. Prawo rozkładu różnicy dwóch s. V. System s. V. (X i X 2) ma złącze p.r./(x b x 2). Znajdź p.r. ich różnice Y=X - X2.

Rozwiązanie. Dla systemu z. V. (X b - X 2) itp. będzie/(x b - x2), tzn. różnicę zastąpiliśmy sumą. Dlatego też, p.r. zmienna losowa będzie miała postać (patrz (9.4.2), (9.4.3)):

Jeśli Z. V. X x iX 2 są w takim razie niezależne

Przykład 2. Znajdź p.r. różnica między dwoma niezależnymi s o rozkładzie wykładniczym. V. z parametrami X x I X2.

Rozwiązanie. Korzystając ze wzoru (9.4.11) otrzymujemy

Ryż. 9.4.2 Ryż. 9.4.3

Rysunek 9.4.2 przedstawia pr. G(y). Jeśli weźmiemy pod uwagę różnicę dwóch niezależnych s o rozkładzie wykładniczym. V. z tymi samymi parametrami (A-tj= X 2 = A,), To G(y) = /2 - już znane

Prawo Laplace'a (ryc. 9.4.3). ?

Przykład 3. Znajdź prawo rozkładu sumy dwóch niezależnych s. V. X I X2, rozłożone zgodnie z prawem Poissona z parametrami x I 2.

Rozwiązanie. Znajdźmy prawdopodobieństwo zdarzenia (Xx + X 2 = t) (t = 0, 1,



Dlatego s. V. Y= Xx + X 2 rozłożone zgodnie z prawem Poissona z parametrem a x2) - a x + a 2. ?

Przykład 4. Znajdź prawo rozkładu sumy dwóch niezależnych s. V. X x I X2, rozłożone zgodnie z prawami dwumianu z parametrami p x ri p 2, s. 2 odpowiednio.

Rozwiązanie. Wyobraźmy sobie s. V. X x Jak:

Gdzie X 1) - wskaźnik zdarzenia A Doświadczenia Wu:

Seria dystrybucyjna s. 10 V. X,- ma postać


Podobną reprezentację wykonamy dla s. V. X2: gdzie X] 2) - wskaźnik zdarzenia A w y-tym doświadczeniu:


Stąd,

gdzie jest X? 1)+(2) jeśli wskaźnik zdarzenia A:

Pokazaliśmy zatem, że s. V. Przetestuj ilość (u + n 2) wskaźniki zdarzeń A, z czego wynika, że ​​s. V. ^rozkładane zgodnie z prawem dwumianu z parametrami ( p.x + s. 2), r.

Należy pamiętać, że jeśli prawdopodobieństwa R są różne w różnych seriach eksperymentów, to w wyniku dodania dwóch niezależnych s. in., rozdzielone zgodnie z prawami dwumianu, okazuje się, że c. c., dystrybuowane niezgodnie z prawem dwumianu. ?

Przykłady 3 i 4 można łatwo uogólnić na dowolną liczbę terminów. Łącząc prawa Poissona z parametrami a b 2, ..., Na ponownie otrzymujemy prawo Poissona z parametrem za (t) = za x + za 2 + ... + oraz T.

Podczas tworzenia praw dwumianowych z parametrami (p.p.s); (ja 2, R) , (p t, p) ponownie otrzymujemy prawo dwumianu z parametrami („(”), R), Gdzie n (t) = n + n 2 + ... + pkt.

Udowodniliśmy ważne właściwości prawa Poissona i prawa dwumianu: „właściwość stabilności”. Prawo dystrybucji nazywa się zrównoważony, jeżeli złożenie dwóch praw tego samego typu daje prawo tego samego typu (różnią się jedynie parametry tego prawa). W podrozdziale 9.7 pokażemy, że prawo normalne ma tę samą właściwość stabilności.

Rozważmy układ dwóch losowych zmiennych ciągłych. Prawo rozkładu tego układu jest prawem rozkładu normalnego, jeżeli funkcja gęstości prawdopodobieństwa tego układu ma postać

. (1.18.35)

Można wykazać, że są to oczekiwania matematyczne zmiennych losowych, ich odchylenia standardowe i współczynnik korelacji zmiennych. Obliczenia z wykorzystaniem wzorów (1.18.31) i (1.18.35) dają

. (1.18.36)

Łatwo zauważyć, że jeśli zmienne losowe o rozkładzie normalnym nie są skorelowane, to są również niezależne

.

Zatem dla prawa dystrybucji normalnej niekorelacja i niezależność są pojęciami równoważnymi.

Jeśli , to zmienne losowe są zależne. Prawa dystrybucji warunkowej oblicza się za pomocą wzorów (1.18.20)

. (1.18.37)

Obydwa prawa (1.18.37) reprezentują rozkłady normalne. Właściwie przekształćmy na przykład drugą z relacji (1.18.37) do formy

.

Jest to naprawdę normalne prawo dystrybucji, które ma warunkowe oczekiwanie matematyczne równa się

, (1.18.38)

A warunkowe odchylenie standardowe wyrażone wzorem

. (1.18.39)

Należy zauważyć, że w warunkowym prawie rozkładu wielkości o ustalonej wartości tylko warunkowe oczekiwanie matematyczne zależy od tej wartości, ale nie wariancja warunkowa – .

Na płaszczyźnie współrzędnych zależność (1.18.38) jest linią prostą

, (1.18.40)

który jest nazywany linia regresji NA .

W całkowicie analogiczny sposób ustala się, że warunkowy rozkład wielkości ma stałą wartość

, (1.18.41)

istnieje rozkład normalny z warunkowymi oczekiwaniami matematycznymi

, (1.18.42)

warunkowe odchylenie standardowe

. (1.18.43)

W tym przypadku wygląda linia regresji

. (1.18.44)

Linie regresji (1.18.40) i (1.18.44) pokrywają się tylko wtedy, gdy zależność między wielkościami i jest liniowa. Jeżeli wielkości i są niezależne, linie regresji są równoległe do osi współrzędnych.

Koniec pracy -

Ten temat należy do działu:

Notatki z wykładów z matematyki, teorii prawdopodobieństwa, statystyki matematycznej

Wydział Matematyki Wyższej i Informatyki.. Notatki z wykładów.. z matematyki..

Jeśli potrzebujesz dodatkowych materiałów na ten temat lub nie znalazłeś tego czego szukałeś, polecamy skorzystać z wyszukiwarki w naszej bazie dzieł:

Co zrobimy z otrzymanym materiałem:

Jeśli ten materiał był dla Ciebie przydatny, możesz zapisać go na swojej stronie w sieciach społecznościowych:

Wszystkie tematy w tym dziale:

Teoria prawdopodobieństwa
Teoria prawdopodobieństwa jest gałęzią matematyki, w której bada się wzorce losowych zjawisk masowych. Zjawisko losowe nazywa się

Statystyczna definicja prawdopodobieństwa
Zdarzenie to zjawisko losowe, które może pojawić się w wyniku doświadczenia lub nie (zjawisko niejednoznaczne). Wskazuj wydarzenia wielkimi literami łacińskimi

Przestrzeń zdarzeń elementarnych
Niech będzie wiele zdarzeń związanych z jakimś doświadczeniem i: 1) w wyniku doświadczenia pojawia się jedna i tylko jedna rzecz

Działania na zdarzeniach
Suma dwóch zdarzeń i

Przegrupowania
Liczba różnych permutacji elementów jest oznaczona przez

Miejsca docelowe
Umieszczając elementy wg

Kombinacje
Połączenie elementów

Wzór na dodawanie prawdopodobieństw zdarzeń niezgodnych
Twierdzenie. Prawdopodobieństwo sumy dwóch niezgodnych zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń. (1

Wzór na dodawanie prawdopodobieństw dowolnych zdarzeń
Twierdzenie. Prawdopodobieństwo sumy dwóch zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń bez prawdopodobieństwa ich iloczynu.

Wzór na mnożenie prawdopodobieństwa
Niech dwa zdarzenia i będą dane. Rozważ wydarzenie

Wzór na całkowite prawdopodobieństwo
Niech będzie kompletną grupą niezgodnych zdarzeń, nazywane są hipotezami. Rozważmy jakieś wydarzenie

Hipoteza Wzór na prawdopodobieństwo (Bayesa)
Rozważmy jeszcze raz - całą grupę niezgodnych hipotez i zdarzenia

Asymptotyczna formuła Poissona
W przypadkach, gdy liczba testów jest duża i prawdopodobieństwo wystąpienia zdarzenia

Losowe ilości dyskretne
Wielkość losowa to wielkość, która po powtórzeniu eksperymentu może przyjąć nierówne wartości liczbowe. Zmienna losowa nazywana jest dyskretną,

Losowe zmienne ciągłe
Jeżeli w wyniku eksperymentu zmienna losowa może przyjąć dowolną wartość z określonego odcinka lub całej osi rzeczywistej, wówczas nazywa się ją ciągłą. Prawo

Funkcja gęstości prawdopodobieństwa losowej zmiennej ciągłej
Zostawiać. Rozważmy punkt i nadajmy mu przyrosty

Charakterystyki numeryczne zmiennych losowych
Losowe zmienne dyskretne lub ciągłe uważa się za całkowicie określone, jeśli znane są prawa ich rozkładu. Tak naprawdę, znając prawa dystrybucji, zawsze możesz obliczyć prawdopodobieństwo trafienia

Kwantyle zmiennych losowych
Kwantyl rzędu losowej zmiennej ciągłej

Matematyczne oczekiwanie zmiennych losowych
Matematyczne oczekiwanie zmiennej losowej charakteryzuje jej średnią wartość. Wszystkie wartości zmiennej losowej są zgrupowane wokół tej wartości. Rozważmy najpierw losową zmienną dyskretną

Odchylenie standardowe i rozproszenie zmiennych losowych
Rozważmy najpierw losową zmienną dyskretną. Model charakterystyki numerycznej, mediana, kwantyle i oczekiwanie matematyczne

Momenty zmiennych losowych
Oprócz matematycznych oczekiwań i rozproszenia teoria prawdopodobieństwa wykorzystuje charakterystyki numeryczne wyższych rzędów, które nazywane są momentami zmiennych losowych.

Twierdzenia o charakterystyce numerycznej zmiennych losowych
Twierdzenie 1. Oczekiwanie matematyczne wartości nielosowej jest równe samej tej wartości. Dowód: Niech

Prawo dystrybucji dwumianowej

Prawo rozkładu Poissona
Niech losowa zmienna dyskretna przyjmie wartości

Jednolite prawo dystrybucyjne
Jednorodnym prawem rozkładu losowej zmiennej ciągłej jest prawo funkcji gęstości prawdopodobieństwa, które

Normalne prawo dystrybucji
Prawo rozkładu normalnego losowej zmiennej ciągłej to prawo funkcji gęstości

Prawo dystrybucji wykładniczej
Rozkład wykładniczy lub wykładniczy zmiennej losowej jest stosowany w takich zastosowaniach teorii prawdopodobieństwa, jak teoria kolejek, teoria niezawodności

Układy zmiennych losowych
W praktyce w zastosowaniach teorii prawdopodobieństwa często spotyka się problemy, w których wyniki eksperymentu opisuje nie jedna zmienna losowa, ale kilka losowych jednocześnie.

Układ dwóch losowych zmiennych dyskretnych
Niech dwie losowe zmienne dyskretne utworzą system. Losowa wartość

Układ dwóch losowych zmiennych ciągłych
Niech teraz system utworzą dwie losowe zmienne ciągłe. Prawo dystrybucji tego systemu nazywa się prawdopodobnie

Warunkowe prawa dystrybucji
Niech zależne losowe ilości ciągłe

Charakterystyka numeryczna układu dwóch zmiennych losowych
Początkowy moment uporządkowania układu zmiennych losowych

Układ kilku zmiennych losowych
Wyniki uzyskane dla układu dwóch zmiennych losowych można uogólnić na przypadek układów składających się z dowolnej liczby zmiennych losowych. Niech system będzie utworzony przez zbiór

Twierdzenia graniczne teorii prawdopodobieństwa
Głównym celem dyscypliny teorii prawdopodobieństwa jest badanie wzorców losowych zjawisk masowych. Praktyka pokazuje, że obserwacja masy jednorodnych zjawisk losowych ujawnia

Nierówność Czebyszewa
Rozważmy zmienną losową z oczekiwaniem matematycznym

Twierdzenie Czebyszewa
Jeśli zmienne losowe są parami niezależne i mają skończone, wspólnie ograniczone wariancje

Twierdzenie Bernoulliego
Przy nieograniczonym wzroście liczby eksperymentów częstotliwość występowania zdarzenia zbiega się z prawdopodobieństwem do prawdopodobieństwa zdarzenia

Centralne twierdzenie graniczne
Podczas dodawania zmiennych losowych z dowolnymi prawami dystrybucji, ale ze wspólnie ograniczonymi wariancjami, stosuje się prawo dystrybucji

Główne problemy statystyki matematycznej
Omówione powyżej prawa teorii prawdopodobieństwa stanowią matematyczny wyraz rzeczywistych wzorców, które faktycznie istnieją w różnych losowych zjawiskach masowych. Uczenie się

Prosta populacja statystyczna. Funkcja rozkładu statystycznego
Rozważmy pewną zmienną losową, której prawo rozkładu jest nieznane. Wymagane na podstawie doświadczenia

Seria statystyczna. wykres słupkowy
Przy dużej liczbie obserwacji (rzędu setek) populacja staje się niewygodna i uciążliwa w rejestracji materiału statystycznego. Dla przejrzystości i zwartości materiał statystyczny

Numeryczna charakterystyka rozkładu statystycznego
W teorii prawdopodobieństwa uwzględniano różne charakterystyki liczbowe zmiennych losowych: oczekiwanie matematyczne, dyspersję, momenty początkowe i centralne różnych rzędów. Podobne liczby

Dobór rozkładu teoretycznego metodą momentów
Każdy rozkład statystyczny nieuchronnie zawiera elementy losowości związane z ograniczoną liczbą obserwacji. Przy dużej liczbie obserwacji te elementy losowości ulegają wygładzeniu,

Sprawdzenie wiarygodności hipotezy o postaci prawa dystrybucji
Niech dany rozkład statystyczny będzie aproksymowany przez jakąś krzywą teoretyczną lub

Kryteria zgody
Rozważmy jedno z najczęściej stosowanych kryteriów dobroci dopasowania – tzw. kryterium Pearsona. Zgadywać

Oszacowania punktowe dla nieznanych parametrów rozkładu
na s. 2.1. – 2.7 szczegółowo sprawdziliśmy, jak rozwiązać pierwszy i drugi główny problem statystyki matematycznej. Są to problemy wyznaczania praw rozkładu zmiennych losowych na podstawie danych eksperymentalnych

Szacunki oczekiwań i wariancji
Przepuść zmienną losową o nieznanym oczekiwaniu matematycznym

Przedział ufności. Prawdopodobieństwo ufności
W praktyce przy niewielkiej liczbie eksperymentów na zmiennej losowej przybliżone zastąpienie nieznanego parametru

Rozważmy przypadek, gdy trzecia zmienna losowa Z jest sumą dwóch niezależnych zmiennych losowych X I Y, to jest

Gęstości tych wielkości
odpowiednio. Gęstość dystrybucji Z

Całka ta nazywa się skręt Lub kompozycja gęstości i jest oznaczana w następujący sposób:

.

Zatem, jeśli zsumuje się niezależne zmienne losowe, wówczas ich gęstości rozkładu załamują się.

Reguła ta dotyczy sumy dowolnej liczby niezależnych terminów. To znaczy, jeśli

.

Przykład. Wyznaczmy gęstość rozkładu sumy dwóch równomiernie rozłożonych wielkości X 1 i X 2 o gęstościach:

Po podstawieniu tych gęstości do (13.2.1) i całkowaniu przy założeniu
rozumiemy to

Gęstość ta nazywana jest trapezoidalną (patrz rys. 13.2.1). Jeśli
, wówczas trapez ulega degeneracji w trójkąt równoramienny, a odpowiadająca mu gęstość nazywana jest gęstością Sipsona.

Rys. 13.2.1. Rozkład trapezowy - splot dwóch rozkładów jednorodnych.

13.3. Rozkład sumy zmiennych losowych o rozkładzie normalnym

Jeśli
, X I Y niezależne i o rozkładzie normalnym z gęstościami

następnie kwotę Z będzie również rozłożony normalnie z gęstością

,

Fakt ten udowadnia bezpośrednie całkowanie całki kompilacji (13.2.1) po podstawieniu
I
.

Prawdziwe jest również bardziej ogólne stwierdzenie: jeśli

, (13.3.1)

Gdzie I B- stałe i X I – niezależne zmienne losowe o rozkładzie normalnym o wartościach średnich
i odchylenia , To Y będzie również rozłożony normalnie z wartością średnią

(13.3.2)

i wariancja

. (13.3.3)

Wynika z tego, że jeśli zsumuje się niezależne zmienne losowe o rozkładzie normalnym, to suma będzie miała również rozkład normalny z oczekiwaniem matematycznym równym sumie oczekiwań matematycznych wyrazów i wariancją równą sumie wariancji wyrazów. To znaczy, jeśli

,

. (13.3.4)

14. Twierdzenia graniczne

14.1. Pojęcie prawa wielkich liczb

Z doświadczenia wiadomo, że w zjawiskach masowych wynik w niewielkim stopniu zależy od indywidualnych przejawów. Na przykład ciśnienie wywierane przez gaz na ścianki pojemnika jest wynikiem uderzania cząsteczek gazu w ściany. Pomimo tego, że każdy cios jest całkowicie losowy pod względem siły i kierunku, powstałe ciśnienie okazuje się praktycznie deterministyczne. To samo można powiedzieć o temperaturze ciała, która określa średnią energię kinetyczną ruchu atomów ciała. Siła prądu jest przejawem ruchu ładunków elementarnych (elektronów). Specyficzne cechy każdego zjawiska losowego nie mają prawie żadnego wpływu na średni wynik masy takich zjawisk. Przypadkowe odchylenia od średniej, nieuniknione w każdym pojedynczym zjawisku, znoszą się wzajemnie, wyrównują i wyrównują jako całość. To właśnie ten fakt – stabilność średnich – leży u podstaw prawo wielkich liczb: przy dużej liczbie zjawisk losowych ich średni wynik praktycznie przestaje być losowy i można go przewidzieć z dużą dozą pewności.

W teorii prawdopodobieństwa prawo wielkich liczb jest rozumiane jako szereg twierdzeń matematycznych, z których każde pod pewnymi warunkami stwierdza fakt, że średnie cechy dużej liczby eksperymentów zbliżają się do wartości stałych lub rozkładów granicznych.

Niech przestrzeń elementarnych wyników eksperymentu losowego będzie taka, że ​​każdemu wynikowi i j towarzyszy wartość zmiennej losowej równa X i i wartość zmiennej losowej równa y J.

  • 1. Wyobraźmy sobie duży zbiór części w kształcie pręta. Eksperyment polega na losowym wyborze jednego pręta. Wędka ta ma długość, którą będziemy oznaczać, oraz grubość (można określić inne parametry - objętość, wagę, wykończenie, wyrażone w jednostkach standardowych).
  • 2. Jeżeli weźmiemy pod uwagę akcje dwóch różnych korporacji, to w danym dniu notowań giełdowych każda z nich charakteryzuje się określoną rentownością. Zmienne losowe i to zwroty z akcji tych korporacji.

W takich przypadkach możemy mówić o wspólnym rozkładzie zmiennych losowych i/lub o „dwuwymiarowej” zmiennej losowej.

Jeśli i są dyskretne i przyjmują skończoną liczbę wartości (- N wartości i - k wartości), to prawo wspólnego rozkładu zmiennych losowych można określić, jeśli dla każdej pary liczb X I , y J(Gdzie X I należy do zbioru wartości i y J-zbiór wartości) odpowiadają prawdopodobieństwu P I J, równe prawdopodobieństwu zdarzenia łączącego wszystkie wyniki I J(i składający się tylko z tych wyników), które prowadzą do wartości = xi; = y j.

To prawo dystrybucji można określić w formie tabeli:

Oczywiście:

Jeśli to wszystko podsumujemy R I J V I linii, otrzymujemy:

Prawdopodobieństwo, że zmienna losowa przyjmie wartość x i . Podobnie, jeśli wszystko podsumujemy R I J V J kolumnie otrzymujemy:

prawdopodobieństwo, które przyjmuje wartość y J .

Korespondencja X I P I (I = 1,2,N) określa prawo dystrybucji, a także korespondencji y J P J (J = 1,2,k) określa prawo rozkładu zmiennej losowej.

Oczywiście:

Poprzednio powiedzieliśmy, że zmienne losowe są niezależne, jeśli:

pij=PiP j (ja= 1,2,,N;j= 1,2,k).

Jeśli to nie jest spełnione, jesteśmy zależni.

Jaka jest zależność zmiennych losowych i jak można ją zidentyfikować z tabeli?

Rozważ kolumnę y 1. Każdy numer X I dopasujmy liczbę:

P I/ 1 = (1)

które nazwiemy prawdopodobieństwem warunkowym = X I w = y 1. Należy pamiętać, że nie jest to prawdopodobieństwo. P I wydarzenia = X I, i porównaj wzór (1) ze znanym już wzorem na prawdopodobieństwo warunkowe:

Korespondencja X I R I / 1 , (I=1,2,N) będzie nazywany rozkładem warunkowym zmiennej losowej w punkcie = y 1. Oczywiście:

Podobne warunkowe prawa rozkładu zmiennej losowej można skonstruować dla wszystkich innych wartości równych y 2 ;y 3 , y N, pasujący do numeru X I warunkowe prawdopodobieństwo:

P ja/j = ().

Tabela pokazuje warunkowe prawo rozkładu zmiennej losowej w punkcie = y J

Możesz wprowadzić koncepcję warunkowego oczekiwania matematycznego w = y J

Zauważ, że i są równoważne. Możesz wprowadzić rozkład warunkowy w punkcie = X I zgodność

(J = 1,2,k).

Można także wprowadzić koncepcję warunkowego oczekiwania matematycznego zmiennej losowej w punkcie = X I :

Z definicji wynika, że ​​jeśli są one niezależne, to wszystkie prawa dystrybucji warunkowej są takie same i pokrywają się z prawem dystrybucji (przypominamy, że prawo dystrybucji definiuje w tabeli (*) pierwsza i ostatnia kolumna). W tym przypadku jest oczywiste, że wszystkie warunkowe oczekiwania matematyczne są zbieżne M:

/ = y J ,

Na J = 1,2,k, które są równe M.

Jeśli prawa dystrybucji warunkowej są różne dla różnych wartości, wówczas mówią, że istnieje statystyczna zależność między i.

Przykład I. Niech prawo łącznego rozkładu dwóch zmiennych losowych zostanie podane w poniższej tabeli. Tutaj, jak wspomniano wcześniej, pierwsza i ostatnia kolumna określają prawo rozkładu zmiennej losowej, a pierwszy i ostatni wiersz określają prawo rozkładu zmiennej losowej.

Znajdźmy prawa rozkładu zmiennych losowych:

Aby otrzymać =2 i =0, musisz przyjąć wartość 0 i przyjąć wartość 2. Ponieważ i są niezależne, zatem

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Oczywiście także Р(=3; =0)=0.

Skonstruujmy wielokąty rozkładów warunkowych. Tutaj zależność od jest dość funkcjonalna: wartość =1 odpowiada tylko =2, wartość =2 odpowiada tylko =3, ale dla =0 możemy tylko powiedzieć, że z prawdopodobieństwem 3/4 przyjmuje wartość 1 i z prawdopodobieństwem 1/4 wartość 2.

Przykład III. Rozważmy prawo wspólnej dystrybucji i podane w tabeli

Prawa rozkładów warunkowych nie różnią się od siebie przy =1,2,3 i pokrywają się z prawem rozkładu zmiennej losowej. W tym przypadku są one niezależne.

Cechą zależności pomiędzy zmiennymi losowymi jest matematyczne oczekiwanie iloczynu odchyleń i ich centrów rozkładu (jak czasami nazywa się matematyczne oczekiwanie zmiennej losowej), które nazywane jest współczynnikiem kowariancji lub po prostu kowariancją.

cov(;) = M((- M)(- M))

Niech = X 1 , X 2 ,X 3 , X N , = y 1 ,y 2 ,y 3 ,y k .

Formułę tę można interpretować w następujący sposób. Jeśli dla dużych wartości bardziej prawdopodobne są duże wartości, a dla małych małych wartości bardziej prawdopodobne, to po prawej stronie wzoru (2) dominują wyrazy dodatnie, a kowariancja przyjmuje wartości dodatnie .

Jeżeli produkty ( X I - M)(y J - M), składający się z czynników o różnych znakach, czyli wyniki losowego eksperymentu prowadzącego do dużych wartości na ogół prowadzą do małych wartości i odwrotnie, wówczas kowariancja przyjmuje duże wartości ujemne w wartości bezwzględnej.

W pierwszym przypadku zwyczajowo mówi się o bezpośrednim związku: wraz ze wzrostem zmienna losowa ma tendencję do wzrostu.

W drugim przypadku mówią o sprzężeniu zwrotnym: w miarę wzrostu zmiennej losowej ma ona tendencję do zmniejszania się lub opadania. Jeżeli w przybliżeniu taki sam udział w sumie mają produkty dodatnie i ujemne ( X I - M)(y J - M)P I J, to możemy powiedzieć, że w sumie będą się one „znosić” i kowariancja będzie bliska zeru. W tym przypadku zależność jednej zmiennej losowej od drugiej nie jest widoczna.

Łatwo pokazać, że jeśli:

P((= X I)(= y J)) = P(= X I)P(= y J) (I = 1,2,N; J = 1,2,k),

Rzeczywiście z (2) wynika:

Wykorzystywana jest tu bardzo ważna właściwość oczekiwań matematycznych: matematyczne oczekiwanie odchylenia zmiennej losowej od jej oczekiwań matematycznych wynosi zero.

Dowód (dla dyskretnych zmiennych losowych o skończonej liczbie wartości).

Wygodnie jest przedstawić kowariancję w formie

cov(;)= M(- M- M+MM)=M()- M(M)- M(M)+M(MM)= M()- MM- MM+MM=M()- MM

Kowariancja dwóch zmiennych losowych jest równa matematycznym oczekiwaniom ich iloczynu minus iloczyn ich matematycznych oczekiwań.

Łatwo można udowodnić następującą własność oczekiwań matematycznych: jeśli i są niezależnymi zmiennymi losowymi, to:

M()=MM.

(Udowodnij to sam, korzystając ze wzoru:

Zatem dla niezależnych zmiennych losowych i cov(;)=0.

  • 1. Rzucamy 5 razy monetą. Zmienna losowa - liczba upuszczonych herbów, zmienna losowa - liczba upuszczonych herbów w dwóch ostatnich rzutach. Konstruuj prawo rozkładu łącznego zmiennych losowych, konstruuj prawa rozkładu warunkowego dla różnych wartości. Znajdź oczekiwania warunkowe i kowariancję oraz.
  • 2. Z talii 32 arkuszy losujemy dwie karty. Zmienną losową jest liczba asów w próbie, zmienną losową jest liczba królów w próbie. Skonstruuj prawo podziału łącznego i prawa dystrybucji warunkowej dla różnych wartości. Znajdź oczekiwania warunkowe i kowariancję oraz.