Rozkład dwóch zmiennych losowych. Rozkład łączny kilku zmiennych losowych

W wielu przypadkach konieczne jest uwzględnienie tzw. wielowymiarowych zmiennych losowych, czyli takich, których wartości są rozłożone w przestrzeni dwóch lub więcej wymiarów.

W przypadku wielowymiarowych zmiennych losowych istnieją również prawa i funkcje rozkładu, które można wykorzystać do znalezienia dowolnych funkcji tych zmiennych losowych.

Często funkcję rozkładu wielowymiarowej zmiennej losowej można otrzymać z funkcji rozkładu składowych zmiennych losowych.

Otrzymanie takiej funkcji rozkładu rozważymy na poniższym przykładzie.

Zainteresujmy się prawdopodobieństwem zdarzenia polegającego na jednoczesnym pojawieniu się zmiennej losowej o wartościach z przedziału od do zmiennej losowej o wartościach z przedziału od y do

Jakie będzie to prawdopodobieństwo?

Jeżeli zmienne losowe x i y są niezależne, to zgodnie z twierdzeniem o mnożeniu prawdopodobieństwa prawdopodobieństwo jednoczesnego wystąpienia dwóch niezależnych zdarzeń wyznacza się ich iloczynem:

Oczywiście iloczyn funkcji rozkładu po prawej stronie jest znaczeniem funkcji rozkładu dla dwóch zmiennych losowych, co ma również znaczenie dwuwymiarowej gęstości prawdopodobieństwa, tj. prawdopodobieństwa na obszar

Podobnie prawdopodobieństwo, że trzy niezależne zmienne losowe znajdą się jednocześnie w odpowiednich przedziałach, wyraża się wzorem:

Iloczynem trzech funkcji rozkładu będzie gęstość prawdopodobieństwa lub funkcja rozkładu trzech zmiennych losowych:

Podobnie dla niezależnych zmiennych losowych zapisana zostanie funkcja rozkładu wielowymiarowego:

Jeżeli istnieje pewna funkcja tych zmiennych losowych, to za pomocą funkcji rozkładu wielowymiarowego można wyznaczyć jej średnią wartość, korzystając ze wzoru ogólnego:

Czasami pojawia się odwrotny problem; Korzystając z funkcji rozkładu dla trzech zmiennych losowych, należy znaleźć funkcję rozkładu dla dwóch lub jednej zmiennej losowej.

W większości przypadków wyznacza się je poprzez całkowanie bezpośrednie po całym zakresie zmienności zmiennej losowej, aby uwzględnić wszystkie jej możliwe wartości:

Podobnie z funkcji rozkładu dwóch zmiennych losowych można otrzymać dystrybuantę dla jednej z nich całkując po drugiej:

Łącząc wzory (2.28) i (2.29) otrzymujemy następującą równość:

Uogólniając nasze rozumowanie na dowolną liczbę niezależnych zmiennych losowych, możemy zapisać następujący wzór:

W takim przypadku funkcja rozkładu po dowolnej liczbie zmiennych losowych musi spełniać warunek normalizacji:

Często, rozważając kilka zmiennych losowych, stosuje się interpretację geometryczną. Wartości jednej zmiennej losowej są wykreślane na określonej linii lub osi. W przypadku dwóch zmiennych losowych x i y można je przedstawić jako dwie kartezjańskie osie współrzędnych. Wtedy „przestrzenią” istnienia dwóch zmiennych losowych będzie płaszczyzna. Dla trzech niezależnych zmiennych losowych otrzymujemy przestrzeń trójwymiarową.

Ogólnie rzecz biorąc, dla zmiennych losowych można wprowadzić przestrzeń wymiarową, jeśli z każdą zmienną losową powiąże się oś ortogonalną (osie całkowite).

W związku z tym funkcja rozkładu zostanie określona na linii prostej, płaszczyźnie lub w przestrzeni wymiarowej tych zmiennych losowych.

Prawdopodobieństwa będą wyznaczane, oprócz funkcji rozkładu, również przez elementy przestrzenne, a mianowicie:

Oznaczenie wszystkich zmiennych losowych literą z odpowiednim indeksem, tj.

Wygodniej jest zapisać element przestrzeni -wymiarowej w postaci:

W przypadku przestrzeni trójwymiarowej dla wektorowych zmiennych losowych element przestrzeni często zapisuje się w następujący sposób: dla współrzędnych

dla prędkości

Szczególnie wygodna jest reprezentacja geometryczna wektorowych zmiennych losowych w przestrzeni trójwymiarowej. Na przykład w przestrzeni prędkości, uogólnionych impulsów lub wektorów falowych.

Ponadto w przestrzeni zmiennych losowych można spotkać się z transformacją współrzędnych z prostokątnych na biegunowe lub sferyczne. Zastanówmy się, jak w tym przypadku przekształca się wyrażenie na prawdopodobieństwo.

Ryż. 6. Przejście ze współrzędnych kartezjańskich na biegunowe

Przyjmijmy rozkład jednostajny jako najprostszą funkcję rozkładu. Miejmy dwie zmienne losowe x i y, równomiernie rozłożone wzdłuż odpowiednich osi, tj.

Rozkład tych dwóch zmiennych losowych na płaszczyźnie również będzie równomierny:

tj. prawdopodobieństwo będzie zależeć tylko od wielkości wybranego elementu powierzchniowego.Im większy element powierzchniowy, tym większe jest odpowiednie prawdopodobieństwo.

rozkład, prawdopodobieństwo jest proporcjonalne do odpowiedniego elementu obszaru, otrzymujemy:

Ale zwykle przejście do współrzędnych biegunowych odbywa się, jeśli nie interesuje nas zależność od kąta, a interesuje nas tylko wartość modułu. Wtedy

Odpowiada to faktowi, że obszar pierścienia o promieniu i szerokości można przyjąć jako element pola, tj.

Podobnie w przypadku trzech zmiennych losowych, przy równomiernym rozkładzie każdej wartości, rozkład w objętości będzie również równomierny, a zatem prawdopodobieństwo będzie proporcjonalne do elementu objętości:

Jeżeli położenie w takiej przestrzeni charakteryzuje się zmiennymi losowymi i odnosi się do wzorów na współrzędne sferyczne (rys. 7):

wówczas element objętości musi być również przedstawiony we współrzędnych sferycznych, czyli zamiast tego należy wpisać:

Dlatego prawdopodobieństwo zostanie zapisane w następujący sposób:

Jeśli rozkład w przestrzeni jest równomierny, to nie zależy od kątów i . Aby znaleźć rozkład tylko po promieniu, należy całkować po kątach.

Niech n zmiennych losowych  1,  2,….,ξ n będzie powiązanych z testem. Wskażmy pokrótce, w jaki sposób koncepcje wprowadzone w tym rozdziale przenoszą się na niniejszy przypadek.

1. Wspólny rozkład zmiennych losowych  1,  2,….,ξ n jest funkcją

Łączna gęstość prawdopodobieństwa zmiennych losowych  1,  2,….,ξ n jest funkcją

Jest równość

2. Oznaczmy A I , σ J oczekiwanie matematyczne i odchylenie standardowe zmiennej losowej ξ i, do ij – kowariancja zmiennych losowych ξ i, ξ j:

zwany matryca dyspersyjna zmienne losowe  1,  2,….,ξ n. Zwróćmy uwagę na następujące własności macierzy D.

10 . Elementy głównej przekątnej macierzy D – wariancje zmiennych losowych  1,  2,….,ξ n:

20 . Macierz D jest symetryczna: k ij =k ji .

trzydzieści . Wartości własne macierzy D są nieujemne.

Właściwości 1 0, 2 0 są oczywiste. Zapraszamy czytelnika do sprawdzenia własności 3 0 dla szczególnego przypadku n=2. W tym przypadku macierz D ma postać

(28)

gdzie r jest współczynnikiem korelacji zmiennych losowych  1,  2.

3. W §3 tego rozdziału wprowadzono koncepcję wspólnego rozkładu normalnego zmiennych losowych  1,  2 – patrz wzór (25). Koncepcja ta jest uogólniona w następujący sposób. Mówi się, że zmienne losowe  1,  2,….,ξ n mają łączny rozkład normalny, jeżeli łączną gęstość prawdopodobieństwa wyraża wzór

Gdzie - wyznacznik macierzy dyspersji D,

gdzie ij – elementy macierzy C=D -1.

Łatwo sprawdzić, że w szczególnym przypadku n=2 definicja ta pokrywa się z definicją (25); W tym celu należy skorzystać ze wzoru (28) dla macierzy D oraz wzoru na inwersję dla macierzy drugiego rzędu z niezerowym wyznacznikiem:

(Zachęcamy czytelnika do samodzielnego sprawdzenia).

Prawdziwe są następujące twierdzenia: jeśli  1,  2,….,ξ n mają łączny rozkład normalny, to każdy z nich z osobna jest także normalny; jeśli każde ξ i jest normalne i jednocześnie  1,  2,....,ξ n są niezależne, to ich łączny rozkład również jest normalny i wzór jest spełniony

gdzie f i (x) jest gęstością prawdopodobieństwa ξ i . W ogólnej sytuacji normalność każdego osobnika ξ i nie implikuje normalności wspólnego rozkładu.

Koncepcja wspólnego rozkładu normalnego odgrywa ważną rolę w zastosowaniach teorii prawdopodobieństwa.

Rozdział 5. Prawo wielkich liczb. Twierdzenia graniczne

Pod prawo wielkich liczb zrozumieć wzorce w masywny zjawiska losowe, gdy interakcja dużej liczby czynników losowych prowadzi do nielosowego wyniku. Przykład tego typu schematu podano we wstępie: proporcja wystąpienia zdarzenia losowego w długiej serii niezależnych, identycznych prób jest praktycznie nielosowa. Kolejny niezwykły przykład: okazuje się, że w wielu przypadkach prawo rozkładu sumy dużej liczby losowych wyrazów nie zależy od praw rozkładu wyrazów i można je przewidzieć! Celem twierdzeń granicznych w teorii prawdopodobieństwa jest dostarczenie ścisłych sformułowań i uzasadnień dla różnych form prawa wielkich liczb. W tym rozdziale przyjrzymy się pokrótce tego typu wynikom.

§1. Prawo wielkich liczb w postaci Czebyszewa

W praktyce znany jest następujący wzór, który można sformułować następująco: średnia arytmetyczna dużej liczby niezależnytego samego typu czynniki losowe praktycznie nie są dziełem przypadku. Przykładowo średnia arytmetyczna dużej liczby pomiarów tej samej wielkości praktycznie nie różni się od prawdziwej wartości tej wielkości; średnia energia kinetyczna dużej liczby chaotycznie poruszających się cząsteczek jest praktycznie nieprzypadkowa i charakteryzuje temperaturę ciała.

Metody teorii prawdopodobieństwa pozwalają na ścisłe matematyczne sformułowanie tego prawa.

Niech istnieje nieskończony ciąg zmiennych losowych

 1 , 2 , … , N , … (29)

Nazwijmy pokrótce zmienne losowe (29) taki sam typ jeśli mają takie same oczekiwania matematyczne A i ta sama rozbieżność D.

Twierdzenie. Niech zmienne losowe (29) będą tego samego typu i niezależne, wówczas zależność zachodzi

Na N, (30)

Gdzie A=M[ k ],k= 1, 2, …, – dowolna dowolnie mała liczba dodatnia.

Oznacza to: z wystarczająco dużym N z praktyczną pewnością (z prawdopodobieństwem100%) równość

.

Twierdzenie to zostało po raz pierwszy udowodnione przez rosyjskiego matematyka P.L. Czebyszew. Dowód twierdzenia opiera się na trzech lematach.

Lemat 1. Niech zmienna losowa≥ 0. Wtedy nierówność jest prawdziwa

R(≥) ≤, (31)

gdzie  jest dowolną liczbą dodatnią.

Dowód Zróbmy to dla ciągłej zmiennej losowej. Gęstość prawdopodobieństwa zmiennej losowej F(X) = 0 w X< 0, так как≥ 0.

Z definicji oczekiwań matematycznych mamy:



(≥),

skąd wynika nierówność (31).

Lemat 2. Niech będzie zmienną losową o charakterystyce numerycznej ( A,D), to prawdziwa jest nierówność:

R(|– A| < ) ≥ 1 – .

Dowód. Mamy

R(|– A| ≥ ) =P ((– A) 2 ≥ 2) ≤
.

Tutaj używamy nierówności (31) z  = ( – A) 2 ,  = 2 .

Z powstałej nierówności wynika

R(|– A| < ) = 1 –R(|– A| ≥ ) ≥ 1 – .

Lemat 3. Niech 1 , 2 , …, N- niezależne zmienne losowe tego samego typu o charakterystyce numerycznej ( A,D). Następnie dla dowolnego>0 nierówność jest prawdziwa

≥ 1 – . (32)

Gdzie – dowolna liczba dodatnia, A = M[ I ],D = D[ I ],I= 1, 2, …,N..

Nazywa się nierówność (32). Nierówność Czebyszewa.

Dowód. Oznaczmy

.

Z właściwości matematycznego oczekiwania i rozproszenia dla niezależnych zmiennych losowych wynika:

Zatem zmienna losowa ma cechy numeryczne
; Stosując do niego Lemat 2, otrzymujemy wymaganą nierówność (32).

Dowód twierdzenia Czebyszewa.

Na mocy nierówności Czebyszewa (32) mamy dla dowolnego N podwójna nierówność

1 ≥
≥ 1 – .

Idę do limitu o godz Ni biorąc pod uwagę twierdzenie porównawcze z teorii granic, otrzymujemy wymaganą zależność (30).

Komentarz. Wprowadźmy wygodny termin. Niech będzie ciąg zmiennych losowych

 1 , 2 , …, N , … . (33)

Mówią, że ciąg (33) jest zbieżny pod względem prawdopodobieństwa do wartości nielosowej A i napisz

Na N,

jeśli dla dowolnego > 0 relacja jest spełniona

R(| NA| < )1 godz N.

Oczywiście twierdzenie Czebyszewa można sformułować w następujący sposób: średnia arytmetyczna niezależnych zmiennych losowych tego samego typu, przy nieograniczonym wzroście liczby wyrazów, zbiega się z prawdopodobieństwem do ich wspólnych oczekiwań matematycznych.

Przykład. Ile niezależnych pomiarów o jednakowej dokładności należy przeprowadzić, aby z prawdopodobieństwem co najmniej 0,95 zagwarantować, że średnia arytmetyczna tych pomiarów odbiega od rzeczywistej wartości wielkości nie więcej niż o 1 (w wartość bezwzględna), jeżeli odchylenie standardowe każdego pomiaru nie przekracza 5?

Rozwiązanie. Niech I- wynik I wymiar ( I= 1,2,…,N),A– prawdziwą wartość mierzonej wielkości, tj M[ I ] =A w ogóle I; biorąc pod uwagę jednakową dokładność pomiarów I mają tę samą dyspersję D≤ 25. Ze względu na niezależność pomiarów I są niezależnymi zmiennymi losowymi.

Trzeba znaleźć N, w którym

≥ 0,95.

Zgodnie z nierównością Czebyszewa (32) nierówność ta będzie spełniona jeżeli

1 – ≥ 1– ≥ 0,95, łatwe do znalezienia

N≥500 pomiarów.

Funkcja rozkładu łącznego zmiennych losowych jest funkcją zależną od n zmiennych rzeczywistych taką, że Twierdzenie 4.1 (Brak dowodu) . Wymieńmy niektóre właściwości funkcji rozkładu kilku zmiennych losowych: Monotoniczność dla każdej zmiennej, na przykład:

Granice na „minus nieskończoność”: jeśli w funkcji rozkładu łącznego ustalimy wszystkie zmienne oprócz jednej, a resztę zmienną skierujemy na, to granica będzie równa zeru. Na przykład dla ustalonych granic w „plus nieskończoność”. Jeśli wszystkie zmienne dążą do tej granicy, w granicy otrzymamy jedną. Jeśli ustalimy wszystkie zmienne z wyjątkiem jednej, do której dążymy, otrzymamy dystrybuantę mniejszego zbioru zmienne losowe. Na przykład,

Linie regresji, korelacje

Jeżeli dwie zmienne losowe X i Y mają względem siebie funkcje regresji liniowej, to mówimy, że wartości X i Y są powiązane liniowa zależność korelacyjna. Twierdzenie. Jeśli dwuwymiarowa zmienna losowa (X, Y) ma rozkład normalny, wówczas X i Y są powiązane korelacją liniową.

Rozkład „chi-kwadrat”. przy f stopniach swobody, rozkład prawdopodobieństwa sumy kwadratów c^2 = X1^2+...+Xf^2, niezależne zmienne losowe X1,..., Xf, podlegające rozkładowi normalnemu z zerowym oczekiwaniem matematycznym i wariancja jednostkowa. Funkcja „H.-k.” R. wyrażone całką

Pierwsze trzy momenty (wariancja oczekiwań i trzeci moment centralny) sumy c2 są równe odpowiednio f, 2f, 8f. Suma dwóch niezależnych zmiennych losowych c1^2 i c2^2, o stopniach swobody f^1 i f^2, spełnia zasadę „H.-k”. R. z f^1 + f^2 stopniami swobody. Przykłady "H.-k." R. mogą służyć jako rozkłady kwadratów zmiennych losowych zgodnych z rozkładem Rayleigha i rozkładem Maxwella. W zakresie „H.-K.” R. przy parzystej liczbie stopni swobody wyraża się rozkład Poissona: Jeżeli liczba wyrazów f sumy c2 rośnie bez ograniczeń, to zgodnie z centralnym twierdzeniem granicznym rozkład współczynnika znormalizowanego zbiega się do standardowego rozkładu normalnego : Gdzie

Konsekwencją tego faktu jest kolejna zależność graniczna, wygodna do obliczenia Ff (x) dla dużych wartości f:

Dystrybucja studencka

Dystrybucja ta wzięła swoją nazwę od pseudonimu Student, którym angielski naukowiec Gosset podpisywał swoje prace dotyczące statystyki. Pozwolić być niezależnymi standardowymi normalnymi zmiennymi losowymi. Rozkład Studenta ze stopniami swobody jest rozkładem następującej zmiennej losowej: (46) Jeśli przypomnimy sobie zmienną losową wprowadzoną wzorem (44), to możemy powiedzieć, że relacja ma rozkład Studenta. Gęstość tego rozkładu jest funkcją symetryczną określoną wzorem.Kształt wykresu funkcji przypomina wykres gęstości standardowego prawa normalnego, ale z wolniejszym spadkiem „ogonów”. Gdy ciąg funkcji zbiega się do funkcji, która jest gęstością rozkładu. Aby zrozumieć, dlaczego taki fakt ma miejsce, należy zwrócić uwagę na fakt, że zgodnie z prawem wielkich liczb mianownik wyrażenia (46) ma tendencję do

Niech przestrzeń wyników elementarnych  eksperymentu losowego będzie taka, że ​​każdemu wynikowi  i j towarzyszy wartość zmiennej losowej  równa X i oraz wartość zmiennej losowej  równa y J.

1. Wyobraźmy sobie duży zbiór części w kształcie pręta. Eksperyment polega na losowym wyborze jednego pręta. Wędka ta ma długość, którą oznaczymy przez  i grubość - (można określić inne parametry - objętość, wagę, wykończenie, wyrażone w jednostkach standardowych).

2. Jeżeli weźmiemy pod uwagę akcje dwóch różnych korporacji, to w danym dniu notowań giełdowych każda z nich charakteryzuje się określoną rentownością. Zmienne losowe  i  to zwroty z akcji tych korporacji.

W takich przypadkach możemy mówić o łącznym rozkładzie zmiennych losowych  i , czyli o „dwuwymiarowej” zmiennej losowej.

Jeśli  i  są dyskretne i przyjmują skończoną liczbę wartości ( – N wartości i  – k wartości), to prawo łącznego rozkładu zmiennych losowych  i  można określić, jeśli każda para liczb X I , y J (Gdzie X I należy do zbioru wartości  i y J-zbiór wartości ) do skojarzenia prawdopodobieństwa P I J, równe prawdopodobieństwu zdarzenia łączącego wszystkie wyniki  I J(i składający się tylko z tych wyników), które prowadzą do wartości  = xi;  = y J.

To prawo dystrybucji można określić w formie tabeli:

y 1

y J

y k

R 1 J

R 1 k

X I

R I 1

R I 2

R I J

R I k

P I

X N

R N 1

R N 2

R N J

R N k

P N

P J

P k

Oczywiście

Jeśli to wszystko podsumujemy R I J V I-ta linia, to otrzymujemy prawdopodobieństwo, że zmienna losowa  przyjmie wartość x i. Podobnie, jeśli wszystko podsumujemy R I J V J-ta kolumna, otrzymujemy

prawdopodobieństwo, że  przyjmie tę wartość y J .

Korespondencja X IP I (I = 1,2,, N) określa prawo dystrybucji , a także korespondencję y J P J (J = 1,2,, k) wyznacza prawo rozkładu zmiennej losowej .

Oczywiście ,.

Poprzednio powiedzieliśmy, że zmienne losowe  i  są niezależne, jeśli

pij=PiPj (i= 1,2, ,N;j= 1,2,, k).

Jeśli to nie jest prawdą, wówczas  i  są zależne.

Jaka jest zależność zmiennych losowych  i  i jak można ją zidentyfikować z tabeli?

Rozważ kolumnę y 1. Każdy numer X I dopasujmy liczbę

P I / 1 = (1)

które nazwiemy prawdopodobieństwem warunkowym = X I z = y 1. Należy pamiętać, że nie jest to prawdopodobieństwo. P I wydarzenia = X I, i porównaj wzór (1) ze znanym już wzorem na prawdopodobieństwo warunkowe.

Korespondencja

XIRI/ 1 , (I=1,2,, N)

nazwiemy rozkład warunkowy zmiennej losowej  za pomocą = y 1. Oczywiście .

Podobne warunkowe prawa rozkładu zmiennej losowej  można skonstruować dla wszystkich innych wartości  równych y 2 ; y 3,, y N, pasujący do numeru X I warunkowe prawdopodobieństwo P I / J =().

Tabela pokazuje warunkowe prawo rozkładu zmiennej losowej  przy = y J

X I

X N

P I / J

Możesz wprowadzić koncepcję warunkowego oczekiwania matematycznego , gdy  = y J

Należy zauważyć, że  i  są równoważne. Możesz wprowadzić rozkład warunkowy  za pomocą = X I zgodność

(J= 1,2,, k)

Można także wprowadzić koncepcję warunkowego oczekiwania matematycznego zmiennej losowej  dla = X I :

Z definicji wynika, że ​​jeśli  i  są niezależne, to wszystkie prawa dystrybucji warunkowej są takie same i pokrywają się z prawem dystrybucji  (przypominamy, że prawo dystrybucji  jest zdefiniowane w tabeli (*) przez pierwszą i ostatnią kolumna). W tym przypadku jest oczywiste, że wszystkie warunkowe oczekiwania matematyczne są zbieżne M(/ = y J) Na J = 1,2,, k, które są równe M.

Jeśli prawa dystrybucji warunkowej  dla różnych wartości  są różne, wówczas mówią, że istnieje zależność statystyczna między  i .

Przykład I. Niech prawo łącznego rozkładu dwóch zmiennych losowych  i  zostanie podane w poniższej tabeli. Tutaj, jak wspomniano wcześniej, pierwsza i ostatnia kolumna określają prawo rozkładu zmiennej losowej , a pierwszy i ostatni wiersz określają prawo rozkładu zmiennej losowej .

Wielokąty rozkładów warunkowych można przedstawić na trójwymiarowym wykresie (ryc. 1).

Tutaj wyraźnie widać zależność prawa dystrybucji warunkowej  od wartości .

Przykład II. (Już spotkałem).

Niech zostaną dane dwie niezależne zmienne losowe  i  z prawami dystrybucji

Zbudujmy tabelę prawa wspólnego rozkładu  i .

Aby otrzymać =2 i =0, konieczne jest, aby  przyjął wartość 0, a  przyjął wartość 2. Ponieważ  i  są niezależne, to

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Oczywiście także Р(=3; =0)=0.

Skonstruujmy wielokąty rozkładów warunkowych. Tutaj zależność  od  jest dość bliska funkcjonału: wartość =1 odpowiada tylko =2, wartość =2 odpowiada tylko =3, ale dla =0 możemy tylko powiedzieć, że  z prawdopodobieństwem 3/4 przyjmuje wartość 1, a z prawdopodobieństwem 1/4 – wartość 2.

Przykład III.

Rozważmy prawo wspólnego rozkładu  i  podane w tabeli

W tym przypadku warunek P(= X I ; =y J)=P(= X I)P(= y J), I, J =1,2,3

Skonstruujmy prawa rozkładów warunkowych

R =1 ()= R = 2 ()= R = 3 ()= R = 4 ()

Prawa rozkładów warunkowych  nie różnią się od siebie, gdy  = 1,2,3 i pokrywają się z prawem rozkładu zmiennej losowej . W tym przypadku  i  są niezależne.

Zależność między zmiennymi losowymi  i  charakteryzuje się matematycznym oczekiwaniem iloczynu odchyleń  i  od ich centrów rozkładu (jak czasami nazywa się matematyczne oczekiwanie zmiennej losowej), co nazywa się współczynnikiem kowariancji lub po prostu kowariancją.

cov(; ) = M((– M)(– M))

Niech  =  X 1 , X 2 , X 3,, X N ,  =  y 1 , y 2 , y 3,, y k. Następnie

cov(; )=(2)

Formułę tę można interpretować w następujący sposób. Jeśli dla dużych wartości  duże wartości  są bardziej prawdopodobne, a dla małych wartości  małe wartości  są bardziej prawdopodobne, to po prawej stronie wzoru (2) dominują wyrazy dodatnie , a kowariancja przyjmuje wartości dodatnie.

Jeśli produkty ( X IM)( y JM), składający się z czynników o różnych znakach, czyli wyniki losowego eksperymentu prowadzącego do dużych wartości  na ogół prowadzą do małych wartości  i odwrotnie, wówczas kowariancja przyjmuje duże wartości ujemne.

W pierwszym przypadku zwyczajowo mówi się o bezpośrednim związku: wraz ze wzrostem  zmienna losowa  ma tendencję do wzrostu.

W drugim przypadku mówimy o sprzężeniu zwrotnym : wraz ze wzrostem  zmienna losowa  ma tendencję do zmniejszania się.

Jeżeli w przybliżeniu taki sam udział w sumie mają produkty dodatnie i ujemne ( X IM)( y JM)P I J, to możemy powiedzieć, że w sumie będą się one „znosić” i kowariancja będzie bliska zeru. W tym przypadku zależność jednej zmiennej losowej od drugiej nie jest widoczna.

Łatwo pokazać, że jeśli P(( = X I)∩( = y J)) = P( = X I)P( = y J) (I = 1,2,, N; J = 1,2,, k), wtedy cov(; )= 0.

Rzeczywiście z (2) wynika

Wykorzystywana jest tu bardzo ważna właściwość oczekiwań matematycznych: matematyczne oczekiwanie odchylenia zmiennej losowej od jej oczekiwań matematycznych wynosi zero.

Dowód (dla dyskretnych zmiennych losowych o skończonej liczbie wartości).

Wygodnie jest przedstawić kowariancję w formie

cov(; )= M(– M–M+ MM)=M()– M( M)–M(M)+ M(MM)=

=M()– MM– MM+MM=M()– MM

Kowariancja dwóch zmiennych losowych jest równa matematycznym oczekiwaniom ich iloczynu minus iloczyn ich matematycznych oczekiwań.

Łatwo można udowodnić następującą właściwość oczekiwań matematycznych: jeśli  i  są niezależnymi zmiennymi losowymi, to M()= MM. (Udowodnij to sam, korzystając ze wzoru M() = )

Zatem dla niezależnych zmiennych losowych  i  cov(;)=0. Zadania. 1. Rzucamy 5 razy monetą. Zmienna losowa  – liczba upuszczonych herbów, zmienna losowa  – liczba upuszczonych herbów w dwóch ostatnich rzutach. Skonstruuj wspólne prawo rozkładu zmiennych losowych, skonstruuj warunkowe prawa rozkładu  dla różnych wartości . Znajdź oczekiwania warunkowe i kowariancję  i .

2. Z talii 32 arkuszy losujemy dwie karty. Zmienna losowa  to liczba asów w próbie, zmienna losowa  to liczba królów w próbie. Skonstruuj wspólne prawo dystrybucji dla  i , skonstruuj warunkowe prawa dystrybucji dla  dla różnych wartości . Znajdź oczekiwania warunkowe i kowariancję  i .

    Wielokąt rozkładu CBX – punkty zdobyte podczas rzutu kostką.

3Wiersz rozkładu, wielokąt rozkładu

Sposoby lub formy przedstawienia prawa dystrybucji SW mogą być różne.

Najprostszą formą określenia prawa dystrybucji DSV X jest szereg dystrybucyjny.

Seria rozkładu prawdopodobieństwa DSV X to tabela, która zawiera listę wszystkich możliwych wartości SV oraz prawdopodobieństw, że CB przyjmie te wartości.

Ponieważ zdarzenia są niezgodne, ponieważ w wyniku doświadczenia mogą przyjąć tylko jedno znaczenie i utworzyć kompletną grupę zdarzeń.

Dlatego, aby sprawdzić poprawność tabeli, należy zsumować wszystkie prawdopodobieństwa.

Dla przejrzystości szeregi dystrybucji przedstawiono graficznie. Aby to zrobić, wszystkie możliwe wartości SV są wykreślane wzdłuż osi 0x i wzdłuż osi - odpowiednie prawdopodobieństwa. Wierzchołki powstałych rzędnych są zwykle połączone odcinkami prostymi.

Połączenie wierzchołków rzędnych odbywa się tylko dla przejrzystości, ponieważ w przerwach pomiędzy i, i itd. SV X nie może przyjmować wartości, dlatego prawdopodobieństwa jej pojawienia się w tych przedziałach są równe zeru.

Ta liczba nazywa się wielokąt dystrybucyjny.

Wielokąt rozkładu, podobnie jak szereg rozkładów, jest jedną z form określenia prawa rozkładu DSV X.

Wielokąty dystrybucyjne mogą mieć różne kształty.

Przykład- Prawdopodobieństwo, że kadet zda egzamin semestralny w sesji odpowiednio w dyscyplinach A i B wynosi 0,7 i 0,8. Skompiluj szereg dystrybucyjny i skonstruuj wielokąt rozkładu liczby egzaminów semestralnych, do których przystępuje kadet.

Rozwiązanie Możliwe wartości C B X - liczba zdanych egzaminów - 0, I, 2.

Niech tak się stanie, że kadet przejdzie I egzamin ( I=1, 2).

Zakładając, że i są niezależne, będziemy mieli prawdopodobieństwo, że

że kadet nie zda egzaminów

który zda jeden egzamin

że zda dwa egzaminy

Będzie wyglądać seria rozkładu i wielokąt rozkładu

Prawo dystrybucyjne TCO można określić w różnych formach. Jedną z form przypisania jest tabela rozkładu SRES.

Niech X i Y będą DSV, których możliwe wartości to , gdzie. Następnie można scharakteryzować rozkład układu takich SV poprzez wskazanie prawdopodobieństwa, że ​​SV X przyjmie wartość i jednocześnie SV Y przyjmie wartość. Prawdopodobieństwa podsumowano w tabeli formularza

Taka tabela nazywana jest tablicą rozkładu SRES (macierzą) ze skończoną liczbą możliwych wartości. Wszystkie możliwe zdarzenia stanowią kompletną grupę zdarzeń niezgodnych, tzw

Wynikowa kolumna lub wiersz tabeli rozkładu reprezentuje odpowiednio rozkład składników jednowymiarowych.

Rzeczywiście, rozkład jednowymiarowego SCV można uzyskać, obliczając prawdopodobieństwo zdarzenia jako sumę prawdopodobieństw zdarzeń niezgodnych

Podobnie

Zatem Aby znaleźć z tabeli rozkładu prawdopodobieństwo, że jednowymiarowa SV przyjęła określoną wartość, należy zsumować prawdopodobieństwa z wiersza (kolumny) tej tabeli odpowiadające tej wartości.

Jeśli ustalimy wartość jednego argumentu, na przykład set , wówczas wynikowy rozkład SVX nazywany jest rozkładem warunkowym X pod warunkiem.

Prawdopodobieństwa tego rozkładu będą prawdopodobieństwami warunkowymi zdarzenia, ustalonymi przy założeniu, że zdarzenie miało miejsce.

Z definicji prawdopodobieństwa warunkowego

Podobnie bardziej warunkowy rozkład VCA pod warunkiem jest równy

    Rozkłady standardowe zmiennych losowych. Rozkład równomierny i jego cechy.

Prawo rozkładu zmiennej losowej i wektora losowego

Badając SV nie można ograniczać się jedynie do znajomości zbiorów ich możliwych wartości.

Trzeba także wiedzieć, z jakim prawdopodobieństwem SV przyjmuje te wartości i, bardziej ogólnie, jakie jest prawdopodobieństwo, że SV trafi w określone przedziały zbioru punktów osi 0x. Zwykle brane są pod uwagę interwały

Jeśli znane są wszystkie możliwe wartości SV i jeśli uda się znaleźć prawdopodobieństwa różnych zdarzeń związanych z SV, tj. znajdź prawdopodobieństwa wpadnięcia w określony przedział, to z probabilistycznego punktu widzenia wszystko będzie wiadomo o tej SV.

Prawo rozkładu SV to dowolna relacja, która ustanawia związek między możliwymi wartościami SV i odpowiednimi prawdopodobieństwami. Mówią o SV, że podlega temu prawu dystrybucyjnemu. Można to określić analitycznie, tabelarycznie, graficznie.

Cechą wektora losowego jest także prawo jego rozkładu.

Prawo dystrybucji TCO to relacja ustanawiająca związek pomiędzy obszarami możliwych wartości TCO a prawdopodobieństwami wystąpienia systemu w tych obszarach.

Podobnie jak w przypadku jednego SV, prawo podziału SV można określić w różnych formach.

Niech przestrzeń wyników elementarnych W eksperymentu losowego będzie taka, że ​​każdy wynik w i j jest powiązany z wartością zmiennej losowej X równą X i i wartość zmiennej losowej Y równa y J.

1. Wyobraźmy sobie paczkę części charakteryzującą się 2 gabarytami. Eksperyment losowy polega na losowym wybraniu jednej części. Ta część ma długość, którą będziemy oznaczać X i grubość Y

2. Jeżeli w wyniku eksperymentu wyłoniony zostanie student, który będzie ubiegał się o podwyższone stypendium. Następnie X i Y to średnie wyniki z dwóch ostatnich sesji

W tym przypadku możemy mówić o łącznym rozkładzie zmiennych losowych X i Y lub o „dwuwymiarowej” zmiennej losowej.

Jeśli X i Y są dyskretne i przyjmują skończoną liczbę wartości (X – N wartości i Y – M wartości), to prawo łącznego rozkładu zmiennych losowych X i Y można określić, jeśli każda para liczb x ja, y j(Gdzie x ja należy do zbioru wartości X i y j-zestaw wartości Y) odpowiadający prawdopodobieństwu p ij, równe prawdopodobieństwu zdarzenia łączącego wszystkie wyniki w ja(i składający się tylko z tych wyników), które prowadzą do wartości X = x ja; T= y j.

To prawo dystrybucji można określić w formie tabeli:

a pierwszy i ostatni wiersz podają szereg rozkładów zmiennej losowej Y. Tabela przedstawia prawo rozkładu dwuwymiarowej dyskretnej zmiennej losowej, jeżeli suma prawdopodobieństw w ostatnim wierszu lub w ostatniej kolumnie (i odpowiednio suma prawdopodobieństw w tabeli) = 1.

Korzystając z tej tabeli, analogicznie do przypadku jednowymiarowego, można wyznaczyć rozkład łączny. Aby to zrobić, konieczne jest zsumowanie p ij przez wszystkie i, j dla których x ja< x, y j < y

Rozważmy przykład(„TV” MSTU nazwane na cześć Baumana)

Zgodnie ze schematem Bernoulliego, przy prawdopodobieństwie sukcesu p i prawdopodobieństwie niepowodzenia q = 1-p, przeprowadza się 2 testy.

Rozważ rozkład dwuwymiarowego wektora (X 1, X 2), z którego każdy może przyjąć 2 wartości: 0 lub 1 (liczba sukcesów w odpowiednim eksperymencie). Liczba sukcesów w obu próbach wynosi 0 przy 2 niepowodzeniach, co ze względu na niezależność wynosi qq. Dlatego

a na przecięciu kolumn „0” piszemy q 2.

Wspólna funkcja dystrybucji F (x 1, x 2) definiuje powierzchnię w przestrzeni trójwymiarowej.

Definicja. Warunkowe prawo dystrybucji(X |Y=y j)(j zachowuje tę samą wartość dla wszystkich wartości X) jest zbiorem prawdopodobieństw warunkowych p(x 1 |y j), p(x 2 |y j),… p(x n |y j) , a prawdopodobieństwa warunkowe oblicza się za pomocą wzorów:



р(X=x i |Y=y j) = р(X=x i ,Y=y j) / р(Y=y j)

Przykład. Określono dyskretną wielkość dwuwymiarową

X
P 0,2 0,32 0,48

р(X=x 1 |Y=y 1) = р(X=x 1,Y=y 1) / р(Y=y 1)= 0,15/0,8 = 3/16

р(X=x 2 |Y=y 1) = р(X=x 2,Y=y 1) / р(Y=y 1)=0,3/0,8 = 3/8

р(X=x 3 |Y=y 1) = р(X=x 3,Y=y 1) / р(Y=y 1) = 0,35/0,8 = 7/16

X
p(X |Y=y 1) 3/16 3/8 7/16

Sprawdź: suma prawdopodobieństw wynosi 1.

Komentarz. W ten sposób można sprawdzić niezależność zmiennych losowych. Podobnie jak w przypadku niezależności zdarzeń, niezależność zmiennych losowych można określić za pomocą prawdopodobieństw warunkowych. Pozostaje tylko porównać warunkowe i bezwarunkowe prawa dystrybucji.

Przykład.

Rozważmy pudełko zawierające dwie karty z numerem 1 i trzy karty z numerem 2. Dwie karty są wyjmowane jedna po drugiej. X to liczba na pierwszej karcie. Y – do drugiego. Znajdź wspólne prawo dystrybucji (X, Y)

Korzystamy ze wzoru na iloczyn prawdopodobieństw P((X,Y)=(1,1)) = P(X=1)P(Y=1|X=1)=2/5× ¼ = 1/10

(X,Y) (1,1) (1,2) (2,1) (2,2)
P 1/10 3/10 3/10 3/10

Suma prawdopodobieństw = 1.