Moment korelacji zmiennych losowych. Charakterystyka numeryczna układu dwóch zmiennych losowych

W Rozdziale 5 wprowadziliśmy pod uwagę charakterystyki numeryczne jednej zmiennej losowej – momenty początkowe i centralne różnych rzędów. Spośród tych cech najważniejsze są dwie: oczekiwanie matematyczne i rozproszenie.

Podobne charakterystyki liczbowe – momenty początkowe i centralne różnych rzędów – można wprowadzić dla układu dwóch zmiennych losowych.

Początkowy moment uporządkowania systemu to matematyczne oczekiwanie produktu poprzez:

. (8.6.1)

Centralnym momentem porządku układu jest matematyczne oczekiwanie iloczynu tej i tej potęgi odpowiednich wielkości wyśrodkowanych:

, (8.6.2)

Zapiszmy wzory użyte do bezpośredniego obliczenia momentów. Dla nieciągłych zmiennych losowych

, (8.6.3)

, (8.6.4)

Gdzie - prawdopodobieństwo, że system przyjmie wartości, a sumowanie rozciąga się na wszystkie możliwe wartości zmiennych losowych, .

Dla ciągłych zmiennych losowych:

, (8.6.5)

, (8.6.6)

gdzie jest gęstość dystrybucji systemu.

Oprócz i , które charakteryzują porządek momentu w odniesieniu do poszczególnych wielkości, uwzględnia się również całkowity porządek momentu, równy sumie wykładników i . Według całkowitej kolejności momenty dzieli się na pierwszy, drugi itd. W praktyce zwykle stosuje się tylko pierwszy i drugi moment.

Pierwsze momenty początkowe reprezentują znane nam już matematyczne oczekiwania wielkości zawartych w układzie:

Zbiór oczekiwań matematycznych jest cechą charakterystyczną położenia systemu. Geometrycznie są to współrzędne środka płaszczyzny, wokół której punkt jest rozproszony.

Oprócz pierwszych momentów początkowych, w praktyce szeroko stosowane są również drugie momenty centralne układu. Dwa z nich reprezentują znane nam już rozproszenie wielkości i:

charakteryzujący rozproszenie losowego punktu w kierunku osi i .

Drugi mieszany moment centralny odgrywa szczególną rolę jako charakterystyka układu:

,

te. matematyczne oczekiwanie iloczynu wielkości wyśrodkowanych.

Ze względu na fakt, że moment ten odgrywa ważną rolę w teorii, wprowadzamy dla niego specjalną notację:

. (8.6.7)

Cechę tę nazywa się momentem korelacji (inaczej „momentem połączenia”) zmiennych losowych.

Dla nieciągłych zmiennych losowych moment korelacji wyraża się wzorem

, (8.6.8)

a dla ciągłych - według wzoru

. (8.6.9)

Odkryjmy znaczenie i cel tej cechy.

Moment korelacji jest cechą układu zmiennych losowych, która oprócz rozproszenia zmiennych opisuje także powiązania między nimi. Aby to sprawdzić, udowodnijmy, że dla niezależnych zmiennych losowych moment korelacji jest równy zero.

Dowód przeprowadzimy dla ciągłych zmiennych losowych. Niech będą niezależnymi wielkościami ciągłymi o gęstości rozkładu. W 8.5 udowodniliśmy to dla wielkości niezależnych

. (8.6.10)

gdzie , są odpowiednio gęstościami rozkładu wartości i .

Podstawiając wyrażenie (8.6.10) do wzoru (8.6.9) widzimy, że całka (8.6.9) zamienia się w iloczyn dwóch całek:

.

Całka

reprezentuje nic więcej niż pierwszy centralny moment wielkości i dlatego jest równy zero; z tego samego powodu drugi czynnik również wynosi zero; dlatego dla niezależnych zmiennych losowych .

Jeżeli zatem moment korelacji dwóch zmiennych losowych jest różny od zera, jest to oznaką istnienia między nimi zależności.

Ze wzoru (8.6.7) wynika, że ​​moment korelacji charakteryzuje nie tylko zależność wielkości, ale także ich rozproszenie. Istotnie, jeśli na przykład jedna z wielkości odbiega bardzo nieznacznie od swoich oczekiwań matematycznych (prawie nie jest losowa), wówczas moment korelacji będzie mały, niezależnie od tego, jak bardzo wielkości są ze sobą powiązane. Dlatego, aby scharakteryzować zależność między wielkościami w czystej postaci, przechodzimy od momentu do charakterystyki bezwymiarowej

gdzie , są odchyleniami standardowymi wartości, . Ta cecha nazywa się współczynnikiem korelacji ilości i. Oczywiście współczynnik korelacji spada do zera wraz z momentem korelacji; dlatego dla niezależnych zmiennych losowych współczynnik korelacji wynosi zero.

Zmienne losowe, dla których moment korelacji (a tym samym współczynnik korelacji) jest równy zeru, nazywane są nieskorelowanymi (czasami „niepowiązanymi”).

Przekonajmy się, czy pojęcie nieskorelowanych zmiennych losowych jest równoznaczne z pojęciem niezależności. Udowodniliśmy powyżej, że dwie niezależne zmienne losowe są zawsze nieskorelowane. Czas pokaże: czy jest odwrotnie, czy ich niezależność wynika z nieskorelowania wielkości? Okazuje się – nie. Można skonstruować przykłady takich zmiennych losowych, które są nieskorelowane, ale zależne. Równość współczynnika korelacji do zera jest warunkiem koniecznym, ale niewystarczającym niezależności zmiennych losowych. Niezależność zmiennych losowych oznacza, że ​​są one nieskorelowane; wręcz przeciwnie, fakt, że ilości nie są ze sobą powiązane, nie musi koniecznie oznaczać, że są one niezależne. Warunek niezależności zmiennych losowych jest bardziej rygorystyczny niż warunek nieskorelowania.

Zobaczmy to na przykładzie. Rozważmy układ zmiennych losowych o jednakowej gęstości rozłożonych wewnątrz okręgu o promieniu ze środkiem w początku (rys. 8.6.1).

Gęstość rozkładu wartości wyraża wzór

Od warunku znaleźliśmy .

Łatwo zauważyć, że w tym przykładzie ilości są zależne. Rzeczywiście od razu widać, że jeśli ilość przyjmuje na przykład wartość 0, to ilość może z równym prawdopodobieństwem przyjąć wszystkie wartości od do ; jeśli ilość przyjęła wartość , to ilość może przyjąć tylko jedną wartość, dokładnie równą zeru; ogólnie zakres możliwych wartości zależy od jakiej wartości.

Zobaczmy, czy te wielkości są ze sobą skorelowane. Obliczmy moment korelacji. Pamiętając, że ze względu na symetrię otrzymujemy:

. (8.6.12)

Aby obliczyć całkę, dzielimy obszar integracji (okrąg) na cztery sektory odpowiadające czterem kątom współrzędnych. W sektorach i całka jest dodatnia, w sektorach i jest ujemna; w wartości bezwzględnej całki po tych sektorach są równe; dlatego całka (8.6.12) jest równa zeru, a wielkości nie są skorelowane.

Widzimy zatem, że nieskorelowany charakter zmiennych losowych nie zawsze implikuje ich niezależność.

Współczynnik korelacji nie charakteryzuje żadnej zależności, a jedynie tzw. zależność liniową. Liniowa probabilistyczna zależność zmiennych losowych polega na tym, że gdy jedna zmienna losowa rośnie, druga ma tendencję do zwiększania się (lub zmniejszania) zgodnie z prawem liniowym. Ta tendencja do zależności liniowej może być mniej lub bardziej wyraźna, mniej lub bardziej zbliżona do funkcjonalnej, czyli najbliższej zależności liniowej. Współczynnik korelacji charakteryzuje stopień bliskości liniowej zależności pomiędzy zmiennymi losowymi. Jeśli zmienne losowe są powiązane dokładną liniową zależnością funkcjonalną:

następnie , a znak „plus” lub „minus” jest przyjmowany w zależności od tego, czy współczynnik jest dodatni, czy ujemny. W ogólnym przypadku, gdy wielkości i są ze sobą powiązane dowolną zależnością probabilistyczną, współczynnik korelacji może przyjmować wartość z przedziału: zmienia się jedynie zakres zmian, a jego wartość średnia nie ulega zmianie; Oczywiście ilości okazują się nieskorelowane.

Ryż. 8.6.2 Rys.8.6.3

Podajmy kilka przykładów zmiennych losowych o dodatniej i ujemnej korelacji.

1. Waga i wzrost danej osoby są ze sobą dodatnio skorelowane.

2. Czas poświęcony na regulację urządzenia w przygotowaniu do pracy i czas jego bezawaryjnej pracy są ze sobą powiązane dodatnio (o ile oczywiście czas ten zostanie zagospodarowany mądrze). Wręcz przeciwnie, czas poświęcony na przygotowanie i liczba usterek wykrytych podczas pracy urządzenia są ze sobą ujemnie skorelowane.

3. Podczas strzelania salwą współrzędne punktów trafienia poszczególnych pocisków są ze sobą powiązane dodatnią korelacją (ponieważ występują błędy celowania wspólne dla wszystkich strzałów, które jednakowo odchylają każdy z nich od celu).

4. Oddaje się dwa strzały do ​​tarczy; rejestruje się punkt trafienia pierwszego strzału i wprowadza się korektę do celownika proporcjonalną do błędu pierwszego strzału o przeciwnym znaku. Współrzędne punktów trafienia pierwszego i drugiego strzału będą ujemnie skorelowane.

Jeżeli dysponujemy wynikami szeregu eksperymentów na układzie zmiennych losowych, wówczas obecność lub brak istotnej korelacji między nimi można łatwo ocenić w pierwszym przybliżeniu za pomocą wykresu, na którym znajdują się wszystkie pary wartości zmiennych losowych uzyskane z eksperymentu są przedstawiane jako punkty. Na przykład, jeśli obserwowane pary wartości ilościowych są zlokalizowane jak pokazano na ryc. 8.6.2, oznacza to obecność wyraźnie wyrażonej dodatniej korelacji pomiędzy wielkościami. Jeszcze wyraźniejszą dodatnią korelację, bliską liniowej zależności funkcjonalnej, obserwuje się na ryc. 8.6.3. Na ryc. Rysunek 8.6.4 przedstawia przypadek stosunkowo słabej korelacji ujemnej. Wreszcie na ryc. 8.6.5 ilustruje przypadek praktycznie nieskorelowanych zmiennych losowych. W praktyce przed zbadaniem korelacji zmiennych losowych zawsze warto najpierw wykreślić zaobserwowane pary wartości na wykresie, aby dokonać pierwszej jakościowej oceny rodzaju korelacji.

PAŃSTWOWY KOMITET NAUKI I TECHNOLOGII REPUBLIKI AZERBEJDŻANU

CENTRUM BADAWczo-szkoleniowe w BAKU

STUDENTKA ODDZIAŁU CHIRURGII PEDIATRYCZNEJ

UAM nazwany na cześć N. NARIMANOVA

MUKHTAROVA EMIL GASAN ogly

MOMENTY KORELACJI. WSPÓŁCZYNNIK KORELACJI

WSTĘP

Teoria prawdopodobieństwa to nauka matematyczna badająca wzorce w zjawiskach losowych.

Co należy rozumieć przez zjawiska losowe?

W naukowym badaniu problemów fizycznych i technicznych często spotyka się zjawiska szczególnego rodzaju, które zwykle nazywane są losowymi. Zjawisko losowe- jest to zjawisko, które przy powtarzaniu tego samego doświadczenia przebiega nieco inaczej.

Podajmy przykład zjawiska losowego.

To samo ciało jest ważone kilka razy na wadze analitycznej: wyniki powtarzanych ważeń nieco się od siebie różnią. Różnice te wynikają z wpływu różnych drobnych czynników towarzyszących ważeniu, takich jak przypadkowe drgania sprzętu, błędy odczytu wagi itp.

Jest oczywiste, że nie ma w przyrodzie ani jednego zjawiska fizycznego, w którym elementy losowości nie byłyby obecne w takim czy innym stopniu. Bez względu na to, jak dokładnie i szczegółowo zostały ustalone warunki eksperymentu, nie można zapewnić, że po powtórzeniu eksperymentu wyniki będą całkowicie i dokładnie zgodne.

Wypadki nieuchronnie towarzyszą każdemu zjawisku naturalnemu. Jednak w wielu praktycznych problemach te przypadkowe elementy można pominąć, biorąc pod uwagę ich uproszczony schemat, a nie rzeczywiste zjawisko, tj. Model, i przy założeniu, że w danych warunkach eksperymentalnych zjawisko to przebiega w bardzo określony sposób. Jednocześnie spośród niezliczonej liczby czynników wpływających na to zjawisko wyodrębnia się te najważniejsze, podstawowe i decydujące. Wpływ innych, mniejszych czynników jest po prostu pomijany. Badając wzorce w ramach określonej teorii, główne czynniki wpływające na dane zjawisko zawarte są w pojęciach lub definicjach, z którymi operuje dana teoria.

Jak każda nauka rozwijająca ogólną teorię dowolnego zakresu zjawisk, również teoria prawdopodobieństwa zawiera szereg podstawowych pojęć, na których się opiera. Naturalnie, nie wszystkie podstawowe pojęcia dają się ściśle zdefiniować, gdyż zdefiniowanie pojęcia oznacza zredukowanie go do innych, bardziej znanych. Proces ten musi być skończony i zakończyć się podstawowymi pojęciami, które można jedynie wyjaśnić.

Jednym z pierwszych pojęć w teorii prawdopodobieństwa jest pojęcie zdarzenia.

Pod wydarzenie każdy fakt, który może, ale nie musi, nastąpić w wyniku doświadczenia, jest rozumiany.

Podajmy przykłady wydarzeń.

A - narodziny chłopca lub dziewczynki;

B - wybór jednego lub drugiego otwarcia w grze w szachy;

C - należący do tego lub innego znaku zodiaku.

Biorąc pod uwagę powyższe zdarzenia, widzimy, że każde z nich ma pewien stopień możliwości: niektóre są większe, inne mniejsze. Aby ilościowo porównać zdarzenia ze sobą według stopnia ich możliwości, należy oczywiście każdemu zdarzeniu przypisać pewną liczbę, która jest tym większa, im bardziej jest ono możliwe. Liczba ta nazywana jest prawdopodobieństwem zdarzenia. Zatem prawdopodobieństwo zdarzenia jest liczbową charakterystyką stopnia obiektywnej możliwości zdarzenia.

Za jednostkę prawdopodobieństwa przyjmuje się prawdopodobieństwo wystąpienia wiarygodnego zdarzenia równe 1, a zakres zmian prawdopodobieństw dowolnych zdarzeń to liczba od 0 do 1.

Prawdopodobieństwo jest zwykle oznaczane literą P.

Spójrzmy na przykład odwiecznego problemu Hamleta Szekspira „być albo nie być?” Jak określić prawdopodobieństwo zdarzenia?

Jest rzeczą oczywistą, że osoba, przedmiot i każde inne zjawisko może znajdować się w jednym z dwóch stanów: obecności („być”) i nieobecności („nie być”). Oznacza to, że istnieją dwa możliwe zdarzenia, ale tylko jedno może się wydarzyć. Oznacza to, że prawdopodobieństwo np. istnienia wynosi 1/2.

Oprócz koncepcji zdarzenia i prawdopodobieństwa, jednym z głównych pojęć teorii prawdopodobieństwa jest pojęcie zmiennej losowej.

Zmienna losowa to wielkość, która w wyniku eksperymentu może przyjąć taką lub inną wartość, ale nie wiadomo z góry jaką.

Nazywa się zmienne losowe, które przyjmują tylko wartości oddzielone od siebie i które można wcześniej wyświetlić ciągłe lub dyskretne zmienne losowe.

Na przykład:

1. Liczba pacjentów, którzy przeżyli i zmarłych.

2. Łączna liczba dzieci przyjętych do szpitala w ciągu nocy.

Nazywa się zmienne losowe, których możliwe wartości stale wypełniają określony przedział ciągłe zmienne losowe.

Na przykład błąd ważenia na wadze analitycznej.

Należy zauważyć, że współczesna teoria prawdopodobieństwa operuje przede wszystkim zmiennymi losowymi, a nie zdarzeniami, na których głównie opierała się „klasyczna” teoria prawdopodobieństwa.

MOMENTY KORELACJI. WSPÓŁCZYNNIK KORELACJI.

Momenty korelacji, współczynnik korelacji - są to charakterystyki liczbowe, które są ściśle powiązane z wprowadzonym powyżej pojęciem zmiennej losowej, a ściślej z systemem zmiennych losowych. Dlatego też, aby wprowadzić i zdefiniować ich znaczenie i rolę, konieczne jest wyjaśnienie pojęcia układu zmiennych losowych oraz niektórych właściwości im towarzyszących.

Nazywa się dwie lub więcej zmiennych losowych opisujących pewne zjawisko system lub zespół zmiennych losowych.

Układ kilku zmiennych losowych X, Y, Z,…, W jest zwykle oznaczany przez (X, Y, Z,…, W).

Na przykład punkt na płaszczyźnie opisuje się nie jedną współrzędną, ale dwoma, a w przestrzeni nawet trzema.

Właściwości układu kilku zmiennych losowych nie ograniczają się do właściwości poszczególnych zmiennych losowych wchodzących w skład układu, ale obejmują także wzajemne powiązania (zależności) pomiędzy zmiennymi losowymi. Dlatego badając układ zmiennych losowych należy zwrócić uwagę na charakter i stopień zależności. Zależność ta może być mniej lub bardziej wyraźna, mniej lub bardziej bliska. W pozostałych przypadkach zmienne losowe okazują się praktycznie niezależne.

Nazywa się zmienną losową Y niezależny ze zmiennej losowej X, jeśli prawo rozkładu zmiennej losowej Y nie zależy od wartości, jaką przyjął X.

Należy zauważyć, że zależność i niezależność zmiennych losowych jest zawsze zjawiskiem wzajemnym: jeśli Y nie zależy od X, to wartość X nie zależy od Y. Biorąc to pod uwagę, możemy podać następującą definicję niezależności zmiennych losowych.

Zmienne losowe X i Y nazywane są niezależnymi, jeżeli prawo rozkładu każdej z nich nie zależy od wartości, jaką przyjmuje druga. W przeciwnym razie wywoływane są wartości X i Y zależny.

Prawo dystrybucji Zmienna losowa to dowolna relacja, która ustanawia związek między możliwymi wartościami zmiennej losowej i odpowiadającymi im prawdopodobieństwami.

Pojęcie „zależności” zmiennych losowych stosowane w teorii prawdopodobieństwa różni się nieco od zwykłego pojęcia „zależności” zmiennych stosowanego w matematyce. Zatem matematyk przez „zależność” rozumie tylko jeden rodzaj zależności - pełną, sztywną, tzw. Zależność funkcjonalną. Dwie wielkości X i Y nazywane są funkcjonalnie zależnymi, jeśli znając wartość jednej z nich, można dokładnie określić wartość drugiej.

W teorii prawdopodobieństwa istnieje nieco inny rodzaj zależności - zależność probabilistyczna. Jeśli wartość Y jest powiązana z wartością X zależnością probabilistyczną, to znając wartość X, nie da się dokładnie wskazać wartości Y, ale można wskazać jej prawo rozkładu, w zależności od tego, jaką wartość ma wartość X zajęty.

Zależność probabilistyczna może być mniej lub bardziej bliska; W miarę wzrostu szczelności zależności probabilistycznej staje się ona coraz bliższa zależności funkcjonalnej. Zatem zależność funkcjonalną można uznać za skrajny, ograniczający przypadek najbliższej zależności probabilistycznej. Innym skrajnym przypadkiem jest całkowita niezależność zmiennych losowych. Pomiędzy tymi dwoma skrajnymi przypadkami leży cała gradacja zależności probabilistycznej – od najsilniejszej do najsłabszej.

W praktyce często spotyka się probabilistyczną zależność pomiędzy zmiennymi losowymi. Jeżeli zmienne losowe X i Y pozostają w relacji probabilistycznej, nie oznacza to, że wraz ze zmianą wartości X wartość Y zmienia się w całkowicie określony sposób; oznacza to tylko, że wraz ze zmianą wartości X zmienia się wartość Y

ma tendencję do zmiany (wzrost lub spadek wraz ze wzrostem X). Tendencję tę obserwuje się jedynie w ujęciu ogólnym i w każdym indywidualnym przypadku możliwe są odstępstwa od niej.

Przykłady zależności probabilistycznych.

Wybierzmy losowo jednego pacjenta z zapaleniem otrzewnej. zmienna losowa T to czas od wystąpienia choroby, zmienna losowa O to poziom zaburzeń homeostazy. Istnieje wyraźna zależność pomiędzy tymi wartościami, ponieważ wartość T jest jedną z najważniejszych przyczyn ustalania wartości O.

Jednocześnie istnieje słabszy związek probabilistyczny pomiędzy zmienną losową T a zmienną losową M, która odzwierciedla śmiertelność w danej patologii, gdyż zmienna losowa, choć wpływa na zmienną losową O, nie jest główną wyznaczniką.

Co więcej, jeśli weźmiemy pod uwagę wartość T i wartość B (wiek chirurga), wówczas wartości te są praktycznie niezależne.

Do tej pory omówiliśmy właściwości układów zmiennych losowych, podając jedynie wyjaśnienia słowne. Istnieją jednak charakterystyki numeryczne, za pomocą których badane są właściwości zarówno pojedynczych zmiennych losowych, jak i układu zmiennych losowych.

Do opisu układu dwóch zmiennych losowych oprócz matematycznych oczekiwań i wariancji składników wykorzystuje się inne charakterystyki, do których zalicza się m.in. moment korelacji I Współczynnik korelacji(krótko wspomniana na końcu T.8.p.8.6) .

Moment korelacji(Lub kowariancja, Lub moment połączenia) dwie zmienne losowe X I Y zwany m.o. iloczyn odchyleń tych wielkości (patrz równość (5) punkt 8.6):

Wniosek 1. Dla momentu korelacji r.v. X I Y obowiązują także następujące równości:

,

gdzie odpowiedni scentralizowany r.v. X I Y (patrz punkt 8.6.).

W tym przypadku: jeśli
jest dwuwymiarową wartością średnią, wówczas kowariancję oblicza się ze wzoru

(8)
;

Jeśli
jest dwuwymiarowym n.s.v., wówczas kowariancję oblicza się ze wzoru

(9)

Wzory (8) i (9) otrzymano na podstawie wzorów (6) z p. 12.1. Istnieje wzór obliczeniowy

(10)

co wynika z definicji (9) i opiera się na właściwościach MO, w istocie,

W związku z tym wzory (36) i (37) można przepisać w postaci

(11)
;

Moment korelacji służy do scharakteryzowania zależności między wielkościami X I Y.

Jak zostanie pokazane poniżej, moment korelacji jest równy zeru, jeśli X I Y Czy niezależny;

Zatem, jeśli moment korelacji nie jest równy zero, toXIYsą zależnymi zmiennymi losowymi.

Twierdzenie 12.1.Moment korelacji dwóch niezależnych zmiennych losowychXIYjest równe zeru, tj. dla niezależnego r.v.XIY,

Dowód. Ponieważ X I Y niezależne zmienne losowe, a następnie ich odchylenia

I

T także niezależny. Korzystając z właściwości oczekiwań matematycznych (oczekiwanie matematyczne iloczynu niezależnych r.v.s jest równe iloczynowi oczekiwań matematycznych czynników
,
, Dlatego

Komentarz. Z twierdzenia tego wynika, że ​​jeśli
następnie s.v. X I Y zależny i w takich przypadkach r.v. X I Y zwany współzależny. Jednak z tego, że
nie podąża za niepodległością r.v. X I Y.

W tym przypadku (
s.v. X I Y zwany nieskorelowany, Zatem z niezależności wynika nieskorelowane; stwierdzenie odwrotne jest, ogólnie rzecz biorąc, fałszywe (patrz przykład 2 poniżej).

Rozważmy główne właściwości momentu korelacji.

Cwłaściwości kowariancji:

1. Kowariancja jest symetryczna, tj.
.

Wynika to bezpośrednio ze wzoru (38).

2. Istnieją równości: tj. dyspersja r.v. jest jego kowariancją ze sobą.

Równości te wynikają bezpośrednio z definicji odpowiednio rozproszenia i równości (38) dla

3. Obowiązują następujące równości:

Równości te wyprowadzono z definicji wariancji i kowariancji r.v.
I , właściwości 2.

Z definicji rozproszenia (biorąc pod uwagę centralność r.v.
) mamy

Teraz na podstawie (33) oraz właściwości 2 i 3 otrzymujemy pierwszą (ze znakiem plus) właściwość 3.

Podobnie druga część własności 3 wynika z równości

4. Pozwalać
liczby stałe,
wówczas obowiązują równości:

Zwykle te właściwości nazywane są właściwościami jednorodności i okresowości pierwszego rzędu w argumentach.

Udowodnimy pierwszą równość i skorzystamy z własności m.o.
.

Twierdzenie 12.2.Całkowita wartośćmoment korelacji dwóch dowolnych zmiennych losowychXIYnie przekracza średniej geometrycznej ich wariancji: tj.

Dowód. Należy pamiętać, że w przypadku niezależnego r.v. nierówność jest spełniona (patrz Twierdzenie 12.1.). Niech więc r.v. X I Y zależny. Rozważmy standardowe r.v.
I
i obliczyć rozproszenie r.v.
biorąc pod uwagę własność 3, mamy: z jednej strony
Z drugiej strony

Zatem biorąc pod uwagę fakt, że
I - znormalizowany (standaryzowany) r.v., następnie dla nich m.o. jest równa zeru, a wariancja jest równa 1, dlatego korzystając z właściwości m.o.
dostajemy

i dlatego na podstawie faktu, że
dostajemy

Wynika z tego, że tj.

=

Stwierdzenie zostało udowodnione.

Z definicji i właściwości kowariancji wynika, że ​​charakteryzuje ona zarówno stopień zależności r.v., jak i ich rozproszenie wokół punktu
Wymiar kowariancji jest równy iloczynowi wymiarów zmiennych losowych X I Y. Inaczej mówiąc, wielkość momentu korelacji zależy od jednostek miary zmiennych losowych. Z tego powodu dla tych samych dwóch ilości X I Y, wielkość momentu korelacji będzie miała różne wartości w zależności od jednostek, w których wartości zostały zmierzone.

Niech np. X I Y mierzono w centymetrach i
; jeśli zmierzono X I Y w milimetrach
Ta cecha momentu korelacji jest wadą tej charakterystyki numerycznej, ponieważ porównanie momentów korelacji różnych układów zmiennych losowych staje się trudne.

Aby wyeliminować tę wadę, wprowadzono nową charakterystykę numeryczną - „ Współczynnik korelacji».

Współczynnik korelacji
zmienne losowe
I nazywa się stosunkiem momentu korelacji do iloczynu odchyleń standardowych tych wielkości:

(13)
.

Od wymiaru
równy iloczynowi wymiarów ilości
I ,
ma wymiar wielkości
σ y ma wymiar wielkości , To
to tylko liczba (tj. „ ilość bezwymiarowa”). Zatem wartość współczynnika korelacji nie zależy od wyboru jednostek miary r.v., tj korzyść współczynnik korelacji przed momentem korelacji.

W T.8. w punkcie 8.3 wprowadziliśmy tę koncepcję znormalizowany s.v.
, wzór (18), a twierdzenie to zostało udowodnione
I
(Patrz także Twierdzenie 8.2.). Tutaj udowodnimy następujące stwierdzenie.

Twierdzenie 12.3. Dla dowolne dwie zmienne losowe
I równość jest prawdą
.Innymi słowy, współczynnik korelacji
dowolne dwa z
.V.XIYrówny momentowi korelacji odpowiadającej im znormalizowanej s.v.
I .

Dowód. Z definicji znormalizowanych zmiennych losowych
I

I
.

Uwzględniając własność oczekiwań matematycznych: i równość (40) otrzymujemy

Stwierdzenie zostało udowodnione.

Przyjrzyjmy się niektórym powszechnie spotykanym właściwościom współczynnika korelacji.

Właściwości współczynnika korelacji:

1. Współczynnik korelacji w wartości bezwzględnej nie przekracza 1, tj.

Właściwość ta wynika bezpośrednio ze wzoru (41) - definicji współczynnika korelacji oraz Twierdzenia 13.5. (patrz równość (40)).

2. Jeśli zmienne losowe
I są niezależne, bieżący współczynnik korelacji wynosi zero, tj.
.

Własność ta jest bezpośrednią konsekwencją równości (40) i Twierdzenia 13.4.

Sformułujmy następującą własność jako osobne twierdzenie.

Twierdzenie 12.4.

Jeśli r.v.
I są ze sobą powiązane liniową zależnością funkcjonalną, tj.
To

w której

I wręcz przeciwnie, jeśli
,
To s.v.
I są ze sobą powiązane liniową zależnością funkcjonalną, tj. istnieją stałe
I
takie, że zachodzi równość

Dowód. Pozwalać
Następnie Bazując na własności 4 kowariancji, mamy

i ponieważ, dlatego

Stąd,
. Otrzymuje się równość w jednym kierunku. Niech dalej
, Następnie

należy rozważyć dwa przypadki: 1)
i 2)
Rozważmy więc pierwszy przypadek. Wtedy z definicji
a zatem z równości
, Gdzie
. W naszym przypadku
, zatem z równości (patrz dowód Twierdzenia 13.5.)

=
,

rozumiemy to
, Oznacza
jest stała. Ponieważ
i od tego czasu
Naprawdę,

.

Stąd,


.

Podobnie pokazano, że dla
ma miejsce (sprawdź sam!)

,
.

Niektóre wnioski:

1. Jeśli
I w takim razie niezależni.v

2. Jeżeli r.v.
I są zatem ze sobą powiązane liniowo
.

3. W innych przypadkach
:

W tym przypadku mówią, że r.v.
I ze sobą powiązane pozytywna korelacja, Jeśli
w przypadkach
Ujemna korelacja. Bliżej
do jednego, tym więcej powodów, aby sądzić, że r.v.
I są połączone zależnością liniową.

Należy zauważyć, że momenty korelacji i dyspersje układu r.v. zwykle podawany macierz korelacji:

.

Oczywiście wyznacznik macierzy korelacji spełnia:

Jak już wspomniano, jeśli dwie zmienne losowe są zależne, to mogą być podobne współzależny, Więc nieskorelowane. Innymi słowy, może istnieć moment korelacji dwóch zależnych wielkości nie równe zeru, ale może równe zeru.

Przykład 1. Prawo podziału dyskretnego r.v. podano w tabeli


Znajdź współczynnik korelacji

Rozwiązanie. Znalezienie praw rozkładu składników
I :


Teraz obliczmy m.o. składniki:

Wartości te można znaleźć na podstawie tabeli rozkładu r.v.

Podobnie,
znajdź to sam.

Obliczmy wariancje składników i skorzystajmy ze wzoru obliczeniowego:

Stwórzmy prawo dystrybucji
, a potem znajdujemy
:

Tworząc tabelę prawa dystrybucyjnego, należy wykonać następujące kroki:

1) pozostawić jedynie różne znaczenia wszystkich możliwych produktów
.

2) w celu określenia prawdopodobieństwa danej wartości
, potrzebować

zsumuj wszystkie odpowiednie prawdopodobieństwa znajdujące się na przecięciu głównej tabeli, które sprzyjają wystąpieniu danej wartości.

W naszym przykładzie r.v. przyjmuje tylko trzy różne wartości
. Tutaj pierwsza wartość (
) odpowiada produktowi
z drugiej linii i
z pierwszej kolumny, więc na ich przecięciu znajduje się liczba prawdopodobieństwa
podobnie

który otrzymuje się z sumy prawdopodobieństw znajdujących się na przecięciach odpowiednio pierwszego wiersza i pierwszej kolumny (0,15; 0,40; 0,05) i jednej wartości
, który znajduje się na przecięciu drugiego wiersza i drugiej kolumny, i wreszcie
, czyli na przecięciu drugiego rzędu i trzeciej kolumny.

Z naszej tabeli znajdujemy:

Moment korelacji wyznaczamy korzystając ze wzoru (38):

Znajdź współczynnik korelacji korzystając ze wzoru (41)

Zatem korelacja ujemna.

Ćwiczenia. Prawo dystrybucji dyskretnej r.v. podane przez tabelę


Znajdź współczynnik korelacji

Spójrzmy na przykład, w którym są dwa zależne zmienne losowe może być nieskorelowane.

Przykład 2. Dwuwymiarowa zmienna losowa
)
dany przez funkcję gęstości

Udowodnijmy to
I zależny , Ale nieskorelowane zmienne losowe.

Rozwiązanie. Skorzystajmy z obliczonych wcześniej gęstości rozkładu składników
I :

Od tego czasu
I ilości zależne. Udowodnić nieskorelowane
I wystarczy się o tym przekonać

Znajdźmy moment korelacji korzystając ze wzoru:

Ponieważ funkcja różniczkowa
symetrycznie względem osi OJ, To
podobnie
, ze względu na symetrię
względem osi WÓŁ. Dlatego wyjęcie stałego współczynnika

Całka wewnętrzna jest równa zeru (całka jest nieparzysta, granice całkowania są symetryczne względem początku), zatem
, tj. zależne zmienne losowe
I nie są ze sobą skorelowane.

Zatem z korelacji dwóch zmiennych losowych wynika ich zależność, lecz z braku korelacji nadal nie można wnioskować, że zmienne te są niezależne.

Jednakże dla r.v. o rozkładzie normalnym taki wniosek jest z wyjątkiem te. z nieskorelowane normalnie dystrybuowane s.v. wypływa je niezależność.

Następny akapit poświęcony jest temu zagadnieniu.

Kowariancja i współczynnik korelacji.

Pomiędzy zmiennymi losowymi może istnieć związek funkcjonalny lub stochastyczny (probabilistyczny). Zależność stochastyczna objawia się tym, że prawo rozkładu warunkowego jednej zmiennej losowej zmienia się w zależności od wartości przyjętych przez inną zmienną losową. Jedną z cech stochastycznej zależności dwóch zmiennych losowych jest kowariancja zmienne losowe.

Kowariancja zmienne losowe ( X,Y) jest liczbą równą matematycznemu oczekiwaniu iloczynu odchyleń zmiennych losowych X I Y z twoich matematycznych oczekiwań:

Czasami nazywana jest kowariancją moment korelacji Lub drugi mieszany moment centralny zmienne losowe ( X,Y).

Korzystając z definicji oczekiwań matematycznych, otrzymujemy:

do dyskretnej dystrybucji

do dystrybucji ciągłej

Na Y= X kowariancja jest tym samym, co wariancja X.

Wielkość momentu korelacji zależy od jednostek miary zmiennych losowych. Utrudnia to porównywanie momentów korelacji różnych układów zmiennych losowych. Aby wyeliminować tę wadę, wprowadzono nową charakterystykę numeryczną - Współczynnik korelacji, który jest

ilość bezwymiarowa.

Aby to obliczyć, zastępujemy odchylenia zmiennych losowych od oczekiwań matematycznych ich znormalizowanymi odchyleniami, tj.

Własności współczynnika korelacji:

Pozwalać T - zmienna w sensie analizy matematycznej. Rozważ wariancję zmiennej losowej D(Y – tX) jako funkcję zmiennej T.

Zgodnie z właściwością dyspersji. Dyskryminator w tym przypadku musi być mniejszy lub równy zero, tj.

Skąd to mamy?

2. Moduł współczynnika korelacji nie zmienia się podczas przekształceń liniowych zmiennych losowych: , gdzie , , są liczbami dowolnymi.

3. , wtedy i tylko wtedy, gdy zmienne losowe X I Y są połączone liniowo, tj. są takie numery a, b, Co .

Jeśli , to dyskryminator rozpatrywany w akapicie 1 jest równy zero, a zatem dla pewnej wartości . Dlatego wartość i dla niektórych Z równość, którą należało udowodnić, jest prawdziwa.

4. Jeśli X I Y są statystycznie niezależne, wówczas .

Właściwości 2.4 są weryfikowane bezpośrednio.

4.5.2. Korelacja i zależność układu zmiennych losowych.

Warunek konieczny niezależności zmiennych losowych X I Y jest równy zeru ich momentu korelacji (lub współczynnika korelacji). Jednakże równość (lub ) jest jedynie koniecznym, ale niewystarczającym warunkiem niezależności.

Przykład 1.

Rysunek przedstawia punkty leżące na paraboli , A .

W związku z tym wprowadza się węższe pojęcie nieskorelowanych (jeśli ) lub skorelowanych (jeśli ) zmiennych losowych. Dlatego niezależność zmiennych losowych oznacza także brak korelacji() i wzajemnie, korelacja () – uzależnienie.

W ogólnym przypadku, gdy punkty (X, Y) będą rozproszone wokół linii, im bliżej, tym większa wartość. Zatem współczynnik korelacji charakteryzuje żaden związek pomiędzy X I Y, A stopień szczelności zależności liniowej między nimi.

W szczególności nawet z , tj. przy całkowitym braku liniowej zależności pomiędzy X I Y Może istnieć dowolnie silna statystyczna, a nawet nieliniowa zależność funkcjonalna (patrz przykład 1).

Gdy wartości wskazują na dodatnią korelację pomiędzy X I Y, co oznacza, że ​​obie zmienne mają tę samą tendencję do wzrostu lub spadku. Kiedy mówią o korelacji ujemnej, czyli o odwrotnym trendzie zmian zmiennych losowych X I Y, tj. jedno wzrasta, drugie maleje i odwrotnie.

Jeśli zmienne losowe X I Y mają rozkład normalny, to ich brak korelacji implikuje ich niezależność, ponieważ

Jeśli następnie.

Aby obliczyć współczynnik korelacji, kontynuujemy Przykład 2 z §4.1. Skorzystajmy ze wzoru

.

M(X× Y)=(-200)×(-100)×0,2 + (-200)×0×0,1 + (-200)×(100)×0,05 + 0×(-100)×0,05 + 0×0×0,25 + 0 ×100×0,02 + 200×(-100)×0,01 + 200×0×0,02 + 200×100×0,3 = 8800 dolarów;

; ;

.

Przykład 2. Prawo dystrybucji układu dwóch zmiennych losowych podaje tablica rozkładu

X Y
-1 0,01 0,06 0,05 0,04
0,04 0,24 0,15 0,07
0,05 0,01 0,01 0,09

Znajdź jednowymiarowe (krańcowe) prawa dystrybucji X I Y, ich matematyczne oczekiwania, wariancje i współczynnik korelacji pomiędzy nimi X I Y.

Rozwiązanie. Prawdopodobieństwa możliwych wartości dyskretnej zmiennej losowej X, zawarte w systemie, określane są według wzoru

, Do=1, 2, 3, 4.

Dlatego jednowymiarowy rozkład ilości X ma następującą postać

Matematyczne oczekiwania zmiennych losowych X I Y:

M(X)=1,6; M(Y)=0,18.

Wariancje zmiennych losowych X I Y:

D(X)=0,84; D(Y)=0,47.

Współczynnik korelacji pomiędzy X I Y obliczone według wzoru

; ;

; ;

Pytania autotestowe.

1. Zdefiniować wielowymiarową zmienną losową i funkcję rozkładu prawdopodobieństwa.

2. Tak zwany łączny rozkład dwuwymiarowej dyskretnej zmiennej losowej ( X,Y)? Jak to jest napisane?

3. Jeśli chodzi o znany łączny rozkład dwuwymiarowej zmiennej losowej ( X,Y) znajdź rozkłady krańcowe składników X I Y?

4. Tak zwany rozkład warunkowy składnika X dwuwymiarowa ilość dyskretna ( X,Y)?

5. Co nazywa się kowariancją?

6. Jaki jest współczynnik korelacji?

7. Określ właściwości współczynnika korelacji.

8. Jaki jest współczynnik korelacji zmiennych losowych? X I Y = 1 – 2X?

9. Na jaką wartość zmienia się kowariancja dwóch zmiennych losowych? X I Y, Jeśli X = Y?

10. Czy pojęcia niezależności i nieskorelowanej są równoważne?

Zadania

4.1. Na dwóch różnych rynkach w mieście sprzedawane są trzy typy samochodów ( A, B, C). Poniżej dane dotyczące liczby sprzedanych samochodów w danym roku:



Znajdź następujące prawdopodobieństwa: R(a, a), P(a, B), P(a, C), P(b, A), P(b, B), P(pne), P(A), P(a/A), P(A/a). Utwórz tabelę łącznych prawdopodobieństw.

4.2. Urlopowicze w danym kurorcie to zazwyczaj biznesmeni ( B)lub osoby wykonujące wolne zawody ( P)(prawnicy, artyści, lekarze itp.). Właściciel kurortu chce ustalić, czy bardziej opłacalne będzie dla niego wyprodukowanie dwóch rodzajów reklam, a nie jednej. W tym celu zlecił swojemu działowi reklamy przygotowanie dwóch rodzajów reklam – jednej dla przedsiębiorców (typ I), drugiej dla osób wykonujących wolne zawody (typ II). Przygotowano ogłoszenia, rozesłano materiały do ​​potencjalnych klientów i wpłynęło 800 wniosków. Zostały one rozdzielone w następujący sposób.

A). Znajdź prawdopodobieństwa P(B, I); P(B,II); P(I/B).

Jak często słyszałeś stwierdzenia mówiące, że jedno zjawisko jest skorelowane z drugim?

„Według ekspertów z serwisu badawczego Gallup wysoki wzrost gospodarczy jest powiązany z dobrym wykształceniem i szczęściem”.

„Cena ropy jest skorelowana z kursami walut”.

„Bolesność mięśni po wysiłku nie koreluje z przerostem włókien mięśniowych”.

Wydaje się, że pojęcie „korelacji” stało się powszechnie stosowane nie tylko w nauce, ale także w życiu codziennym. Korelacja odzwierciedla stopień liniowej zależności pomiędzy dwoma zjawiskami losowymi. Tak więc, gdy ceny ropy zaczynają spadać, kurs dolara w stosunku do rubla zaczyna rosnąć.

Z powyższego możemy wywnioskować, że przy opisie dwuwymiarowych zmiennych losowych tak dobrze znane cechy, jak oczekiwanie matematyczne, rozproszenie i odchylenie standardowe, są czasami niewystarczające. Dlatego do ich opisu często używa się jeszcze dwóch bardzo ważnych cech: kowariancja I korelacja.

Kowariancja

Kowariancja$cov\left(X,\ Y\right)$ zmiennych losowych $X$ i $Y$ to matematyczne oczekiwanie iloczynu zmiennych losowych $X-M\left(X\right)$ i $Y-M\left(Y \right)$, czyli:

$$cov\left(X,\ Y\right)=M\left(\left(X-M\left(X\right)\right)\left(Y-M\left(Y\right)\right)\right). $$

Wygodne może być obliczenie kowariancji zmiennych losowych $X$ i $Y$ za pomocą następującego wzoru:

$$cov\lewo(X,\ Y\prawo)=M\lewo(XY\prawo)-M\lewo(X\prawo)M\lewo(Y\prawo),$$

co można uzyskać z pierwszego wzoru, korzystając z właściwości oczekiwania matematycznego. Wymieńmy główne właściwości kowariancji.

1 . Kowariancja zmiennej losowej ze sobą jest jej wariancją.

$$cov\lewo(X,\X\prawo)=D\lewo(X\prawo).$$

2 . Kowariancja jest symetryczna.

$$cov\lewo(X,\ Y\prawo)=cov\lewo(Y,\ X\prawo).$$

3 . Jeżeli zmienne losowe $X$ i $Y$ są niezależne, to:

$$cov\lewo(X,\Y\prawo)=0.$$

4 . Ze znaku kowariancji można usunąć współczynnik stały.

$$cov\left(cX,\ Y\right)=cov\left(X,\ cY\right)=c\cdot cov\left(X,\ Y\right).$$

5 . Kowariancja nie ulegnie zmianie, jeśli do jednej ze zmiennych losowych (lub dwóch na raz) dodana zostanie wartość stała:

$$cov\left(X+c,\ Y\right)=cov\left(X,\ Y+c\right)=cov\left(X+x,\ Y+c\right)=cov\left( X,\Y\prawo).$$

6 . $cov\left(aX+b,\ cY+d\right)=ac\cdot cov\left(X,\ Y\right)$.

7 . $\left|cov\left(X,\ Y\right)\right|\le \sqrt(D\left(X\right)D\left(Y\right))$.

8 . $\left|cov\left(X,\ Y\right)\right|=\sqrt(D\left(X\right)D\left(Y\right))\Leftrightarrow Y=aX+b$.

9 . Wariancja sumy (różnicy) zmiennych losowych jest równa sumie ich wariancji plus (minus) dwukrotność kowariancji tych zmiennych losowych:

$$D\lewo(X\pm Y\prawo)=D\lewo(X\prawo)+D\lewo(Y\prawo)\pm 2cov\lewo(X,\ Y\prawo).$$

Przykład 1 . Podana jest tabela korelacji losowego wektora $\left(X,\Y\right)$. Oblicz kowariancję $cov\left(X,\Y\right)$.

$\begin(tablica)(|c|c|)
\hline

\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 i 0,05 i p_(22) i 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(tablica)$

Zdarzenia $\left(X=x_i,\ Y=y_j\right)$ tworzą kompletną grupę zdarzeń, zatem suma wszystkich prawdopodobieństw $p_(ij)$ podana w tabeli musi być równa 1. Wtedy $0,1 +0+0 ,2+0,05+p_(22)+0+0+0,2+0,05+0,1+0+0,1=1$, stąd $p_(22)=0,2$.

$\begin(tablica)(|c|c|)
\hline
X\ukośnik odwrotny Y & -6 & 0 & 3 \\
\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & 0,2 & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end(tablica)$

Korzystając ze wzoru $p_(i) =\sum _(j)p_(ij) $, znajdujemy szereg dystrybucyjny zmiennej losowej $X$.

$\begin(tablica)(|c|c|)
\hline
X i -2 i 0 i 1 i 7 \\
\hline
p_i i 0,3 i 0,25 i 0,25 i 0,2 \\
\hline
\end(tablica)$

$$M\left(X\right)=\suma^n_(i=1)(x_ip_i)=-2\cdot 0,3+0\cdot 0,25+1\cdot 0,25+7\cdot 0 ,2=1,05.$ $

$$D\left(X\right)=\sum^n_(i=1)(p_i(\left(x_i-M\left(X\right)\right))^2)=0,3\cdot ( \left (-2-1,05\prawo))^2+0,25\cdot (\lewo(0-1,05\prawo))^2+0,25\cdot (\lewo(1-1, 05\prawo))^2+$$

$$+\ 0,2\cdot (\lewo(7-1,05\prawo))^2=10,1475.$$

$$\sigma \left(X\right)=\sqrt(D\left(X\right))=\sqrt(10,1475)\około 3,186.$$

Korzystając ze wzoru $q_(j) =\sum _(i)p_(ij) $, znajdujemy szereg dystrybucyjny zmiennej losowej $Y$.

$\begin(tablica)(|c|c|)
\hline
Y i -6 i 0 i 3 \\
\hline
p_i i 0,25 i 0,4 i 0,35 \\
\hline
\end(tablica)$

$$M\left(Y\right)=\sum^n_(i=1)(y_ip_i)=-6\cdot 0,25+0\cdot 0,4+3\cdot 0,35=-0,45 .$$

$$D\left(Y\right)=\sum^n_(i=1)(p_i(\left(y_i-M\left(Y\right)\right))^2)=0,25\cdot ( \left (-6+0,45\prawo))^2+0,4\cdot (\lewo(0+0,45\prawo))^2+0,35\cdot (\lewo(3+0, 45\prawo))^2=11,9475. $$

$$\sigma \left(Y\right)=\sqrt(D\left(Y\right))=\sqrt(11,9475)\około 3,457.$$

Ponieważ $P\left(X=-2,\ Y=-6\right)=0,1\ne 0,3\cdot 0,25$, to zmienne losowe $X,\ Y$ są zależne.

Zdefiniujmy kowariancję $cov\ \left(X,\ Y\right)$ zmiennych losowych $X,\ Y$ za pomocą wzoru $cov\left(X,\ Y\right)=M\left(XY\ prawo)-M\ lewo(X\prawo)M\lewo(Y\prawo)$. Matematyczne oczekiwanie iloczynu zmiennych losowych $X,\Y$ jest równe:

$$M\left(XY\right)=\suma_(i,\ j)(p_(ij)x_iy_j)=0,1\cdot \left(-2\right)\cdot \left(-6\right) +0,2 \cdot \left(-2\right)\cdot 3+0,05\cdot 1\cdot 3+0,1\cdot 7\cdot \left(-6\right)+0,1\cdot 7\cdot 3=-1,95.$$

Następnie $cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right)=-1,95-1,05\cdot \left(- 0,45\right)=-1,4775.$ Jeżeli zmienne losowe są niezależne, to ich kowariancja wynosi zero. W naszym przypadku $cov(X,Y)\ne 0$.

Korelacja

Współczynnik korelacji zmienne losowe $X$ i $Y$ nazywane są liczbą:

$$\rho \left(X,\ Y\right)=((cov\left(X,\ Y\right))\over (\sqrt(D\left(X\right)D\left(Y\right) )))).$$

Wymieńmy główne właściwości współczynnika korelacji.

1 . $\rho \lewo(X,\X\prawo)=1$.

2 . $\rho \left(X,\ Y\right)=\rho \left(Y,\ X\right)$.

3 . $\rho \left(X,\ Y\right)=0$ dla niezależnych zmiennych losowych $X$ i $Y$.

4 . $\rho \left(aX+b,\ cY+d\right)=(sgn \left(ac\right)\rho \left(X,\ Y\right)\ )$, gdzie $(sgn \left( ac\right)\ )$ jest znakiem iloczynu $ac$.

5 . $\lewo|\rho \lewo(X,\ Y\prawo)\prawo|\le 1$.

6 . $\left|\rho \left(X,\ Y\right)\right|=1\Leftrightarrow Y=aX+b$.

Mówiono wcześniej, że współczynnik korelacji $\rho \left(X,\ Y\right)$ odzwierciedla stopień liniowej zależności pomiędzy dwiema zmiennymi losowymi $X$ i $Y$.

Kiedy $\rho \left(X,\ Y\right)>0$ możemy stwierdzić, że wraz ze wzrostem zmiennej losowej $X$, zmienna losowa $Y$ ma tendencję do wzrostu. Nazywa się to korelacją dodatnią. Na przykład wzrost i waga osoby są ze sobą dodatnio skorelowane.

Kiedy $\rho \left(X,\Y\right)<0$ можно сделать вывод о том, что с ростом случайной величины $X$ случайная величина $Y$ имеет тенденцию к уменьшению. Это называется отрицательной корреляционной зависимостью. Например, температура и время сохранности продуктов питания связаны между собой отрицательной корреляционной зависимостью.

Gdy $\rho \left(X,\ Y\right)=0$, zmienne losowe $X$ i $Y$ nazywane są nieskorelowanymi. Warto zaznaczyć, że nieskorelowany charakter zmiennych losowych $X$ i $Y$ nie oznacza ich statystycznej niezależności, a jedynie oznacza, że ​​nie ma między nimi zależności liniowej.

Przykład 2 . Wyznaczmy współczynnik korelacji $\rho \left(X,\ Y\right)$ dla dwuwymiarowej zmiennej losowej $\left(X,\ Y\right)$ z Przykładu 1.

Współczynnik korelacji zmiennych losowych $X,\Y$ jest równy $r_(XY) =(cov(X,Y)\over \sigma (X)\sigma (Y)) =(-1,4775\over 3,186\cdot 3,457) =-0,134,$ Od $r_(XY)<0$, то с ростом $X$ случайная величина $Y$ имеет тенденцию к уменьшению (отрицательная корреляционная зависимость).