Znaczenie słowa „prawdopodobieństwo”. Prawdopodobieństwo klasyczne

jako kategoria ontologiczna odzwierciedla zakres możliwości pojawienia się dowolnego bytu w każdych warunkach. W przeciwieństwie do matematyczno-logicznej interpretacji tego pojęcia, matematyka ontologiczna nie wiąże się z obowiązkiem wyrażenia ilościowego. Znaczenie V. ujawnia się w kontekście rozumienia determinizmu i natury rozwoju w ogóle.

Doskonała definicja

Niekompletna definicja ↓

PRAWDOPODOBIEŃSTWO

pojęcie charakteryzujące wielkości. miara możliwości wystąpienia określonego zdarzenia w określonym czasie warunki. W naukowym wiedzy istnieją trzy interpretacje W. Klasyczna koncepcja W., która wyrosła z matematyki. analiza hazardu, najpełniej rozwinięta przez B. Pascala, J. Bernoulliego i P. Laplace'a, uważa wygraną za stosunek liczby korzystnych przypadków do całkowitej liczby wszystkich równie możliwych. Na przykład, rzucając kostką o 6 stronach, można oczekiwać, że każda z nich wypadnie z wartością 1/6, ponieważ żadna ze stron nie ma przewagi nad drugą. Taka symetria wyników eksperymentów jest szczególnie brana pod uwagę przy organizowaniu gier, ale jest stosunkowo rzadka w badaniu obiektywnych zdarzeń w nauce i praktyce. Klasyczny Interpretacja V. ustąpiła miejsca statystykom. koncepcje V., które opierają się na faktach obserwacja wystąpienia określonego zdarzenia w długim okresie czasu. doświadczenia w ściśle określonych warunkach. Praktyka potwierdza, że ​​im częściej dane zdarzenie występuje, tym większy jest stopień obiektywnej możliwości jego wystąpienia, czyli B. Zatem statystyczny. Interpretacja V. opiera się na koncepcji relacji. częstotliwość, którą można wyznaczyć doświadczalnie. V. jako teoretyczny pojęcie nigdy nie pokrywa się z empirycznie określoną częstotliwością, jednakże w liczbie mnogiej. W przypadkach praktycznie niewiele różni się od względnego. częstotliwość wynikająca z czasu trwania. obserwacje. Wielu statystyków uważa V. za „podwójne” odniesienie. częstotliwości, krawędzie są wyznaczane statystycznie. badanie wyników obserwacji

lub eksperymenty. Mniej realistyczna była definicja V. ze względu na granicę. częstotliwości imprez masowych lub grup, zaproponowane przez R. Misesa. Jako dalszy rozwój częstotliwościowego podejścia do V. zaproponowano dyspozycyjną lub propensywną interpretację V. (K. Popper, J. Hacking, M. Bunge, T. Settle). Zgodnie z tą interpretacją V. charakteryzuje np. właściwość warunków generowania. eksperyment. instalacji w celu uzyskania sekwencji masowych zdarzeń losowych. To właśnie ta postawa rodzi fizyczność dyspozycje, czyli predyspozycje, V. które można sprawdzić za pomocą krewnych. częstotliwość

Statystyczny W badaniach naukowych dominuje interpretacja V. poznania, ponieważ odzwierciedla konkret. natura wzorców właściwych zjawiskom masowym o charakterze losowym. W wielu przypadkach fizycznych, biologicznych, ekonomicznych i demograficznych. i innych procesów społecznych, należy wziąć pod uwagę działanie wielu czynników losowych, które charakteryzują się stałą częstotliwością. Identyfikacja tych stabilnych częstotliwości i wielkości. jego ocena za pomocą V. pozwala ujawnić konieczność, która przenika poprzez skumulowane działanie wielu wypadków. W tym miejscu przejawia się dialektyka przekształcania przypadku w konieczność (por. F. Engels, w książce: K. Marx i F. Engels, Works, t. 20, s. 535-36).

Rozumowanie logiczne lub indukcyjne charakteryzuje związek między przesłankami a wnioskiem rozumowania niedemonstracyjnego, a w szczególności indukcyjnego. W przeciwieństwie do dedukcji przesłanki indukcji nie gwarantują prawdziwości wniosku, a jedynie czynią go mniej lub bardziej wiarygodnym. Tę wiarygodność, przy precyzyjnie sformułowanych przesłankach, można czasami ocenić za pomocą V. Wartość tego V. określa się najczęściej przez porównanie. pojęcia (więcej niż, mniej niż lub równe), a czasami w sposób numeryczny. Logiczny interpretacja jest często wykorzystywana do analizy rozumowań indukcyjnych i konstruowania różnych systemów logiki probabilistycznej (R. Carnap, R. Jeffrey). W semantyce pojęcia logiczne V. jest często definiowane jako stopień, w jakim jedno stwierdzenie potwierdzają inne (na przykład hipoteza na podstawie jej danych empirycznych).

W związku z rozwojem teorii podejmowania decyzji i gier, tzw personalistyczna interpretacja V. Choć V. wyraża jednocześnie stopień wiary podmiotu i zaistnienie określonego zdarzenia, same V. muszą być tak dobrane, aby spełnione były aksjomaty rachunku V. Dlatego V. przy takiej interpretacji wyraża nie tyle stopień subiektywnej, co raczej rozsądnej wiary. W konsekwencji decyzje podejmowane na podstawie takiego V. będą racjonalne, ponieważ nie uwzględniają czynników psychologicznych. cechy i skłonności podmiotu.

Z epistemologicznym t.zr. różnica między statystyczną a logiczną. i personalistyczne interpretacje V. polegają na tym, że jeśli pierwsza charakteryzuje obiektywne właściwości i zależności zjawisk masowych o charakterze przypadkowym, to dwie ostatnie analizują cechy subiektywne, świadome. działalność człowieka w warunkach niepewności.

PRAWDOPODOBIEŃSTWO

jedna z najważniejszych koncepcji nauki, charakteryzująca szczególną systemową wizję świata, jego struktury, ewolucji i wiedzy. Specyfika probabilistycznego widzenia świata ujawnia się poprzez włączenie pojęć losowości, niezależności i hierarchii (idei poziomów w strukturze i wyznaczania systemów) do podstawowych pojęć bytu.

Idee dotyczące prawdopodobieństwa powstały już w starożytności i dotyczyły cech naszej wiedzy, przy czym uznano istnienie wiedzy probabilistycznej, która różniła się od wiedzy rzetelnej i wiedzy fałszywej. Wpływ idei prawdopodobieństwa na myślenie naukowe i rozwój wiedzy jest bezpośrednio związany z rozwojem teorii prawdopodobieństwa jako dyscypliny matematycznej. Początki matematycznej doktryny prawdopodobieństwa sięgają XVII wieku, kiedy to pozwolił na rozwój rdzenia pojęć. cechy ilościowe (numeryczne) i wyrażanie idei probabilistycznej.

Intensywne zastosowania prawdopodobieństwa w rozwoju poznania mają miejsce w drugiej połowie. 19 - I piętro XX wiek Prawdopodobieństwo wkroczyło w struktury takich podstawowych nauk przyrodniczych, jak klasyczna fizyka statystyczna, genetyka, teoria kwantowa i cybernetyka (teoria informacji). W związku z tym prawdopodobieństwo uosabia ten etap rozwoju nauki, który obecnie określa się jako naukę nieklasyczną. Aby ukazać nowość i cechy probabilistycznego sposobu myślenia, należy wyjść od analizy przedmiotu teorii prawdopodobieństwa i podstaw jej licznych zastosowań. Teorię prawdopodobieństwa definiuje się zwykle jako dyscyplinę matematyczną badającą wzorce masowych zjawisk losowych w określonych warunkach. Losowość oznacza, że ​​w ramach charakteru masowego istnienie każdego zjawiska elementarnego nie jest zależne i nie jest przez istnienie innych zjawisk determinowane. Jednocześnie masowy charakter zjawisk sam w sobie ma stabilną strukturę i zawiera pewne prawidłowości. Zjawisko masowe dzieli się dość ściśle na podukłady, a względna liczba zjawisk elementarnych w każdym z podukładów (częstotliwość względna) jest bardzo stabilna. Stabilność tę porównuje się z prawdopodobieństwem. Zjawisko masowe jako całość charakteryzuje się rozkładem prawdopodobieństwa, to znaczy poprzez określenie podsystemów i odpowiadających im prawdopodobieństw. Językiem teorii prawdopodobieństwa jest język rozkładów prawdopodobieństwa. W związku z tym teorię prawdopodobieństwa definiuje się jako abstrakcyjną naukę o operowaniu rozkładami.

Prawdopodobieństwo dało początek w nauce ideom dotyczącym wzorców statystycznych i systemów statystycznych. Te ostatnie są układami utworzonymi z niezależnych lub quasi-niezależnych bytów, których strukturę charakteryzują rozkłady prawdopodobieństwa. Ale jak można tworzyć systemy z niezależnych bytów? Zwykle przyjmuje się, że do powstania układów o charakterystyce integralnej konieczne jest istnienie pomiędzy ich elementami dostatecznie stabilnych połączeń cementujących układy. Stabilność systemów statystycznych wynika z obecności warunków zewnętrznych, środowiska zewnętrznego, sił zewnętrznych, a nie wewnętrznych. Sama definicja prawdopodobieństwa zawsze opiera się na ustaleniu warunków powstania początkowego zjawiska masowego. Kolejną ważną ideą charakteryzującą paradygmat probabilistyczny jest idea hierarchii (podporządkowania). Idea ta wyraża związek między cechami poszczególnych elementów a integralnymi cechami systemów: te ostatnie są niejako zbudowane na pierwszym.

Znaczenie metod probabilistycznych w poznaniu polega na tym, że umożliwiają badanie i teoretyczne wyrażanie wzorców budowy i zachowania obiektów i systemów, które mają hierarchiczną, „dwupoziomową” strukturę.

Analiza natury prawdopodobieństwa opiera się na jego częstotliwości, interpretacji statystycznej. Jednocześnie przez bardzo długi czas w nauce dominowało takie rozumienie prawdopodobieństwa, które nazywano prawdopodobieństwem logicznym lub indukcyjnym. Prawdopodobieństwo logiczne interesuje się kwestiami ważności odrębnego, indywidualnego wyroku w określonych warunkach. Czy można ocenić stopień potwierdzenia (rzetelności, prawdziwości) wniosku indukcyjnego (wniosku hipotetycznego) w formie ilościowej? W trakcie rozwoju teorii prawdopodobieństwa takie pytania były wielokrotnie omawiane i zaczęto mówić o stopniach potwierdzenia hipotetycznych wniosków. O tej mierze prawdopodobieństwa decydują informacje, którymi dysponuje dana osoba, jej doświadczenie, poglądy na świat i nastawienie psychiczne. We wszystkich takich przypadkach wielkość prawdopodobieństwa nie podlega ścisłym pomiarom i praktycznie leży poza kompetencjami teorii prawdopodobieństwa jako spójnej dyscypliny matematycznej.

Obiektywna, częstościowa interpretacja prawdopodobieństwa została ugruntowana w nauce ze znacznymi trudnościami. Początkowo na rozumienie natury prawdopodobieństwa duży wpływ miały poglądy filozoficzne i metodologiczne charakterystyczne dla nauki klasycznej. Historycznie rzecz biorąc, rozwój metod probabilistycznych w fizyce nastąpił pod decydującym wpływem idei mechaniki: systemy statystyczne interpretowano po prostu jako mechaniczne. Ponieważ odpowiednich problemów nie udało się rozwiązać ścisłymi metodami mechaniki, pojawiły się twierdzenia, że ​​zwracanie się do metod probabilistycznych i praw statystycznych jest wynikiem niekompletności naszej wiedzy. W historii rozwoju klasycznej fizyki statystycznej podejmowano liczne próby jej uzasadnienia w oparciu o mechanikę klasyczną, ale wszystkie zakończyły się niepowodzeniem. Podstawą prawdopodobieństwa jest to, że wyraża ono cechy strukturalne pewnej klasy układów, innych niż układy mechaniczne: stan elementów tych układów charakteryzuje się niestabilnością i szczególnym (nie sprowadzalnym do mechaniki) charakterem oddziaływań.

Wpis prawdopodobieństwa do wiedzy prowadzi do zaprzeczenia koncepcji twardego determinizmu, do zaprzeczenia podstawowemu modelowi bytu i wiedzy wypracowanemu w procesie kształtowania się nauki klasycznej. Podstawowe modele reprezentowane przez teorie statystyczne mają inny, bardziej ogólny charakter: obejmują one idee losowości i niezależności. Idea prawdopodobieństwa wiąże się z ujawnieniem wewnętrznej dynamiki obiektów i systemów, której nie można całkowicie zdeterminować warunkami i okolicznościami zewnętrznymi.

Koncepcja probabilistycznej wizji świata, opartej na absolutyzacji idei o niezależności (podobnie jak wcześniej paradygmat sztywnego wyznaczania), ujawniła obecnie swoje ograniczenia, czego najmocniejszym wyrazem jest przejście współczesnej nauki na analityczne metody badania systemy złożone oraz fizyczne i matematyczne podstawy zjawisk samoorganizacji.

Doskonała definicja

Niekompletna definicja ↓

Oczywiste jest, że każde zdarzenie ma różny stopień możliwości jego wystąpienia (jego realizacji). Aby ilościowo porównać zdarzenia ze sobą według stopnia ich możliwości, należy oczywiście każdemu zdarzeniu przypisać pewną liczbę, która jest tym większa, im bardziej prawdopodobne jest zdarzenie. Liczba ta nazywana jest prawdopodobieństwem zdarzenia.

Prawdopodobieństwo zdarzenia– jest liczbową miarą stopnia obiektywnej możliwości wystąpienia tego zdarzenia.

Rozważmy eksperyment stochastyczny i zdarzenie losowe A zaobserwowane w tym eksperymencie. Powtórzmy to doświadczenie n razy i niech m(A) będzie liczbą eksperymentów, w których zaszło zdarzenie A.

Relacja (1.1)

zwany częstotliwość względna zdarzenia A w serii przeprowadzonych eksperymentów.

Łatwo jest zweryfikować ważność właściwości:

jeśli A i B są niespójne (AB= ), to ν(A+B) = ν(A) + ν(B) (1.2)

Częstotliwość względną określa się dopiero po serii eksperymentów i, ogólnie rzecz biorąc, może się różnić w zależności od serii. Jednakże doświadczenie pokazuje, że w wielu przypadkach wraz ze wzrostem liczby eksperymentów częstotliwość względna zbliża się do pewnej wartości. Ten fakt stabilności częstotliwości względnej został wielokrotnie zweryfikowany i można go uznać za ustalony eksperymentalnie.

Przykład 1.19.. Jeśli rzucisz jedną monetą, nikt nie jest w stanie przewidzieć, która strona wyląduje na wierzchu. Ale jeśli rzucisz dwie tony monet, to wszyscy powiedzą, że wraz z herbem wypadnie około jednej tony, czyli względna częstotliwość wypadania herbu wynosi około 0,5.

Jeżeli wraz ze wzrostem liczby eksperymentów względna częstotliwość zdarzenia ν(A) dąży do pewnej ustalonej liczby, to mówimy, że zdarzenie A jest statystycznie stabilne, a liczba ta nazywana jest prawdopodobieństwem zdarzenia A.

Prawdopodobieństwo zdarzenia A wywoływana jest pewna stała liczba P(A), do której w miarę wzrostu liczby eksperymentów zmierza częstotliwość względna ν(A) tego zdarzenia, tj.

Ta definicja nazywa się statystyczne wyznaczanie prawdopodobieństwa .

Rozważmy pewien eksperyment stochastyczny i niech przestrzeń jego zdarzeń elementarnych składa się ze skończonego lub nieskończonego (ale przeliczalnego) zbioru zdarzeń elementarnych ω 1, ω 2, …, ω i, …. Załóżmy, że każdemu zdarzeniu elementarnemu ω i przyporządkowana jest pewna liczba - р i, charakteryzująca stopień możliwości wystąpienia danego zdarzenia elementarnego i spełniająca następujące własności:

Ta liczba p i nazywa się prawdopodobieństwo zdarzenia elementarnegoωi.

Niech teraz A będzie zdarzeniem losowym zaobserwowanym w tym doświadczeniu i niech odpowiada pewnemu zbiorowi

W opcjach prawdopodobieństwo zdarzenia A nazwać sumą prawdopodobieństw zdarzeń elementarnych faworyzujących A(zawarte w odpowiednim zestawie A):


(1.4)

Wprowadzone w ten sposób prawdopodobieństwo ma takie same właściwości jak częstotliwość względna, a mianowicie:

A jeśli AB = (A i B są niezgodne),

wówczas P(A+B) = P(A) + P(B)

Rzeczywiście, zgodnie z (1.4)

W ostatniej relacji wykorzystaliśmy fakt, że żadne pojedyncze zdarzenie elementarne nie może faworyzować dwóch niezgodnych zdarzeń jednocześnie.

Szczególnie zauważamy, że teoria prawdopodobieństwa nie wskazuje metod wyznaczania p i, należy ich szukać ze względów praktycznych lub uzyskać z odpowiedniego eksperymentu statystycznego.

Jako przykład rozważmy klasyczny schemat teorii prawdopodobieństwa. Aby to zrobić, rozważmy eksperyment stochastyczny, którego przestrzeń zdarzeń elementarnych składa się ze skończonej (n) liczby elementów. Załóżmy dodatkowo, że wszystkie te zdarzenia elementarne są jednakowo możliwe, czyli prawdopodobieństwa zdarzeń elementarnych są równe p(ω i)=p i =p. Wynika, że

Przykład 1.20. Przy rzucie symetryczną monetą wypadnięcie orła i reszki jest równie możliwe, ich prawdopodobieństwo wynosi 0,5.

Przykład 1.21. Przy rzucie symetryczną kostką wszystkie twarze są jednakowo możliwe, ich prawdopodobieństwa są równe 1/6.

Niech teraz zdarzenie A będzie faworyzowane przez m zdarzeń elementarnych, tak się je zwykle nazywa wyniki korzystne dla zdarzenia A. Następnie

Dostał klasyczna definicja prawdopodobieństwa: prawdopodobieństwo P(A) zdarzenia A jest równe stosunkowi liczby wyników korzystnych dla zdarzenia A do całkowitej liczby wyników

Przykład 1.22. W urnie znajduje się m kul białych i n czarnych. Jakie jest prawdopodobieństwo, że wylosujemy kulę białą?

Rozwiązanie. Całkowita liczba zdarzeń elementarnych wynosi m+n. Wszystkie są równie prawdopodobne. Korzystne wydarzenie A z czego m.in. Stąd, .

Z definicji prawdopodobieństwa wynikają następujące własności:

Właściwość 1. Prawdopodobieństwo wiarygodnego zdarzenia jest równe jeden.

Rzeczywiście, jeśli zdarzenie jest wiarygodne, to każdy elementarny wynik testu faworyzuje zdarzenie. W tym przypadku t=p, stąd,

P(A)=m/n=n/n=1.(1.6)

Własność 2. Prawdopodobieństwo zdarzenia niemożliwego wynosi zero.

Rzeczywiście, jeśli zdarzenie jest niemożliwe, to żaden z elementarnych wyników testu nie sprzyja temu zdarzeniu. W tym przypadku T= 0, zatem P(A)=m/n=0/n=0. (1.7)

Własność 3.Prawdopodobieństwo zdarzenia losowego jest liczbą dodatnią z zakresu od zera do jeden.

Rzeczywiście, tylko część całkowitej liczby elementarnych wyników testu jest faworyzowana przez zdarzenie losowe. Czyli 0≤m≤n, co oznacza 0≤m/n≤1, zatem prawdopodobieństwo dowolnego zdarzenia spełnia podwójną nierówność 0≤ ROCZNIE)1. (1.8)

Porównując definicje prawdopodobieństwa (1.5) i częstotliwości względnej (1.1) dochodzimy do wniosku: definicja prawdopodobieństwa nie wymaga przeprowadzania badań W rzeczywistości; zakłada to definicja częstotliwości względnej faktycznie przeprowadzono badania. Innymi słowy, prawdopodobieństwo oblicza się przed eksperymentem, a częstotliwość względną - po eksperymencie.

Obliczenie prawdopodobieństwa wymaga jednak wstępnej informacji o liczbie lub prawdopodobieństwie elementarnych wyników korzystnych dla danego zdarzenia. W przypadku braku takich wstępnych informacji do określenia prawdopodobieństwa wykorzystuje się dane empiryczne, to znaczy względną częstotliwość zdarzenia określa się na podstawie wyników eksperymentu stochastycznego.

Przykład 1.23. Dział kontroli technicznej odkrył 3 części niestandardowe w partii 80 losowo wybranych części. Względna częstotliwość występowania części niestandardowych r(A)= 3/80.

Przykład 1.24. Zgodnie z przeznaczeniem.wyprodukowano 24 oddał 19 trafień. Względny współczynnik trafień celu. r(A)=19/24.

Długoterminowe obserwacje wykazały, że jeśli eksperymenty prowadzi się w identycznych warunkach, w każdym z których liczba testów jest dostatecznie duża, to częstotliwość względna wykazuje właściwość stabilności. Ta nieruchomość jest że w różnych eksperymentach częstotliwość względna zmienia się niewiele (im mniej, tym więcej przeprowadza się testów), oscylując wokół pewnej stałej liczby. Okazało się, że tę stałą liczbę można przyjąć jako przybliżoną wartość prawdopodobieństwa.

Zależność pomiędzy częstotliwością względną i prawdopodobieństwem zostanie opisana bardziej szczegółowo i dokładniej poniżej. Zilustrujmy teraz własność stabilności przykładami.

Przykład 1.25. Według szwedzkich statystyk względną częstość urodzeń dziewcząt w roku 1935 w poszczególnych miesiącach charakteryzują następujące liczby (liczby ułożone są w kolejności miesięcy, zaczynając od Styczeń): 0,486; 0,489; 0,490; 0.471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473

Częstotliwość względna oscyluje wokół liczby 0,481, którą można przyjąć jako przybliżoną wartość prawdopodobieństwa posiadania dziewcząt.

Należy pamiętać, że dane statystyczne z różnych krajów dają w przybliżeniu tę samą względną wartość częstotliwości.

Przykład 1.26. Wielokrotnie przeprowadzano eksperymenty z rzucaniem monetą, w których liczono liczbę wystąpień „herbu”. Wyniki kilku eksperymentów przedstawiono w tabeli.

Porozmawiajmy więc o temacie, który interesuje wiele osób. W tym artykule odpowiem na pytanie, jak obliczyć prawdopodobieństwo zdarzenia. Podam wzory do takich obliczeń i kilka przykładów, aby było jaśniejsze, jak to się robi.

Co to jest prawdopodobieństwo

Zacznijmy od tego, że prawdopodobieństwo wystąpienia tego lub innego zdarzenia jest pewną dozą pewności co do ewentualnego wystąpienia jakiegoś wyniku. Do tego obliczenia opracowano wzór na prawdopodobieństwo całkowite, który pozwala określić, czy interesujące Cię zdarzenie nastąpi, czy nie, poprzez tzw. prawdopodobieństwa warunkowe. Ta formuła wygląda następująco: P = n/m, litery mogą się zmieniać, ale nie ma to wpływu na samą esencję.

Przykłady prawdopodobieństwa

Na prostym przykładzie przeanalizujmy tę formułę i zastosujmy ją. Załóżmy, że masz pewne zdarzenie (P), niech będzie to rzut kostką, czyli kostka równoboczna. Musimy obliczyć, jakie jest prawdopodobieństwo zdobycia 2 punktów. Aby to zrobić, potrzebujesz liczby pozytywnych zdarzeń (n), w naszym przypadku - utraty 2 punktów, na całkowitą liczbę zdarzeń (m). Rzut 2 punktami może nastąpić tylko w jednym przypadku, jeśli na kostce są 2 punkty, w przeciwnym razie suma będzie większa, wynika z tego, że n = 1. Następnie liczymy liczbę rzutów dowolnymi innymi liczbami na kostce kostki na 1 kostkę - są to 1, 2, 3, 4, 5 i 6, zatem korzystnych przypadków jest 6, czyli m = 6. Teraz korzystając ze wzoru dokonujemy prostego obliczenia P = 1/ 6 i stwierdzamy, że wynik rzutu 2 punktami na kostce wynosi 1/6, co oznacza, że ​​prawdopodobieństwo zdarzenia jest bardzo niskie.

Spójrzmy również na przykład użycia kolorowych kulek znajdujących się w pudełku: 50 białych, 40 czarnych i 30 zielonych. Musisz określić, jakie jest prawdopodobieństwo wylosowania zielonej kuli. I tak, ponieważ jest 30 kul tego koloru, czyli może być tylko 30 pozytywnych zdarzeń (n = 30), liczba wszystkich zdarzeń wynosi 120, m = 120 (w oparciu o całkowitą liczbę wszystkich kul), korzystając ze wzoru obliczamy, że prawdopodobieństwo wylosowania zielonej kuli będzie równe P = 30/120 = 0,25, czyli 25% ze 100. W ten sam sposób można obliczyć prawdopodobieństwo wylosowania kuli z inny kolor (czarny będzie 33%, biały 42%).

W rzeczywistości wzory (1) i (2) są krótkim zapisem prawdopodobieństwa warunkowego opartym na tabeli kontyngencji cech. Wróćmy do omawianego przykładu (ryc. 1). Załóżmy, że dowiemy się, że rodzina planuje zakup telewizora szerokoekranowego. Jakie jest prawdopodobieństwo, że ta rodzina faktycznie kupi taki telewizor?

Ryż. 1. Zachowania zakupowe telewizorów panoramicznych

W tym przypadku musimy obliczyć prawdopodobieństwo warunkowe P (zakup zrealizowany | zakup planowany). Ponieważ wiemy, że rodzina planuje zakup, przykładowa przestrzeń nie obejmuje wszystkich 1000 rodzin, a jedynie te, które planują zakup telewizora szerokoekranowego. Spośród 250 takich rodzin 200 faktycznie kupiło ten telewizor. Zatem prawdopodobieństwo, że rodzina faktycznie kupi telewizor panoramiczny, jeśli planowała to, można obliczyć za pomocą następującego wzoru:

P (zakup zrealizowany | zakup planowany) = liczba rodzin, które zaplanowały i kupiły telewizor panoramiczny / liczba rodzin planujących zakup telewizora panoramicznego = 200 / 250 = 0,8

Wzór (2) daje ten sam wynik:

gdzie jest wydarzenie A jest to, że rodzina planuje zakup telewizora panoramicznego i to wydarzenie W- że faktycznie to kupi. Podstawiając do wzoru dane rzeczywiste, otrzymujemy:

Drzewo decyzyjne

Na ryc. 1 rodziny dzielą się na cztery kategorie: te, które planowały kupić telewizor panoramiczny i te, które tego nie zrobiły, a także te, które kupiły taki telewizor i te, które tego nie zrobiły. Podobną klasyfikację można przeprowadzić wykorzystując drzewo decyzyjne (rys. 2). Drzewo pokazane na ryc. 2 ma dwa oddziały odpowiadające rodzinom, które planowały zakup telewizora panoramicznego i rodzinom, które tego nie zrobiły. Każda z tych gałęzi dzieli się na dwie dodatkowe gałęzie odpowiadające gospodarstwom domowym, które kupiły i nie zakupiły telewizora panoramicznego. Prawdopodobieństwa zapisane na końcach dwóch głównych gałęzi to bezwarunkowe prawdopodobieństwa zdarzeń A I A'. Prawdopodobieństwa zapisane na końcach czterech dodatkowych gałęzi są prawdopodobieństwami warunkowymi każdej kombinacji zdarzeń A I W. Prawdopodobieństwa warunkowe oblicza się, dzieląc łączne prawdopodobieństwo zdarzeń przez odpowiednie bezwarunkowe prawdopodobieństwo każdego z nich.

Ryż. 2. Drzewo decyzyjne

Przykładowo, aby obliczyć prawdopodobieństwo, że rodzina kupi telewizor panoramiczny, jeśli planowała to zrobić, należy określić prawdopodobieństwo zdarzenia zakup zaplanowany i zrealizowany, a następnie podziel przez prawdopodobieństwo zdarzenia planowany zakup. Poruszając się po drzewie decyzyjnym pokazanym na rys. 2, otrzymujemy następującą (podobną do poprzedniej) odpowiedź:

Niezależność statystyczna

W przykładzie zakupu telewizora szerokoekranowego prawdopodobieństwo, że losowo wybrana rodzina kupiła telewizor panoramiczny, biorąc pod uwagę, że planowała to zrobić, wynosi 200/250 = 0,8. Przypomnijmy, że bezwarunkowe prawdopodobieństwo, że losowo wybrana rodzina kupi telewizor panoramiczny wynosi 300/1000 = 0,3. Prowadzi to do bardzo ważnego wniosku. Wcześniejsza informacja, że ​​rodzina planuje zakup, wpływa na prawdopodobieństwo samego zakupu. Innymi słowy, te dwa zdarzenia są od siebie zależne. W przeciwieństwie do tego przykładu istnieją statystycznie niezależne zdarzenia, których prawdopodobieństwa nie zależą od siebie. Niezależność statystyczna wyraża się tożsamością: P(A|B) = P(A), Gdzie P(A|B)- prawdopodobieństwo zdarzenia A pod warunkiem, że zdarzenie miało miejsce W, ROCZNIE)- bezwarunkowe prawdopodobieństwo zdarzenia A.

Należy pamiętać, że wydarzenia A I W P(A|B) = P(A). Jeżeli w tabeli kontyngencji cech o wielkości 2×2 warunek ten jest spełniony przynajmniej dla jednej kombinacji zdarzeń A I W, będzie obowiązywać dla każdej innej kombinacji. W naszych przykładowych wydarzeniach planowany zakup I zakup zrealizowany nie są statystycznie niezależne, ponieważ informacja o jednym zdarzeniu wpływa na prawdopodobieństwo innego.

Spójrzmy na przykład pokazujący, jak sprawdzić statystyczną niezależność dwóch zdarzeń. Zapytajmy 300 rodzin, które kupiły telewizor panoramiczny, czy są zadowolone z zakupu (ryc. 3). Określ, czy stopień zadowolenia z zakupu i rodzaj telewizora są ze sobą powiązane.

Ryż. 3. Dane charakteryzujące stopień zadowolenia nabywców telewizorów panoramicznych

Sądząc po tych danych,

W tym samym czasie,

P (klient zadowolony) = 240 / 300 = 0,80

Zatem prawdopodobieństwo, że klient będzie zadowolony z zakupu i że rodzina zakupiła telewizor HDTV, jest równe, a zdarzenia te są statystycznie niezależne, ponieważ nie są ze sobą powiązane.

Reguła mnożenia prawdopodobieństwa

Wzór na obliczenie prawdopodobieństwa warunkowego pozwala określić prawdopodobieństwo wystąpienia wspólnego zdarzenia A i B. Po rozwiązaniu formuły (1)

względem wspólnego prawdopodobieństwa P(A i B), otrzymujemy ogólną zasadę mnożenia prawdopodobieństw. Prawdopodobieństwo zdarzenia A i B równe prawdopodobieństwu zdarzenia A pod warunkiem, że zdarzenie nastąpi W W:

(3) P(A i B) = P(A|B) * P(B)

Weźmy jako przykład 80 rodzin, które kupiły panoramiczny telewizor HDTV (ryc. 3). Z tabeli wynika, że ​​64 rodziny są zadowolone z zakupu, a 16 nie. Załóżmy, że spośród nich zostaną losowo wybrane dwie rodziny. Określ prawdopodobieństwo, że obaj klienci będą zadowoleni. Korzystając ze wzoru (3) otrzymujemy:

P(A i B) = P(A|B) * P(B)

gdzie jest wydarzenie A jest to, że druga rodzina jest zadowolona z zakupu i wydarzenia W- aby pierwsza rodzina była zadowolona z zakupu. Prawdopodobieństwo, że pierwsza rodzina będzie zadowolona z zakupu, wynosi 64/80. Jednak prawdopodobieństwo, że druga rodzina również będzie zadowolona z zakupu, zależy od reakcji pierwszej rodziny. Jeżeli pierwsza rodzina po badaniu nie wróci do próby (wybór bez zwrotu), liczba respondentów zmniejsza się do 79. Jeśli pierwsza rodzina jest zadowolona z zakupu, prawdopodobieństwo, że druga rodzina również będzie zadowolona wynosi 63 /79, gdyż w próbie zostały już tylko 63 rodziny zadowolone z zakupu. Zatem podstawiając określone dane do wzoru (3) otrzymujemy następującą odpowiedź:

P(A i B) = (63/79)(64/80) = 0,638.

Zatem prawdopodobieństwo, że obie rodziny będą zadowolone z zakupów wynosi 63,8%.

Załóżmy, że po przeprowadzeniu badania pierwsza rodzina wraca do próby. Określ prawdopodobieństwo, że obie rodziny będą zadowolone z zakupu. W tym przypadku prawdopodobieństwo, że obie rodziny będą zadowolone z zakupu, jest takie samo i wynosi 64/80. Zatem P(A i B) = (64/80)(64/80) = 0,64. Tym samym prawdopodobieństwo, że obie rodziny będą zadowolone z zakupów wynosi 64,0%. Przykład ten pokazuje, że wybór drugiej rodziny nie zależy od wyboru pierwszej. Zatem zastępując prawdopodobieństwo warunkowe we wzorze (3) P(A|B) prawdopodobieństwo ROCZNIE), otrzymujemy wzór na pomnożenie prawdopodobieństw niezależnych zdarzeń.

Zasada mnożenia prawdopodobieństw zdarzeń niezależnych. Jeśli wydarzenia A I W są statystycznie niezależne, prawdopodobieństwo zdarzenia A i B równe prawdopodobieństwu zdarzenia A, pomnożone przez prawdopodobieństwo zdarzenia W.

(4) P(A i B) = P(A)P(B)

Jeśli ta zasada dotyczy zdarzeń A I W, co oznacza, że ​​są one statystycznie niezależne. Istnieją zatem dwa sposoby określenia statystycznej niezależności dwóch zdarzeń:

  1. Wydarzenia A I W są od siebie statystycznie niezależne wtedy i tylko wtedy, gdy P(A|B) = P(A).
  2. Wydarzenia A I B są od siebie statystycznie niezależne wtedy i tylko wtedy, gdy P(A i B) = P(A)P(B).

Jeśli w tabeli kontyngencji 2x2 jeden z tych warunków jest spełniony dla co najmniej jednej kombinacji zdarzeń A I B, będzie obowiązywać dla każdej innej kombinacji.

Bezwarunkowe prawdopodobieństwo zdarzenia elementarnego

(5) P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2) + … + P(A|B k)P(B k)

gdzie zdarzenia B 1, B 2, ... B k wzajemnie się wykluczają i wyczerpują.

Zilustrujmy zastosowanie tej formuły na przykładzie rys. 1. Korzystając ze wzoru (5) otrzymujemy:

P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2)

Gdzie ROCZNIE)- prawdopodobieństwo, że zakup był planowany, P(B1)- prawdopodobieństwo dokonania zakupu, P(B2)- prawdopodobieństwo, że zakup nie zostanie zrealizowany.

TWIERDZENIE BAYESA

Prawdopodobieństwo warunkowe zdarzenia uwzględnia informację, że zaszło inne zdarzenie. Podejście to można zastosować zarówno do uściślenia prawdopodobieństwa, biorąc pod uwagę nowo otrzymane informacje, jak i do obliczenia prawdopodobieństwa, że ​​obserwowany skutek jest konsekwencją określonej przyczyny. Procedura doprecyzowania tych prawdopodobieństw nazywa się twierdzeniem Bayesa. Został on po raz pierwszy opracowany przez Thomasa Bayesa w XVIII wieku.

Załóżmy, że wspomniana firma bada rynek pod kątem nowego modelu telewizora. W przeszłości 40% telewizorów stworzonych przez firmę odniosło sukces, a 60% modeli nie zostało docenionych. Przed ogłoszeniem premiery nowego modelu specjaliści ds. marketingu dokładnie badają rynek i rejestrują popyt. W przeszłości przewidywano, że 80% udanych modeli zakończy się sukcesem, podczas gdy 30% udanych przewidywań okazało się błędnych. Dział marketingu przedstawił korzystną prognozę dla nowego modelu. Jakie jest prawdopodobieństwo, że nowy model telewizora będzie poszukiwany?

Twierdzenie Bayesa można wyprowadzić z definicji prawdopodobieństwa warunkowego (1) i (2). Aby obliczyć prawdopodobieństwo P(B|A), należy skorzystać ze wzoru (2):

i podstaw zamiast P(A i B) wartość ze wzoru (3):

P(A i B) = P(A|B) * P(B)

Podstawiając wzór (5) zamiast P(A) otrzymujemy twierdzenie Bayesa:

gdzie zdarzenia B 1, B 2, ... B k wzajemnie się wykluczają i wyczerpują.

Wprowadźmy następującą notację: zdarzenie S - Telewizja jest pożądana, zdarzenie S’ - Telewizja nie jest pożądana, wydarzenie F - korzystne rokowanie, zdarzenie F’ - zła prognoza. Załóżmy, że P(S) = 0,4, P(S’) = 0,6, P(F|S) = 0,8, P(F|S’) = 0,3. Stosując twierdzenie Bayesa otrzymujemy:

Prawdopodobieństwo popytu na nowy model telewizora, przy sprzyjającej prognozie, wynosi 0,64. Zatem prawdopodobieństwo braku popytu przy korzystnej prognozie wynosi 1–0,64 = 0,36. Proces obliczeń pokazano na rys. 4.

Ryż. 4. a) Obliczenia z wykorzystaniem wzoru Bayesa w celu oszacowania prawdopodobieństwa popytu na telewizory; (b) Drzewo decyzyjne przy badaniu popytu na nowy model telewizora

Spójrzmy na przykład wykorzystania twierdzenia Bayesa w diagnostyce medycznej. Prawdopodobieństwo, że dana osoba cierpi na określoną chorobę, wynosi 0,03. Test medyczny może sprawdzić, czy to prawda. Jeżeli dana osoba jest naprawdę chora, prawdopodobieństwo postawienia trafnej diagnozy (stwierdzenia, że ​​jest ona chora, podczas gdy naprawdę jest chora) wynosi 0,9. Jeżeli dana osoba jest zdrowa, prawdopodobieństwo fałszywie pozytywnej diagnozy (twierdzenia, że ​​dana osoba jest chora, gdy jest zdrowa) wynosi 0,02. Załóżmy, że badanie lekarskie daje wynik pozytywny. Jakie jest prawdopodobieństwo, że dana osoba rzeczywiście jest chora? Jakie jest prawdopodobieństwo trafnej diagnozy?

Wprowadźmy następującą notację: zdarzenie D - osoba jest chora, zdarzenie D’ - osoba jest zdrowa, zdarzenie T - diagnoza jest pozytywna, zdarzenie T’ - diagnoza negatywna. Z warunków zadania wynika, że ​​P(D) = 0,03, P(D’) = 0,97, P(T|D) = 0,90, P(T|D’) = 0,02. Stosując wzór (6) otrzymujemy:

Prawdopodobieństwo, że przy pozytywnej diagnozie dana osoba jest naprawdę chora, wynosi 0,582 (patrz także ryc. 5). Należy pamiętać, że mianownik wzoru Bayesa jest równy prawdopodobieństwu pozytywnej diagnozy, tj. 0,0464.

Jeśli zdarzenia H 1, H 2, ..., H n tworzą kompletną grupę, to do obliczenia prawdopodobieństwa dowolnego zdarzenia można skorzystać ze wzoru na prawdopodobieństwo całkowite:

P(A) = P(A/H 1) P(H 1)+P(A/H 2) P(H 2)

Zgodnie z którą prawdopodobieństwo wystąpienia zdarzenia A można przedstawić jako sumę iloczynów prawdopodobieństw warunkowych zdarzenia A, pod warunkiem wystąpienia zdarzeń H i, przez prawdopodobieństwa bezwarunkowe tych zdarzeń H i. Zdarzenia te H i nazywane są hipotezami.

Ze wzoru na prawdopodobieństwo całkowite wynika wzór Bayesa:

Prawdopodobieństwa P(H i) hipotez H i nazywane są prawdopodobieństwami apriorycznymi – prawdopodobieństwami przed przeprowadzeniem eksperymentów.
Prawdopodobieństwa P(A/H i) nazywane są prawdopodobieństwami późniejszymi – prawdopodobieństwami hipotez H i, udoskonalonymi w wyniku doświadczenia.

Cel usługi. Kalkulator online przeznaczony jest do obliczania całkowitego prawdopodobieństwa przy całym procesie rozwiązania zapisanym w formacie Word (zobacz przykłady rozwiązywania problemów).

Liczba obiektów 2 3 4 5
Określona liczba produktów Określono prawdopodobieństwo wystąpienia wadliwych produktów
Zakład nr 1: P(H1) = . Prawdopodobieństwo produktów standardowych: P(A|H1) =
Instalacja nr 2: P(H2) = . Prawdopodobieństwo produktów standardowych: P(A|H2) =
Instalacja nr 3: P(H3) = . Prawdopodobieństwo produktów standardowych: P(A|H3) =
Instalacja nr 4: P(H4) = . Prawdopodobieństwo produktów standardowych: P(A|H4) =
Zakład nr 5: P(H5) = . Prawdopodobieństwo produktów standardowych: P(A|H5) =

Jeżeli dane źródłowe są podawane w procentach (%), to należy je przedstawić w formie udziału. Na przykład 60%: 0,6.

Przykład nr 1. Sklep otrzymuje żarówki z dwóch fabryk, przy czym udział pierwszej fabryki wynosi 25%. Wiadomo, że odsetek wad w tych fabrykach wynosi odpowiednio 5% i 10% wszystkich wytwarzanych produktów. Sprzedawca losuje jedną żarówkę. Jakie jest prawdopodobieństwo, że będzie uszkodzony?
Rozwiązanie: Oznaczmy przez A zdarzenie – „żarówka okazała się uszkodzona”. Możliwe są następujące hipotezy dotyczące pochodzenia tej żarówki: H 1- „żarówka pochodziła z pierwszej fabryki”. H 2- „żarówka pochodziła z drugiej rośliny”. Ponieważ udział pierwszej rośliny wynosi 25%, prawdopodobieństwa tych hipotez są odpowiednio równe ; .
Prawdopodobieństwo warunkowe, że pierwsza fabryka wyprodukowała wadliwą żarówkę, wynosi , druga roślina - p(A/H2)=wymagane prawdopodobieństwo, że sprzedawca wziął wadliwą żarówkę, znajdujemy, korzystając ze wzoru na prawdopodobieństwo całkowite
0,25·0,05+0,75·0,10=0,0125+0,075=0,0875
Odpowiedź: rocznie)= 0,0875.

Przykład nr 2. Sklep otrzymał dwie równe ilości produktu o tej samej nazwie. Wiadomo, że 25% pierwszej partii i 40% drugiej partii to towary pierwszej klasy. Jakie jest prawdopodobieństwo, że losowo wybrana jednostka towaru nie będzie pierwszego gatunku?
Rozwiązanie:
Oznaczmy przez A wydarzenie – „produkt będzie pierwszej klasy”. Możliwe są następujące hipotezy dotyczące pochodzenia tego produktu: H 1- „produkt z pierwszej partii”. H 2- „produkt z drugiej partii”. Ponieważ udział pierwszej partii wynosi 25%, prawdopodobieństwa tych hipotez są odpowiednio równe ; .
Prawdopodobieństwo warunkowe, że produkt z pierwszej partii jest , z drugiej partii - pożądane prawdopodobieństwo, że losowo wybrana jednostka towaru będzie pierwszej klasy
p(A) = P(H 1) p(A/H 1)+P(H 2) (A/H 2)= 0,25·0,5+0,4·0,5=0,125+0,2=0,325
Wówczas prawdopodobieństwo, że losowo wybrana jednostka towaru nie będzie pierwszej klasy będzie wynosić: 1- 0,325 = 0,675
Odpowiedź: .

Przykład nr 3. Wiadomo, że 5% mężczyzn i 1% kobiet cierpi na daltonizm. Wybrana losowo osoba nie okazała się daltonistką. Jakie jest prawdopodobieństwo, że jest to mężczyzna (zakładając, że jest równa liczba mężczyzn i kobiet).
Rozwiązanie.
Zdarzenie A - losowo wybrana osoba okazuje się, że nie jest daltonistką.
Obliczmy prawdopodobieństwo wystąpienia tego zdarzenia.
P(A) = P(A|H=mężczyzna) + P(A|H=kobieta) = 0,95*0,5 + 0,99*0,5 = 0,475 + 0,495 = 0,97
Wtedy prawdopodobieństwo, że jest to mężczyzna wynosi: p = P(A|H=mężczyzna) / P(A) = 0,475/0,97 = 0,4897

Przykład nr 4. W olimpiadzie sportowej bierze udział 4 studentów pierwszego roku, 6 studentów drugiego roku i 5 studentów trzeciego roku, a prawdopodobieństwo wygrania olimpiady przez studenta pierwszego, drugiego i trzeciego roku wynosi odpowiednio 0,9; 0,7 i 0,8.
a) Znajdź prawdopodobieństwo wygranej przez losowo wybranego uczestnika.
b) W warunkach tego zadania jeden uczeń wygrał olimpiadę. Do której grupy najprawdopodobniej należy?
Rozwiązanie.
Wydarzenie A - zwycięstwo losowo wybranego uczestnika.
Tutaj P(H1) = 4/(4+6+5) = 0,267, P(H2) = 6/(4+6+5) = 0,4, P(H3) = 5/(4+6+5) = 0,333,
P(A|H1) = 0,9, P(A|H2) = 0,7, P(A|H3) = 0,8
a) P(A) = P(H1)*P(A|H1) + P(H2)*P(A|H2) + P(H3)*P(A|H3) = 0,267*0,9 + 0,4*0,7 + 0,333*0,8 = 0,787
b) Rozwiązanie można uzyskać za pomocą tego kalkulatora.
p1 = P(H1)*P(A|H1)/P(A)
p2 = P(H2)*P(A|H2)/P(A)
p3 = P(H3)*P(A|H3)/P(A)
Spośród p1, p2, p3 wybierz wartość maksymalną.

Przykład nr 5. Firma posiada trzy maszyny tego samego typu. Jeden z nich zapewnia 20% całkowitej produkcji, drugi – 30%, trzeci – 50%. W tym przypadku pierwsza maszyna wytwarza 5% usterek, druga 4%, trzecia 2%. Znajdź prawdopodobieństwo, że na pierwszej maszynie zostanie wyprodukowany losowo wybrany wadliwy produkt.