Bayesiansk metode i teknisk diagnostik. Statistiske genkendelsesmetoder

Til dato er der udviklet et stort antal metoder, hvis brug gør det muligt at genkende typen af ​​teknisk tilstand af det diagnosticerede objekt. Dette papir diskuterer kun nogle af dem, de mest udbredte i diagnostisk praksis.

Bayes metode

Den diagnostiske metode baseret på anvendelsen af ​​Bayes-formlen refererer til statistiske genkendelsesmetoder.

Sandsynlighed for hændelse EN, som kun kan opstå, når en af ​​de uforenelige hændelser 2 indtræffer? 1? I 2 ,..., I p, lig med summen af ​​produkterne af sandsynligheden for hver af disse begivenheder med den tilsvarende sandsynlighed for begivenheden EN:

Denne formel kaldes den samlede sandsynlighedsformel. Følgen af ​​multiplikationssætningen og totalsandsynlighedsformlen er den såkaldte hypoteseteori. Lad os antage, at begivenheden EN kan kun forekomme, når en af ​​de uforenelige hændelser indtræffer I, AT 2, ..., I p, men da det ikke vides i forvejen, hvilke af dem der vil forekomme, kaldes de hypoteser. Sandsynligheden for forekomsten af ​​en hændelse A bestemmes ved hjælp af totalsandsynlighedsformlen (1,5) og den betingede sandsynlighed RA (B/) efter formlen

Erstatning af værdien R(L), vi får

Formel (1.6) kaldes Bayes' formel. Det gør det muligt at revurdere sandsynligheden for hypoteser, efter at resultaterne af forsøget, hvor begivenheden fandt sted, er kendt. EN.

At identificere størrelsen af ​​de betingede sandsynligheder for en egenskabs forekomst er nøglen til at bruge Bayes' formel til at diagnosticere en tilstand. Den Bayesianske tilgang er meget udbredt inden for kontrolvidenskab, signaldetektion og mønstergenkendelsesteori og medicinsk og teknisk diagnostik.

Lad os overveje essensen af ​​metoden i forhold til den diagnostiske opgave. Den matematiske side af spørgsmålet præsenteres i detaljer i arbejde Ts3]. Under drift kan enhver genstand være i en af ​​de mulige tilstande TVj, ...,Nj(i det enkleste tilfælde - "norm", "afslag"), hvortil hypoteserne (diagnoserne) Z)j,...,Z) er tildelt; . Under driften af ​​anlægget overvåges parametre (skilte). Til, ..., kj. Sandsynlighed for fælles tilstedeværelse af tilstand Z)- og attributten i et objekt kj fast besluttet

Hvor Р(Dj)- sandsynlighed for diagnose DJ, bestemt af statistiske data:

Hvor P- antal undersøgte genstande;

Nj- antal stater;

P(kj/Dj) kj for genstande med stat DJ. Hvis blandt P genstande med en diagnose DJ, viste et tegn kj, At

P(kr- sandsynlighed for forekomst af et tegn kj i alle objekter, uanset objektets tilstand (diagnose). Lad fra det samlede antal P genstande tegn kj blev fundet i rij genstande altså

P(Dj/kj) - sandsynlighed for diagnose Z); efter at det er blevet kendt, at den pågældende genstand har karakteristikken Til-.

Den generaliserede Bayes-formel gælder for det tilfælde, hvor undersøgelsen udføres i henhold til et sæt karakteristika TIL, inklusive skilte (ku, k p). Hvert af tegnene kj Det har rrij rækker (, Til d,

kj2 , ..., kj s, ..., k jm). Som følge af undersøgelsen bliver det kendt

implementering af funktionen k.-k. og hele komplekset af tegn TIL. I-

deke betyder den specifikke betydning af et træk. Bayes-formlen for et sæt funktioner har formen

Hvor P(Dj/A*) - sandsynlighed for diagnose? D efter at resultaterne af en undersøgelse baseret på et sæt tegn bliver kendt TIL;

P(Dj)- foreløbig sandsynlighed for diagnose DJ.

Det antages, at systemet kun er i en af ​​de angivne tilstande, dvs.

For at bestemme sandsynligheden for diagnose ved hjælp af Bayes-metoden dannes en diagnostisk matrix baseret på foreløbigt statistisk materiale (tabel 1.1). Antallet af linjer svarer til antallet af mulige diagnoser. Antallet af kolonner beregnes som summen af ​​produkterne af antallet af funktioner og det tilsvarende antal cifre plus en for de tidligere sandsynligheder for diagnoser. Denne tabel indeholder sandsynligheden for karakterkategorier for forskellige diagnoser. Hvis genkendt

ki er tocifrede (enkle tegn "ja - nej"), så i tabellen er det nok at angive sandsynligheden for forekomst af tegnet R(k-/Dj). Sandsynlighed for manglende funktion I. Mere bekvemt

bruge en ensartet form, f.eks. antaget for et tocifret tegn. Det bør præciseres , Hvor nij- antal attributcifre kj. Summen af ​​sandsynligheden for alle mulige implementeringer af en funktion er lig med én. Beslutningsreglen er den regel, som beslutningen om diagnosen træffes efter. I Bayes-metoden et objekt med et kompleks af funktioner ft refererer til diagnosen med højest (posterior) sandsynlighed ft e DJ, Hvis P(Dj/lt) >

> P(Dj/ft) (J - 1, 2, ..., n i * j). Denne regel forfines normalt ved at indføre en tærskelværdi for sandsynligheden for diagnose P(Dj/ft) >

> Pj, Hvor Pj- forudvalgt genkendelsesniveau til diagnose DJ. I dette tilfælde er sandsynligheden for den nærmeste konkurrerende diagnose ikke højere end 1 - Pj. Normalt accepteret P ( > 0,9. I betragtning af det PiD/t?) tages der ikke en beslutning om diagnose, og der kræves yderligere information.

Tabel 1.1

Diagnostisk matrix i Bayes-metoden

Skilt kj

R(k 12 /

R(k 22 /

R(k p /

Eksempel. Et diesellokomotiv er under overvågning. I dette tilfælde kontrolleres to tegn: Til- stigning i timeforbruget af dieselbrændstof ved den nominelle position af førerens styreenhed med mere end 10 % af den nominelle værdi, til 2- reduktion af dieselgeneratorens effekt ved den nominelle position af førerens styreenhed med mere end 15 % af den nominelle værdi. Lad os antage, at udseendet af disse tegn er forbundet enten med øget slid på dele af cylinder-stempelgruppen (diagnose /)]), eller med en funktionsfejl i brændstofudstyret (diagnose D 2). Hvis dieselmotoren er i god stand (diagnose D 3) underskrive Til ikke observeret, men et tegn til 2 observeret i 7 % af tilfældene. Ifølge statistiske data er det fastslået, at 60 % af motorer diagnosticeret med Z) 3 modificeres før planlagte reparationer. D 2- 30 %, med diagnosen Z)j - 10 %. Det blev også konstateret, at skiltet Til j ved tilstand Z)| forekommer hos 10 %, og i tilstanden D 2 - i 40 % af tilfældene; skilt til 2 under tilstand Z)| forekommer hos 15 %, og i tilstanden D 2- i 20 % af tilfældene. Vi præsenterer de indledende oplysninger i form af en tabel. 1.2.

Tabel 1.2

Sandsynligheder for tilstande og manifestationer af symptomer

R(k 2 / EN)

Lad os beregne sandsynligheden for stater for forskellige muligheder for at implementere kontrollerede funktioner:

1. Skilte Til Og til 2 fundet, så:

2. Underskriv Til opdaget, underskrive til 2 fraværende.

Fravær af tegn k i betyder tilstedeværelsen af ​​et tegn Til.(den modsatte begivenhed), og P(k./D.)-- P(k./D.).

3. Underskriv Til 2 registreret, underskriv Til fraværende:

4. Tegn /:| Og til 2 mangler:

Analyse af de opnåede beregningsresultater giver os mulighed for at drage følgende konklusioner:

  • 1. Tilstedeværelse af to tegn k og k 2 s sandsynlighed 0,942 angiver tilstanden DJ
  • 2. Tilstedeværelse af et tegn Til med en sandsynlighed på 0,919 angiver tilstanden D 2(fejl i brændstofudstyr).
  • 3. Tilstedeværelse af et tegn til 2 med en sandsynlighed på 0,394 angiver tilstanden D 2(fejl på brændstofudstyret) og med en sandsynlighed på 0,459 omkring tilstand Z) 3 (korrekt stand). Med et sådant sandsynlighedsforhold er beslutningstagning vanskelig, så yderligere undersøgelser er påkrævet.
  • 4. Fraværet af begge tegn med en sandsynlighed på 0,717 indikerer en god tilstand (Z) 3).
I øjeblikket er Bayesianske metoder blevet ret udbredt og bruges aktivt i en række forskellige vidensområder. Men desværre er der ikke mange, der har en idé om, hvad det er, og hvorfor det er nødvendigt. En af grundene er manglen på en stor mængde litteratur på russisk. Derfor vil jeg her forsøge at præsentere deres principper så enkelt som muligt, med udgangspunkt i det helt basale (jeg undskylder, hvis dette virker for simpelt for nogle).

I fremtiden vil jeg gerne gå videre til selve Bayesiansk analyse og tale om behandlingen af ​​rigtige data og om, efter min mening, et glimrende alternativ til R-sproget (der er skrevet lidt om det) - Python med pymc'en modul. Personligt finder jeg Python meget mere forståelig og logisk end R med pakker og BUGS, og Python giver meget mere O større frihed og fleksibilitet (selvom Python har sine egne vanskeligheder, er de overkommelige, og de støder man ikke ofte på i simpel analyse).

Lidt historie

Som en kort historisk note vil jeg sige, at Bayes' formel blev offentliggjort allerede i 1763, 2 år efter forfatterens, Thomas Bayes, død. Imidlertid blev metoder, der brugte det, virkelig udbredt først i slutningen af ​​det tyvende århundrede. Dette forklares af det faktum, at beregninger kræver visse beregningsomkostninger, og de blev kun mulige med udviklingen af ​​informationsteknologi.

Om sandsynlighed og Bayes' sætning

Bayes' formel og alt, hvad der følger efter, kræver en forståelse af sandsynlighed. Du kan læse mere om sandsynlighed på Wikipedia.
I praksis er sandsynligheden for, at en begivenhed indtræffer, hyppigheden af ​​forekomsten af ​​denne begivenhed, det vil sige forholdet mellem antallet af observationer af begivenheden og det samlede antal observationer for et stort (teoretisk uendeligt) samlet antal observationer.
Overvej følgende eksperiment: Vi kalder et hvilket som helst tal fra segmentet og ser, at dette tal er mellem for eksempel 0,1 og 0,4. Som du måske kan gætte, vil sandsynligheden for denne hændelse være lig med forholdet mellem længden af ​​segmentet og segmentets samlede længde (med andre ord, forholdet mellem "antal" af mulige lige sandsynlige værdier samlet "antal" af værdier), det vil sige (0,4 - 0,1) / (1 - 0) = 0,3 , det vil sige, at sandsynligheden for at komme ind i segmentet er 30%.

Lad os nu se på kvadratet af x.

Lad os sige, at vi skal navngive talpar (x, y), som hver er større end nul og mindre end én. Sandsynligheden for, at x (det første tal) vil være inden for segmentet (vist i den første figur som det blå område, i øjeblikket er det andet tal y ikke vigtigt for os) er lig med forholdet mellem arealet af blåt område til arealet af hele kvadratet, det vil sige (0,4 - 0,1 ) * (1 - 0) / (1 * 1) = 0,3, det vil sige 30%. Således kan vi skrive, at sandsynligheden for, at x hører til segmentet, er p(0,1<= x <= 0.4) = 0.3 или для краткости p(X) = 0.3.
Hvis vi nu ser på y, så på samme måde er sandsynligheden for, at y er inde i segmentet lig med forholdet mellem arealet af det grønne område og arealet af hele kvadratet p(0,5)<= y <= 0.7) = 0.2, или для краткости p(Y) = 0.2.
Lad os nu se, hvad vi kan lære om værdierne af både x og y.
Hvis vi vil vide, hvad sandsynligheden er for, at x og y er samtidigt i de tilsvarende givne segmenter, så skal vi beregne forholdet mellem det mørke område (skæringspunktet mellem de grønne og blå områder) og arealet af hele kvadrat: p(X, Y) = (0,4 - 0,1) * (0,7 - 0,5) / (1 * 1) = 0,06.

Lad os nu sige, at vi vil vide, hvad sandsynligheden er for, at y er i intervallet, hvis x allerede er i intervallet. Det vil sige, at vi faktisk har et filter, og når vi navngiver par (x, y), kasserer vi straks de par, der ikke opfylder betingelsen om, at x er i et givent interval, og så tæller vi fra de filtrerede par dem for hvilken y opfylder vores betingelse og betragte sandsynligheden som forholdet mellem antallet af par, som y ligger i det ovennævnte segment for, og det samlede antal filtrerede par (det vil sige, for hvilke x ligger i segmentet). Vi kan skrive denne sandsynlighed som p(Y|X). Det er klart, at denne sandsynlighed er lig med forholdet mellem arealet af det mørke område (skæringspunktet mellem de grønne og blå regioner) og arealet af den blå region. Arealet af det mørke område er (0,4 - 0,1) * (0,7 - 0,5) = 0,06, og arealet af det blå er (0,4 - 0,1) * (1 - 0) = 0,3, så er deres forhold 0,06 / 0,3 = 0,2. Med andre ord er sandsynligheden for at finde y på segmentet givet, at x allerede hører til segmentet, p(Y|X) = 0,2.
Det kan bemærkes, at under hensyntagen til alle ovenstående og alle ovenstående notationer, kan vi skrive følgende udtryk
p(Y|X) = p(X, Y) / p(X)

Lad os kort gengive al den tidligere logik nu i forhold til p(X|Y): vi navngiver parrene (x, y) og filtrerer dem, for hvilke y ligger mellem 0,5 og 0,7, så er sandsynligheden for at x er i intervallet forudsat at y hører til segmentet er lig med forholdet mellem arealet af det mørke område og området af det grønne:
p(X|Y) = p(X, Y) / p(Y)

I de to ovenstående formler ser vi, at udtrykket p(X, Y) er det samme, og vi kan eliminere det:

Vi kan omskrive den sidste ligestilling som

Dette er Bayes' sætning.
Det er også interessant at bemærke, at p(Y) faktisk er p(X,Y) for alle værdier af X. Det vil sige, hvis vi tager det mørke område og strækker det, så det dækker alle værdier af X, det vil nøjagtigt følge det grønne område, hvilket betyder, at det vil være lig med p(Y). I matematisk sprog vil dette betyde følgende:
Så kan vi omskrive Bayes' formel som følger:

Anvendelse af Bayes' sætning

Lad os se på følgende eksempel. Tag en mønt og vend den 3 gange. Med lige stor sandsynlighed kan vi få følgende resultater (O - hoveder, P - haler): OOO, OOR, ORO, ORR, ROO, ROR, RPO, RRR.

Vi kan tælle, hvor mange hoveder der kom op i hvert tilfælde, og hvor mange gange der var skift af hoved-haler, hale-hoveder:

Vi kan betragte antallet af hoveder og antallet af ændringer som to tilfældige variable. Så ser sandsynlighedstabellen således ud:

Nu kan vi se Bayes' formel i aktion.
Men lad os først tegne en analogi med kvadratet, som vi så på tidligere.
Du kan bemærke, at p(1O) er summen af ​​den tredje kolonne (det "blå område" af kvadratet) og er lig med summen af ​​alle celleværdierne i denne kolonne: p(1O) = 2/8 + 1/8 = 3/8
p(1С) er summen af ​​den tredje række (det "grønne område" af kvadratet) og er på samme måde lig med summen af ​​alle celleværdier i denne række p(1С) = 2/8 + 2/ 8 = 4/8
Sandsynligheden for, at vi fik et hoved og en ændring, er lig med skæringspunktet mellem disse områder (det vil sige værdien i cellen for skæringspunktet mellem den tredje kolonne og den tredje række) p(1C, 1O) = 2/8
Derefter, ved at følge formlerne beskrevet ovenfor, kan vi beregne sandsynligheden for at få en ændring, hvis vi får et hoved i tre kast:
p(1C|1O) = p(1C, 1O) / p(1O) = (2/8) / (3/8) = 2/3
eller sandsynligheden for at få et hoved, hvis vi fik en ændring:
p(1O|1C) = p(1C, 1O) / p(1C) = (2/8) / (4/8) = 1/2
Hvis vi beregner sandsynligheden for at få én ændring, hvis der er ét hoved p(1O|1C) gennem Bayes-formlen, får vi:
p(1O|1C) = p(1C|1O) * p(1O) / p(1C) = (2/3) * (3/8) / (4/8) = 1/2
Hvilket er, hvad vi fik ovenfor.

Men hvilken praktisk betydning har ovenstående eksempel?
Faktum er, at når vi analyserer virkelige data, er vi normalt interesserede i en eller anden parameter af disse data (for eksempel middelværdi, varians osv.). Så kan vi tegne følgende analogi med ovenstående tabel over sandsynligheder: lad rækkerne være vores eksperimentelle data (lad os betegne dem Data), og kolonnerne være de mulige værdier af parameteren for disse data, der interesserer os (lad os betegne det ). Så er vi interesseret i sandsynligheden for at opnå en bestemt parameterværdi baseret på de tilgængelige data.
Vi kan anvende Bayes' formel og skrive følgende:

Og husker vi formlen med integralet, kan vi skrive følgende:

Det vil sige, at vi faktisk som et resultat af vores analyse har en sandsynlighed som funktion af parameteren. Nu kan vi for eksempel maksimere denne funktion og finde den mest sandsynlige værdi af parameteren, beregne spredningen og gennemsnitsværdien af ​​parameteren, beregne grænserne for det segment, inden for hvilket parameteren vi er interesseret i ligger med en sandsynlighed på 95 %, etc.

Sandsynligheden kaldes posterior sandsynlighed. Og for at kunne beregne det skal vi have
- sandsynlighedsfunktion og - forudgående sandsynlighed.
Sandsynlighedsfunktionen bestemmes af vores model. Det vil sige, at vi opretter en dataindsamlingsmodel, der afhænger af den parameter, der interesserer os. For eksempel ønsker vi at interpolere data ved hjælp af den lige linje y = a * x + b (således antager vi, at alle data har en lineær sammenhæng med Gaussisk støj overlejret med en kendt varians). Så er a og b vores parametre, og vi vil kende deres mest sandsynlige værdier, og sandsynlighedsfunktionen er en gaussisk med et middel givet af linjens ligning og en given varians.
Den forudgående sandsynlighed omfatter information, som vi kender, før vi udfører analysen. For eksempel ved vi med sikkerhed, at en linje skal have en positiv hældning, eller at værdien ved x-skæringspunktet skal være positiv - alt dette og mere til kan vi indarbejde i vores analyse.
Som du kan se, er nævneren for en brøk integralet (eller i det tilfælde, hvor parametre kun kan antage visse diskrete værdier, summen) af tælleren over alle mulige værdier af parameteren. I praksis betyder det, at nævneren er en konstant og tjener til at normalisere den posteriore sandsynlighed (det vil sige, at integralet af den posteriore sandsynlighed er lig med én).

Hermed vil jeg gerne afslutte mit indlæg (fortsat

SEKVENTIEL ANALYSEMETODE

BAYES METODE

Foredragsoversigt

Analyse og kontrol af lektier

Organisering af tid.

Foredragets forløb.

Foredrag 9

Emne. STATISTISKE GENKENDELSESMETODER

Mål. Giv begrebet digital signalgenkendelse.

1. Pædagogisk. Forklar processen med digital signalgenkendelse.

2. Udviklingsmæssige. Udvikle logisk tænkning og et naturvidenskabeligt verdensbillede.

3. Pædagogisk. Dyrk interesse for videnskabelige resultater og opdagelser i telekommunikationsindustrien.

Tværfaglige forbindelser:

· Støtte: datalogi, matematik, computerteknologi og MP, programmeringssystemer.

· Forudsat: Praktik

Metodisk støtte og udstyr:

1. Metodeudvikling til lektionen.

2. Studieordning.

3. Studieordning

4. Arbejdsprogram.

5. Sikkerhedsbriefing.

Tekniske læremidler: personlig computer.

At levere job:

· Arbejdsbøger

3. Besvar spørgsmålene:

1. Hvad er forskellen mellem digitale signaler og analoge signaler?

2. Hvilke klasser af diagrammer bruges, når der foretages målinger?

3. Giv en kort beskrivelse af hver klasse.

4. Hvad bruges til at konstruere et øjendiagram?

5. Forklar essensen af ​​øjendiagrammet.

· Grundlæggende om metoden

  • Generaliseret Bayes formel.

· Diagnostisk matrix.

Afgørende regel

· Grundlæggende om metoden.

· Generel fremgangsmåde for metoden.

· Forbindelse af beslutningsgrænser med sandsynligheden for fejl af første og anden type.

Den største fordel ved statistiske genkendelsesmetoder er evnen til samtidig at tage hensyn til tegn af forskellig fysisk natur, da de er karakteriseret ved dimensionsløse mængder - sandsynligheden for deres forekomst under forskellige tilstande i systemet.

Blandt de tekniske diagnostiske metoder er en metode baseret på den generaliserede Bayes formel ( Bayes' sætning (eller Bayes' formel) er en af ​​sandsynlighedsteoriens hovedsætninger, som giver dig mulighed for at bestemme sandsynligheden for, at en hændelse (hypotese) har fundet sted i nærværelse af kun indirekte beviser (data), som kan være unøjagtige ), har en særlig plads på grund af dens enkelhed og effektivitet.

Bayes-metoden har ulemper:en stor mængde foreløbig information, "undertrykkelse" af sjældne diagnoser osv. Men i tilfælde, hvor mængden af ​​statistiske data tillader brugen af ​​Bayes-metoden, er det tilrådeligt at bruge det som en af ​​de mest pålidelige og effektive metoder.

Grundlæggende om metoden. Metoden er baseret på en simpel Bayes formel. Hvis der er en diagnose D i og et simpelt tegn ki , opstår med denne diagnose, så er sandsynligheden for fælles forekomst af begivenheder (tilstedeværelsen af ​​tilstanden Di og tegnet ki i objektet )



Af denne lighed følger Bayes' formel

(3.2)

Det er meget vigtigt at bestemme den nøjagtige betydning af alle mængder inkluderet i denne formel.

P(Di) - forudgående sandsynlighed for hypotese D

P(ki/Di) - sandsynligheden for hypotesen ki ved forekomsten af ​​hændelse D (posterior sandsynlighed - sandsynligheden for en tilfældig hændelse, forudsat at de posteriore data, dvs. opnået efter eksperiment, er kendte).

P(ki) - total sandsynlighed for forekomst af hændelse ki

P(Di/ki) - sandsynlighed for forekomst af begivenhed Di, hvis hypotese ki er sand

P(D) - sandsynlighed for diagnose D, bestemt af statistiske data (forudgående sandsynlighed for diagnose). Så hvis tidligere undersøgt N genstande og W,-objekter havde tilstand D, da

P(Di) = Ni/N.(3.3)

P (kj/Di) - sandsynlighed for forekomst af træk k j; for genstande med tilstand Di. Hvis blandt Ni, objekter diagnosticeret med Di, N ij et skilt dukkede op k j At

(3.4)

P (kj) - sandsynlighed for forekomst af et tegn kj i alle objekter, uanset objektets tilstand (diagnose).. Lad fra det samlede antal N genstande tegn Til ) blev fundet i Nj genstande altså

(3.5)

I ligestilling (3.2) R ( Di/kj)- sandsynligheden for diagnose D, efter at det er blevet kendt, at den pågældende genstand har karakteristikken kj (posterior sandsynlighed for diagnose ).

Introduktion

Bayes-metoden refererer til statistiske genkendelsesmetoder, hvis største fordel er evnen til samtidig at tage hensyn til træk af forskellig fysisk karakter. Dette skyldes det faktum, at alle tegn er karakteriseret ved dimensionsløse mængder - sandsynligheden for deres forekomst under forskellige tilstande i systemet.

Den Bayesianske metode indtager på grund af sin enkelhed og effektivitet en særlig plads blandt tekniske diagnostiske metoder, selvom den også har ulemper, for eksempel en stor mængde foreløbig information, "undertrykkelse" af sjældne diagnoser osv. Men i tilfælde hvor mængden af ​​statistisk information gør det muligt at bruge den Bayesianske metode, det er tilrådeligt at bruge det som en af ​​de mest pålidelige og effektive metoder.

Bayes metode grundlæggende

Metoden er baseret på Bayes' formel (formel for sandsynlighed for hypoteser).

Hvis der er en diagnose D i og et simpelt tegn k j , der opstår med denne diagnose, så sandsynligheden for fælles forekomst af begivenheder (tilstedeværelsen af ​​tilstanden i objektet D i og underskrive k j), bestemmes af formlen:

P(D i k j ) = P(D i ) P (k j /D i ) = P (k j ) P (D i / k j ). (1.1.)

Fra denne lighed følger Bayes-formlen:

P(D i / k j ) = P(D i ) P(k i /D i )/P(k j ) (1.2.)

Det er meget vigtigt at bestemme den nøjagtige betydning af alle mængder inkluderet i denne formel.

P(D i) --sandsynlighed for diagnose D i, bestemt ud fra statistiske data ( forudgående sandsynlighed for diagnose). Så hvis tidligere undersøgt N genstande og N i genstande havde en tilstand D i, At

P(D i) = N i /N. (1.3.)

P (k j /D i k j for genstande med stat D i .

Hvis blandt N i genstande med en diagnose D i, y N ij et skilt dukkede op k j , så Bayes korrelationssandsynlighed

P(k j /D i) = N ij /N i . (1.4.)

P(k j) --sandsynlighed for forekomst af et tegn k j i alle objekter, uanset objektets tilstand (diagnose). Lad fra det samlede antal N genstande tegn k j blev fundet i N j genstande altså

P(k j ) = N j /N. (1.5.)

For at etablere en diagnose, en særlig beregning P(kj) ikke påkrævet. Som det vil fremgå af det følgende, betydningen P(D i)Og P (k j /D i), kendt for alle mulige tilstande, bestemme værdien P(k j ).

I ligestilling P (D i /k j) - sandsynlighed for diagnose D i efter at det er blevet kendt, at den pågældende genstand har karakteristikken k j (posterior sandsynlighed for diagnose).

Send dit gode arbejde i videnbasen er enkel. Brug formularen nedenfor

Studerende, kandidatstuderende, unge forskere, der bruger videnbasen i deres studier og arbejde, vil være dig meget taknemmelig.

opslået på http://www.allbest.ru/

Introduktion

Bayes-metoden refererer til statistiske genkendelsesmetoder, hvis største fordel er evnen til samtidig at tage hensyn til træk af forskellig fysisk karakter. Dette skyldes det faktum, at alle tegn er karakteriseret ved dimensionsløse mængder - sandsynligheden for deres forekomst under forskellige tilstande i systemet.

Den Bayesianske metode indtager på grund af sin enkelhed og effektivitet en særlig plads blandt tekniske diagnostiske metoder, selvom den også har ulemper, for eksempel en stor mængde foreløbig information, "undertrykkelse" af sjældne diagnoser osv. Men i tilfælde hvor mængden af ​​statistisk information gør det muligt at bruge den Bayesianske metode, det er tilrådeligt at bruge det som en af ​​de mest pålidelige og effektive metoder.

1. Grundlæggende om Bayes-metoden

Metoden er baseret på Bayes' formel (formel for sandsynlighed for hypoteser).

Hvis der er en diagnose D i og et simpelt tegn k j , der opstår med denne diagnose, så sandsynligheden for fælles forekomst af begivenheder (tilstedeværelsen af ​​tilstanden i objektet D i og underskrive k j), bestemmes af formlen:

P(D ik j) = P(D i) P (k j/D i) = P (k j) P (D i/ k j). (1.1.)

Fra denne lighed følger Bayes-formlen:

P(D i/ k j) = P(D i) P(k i/D i)/P(k j ) (1.2.)

Det er meget vigtigt at bestemme den nøjagtige betydning af alle mængder inkluderet i denne formel.

P(D i) --sandsynlighed for diagnose D i, bestemt ud fra statistiske data ( forudgående sandsynlighed for diagnose). Så hvis tidligere undersøgt N genstande og N i genstande havde en tilstand D i, At

P(D i) = N i/N. (1.3.)

P (k j/D i k j for genstande med stat D i.

Hvis blandt N i genstande med en diagnose D i, y N ij et skilt dukkede op k j , så Bayes korrelationssandsynlighed

P(k j/D i) = N ij/N i. (1.4.)

P(k j) --sandsynlighed for forekomst af et tegn k j i alle objekter, uanset objektets tilstand (diagnose). Lad fra det samlede antal N genstande tegn k j blev fundet i N j genstande altså

P(k j ) = N j/N. (1.5.)

For at etablere en diagnose, en særlig beregning P(kj ) ikke påkrævet. Som det vil fremgå af det følgende , værdier P(D i)Og P (k j / D i), kendt for alle mulige tilstande, bestemme værdien P(k j ).

I ligestilling P (D i/k j) - sandsynlighed for diagnose D i efter at det er blevet kendt, at den pågældende genstand har karakteristikken k j (a posteriori troTdiagnose).

2 . Generaliseret Bayes formel

Denne formel gælder for det tilfælde, hvor undersøgelsen udføres i henhold til et sæt tegn TIL , inklusive skilte k 1 , k 2 , ..., k v . Hvert af tegnene k j Det har m j rækker ( k j l, k j 2 , ..., k js, ...,). Som et resultat af undersøgelsen bliver implementeringen af ​​karakteristikken kendt

k j * = k js (1.5.)

og hele komplekset af tegn K*. Indeks *, betyder som før den specifikke betydning (realisering) af attributten. Bayes-formlen for et sæt funktioner har formen

P(D i/ TIL * )= P(D i)P(TIL */D i)/P(TIL * )(i = 1, 2, ..., n), (1.6.)

Hvor P (D i/ TIL * ) --sandsynlighed for diagnose D i efter at resultaterne af undersøgelsen på et sæt tegn blev kendt TIL , P (D i) --foreløbig sandsynlighed for diagnose D i (ifølge tidligere statistik).

Formel (1.6.) gælder for enhver af n mulige tilstande (diagnoser) af systemet. Det antages, at systemet kun er i en af ​​de angivne tilstande og derfor

I praktiske problemer er muligheden for eksistensen af ​​flere tilstande A1, ....., Ar ofte tilladt, og nogle af dem kan forekomme i kombination med hinanden.

P(TIL */ D i) = P(k 1 */ D i)P (k 2 */ k 1 * D i)...P (k v */ k l* ...k* v- 1 D i), (1.8.)

Hvor k j * = k js -- kategori af karakteristikken afsløret som et resultat af undersøgelsen. Til diagnostisk uafhængige tegn

P (TIL */ D i) = P (k 1 */ D i) P (k 2 */ D i)... P (k v * / D i). (1.9.)

I de fleste praktiske problemer, især med et stort antal funktioner, er det muligt at acceptere betingelsen om uafhængighed af funktioner, selv i nærvær af betydelige korrelationer mellem dem.

Sandsynlighed for udseende af et kompleks af tegnTIL *

P(TIL *)= P(D s)P(TIL */D s) . (1.10.)

Den generaliserede Bayes-formel kan skrives som følger :

P(D i/ K * ) (1.11.)

Hvor P (TIL */ D i) er bestemt af lighed (1.8.) eller (1.9.). Af forhold (1.11.) følger

P(D i/ TIL *)=l , (1.12.)

hvilket selvfølgelig burde være tilfældet, da en af ​​diagnoserne nødvendigvis er realiseret, og realiseringen af ​​to diagnoser på samme tid er umulig. Det skal bemærkes, at nævner af Bayes formel for al diagnostikOopkaldet er det samme. Dette giver dig mulighed for først at bestemme sandsynlighed for samtidig forekomst e nia i diagnosen og denne implementering af et sæt funktioner

P(D iTIL *) = P(D i)P(TIL */D i) (1.13.)

og så posterior sandsynlighed for diagnose

P (D i/TIL *) = P(D iTIL *)/P(D sTIL *). (1.14.)

Bemærk, at det nogle gange er tilrådeligt at bruge foreløbig logaritme med formlen (1.11.), da udtryk (1.9.) indeholder produkter af små mængder.

Hvis gennemførelsen af ​​et bestemt sæt funktioner TIL * er bestemmelse til diagnose D s, så forekommer dette kompleks ikke i andre diagnoser:

Derefter, i kraft af ligestilling (1.11.)

Den deterministiske diagnoselogik er således et særligt tilfælde af probabilistisk logik. Bayes' formel kan også bruges i det tilfælde, hvor nogle af funktionerne har en diskret fordeling, og den anden del har en kontinuerlig fordeling. Til kontinuerlig fordeling anvendes fordelingstætheder. I beregningsplanen er denne forskel i karakteristika dog ubetydelig, hvis definitionen af ​​en kontinuert kurve udføres ved hjælp af et sæt diskrete værdier.

3 . Diagnostisk matrix

For at bestemme sandsynligheden for diagnoser ved hjælp af Bayes-metoden er det nødvendigt at oprette en diagnostisk matrix (tabel 1.1), som er dannet på baggrund af foreløbigt statistisk materiale. Denne tabel indeholder sandsynligheden for karakterkategorier for forskellige diagnoser.

Tabel 1.1

Diagnostisk matrix i Bayes-metoden

Diagnose D i

Tegn k j

k 1

k 2

P(k 11 /D i)

P(k 12 /D i)

P(k 21 /D i)

P(k 22 /D i)

P(k 23 /D i)

P(k 24 /D i)

P(k 31 /D i)

P(k 32 /D i)

D 1

D 2

Hvis tegnene er tocifrede (enkle "ja - nej" tegn), er det nok i tabellen at angive sandsynligheden for, at tegnet optræder P(k i/D i). Sandsynlighed for manglende funktion R ( /D,-) = 1 - P(k i/D i).

Det er dog mere bekvemt at bruge en ensartet form, hvis man for eksempel antager for et tocifret tegn R (k j/D i) = R (k i 1 /D i); R ( /D,) = P(k i 2 /D i).

Noter det P(k js/Di) = 1, hvor T, -- antal attributcifre k j. Summen af ​​sandsynligheden for alle mulige implementeringer af en funktion er lig med én.

Den diagnostiske matrix omfatter a priori sandsynligheder for diagnoser. Læringsprocessen i Bayes-metoden består i at danne en diagnostisk matrix. Det er vigtigt at sørge for muligheden for at afklare tabellen under den diagnostiske proces. For at gøre dette skal ikke kun værdier gemmes i computerens hukommelse P(k js/Di), men også følgende mængder: N -- det samlede antal objekter, der bruges til at kompilere den diagnostiske matrix; N i D i; N ij -- antal objekter med diagnose D i, undersøgt ud fra k j. Hvis der kommer et nyt objekt med en diagnose D m, så justeres de foregående a priori sandsynligheder for diagnoser.

Dernæst introduceres rettelser til funktionernes sandsynligheder. Lad det nye objekt med diagnosen D m udledning opdaget r skilt k j. Derefter, for yderligere diagnostik, accepteres nye værdier af funktionens sandsynlighedsintervaller k j ved diagnose D m:

Betingede sandsynligheder for tegn for andre diagnoser kræver ikke justering.

Konklusion

I Bayes-metoden et objekt med et kompleks af funktioner TIL * refererer til diagnosen med højest (posterior) sandsynlighed

K* D i, Hvis P(D i/ K *) > P(D j/ K *) (j = 1, 2,..., n; jeg? j). (1.17.)

Symbol , brugt i funktionel analyse, betyder at tilhøre et sæt. Betingelse (1.17.) angiver, at et objekt besidder en given implementering af et kompleks af karakteristika TIL * eller kort sagt implementering TIL * hører til diagnosen (tilstand) D i. Regel (1.17.) tydeliggøres normalt ved at indføre en tærskelværdi for sandsynligheden for diagnose:

P(D i/ K *) ? P i, (1.18.)

Hvor P i. -- forudvalgt anerkendelsesniveau til diagnose D i. I dette tilfælde er sandsynligheden for den nærmeste konkurrerende diagnose ikke højere end 1 - P i. Normalt accepteret P i? 0,9. I betragtning af det

P(D i/ K *)

i (1.19.)

en beslutning om diagnose er ikke truffet (afvisning af anerkendelse), og yderligere oplysninger er påkrævet.

Beslutningsprocessen i Bayes-metoden ved beregning på computer sker ret hurtigt. For eksempel tager det kun et par minutter at stille en diagnose for 24 tilstande med 80 flercifrede tegn på en computer med en hastighed på 10 - 20 tusinde operationer i sekundet.

Som angivet har Bayes-metoden nogle ulemper, for eksempel fejl i genkendelse af sjældne diagnoser. I praktiske beregninger er det tilrådeligt at udføre diagnostik i tilfælde af lige så sandsynlige diagnoser,

P(D i) = l/n (1.20.)

Så vil diagnosen have den største posteriore sandsynlighedsværdi D i, for hvilket R (K* /D i) maksimum:

K* D i, Hvis P(K* /D i) > P(K* /D j) (j = 1, 2,..., n; jeg? j). (1.21.)

Der stilles med andre ord en diagnose D i hvis dette sæt af symptomer er mere almindeligt under diagnosen D i end ved andre diagnoser. Denne beslutningsregel svarer maksimal sandsynlighed metode. Det følger af det foregående, at denne metode er et specialtilfælde af Bayes-metoden med de samme forudgående sandsynligheder for diagnoser. I maksimum sandsynlighedsmetoden har "almindelige" og "sjældne" diagnoser lige rettigheder.

Liste over anvendte kilder

1. Gorelik, A. L. Genkendelsesmetoder [Tekst]: lærebog. manual for universiteter / A. L. Gorelik, V. A. Skripkin. - M.: Højere. skole, 2004. - 261 s.

2. Sapozhnikov, V.V. Fundamentals of teknisk diagnostik [Tekst]: lærebog. godtgørelse / V.V. Sapozhnikov, Vl. V. Sapozhnikov. - M.: Rute, 2004. - 318 s.

3. Serdakov, A. S. Automatisk kontrol og teknisk diagnostik [Tekst] / A. S. Serdakov. - Kiev: Teknologi, 1971. - 244 s.

4. Stetsyuk. A. E. "Fundamentals af teknisk diagnostik. Teori om anerkendelse": lærebog. godtgørelse / A. E. Stetsyuk, Ya. Yu. Bobrovnikov. - Khabarovsk: Forlaget DVGUPS, 2012. - 69 s.

Udgivet på Allbest.ru

Lignende dokumenter

    Undersøgelse af de mest typiske algoritmer til løsning af problemer af probabilistisk karakter. Kendskab til elementerne i kombinatorik, urneteori, Bayes' formel, metoder til at finde diskrete, kontinuerte stokastiske variable. Overvejelse af det grundlæggende i begivenhedsalgebra.

    træningsmanual, tilføjet 05/06/2010

    Bestemmelse og vurdering af sandsynligheden for, at en given hændelse indtræffer. En teknik til at løse et problem ved hjælp af additions- og multiplikationssætningen, totalsandsynlighedsformlen eller Bayes. Anvendelse af Bernoullis skema til løsning af problemer. Beregning af kvadratafvigelse.

    praktisk arbejde, tilføjet 23/08/2015

    Statistisk, aksiomatisk og klassisk definition af sandsynlighed. Diskrete tilfældige variable. Grænsesætninger for Laplace og Poisson. Sandsynlighedsfordelingsfunktion for multivariate stokastiske variable. Bayes' formel. Punktestimat af varians.

    snydeark, tilføjet 05/04/2015

    Beregning af sandsynligheden for manglende tilbagebetaling af et lån af en juridisk enhed og en person ved hjælp af Bayes-formlen. Beregning af prøvevarians, dens metode, hovedstadier. Bestemmelse af sandsynligheden for, at en hvid kugle falder ud af tre taget tilfældigt, hvilket begrunder resultatet.

    test, tilføjet 02/11/2014

    Anvendelse af formler og love for sandsynlighedsteori til løsning af problemer. Bayes formel, som giver dig mulighed for at bestemme sandsynligheden for en hændelse, forudsat at en anden hændelse, der er statistisk indbyrdes afhængig af den, har fundet sted. Central grænsesætning.

    kursusarbejde, tilføjet 11/04/2015

    Et eksperiment med et tilfældigt udfald. Statistisk stabilitet. Begrebet sandsynlighed. Algebra af begivenheder. Princippet om dualitet for begivenheder. Betingede sandsynligheder. Formler til addition og multiplikation af sandsynligheder. Bayes' formel. Rum af elementære begivenheder.

    abstract, tilføjet 12/03/2007

    Bestemmelse af sandsynligheden for at få mindst 4 point på en terning, når du kaster den én gang. Bestemmelse af sandsynligheden for at producere en del (hvis delen tilfældigt taget af samleren viste sig at være af fremragende kvalitet) af den første plante ved hjælp af Bayes-formlen.

    test, tilføjet 29/05/2012

    Pålidelighedsindikatorer som indikatorer for pålideligheden af ​​ikke-reparerbare genstande. Klassisk og geometrisk definition af sandsynlighed. Hyppigheden af ​​en tilfældig hændelse og den "statistiske definition" af sandsynlighed. Sandsynlighedsadditions- og multiplikationssætninger.

    kursusarbejde, tilføjet 18.11.2011

    Diskrete stokastiske variable og deres fordelinger. Formel for total sandsynlighed og Bayes formel. Generelle egenskaber ved matematisk forventning. Varians af en tilfældig variabel. Fordelingsfunktion af en stokastisk variabel. Klassisk definition af sandsynlighed.

    test, tilføjet 13/12/2010

    Matematiske modeller af fænomener eller processer. Konvergens af den simple iterationsmetode. A posteriori fejlvurdering. Metode til rotation af lineære systemer. Kontrol af nøjagtighed og tilnærmet løsning inden for rammerne af den direkte metode. Afspændingsmetode og Gauss-metode.