Matrisen har ikke en invers når den er lik. Invers matrise og dens egenskaper

Finne den inverse matrisen.

I denne artikkelen vil vi forstå konseptet med en invers matrise, dens egenskaper og metoder for å finne. La oss dvele i detalj ved å løse eksempler der det er nødvendig å konstruere en invers matrise for en gitt.

Sidenavigering.

    Invers matrise - definisjon.

    Finne den inverse matrisen ved å bruke en matrise fra algebraiske komplementer.

    Egenskaper til en invers matrise.

    Finne den inverse matrisen ved å bruke Gauss-Jordan-metoden.

    Finne elementene i den inverse matrisen ved å løse de tilsvarende systemene med lineære algebraiske ligninger.

Invers matrise - definisjon.

Konseptet med en invers matrise introduseres bare for kvadratiske matriser hvis determinant er ikke-null, det vil si for ikke-singulære kvadratiske matriser.

Definisjon.

Matrisekalt inversen til en matrise, hvis determinant er forskjellig fra null hvis likhetene er sanne , Hvor E– enhetsrekkefølgematrise nn.

Finne den inverse matrisen ved å bruke en matrise fra algebraiske komplementer.

Hvordan finne den inverse matrisen for en gitt en?

Først trenger vi konseptene transponert matrise, matrise-moll og algebraisk komplement av et matriseelement.

Definisjon.

Litenkth rekkefølge matriser EN rekkefølge mn er determinanten for rekkefølgematrisen kk, som er hentet fra matriseelementene EN ligger i den valgte k linjer og k kolonner. ( k ikke overstiger det minste antallet m eller n).

Liten (n-1)th rekkefølge, som er sammensatt av elementer i alle rader unntatt i-th, og alle kolonner unntatt jth, kvadratisk matrise EN rekkefølge nn la oss betegne det som .

Med andre ord er minor hentet fra en kvadratisk matrise EN rekkefølge nn ved å krysse ut elementer i-th linjer og jth kolonne.

For eksempel, la oss skrive, mindre 2 rekkefølge, som er hentet fra matrisen velge elementer i dens andre, tredje rad og første, tredje kolonne . Vi vil også vise minor, som er hentet fra matrisen ved å krysse ut den andre linjen og den tredje kolonnen . La oss illustrere konstruksjonen av disse mindreårige: og .

Definisjon.

Algebraisk komplement element i en kvadratisk matrise kalles minor (n-1)th rekkefølge, som er hentet fra matrisen EN, krysser ut elementer av den i-th linjer og jth kolonne multiplisert med .

Det algebraiske komplementet til et element er betegnet som . Dermed, .

For eksempel for matrisen det algebraiske komplementet til et element er .

For det andre vil vi trenge to egenskaper til determinanten, som vi diskuterte i avsnittet beregne determinanten til en matrise:

Basert på disse egenskapene til determinanten, definisjonen operasjoner for å multiplisere en matrise med et tall og konseptet med en invers matrise er sant: , hvor er en transponert matrise hvis elementer er algebraiske komplementer.

Matrise er faktisk den inverse av matrisen EN, siden likestillingene er tilfredsstilt . La oss vise det

La oss komponere algoritme for å finne den inverse matrisen ved å bruke likestilling .

La oss se på algoritmen for å finne den inverse matrisen ved å bruke et eksempel.

Eksempel.

Gitt en matrise . Finn den inverse matrisen.

Løsning.

La oss beregne determinanten til matrisen EN, dekomponerer den i elementene i den tredje kolonnen:

Determinanten er ikke null, så matrisen EN reversible.

La oss finne en matrise med algebraiske tillegg:

Derfor

La oss transponere matrisen fra algebraiske tillegg:

Nå finner vi den inverse matrisen som :

La oss sjekke resultatet:

Likheter er fornøyd, derfor er den inverse matrisen funnet riktig.

Egenskaper til en invers matrise.

Konseptet med en invers matrise, likhet , definisjoner av operasjoner på matriser og egenskaper til determinanten til en matrise gjør det mulig å rettferdiggjøre følgende egenskaper til invers matrise:

Finne elementene i den inverse matrisen ved å løse de tilsvarende systemene med lineære algebraiske ligninger.

La oss vurdere en annen måte å finne den inverse matrisen for en kvadratisk matrise EN rekkefølge nn.

Denne metoden er basert på løsningen n systemer av lineære inhomogene algebraiske ligninger med n ukjent. De ukjente variablene i disse ligningssystemene er elementene i den inverse matrisen.

Ideen er veldig enkel. La oss betegne den inverse matrisen som X, det er, . Siden per definisjon av den inverse matrisen, da

Å likestille de tilsvarende elementene med kolonner, får vi n systemer av lineære ligninger

Vi løser dem på hvilken som helst måte og danner en invers matrise fra de funnet verdiene.

La oss se på denne metoden med et eksempel.

Eksempel.

Gitt en matrise . Finn den inverse matrisen.

Løsning.

La oss akseptere . Likhet gir oss tre systemer med lineære inhomogene algebraiske ligninger:

Vi vil ikke beskrive løsningen på disse systemene om nødvendig, se avsnittet løse systemer av lineære algebraiske ligninger.

Fra det første likningssystemet har vi, fra det andre - , fra det tredje - . Derfor har den nødvendige inverse matrisen formen . Vi anbefaler å sjekke den for å sikre at resultatet er riktig.

Oppsummer.

Vi så på konseptet med en invers matrise, dens egenskaper og tre metoder for å finne den.

Eksempel på løsninger som bruker invers matrisemetoden

Øvelse 1. Løs SLAE ved å bruke den inverse matrisemetoden. 2 x 1 + 3x 2 + 3x 3 + x 4 = 1 3 x 1 + 5x 2 + 3x 3 + 2x 4 = 2 5 x 1 + 7x 2 + 6x 3 + 2x 4 = 3 4 x 1 + 4x 2 + 3x 3 + x 4 = 4

Begynnelsen av skjemaet

Slutt på skjema

Løsning. La oss skrive matrisen på formen: Vektor B: B T = (1,2,3,4) Hoveddeterminant Minor for (1,1): = 5 (6 1-3 2)-7 (3 1-3 2) +4 ( 3 2-6 2) = -3 Minor for (2,1): = 3 (6 1-3 2)-7 (3 1-3 1)+4 (3 2-6 1) = 0 Minor for (3 ,1): = 3 (3 1-3 2)-5 (3 1-3 1)+4 (3 2-3 1) = 3 Minor for (4,1): = 3 (3 2- 6 2) -5 (3 2-6 1)+7 (3 2-3 1) = 3 Determinant av moll ∆ = 2 (-3)-3 0+5 3-4 3 = -3

Transponert matrise Algebraiske tillegg ∆ 1,1 = 5 (6 1-2 3)-3 (7 1-2 4)+2 (7 3-6 4) = -3 ∆ 1,2 = -3 (6 1-2 3) -3 (7 1-2 4)+1 (7 3-6 4) = 0 ∆ 1,3 = 3 (3 1-2 3)-3 (5 1-2 4)+1 (5 3-3 4) = 3 ∆ 1,4 = -3 (3 2-2 6)-3 (5 2-2 7)+1 (5 6-3 7) = -3 ∆ 2,1 = -3 (6 1-2 3)-3 (5) 1-2 4)+2 (5 3-6 4) = 9 ∆ 2,2 = 2 (6 1-2 3)-3 (5 1-2 4)+1 (5 3- 6 4) = 0 ∆ 2,3 = -2 (3 1-2 3)-3 (3 1-2 4)+1 (3 3-3 4) = -6 ∆ 2,4 = 2 (3 2- 2 6)-3 (3 2-2 5) +1 (3 6-3 5) = 3 ∆ 3,1 = 3 (7 1-2 4)-5 (5 1-2 4)+2 (5 4 -7 4) = -4 ∆ 3,2 = -2 (7 1-2 4)-3 (5 1-2 4)+1 (5 4-7 4) = 1 ∆ 3,3 = 2 (5 1 -2 4)-3 (3 1-2 4)+1 (3 4) -5 4) = 1 ∆ 3,4 = -2 (5 2-2 7)-3 (3 2-2 5)+1 ( 3 7-5 5) = 0 ∆ 4,1 = -3 (7 3-6 4) -5 (5 3-6 4)+3 (5 4-7 4) = -12 ∆ 4,2 = 2 ( 7 3-6 4)-3 (5 3-6 4)+3 (5 4-7 4) = -3 ∆ 4,3 = -2 (5 3-3 4)-3 (3 3-3 4) +3 (3 4-5 4) = 9 ∆ 4,4 = 2 (5 6-3 7)-3 (3) 6-3 5)+3 (3 7-5 5) = -3 Invers matrise Resultatvektor X X = A -1 ∙ B X T = (2,-1,-0,33,1) x 1 = 2 x 2 = -1 x 3 = -0,33 x 4 = 1

se også løsninger av SLAE-er ved å bruke den inverse matrisemetoden på nett. For å gjøre dette, skriv inn dataene dine og motta en løsning med detaljerte kommentarer.

Oppgave 2. Skriv ligningssystemet på matriseform og løs det ved å bruke den inverse matrisen. Sjekk den resulterende løsningen. Løsning:xml:xls

Eksempel 2. Skriv ligningssystemet i matriseform og løs ved hjelp av den inverse matrisen. Løsning:xml:xls

Eksempel. Et system med tre lineære ligninger med tre ukjente er gitt. Påkrevd: 1) finn løsningen ved hjelp av Cramer formler; 2) skriv systemet på matriseform og løs det ved hjelp av matriseregning. Retningslinjer. Etter å ha løst ved Cramers metode, finn knappen "Løsing ved invers matrisemetode for kildedata". Du vil få riktig løsning. Dermed slipper du å fylle ut dataene på nytt. Løsning. La oss betegne med A matrisen av koeffisienter for ukjente; X - matrise-kolonne av ukjente; B - matrise-kolonne med gratis medlemmer:

Vektor B: B T =(4,-3,-3) Tatt i betraktning disse notasjonene, har dette ligningssystemet følgende matriseform: A*X = B. Hvis matrise A er ikke-singular (dens determinant er ikke-null). , så har den en invers matrise A -1. Multipliserer begge sider av ligningen med A -1, får vi: A -1 *A*X = A -1 *B, A -1 *A=E. matrisenotasjon av løsningen til et system av lineære ligninger. For å finne en løsning på ligningssystemet er det nødvendig å beregne den inverse matrisen A -1. Systemet vil ha en løsning hvis determinanten til matrisen A ikke er null. La oss finne hoveddeterminanten. ∆=-1 (-2 (-1)-1 1)-3 (3 (-1)-1 0)+2 (3 1-(-2 0))=14 Så, determinant 14 ≠ 0, så vi fortsette løsningen. For å gjøre dette finner vi den inverse matrisen gjennom algebraiske addisjoner. La oss ha en ikke-singular matrise A:

Vi beregner algebraiske komplementer.

∆ 1,1 =(-2 (-1)-1 1)=1

∆ 1,2 =-(3 (-1)-0 1)=3

∆ 1,3 =(3 1-0 (-2))=3

∆ 2,1 =-(3 (-1)-1 2)=5

∆ 2,2 =(-1 (-1)-0 2)=1

∆ 2,3 =-(-1 1-0 3)=1

∆ 3,1 =(3 1-(-2 2))=7

∆ 3,2 =-(-1 1-3 2)=7

X T =(-1,1,2) x 1 = -14 / 14 =-1 x 2 = 14 / 14 =1 x 3 = 28 / 14 =2 Undersøkelse. -1 -1+3 1+0 2=4 3 -1+-2 1+1 2=-3 2 -1+1 1+-1 2=-3 dok:xml:xls Svar: -1,1,2.

I den første delen så vi på hvordan man finner den inverse matrisen ved hjelp av algebraiske addisjoner. Her vil vi beskrive en annen metode for å finne inverse matriser: bruk av Gauss- og Gauss-Jordan-transformasjonene. Denne metoden for å finne den inverse matrisen kalles ofte metoden for elementære transformasjoner.

Elementær transformasjonsmetode

For å anvende denne metoden skrives den gitte matrisen $A$ og identitetsmatrisen $E$ inn i én matrise, dvs. danner en matrise av formen $(A|E)$ (denne matrisen kalles også utvidet). Etter dette, ved hjelp av elementære transformasjoner utført med radene i den utvidede matrisen, sikres det at matrisen til venstre for linjen blir identitet, og den utvidede matrisen har formen $\left(E| A^(- 1) \right)$. Elementære transformasjoner i denne situasjonen inkluderer følgende handlinger:

  1. Bytte av to linjer.
  2. Multiplisere alle elementene i en streng med et tall som ikke er lik null.
  3. Legge til elementene i en rad de tilsvarende elementene i en annen rad, multiplisert med en hvilken som helst faktor.

Disse elementære transformasjonene kan brukes på forskjellige måter. Vanligvis velges Gauss-metoden eller Gauss-Jordan-metoden. Generelt er Gauss- og Gauss-Jordan-metodene ment for å løse systemer med lineære algebraiske ligninger, og ikke for å finne inverse matriser. Uttrykket "bruke den gaussiske metoden for å finne den inverse matrisen" skal her forstås som "å bruke operasjonene som er iboende i den Gaussiske metoden for å finne den inverse matrisen."

Nummereringen av eksempler fortsetter fra første del. Eksemplene diskuterer bruken av Gauss-metoden for å finne den inverse matrisen, og eksemplene diskuterer bruken av Gauss-Jordan-metoden. Det skal bemerkes at hvis under løsningen alle elementene i en bestemt rad eller kolonne i matrisen som ligger før linjen tilbakestilles til null, eksisterer ikke den inverse matrisen.

Eksempel nr. 5

Finn matrisen $A^(-1)$ hvis $A=\left(\begin(array) (ccc) 7 & 4 & 6 \\ 2 & 5 & -4 \\ 1 & -1 & 3 \end( array) \right)$.

I dette eksemplet vil den inverse matrisen bli funnet ved bruk av Gauss-metoden. Den utvidede matrisen, som generelt har formen $(A|E)$, vil i dette eksemplet ha følgende form: $ \left(\begin(array) (ccc|ccc) 7 & 4 & 6 & 1 & 0 & 0 \\ 2 & 5 & -4 & 0 & 1 & 0 \\ 1 & -1 & 3 & 0 & 0 & 1 \end(array) \right)$.

Mål: ved å bruke elementære transformasjoner, bringe den utvidede matrisen til formen $\left(E|A^(-1) \right)$. La oss bruke de samme operasjonene som brukes når vi løser systemer med lineære ligninger ved hjelp av Gauss-metoden. For å bruke Gauss-metoden er det praktisk når det første elementet i den første raden i den utvidede matrisen er ett. For å oppnå dette bytter vi den første og tredje raden i den utvidede matrisen, som blir: $ \left(\begin(array) (ccc|ccc) 1 & -1 & 3 & 0 & 0 & 1 \\ 2 & 5 & - 4 & 0 & 1 & 0 \\ 7 & 4 & 6 & 1 & 0 & 0 \end(array) \right)$.

La oss nå komme til løsningen. Gauss-metoden er delt inn i to stadier: fremover og bakover (en detaljert beskrivelse av denne metoden for å løse ligningssystemer er gitt i eksemplene på det tilsvarende emnet). De samme to trinnene vil bli brukt i prosessen med å finne den inverse matrisen.

Rett slag

Første skritt

Ved å bruke den første linjen tilbakestiller vi elementene i den første kolonnen som ligger under den første linjen:

La meg kommentere litt på handlingen som ble utført. Notasjonen $II-2\cdot I$ betyr at de tilsvarende elementene i den første raden, tidligere multiplisert med to, ble trukket fra elementene i den andre raden. Denne handlingen kan skrives separat som følger:

Handling $III-7\cdot I$ utføres på nøyaktig samme måte. Hvis det er vanskeligheter med å utføre disse operasjonene, kan de utføres separat (i likhet med handlingen $II-2\cdot I$ vist ovenfor), og resultatet kan deretter legges inn i den utvidede matrisen.

Andre trinn

Ved å bruke den andre linjen tilbakestiller vi elementet i den andre kolonnen som ligger under den andre linjen:

Del den tredje linjen med 5:

Den direkte flyttingen er over. Alle elementer plassert under hoveddiagonalen til matrisen opp til linjen tilbakestilles til null.

Omvendt

Første skritt

Ved å bruke den tredje linjen tilbakestiller vi elementene i den tredje kolonnen som ligger over den tredje linjen:

Før vi går videre til neste trinn, la oss dele den andre linjen med $7$:

Andre trinn

Ved å bruke den andre linjen tilbakestiller vi elementene i den andre kolonnen som ligger over den andre linjen:

Transformasjonene er fullført, den inverse matrisen er funnet ved bruk av Gauss-metoden: $A^(-1)=\left(\begin(array) (ccc) -11/5 & 18/5 & 46/5 \\ 2 & -3 & -8 \ \7/5 & -11/5 & -27/5 \end(array) \right)$. Kontrollen, om nødvendig, kan gjøres på samme måte som i de foregående eksemplene. Hvis du hopper over alle forklaringene, vil løsningen se slik ut:

Svar: $A^(-1)=\left(\begin(array) (ccc) -11/5 & 18/5 & 46/5 \\ 2 & -3 & -8 \\ 7/5 & -11/ 5 og -27/5 \end(array) \right)$.

Eksempel nr. 6

Finn matrisen $A^(-1)$ hvis $A=\left(\begin(array) (cccc) -5 & 4 & 1 & 0 \\ 2 & 3 & -2 & 1 \\ 0 & 7 & -4 & -3 \\ 1 & 4 & 0 & 6 \end(array) \right)$.

For å finne den inverse matrisen i dette eksemplet, vil vi bruke de samme operasjonene som brukes når vi løser systemer av lineære ligninger ved hjelp av Gauss-metoden. Detaljerte forklaringer er gitt i, men her vil vi begrense oss til korte kommentarer. La oss skrive den utvidede matrisen: $\left(\begin(array) (cccc|cccc) -5 & 4 & 1 & 0 & 1 & 0 & 0 & 0 \\ 2 & 3 & -2 & 1 &0 &1&0 &0 \ \ 0 & 7 & -4 & -3 &0 & 0 & 1 & 0\\ 1 & 4 & 0 & 6 &0 &0 & 0 & 1 \end(array) \right)$. La oss bytte den første og fjerde raden i denne matrisen: $\left(\begin(array) (cccc|cccc) 1 & 4 & 0 & 6 &0 &0 & 0 & 1 \\ 2 & 3 & -2 & 1 &0 &1&0 &0 \ \0 & 7 & -4 & -3 &0 & 0 & 1 & 0\\ -5 & 4 & 1 & 0 & 1 & 0 & 0 & 0 \end(array) \right)$.

Rett slag

Fremover konverteringer er fullført. Alle elementer plassert under hoveddiagonalen til matrisen til venstre for linjen tilbakestilles til null.

Omvendt

Den inverse matrisen ble funnet ved bruk av Gauss-metoden, $A^(-1)=\left(\begin(array) (cccc) -13/14 & -75/8 & 31/8 & 7/2 \\ -19 /8 & - 117/16 & 49/16 & 11/4 \\ -23/4 & -141/8 & 57/8 & 13/2 \\ 17/8 & 103/6 & -43/16 & - 9/4 \ end(array)\right)$. Ved behov utfører vi kontrollen på samme måte som i eksempel nr. 2 og nr. 3.

Svar: $A^(-1)=\left(\begin(array) (cccc) -13/14 & -75/8 & 31/8 & 7/2 \\ -19/8 & -117/16 & 49 /16 & 11/4 \\ -23/4 & -141/8 & 57/8 & 13/2 \\ 17/8 & 103/6 & -43/16 & -9/4 \end(array) \ høyre)$.

Eksempel nr. 7

Finn matrisen $A^(-1)$ hvis $A=\left(\begin(array) (ccc) 2 & 3 & 4 \\ 7 & 1 & 9 \\ -4 & 5 & -2 \end( array) \right)$.

For å finne den inverse matrisen bruker vi operasjoner som er karakteristiske for Gauss-Jordan-metoden. Forskjellen fra Gauss-metoden, diskutert i tidligere eksempler og, er at løsningen utføres i ett trinn. La meg minne deg på at Gauss-metoden er delt inn i 2 stadier: forovertrekket ("vi lager" nuller under hoveddiagonalen til matrisen til linjen) og det motsatte trekket (vi tilbakestiller elementene over hoveddiagonalen til matrisen til linjen). For å beregne den inverse matrisen ved hjelp av Gauss-Jordan-metoden er det ikke nødvendig med to løsningstrinn. La oss først lage en utvidet matrise: $(A|E)$:

$$ (A|E)=\left(\begin(array) (ccc|ccc) 2 & 3 & 4 & 1 & 0 & 0\\ 7 & 1 & 9 & 0 & 1 & 0\\ -4 & 5 & ​​​​-2 & 0 & 0 & 1 \end(array) \right) $$

Første skritt

La oss tilbakestille alle elementene i den første kolonnen unntatt én. I den første kolonnen er alle elementer ikke-null, så vi kan velge hvilket som helst element. La oss ta $(-4)$ for eksempel:

Det valgte elementet $(-4)$ er i den tredje linjen, så vi bruker den tredje linjen til å tilbakestille de valgte elementene i den første kolonnen:

La oss gjøre det første elementet i den tredje raden lik én. For å gjøre dette, del elementene i den tredje raden i den utvidede matrisen med $(-4)$:

La oss nå fortsette å nullstille de tilsvarende elementene i den første kolonnen:

I videre trinn vil det ikke lenger være mulig å bruke den tredje linjen, fordi vi allerede har brukt den i første trinn.

Andre trinn

La oss velge et bestemt ikke-null-element i den andre kolonnen og tilbakestille alle andre elementer i den andre kolonnen til null. Vi kan velge ett av to elementer: $\frac(11)(2)$ eller $\frac(39)(4)$. Elementet $\left(-\frac(5)(4) \right)$ kan ikke velges, fordi det ligger i den tredje linjen, som vi brukte i forrige trinn. La oss velge elementet $\frac(11)(2)$, som er på den første linjen. La oss sørge for at i stedet for $\frac(11)(2)$ i den første linjen er det en:

La oss nå tilbakestille de tilsvarende elementene i den andre kolonnen:

Den første linjen kan ikke brukes i videre diskusjoner.

Tredje trinn

Vi må tilbakestille alle elementene i den tredje kolonnen unntatt én. Vi må velge et element som ikke er null i den tredje kolonnen. Vi kan imidlertid ikke ta $\frac(6)(11)$ eller $\frac(13)(11)$ fordi disse elementene er plassert i den første og tredje raden som vi brukte tidligere. Valget er lite: bare elementet $\frac(2)(11)$ gjenstår, som er i den andre linjen. La oss dele alle elementene i den andre linjen med $\frac(2)(11)$:

La oss nå tilbakestille de tilsvarende elementene i den tredje kolonnen:

Transformasjoner ved bruk av Gauss-Jordan-metoden er fullført. Det gjenstår bare å sørge for at matrisen blir enhet opp til linjen. For å gjøre dette må du endre rekkefølgen på linjene. Først, la oss bytte den første og tredje linjen:

$$ \left(\begin(array) (ccc|ccc) 1 & 0 & 0 & 47/4 & -13/2 & -23/4 \\ 0 & 0 & 1 & -39/4 & 11/2 & 19/4 \\ 0 & 1 & 0 & 11/2 & -3 & -5/2 \end(array) \right) $$

La oss nå bytte den andre og tredje linjen:

$$ \left(\begin(array) (ccc|ccc) 1 & 0 & 0 & 47/4 & -13/2 & -23/4 \\ 0 & 1 & 0 & 11/2 & -3 & - 5/2 \\ 0 & 0 & 1 & -39/4 & 11/2 & 19/4 \end(array) \right) $$

Så $A^(-1)=\left(\begin(array) (ccc) 47/4 & -13/2 & -23/4 \\ 11/2 & -3 & -5/2 \\ - 39/4 & 11/2 & 19/4 \end(array) \right)$. Naturligvis kan løsningen utføres på en annen måte, ved å velge elementer plassert på hoveddiagonalen. Dette er vanligvis hva de gjør, fordi i dette tilfellet, på slutten av løsningen, er det ikke nødvendig å bytte linjer. Jeg ga den forrige løsningen for bare ett formål: å vise at valget av linje ved hvert trinn ikke er viktig. Velger du diagonale elementer ved hvert trinn, vil løsningen se slik ut.

Matrisen $A^(-1)$ kalles den inverse av kvadratmatrisen $A$ hvis betingelsen $A^(-1)\cdot A=A\cdot A^(-1)=E$ er oppfylt, hvor $E $ er identitetsmatrisen, hvis rekkefølge er lik rekkefølgen til matrisen $A$.

En ikke-singular matrise er en matrise hvis determinant ikke er lik null. Følgelig er en entallsmatrise en hvis determinant er lik null.

Den inverse matrisen $A^(-1)$ eksisterer hvis og bare hvis matrisen $A$ er ikke-singular. Hvis den inverse matrisen $A^(-1)$ eksisterer, er den unik.

Det er flere måter å finne inversen til en matrise på, og vi skal se på to av dem. Denne siden vil diskutere adjoint matrise-metoden, som regnes som standard i de fleste høyere matematikkkurs. Den andre metoden for å finne den inverse matrisen (metoden for elementære transformasjoner), som innebærer bruk av Gauss-metoden eller Gauss-Jordan-metoden, diskuteres i den andre delen.

Adjoint matrise metode

La matrisen $A_(n\ ganger n)$ gis. For å finne den inverse matrisen $A^(-1)$, kreves det tre trinn:

  1. Finn determinanten til matrisen $A$ og sørg for at $\Delta A\neq 0$, dvs. at matrise A er ikke-singular.
  2. Komponer algebraiske komplementer $A_(ij)$ av hvert element i matrisen $A$ og skriv matrisen $A_(n\ ganger n)^(*)=\left(A_(ij) \right)$ fra den funnet algebraiske utfyller.
  3. Skriv den inverse matrisen ved å ta hensyn til formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$.

Matrisen $(A^(*))^T$ kalles ofte adjoint (resiprok, alliert) til matrisen $A$.

Hvis løsningen gjøres manuelt, er den første metoden god bare for matriser med relativt små ordrer: andre (), tredje (), fjerde (). For å finne inversen til en høyere ordens matrise, brukes andre metoder. For eksempel den gaussiske metoden, som diskuteres i andre del.

Eksempel nr. 1

Finn inversen til matrisen $A=\left(\begin(array) (cccc) 5 & -4 &1 & 0 \\ 12 &-11 &4 & 0 \\ -5 & 58 &4 & 0 \\ 3 & - 1 & -9 & 0 \end(array) \right)$.

Siden alle elementene i den fjerde kolonnen er lik null, er $\Delta A=0$ (dvs. matrisen $A$ er entall). Siden $\Delta A=0$, er det ingen invers matrise til matrise $A$.

Eksempel nr. 2

Finn inversen til matrisen $A=\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right)$.

Vi bruker adjoint matrise-metoden. La oss først finne determinanten til den gitte matrisen $A$:

$$ \Delta A=\venstre| \begin(array) (cc) -5 & 7\\ 9 & 8 \end(array)\right|=-5\cdot 8-7\cdot 9=-103. $$

Siden $\Delta A \neq 0$ eksisterer den inverse matrisen, derfor vil vi fortsette løsningen. Finne algebraiske komplementer

\begin(aligned) & A_(11)=(-1)^2\cdot 8=8; \; A_(12)=(-1)^3\cdot 9=-9;\\ & A_(21)=(-1)^3\cdot 7=-7; \; A_(22)=(-1)^4\cdot (-5)=-5.\\ \end(justert)

Vi komponerer en matrise med algebraiske tillegg: $A^(*)=\left(\begin(array) (cc) 8 & -9\\ -7 & -5 \end(array)\right)$.

Vi transponerer den resulterende matrisen: $(A^(*))^T=\left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right)$ (den resulterende matrise kalles ofte den adjoint eller allierte matrisen til matrisen $A$). Ved å bruke formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, har vi:

$$ A^(-1)=\frac(1)(-103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right) =\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right) $$

Så den inverse matrisen er funnet: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array )\right) $. For å sjekke sannheten til resultatet er det nok å sjekke sannheten til en av likhetene: $A^(-1)\cdot A=E$ eller $A\cdot A^(-1)=E$. La oss sjekke likheten $A^(-1)\cdot A=E$. For å jobbe mindre med brøker, vil vi erstatte matrisen $A^(-1)$ ikke i formen $\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \ end(array)\right)$, og i formen $-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array )\right)$:

Svar: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right)$.

Eksempel nr. 3

Finn den inverse matrisen for matrisen $A=\left(\begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right)$ .

La oss starte med å beregne determinanten til matrisen $A$. Så determinanten for matrisen $A$ er:

$$ \Delta A=\venstre| \begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right| = 18-36+56-12=26. $$

Siden $\Delta A\neq 0$ eksisterer den inverse matrisen, derfor vil vi fortsette løsningen. Vi finner de algebraiske komplementene til hvert element i en gitt matrise:

Vi komponerer en matrise med algebraiske tillegg og transponerer den:

$$ A^*=\left(\begin(array) (ccc) 6 & 8 & -12 \\ -5 & 2 & -3 \\ 1 & -16 & 37\end(array) \right); \; (A^*)^T=\left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right) $$

Ved å bruke formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, får vi:

$$ A^(-1)=\frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & - 3 & 37\end(array) \right)= \left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \ \ -6/13 & -3/26 & 37/26 \end(array) \right) $$

Så $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ - 6 /13 & -3/26 & 37/26 \end(array) \right)$. For å sjekke sannheten til resultatet er det nok å sjekke sannheten til en av likhetene: $A^(-1)\cdot A=E$ eller $A\cdot A^(-1)=E$. La oss sjekke likheten $A\cdot A^(-1)=E$. For å jobbe mindre med brøker, vil vi erstatte matrisen $A^(-1)$ ikke i formen $\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \ \ 4/13 & 1/13 & -8/13 \\ -6/13 & -3/26 & 37/26 \end(array) \right)$, og i formen $\frac(1)(26 )\cdot \left( \begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right)$:

Kontrollen var vellykket, den inverse matrisen $A^(-1)$ ble funnet riktig.

Svar: $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ -6 /13 & -3/26 & 37/26 \end(array) \right)$.

Eksempel nr. 4

Finn matriseinversen til matrisen $A=\left(\begin(array) (cccc) 6 & -5 & 8 & 4\\ 9 & 7 & 5 & 2 \\ 7 & 5 & 3 & 7\\ -4 & 8 & -8 & -3 \end(array) \right)$.

For en fjerdeordens matrise er det noe vanskelig å finne den inverse matrisen ved å bruke algebraiske addisjoner. Imidlertid forekommer slike eksempler i testoppgaver.

For å finne inversen til en matrise, må du først beregne determinanten til matrisen $A$. Den beste måten å gjøre dette på i denne situasjonen er ved å dekomponere determinanten langs en rad (kolonne). Vi velger en hvilken som helst rad eller kolonne og finner de algebraiske komplementene til hvert element i den valgte raden eller kolonnen.

Metoder for å finne den inverse matrisen, . Tenk på en kvadratisk matrise

La oss betegne Δ =det A.

Kvadratmatrisen A kalles ikke-degenerert, eller ikke spesielt, hvis determinanten ikke er null, og degenerert, eller spesiell, HvisΔ = 0.

En kvadratisk matrise B er for en kvadratisk matrise A av samme rekkefølge hvis produktet deres er A B = B A = E, der E er identitetsmatrisen av samme rekkefølge som matrisene A og B.

Teorem . For at matrise A skal ha en invers matrise, er det nødvendig og tilstrekkelig at dens determinant er forskjellig fra null.

Den inverse matrisen til matrise A, betegnet med A- 1, så B = A - 1 og beregnes med formelen

, (1)

hvor A i j er algebraiske komplementer av elementene a i j av matrise A..

Å beregne A -1 ved hjelp av formel (1) for matriser av høy orden er svært arbeidskrevende, så i praksis er det praktisk å finne A -1 ved å bruke metoden for elementære transformasjoner (ET). Enhver ikke-singular matrise A kan reduseres til identitetsmatrisen E ved å bruke bare kolonnene (eller bare radene) på identitetsmatrisen Hvis transformasjonene perfekt over matrisen A brukes i samme rekkefølge på identitetsmatrisen E. resultatet vil være en invers matrise. Det er praktisk å utføre EP på matrisene A og E samtidig, og skrive begge matrisene side om side gjennom en linje. La oss merke igjen at når du søker etter den kanoniske formen til en matrise, for å finne den, kan du bruke transformasjoner av rader og kolonner. Hvis du trenger å finne inversen til en matrise, bør du bare bruke rader eller bare kolonner under transformasjonsprosessen.

Eksempel 2.10. For matrise finn A -1.

Løsning.Først finner vi determinanten til matrise A
Dette betyr at den inverse matrisen eksisterer, og vi kan finne den ved å bruke formelen: , hvor A i j (i,j=1,2,3) er algebraiske addisjoner av elementene a i j av den opprinnelige matrisen.

Hvor .

Eksempel 2.11. Bruk metoden for elementære transformasjoner, finn A -1 for matrisen: A = .

Løsning.Vi tildeler den opprinnelige matrisen til høyre en identitetsmatrise av samme rekkefølge: . Ved å bruke elementære transformasjoner av kolonnene, vil vi redusere den venstre "halvdelen" til enhet en, samtidig utføre nøyaktig de samme transformasjonene på høyre matrise.
For å gjøre dette, bytt den første og andre kolonnen:
~ . Til den tredje kolonnen legger vi til den første, og til den andre - den første, multiplisert med -2: . Fra den første kolonnen trekker vi den andre doblet, og fra den tredje - den andre multiplisert med 6; . La oss legge til den tredje kolonnen til den første og andre: . Multipliser den siste kolonnen med -1: . Den kvadratiske matrisen til høyre for den vertikale stolpen er den inverse matrisen til den gitte matrisen A. Så,
.

Dette emnet er et av de mest hatede blant studenter. Verre er nok kvalifiseringen.

Trikset er at selve konseptet med et inverst element (og jeg snakker ikke bare om matriser) refererer oss til operasjonen av multiplikasjon. Selv i skolens pensum betraktes multiplikasjon som en kompleks operasjon, og matrisemultiplikasjon er generelt sett et eget emne, som jeg har dedikert en hel avsnitt og en videoleksjon til.

I dag vil vi ikke gå inn på detaljene i matriseberegninger. La oss bare huske: hvordan matriser er utpekt, hvordan de multipliseres, og hva som følger av dette.

Gjennomgang: Matrisemultiplikasjon

Først av alt, la oss bli enige om notasjon. En matrise $A$ av størrelsen $\left[ m\times n \right]$ er ganske enkelt en talltabell med nøyaktig $m$ rader og $n$ kolonner:

\=\underbrace(\venstre[ \begin(matrise) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrise) \right])_(n)\]

For å unngå å blande rader og kolonner ved et uhell (tro meg, i en eksamen kan du forveksle en en med en to, enn si noen rader), bare se på bildet:

Bestemme indekser for matriseceller

Hva skjer? Hvis du plasserer standard koordinatsystemet $OXY$ i øvre venstre hjørne og dirigerer aksene slik at de dekker hele matrisen, så kan hver celle i denne matrisen assosieres unikt med koordinatene $\left(x;y \right)$ - dette vil være radnummer og kolonnenummer.

Hvorfor er koordinatsystemet plassert i øvre venstre hjørne? Ja, for det er derfra vi begynner å lese tekster. Det er veldig lett å huske.

Hvorfor er $x$-aksen rettet nedover og ikke til høyre? Igjen, det er enkelt: ta et standard koordinatsystem ($x$-aksen går til høyre, $y$-aksen går opp) og roter det slik at det dekker matrisen. Dette er en 90 graders rotasjon med klokken – vi ser resultatet på bildet.

Generelt har vi funnet ut hvordan vi bestemmer indeksene til matriseelementer. La oss nå se på multiplikasjon.

Definisjon. Matriser $A=\venstre[ m\ ganger n \right]$ og $B=\venstre[ n\ ganger k \right]$, når antall kolonner i den første sammenfaller med antall rader i den andre, er kalt konsekvent.

Akkurat i den rekkefølgen. Man kan bli forvirret og si at matrisene $A$ og $B$ danner et ordnet par $\left(A;B \right)$: hvis de er konsistente i denne rekkefølgen, er det slett ikke nødvendig at $B $ og $A$ disse. paret $\left(B;A \right)$ er også konsistent.

Bare matchede matriser kan multipliseres.

Definisjon. Produktet av matchede matriser $A=\venstre[ m\ ganger n \høyre]$ og $B=\venstre[ n\ ganger k \høyre]$ er den nye matrisen $C=\venstre[ m\ ganger k \høyre ]$ , elementene som $((c)_(ij))$ beregnes i henhold til formelen:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Med andre ord: for å få elementet $((c)_(ij))$ i matrisen $C=A\cdot B$, må du ta $i$-raden til den første matrisen, $j$ -th kolonne i den andre matrisen, og multipliser deretter i par elementer fra denne raden og kolonnen. Legg sammen resultatene.

Ja, det er en så tøff definisjon. Flere fakta følger umiddelbart av det:

  1. Matrisemultiplikasjon er generelt sett ikke-kommutativ: $A\cdot B\ne B\cdot A$;
  2. Imidlertid er multiplikasjon assosiativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Og til og med distributivt: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Og nok en gang distributivt: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Distributiviteten til multiplikasjon måtte beskrives separat for venstre og høyre sumfaktor nettopp på grunn av ikke-kommutativiteten til multiplikasjonsoperasjonen.

Hvis det viser seg at $A\cdot B=B\cdot A$, kalles slike matriser kommutative.

Blant alle matrisene som multipliseres med noe der, er det spesielle - de som, når de multipliseres med en hvilken som helst matrise $A$, igjen gir $A$:

Definisjon. En matrise $E$ kalles identitet hvis $A\cdot E=A$ eller $E\cdot A=A$. I tilfellet med en kvadratisk matrise $A$ kan vi skrive:

Identitetsmatrisen er en hyppig gjest når man løser matriseligninger. Og generelt en hyppig gjest i matrisens verden :)

Og på grunn av denne $E$ kom noen på alt tullet som skal skrives neste gang.

Hva er en invers matrise

Siden matrisemultiplikasjon er en veldig arbeidskrevende operasjon (du må multiplisere en haug med rader og kolonner), viser konseptet med en invers matrise seg heller ikke å være det mest trivielle. Og krever litt forklaring.

Nøkkeldefinisjon

Vel, det er på tide å vite sannheten.

Definisjon. En matrise $B$ kalles den inverse av en matrise $A$ if

Den inverse matrisen er betegnet med $((A)^(-1))$ (ikke å forveksle med graden!), så definisjonen kan skrives om som følger:

Det ser ut til at alt er ekstremt enkelt og klart. Men når man analyserer denne definisjonen, oppstår det umiddelbart flere spørsmål:

  1. Finnes det alltid en invers matrise? Og hvis ikke alltid, hvordan bestemme: når det eksisterer og når det ikke finnes?
  2. Og hvem sa at det finnes akkurat en slik matrise? Hva om det for en startmatrise $A$ er en hel mengde inverser?
  3. Hvordan ser alle disse "reversene" ut? Og nøyaktig hvordan skal vi telle dem?

Når det gjelder beregningsalgoritmer, vil vi snakke om dette litt senere. Men vi vil svare på de resterende spørsmålene akkurat nå. La oss formulere dem i form av separate utsagn-lemmas.

Grunnleggende egenskaper

La oss starte med hvordan matrisen $A$ i prinsippet skal se ut for at $((A)^(-1))$ skal eksistere for den. Nå skal vi sørge for at begge disse matrisene må være kvadratiske, og av samme størrelse: $\left[ n\ ganger n \right]$.

Lemma 1. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er begge disse matrisene kvadratiske, og av samme orden $n$.

Bevis. Det er enkelt. La matrisen $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ a\ ganger b \høyre]$. Siden produktet $A\cdot ((A)^(-1))=E$ eksisterer per definisjon, er matrisene $A$ og $((A)^(-1))$ konsistente i rekkefølgen som vises:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( tilpasse)\]

Dette er en direkte konsekvens av: koeffisientene $n$ og $a$ er "transit" og må være like.

Samtidig er den inverse multiplikasjonen også definert: $((A)^(-1))\cdot A=E$, derfor er matrisene $((A)^(-1))$ og $A$ også konsekvent i den angitte rekkefølgen:

\[\begin(align) & \venstre[ a\ ganger b \høyre]\cdot \venstre[ m\ ganger n \høyre]=\venstre[ a\ganger n \høyre] \\ & b=m \end( tilpasse)\]

Dermed, uten tap av generalitet, kan vi anta at $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ n\ ganger m \høyre]$. Imidlertid, i henhold til definisjonen av $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, er derfor størrelsene på matrisene strengt tatt sammen:

\[\begin(align) & \venstre[ m\ ganger n \høyre]=\venstre[ n\ ganger m \høyre] \\ & m=n \end(align)\]

Så det viser seg at alle tre matrisene - $A$, $((A)^(-1))$ og $E$ - er kvadratiske matriser av størrelsen $\venstre[ n\ ganger n \høyre]$. Lemmaet er bevist.

Vel, det er allerede bra. Vi ser at bare kvadratiske matriser er inverterbare. La oss nå sørge for at den inverse matrisen alltid er den samme.

Lemma 2. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er denne inverse matrisen den eneste.

Bevis. La oss gå etter selvmotsigelse: la matrisen $A$ ha minst to inverser - $B$ og $C$. Da, ifølge definisjonen, er følgende likheter sanne:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Fra Lemma 1 konkluderer vi med at alle fire matrisene - $A$, $B$, $C$ og $E$ - er kvadrater av samme rekkefølge: $\left[ n\ ganger n \right]$. Derfor er produktet definert:

Siden matrisemultiplikasjon er assosiativ (men ikke kommutativ!), kan vi skrive:

\[\begin(align) & B\cdot A\cdot C=\venstre(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \venstre(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Høyrepil B=C. \\ \end(align)\]

Vi har det eneste mulige alternativet: to kopier av den inverse matrisen er like. Lemmaet er bevist.

Argumentene ovenfor gjentar nesten ordrett beviset på unikheten til det inverse elementet for alle reelle tall $b\ne 0$. Det eneste signifikante tillegget er å ta hensyn til dimensjonen til matriser.

Imidlertid vet vi fortsatt ikke noe om hver kvadratisk matrise er inverterbar. Her kommer determinanten til hjelp - dette er en nøkkelegenskap for alle kvadratiske matriser.

Lemma 3. Gitt en matrise $A$. Hvis dens inverse matrise $((A)^(-1))$ eksisterer, så er determinanten til den opprinnelige matrisen ikke null:

\[\venstre| A\høyre|\ne 0\]

Bevis. Vi vet allerede at $A$ og $((A)^(-1))$ er kvadratiske matriser med størrelsen $\left[ n\ ganger n \right]$. Derfor kan vi beregne determinanten for hver av dem: $\left| A\høyre|$ og $\venstre| ((A)^(-1)) \right|$. Imidlertid er determinanten til et produkt lik produktet av determinantene:

\[\venstre| A\cdot B \right|=\venstre| En \høyre|\cdot \venstre| B \høyre|\Høyrepil \venstre| A\cdot ((A)^(-1)) \right|=\venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|\]

Men ifølge definisjonen er $A\cdot ((A)^(-1))=E$, og determinanten til $E$ alltid lik 1, så

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \venstre| A\cdot ((A)^(-1)) \right|=\venstre| E\høyre|; \\ & \venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|=1. \\ \end(align)\]

Produktet av to tall er lik én bare hvis hvert av disse tallene ikke er null:

\[\venstre| En \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Så det viser seg at $\venstre| En \right|\ne 0$. Lemmaet er bevist.

Faktisk er dette kravet ganske logisk. Nå skal vi analysere algoritmen for å finne den inverse matrisen – og det vil bli helt klart hvorfor, med en nulldeterminant, ingen invers matrise i prinsippet kan eksistere.

Men først, la oss formulere en "hjelpe" definisjon:

Definisjon. En entallsmatrise er en kvadratisk matrise med størrelsen $\venstre[ n\ ganger n \høyre]$ hvis determinant er null.

Dermed kan vi hevde at hver inverterbar matrise er ikke-entall.

Hvordan finne inversen til en matrise

Nå skal vi vurdere en universell algoritme for å finne inverse matriser. Generelt er det to allment aksepterte algoritmer, og vi vil også vurdere den andre i dag.

Den som vil bli diskutert nå er veldig effektiv for matriser med størrelse $\venstre[ 2\ ganger 2 \høyre]$ og - delvis - størrelse $\venstre[ 3\ ganger 3 \høyre]$. Men fra størrelsen $\left[ 4\times 4 \right]$ er det bedre å ikke bruke det. Hvorfor - nå vil du forstå alt selv.

Algebraiske tillegg

Gjør deg klar. Nå blir det smerte. Nei, ikke bekymre deg: en vakker sykepleier i et skjørt, strømper med blonder vil ikke komme til deg og gi deg en injeksjon i baken. Alt er mye mer prosaisk: algebraiske tillegg og Hennes Majestet "Union Matrix" kommer til deg.

La oss starte med det viktigste. La det være en kvadratisk matrise med størrelsen $A=\venstre[ n\ ganger n \høyre]$, hvis elementer kalles $((a)_(ij))$. Så for hvert slikt element kan vi definere et algebraisk komplement:

Definisjon. Algebraisk komplement $((A)_(ij))$ til elementet $((a)_(ij))$ plassert i $i$th rad og $j$th kolonne i matrisen $A=\left[ n \times n \right]$ er en konstruksjon av formen

\[((A)_(ij))=((\venstre(-1 \høyre))^(i+j))\cdot M_(ij)^(*)\]

Hvor $M_(ij)^(*)$ er determinanten for matrisen hentet fra den opprinnelige $A$ ved å slette den samme $i$th rad og $j$th kolonne.

En gang til. Det algebraiske komplementet til et matriseelement med koordinatene $\left(i;j \right)$ er betegnet som $((A)_(ij))$ og beregnes i henhold til skjemaet:

  1. Først sletter vi $i$-raden og $j$-th-kolonnen fra den opprinnelige matrisen. Vi får en ny kvadratisk matrise, og vi betegner dens determinant som $M_(ij)^(*)$.
  2. Deretter multipliserer vi denne determinanten med $((\left(-1 \right))^(i+j))$ - til å begynne med kan dette uttrykket virke overveldende, men i hovedsak finner vi ganske enkelt ut tegnet foran $M_(ij)^(*) $.
  3. Vi teller og får et bestemt tall. De. den algebraiske addisjonen er nettopp et tall, og ikke en ny matrise osv.

Matrisen $M_(ij)^(*)$ i seg selv kalles en tilleggsmoll til elementet $((a)_(ij))$. Og i denne forstand er definisjonen ovenfor av et algebraisk komplement et spesialtilfelle av en mer kompleks definisjon - det vi så på i leksjonen om determinanten.

Viktig notat. Faktisk, i "voksen" matematikk, er algebraiske tillegg definert som følger:

  1. Vi tar $k$ rader og $k$ kolonner i en kvadratisk matrise. I skjæringspunktet deres får vi en matrise med størrelsen $\venstre[ k\ ganger k \right]$ - dens determinant kalles en minor av orden $k$ og er betegnet $((M)_(k))$.
  2. Så krysser vi ut disse "valgte" $k$-radene og $k$-kolonnene. Nok en gang får du en kvadratisk matrise - dens determinant kalles en ekstra moll og er betegnet $M_(k)^(*)$.
  3. Multipliser $M_(k)^(*)$ med $((\left(-1 \right))^(t))$, der $t$ er (merk nå!) summen av tallene for alle valgte rader og kolonner. Dette vil være det algebraiske tillegget.

Se på det tredje trinnet: det er faktisk en sum på $2k$ vilkår! En annen ting er at for $k=1$ vil vi bare få 2 ledd - disse vil være de samme $i+j$ - "koordinatene" til elementet $((a)_(ij))$ som vi er for ser etter et algebraisk komplement.

Så i dag bruker vi en litt forenklet definisjon. Men som vi skal se senere, blir det mer enn nok. Følgende ting er mye viktigere:

Definisjon. Den allierte matrisen $S$ til kvadratmatrisen $A=\venstre[ n\ ganger n \right]$ er en ny matrise med størrelsen $\left[ n\ ganger n \right]$, som er hentet fra $A$ ved å erstatte $(( a)_(ij))$ med algebraiske tillegg $((A)_(ij))$:

\\Høyrepil S=\venstre[ \begin(matrise) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrise) \right]\]

Den første tanken som dukker opp i øyeblikket av å realisere denne definisjonen er "hvor mye må telles!" Slapp av: du må telle, men ikke så mye :)

Vel, alt dette er veldig hyggelig, men hvorfor er det nødvendig? Men hvorfor.

Hovedteorem

La oss gå litt tilbake. Husk, i Lemma 3 ble det oppgitt at den inverterbare matrisen $A$ alltid er ikke-singular (det vil si at dens determinant er ikke-null: $\left| A \right|\ne 0$).

Så det motsatte er også sant: hvis matrisen $A$ ikke er entall, så er den alltid inverterbar. Og det er til og med et søkeskjema for $((A)^(-1))$. Sjekk det ut:

Invers matriseteorem. La en kvadratisk matrise $A=\venstre[ n\ ganger n \right]$ gis, og dens determinant er ikke null: $\left| En \right|\ne 0$. Da eksisterer den inverse matrisen $((A)^(-1))$ og beregnes med formelen:

\[((A)^(-1))=\frac(1)(\venstre| A \høyre|)\cdot ((S)^(T))\]

Og nå - alt er det samme, men i lesbar håndskrift. For å finne den inverse matrisen trenger du:

  1. Beregn determinanten $\left| A \right|$ og sørg for at den ikke er null.
  2. Konstruer unionsmatrisen $S$, dvs. tell 100500 algebraiske tillegg $((A)_(ij))$ og plasser dem på plass $((a)_(ij))$.
  3. Transponer denne matrisen $S$, og multipliser den med et tall $q=(1)/(\left| A \right|)\;$.

Det er alt! Den inverse matrisen $((A)^(-1))$ er funnet. La oss se på eksempler:

\[\venstre[ \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right]\]

Løsning. La oss sjekke reversibiliteten. La oss beregne determinanten:

\[\venstre| A\høyre|=\venstre| \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Determinanten er forskjellig fra null. Dette betyr at matrisen er inverterbar. La oss lage en fagforeningsmatrise:

La oss beregne de algebraiske addisjonene:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \right|=2; \\ & ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| 5 \right|=-5; \\ & ((A)_(21))=((\venstre(-1 \høyre))^(2+1))\cdot \venstre| 1 \right|=-1; \\ & ((A)_(22))=((\venstre(-1 \høyre))^(2+2))\cdot \venstre| 3\høyre|=3. \\ \end(align)\]

Vær oppmerksom på: determinantene |2|, |5|, |1| og |3| er determinanter for matriser med størrelse $\venstre[ 1\ ganger 1 \høyre]$, og ikke moduler. De. Hvis det var negative tall i determinantene, er det ikke nødvendig å fjerne "minus".

Totalt ser fagforeningsmatrisen vår slik ut:

\[((A)^(-1))=\frac(1)(\venstre| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\venstre[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\venstre[ \begin (matrise)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(matrise) \right]\]

OK, det er over nå. Problemet er løst.

Svar. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Løsning. Vi beregner determinanten igjen:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrise) ) \venstre(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\venstre (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrise)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Determinanten er ikke null - matrisen er inverterbar. Men nå kommer det til å bli veldig tøft: vi må telle så mange som 9 (ni, jævla!) algebraiske tillegg. Og hver av dem vil inneholde determinanten $\venstre[ 2\ ganger 2 \right]$. Fløy:

\[\begin(matrise) ((A)_(11))=((\venstre(-1 \høyre))^(1+1))\cdot \venstre| \begin(matrise) 2 & -1 \\ 0 & 1 \\\end(matrise) \right|=2; \\ ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| \begin(matrise) 0 & -1 \\ 1 & 1 \\\end(matrise) \right|=-1; \\ ((A)_(13))=((\venstre(-1 \høyre))^(1+3))\cdot \venstre| \begin(matrise) 0 & 2 \\ 1 & 0 \\\end(matrise) \right|=-2; \\ ... \\ ((A)_(33))=((\venstre(-1 \høyre))^(3+3))\cdot \venstre| \begin(matrise) 1 & -1 \\ 0 & 2 \\\end(matrise) \right|=2; \\ \end(matrise)\]

Kort fortalt vil fagforeningsmatrisen se slik ut:

Derfor vil den inverse matrisen være:

\[((A)^(-1))=\frac(1)(-1)\cdot \venstre[ \begin(matrise) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrise) \right]=\venstre[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Det er det. Her er svaret.

Svar. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Som du kan se, utførte vi en sjekk på slutten av hvert eksempel. I denne forbindelse, en viktig merknad:

Ikke vær lat med å sjekke. Multipliser den opprinnelige matrisen med den funnet inverse matrisen - du bør få $E$.

Å utføre denne kontrollen er mye enklere og raskere enn å lete etter en feil i videre beregninger når du for eksempel skal løse en matriseligning.

Alternativ måte

Som jeg sa, den inverse matriseteoremet fungerer utmerket for størrelsene $\venstre[ 2\ ganger 2 \høyre]$ og $\venstre[ 3\ ganger 3 \høyre]$ (i sistnevnte tilfelle er det ikke så "flott" " ), men for større matriser begynner tristheten.

Men ikke bekymre deg: det finnes en alternativ algoritme som du kan finne inversen rolig med selv for matrisen $\left[ 10\times 10 \right]$. Men, som ofte skjer, trenger vi en liten teoretisk introduksjon for å vurdere denne algoritmen.

Elementære transformasjoner

Blant alle mulige matrisetransformasjoner er det flere spesielle - de kalles elementære. Det er nøyaktig tre slike transformasjoner:

  1. Multiplikasjon. Du kan ta $i$th rad (kolonne) og multiplisere den med et hvilket som helst tall $k\ne 0$;
  2. Addisjon. Legg til $i$-th rad (kolonne) en hvilken som helst annen $j$-th rad (kolonne), multiplisert med et hvilket som helst tall $k\ne 0$ (du kan selvfølgelig gjøre $k=0$, men hva er poenget? Ingenting vil endre seg).
  3. Omorganisering. Ta $i$th og $j$th radene (kolonner) og bytt plass.

Hvorfor disse transformasjonene kalles elementære (for store matriser ser de ikke så elementære ut) og hvorfor det bare er tre av dem - disse spørsmålene er utenfor rammen av dagens leksjon. Derfor vil vi ikke gå i detaljer.

En annen ting er viktig: vi må utføre alle disse perversjonene på den tilstøtende matrisen. Ja, ja: du hørte riktig. Nå blir det en definisjon til - den siste i dagens leksjon.

Sammenhengende matrise

Sikkert på skolen løste du likningssystemer ved hjelp av addisjonsmetoden. Vel, der, trekk en annen fra en linje, multipliser en linje med et tall - det er alt.

Så: nå vil alt være det samme, men på en "voksen" måte. Klar?

Definisjon. La en matrise $A=\venstre[ n\ ganger n \right]$ og en identitetsmatrise $E$ av samme størrelse $n$ gis. Deretter den tilstøtende matrisen $\venstre[ A\venstre| E\rett. \right]$ er en ny matrise med størrelsen $\left[ n\ ganger 2n \right]$ som ser slik ut:

\[\venstre[ A\venstre| E\rett. \right]=\venstre[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kort sagt, vi tar matrisen $A$, til høyre tildeler vi den identitetsmatrisen $E$ av den nødvendige størrelsen, vi skiller dem med en vertikal strek for skjønnhet - her har du adjoint.

Hva er fangsten? Her er hva:

Teorem. La matrisen $A$ være inverterbar. Tenk på den tilstøtende matrisen $\venstre[ A\venstre| E\rett. \right]$. Hvis du bruker elementære strengkonverteringer bringe den til formen $\left[ E\left| Lys. \right]$, dvs. ved å multiplisere, subtrahere og omorganisere rader for å få fra $A$ matrisen $E$ til høyre, så er matrisen $B$ oppnådd til venstre den inverse av $A$:

\[\venstre[ A\venstre| E\rett. \høyre]\til \venstre[ E\venstre| Lys. \right]\Høyrepil B=((A)^(-1))\]

Så enkelt er det! Kort sagt, algoritmen for å finne den inverse matrisen ser slik ut:

  1. Skriv den tilstøtende matrisen $\venstre[ A\venstre| E\rett. \right]$;
  2. Utfør elementære strengkonverteringer til $E$ vises i stedet for $A$;
  3. Selvfølgelig vil det også dukke opp noe til venstre - en viss matrise $B$. Dette vil være motsatt;
  4. PROFITT!:)

Dette er selvfølgelig mye lettere sagt enn gjort. Så la oss se på et par eksempler: for størrelsene $\venstre[ 3\ ganger 3 \høyre]$ og $\venstre[ 4\ ganger 4 \høyre]$.

Oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Løsning. Vi lager den tilstøtende matrisen:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Siden den siste kolonnen i den opprinnelige matrisen er fylt med enere, trekker du den første raden fra resten:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\\end(matrise)\to \\ & \to \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Det er ingen flere enheter, bortsett fra den første linjen. Men vi rører det ikke, ellers vil de nylig fjernede enhetene begynne å "multipiseres" i den tredje kolonnen.

Men vi kan trekke den andre linjen to ganger fra den siste - vi får en i nedre venstre hjørne:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrise) \ \\ \nedoverpil \\ -2 \\\end(matrise)\to \\ & \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Nå kan vi trekke den siste raden fra den første og to ganger fra den andre - på denne måten "nuller" vi den første kolonnen:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -1 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \ til \venstre[ \begin(matrise)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multipliser den andre linjen med −1, og trekk den 6 ganger fra den første og legg til 1 gang til den siste:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -6 \\ \updownarrow \\ +1 \\\end (matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Alt som gjenstår er å bytte linje 1 og 3:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Klar! Til høyre er den nødvendige inverse matrisen.

Svar. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Oppgave. Finn den inverse matrisen:

\[\venstre[ \begin(matrise) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrise) \right]\]

Løsning. Vi komponerer adjunkten igjen:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

La oss gråte litt, være triste over hvor mye vi må telle nå... og begynne å telle. Først, la oss "nullstille" den første kolonnen ved å trekke rad 1 fra rad 2 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Vi ser for mange "ulemper" i linje 2-4. Multipliser alle tre radene med −1, og brenn deretter ut den tredje kolonnen ved å trekke rad 3 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(matrise) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (matrise) \right]\begin(matrise) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrise)\to \\ & \to \left[ \begin(array)( rrrr|. 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Nå er tiden inne for å "steke" den siste kolonnen i den opprinnelige matrisen: trekk rad 4 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrise) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Siste kast: "brenn ut" den andre kolonnen ved å trekke linje 2 fra linje 1 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrise) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Og igjen er identitetsmatrisen til venstre, noe som betyr at den omvendte er til høyre :)

Svar. $\left[ \begin(matrise) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrise) \right]$