Invers matrise hvordan løse eksempler. invers matrise

Dette emnet er et av de mest hatede blant studenter. Verre, sannsynligvis, bare determinanter.

Trikset er at selve konseptet med det inverse elementet (og jeg snakker ikke bare om matriser nå) refererer oss til operasjonen av multiplikasjon. Selv i skolens læreplan betraktes multiplikasjon som en kompleks operasjon, og matrisemultiplikasjon er generelt et eget emne, som jeg har et helt avsnitt og en videoleksjon viet til det.

I dag vil vi ikke gå inn på detaljene i matriseberegninger. Bare husk: hvordan matriser betegnes, hvordan de multipliseres og hva som følger av dette.

Gjennomgang: Matrisemultiplikasjon

Først av alt, la oss bli enige om notasjon. En matrise $A$ av størrelsen $\left[ m\times n \right]$ er ganske enkelt en talltabell med nøyaktig $m$ rader og $n$ kolonner:

\=\underbrace(\venstre[ \begin(matrise) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrise) \right])_(n)\]

For ikke å forveksle rader og kolonner ved et uhell på steder (tro meg, i eksamen kan du forveksle en med en toer - hva kan vi si om noen linjer der), bare ta en titt på bildet:

Bestemmelse av indekser for matriseceller

Hva skjer? Hvis vi plasserer standardkoordinatsystemet $OXY$ i øvre venstre hjørne og dirigerer aksene slik at de dekker hele matrisen, så kan hver celle i denne matrisen assosieres unikt med koordinatene $\left(x;y \right) $ - dette vil være radnummeret og kolonnenummeret.

Hvorfor er koordinatsystemet plassert nøyaktig i øvre venstre hjørne? Ja, for det er derfra vi begynner å lese tekster. Det er veldig lett å huske.

Hvorfor peker $x$-aksen ned og ikke til høyre? Igjen, det er enkelt: ta standard koordinatsystemet ($x$-aksen går til høyre, $y$-aksen går opp) og roter den slik at den omslutter matrisen. Dette er en 90 graders rotasjon med klokken - vi ser resultatet på bildet.

Generelt fant vi ut hvordan vi skulle bestemme indeksene til matriseelementene. La oss nå ta for oss multiplikasjon.

Definisjon. Matrisene $A=\venstre[ m\ ganger n \right]$ og $B=\left[ n\ ganger k \right]$, når antall kolonner i den første samsvarer med antall rader i den andre, er kalt konsekvent.

Det er i den rekkefølgen. Man kan være tvetydig og si at matrisene $A$ og $B$ danner et ordnet par $\left(A;B \right)$: hvis de er konsistente i denne rekkefølgen, så er det slett ikke nødvendig at $B $ og $A$, de. paret $\left(B;A \right)$ er også konsistent.

Bare konsistente matriser kan multipliseres.

Definisjon. Produktet av konsistente matriser $A=\venstre[ m\ ganger n \høyre]$ og $B=\venstre[ n\ ganger k \høyre]$ er den nye matrisen $C=\venstre[ m\ ganger k \høyre ]$ , hvis elementer $((c)_(ij))$ beregnes med formelen:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Med andre ord: for å få elementet $((c)_(ij))$ i matrisen $C=A\cdot B$, må du ta $i$-raden til den første matrisen, $j$ -th kolonne i den andre matrisen, og multipliser deretter i par elementer fra denne raden og kolonnen. Legg sammen resultatene.

Ja, det er en hard definisjon. Flere fakta følger umiddelbart av det:

  1. Matrisemultiplikasjon er generelt sett ikke-kommutativ: $A\cdot B\ne B\cdot A$;
  2. Imidlertid er multiplikasjon assosiativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Og til og med distributiv: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Og distributivt igjen: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Distributiviteten til multiplikasjon måtte beskrives separat for venstre og høyre multiplikasjonssum bare på grunn av ikke-kommutativiteten til multiplikasjonsoperasjonen.

Hvis det likevel viser seg at $A\cdot B=B\cdot A$, kalles slike matriser permutable.

Blant alle matrisene som multipliseres med noe der, er det spesielle - de som, når de multipliseres med en hvilken som helst matrise $A$, igjen gir $A$:

Definisjon. En matrise $E$ kalles identitet hvis $A\cdot E=A$ eller $E\cdot A=A$. I tilfellet med en kvadratisk matrise $A$ kan vi skrive:

Identitetsmatrisen er en hyppig gjest i å løse matriseligninger. Og generelt, en hyppig gjest i matrisens verden. :)

Og på grunn av denne $E$, kom noen opp med alt spillet som skal skrives neste gang.

Hva er en invers matrise

Siden matrisemultiplikasjon er en veldig tidkrevende operasjon (du må multiplisere en haug med rader og kolonner), er konseptet med en invers matrise heller ikke det mest trivielle. Og det trenger litt forklaring.

Nøkkeldefinisjon

Vel, det er på tide å vite sannheten.

Definisjon. Matrisen $B$ kalles den inverse av matrisen $A$ if

Den inverse matrisen er betegnet med $((A)^(-1))$ (ikke å forveksle med graden!), så definisjonen kan skrives om slik:

Det ser ut til at alt er ekstremt enkelt og klart. Men når man analyserer en slik definisjon, oppstår det umiddelbart flere spørsmål:

  1. Finnes det alltid en invers matrise? Og hvis ikke alltid, hvordan bestemme: når det eksisterer og når det ikke finnes?
  2. Og hvem sa at en slik matrise er nøyaktig en? Hva om det for en original matrise $A$ er en hel mengde inverser?
  3. Hvordan ser alle disse "reversene" ut? Og hvordan teller du dem egentlig?

Når det gjelder beregningsalgoritmene - vi vil snakke om dette litt senere. Men vi vil svare på resten av spørsmålene nå. La oss ordne dem i form av separate påstandslemmaer.

Grunnleggende egenskaper

La oss starte med hvordan matrisen $A$ skal se ut for at den skal ha $((A)^(-1))$. Nå skal vi sørge for at begge disse matrisene må være kvadratiske og av samme størrelse: $\left[ n\ ganger n \right]$.

Lemma 1. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er begge disse matrisene kvadratiske og har samme rekkefølge $n$.

Bevis. Alt er enkelt. La matrisen $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ a\ ganger b \høyre]$. Siden produktet $A\cdot ((A)^(-1))=E$ eksisterer per definisjon, er matrisene $A$ og $((A)^(-1))$ konsistente i den rekkefølgen:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( tilpasse)\]

Dette er en direkte konsekvens av: koeffisientene $n$ og $a$ er "transit" og må være like.

Samtidig er den inverse multiplikasjonen også definert: $((A)^(-1))\cdot A=E$, så matrisene $((A)^(-1))$ og $A$ er også konsekvent i denne rekkefølgen:

\[\begin(align) & \venstre[ a\ ganger b \høyre]\cdot \venstre[ m\ ganger n \høyre]=\venstre[ a\ganger n \høyre] \\ & b=m \end( tilpasse)\]

Dermed, uten tap av generalitet, kan vi anta at $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ n\ ganger m \høyre]$. Imidlertid, i henhold til definisjonen av $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, så er dimensjonene til matrisene nøyaktig de samme:

\[\begin(align) & \venstre[ m\ ganger n \høyre]=\venstre[ n\ ganger m \høyre] \\ & m=n \end(align)\]

Så det viser seg at alle tre matrisene - $A$, $((A)^(-1))$ og $E$ - er kvadratiske i størrelse $\venstre[ n\ ganger n \høyre]$. Lemmaet er bevist.

Vel, det er allerede bra. Vi ser at bare kvadratiske matriser er inverterbare. La oss nå sørge for at den inverse matrisen alltid er den samme.

Lemma 2. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er denne inverse matrisen unik.

Bevis. La oss starte fra det motsatte: la matrisen $A$ ha minst to forekomster av inverser - $B$ og $C$. Da, i henhold til definisjonen, er følgende likheter sanne:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Fra Lemma 1 konkluderer vi med at alle fire matrisene $A$, $B$, $C$ og $E$ er kvadratiske av samme rekkefølge: $\venstre[ n\ ganger n \right]$. Derfor er produktet definert:

Siden matrisemultiplikasjon er assosiativ (men ikke kommutativ!), kan vi skrive:

\[\begin(align) & B\cdot A\cdot C=\venstre(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \venstre(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Høyrepil B=C. \\ \end(align)\]

Vi har det eneste mulige alternativet: to kopier av den inverse matrisen er like. Lemmaet er bevist.

Resonnementet ovenfor gjentar nesten ordrett beviset på det unike til det inverse elementet for alle reelle tall $b\ne 0$. Det eneste signifikante tillegget er å ta hensyn til dimensjonen til matriser.

Imidlertid vet vi fortsatt ikke noe om hvorvidt en kvadratisk matrise er inverterbar. Her kommer determinanten til hjelp - dette er en nøkkelegenskap for alle kvadratiske matriser.

Lemma 3. Gitt en matrise $A$. Hvis matrisen $((A)^(-1))$ invers til den eksisterer, så er determinanten til den opprinnelige matrisen ikke null:

\[\venstre| En \right|\ne 0\]

Bevis. Vi vet allerede at $A$ og $((A)^(-1))$ er kvadratiske matriser av størrelsen $\left[ n\ ganger n \right]$. Derfor er det mulig for hver av dem å beregne determinanten: $\left| A \right|$ og $\left| ((A)^(-1)) \right|$. Imidlertid er determinanten til produktet lik produktet av determinantene:

\[\venstre| A\cdot B \right|=\venstre| En \høyre|\cdot \venstre| B \høyre|\Høyrepil \venstre| A\cdot ((A)^(-1)) \right|=\venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|\]

Men i henhold til definisjonen av $A\cdot ((A)^(-1))=E$, og determinanten til $E$ er alltid lik 1, så

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \venstre| A\cdot ((A)^(-1)) \right|=\venstre| E\høyre|; \\ & \venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|=1. \\ \end(align)\]

Produktet av to tall er lik én bare hvis hvert av disse tallene er forskjellig fra null:

\[\venstre| En \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Så det viser seg at $\venstre| En \right|\ne 0$. Lemmaet er bevist.

Faktisk er dette kravet ganske logisk. Nå skal vi analysere algoritmen for å finne den inverse matrisen - og det vil bli helt klart hvorfor det i prinsippet ikke kan eksistere noen invers matrise med null determinant.

Men først, la oss formulere en "hjelpe" definisjon:

Definisjon. En degenerert matrise er en kvadratisk matrise med størrelsen $\venstre[ n\ ganger n \høyre]$ hvis determinant er null.

Dermed kan vi hevde at enhver inverterbar matrise er ikke degenerert.

Hvordan finne den inverse matrisen

Nå skal vi vurdere en universell algoritme for å finne inverse matriser. Generelt er det to allment aksepterte algoritmer, og vi vil også vurdere den andre i dag.

Den som vil bli vurdert nå er svært effektiv for matriser med størrelse $\venstre[ 2\ ganger 2 \høyre]$ og - delvis - av størrelse $\venstre[ 3\ ganger 3 \høyre]$. Men fra størrelsen $\left[ 4\times 4 \right]$ er det bedre å ikke bruke det. Hvorfor - nå vil du forstå alt.

Algebraiske tillegg

Gjør deg klar. Nå blir det smerte. Nei, ikke bekymre deg: en vakker sykepleier i et skjørt, strømper med blonder kommer ikke til deg og vil ikke gi deg en injeksjon i baken. Alt er mye mer prosaisk: algebraiske tillegg og Hennes Majestet "Union Matrix" kommer til deg.

La oss starte med den viktigste. La det være en kvadratisk matrise med størrelsen $A=\venstre[ n\ ganger n \høyre]$ hvis elementer heter $((a)_(ij))$. Så, for hvert slikt element, kan man definere et algebraisk komplement:

Definisjon. Algebraisk komplement $((A)_(ij))$ til elementet $((a)_(ij))$ i $i$-th rad og $j$-th kolonne i matrisen $A=\venstre [ n \times n \right]$ er en konstruksjon av formen

\[((A)_(ij))=((\venstre(-1 \høyre))^(i+j))\cdot M_(ij)^(*)\]

Hvor $M_(ij)^(*)$ er determinanten for matrisen hentet fra den opprinnelige $A$ ved å slette den samme $i$-th rad og $j$-th kolonne.

En gang til. Det algebraiske komplementet til matriseelementet med koordinatene $\left(i;j \right)$ er betegnet som $((A)_(ij))$ og beregnes i henhold til skjemaet:

  1. Først sletter vi $i$-raden og $j$-th-kolonnen fra den opprinnelige matrisen. Vi får en ny kvadratisk matrise, og vi betegner dens determinant som $M_(ij)^(*)$.
  2. Så multipliserer vi denne determinanten med $((\left(-1 \right))^(i+j))$ - til å begynne med kan dette uttrykket virke overveldende, men faktisk finner vi bare ut tegnet foran $ M_(ij)^(*) $.
  3. Vi teller – vi får et bestemt tall. De. det algebraiske tillegget er bare et tall, ikke en ny matrise, og så videre.

Selve matrisen $M_(ij)^(*)$ kalles den komplementære moll til elementet $((a)_(ij))$. Og i denne forstand er definisjonen ovenfor av et algebraisk komplement et spesielt tilfelle av en mer kompleks definisjon - den vi vurderte i leksjonen om determinanten.

Viktig notat. Faktisk, i "voksen" matematikk, er algebraiske tillegg definert som følger:

  1. Vi tar $k$ rader og $k$ kolonner i en kvadratisk matrise. I skjæringspunktet deres får vi en matrise med størrelse $\venstre[ k\ ganger k \right]$ — dens determinant kalles en minor av orden $k$ og er betegnet med $((M)_(k))$.
  2. Så krysser vi ut disse "utvalgte" $k$-radene og $k$-kolonnene. Igjen får vi en kvadratisk matrise - dens determinant kalles den komplementære moll og er betegnet med $M_(k)^(*)$.
  3. Multipliser $M_(k)^(*)$ med $((\left(-1 \right))^(t))$, der $t$ er (merk nå!) summen av tallene for alle valgte rader og kolonner. Dette vil være det algebraiske tillegget.

Ta en titt på det tredje trinnet: det er faktisk en sum på $2k$ vilkår! En annen ting er at for $k=1$ får vi bare 2 ledd - disse vil være de samme $i+j$ - "koordinatene" til elementet $((a)_(ij))$, som vi er for ser etter et algebraisk komplement.

Så i dag bruker vi en litt forenklet definisjon. Men som vi skal se senere, blir det mer enn nok. Mye viktigere er følgende:

Definisjon. Unionsmatrisen $S$ til kvadratmatrisen $A=\venstre[ n\ ganger n \right]$ er en ny matrise med størrelsen $\left[ n\ ganger n \right]$, som er hentet fra $A$ ved å erstatte $(( a)_(ij))$ med algebraiske komplementer $((A)_(ij))$:

\\Høyrepil S=\venstre[ \begin(matrise) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrise) \right]\]

Den første tanken som dukker opp i øyeblikket av å realisere denne definisjonen er "dette er hvor mye du må telle totalt!" Slapp av: du må telle, men ikke så mye. :)

Vel, alt dette er veldig hyggelig, men hvorfor er det nødvendig? Men hvorfor.

Hovedteorem

La oss gå litt tilbake. Husk, Lemma 3 uttalte at en inverterbar matrise $A$ alltid er ikke-singular (det vil si at dens determinant er ikke-null: $\left| A \right|\ne 0$).

Så det motsatte er også sant: hvis matrisen $A$ ikke er degenerert, så er den alltid inverterbar. Og det er til og med et søkeskjema $((A)^(-1))$. Sjekk det ut:

Invers matriseteorem. La en kvadratisk matrise $A=\venstre[ n\ ganger n \right]$ gis, og dens determinant er ikke null: $\left| En \right|\ne 0$. Da eksisterer den inverse matrisen $((A)^(-1))$ og beregnes med formelen:

\[((A)^(-1))=\frac(1)(\venstre| A \høyre|)\cdot ((S)^(T))\]

Og nå - likevel, men med lesbar håndskrift. For å finne den inverse matrisen trenger du:

  1. Beregn determinanten $\left| A \right|$ og sørg for at den ikke er null.
  2. Kompiler unionsmatrisen $S$, dvs. tell 100500 algebraiske tillegg $((A)_(ij))$ og sett dem på plass $((a)_(ij))$.
  3. Transponer denne matrisen $S$ og multipliser den med et tall $q=(1)/(\left| A \right|)\;$.

Og det er det! Den inverse matrisen $((A)^(-1))$ er funnet. La oss se på eksempler:

\[\venstre[ \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right]\]

Løsning. La oss sjekke reversibiliteten. La oss beregne determinanten:

\[\venstre| En \høyre|=\venstre| \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Determinanten er forskjellig fra null. Så matrisen er inverterbar. La oss lage en fagforeningsmatrise:

La oss beregne de algebraiske addisjonene:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\høyre|=2; \\ & ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| 5\høyre|=-5; \\ & ((A)_(21))=((\venstre(-1 \høyre))^(2+1))\cdot \venstre| 1 \right|=-1; \\ & ((A)_(22))=((\venstre(-1 \høyre))^(2+2))\cdot \venstre| 3\høyre|=3. \\ \end(align)\]

Vær oppmerksom: determinanter |2|, |5|, |1| og |3| er determinantene for matriser med størrelse $\venstre[ 1\ ganger 1 \høyre]$, ikke moduler. De. hvis det var negative tall i determinantene, er det ikke nødvendig å fjerne "minus".

Totalt ser fagforeningsmatrisen vår slik ut:

\[((A)^(-1))=\frac(1)(\venstre| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\venstre[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\venstre[ \begin (matrise)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(matrise) \right]\]

OK, det er over nå. Problem løst.

Svar. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

En oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Løsning. Igjen tar vi for oss determinanten:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrise) ) \venstre(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\venstre (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrise)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Determinanten er forskjellig fra null - matrisen er inverterbar. Men nå blir det mest blikk: du må telle så mange som 9 (ni, for helvete!) algebraiske tillegg. Og hver av dem vil inneholde $\left[ 2\times 2 \right]$-kvalifiseringen. Fløy:

\[\begin(matrise) ((A)_(11))=((\venstre(-1 \høyre))^(1+1))\cdot \venstre| \begin(matrise) 2 & -1 \\ 0 & 1 \\\end(matrise) \right|=2; \\ ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| \begin(matrise) 0 & -1 \\ 1 & 1 \\\end(matrise) \right|=-1; \\ ((A)_(13))=((\venstre(-1 \høyre))^(1+3))\cdot \venstre| \begin(matrise) 0 & 2 \\ 1 & 0 \\\end(matrise) \right|=-2; \\ ... \\ ((A)_(33))=((\venstre(-1 \høyre))^(3+3))\cdot \venstre| \begin(matrise) 1 & -1 \\ 0 & 2 \\\end(matrise) \right|=2; \\ \end(matrise)\]

Kort fortalt vil fagforeningsmatrisen se slik ut:

Derfor vil den inverse matrisen være:

\[((A)^(-1))=\frac(1)(-1)\cdot \venstre[ \begin(matrise) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrise) \right]=\venstre[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Vel, det er alt. Her er svaret.

Svar. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Som du kan se, utførte vi en sjekk på slutten av hvert eksempel. I denne forbindelse, en viktig merknad:

Ikke vær lat med å sjekke. Multipliser den opprinnelige matrisen med den funnet inverse - du bør få $E$.

Det er mye enklere og raskere å utføre denne kontrollen enn å se etter en feil i videre beregninger, når du for eksempel løser en matriseligning.

Alternativ måte

Som sagt fungerer invers matriseteoremet fint for størrelsene $\venstre[ 2\ ganger 2 \høyre]$ og $\venstre[ 3\ ganger 3 \høyre]$ (i sistnevnte tilfelle er det ikke så "vakkert" lenger). ”), men for store matriser begynner tristhet.

Men ikke bekymre deg: det finnes en alternativ algoritme som kan brukes til å finne inversen rolig selv for $\venstre[ 10\ ganger 10 \right]$ matrisen. Men som ofte er tilfellet, for å vurdere denne algoritmen, trenger vi litt teoretisk bakgrunn.

Elementære transformasjoner

Blant de forskjellige transformasjonene av matrisen er det flere spesielle - de kalles elementære. Det er nøyaktig tre slike transformasjoner:

  1. Multiplikasjon. Du kan ta $i$-th rad (kolonne) og multiplisere den med et hvilket som helst tall $k\ne 0$;
  2. Addisjon. Legg til $i$-th rad (kolonne) en hvilken som helst annen $j$-th rad (kolonne) multiplisert med et hvilket som helst tall $k\ne 0$ (selvfølgelig er $k=0$ også mulig, men hva er vitsen av det? Ingenting vil imidlertid endre seg).
  3. Permutasjon. Ta $i$-th og $j$-th radene (kolonner) og bytt dem.

Hvorfor disse transformasjonene kalles elementære (for store matriser ser de ikke så elementære ut) og hvorfor det bare er tre av dem - disse spørsmålene er utenfor rammen av dagens leksjon. Derfor vil vi ikke gå i detaljer.

En annen ting er viktig: vi må utføre alle disse perversjonene på den tilhørende matrisen. Ja, ja, du hørte riktig. Nå blir det en definisjon til - den siste i dagens leksjon.

Vedlagt matrise

Sikkert på skolen løste du likningssystemer ved hjelp av addisjonsmetoden. Vel, der, trekk en annen fra en linje, multipliser en linje med et tall - det er alt.

Så: nå vil alt være det samme, men allerede "på en voksen måte". Klar?

Definisjon. La matrisen $A=\venstre[ n\ ganger n \right]$ og identitetsmatrisen $E$ av samme størrelse $n$ gis. Deretter den tilknyttede matrisen $\left[ A\left| E\rett. \right]$ er en ny $\left[ n\ ganger 2n \right]$ matrise som ser slik ut:

\[\venstre[ A\venstre| E\rett. \right]=\venstre[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kort sagt, vi tar matrisen $A$, til høyre tilordner vi den identitetsmatrisen $E$ av ønsket størrelse, vi skiller dem med en vertikal strek for skjønnhet - her er den vedlagte. :)

Hva er fangsten? Og her er hva:

Teorem. La matrisen $A$ være inverterbar. Tenk på den tilstøtende matrisen $\left[ A\left| E\rett. \right]$. Hvis du bruker elementære strengtransformasjoner ta den til formen $\left[ E\left| Lys. \right]$, dvs. ved å multiplisere, subtrahere og omorganisere rader for å få fra $A$ matrisen $E$ til høyre, så er matrisen $B$ oppnådd til venstre den inverse av $A$:

\[\venstre[ A\venstre| E\rett. \høyre]\til \venstre[ E\venstre| Lys. \right]\Høyrepil B=((A)^(-1))\]

Så enkelt er det! Kort sagt, algoritmen for å finne den inverse matrisen ser slik ut:

  1. Skriv den tilknyttede matrisen $\left[ A\left| E\rett. \right]$;
  2. Utfør elementære strengkonverteringer til høyre i stedet for $A$ vises $E$;
  3. Selvfølgelig vil det også dukke opp noe til venstre - en viss matrise $B$. Dette vil være omvendt;
  4. FORTJENESTE! :)

Selvfølgelig mye lettere sagt enn gjort. Så la oss se på et par eksempler: for størrelsene $\venstre[ 3\ ganger 3 \høyre]$ og $\venstre[ 4\ ganger 4 \høyre]$.

En oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Løsning. Vi komponerer den vedlagte matrisen:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Siden den siste kolonnen i den opprinnelige matrisen er fylt med enere, trekker du den første raden fra resten:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\\end(matrise)\to \\ & \to \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Det er ingen flere enheter, bortsett fra den første linjen. Men vi rører den ikke, ellers vil de nylig fjernede enhetene begynne å "multipiseres" i den tredje kolonnen.

Men vi kan trekke den andre linjen to ganger fra den siste - vi får en enhet i nedre venstre hjørne:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrise) \ \\ \nedoverpil \\ -2 \\\end(matrise)\to \\ & \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Nå kan vi trekke den siste raden fra den første og to ganger fra den andre - på denne måten vil vi "nulle ut" den første kolonnen:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -1 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \ til \venstre[ \begin(matrise)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multipliser den andre raden med −1 og trekk den 6 ganger fra den første og legg til 1 gang til den siste:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -6 \\ \updownarrow \\ +1 \\\end (matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Det gjenstår bare å bytte linje 1 og 3:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Klar! Til høyre er den nødvendige inverse matrisen.

Svar. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

En oppgave. Finn den inverse matrisen:

\[\venstre[ \begin(matrise) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrise) \right]\]

Løsning. Igjen komponerer vi den vedlagte:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

La oss låne litt, bekymre oss for hvor mye vi må telle nå ... og begynne å telle. Til å begynne med "nuller" vi den første kolonnen ved å trekke rad 1 fra rad 2 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Vi observerer for mange "minus" i linje 2-4. Multipliser alle tre radene med −1, og brenn deretter ut den tredje kolonnen ved å trekke rad 3 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(matrise) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (matrise) \right]\begin(matrise) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrise)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Nå er det på tide å "steke" den siste kolonnen i den opprinnelige matrisen: trekk rad 4 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrise) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Siste kast: "brenn ut" den andre kolonnen ved å trekke fra rad 2 fra rad 1 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrise) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Og igjen, identitetsmatrisen til venstre, så den omvendte til høyre. :)

Svar. $\left[ \begin(matrise) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrise) \right]$

Matrisen $A^(-1)$ kalles den inverse av kvadratmatrisen $A$ hvis $A^(-1)\cdot A=A\cdot A^(-1)=E$, hvor $E $ er identitetsmatrisen, hvis rekkefølge er lik rekkefølgen til matrisen $A$.

En ikke-singular matrise er en matrise hvis determinant ikke er lik null. Følgelig er en degenerert matrise en hvis determinant er lik null.

Den inverse matrisen $A^(-1)$ eksisterer hvis og bare hvis matrisen $A$ er ikke-singular. Hvis den inverse matrisen $A^(-1)$ eksisterer, er den unik.

Det er flere måter å finne inversen til en matrise på, og vi skal se på to av dem. Denne siden vil diskutere adjoint matrise-metoden, som regnes som standard i de fleste høyere matematikkkurs. Den andre måten å finne den inverse matrisen (metoden for elementære transformasjoner), som innebærer bruk av Gauss-metoden eller Gauss-Jordan-metoden, vurderes i den andre delen.

Adjoint (union) matrisemetode

La matrisen $A_(n\ ganger n)$ gis. For å finne den inverse matrisen $A^(-1)$, kreves det tre trinn:

  1. Finn determinanten til matrisen $A$ og sørg for at $\Delta A\neq 0$, dvs. at matrisen A er ikke degenerert.
  2. Komponer algebraiske komplementer $A_(ij)$ av hvert element i matrisen $A$ og skriv ned matrisen $A_(n\ ganger n)^(*)=\left(A_(ij) \right)$ fra det funnet algebraiske komplementer.
  3. Skriv den inverse matrisen ved å ta hensyn til formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$.

Matrisen $(A^(*))^T$ blir ofte referert til som den tilstøtende (gjensidige, allierte) matrisen til $A$.

Hvis avgjørelsen tas manuelt, er den første metoden god bare for matriser med relativt små bestillinger: andre (), tredje (), fjerde (). For å finne den inverse matrisen for en høyere ordens matrise, brukes andre metoder. For eksempel Gauss-metoden, som diskuteres i andre del.

Eksempel #1

Finn matrise invers til matrise $A=\left(\begin(array) (cccc) 5 & -4 &1 & 0 \\ 12 &-11 &4 & 0 \\ -5 & 58 &4 & 0 \\ 3 & - 1 & -9 & 0 \end(array) \right)$.

Siden alle elementene i den fjerde kolonnen er lik null, er $\Delta A=0$ (dvs. matrisen $A$ er degenerert). Siden $\Delta A=0$, er det ingen matrise invers til $A$.

Eksempel #2

Finn matrisen invers til matrisen $A=\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right)$.

Vi bruker adjoint matrise-metoden. La oss først finne determinanten til den gitte matrisen $A$:

$$ \Delta A=\venstre| \begin(array) (cc) -5 & 7\\ 9 & 8 \end(array)\right|=-5\cdot 8-7\cdot 9=-103. $$

Siden $\Delta A \neq 0$ eksisterer den inverse matrisen, så vi fortsetter løsningen. Finne algebraiske komplementer

\begin(aligned) & A_(11)=(-1)^2\cdot 8=8; \; A_(12)=(-1)^3\cdot 9=-9;\\ & A_(21)=(-1)^3\cdot 7=-7; \; A_(22)=(-1)^4\cdot (-5)=-5.\\ \end(justert)

Komponer en matrise av algebraiske komplementer: $A^(*)=\left(\begin(array) (cc) 8 & -9\\ -7 & -5 \end(array)\right)$.

Transponer den resulterende matrisen: $(A^(*))^T=\left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right)$ (den resulterende matrisen kalles ofte adjoint- eller unionsmatrisen til matrisen $A$). Ved å bruke formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, har vi:

$$ A^(-1)=\frac(1)(-103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right) =\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right) $$

Så den inverse matrisen er funnet: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array) \right) $. For å sjekke sannheten til resultatet er det nok å sjekke sannheten til en av likhetene: $A^(-1)\cdot A=E$ eller $A\cdot A^(-1)=E$. La oss sjekke likheten $A^(-1)\cdot A=E$. For å jobbe mindre med brøker, vil vi erstatte matrisen $A^(-1)$ ikke i formen $\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \ end(array)\right)$ men som $-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \ end(array)\right)$:

Svar: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array)\right)$.

Eksempel #3

Finn inversen til matrisen $A=\left(\begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right)$.

La oss starte med å beregne determinanten til matrisen $A$. Så determinanten for matrisen $A$ er:

$$ \Delta A=\venstre| \begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right| = 18-36+56-12=26. $$

Siden $\Delta A\neq 0$ eksisterer den inverse matrisen, så vi fortsetter løsningen. Vi finner de algebraiske komplementene til hvert element i den gitte matrisen:

Vi komponerer en matrise med algebraiske tillegg og transponerer den:

$$ A^*=\left(\begin(array) (ccc) 6 & 8 & -12 \\ -5 & 2 & -3 \\ 1 & -16 & 37\end(array) \right); \; (A^*)^T=\left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right) $$

Ved å bruke formelen $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, får vi:

$$ A^(-1)=\frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & - 3 & 37\end(array) \right)= \left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \ \ -6/13 & -3/26 & 37/26 \end(array) \right) $$

Så $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ - 6 /13 & -3/26 & 37/26 \end(array) \right)$. For å sjekke sannheten til resultatet er det nok å sjekke sannheten til en av likhetene: $A^(-1)\cdot A=E$ eller $A\cdot A^(-1)=E$. La oss sjekke likheten $A\cdot A^(-1)=E$. For å jobbe mindre med brøker, vil vi erstatte matrisen $A^(-1)$ ikke i formen $\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \ \ 4/13 & 1/13 & -8/13 \\ -6/13 & -3/26 & 37/26 \end(array) \right)$, men som $\frac(1)(26)\ cdot \left( \begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right)$:

Kontrollen ble bestått, den inverse matrisen $A^(-1)$ ble funnet riktig.

Svar: $A^(-1)=\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \\ 4/13 & 1/13 & -8/13 \\ -6 /13 & -3/26 & 37/26 \end(array) \right)$.

Eksempel #4

Finn matriseinvers av $A=\left(\begin(array) (cccc) 6 & -5 & 8 & 4\\ 9 & 7 & 5 & 2 \\ 7 & 5 & 3 & 7\\ -4 & 8 & -8 & -3 \end(array) \right)$.

For en matrise av fjerde orden er det noe vanskelig å finne den inverse matrisen ved å bruke algebraiske addisjoner. Slike eksempler finnes imidlertid i kontrollarbeidene.

For å finne den inverse matrisen må du først beregne determinanten til matrisen $A$. Den beste måten å gjøre dette på i denne situasjonen er å utvide determinanten i en rad (kolonne). Vi velger en hvilken som helst rad eller kolonne og finner det algebraiske komplementet til hvert element i den valgte raden eller kolonnen.

Definisjon 1: En matrise kalles degenerert hvis determinanten er null.

Definisjon 2: En matrise kalles ikke-singular hvis determinanten ikke er lik null.

Matrise "A" kalles invers matrise, hvis betingelsen A*A-1 = A-1 *A = E (identitetsmatrise) er oppfylt.

En kvadratisk matrise er inverterbar bare hvis den er ikke-singular.

Skjema for å beregne den inverse matrisen:

1) Beregn determinanten til matrisen "A" if A = 0, da eksisterer ikke den inverse matrisen.

2) Finn alle algebraiske komplementer til matrisen "A".

3) Lag en matrise av algebraiske addisjoner (Aij )

4) Transponer matrisen av algebraiske komplementer (Aij )T

5) Multipliser den transponerte matrisen med den resiproke av determinanten til denne matrisen.

6) Kjør en sjekk:

Ved første øyekast kan det virke som om det er vanskelig, men faktisk er alt veldig enkelt. Alle løsninger er basert på enkle aritmetiske operasjoner, det viktigste når du løser er å ikke bli forvirret med "-" og "+"-tegnene, og ikke miste dem.

Og la oss nå løse en praktisk oppgave sammen med deg ved å beregne den inverse matrisen.

Oppgave: finn den inverse matrisen "A", vist på bildet nedenfor:

Vi løser alt nøyaktig som angitt i planen for beregning av den inverse matrisen.

1. Det første du må gjøre er å finne determinanten til matrisen "A":

Forklaring:

Vi har forenklet vår determinant ved å bruke hovedfunksjonene. Først la vi til 2. og 3. rad elementene i den første raden, multiplisert med ett tall.

For det andre endret vi 2. og 3. kolonne av determinanten, og i henhold til egenskapene endret vi tegnet foran den.

For det tredje tok vi ut fellesfaktoren (-1) på den andre raden, og endret dermed tegnet igjen, og det ble positivt. Vi forenklet også linje 3 på samme måte som helt i begynnelsen av eksemplet.

Vi har en trekantet determinant, der elementene under diagonalen er lik null, og ved egenskap 7 er den lik produktet av elementene i diagonalen. Som et resultat fikk vi A = 26, derfor eksisterer den inverse matrisen.

A11 = 1*(3+1) = 4

A12 \u003d -1 * (9 + 2) \u003d -11

A13 = 1*1 = 1

A21 = -1*(-6) = 6

A22 = 1*(3-0) = 3

A23 = -1*(1+4) = -5

A31 = 1*2 = 2

A32 = -1*(-1) = -1

A33 = 1+(1+6) = 7

3. Neste trinn er å kompilere en matrise fra de resulterende tilleggene:

5. Vi multipliserer denne matrisen med den resiproke av determinanten, det vil si med 1/26:

6. Vel, nå trenger vi bare å sjekke:

Under verifiseringen mottok vi en identitetsmatrise, derfor ble avgjørelsen tatt helt riktig.

2 måter å beregne den inverse matrisen på.

1. Elementær transformasjon av matriser

2. Invers matrise gjennom en elementær omformer.

Elementær matrisetransformasjon inkluderer:

1. Multiplisere en streng med et tall som ikke er null.

2. Legge til en linje på en annen linje, multiplisert med et tall.

3. Bytte radene i matrisen.

4. Ved å bruke en kjede av elementære transformasjoner får vi en annen matrise.

MEN -1 = ?

1. (A|E) ~ (E|A -1 )

2. A -1*A=E

La oss se på dette i et praktisk eksempel med reelle tall.

Trening: Finn den inverse matrisen.

Løsning:

La oss sjekke:

En liten avklaring på løsningen:

Vi byttet først rad 1 og 2 i matrisen, deretter multipliserte vi den første raden med (-1).

Etter det ble den første raden multiplisert med (-2) og lagt til den andre raden i matrisen. Så multipliserte vi den andre raden med 1/4.

Det siste stadiet av transformasjonen var multiplikasjonen av den andre raden med 2 og addisjonen fra den første. Som et resultat har vi en identitetsmatrise til venstre, derfor er den inverse matrisen matrisen til høyre.

Etter å ha sjekket, var vi overbevist om riktigheten av løsningen.

Som du kan se, er det veldig enkelt å beregne den inverse matrisen.

Som avslutning på dette foredraget vil jeg også vie litt tid til egenskapene til en slik matrise.

La det være en kvadratisk matrise av n-te orden

Matrise A -1 kalles invers matrise med hensyn til matrisen A, hvis A * A -1 = E, hvor E er identitetsmatrisen av n-te orden.

Identitetsmatrise- en slik firkantet matrise, der alle elementer langs hoveddiagonalen, som går fra øvre venstre hjørne til nedre høyre hjørne, er enere, og resten er null, for eksempel:

invers matrise kan eksistere bare for kvadratiske matriser de. for de matrisene som har samme antall rader og kolonner.

Invers matrise-eksistensbetingelse teorem

For at en matrise skal ha en invers matrise, er det nødvendig og tilstrekkelig at den er ikke-degenerert.

Matrisen A = (A1, A2,...A n) kalles ikke-degenerert hvis kolonnevektorene er lineært uavhengige. Antallet lineært uavhengige kolonnevektorer i en matrise kalles rangeringen av matrisen. Derfor kan vi si at for at en invers matrise skal eksistere, er det nødvendig og tilstrekkelig at rangeringen av matrisen er lik dens dimensjon, dvs. r = n.

Algoritme for å finne den inverse matrisen

  1. Skriv matrisen A i tabellen for å løse ligningssystemer ved Gauss-metoden og til høyre (i stedet for de høyre delene av ligningene) tilordne matrise E til den.
  2. Bruk Jordan-transformasjoner, bring matrise A til en matrise som består av enkeltkolonner; i dette tilfellet er det nødvendig å transformere matrisen E samtidig.
  3. Om nødvendig, omorganiser radene (ligningene) i den siste tabellen slik at identitetsmatrisen E oppnås under matrisen A til den opprinnelige tabellen.
  4. Skriv den inverse matrisen A -1, som er i den siste tabellen under matrisen E til den opprinnelige tabellen.
Eksempel 1

For matrise A, finn den inverse matrisen A -1

Løsning: Vi skriver ned matrisen A og til høyre tildeler vi identitetsmatrisen E. Ved hjelp av Jordan-transformasjonene reduserer vi matrisen A til identitetsmatrisen E. Beregningene er vist i Tabell 31.1.

La oss sjekke riktigheten av beregningene ved å multiplisere den opprinnelige matrisen A og den inverse matrisen A -1.

Som et resultat av matrisemultiplikasjon oppnås identitetsmatrisen. Derfor er beregningene riktige.

Svar:

Løsning av matriseligninger

Matriseligninger kan se slik ut:

AX = B, XA = B, AXB = C,

hvor A, B, C er gitt matriser, er X den ønskede matrisen.

Matriseligninger løses ved å multiplisere ligningen med inverse matriser.

For å finne matrisen fra en ligning, må du for eksempel gange denne ligningen med til venstre.

Derfor, for å finne en løsning på ligningen, må du finne den inverse matrisen og multiplisere den med matrisen på høyre side av ligningen.

Andre ligninger løses på samme måte.

Eksempel 2

Løs ligningen AX = B if

Løsning: Siden inversen av matrisen er lik (se eksempel 1)

Matrisemetode i økonomisk analyse

Sammen med andre finner de også anvendelse matrisemetoder. Disse metodene er basert på lineær og vektormatrisealgebra. Slike metoder brukes med det formål å analysere komplekse og flerdimensjonale økonomiske fenomener. Oftest brukes disse metodene når det er nødvendig å sammenligne funksjonen til organisasjoner og deres strukturelle inndelinger.

I prosessen med å anvende matriseanalysemetoder kan flere stadier skilles.

På det første stadiet dannelsen av et system med økonomiske indikatorer utføres og på grunnlag av det kompileres en matrise med innledende data, som er en tabell der systemnumre vises i de individuelle linjene. (i = 1,2,....,n), og langs de vertikale grafene - antall indikatorer (j = 1,2,...,m).

På andre trinn for hver vertikal kolonne avsløres den største av de tilgjengelige verdiene av indikatorene, som tas som en enhet.

Etter det deles alle beløpene som reflekteres i denne kolonnen med den største verdien og en matrise med standardiserte koeffisienter dannes.

På det tredje stadiet alle komponentene i matrisen er kvadratisk. Hvis de har forskjellig betydning, er hver indikator på matrisen tildelt en viss vektingskoeffisient k. Verdien av sistnevnte bestemmes av en ekspert.

På den siste fjerde trinn funnet verdier av rangeringer Rj gruppert i rekkefølge økende eller avtagende.

Ovennevnte matrisemetoder bør brukes, for eksempel i en komparativ analyse av ulike investeringsprosjekter, samt i vurdering av andre økonomiske resultatindikatorer for organisasjoner.

Matrix Algebra - Invers Matrix

invers matrise

invers matrise En matrise kalles som, multiplisert både til høyre og til venstre med en gitt matrise, gir identitetsmatrisen.
Angi matrisen invers til matrisen MEN gjennom , så får vi i henhold til definisjonen:

hvor E er identitetsmatrisen.
kvadratisk matrise kalt ikke-spesiell (ikke-degenerert) hvis determinanten ikke er lik null. Ellers heter det spesiell (degenerert) eller entall.

Det er et teorem: hver ikke-singular matrise har en invers matrise.

Operasjonen med å finne den inverse matrisen kalles anke matriser. Tenk på matriseinversjonsalgoritmen. La en ikke-singular matrise gis n-te rekkefølge:

hvor Δ = det EN ≠ 0.

Algebraisk elementkomplement matriser n-te orden MEN determinanten til matrisen ( n–1)-te rekkefølge oppnådd ved sletting Jeg-te linje og j-th kolonne av matrisen MEN:

La oss lage en såkalt vedlagte matrise:

hvor er de algebraiske komplementene til de tilsvarende elementene i matrisen MEN.
Legg merke til at de algebraiske komplementene til radelementene i matrisen MEN er plassert i de tilsvarende kolonnene i matrisen à , det vil si at matrisen transponeres samtidig.
Deling av alle matriseelementer à på Δ - verdien av determinanten til matrisen MEN, får vi den inverse matrisen som et resultat:

Vi legger merke til en rekke spesielle egenskaper til den inverse matrisen:
1) for en gitt matrise MEN dens inverse matrise er den eneste;
2) hvis det er en invers matrise, da høyre revers og venstre revers matriser faller sammen med den;
3) en spesiell (degenerert) kvadratisk matrise har ikke en invers matrise.

Hovedegenskapene til den inverse matrisen:
1) determinanten til den inverse matrisen og determinanten til den opprinnelige matrisen er resiproke;
2) den inverse matrisen til produktet av kvadratiske matriser er lik produktet av de inverse matrisene av faktorer, tatt i omvendt rekkefølge:

3) den transponerte inverse matrisen er lik den inverse matrisen fra den gitte transponerte matrisen:

EKSEMPEL Beregn matrisen invers av den gitte.