Inverterbare matriser. Høyere matematikk

Dette emnet er et av de mest hatede blant studenter. Verre er nok kvalifiseringen.

Trikset er at selve konseptet med et inverst element (og jeg snakker ikke bare om matriser) refererer oss til operasjonen av multiplikasjon. Selv i skolepensum betraktes multiplikasjon som en kompleks operasjon, og multiplikasjon av matriser er generelt et eget tema, som jeg har dedikert et helt avsnitt og en videoleksjon til.

I dag vil vi ikke gå inn på detaljene i matriseberegninger. La oss bare huske: hvordan matriser er utpekt, hvordan de multipliseres, og hva som følger av dette.

Gjennomgang: Matrisemultiplikasjon

Først av alt, la oss bli enige om notasjon. En matrise $A$ av størrelsen $\left[ m\times n \right]$ er ganske enkelt en talltabell med nøyaktig $m$ rader og $n$ kolonner:

\=\underbrace(\venstre[ \begin(matrise) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrise) \right])_(n)\]

For å unngå å blande rader og kolonner ved et uhell (tro meg, i en eksamen kan du forveksle en en med en to, enn si noen rader), bare se på bildet:

Bestemme indekser for matriseceller

Hva skjer? Hvis du plasserer standard koordinatsystemet $OXY$ i øvre venstre hjørne og dirigerer aksene slik at de dekker hele matrisen, så kan hver celle i denne matrisen assosieres unikt med koordinatene $\left(x;y \right)$ - dette vil være radnummer og kolonnenummer.

Hvorfor er koordinatsystemet plassert i øvre venstre hjørne? Ja, for det er derfra vi begynner å lese tekster. Det er veldig lett å huske.

Hvorfor er $x$-aksen rettet nedover og ikke til høyre? Igjen, det er enkelt: ta et standard koordinatsystem ($x$-aksen går til høyre, $y$-aksen går opp) og roter det slik at det dekker matrisen. Dette er en 90 graders rotasjon med klokken – vi ser resultatet på bildet.

Generelt har vi funnet ut hvordan vi bestemmer indeksene til matriseelementer. La oss nå se på multiplikasjon.

Definisjon. Matriser $A=\venstre[ m\ ganger n \right]$ og $B=\venstre[ n\ ganger k \right]$, når antall kolonner i den første sammenfaller med antall rader i den andre, er kalt konsekvent.

Akkurat i den rekkefølgen. Man kan bli forvirret og si at matrisene $A$ og $B$ danner et ordnet par $\left(A;B \right)$: hvis de er konsistente i denne rekkefølgen, er det slett ikke nødvendig at $B $ og $A$ disse. paret $\left(B;A \right)$ er også konsistent.

Bare matchede matriser kan multipliseres.

Definisjon. Produktet av matchede matriser $A=\venstre[ m\ ganger n \høyre]$ og $B=\venstre[ n\ ganger k \høyre]$ er den nye matrisen $C=\venstre[ m\ ganger k \høyre ]$ , elementene som $((c)_(ij))$ beregnes i henhold til formelen:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Med andre ord: for å få elementet $((c)_(ij))$ i matrisen $C=A\cdot B$, må du ta $i$-raden til den første matrisen, $j$ -th kolonne i den andre matrisen, og multipliser deretter i par elementer fra denne raden og kolonnen. Legg sammen resultatene.

Ja, det er en så tøff definisjon. Flere fakta følger umiddelbart av det:

  1. Matrisemultiplikasjon er generelt sett ikke-kommutativ: $A\cdot B\ne B\cdot A$;
  2. Imidlertid er multiplikasjon assosiativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Og til og med distributivt: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Og nok en gang distributivt: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Distributiviteten til multiplikasjon måtte beskrives separat for venstre og høyre sumfaktor nettopp på grunn av ikke-kommutativiteten til multiplikasjonsoperasjonen.

Hvis det viser seg at $A\cdot B=B\cdot A$, kalles slike matriser kommutative.

Blant alle matrisene som multipliseres med noe der, er det spesielle - de som, når de multipliseres med en hvilken som helst matrise $A$, igjen gir $A$:

Definisjon. En matrise $E$ kalles identitet hvis $A\cdot E=A$ eller $E\cdot A=A$. I tilfellet med en kvadratisk matrise $A$ kan vi skrive:

Identitetsmatrisen er en hyppig gjest når man løser matriseligninger. Og generelt, en hyppig gjest i matrisens verden. :)

Og på grunn av denne $E$ kom noen på alt tullet som skal skrives neste gang.

Hva er en invers matrise

Siden matrisemultiplikasjon er en veldig arbeidskrevende operasjon (du må multiplisere en haug med rader og kolonner), viser konseptet med en invers matrise seg heller ikke å være det mest trivielle. Og krever litt forklaring.

Nøkkeldefinisjon

Vel, det er på tide å vite sannheten.

Definisjon. En matrise $B$ kalles den inverse av en matrise $A$ if

Den inverse matrisen er betegnet med $((A)^(-1))$ (ikke å forveksle med graden!), så definisjonen kan skrives om som følger:

Det ser ut til at alt er ekstremt enkelt og klart. Men når man analyserer denne definisjonen, oppstår det umiddelbart flere spørsmål:

  1. Finnes det alltid en invers matrise? Og hvis ikke alltid, hvordan bestemme: når det eksisterer og når det ikke finnes?
  2. Og hvem sa at det finnes akkurat en slik matrise? Hva om det for en startmatrise $A$ er en hel mengde inverser?
  3. Hvordan ser alle disse "reversene" ut? Og nøyaktig hvordan skal vi telle dem?

Når det gjelder beregningsalgoritmer, vil vi snakke om dette litt senere. Men vi vil svare på de resterende spørsmålene akkurat nå. La oss formulere dem i form av separate utsagn-lemmas.

Grunnleggende egenskaper

La oss starte med hvordan matrisen $A$ i prinsippet skal se ut for at $((A)^(-1))$ skal eksistere for den. Nå skal vi sørge for at begge disse matrisene må være kvadratiske og av samme størrelse: $\left[ n\ ganger n \right]$.

Lemma 1. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er begge disse matrisene kvadratiske, og av samme orden $n$.

Bevis. Det er enkelt. La matrisen $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ a\ ganger b \høyre]$. Siden produktet $A\cdot ((A)^(-1))=E$ eksisterer per definisjon, er matrisene $A$ og $((A)^(-1))$ konsistente i rekkefølgen som vises:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( tilpasse)\]

Dette er en direkte konsekvens av: koeffisientene $n$ og $a$ er "transit" og må være like.

Samtidig er den inverse multiplikasjonen også definert: $((A)^(-1))\cdot A=E$, derfor er matrisene $((A)^(-1))$ og $A$ også konsekvent i den angitte rekkefølgen:

\[\begin(align) & \venstre[ a\ ganger b \høyre]\cdot \venstre[ m\ ganger n \høyre]=\venstre[ a\ganger n \høyre] \\ & b=m \end( tilpasse)\]

Dermed, uten tap av generalitet, kan vi anta at $A=\venstre[ m\ ganger n \høyre]$, $((A)^(-1))=\venstre[ n\ ganger m \høyre]$. Imidlertid, i henhold til definisjonen av $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, er derfor størrelsene på matrisene strengt tatt sammen:

\[\begin(align) & \venstre[ m\ ganger n \høyre]=\venstre[ n\ ganger m \høyre] \\ & m=n \end(align)\]

Så det viser seg at alle tre matrisene - $A$, $((A)^(-1))$ og $E$ - er kvadratiske matriser av størrelsen $\venstre[ n\ ganger n \høyre]$. Lemmaet er bevist.

Vel, det er allerede bra. Vi ser at bare kvadratiske matriser er inverterbare. La oss nå sørge for at den inverse matrisen alltid er den samme.

Lemma 2. Gitt en matrise $A$ og dens inverse $((A)^(-1))$. Da er denne inverse matrisen den eneste.

Bevis. La oss gå etter selvmotsigelse: la matrisen $A$ ha minst to inverser - $B$ og $C$. Da, ifølge definisjonen, er følgende likheter sanne:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Fra Lemma 1 konkluderer vi med at alle fire matrisene - $A$, $B$, $C$ og $E$ - er kvadrater av samme rekkefølge: $\left[ n\ ganger n \right]$. Derfor er produktet definert:

Siden matrisemultiplikasjon er assosiativ (men ikke kommutativ!), kan vi skrive:

\[\begin(align) & B\cdot A\cdot C=\venstre(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \venstre(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Høyrepil B=C. \\ \end(align)\]

Vi har det eneste mulige alternativet: to kopier av den inverse matrisen er like. Lemmaet er bevist.

Argumentene ovenfor gjentar nesten ordrett beviset på unikheten til det inverse elementet for alle reelle tall $b\ne 0$. Det eneste signifikante tillegget er å ta hensyn til dimensjonen til matriser.

Imidlertid vet vi fortsatt ikke noe om hver kvadratisk matrise er inverterbar. Her kommer determinanten til hjelp - dette er en nøkkelegenskap for alle kvadratiske matriser.

Lemma 3. Gitt en matrise $A$. Hvis dens inverse matrise $((A)^(-1))$ eksisterer, er determinanten til den opprinnelige matrisen ikke null:

\[\venstre| A\right|\ne 0\]

Bevis. Vi vet allerede at $A$ og $((A)^(-1))$ er kvadratiske matriser av størrelsen $\left[ n\ ganger n \right]$. Derfor kan vi beregne determinanten for hver av dem: $\left| A\høyre|$ og $\venstre| ((A)^(-1)) \right|$. Imidlertid er determinanten til et produkt lik produktet av determinantene:

\[\venstre| A\cdot B \right|=\venstre| En \høyre|\cdot \venstre| B \høyre|\Høyrepil \venstre| A\cdot ((A)^(-1)) \right|=\venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|\]

Men ifølge definisjonen er $A\cdot ((A)^(-1))=E$, og determinanten til $E$ alltid lik 1, så

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \venstre| A\cdot ((A)^(-1)) \right|=\venstre| E\høyre|; \\ & \venstre| En \høyre|\cdot \venstre| ((A)^(-1)) \right|=1. \\ \end(align)\]

Produktet av to tall er lik én bare hvis hvert av disse tallene ikke er null:

\[\venstre| En \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Så det viser seg at $\venstre| En \right|\ne 0$. Lemmaet er bevist.

Faktisk er dette kravet ganske logisk. Nå skal vi analysere algoritmen for å finne den inverse matrisen – og det vil bli helt klart hvorfor, med en nulldeterminant, ingen invers matrise i prinsippet kan eksistere.

Men først, la oss formulere en "hjelpe" definisjon:

Definisjon. En entallsmatrise er en kvadratisk matrise med størrelsen $\venstre[ n\ ganger n \høyre]$ hvis determinant er null.

Dermed kan vi hevde at hver inverterbar matrise er ikke-entall.

Hvordan finne inversen til en matrise

Nå skal vi vurdere en universell algoritme for å finne inverse matriser. Generelt er det to allment aksepterte algoritmer, og vi vil også vurdere den andre i dag.

Den som vil bli diskutert nå er veldig effektiv for matriser med størrelse $\venstre[ 2\ ganger 2 \høyre]$ og - delvis - størrelse $\venstre[ 3\ ganger 3 \høyre]$. Men fra størrelsen $\left[ 4\times 4 \right]$ er det bedre å ikke bruke det. Hvorfor - nå vil du forstå alt selv.

Algebraiske tillegg

Gjør deg klar. Nå blir det smerte. Nei, ikke bekymre deg: en vakker sykepleier i et skjørt, strømper med blonder vil ikke komme til deg og gi deg en injeksjon i baken. Alt er mye mer prosaisk: algebraiske tillegg og Hennes Majestet "Union Matrix" kommer til deg.

La oss starte med det viktigste. La det være en kvadratisk matrise med størrelsen $A=\venstre[ n\ ganger n \høyre]$, hvis elementer kalles $((a)_(ij))$. Så for hvert slikt element kan vi definere et algebraisk komplement:

Definisjon. Algebraisk komplement $((A)_(ij))$ til elementet $((a)_(ij))$ plassert i $i$th rad og $j$th kolonne i matrisen $A=\left[ n \times n \right]$ er en konstruksjon av formen

\[((A)_(ij))=((\venstre(-1 \høyre))^(i+j))\cdot M_(ij)^(*)\]

Hvor $M_(ij)^(*)$ er determinanten for matrisen hentet fra den opprinnelige $A$ ved å slette den samme $i$th rad og $j$th kolonne.

En gang til. Det algebraiske komplementet til et matriseelement med koordinatene $\left(i;j \right)$ er betegnet som $((A)_(ij))$ og beregnes i henhold til skjemaet:

  1. Først sletter vi $i$-raden og $j$-th-kolonnen fra den opprinnelige matrisen. Vi får en ny kvadratisk matrise, og vi betegner dens determinant som $M_(ij)^(*)$.
  2. Deretter multipliserer vi denne determinanten med $((\left(-1 \right))^(i+j))$ - til å begynne med kan dette uttrykket virke overveldende, men i hovedsak finner vi ganske enkelt ut tegnet foran $M_(ij)^(*) $.
  3. Vi teller og får et bestemt tall. De. den algebraiske addisjonen er nettopp et tall, og ikke en ny matrise osv.

Matrisen $M_(ij)^(*)$ i seg selv kalles en tilleggsmoll til elementet $((a)_(ij))$. Og i denne forstand er definisjonen ovenfor av et algebraisk komplement et spesialtilfelle av en mer kompleks definisjon - det vi så på i leksjonen om determinanten.

Viktig notat. Faktisk, i "voksen" matematikk, er algebraiske tillegg definert som følger:

  1. Vi tar $k$ rader og $k$ kolonner i en kvadratisk matrise. I skjæringspunktet deres får vi en matrise med størrelsen $\venstre[ k\ ganger k \right]$ - dens determinant kalles en minor av orden $k$ og er betegnet $((M)_(k))$.
  2. Så krysser vi ut disse "valgte" $k$-radene og $k$-kolonnene. Nok en gang får du en kvadratisk matrise - dens determinant kalles en ekstra moll og er betegnet $M_(k)^(*)$.
  3. Multipliser $M_(k)^(*)$ med $((\left(-1 \right))^(t))$, der $t$ er (merk nå!) summen av tallene for alle valgte rader og kolonner. Dette vil være det algebraiske tillegget.

Se på det tredje trinnet: det er faktisk en sum på $2k$ vilkår! En annen ting er at for $k=1$ vil vi bare få 2 ledd - disse vil være de samme $i+j$ - "koordinatene" til elementet $((a)_(ij))$ som vi er for ser etter et algebraisk komplement.

Så i dag bruker vi en litt forenklet definisjon. Men som vi skal se senere, blir det mer enn nok. Følgende ting er mye viktigere:

Definisjon. Den allierte matrisen $S$ til kvadratmatrisen $A=\venstre[ n\ ganger n \right]$ er en ny matrise med størrelsen $\left[ n\ ganger n \right]$, som er hentet fra $A$ ved å erstatte $(( a)_(ij))$ med algebraiske tillegg $((A)_(ij))$:

\\Høyrepil S=\venstre[ \begin(matrise) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrise) \right]\]

Den første tanken som dukker opp i øyeblikket av å realisere denne definisjonen er "hvor mye må telles!" Slapp av: du må telle, men ikke så mye. :)

Vel, alt dette er veldig hyggelig, men hvorfor er det nødvendig? Men hvorfor.

Hovedteorem

La oss gå litt tilbake. Husk, i Lemma 3 ble det oppgitt at den inverterbare matrisen $A$ alltid er ikke-singular (det vil si at dens determinant er ikke-null: $\left| A \right|\ne 0$).

Så det motsatte er også sant: hvis matrisen $A$ ikke er entall, så er den alltid inverterbar. Og det er til og med et søkeskjema for $((A)^(-1))$. Sjekk det ut:

Invers matriseteorem. La en kvadratisk matrise $A=\venstre[ n\ ganger n \right]$ gis, og dens determinant er ikke null: $\left| En \right|\ne 0$. Da eksisterer den inverse matrisen $((A)^(-1))$ og beregnes med formelen:

\[((A)^(-1))=\frac(1)(\venstre| A \høyre|)\cdot ((S)^(T))\]

Og nå - alt er det samme, men i lesbar håndskrift. For å finne den inverse matrisen trenger du:

  1. Beregn determinanten $\left| A \right|$ og sørg for at den ikke er null.
  2. Konstruer unionsmatrisen $S$, dvs. tell 100500 algebraiske tillegg $((A)_(ij))$ og plasser dem på plass $((a)_(ij))$.
  3. Transponer denne matrisen $S$, og multipliser den med et tall $q=(1)/(\left| A \right|)\;$.

Det er alt! Den inverse matrisen $((A)^(-1))$ er funnet. La oss se på eksempler:

\[\venstre[ \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right]\]

Løsning. La oss sjekke reversibiliteten. La oss beregne determinanten:

\[\venstre| A\høyre|=\venstre| \begin(matrise) 3 & 1 \\ 5 & 2 \\\end(matrise) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Determinanten er forskjellig fra null. Dette betyr at matrisen er inverterbar. La oss lage en fagforeningsmatrise:

La oss beregne de algebraiske addisjonene:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \right|=2; \\ & ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| 5 \right|=-5; \\ & ((A)_(21))=((\venstre(-1 \høyre))^(2+1))\cdot \venstre| 1 \right|=-1; \\ & ((A)_(22))=((\venstre(-1 \høyre))^(2+2))\cdot \venstre| 3\høyre|=3. \\ \end(align)\]

Vær oppmerksom på: determinantene |2|, |5|, |1| og |3| er determinanter for matriser av størrelse $\venstre[ 1\ ganger 1 \høyre]$, og ikke moduler. De. Hvis det var negative tall i determinantene, er det ikke nødvendig å fjerne "minus".

Totalt ser fagforeningsmatrisen vår slik ut:

\[((A)^(-1))=\frac(1)(\venstre| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\venstre[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\venstre[ \begin (matrise)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(matrise) \right]\]

OK, det er over nå. Problemet er løst.

Svar. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Løsning. Vi beregner determinanten igjen:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrise) ) \venstre(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\venstre (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrise)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Determinanten er ikke null - matrisen er inverterbar. Men nå kommer det til å bli veldig tøft: vi må telle så mange som 9 (ni, jævla!) algebraiske tillegg. Og hver av dem vil inneholde determinanten $\venstre[ 2\ ganger 2 \right]$. Fløy:

\[\begin(matrise) ((A)_(11))=((\venstre(-1 \høyre))^(1+1))\cdot \venstre| \begin(matrise) 2 & -1 \\ 0 & 1 \\\end(matrise) \right|=2; \\ ((A)_(12))=((\venstre(-1 \høyre))^(1+2))\cdot \venstre| \begin(matrise) 0 & -1 \\ 1 & 1 \\\end(matrise) \right|=-1; \\ ((A)_(13))=((\venstre(-1 \høyre))^(1+3))\cdot \venstre| \begin(matrise) 0 & 2 \\ 1 & 0 \\\end(matrise) \right|=-2; \\ ... \\ ((A)_(33))=((\venstre(-1 \høyre))^(3+3))\cdot \venstre| \begin(matrise) 1 & -1 \\ 0 & 2 \\\end(matrise) \right|=2; \\ \end(matrise)\]

Kort fortalt vil fagforeningsmatrisen se slik ut:

Derfor vil den inverse matrisen være:

\[((A)^(-1))=\frac(1)(-1)\cdot \venstre[ \begin(matrise) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrise) \right]=\venstre[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Det er det. Her er svaret.

Svar. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Som du kan se, utførte vi en sjekk på slutten av hvert eksempel. I denne forbindelse, en viktig merknad:

Ikke vær lat med å sjekke. Multipliser den opprinnelige matrisen med den funnet inverse matrisen - du bør få $E$.

Å utføre denne kontrollen er mye enklere og raskere enn å lete etter en feil i videre beregninger når du for eksempel skal løse en matriseligning.

Alternativ måte

Som jeg sa, den inverse matriseteoremet fungerer utmerket for størrelsene $\venstre[ 2\ ganger 2 \høyre]$ og $\venstre[ 3\ ganger 3 \høyre]$ (i sistnevnte tilfelle er det ikke så "flott" " ), men for større matriser begynner tristheten.

Men ikke bekymre deg: det finnes en alternativ algoritme som du kan finne inversen rolig med selv for matrisen $\left[ 10\times 10 \right]$. Men, som ofte skjer, trenger vi litt teoretisk bakgrunn for å vurdere denne algoritmen.

Elementære transformasjoner

Blant alle mulige matrisetransformasjoner er det flere spesielle - de kalles elementære. Det er nøyaktig tre slike transformasjoner:

  1. Multiplikasjon. Du kan ta $i$th rad (kolonne) og multiplisere den med et hvilket som helst tall $k\ne 0$;
  2. Addisjon. Legg til $i$-th rad (kolonne) en hvilken som helst annen $j$-th rad (kolonne), multiplisert med et hvilket som helst tall $k\ne 0$ (du kan selvfølgelig gjøre $k=0$, men hva er poenget? Ingenting vil endre seg).
  3. Omorganisering. Ta $i$th og $j$th radene (kolonner) og bytt plass.

Hvorfor disse transformasjonene kalles elementære (for store matriser ser de ikke så elementære ut) og hvorfor det bare er tre av dem - disse spørsmålene er utenfor rammen av dagens leksjon. Derfor vil vi ikke gå i detaljer.

En annen ting er viktig: vi må utføre alle disse perversjonene på den tilstøtende matrisen. Ja, ja: du hørte riktig. Nå blir det en definisjon til - den siste i dagens leksjon.

Sammenhengende matrise

Sikkert på skolen løste du likningssystemer ved hjelp av addisjonsmetoden. Vel, der, trekk en annen fra en linje, multipliser en linje med et tall - det er alt.

Så: nå vil alt være det samme, men på en "voksen" måte. Klar?

Definisjon. La en matrise $A=\venstre[ n\ ganger n \right]$ og en identitetsmatrise $E$ av samme størrelse $n$ gis. Deretter den tilstøtende matrisen $\venstre[ A\venstre| E\rett. \right]$ er en ny matrise med størrelsen $\left[ n\ ganger 2n \right]$ som ser slik ut:

\[\venstre[ A\venstre| E\rett. \right]=\venstre[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kort sagt, vi tar matrisen $A$, til høyre tilordner vi den identitetsmatrisen $E$ av ønsket størrelse, vi skiller dem med en vertikal strek for skjønnhet - her har du tilslaget. :)

Hva er fangsten? Her er hva:

Teorem. La matrisen $A$ være inverterbar. Tenk på den tilstøtende matrisen $\left[ A\left| E\rett. \right]$. Hvis du bruker elementære strengkonverteringer ta den til formen $\left[ E\left| Lys. \right]$, dvs. ved å multiplisere, subtrahere og omorganisere rader for å få fra $A$ matrisen $E$ til høyre, så er matrisen $B$ oppnådd til venstre den inverse av $A$:

\[\venstre[ A\venstre| E\rett. \høyre]\til \venstre[ E\venstre| Lys. \right]\Høyrepil B=((A)^(-1))\]

Så enkelt er det! Kort sagt, algoritmen for å finne den inverse matrisen ser slik ut:

  1. Skriv den tilstøtende matrisen $\venstre[ A\venstre| E\rett. \right]$;
  2. Utfør elementære strengkonverteringer til $E$ vises i stedet for $A$;
  3. Selvfølgelig vil det også dukke opp noe til venstre - en viss matrise $B$. Dette vil være det motsatte;
  4. PROFITT!:)

Dette er selvfølgelig mye lettere sagt enn gjort. Så la oss se på et par eksempler: for størrelsene $\venstre[ 3\ ganger 3 \høyre]$ og $\venstre[ 4\ ganger 4 \høyre]$.

Oppgave. Finn den inverse matrisen:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Løsning. Vi lager den tilstøtende matrisen:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Siden den siste kolonnen i den opprinnelige matrisen er fylt med enere, trekker du den første raden fra resten:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\\end(matrise)\to \\ & \to \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Det er ingen flere enheter, bortsett fra den første linjen. Men vi rører det ikke, ellers vil de nylig fjernede enhetene begynne å "multipiseres" i den tredje kolonnen.

Men vi kan trekke den andre linjen to ganger fra den siste - vi får en i nedre venstre hjørne:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrise) \ \\ \nedoverpil \\ -2 \\\end(matrise)\to \\ & \venstre [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Nå kan vi trekke den siste raden fra den første og to ganger fra den andre - på denne måten "nuller" vi den første kolonnen:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -1 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \ til \venstre[ \begin(matrise)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multipliser den andre linjen med −1, og trekk den 6 ganger fra den første og legg til 1 gang til den siste:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrise) -6 \\ \updownarrow \\ +1 \\\end (matrise)\to \\ & \to \venstre[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Alt som gjenstår er å bytte linje 1 og 3:

\[\venstre[ \begin(matrise)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Klar! Til høyre er den nødvendige inverse matrisen.

Svar. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Oppgave. Finn den inverse matrisen:

\[\venstre[ \begin(matrise) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrise) \right]\]

Løsning. Vi komponerer adjunkten igjen:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

La oss gråte litt, være triste over hvor mye vi må telle nå... og begynne å telle. Først, la oss "nullstille" den første kolonnen ved å trekke rad 1 fra rad 2 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrise) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Vi ser for mange "ulemper" i linje 2-4. Multipliser alle tre radene med −1, og brenn deretter ut den tredje kolonnen ved å trekke rad 3 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(matrise) \right]\begin(matrise) \ \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\ \venstre| \cdot \left(-1 \right) \right. \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (matrise) \right]\begin(matrise) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrise)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Nå er det på tide å "steke" den siste kolonnen i den opprinnelige matrisen: trekk linje 4 fra resten:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrise) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrise)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Siste kast: "brenn ut" den andre kolonnen ved å trekke linje 2 fra linje 1 og 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrise) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrise)\to \\ & \to \venstre[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Og igjen er identitetsmatrisen til venstre, noe som betyr at inversen er til høyre. :)

Svar. $\left[ \begin(matrise) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrise) \right]$

Ligner det omvendte i mange egenskaper.

Encyklopedisk YouTube

    1 / 5

    ✪ Hvordan finne inversen til en matrise - bezbotvy

    ✪ Invers matrise (2 måter å finne)

    ✪ Invers matrise #1

    ✪ 2015-01-28. Invers 3x3 matrise

    ✪ 2015-01-27. Invers matrise 2x2

    Undertekster

Egenskaper til en invers matrise

  • det A − 1 = 1 det A (\displaystyle \det A^(-1)=(\frac (1)(\det A))), Hvor det (\displaystyle \\det ) angir determinanten.
  • (A B) − 1 = B − 1 A − 1 (\displaystyle \ (AB)^(-1)=B^(-1)A^(-1)) for to kvadratiske inverterbare matriser A (\displaystyle A) Og B (\displaystyle B).
  • (A T) − 1 = (A − 1) T (\displaystyle \ (A^(T))^(-1)=(A^(-1))^(T)), Hvor (. . .) T (\displaystyle (...)^(T)) betegner en transponert matrise.
  • (k A) − 1 = k − 1 A − 1 (\displaystyle \ (kA)^(-1)=k^(-1)A^(-1)) for enhver koeffisient k ≠ 0 (\displaystyle k\not =0).
  • E − 1 = E (\displaystyle \E^(-1)=E).
  • Hvis det er nødvendig å løse et system med lineære ligninger, (b er en vektor som ikke er null) hvor x (\displaystyle x) er den ønskede vektoren, og hvis A − 1 (\displaystyle A^(-1)) finnes altså x = A − 1 b (\displaystyle x=A^(-1)b). Ellers er enten dimensjonen på løsningsrommet større enn null, eller så er det ingen løsninger i det hele tatt.

Metoder for å finne den inverse matrisen

Hvis matrisen er inverterbar, kan du bruke en av følgende metoder for å finne den inverse matrisen:

Nøyaktige (direkte) metoder

Gauss-Jordan-metoden

La oss ta to matriser: den EN og singel E. La oss presentere matrisen EN til identitetsmatrisen ved å bruke Gauss-Jordan-metoden, ved å bruke transformasjoner langs radene (du kan også bruke transformasjoner langs kolonnene, men ikke blandet). Etter å ha brukt hver operasjon på den første matrisen, bruk den samme operasjonen på den andre. Når reduksjonen av den første matrisen til enhetsform er fullført, vil den andre matrisen være lik A−1.

Ved bruk av Gauss-metoden vil den første matrisen multipliseres til venstre med en av de elementære matrisene Λ i (\displaystyle \Lambda _(i))(transveksjon eller diagonal matrise med enheter på hoveddiagonalen, bortsett fra én posisjon):

Λ 1 ⋅ ⋯ ⋅ Λ n ⋅ A = Λ A = E ⇒ Λ = A − 1 (\displaystyle \Lambda _(1)\cdot \dots \cdot \Lambda _(n)\cdot A=\Lambda A=E \Høyrepil \Lambda =A^(-1)). Λ m = [ 1 … 0 − a 1 m / a m m 0 … 0 … 0 … 1 − a m − 1 m / a m m 0 … 0 0 … 0 1 / a m m 0 … 0 0 … 0 − a m + 1 m / a m m 1 … 0 … 0 … 0 − a n m / a m m 0 … 1 ] (\displaystyle \Lambda _(m)=(\begin(bmatrix)1&\dots &0&-a_(1m)/a_(mm)&0&\dots &0\\ &&&\prikker &&&\\0&\prikker &1&-a_(m-1m)/a_(mm)&0&\prikker &0\\0&\prikker &0&1/a_(mm)&0&\prikker &0\\0&\prikker &0&-a_( m+1m)/a_(mm)&1&\prikker &0\\&&&\prikker &&&\\0&\prikker &0&-a_(nm)/a_(mm)&0&\prikker &1\end(bmatrise))).

Den andre matrisen etter å ha brukt alle operasjoner vil være lik Λ (\displaystyle \Lambda), det vil si at det vil være den ønskede. Algoritmekompleksitet - O (n 3) (\displaystyle O(n^(3))).

Bruke den algebraiske komplementmatrisen

Matrise invers av matrise A (\displaystyle A), kan representeres i skjemaet

A − 1 = adj (A) det (A) (\displaystyle (A)^(-1)=(((\mbox(adj))(A)) \over (\det(A))))

Hvor adj (A) (\displaystyle (\mbox(adj))(A))- tilstøtende matrise;

Kompleksiteten til algoritmen avhenger av kompleksiteten til algoritmen for å beregne determinanten O det og er lik O(n²)·O det.

Bruker LU/LUP-dekomponering

Matriseligning A X = I n (\displaystyle AX=I_(n)) for den inverse matrisen X (\displaystyle X) kan betraktes som en samling n (\displaystyle n) skjemaets systemer A x = b (\displaystyle Ax=b). La oss betegne i (\displaystyle i) kolonnen i matrisen X (\displaystyle X) gjennom X i (\displaystyle X_(i)); Deretter A X i = e i (\displaystyle AX_(i)=e_(i)), i = 1 , … , n (\displaystyle i=1,\ldots ,n),fordi det i (\displaystyle i) kolonnen i matrisen I n (\displaystyle I_(n)) er enhetsvektoren e i (\displaystyle e_(i)). med andre ord, å finne den inverse matrisen kommer ned til å løse n ligninger med samme matrise og forskjellige høyresider. Etter å ha utført LUP-dekomponeringen (O(n³)-tiden), tar det O(n²)-tid å løse hver av n-ligningene, så denne delen av arbeidet krever også O(n³)-tid.

Hvis matrisen A er ikke-singular, kan LUP-dekomponeringen beregnes for den P A = L U (\displaystyle PA=LU). La P A = B (\displaystyle PA=B), B − 1 = D (\displaystyle B^(-1)=D). Så fra egenskapene til den inverse matrisen kan vi skrive: D = U − 1 L − 1 (\displaystyle D=U^(-1)L^(-1)). Hvis du multipliserer denne likheten med U og L, kan du få to likheter av formen U D = L − 1 (\displaystyle UD=L^(-1)) Og D L = U − 1 (\displaystyle DL=U^(-1)). Den første av disse likhetene er et system med n² lineære ligninger for n (n + 1) 2 (\displaystyle (\frac (n(n+1))(2))) hvorfra høyresidene er kjent (fra egenskapene til trekantede matriser). Den andre representerer også et system med n² lineære ligninger for n (n − 1) 2 (\displaystyle (\frac (n(n-1))(2))) hvorfra høyresidene er kjent (også fra egenskapene til trekantede matriser). Sammen representerer de et system med n² likheter. Ved å bruke disse likhetene kan vi rekursivt bestemme alle n² elementer i matrisen D. Så får vi likheten (PA) −1 = A −1 P −1 = B −1 = D. A − 1 = D P (\displaystyle A^(-1)=DP).

Ved bruk av LU-dekomponering er ingen permutasjon av kolonnene i matrisen D nødvendig, men løsningen kan divergere selv om matrisen A er ikke-singular.

Kompleksiteten til algoritmen er O(n³).

Iterative metoder

Schultz metoder

( Ψ k = E − A U k , U k + 1 = U k ∑ i = 0 n Ψ k i (\displaystyle (\begin(cases)\Psi _(k)=E-AU_(k),\\U_( k+1)=U_(k)\sum _(i=0)^(n)\Psi _(k)^(i)\end(cases)))

Feilanslag

Velge en innledende tilnærming

Problemet med å velge den første tilnærmingen i de iterative matriseinversjonsprosessene som er vurdert her, tillater oss ikke å behandle dem som uavhengige universelle metoder som konkurrerer med direkte inversjonsmetoder basert for eksempel på LU-dekomponering av matriser. Det er noen anbefalinger for valg U 0 (\displaystyle U_(0)), som sikrer oppfyllelsen av vilkåret ρ (Ψ 0) < 1 {\displaystyle \rho (\Psi _{0})<1} (spektralradius av matrisen er mindre enn enhet), noe som er nødvendig og tilstrekkelig for konvergens av prosessen. Men i dette tilfellet, for det første, er det nødvendig å vite ovenfra estimatet for spekteret til den inverterbare matrisen A eller matrisen A A T (\displaystyle AA^(T))(nemlig hvis A er en symmetrisk positiv bestemt matrise og ρ (A) ≤ β (\displaystyle \rho (A)\leq \beta ), så kan du ta U 0 = α E (\displaystyle U_(0)=(\alpha )E), Hvor ; hvis A er en vilkårlig ikke-singular matrise og ρ (A A T) ≤ β (\displaystyle \rho (AA^(T))\leq \beta ), så tror de U 0 = α A T (\displaystyle U_(0)=(\alpha )A^(T)), hvor også α ∈ (0 , 2 β) (\displaystyle \alpha \in \left(0,(\frac (2)(\beta ))\right)); Du kan selvfølgelig forenkle situasjonen og dra nytte av det ρ (A A T) ≤ k A A T k (\displaystyle \rho (AA^(T))\leq (\mathcal (k))AA^(T)(\mathcal (k))), sette U 0 = A T ‖ A A T ‖ (\displaystyle U_(0)=(\frac (A^(T))(\|AA^(T)\|)))). For det andre, når du spesifiserer den opprinnelige matrisen på denne måten, er det ingen garanti for det ‖ Ψ 0 ‖ (\displaystyle \|\Psi _(0)\|) vil være liten (kanskje vil det til og med vise seg å være det ‖ Ψ 0 ‖ > 1 (\displaystyle \|\Psi _(0)\|>1)), og en høy konvergensrate vil ikke bli avslørt umiddelbart.

Eksempler

Matrise 2x2

A − 1 = [ a b c d ] − 1 = 1 det (A) [ d − b − c a ] = 1 a d − b c [ d − b − c a ] . (\displaystyle \mathbf (A) ^(-1)=(\begin(bmatrix)a&b\\c&d\\\end(bmatrix))^(-1)=(\frac (1)(\det(\mathbf) (A))))(\begin(bmatrise)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrise))=(\frac (1)(ad- bc))(\begin(bmatrise)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrise)).)

Inversjon av en 2x2 matrise er bare mulig under forutsetning av at a d − b c = det A ≠ 0 (\displaystyle ad-bc=\det A\neq 0).

Matrise A -1 kalles den inverse matrisen med hensyn til matrise A hvis A*A -1 = E, hvor E er identitetsmatrisen av n-te orden. En invers matrise kan bare eksistere for kvadratiske matriser.

Formålet med tjenesten. Ved å bruke denne tjenesten online kan du finne algebraiske komplementer, transponert matrise A T, alliert matrise og invers matrise. Avgjørelsen gjennomføres direkte på nettsiden (online) og er gratis. Beregningsresultatene presenteres i en rapport i Word- og Excel-format (det vil si at det er mulig å sjekke løsningen). se designeksempel.

Bruksanvisning. For å få en løsning er det nødvendig å spesifisere dimensjonen til matrisen. Deretter fyller du ut matrise A i den nye dialogboksen.

Matrisedimensjon 2 3 4 5 6 7 8 9 10

Se også Invers matrise ved bruk av Jordano-Gauss-metoden

Algoritme for å finne den inverse matrisen

  1. Finne den transponerte matrisen A T .
  2. Definisjon av algebraiske komplementer. Erstatt hvert element i matrisen med dets algebraiske komplement.
  3. Kompilere en invers matrise fra algebraiske tillegg: hvert element i den resulterende matrisen er delt med determinanten til den opprinnelige matrisen. Den resulterende matrisen er den inverse av den opprinnelige matrisen.
Neste algoritme for å finne den inverse matrisen lik den forrige bortsett fra noen trinn: først beregnes de algebraiske komplementene, og deretter bestemmes den allierte matrisen C.
  1. Bestem om matrisen er kvadratisk. Hvis ikke, er det ingen invers matrise for det.
  2. Beregning av determinanten til matrisen A. Hvis den ikke er lik null, fortsetter vi løsningen, ellers eksisterer ikke den inverse matrisen.
  3. Definisjon av algebraiske komplementer.
  4. Fylle ut unionsmatrisen (gjensidig, tilstøtende) C .
  5. Kompilere en invers matrise fra algebraiske addisjoner: hvert element i den adjoint matrisen C deles med determinanten til den opprinnelige matrisen. Den resulterende matrisen er den inverse av den opprinnelige matrisen.
  6. De gjør en sjekk: de multipliserer originalen og de resulterende matrisene. Resultatet bør være en identitetsmatrise.

Eksempel nr. 1. La oss skrive matrisen på skjemaet:


Algebraiske tillegg.
A 1,1 = (-1) 1+1
-1 -2
5 4

∆ 1,1 = (-1 4-5 (-2)) = 6
A 1,2 = (-1) 1+2
2 -2
-2 4

∆ 1,2 = -(2 4-(-2 (-2))) = -4
A 1,3 = (-1) 1+3
2 -1
-2 5

∆ 1,3 = (2 5-(-2 (-1))) = 8
A 2,1 = (-1) 2+1
2 3
5 4

∆ 2,1 = -(2 4-5 3) = 7
A 2,2 = (-1) 2+2
-1 3
-2 4

∆ 2,2 = (-1 4-(-2 3)) = 2
A 2,3 = (-1) 2+3
-1 2
-2 5

∆ 2,3 = -(-1 5-(-2 2)) = 1
A 3,1 = (-1) 3+1
2 3
-1 -2

∆ 3,1 = (2 (-2)-(-1 3)) = -1
A 3,2 = (-1) 3+2
-1 3
2 -2

∆ 3,2 = -(-1 (-2)-2 3) = 4
A 3,3 = (-1) 3+3
-1 2
2 -1

∆ 3,3 = (-1 (-1)-2 2) = -3
Deretter invers matrise kan skrives som:
A -1 = 1/10
6 -4 8
7 2 1
-1 4 -3

A -1 =
0,6 -0,4 0,8
0,7 0,2 0,1
-0,1 0,4 -0,3

En annen algoritme for å finne den inverse matrisen

La oss presentere et annet skjema for å finne den inverse matrisen.
  1. Finn determinanten til en gitt kvadratmatrise A.
  2. Vi finner algebraiske komplementer til alle elementene i matrisen A.
  3. Vi skriver algebraiske tillegg av radelementer til kolonner (transposisjon).
  4. Vi deler hvert element i den resulterende matrisen med determinanten til matrisen A.
Som vi ser, kan transposisjonsoperasjonen brukes både i begynnelsen, på den opprinnelige matrisen og på slutten, på de resulterende algebraiske tilleggene.

Et spesielt tilfelle: Inversen av identitetsmatrisen E er identitetsmatrisen E.

La oss fortsette samtalen om handlinger med matriser. I løpet av studiet av denne forelesningen vil du nemlig lære hvordan du finner den inverse matrisen. Lære. Selv om matematikk er vanskelig.

Hva er en invers matrise? Her kan vi trekke en analogi med inverse tall: tenk for eksempel på det optimistiske tallet 5 og dets inverse tall. Produktet av disse tallene er lik én: . Alt er likt med matriser! Produktet av en matrise og dens inverse matrise er lik - identitetsmatrise, som er matriseanalogen til den numeriske enheten. Men først ting først - la oss først løse et viktig praktisk problem, nemlig å lære hvordan du finner denne svært omvendte matrisen.

Hva trenger du å vite og kunne gjøre for å finne den inverse matrisen? Du må kunne bestemme kvalifiseringer. Du må forstå hva det er matrise og kunne utføre noen handlinger med dem.

Det er to hovedmetoder for å finne den inverse matrisen:
ved bruk av algebraiske tillegg Og ved hjelp av elementære transformasjoner.

I dag skal vi studere den første, enklere metoden.

La oss starte med det mest forferdelige og uforståelige. La oss vurdere torget matrise. Den inverse matrisen kan bli funnet ved å bruke følgende formel:

Hvor er determinanten for matrisen, er den transponerte matrisen av algebraiske komplementer til de tilsvarende elementene i matrisen.

Konseptet med en invers matrise eksisterer bare for kvadratiske matriser, matriser "to og to", "tre av tre", osv.

Betegnelser: Som du kanskje allerede har lagt merke til, er den inverse matrisen merket med et hevet skrift

La oss starte med det enkleste tilfellet - en to-og-to-matrise. Oftest kreves selvfølgelig "tre og tre", men likevel anbefaler jeg på det sterkeste å studere en enklere oppgave for å forstå det generelle prinsippet for løsningen.

Eksempel:

Finn inversen til en matrise

La oss bestemme. Det er praktisk å bryte ned handlingssekvensen punkt for punkt.

1) Først finner vi determinanten til matrisen.

Hvis din forståelse av denne handlingen ikke er god, les materialet Hvordan beregne determinanten?

Viktig! Hvis determinanten til matrisen er lik NULL– invers matrise EKSISTERER IKKE.

I eksemplet under vurdering, viste det seg, , som betyr at alt er i orden.

2) Finn matrisen av mindreårige.

For å løse problemet vårt er det ikke nødvendig å vite hva en mindreårig er, men det anbefales å lese artikkelen Hvordan beregne determinanten.

Matrisen av mindreårige har samme dimensjoner som matrisen, det vil si i dette tilfellet.
Det eneste som gjenstår er å finne fire tall og sette dem i stedet for stjerner.

La oss gå tilbake til matrisen vår
La oss først se på elementet øverst til venstre:

Hvordan finne den liten?
Og dette gjøres slik: MENTALT kryss ut raden og kolonnen der dette elementet er plassert:

Det resterende tallet er mindre av dette elementet, som vi skriver i vår matrise over mindreårige:

Tenk på følgende matriseelement:

Kryss mentalt ut raden og kolonnen der dette elementet vises:

Det som gjenstår er minor av dette elementet, som vi skriver i matrisen vår:

På samme måte vurderer vi elementene i den andre raden og finner deres mindreårige:


Klar.

Det er enkelt. I matrisen av mindreårige trenger du ENDRE TEGN to tall:

Dette er tallene jeg ringte rundt!

– matrise av algebraiske addisjoner av de tilsvarende elementene i matrisen.

Og bare...

4) Finn den transponerte matrisen av algebraiske addisjoner.

– transponert matrise av algebraiske komplementer til de tilsvarende elementene i matrisen.

5) Svar.

La oss huske formelen vår
Alt er funnet!

Så den inverse matrisen er:

Det er bedre å la svaret være som det er. INGEN BEHOV del hvert element i matrisen med 2, siden resultatet er brøktall. Denne nyansen diskuteres mer detaljert i samme artikkel. Handlinger med matriser.

Hvordan sjekke løsningen?

Du må utføre matrisemultiplikasjon eller

Undersøkelse:

Mottatt allerede nevnt identitetsmatrise er en matrise med ener ved hoveddiagonal og nuller andre steder.

Dermed blir den inverse matrisen funnet riktig.

Hvis du gjennomfører handlingen, blir resultatet også en identitetsmatrise. Dette er et av de få tilfellene der matrisemultiplikasjon er kommutativ, flere detaljer finner du i artikkelen Egenskaper for operasjoner på matriser. Matriseuttrykk. Legg også merke til at under kontrollen blir konstanten (brøken) trukket frem og behandlet helt på slutten - etter matrisemultiplikasjonen. Dette er en standardteknikk.

La oss gå videre til en mer vanlig sak i praksis - tre-av-tre-matrisen:

Eksempel:

Finn inversen til en matrise

Algoritmen er nøyaktig den samme som for tilfellet "to og to".

Vi finner den inverse matrisen ved å bruke formelen: , hvor er den transponerte matrisen av algebraiske komplementer til de tilsvarende elementene i matrisen.

1) Finn determinanten til matrisen.


Her avsløres determinanten på første linje.

Ikke glem det, noe som betyr at alt er bra - invers matrise eksisterer.

2) Finn matrisen av mindreårige.

Matrisen av mindreårige har en dimensjon på "tre ganger tre" , og vi må finne ni tall.

Jeg skal se på et par mindreårige i detalj:

Tenk på følgende matriseelement:

MENTALT kryss ut raden og kolonnen der dette elementet er plassert:

Vi skriver de resterende fire tallene i "to og to"-determinanten.

Denne to-og-to determinanten og er minor av dette elementet. Det må beregnes:


Det er det, den mindreårige er funnet, vi skriver det i vår matrise over mindreårige:

Som du sikkert har gjettet, må du beregne ni to-og-to determinanter. Prosessen er selvfølgelig kjedelig, men saken er ikke den mest alvorlige, den kan bli verre.

Vel, for å konsolidere – finne en annen mindreårig på bildene:

Prøv å beregne de resterende mindreårige selv.

Endelig resultat:
– matrise av mindreårige av de tilsvarende elementene i matrisen.

At alle de mindreårige viste seg å være negative er en ren ulykke.

3) Finn matrisen av algebraiske addisjoner.

I matrisen av mindreårige er det nødvendig ENDRE TEGN strengt tatt for følgende elementer:

I dette tilfellet:

Vi vurderer ikke å finne den inverse matrisen for en "fire ganger fire" matrise, siden en slik oppgave bare kan gis av en sadistisk lærer (for at eleven skal beregne en "fire ganger fire" determinant og 16 "tre ganger tre" determinanter ). I min praksis var det bare ett slikt tilfelle, og kunden av testen betalte ganske dyrt for plagene mine =).

I en rekke lærebøker og manualer kan du finne en litt annen tilnærming til å finne den inverse matrisen, men jeg anbefaler å bruke løsningsalgoritmen som er skissert ovenfor. Hvorfor? Fordi sannsynligheten for å bli forvirret i beregninger og tegn er mye mindre.

Vanligvis brukes inverse operasjoner for å forenkle komplekse algebraiske uttrykk. For eksempel, hvis problemet involverer operasjonen med å dele med en brøk, kan du erstatte den med operasjonen med å multiplisere med den resiproke av en brøk, som er den inverse operasjonen. Dessuten kan ikke matriser deles, så du må multiplisere med den inverse matrisen. Å beregne inversen til en 3x3-matrise er ganske kjedelig, men du må kunne gjøre det manuelt. Du kan også finne det gjensidige ved å bruke en god grafisk kalkulator.

Trinn

Ved hjelp av den tilstøtende matrisen

Transponer den originale matrisen. Transponering er erstatning av rader med kolonner i forhold til hoveddiagonalen til matrisen, det vil si at du må bytte elementene (i,j) og (j,i). I dette tilfellet endres ikke elementene i hoveddiagonalen (starter i øvre venstre hjørne og slutter i nedre høyre hjørne).

  • For å endre rader til kolonner, skriv elementene i den første raden i den første kolonnen, elementene i den andre raden i den andre kolonnen, og elementene i den tredje raden i den tredje kolonnen. Rekkefølgen for å endre plasseringen av elementene er vist i figuren, der de tilsvarende elementene er omringet med fargede sirkler.
  • Finn definisjonen av hver 2x2 matrise. Hvert element i en matrise, inkludert en transponert, er assosiert med en tilsvarende 2x2 matrise. For å finne en 2x2-matrise som tilsvarer et spesifikt element, kryss ut raden og kolonnen der det gitte elementet er plassert, det vil si at du må krysse ut fem elementer av den originale 3x3-matrisen. Fire elementer vil forbli ukrysset, som er elementer i den tilsvarende 2x2-matrisen.

    • For å finne en 2x2-matrise for elementet som er plassert i skjæringspunktet mellom den andre raden og den første kolonnen, krysser du for eksempel ut de fem elementene som er i den andre raden og den første kolonnen. De resterende fire elementene er elementer i den tilsvarende 2x2-matrisen.
    • Finn determinanten for hver 2x2 matrise. For å gjøre dette, trekk produktet av elementene i sekundærdiagonalen fra produktet av elementene i hoveddiagonalen (se figur).
    • Detaljert informasjon om 2x2-matriser som tilsvarer spesifikke elementer i en 3x3-matrise finnes på Internett.
  • Lag en kofaktormatrise. Skriv resultatene oppnådd tidligere i form av en ny kofaktormatrise. For å gjøre dette, skriv den funnet determinanten for hver 2x2-matrise der det tilsvarende elementet i 3x3-matrisen var plassert. For eksempel, hvis du vurderer en 2x2 matrise for element (1,1), skriv dets determinant i posisjon (1,1). Endre deretter tegnene til de tilsvarende elementene i henhold til et bestemt skjema, som er vist på figuren.

    • Opplegg for å endre tegn: tegnet til det første elementet i den første linjen endres ikke; tegnet til det andre elementet i den første linjen er reversert; tegnet til det tredje elementet i den første linjen endres ikke, og så videre linje for linje. Vær oppmerksom på at "+" og "-" tegnene som vises i diagrammet (se figur) ikke indikerer at det tilsvarende elementet vil være positivt eller negativt. I dette tilfellet indikerer "+"-tegnet at tegnet til elementet ikke endres, og "-"-tegnet indikerer en endring i elementets tegn.
    • Detaljert informasjon om kofaktormatriser finnes på Internett.
    • På denne måten vil du finne den tilstøtende matrisen til den opprinnelige matrisen. Det kalles noen ganger en kompleks konjugert matrise. En slik matrise er betegnet som adj(M).
  • Del hvert element i den tilstøtende matrisen med dens determinant. Determinanten til matrisen M ble beregnet helt i begynnelsen for å kontrollere at den inverse matrisen eksisterer. Del nå hvert element i den tilstøtende matrisen med denne determinanten. Skriv resultatet av hver delingsoperasjon der det tilsvarende elementet er plassert. På denne måten vil du finne matrisen invers til den opprinnelige.

    • Determinanten for matrisen som er vist på figuren er 1. Her er altså den adjoint matrisen den inverse matrisen (fordi når et hvilket som helst tall deles på 1, endres det ikke).
    • I noen kilder er divisjonsoperasjonen erstattet av operasjonen med multiplikasjon med 1/det(M). Det endelige resultatet endres imidlertid ikke.
  • Skriv den inverse matrisen. Skriv elementene som ligger på høyre halvdel av den store matrisen som en egen matrise, som er den inverse matrisen.

    Skriv inn den opprinnelige matrisen i kalkulatorens minne. For å gjøre dette, klikk på Matrix-knappen, hvis tilgjengelig. For en Texas Instruments-kalkulator må du kanskje trykke på 2nd og Matrix-knappene.

    Velg Rediger-menyen. Gjør dette ved å bruke pilknappene eller den aktuelle funksjonsknappen som er plassert øverst på kalkulatorens tastatur (plasseringen av knappen varierer avhengig av kalkulatormodellen).

    Skriv inn matrisenotasjonen. De fleste grafiske kalkulatorer kan arbeide med 3-10 matriser, som kan angis med bokstavene A-J. Vanligvis velger du bare [A] for å angi den opprinnelige matrisen. Trykk deretter på Enter-knappen.

    Skriv inn matrisestørrelsen. Denne artikkelen snakker om 3x3-matriser. Men grafiske kalkulatorer kan fungere med store matriser. Skriv inn antall rader, trykk Enter, skriv deretter inn antall kolonner og trykk Enter igjen.

    Skriv inn hvert matriseelement. En matrise vil vises på kalkulatorens skjerm. Hvis du tidligere har lagt inn en matrise i kalkulatoren, vil den vises på skjermen. Markøren vil markere det første elementet i matrisen. Skriv inn verdien for det første elementet og trykk Enter. Markøren vil automatisk flytte til neste matriseelement.