Finn operatørens egenverdier. Egenverdier (tall) og egenvektorer Eksempler på løsninger

Diagonale matriser har den enkleste strukturen. Spørsmålet oppstår om det er mulig å finne et grunnlag der matrisen til den lineære operatoren vil ha en diagonal form. Et slikt grunnlag finnes.
La oss få et lineært rom R n og en lineær operator A som virker i det; i dette tilfellet tar operator A R n inn i seg selv, det vil si A:R n → R n .

Definisjon. En vektor som ikke er null kalles en egenvektor til operatoren A hvis operatoren A oversetter til en kollineær vektor, det vil si. Tallet λ kalles egenverdien eller egenverdien til operatoren A, tilsvarende egenvektoren.
La oss merke seg noen egenskaper til egenverdier og egenvektorer.
1. Enhver lineær kombinasjon av egenvektorer operator A som tilsvarer samme egenverdi λ er en egenvektor med samme egenverdi.
2. Egenvektorer operator A med parvis forskjellige egenverdier λ 1 , λ 2 , …, λ m er lineært uavhengige.
3. Hvis egenverdiene λ 1 =λ 2 = λ m = λ, så tilsvarer egenverdien λ ikke mer enn m lineært uavhengige egenvektorer.

Så hvis det er n lineært uavhengige egenvektorer , tilsvarende forskjellige egenverdier λ 1, λ 2, ..., λ n, så er de lineært uavhengige, derfor kan de tas som grunnlag for rommet R n. La oss finne formen til matrisen til den lineære operatøren A på grunnlag av dens egenvektorer, for hvilke vi vil handle med operatøren A på basisvektorene: Deretter .
Dermed har matrisen til den lineære operatoren A på grunnlag av egenvektorene en diagonal form, og egenverdiene til operatoren A er langs diagonalen.
Er det et annet grunnlag der matrisen har en diagonal form? Svaret på dette spørsmålet er gitt av følgende teorem.

Teorem. Matrisen til en lineær operator A i basisen (i = 1..n) har en diagonal form hvis og bare hvis alle vektorene til basisen er egenvektorer til operatoren A.

Regel for å finne egenverdier og egenvektorer

La en vektor gis , hvor x 1, x 2, …, x n er koordinatene til vektoren i forhold til basisen og er egenvektoren til den lineære operatoren A som tilsvarer egenverdien λ, dvs. Dette forholdet kan skrives i matriseform

. (*)


Ligning (*) kan betraktes som en ligning for å finne , og , det vil si at vi er interessert i ikke-trivielle løsninger, siden egenvektoren ikke kan være null. Det er kjent at ikke-trivielle løsninger av et homogent system av lineære ligninger eksisterer hvis og bare hvis det(A - λE) = 0. For at λ skal være en egenverdi til operatoren A er det derfor nødvendig og tilstrekkelig at det(A - λE) ) = 0.
Hvis ligningen (*) er skrevet i detalj i koordinatform, får vi et system med lineære homogene ligninger:

(1)
Hvor - lineær operatørmatrise.

System (1) har en løsning som ikke er null hvis determinanten D er lik null


Vi fikk en ligning for å finne egenverdier.
Denne ligningen kalles den karakteristiske ligningen, og dens venstre side kalles det karakteristiske polynomet til matrisen (operatoren) A. Hvis det karakteristiske polynomet ikke har noen reelle røtter, har matrisen A ingen egenvektorer og kan ikke reduseres til diagonal form.
La λ 1, λ 2, …, λ n være de reelle røttene til den karakteristiske ligningen, og blant dem kan det være multipler. Ved å erstatte disse verdiene i sin tur til system (1), finner vi egenvektorene.

Eksempel 12. Den lineære operatoren A virker i R 3 i henhold til loven, hvor x 1, x 2, .., x n er koordinatene til vektoren i basisen , , . Finn egenverdiene og egenvektorene til denne operatoren.
Løsning. Vi bygger matrisen til denne operatøren:
.
Vi lager et system for å bestemme koordinatene til egenvektorer:

Vi lager en karakteristisk ligning og løser den:

.
λ 1,2 = -1, λ 3 = 3.
Ved å erstatte λ = -1 i systemet, har vi:
eller
Fordi , så er det to avhengige variabler og en fri variabel.
La x 1 være en ledig ukjent, da Vi løser dette systemet på hvilken som helst måte og finner den generelle løsningen til dette systemet: Det grunnleggende løsningssystemet består av én løsning, siden n - r = 3 - 2 = 1.
Settet med egenvektorer som tilsvarer egenverdien λ = -1 har formen: , hvor x 1 er et hvilket som helst annet tall enn null. La oss velge en vektor fra dette settet, for eksempel ved å sette x 1 = 1: .
På samme måte finner vi egenvektoren som tilsvarer egenverdien λ = 3: .
I rommet R 3 består basisen av tre lineært uavhengige vektorer, men vi fikk kun to lineært uavhengige egenvektorer, som grunnlaget i R 3 ikke kan sammensettes fra. Følgelig kan vi ikke redusere matrisen A til en lineær operator til diagonal form.

Eksempel 13. Gitt en matrise .
1. Bevis at vektoren er en egenvektor til matrise A. Finn egenverdien som tilsvarer denne egenvektoren.
2. Finn et grunnlag der matrise A har en diagonal form.
Løsning.
1. Hvis , så er en egenvektor

.
Vektor (1, 8, -1) er en egenvektor. Egenverdi λ = -1.
Matrisen har en diagonal form i en basis bestående av egenvektorer. En av dem er kjent. La oss finne resten.
Vi ser etter egenvektorer fra systemet:

Karakteristisk ligning: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
La oss finne egenvektoren som tilsvarer egenverdien λ = -3:

Rangeringen av matrisen til dette systemet er to og lik antall ukjente, så dette systemet har bare en nullløsning x 1 = x 3 = 0. x 2 her kan være noe annet enn null, for eksempel x 2 = 1. Dermed er vektoren (0 ,1,0) en egenvektor som tilsvarer λ = -3. La oss sjekke:
.
Hvis λ = 1, får vi systemet
Rangeringen av matrisen er to. Vi krysser ut den siste ligningen.
La x 3 være en gratis ukjent. Deretter x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Forutsatt x 3 = 1, har vi (-3,-9,1) - en egenvektor som tilsvarer egenverdien λ = 1. Sjekk:

.
Siden egenverdiene er reelle og distinkte, er vektorene som tilsvarer dem lineært uavhengige, så de kan tas som grunnlag i R 3 . Altså i grunnlaget , , matrise A har formen:
.
Ikke hver matrise av en lineær operator A:R n → R n kan reduseres til diagonal form, siden det for noen lineære operatorer kan være mindre enn n lineære uavhengige egenvektorer. Imidlertid, hvis matrisen er symmetrisk, tilsvarer roten av den karakteristiske ligningen av multiplisitet m nøyaktig m lineært uavhengige vektorer.

Definisjon. En symmetrisk matrise er en kvadratisk matrise der elementene symmetriske rundt hoveddiagonalen er like, det vil si hvor .
Notater. 1. Alle egenverdier til en symmetrisk matrise er reelle.
2. Egenvektorene til en symmetrisk matrise som tilsvarer parvis forskjellige egenverdier er ortogonale.
Som en av de mange anvendelsene av det studerte apparatet, vurderer vi problemet med å bestemme typen av en annenordenskurve.

Egenverdier (tall) og egenvektorer.
Eksempler på løsninger

Vær deg selv


Fra begge ligningene følger det at .

La oss si det da: .

Som et resultat: – andre egenvektor.

La oss gjenta de viktige punktene i avgjørelsen:

– det resulterende systemet har absolutt en generell løsning (ligningene er lineært avhengige);

– vi velger "y" på en slik måte at den er heltall og den første "x"-koordinaten er heltall, positiv og så liten som mulig.

– vi sjekker at den aktuelle løsningen tilfredsstiller hver likning i systemet.

Svar .

Det var nok mellomliggende "sjekkpunkter", så det er i prinsippet unødvendig å sjekke likestilling.

I ulike informasjonskilder er koordinatene til egenvektorer ofte ikke skrevet i kolonner, men i rader, for eksempel: (og for å være ærlig er jeg selv vant til å skrive dem ned i linjer). Dette alternativet er akseptabelt, men i lys av emnet lineære transformasjoner teknisk mer praktisk å bruke kolonnevektorer.

Kanskje virket løsningen veldig lang for deg, men dette er bare fordi jeg kommenterte det første eksemplet i detalj.

Eksempel 2

Matriser

La oss trene på egenhånd! Et omtrentlig eksempel på en siste oppgave på slutten av leksjonen.

Noen ganger må du fullføre en ekstra oppgave, nemlig:

skriv den kanoniske matrisenedbrytningen

Hva det er?

Hvis egenvektorene til matrisen dannes basis, så kan det representeres som:

Hvor er en matrise satt sammen av koordinater til egenvektorer, - diagonal matrise med tilsvarende egenverdier.

Denne matrisedekomponeringen kalles kanonisk eller diagonal.

La oss se på matrisen til det første eksemplet. Dens egenvektorer lineært uavhengig(ikke-kollineær) og danner et grunnlag. La oss lage en matrise av koordinatene deres:

hoveddiagonal matriser i riktig rekkefølge egenverdiene er lokalisert, og de resterende elementene er lik null:
– Jeg understreker nok en gang viktigheten av rekkefølge: «to» tilsvarer 1. vektor og er derfor plassert i 1. kolonne, «tre» – til 2. vektor.

Bruker den vanlige algoritmen for å finne invers matrise eller Gauss-Jordan-metoden Vi finner . Nei, det er ikke en skrivefeil! - før deg er en sjelden hendelse, som en solformørkelse, når det motsatte falt sammen med den opprinnelige matrisen.

Det gjenstår å skrive ned den kanoniske dekomponeringen av matrisen:

Systemet kan løses ved hjelp av elementære transformasjoner, og i de følgende eksemplene vil vi ty til denne metoden. Men her fungerer «skole»-metoden mye raskere. Fra den tredje likningen uttrykker vi: – erstatter i den andre likningen:

Siden den første koordinaten er null, får vi et system, fra hver ligning som det følger at .

Og igjen vær oppmerksom på den obligatoriske tilstedeværelsen av et lineært forhold. Hvis bare en triviell løsning oppnås , så ble enten egenverdien funnet feil, eller systemet ble kompilert/løst med en feil.

Kompakte koordinater gir verdien

Egenvektor:

Og nok en gang sjekker vi at løsningen fant tilfredsstiller hver likning i systemet. I påfølgende avsnitt og i påfølgende oppgaver anbefaler jeg å ta dette ønsket som en obligatorisk regel.

2) For egenverdien, ved å bruke samme prinsipp, får vi følgende system:

Fra den andre ligningen i systemet uttrykker vi: – erstatte inn i den tredje ligningen:

Siden "zeta"-koordinaten er lik null, får vi et system fra hver ligning som følger en lineær avhengighet.

La

Sjekker at løsningen tilfredsstiller hver likning i systemet.

Dermed er egenvektoren: .

3) Og til slutt tilsvarer systemet egenverdien:

Den andre ligningen ser den enkleste ut, så la oss uttrykke den og erstatte den med 1. og 3. likning:

Alt er bra - det har oppstått et lineært forhold, som vi erstatter med uttrykket:

Som et resultat ble "x" og "y" uttrykt gjennom "z": . I praksis er det ikke nødvendig å oppnå nettopp slike relasjoner; i noen tilfeller er det mer praktisk å uttrykke både gjennom eller og gjennom . Eller til og med "tog" - for eksempel "X" til "I", og "I" til "Z"

La oss si det da:

Vi sjekker at løsningen er funnet tilfredsstiller hver likning i systemet og skriver den tredje egenvektoren

Svar: egenvektorer:

Geometrisk definerer disse vektorene tre forskjellige romlige retninger ("Der og tilbake igjen"), ifølge hvilken lineær transformasjon transformerer ikke-null vektorer (egenvektorer) til kollineære vektorer.

Hvis tilstanden krevde å finne den kanoniske dekomponeringen, er dette mulig her, fordi forskjellige egenverdier tilsvarer forskjellige lineært uavhengige egenvektorer. Å lage en matrise fra deres koordinater, en diagonal matrise fra aktuell egenverdier og finn invers matrise .

Hvis du etter betingelse trenger å skrive lineær transformasjonsmatrise i basis av egenvektorer, så gir vi svaret i skjemaet . Det er en forskjell, og forskjellen er betydelig! Fordi denne matrisen er "de" matrisen.

Et problem med enklere beregninger du kan løse på egen hånd:

Eksempel 5

Finn egenvektorer til en lineær transformasjon gitt av en matrise

Når du skal finne dine egne tall, prøv å ikke gå helt til et 3. grads polynom. I tillegg kan dine systemløsninger avvike fra mine løsninger - det er ingen sikkerhet her; og vektorene du finner kan avvike fra eksempelvektorene opp til proporsjonaliteten til deres respektive koordinater. For eksempel, og. Det er mer estetisk tiltalende å presentere svaret i skjemaet, men det er greit om du stopper ved det andre alternativet. Det er imidlertid rimelige grenser for alt; versjonen ser ikke lenger veldig bra ut.

Et omtrentlig endelig utvalg av oppgaven på slutten av leksjonen.

Hvordan løse problemet ved flere egenverdier?

Den generelle algoritmen forblir den samme, men den har sine egne egenskaper, og det er tilrådelig å holde noen deler av løsningen i en mer streng akademisk stil:

Eksempel 6

Finn egenverdier og egenvektorer

Løsning

La oss selvfølgelig bruke stor bokstav i den fabelaktige første kolonnen:

Og etter å ha faktorisert det kvadratiske trinomialet:

Som et resultat oppnås egenverdier, hvorav to er multipler.

La oss finne egenvektorene:

1) La oss håndtere en ensom soldat i henhold til et "forenklet" opplegg:

Fra de to siste ligningene er likheten tydelig synlig, som åpenbart bør erstattes med den første ligningen i systemet:

Du finner ikke en bedre kombinasjon:
Egenvektor:

2-3) Nå fjerner vi et par vaktposter. I dette tilfellet kan det vise seg enten to eller en egenvektor. Uavhengig av hvor mange røttene er, erstatter vi verdien med determinanten som bringer oss det neste homogent system av lineære ligninger:

Egenvektorer er nøyaktig vektorer
grunnleggende system av løsninger

Faktisk, gjennom hele leksjonen gjorde vi ingenting annet enn å finne vektorene til det grunnleggende systemet. Det er bare det at foreløpig var ikke dette begrepet spesielt påkrevd. Forresten de flinke elevene som savnet temaet i kamuflasjedresser homogene ligninger, vil bli tvunget til å røyke den nå.


Den eneste handlingen var å fjerne de ekstra linjene. Resultatet er en en-til-tre-matrise med et formelt "trinn" i midten.
– grunnleggende variabel, – frie variabler. Det er derfor to frie variabler det er også to vektorer av det fundamentale systemet.

La oss uttrykke den grunnleggende variabelen i form av frie variabler: . Nullmultiplikatoren foran "X" lar den ta på absolutt alle verdier (som er tydelig synlig fra ligningssystemet).

I sammenheng med dette problemet er det mer praktisk å skrive den generelle løsningen ikke i en rad, men i en kolonne:

Paret tilsvarer en egenvektor:
Paret tilsvarer en egenvektor:

Merk : sofistikerte lesere kan velge disse vektorene muntlig - ganske enkelt ved å analysere systemet , men litt kunnskap er nødvendig her: det er tre variabler, systemmatriserangering- en, som betyr grunnleggende beslutningssystem består av 3 – 1 = 2 vektorer. Imidlertid er de funnet vektorene godt synlige selv uten denne kunnskapen, rent på et intuitivt nivå. I dette tilfellet vil den tredje vektoren bli skrevet enda mer "vakker": . Jeg advarer deg imidlertid om at i et annet eksempel kan det hende et enkelt valg ikke er mulig, og derfor er klausulen ment for erfarne personer. I tillegg, hvorfor ikke ta, si, som den tredje vektoren? Tross alt tilfredsstiller dens koordinater også hver likning i systemet, og vektorene lineært uavhengig. Dette alternativet er i prinsippet egnet, men "skjevt", siden den "andre" vektoren er en lineær kombinasjon av vektorer i det grunnleggende systemet.

Svar: egenverdier: , egenvektorer:

Et lignende eksempel for en uavhengig løsning:

Eksempel 7

Finn egenverdier og egenvektorer

Et omtrentlig utvalg av det endelige designet på slutten av leksjonen.

Det skal bemerkes at i både det 6. og 7. eksemplet oppnås en trippel av lineært uavhengige egenvektorer, og derfor er den opprinnelige matrisen representativ i den kanoniske dekomponeringen. Men slike bringebær skjer ikke i alle tilfeller:

Eksempel 8


Løsning: La oss lage og løse den karakteristiske ligningen:

La oss utvide determinanten i den første kolonnen:

Vi utfører ytterligere forenklinger i henhold til den betraktede metoden, og unngår tredjegradspolynomet:

– egenverdier.

La oss finne egenvektorene:

1) Det er ingen problemer med roten:

Ikke bli overrasket, i tillegg til settet er det også variabler i bruk - det er ingen forskjell her.

Fra den tredje likningen uttrykker vi den og erstatter den med 1. og 2. likning:

Fra begge ligningene følger det:

La da:

2-3) For flere verdier får vi systemet .

La oss skrive ned matrisen til systemet og, ved hjelp av elementære transformasjoner, bringe den til en trinnvis form:

www.nettsted lar deg finne. Nettstedet utfører beregningen. Om noen sekunder vil serveren gi den riktige løsningen. Den karakteristiske ligningen for matrisen vil være et algebraisk uttrykk funnet ved å bruke regelen for beregning av determinanten matriser matriser, mens det langs hoveddiagonalen vil være forskjeller i verdiene til diagonalelementene og variabelen. Ved beregning karakteristisk ligning for matrisen på nett, hvert element matriser vil bli multiplisert med tilsvarende andre elementer matriser. Finn i modus på nett kun mulig for kvadrat matriser. Finne operasjon karakteristisk ligning for matrisen på nett reduserer til å beregne den algebraiske summen av produktet av elementer matriser som et resultat av å finne determinanten matriser, bare for å bestemme karakteristisk ligning for matrisen på nett. Denne operasjonen inntar en spesiell plass i teorien matriser, lar deg finne egenverdier og vektorer ved å bruke røtter. Oppgaven med å finne karakteristisk ligning for matrisen på nett består av å multiplisere elementer matriser etterfulgt av summering av disse produktene i henhold til en bestemt regel. www.nettsted finner karakteristisk ligning for matrisen gitt dimensjon i modus på nett. Beregning karakteristisk ligning for matrisen på nett gitt dens dimensjon, er dette å finne et polynom med numeriske eller symbolske koeffisienter, funnet i henhold til regelen for beregning av determinanten matriser- som summen av produktene til de tilsvarende elementene matriser, bare for å bestemme karakteristisk ligning for matrisen på nett. Finne et polynom med hensyn til en variabel for en kvadratisk matriser, som en definisjon karakteristisk ligning for matrisen, vanlig i teorien matriser. Betydningen av røttene til et polynom karakteristisk ligning for matrisen på nett brukes til å bestemme egenvektorer og egenverdier for matriser. Dessuten, hvis determinanten matriser vil da være lik null karakteristisk ligning av matrisen vil fortsatt eksistere, i motsetning til det motsatte matriser. For å beregne karakteristisk ligning for matrisen eller finn for flere samtidig matriser karakteristiske ligninger, må du bruke mye tid og krefter, mens serveren vår finner i løpet av sekunder karakteristisk ligning for matrise online. I dette tilfellet er svaret på å finne karakteristisk ligning for matrisen på nett vil være korrekt og med tilstrekkelig nøyaktighet, selv om tallene ved funn karakteristisk ligning for matrisen på nett vil være irrasjonelt. På siden www.nettsted tegnoppføringer er tillatt i elementer matriser, det er karakteristisk ligning for matrise online kan representeres i generell symbolsk form ved beregning karakteristisk ligning av matrisen online. Det er nyttig å sjekke svaret som er oppnådd når du løser problemet med å finne karakteristisk ligning for matrisen på nett bruker nettstedet www.nettsted. Når du utfører operasjonen med å beregne et polynom - karakteristisk ligning av matrisen, må du være forsiktig og ekstremt fokusert når du løser dette problemet. På sin side vil nettstedet vårt hjelpe deg å sjekke avgjørelsen din om emnet karakteristisk ligning av en matrise på nettet. Hvis du ikke har tid til lange kontroller av løste problemer, da www.nettsted vil helt sikkert være et praktisk verktøy for å sjekke når du skal finne og regne karakteristisk ligning for matrisen på nett.

En egenvektor til en kvadratisk matrise er en som, multiplisert med en gitt matrise, resulterer i en kollineær vektor. Med enkle ord, når en matrise multipliseres med en egenvektor, forblir sistnevnte den samme, men multiplisert med et visst tall.

Definisjon

En egenvektor er en ikke-null vektor V, som, når multiplisert med en kvadratisk matrise M, blir selv økt med et eller annet tall λ. I algebraisk notasjon ser det slik ut:

M × V = λ × V,

hvor λ er egenverdien til matrisen M.

La oss se på et numerisk eksempel. For enkel opptak vil tall i matrisen være atskilt med semikolon. La oss ha en matrise:

  • M = 0; 4;
  • 6; 10.

La oss multiplisere det med en kolonnevektor:

  • V = -2;

Når vi multipliserer en matrise med en kolonnevektor, får vi også en kolonnevektor. I strengt matematisk språk vil formelen for å multiplisere en 2 × 2 matrise med en kolonnevektor se slik ut:

  • M × V = M11 × V11 + M12 × V21;
  • M21 × V11 + M22 × V21.

M11 betyr elementet i matrisen M plassert i den første raden og den første kolonnen, og M22 betyr elementet i den andre raden og den andre kolonnen. For matrisen vår er disse elementene lik M11 = 0, M12 = 4, M21 = 6, M22 10. For en kolonnevektor er disse verdiene lik V11 = –2, V21 = 1. I følge denne formelen, vi får følgende resultat av produktet av en kvadratisk matrise med en vektor:

  • M × V = 0 × (-2) + (4) × (1) = 4;
  • 6 × (-2) + 10 × (1) = -2.

For enkelhets skyld, la oss skrive kolonnevektoren i en rad. Så vi multipliserte kvadratmatrisen med vektoren (-2; 1), noe som resulterte i vektoren (4; -2). Det er klart at dette er den samme vektoren multiplisert med λ = -2. Lambda i dette tilfellet angir egenverdien til matrisen.

En egenvektor til en matrise er en kollineær vektor, det vil si et objekt som ikke endrer sin posisjon i rommet når det multipliseres med en matrise. Konseptet med kollinearitet i vektoralgebra ligner på begrepet parallellisme i geometri. I en geometrisk tolkning er kollineære vektorer parallellrettede segmenter av forskjellig lengde. Siden Euklids tid vet vi at en linje har et uendelig antall linjer parallelle med seg, så det er logisk å anta at hver matrise har et uendelig antall egenvektorer.

Fra forrige eksempel er det klart at egenvektorer kan være (-8; 4), og (16; -8), og (32, -16). Disse er alle kollineære vektorer som tilsvarer egenverdien λ = -2. Når vi multipliserer den opprinnelige matrisen med disse vektorene, vil vi likevel ende opp med en vektor som er 2 ganger forskjellig fra originalen. Det er derfor, når du løser problemer med å finne en egenvektor, er det nødvendig å finne bare lineært uavhengige vektorobjekter. Oftest, for en n × n matrise, er det et n antall egenvektorer. Kalkulatoren vår er designet for analyse av andreordens kvadratmatriser, så nesten alltid vil resultatet finne to egenvektorer, bortsett fra tilfeller der de faller sammen.

I eksemplet ovenfor kjente vi egenvektoren til den opprinnelige matrisen på forhånd og bestemte tydelig lambdatallet. Men i praksis skjer alt omvendt: egenverdiene finnes først og først deretter egenvektorene.

Løsningsalgoritme

La oss se på den opprinnelige matrisen M igjen og prøve å finne begge dens egenvektorer. Så matrisen ser slik ut:

  • M = 0; 4;
  • 6; 10.

Først må vi bestemme egenverdien λ, som krever beregning av determinanten til følgende matrise:

  • (0 - λ); 4;
  • 6; (10 − λ).

Denne matrisen oppnås ved å trekke den ukjente λ fra elementene på hoveddiagonalen. Determinanten bestemmes ved å bruke standardformelen:

  • detA = M11 × M21 − M12 × M22
  • detA = (0 − λ) × (10 − λ) − 24

Siden vektoren vår må være ikke-null, aksepterer vi den resulterende ligningen som lineært avhengig og likestiller vår determinant detA til null.

(0 − λ) × (10 − λ) − 24 = 0

La oss åpne parentesene og få den karakteristiske ligningen til matrisen:

λ 2 − 10λ − 24 = 0

Dette er en standard andregradsligning som må løses ved hjelp av en diskriminant.

D = b 2 − 4ac = (-10) × 2 − 4 × (-1) × 24 = 100 + 96 = 196

Roten til diskriminanten er sqrt(D) = 14, derfor λ1 = -2, λ2 = 12. Nå for hver lambda-verdi må vi finne egenvektoren. La oss uttrykke systemkoeffisientene for λ = -2.

  • M - λ × E = 2; 4;
  • 6; 12.

I denne formelen er E identitetsmatrisen. Basert på den resulterende matrisen lager vi et system med lineære ligninger:

2x + 4y = 6x + 12y,

hvor x og y er egenvektorelementene.

La oss samle alle X-ene til venstre og alle Y-ene til høyre. Åpenbart - 4x = 8y. Del uttrykket med - 4 og få x = –2y. Nå kan vi bestemme den første egenvektoren til matrisen ved å ta alle verdier av de ukjente (husk uendeligheten av lineært avhengige egenvektorer). La oss ta y = 1, så x = –2. Derfor ser den første egenvektoren ut som V1 = (–2; 1). Gå tilbake til begynnelsen av artikkelen. Det var dette vektorobjektet vi multipliserte matrisen med for å demonstrere konseptet med en egenvektor.

La oss nå finne egenvektoren for λ = 12.

  • M - X x E = -12; 4
  • 6; -2.

La oss lage det samme systemet med lineære ligninger;

  • -12x + 4y = 6x - 2y
  • -18x = -6y
  • 3x = y.

Nå tar vi x = 1, derfor y = 3. Dermed ser den andre egenvektoren ut som V2 = (1; 3). Når man multipliserer den opprinnelige matrisen med en gitt vektor, vil resultatet alltid være den samme vektoren multiplisert med 12. Det er her løsningsalgoritmen slutter. Nå vet du hvordan du manuelt bestemmer egenvektoren til en matrise.

  • avgjørende faktor;
  • spor, det vil si summen av elementene på hoveddiagonalen;
  • rangering, det vil si maksimalt antall lineært uavhengige rader/kolonner.

Programmet fungerer i henhold til algoritmen ovenfor, og forkorter løsningsprosessen så mye som mulig. Det er viktig å påpeke at i programmet er lambda betegnet med bokstaven "c". La oss se på et numerisk eksempel.

Eksempel på hvordan programmet fungerer

La oss prøve å bestemme egenvektorene for følgende matrise:

  • M = 5; 1. 3;
  • 4; 14.

La oss legge inn disse verdiene i cellene på kalkulatoren og få svaret i følgende skjema:

  • Matriserangering: 2;
  • Matrisedeterminant: 18;
  • Matrisespor: 19;
  • Beregning av egenvektoren: c 2 − 19.00c + 18.00 (karakteristisk ligning);
  • Egenvektorberegning: 18 (første lambdaverdi);
  • Egenvektorberegning: 1 (andre lambdaverdi);
  • Ligningssystem for vektor 1: -13x1 + 13y1 = 4x1 − 4y1;
  • Ligningssystem for vektor 2: 4x1 + 13y1 = 4x1 + 13y1;
  • Egenvektor 1: (1; 1);
  • Egenvektor 2: (-3,25; 1).

Dermed fikk vi to lineært uavhengige egenvektorer.

Konklusjon

Lineær algebra og analytisk geometri er standardfag for enhver nyutdannet ingeniørstudent. Det store antallet vektorer og matriser er skremmende, og det er lett å gjøre feil i slike tungvinte beregninger. Programmet vårt lar studentene sjekke beregningene sine eller automatisk løse problemet med å finne en egenvektor. Det er andre lineære algebrakalkulatorer i vår katalog; bruk dem i studiene eller arbeidet.

"Den første delen angir de bestemmelsene som er minimalt nødvendige for å forstå kjemometri, og den andre delen inneholder fakta som du trenger å vite for en dypere forståelse av metodene for multivariat analyse. Presentasjonen er illustrert med eksempler laget i Excel-arbeidsboken Matrix.xls, som følger med dette dokumentet.

Lenker til eksempler er plassert i teksten som Excel-objekter. Disse eksemplene er av abstrakt karakter; de er på ingen måte knyttet til problemene med analytisk kjemi. Eksempler fra det virkelige liv på bruk av matrisealgebra i kjemometri er diskutert i andre tekster som dekker en rekke kjeometriske anvendelser.

De fleste målinger gjort i analytisk kjemi er ikke direkte, men indirekte. Dette betyr at i forsøket, i stedet for verdien til ønsket analytt C (konsentrasjon), oppnås en annen verdi x(signal), relatert, men ikke lik C, dvs. x(C) ≠ C. Som regel, typen avhengighet x(C) er ukjent, men heldigvis i analytisk kjemi er de fleste målinger proporsjonale. Dette betyr at med økende konsentrasjon av C in en ganger vil signal X øke like mye, dvs. x(en C) = en x(C). I tillegg er signalene også additive, så signalet fra en prøve der to stoffer med konsentrasjoner C 1 og C 2 er tilstede vil være lik summen av signalene fra hver komponent, dvs. x(C1 + C2) = x(C1)+ x(C2). Proporsjonalitet og additivitet gir til sammen linearitet. Mange eksempler kan gis for å illustrere linearitetsprinsippet, men det er nok å nevne de to mest slående eksemplene - kromatografi og spektroskopi. Den andre funksjonen som ligger i et eksperiment i analytisk kjemi er multikanal. Moderne analyseutstyr måler signaler for mange kanaler samtidig. For eksempel måles intensiteten av lystransmisjon for flere bølgelengder på en gang, dvs. område. Derfor forholder vi oss i eksperimentet til mange signaler x 1 , x 2 ,...., x n, som karakteriserer settet med konsentrasjoner C 1 , C 2 , ..., C m av stoffer som er tilstede i systemet som studeres.

Ris. 1 spektra

Så et analytisk eksperiment er preget av linearitet og flerdimensjonalitet. Derfor er det praktisk å betrakte eksperimentelle data som vektorer og matriser og manipulere dem ved å bruke apparatet til matrisealgebra. Fruktbarheten av denne tilnærmingen er illustrert av eksemplet vist i, som presenterer tre spektre tatt ved 200 bølgelengder fra 4000 til 4796 cm -1. Først ( x 1) og andre ( x 2) spektrene ble oppnådd for standardprøver der konsentrasjonene av to stoffer A og B er kjent: i den første prøven [A] = 0,5, [B] = 0,1, og i den andre prøven [A] = 0,2, [ B] = 0,6. Hva kan sies om en ny, ukjent prøve, hvis spektrum er angitt x 3 ?

La oss vurdere tre eksperimentelle spektra x 1 , x 2 og x 3 som tre vektorer med dimensjon 200. Ved hjelp av lineær algebra kan man enkelt vise det x 3 = 0.1 x 1 +0.3 x 2, så den tredje prøven inneholder åpenbart bare stoffene A og B i konsentrasjoner [A] = 0,5×0,1 + 0,2×0,3 = 0,11 og [B] = 0,1×0,1 + 0,6×0,3 = 0,19.

1. Grunnleggende informasjon

1.1 Matriser

Matrise kalt en rektangulær talltabell, for eksempel

Ris. 2 Matrise

Matriser er merket med store, fete bokstaver ( EN), og deres elementer - ved å korrespondere små bokstaver med indekser, dvs. en ij. Den første indeksen nummererer radene, og den andre - kolonnene. I kjemometri er det vanlig å angi maksimalverdien til en indeks med samme bokstav som selve indeksen, men med store bokstaver. Derfor matrisen EN kan også skrives som ( en ij , Jeg = 1,..., Jeg; j = 1,..., J). For eksempelmatrisen Jeg = 4, J= 3 og en 23 = −7.5.

Par med tall Jeg Og J kalles matrisens dimensjon og betegnes som Jeg× J. Et eksempel på en matrise i kjemometri er et sett med spektre oppnådd for Jeg prøver for J bølgelengder.

1.2. De enkleste operasjonene med matriser

Matriser kan være multiplisere med tall. I dette tilfellet multipliseres hvert element med dette tallet. For eksempel -

Ris. 3 Multiplisere en matrise med et tall

To matriser med samme dimensjon kan være element for element brette Og trekke fra. For eksempel,

Ris. 4 Matrisetillegg

Som et resultat av multiplikasjon med et tall og addisjon, oppnås en matrise med samme dimensjon.

En nullmatrise er en matrise som består av nuller. Det er utpekt O. Det er åpenbart det EN+O = EN, ENEN = O og 0 EN = O.

Matrisen kan være transponere. Under denne operasjonen blir matrisen snudd, dvs. rader og kolonner byttes. Transponering er indikert med et primtall, EN" eller indeks EN t. Således, hvis EN = {en ij , Jeg = 1,..., Jeg; j = 1,...,J), Det EN t = ( en ji , j = 1,...,J; i = 1,..., Jeg). For eksempel

Ris. 5 Matrisetransponering

Det er tydelig at ( EN t) t = EN, (EN+B) t = A t+ B t.

1.3. Matrisemultiplikasjon

Matriser kan være multiplisere, men bare hvis de har de riktige dimensjonene. Hvorfor det er slik vil fremgå av definisjonen. Matriseprodukt EN, dimensjon Jeg× K, og matriser B, dimensjon K× J, kalles en matrise C, dimensjon Jeg× J, hvis elementer er tall

Altså for produktet AB det er nødvendig at antall kolonner i venstre matrise EN var lik antall rader i den høyre matrisen B. Et eksempel på et matriseprodukt -

Fig.6 Produkt av matriser

Regelen for matrisemultiplikasjon kan formuleres som følger. For å finne et matriseelement C, står i krysset Jeg-te linje og j kolonne ( c ij) må multipliseres element for element Jeg-te rad i den første matrisen ENj kolonne i den andre matrisen B og legg sammen alle resultatene. Så i eksemplet som vises, oppnås et element fra den tredje raden og den andre kolonnen som summen av de elementmessige produktene i den tredje raden EN og andre kolonne B

Fig.7 Element av produktet av matriser

Produktet av matriser avhenger av rekkefølgen, dvs. ABB.A., i det minste av dimensjonale årsaker. De sier at det er ikke-kommutativt. Produktet av matriser er imidlertid assosiativt. Det betyr at ABC = (AB)C = EN(B.C.). I tillegg er den også distributiv, d.v.s. EN(B+C) = AB+A.C.. Det er åpenbart det A.O. = O.

1.4. Firkantede matriser

Hvis antallet matrisekolonner er lik antall rader ( Jeg = J=N), så kalles en slik matrise kvadrat. I denne delen vil vi kun vurdere slike matriser. Blant disse matrisene kan det skilles ut matriser med spesielle egenskaper.

Enkelt matrise (betegnet JEG, og noen ganger E) er en matrise der alle elementer er lik null, med unntak av diagonale, som er lik 1, dvs.

Åpenbart A.I. = I.A. = EN.

Matrisen kalles diagonal, hvis alle dens elementer unntatt diagonale ( en ii) er lik null. For eksempel

Ris. 8 Diagonal matrise

Matrise EN kalt toppen trekantet, hvis alle dens elementer som ligger under diagonalen er lik null, dvs. en ij= 0, kl Jeg>j. For eksempel

Ris. 9 Øvre trekantmatrise

Den nedre trekantede matrisen er definert på samme måte.

Matrise EN kalt symmetrisk, Hvis EN t = EN. Med andre ord en ij = en ji. For eksempel

Ris. 10 Symmetrisk matrise

Matrise EN kalt ortogonal, Hvis

EN t EN = A.A. t = Jeg.

Matrisen kalles normal Hvis

1.5. Spor og determinant

Neste kvadratisk matrise EN(angitt med Tr( EN) eller Sp( EN)) er summen av de diagonale elementene,

For eksempel,

Ris. 11 Matrisesporing

Det er åpenbart det

Sp(α EN) = α Sp( EN) Og

Sp( EN+B) = Sp( EN)+ Sp( B).

Det kan vises

Sp( EN) = Sp( EN t), Sp( Jeg) = N,

og også det

Sp( AB) = Sp( B.A.).

En annen viktig egenskap ved en kvadratisk matrise er dens avgjørende faktor(betegnet det( EN)). Å bestemme determinanten i det generelle tilfellet er ganske vanskelig, så vi starter med det enkleste alternativet - matrisen EN dimensjon (2×2). Deretter

For en (3×3) matrise vil determinanten være lik

Når det gjelder matrisen ( N× N) determinanten beregnes som summen 1·2·3· ... · N= N! vilkår, som hver er like

Indekser k 1 , k 2 ,..., k N er definert som alle mulige ordnede permutasjoner r tall i settet (1, 2, ..., N). Å beregne determinanten til en matrise er en kompleks prosedyre, som i praksis utføres ved hjelp av spesielle programmer. For eksempel,

Ris. 12 Matrisedeterminant

La oss bare merke oss de åpenbare egenskapene:

det( Jeg) = 1, det( EN) = det( EN t),

det( AB) = det( EN)det( B).

1.6. Vektorer

Hvis matrisen består av bare én kolonne ( J= 1), så kalles et slikt objekt vektor. Mer presist, en kolonnevektor. For eksempel

Man kan også vurdere matriser som består av én rad, for eksempel

Dette objektet er også en vektor, men rad vektor. Når man analyserer data er det viktig å forstå hvilke vektorer vi har å gjøre med – kolonner eller rader. Så spekteret tatt for en prøve kan betraktes som en radvektor. Deretter bør settet med spektralintensiteter ved en viss bølgelengde for alle prøver behandles som en kolonnevektor.

Dimensjonen til en vektor er antall elementer.

Det er klart at enhver kolonnevektor kan gjøres om til en radvektor ved transposisjon, dvs.

I tilfeller der formen på vektoren ikke er spesifikt spesifisert, men bare sies å være en vektor, så betyr de en kolonnevektor. Vi vil også følge denne regelen. En vektor er merket med en liten, oppreist, fet bokstav. En nullvektor er en vektor der alle elementene er null. Det er utpekt 0 .

1.7. De enkleste operasjonene med vektorer

Vektorer kan legges til og multipliseres med tall på samme måte som matriser. For eksempel,

Ris. 13 Operasjoner med vektorer

To vektorer x Og y er kalt kolineær, hvis det er et tall α slik at

1.8. Produkter av vektorer

To vektorer av samme dimensjon N kan multipliseres. La det være to vektorer x = (x 1 , x 2 ,...,x N)t og y = (y 1 , y 2 ,...,y N) t. Guidet av rad-for-kolonne multiplikasjonsregelen kan vi komponere to produkter fra dem: x t y Og xy t. Første arbeid

kalt skalar eller innvendig. Resultatet er et tall. Det er også betegnet med ( x,y)= x t y. For eksempel,

Ris. 14 Indre (skalær) produkt

Andre stykke

kalt utvendig. Resultatet er en dimensjonsmatrise ( N× N). For eksempel,

Ris. 15 Utvendig arbeid

Vektorer hvis skalarprodukt er null kalles ortogonal.

1.9. Vektornorm

Skalarproduktet av en vektor med seg selv kalles en skalar firkant. Denne verdien

definerer en firkant lengde vektor x. For å angi lengde (også kalt normen vektor) brukes notasjonen

For eksempel,

Ris. 16 Vektornorm

Enhetslengdevektor (|| x|| = 1) kalles normalisert. Ikke-null vektor ( x0 ) kan normaliseres ved å dele den på lengde, dvs. x = ||x|| (x/||x||) = ||x|| e. Her e = x/||x|| - normalisert vektor.

Vektorer kalles ortonormale hvis de alle er normaliserte og parvis ortogonale.

1.10. Vinkel mellom vektorer

Det skalære produktet bestemmer og hjørneφ mellom to vektorer x Og y

Hvis vektorene er ortogonale, så er cosφ = 0 og φ = π/2, og hvis de er kolineære, så er cosφ = 1 og φ = 0.

1.11. Vektorrepresentasjon av en matrise

Hver matrise EN størrelse Jeg× J kan representeres som et sett med vektorer

Her hver vektor en j er j kolonne, og radvektoren b Jeg er Jeg raden i matrisen EN

1.12. Lineært avhengige vektorer

Vektorer av samme dimensjon ( N) kan legges til og multipliseres med et tall, akkurat som matriser. Resultatet vil være en vektor med samme dimensjon. La det være flere vektorer av samme dimensjon x 1 , x 2 ,...,x K og samme antall tall α α 1 , α 2 ,...,α K. Vektor

y= α 1 x 1 + α 2 x 2 +...+ α K x K

kalt lineær kombinasjon vektorer x k .

Hvis det er slike tall som ikke er null α k ≠ 0, k = 1,..., K, Hva y = 0 , så et slikt sett med vektorer x k kalt lineært avhengig. Ellers sies vektorene å være lineært uavhengige. For eksempel vektorer x 1 = (2, 2)t og x 2 = (−1, −1) t er lineært avhengige, fordi x 1 +2x 2 = 0

1.13. Matriserangering

Vurder et sett med K vektorer x 1 , x 2 ,...,x K dimensjoner N. Rangeringen til dette systemet av vektorer er det maksimale antallet lineært uavhengige vektorer. For eksempel i settet

det er bare to lineært uavhengige vektorer, for eksempel x 1 og x 2, så rangeringen er 2.

Selvfølgelig, hvis det er flere vektorer i et sett enn deres dimensjon ( K>N), så er de nødvendigvis lineært avhengige.

Matriserangering(angitt med rang) EN)) er rangeringen til systemet av vektorer den består av. Selv om enhver matrise kan representeres på to måter (kolonne- eller radvektorer), påvirker ikke dette rangeringsverdien, fordi

1.14. invers matrise

Firkantet matrise EN kalles ikke-degenerert hvis den har en unik omvendt matrise EN-1, bestemt av forholdene

A.A. −1 = EN −1 EN = Jeg.

Den inverse matrisen eksisterer ikke for alle matriser. En nødvendig og tilstrekkelig betingelse for ikke-degenerasjon er

det( EN) ≠ 0 eller rang( EN) = N.

Matriseinversjon er en kompleks prosedyre som det finnes spesielle programmer for. For eksempel,

Ris. 17 Matriseinversjon

La oss presentere formlene for det enkleste tilfellet - en 2×2 matrise

Hvis matriser EN Og B er ikke-degenererte, da

(AB) −1 = B −1 EN −1 .

1.15. Pseudoinvers matrise

Hvis matrise EN er entall og den inverse matrisen ikke eksisterer, kan du i noen tilfeller bruke pseudoomvendt matrise, som er definert som en slik matrise EN+ det

A.A. + EN = EN.

Den pseudoinverse matrisen er ikke den eneste, og dens form avhenger av konstruksjonsmetoden. For en rektangulær matrise kan du for eksempel bruke Moore-Penrose-metoden.

Hvis antall kolonner er mindre enn antall rader, da

EN + =(EN t EN) −1 EN t

For eksempel,

Ris. 17a Pseudo-inversjon av en matrise

Hvis antall kolonner er større enn antall rader, da

EN + =EN t( A.A. t) −1

1.16. Multiplisere en vektor med en matrise

Vektor x kan multipliseres med en matrise EN passende størrelse. I dette tilfellet multipliseres kolonnevektoren til høyre Øks, og vektorraden er til venstre x t EN. Hvis vektordimensjonen J, og matrisedimensjonen Jeg× J da vil resultatet være en vektor av dimensjon Jeg. For eksempel,

Ris. 18 Multiplisere en vektor med en matrise

Hvis matrise EN- torget ( Jeg× Jeg), deretter vektoren y = Øks har samme dimensjon som x. Det er åpenbart det

EN(α 1 x 1 + α 2 x 2) = α 1 Øks 1 + α 2 Øks 2 .

Derfor kan matriser betraktes som lineære transformasjoner av vektorer. Spesielt Ix = x, Okse = 0 .

2. Ytterligere informasjon

2.1. Systemer av lineære ligninger

La EN- matrisestørrelse Jeg× J, A b- dimensjonsvektor J. Tenk på ligningen

Øks = b

i forhold til vektoren x, dimensjoner Jeg. I hovedsak er det et system av Jeg lineære ligninger med J ukjent x 1 ,...,x J. En løsning finnes hvis og bare hvis

rang( EN) = rangering( B) = R,

Hvor B er en utvidet matrise av dimensjoner Jeg×( J+1), som består av en matrise EN, supplert med en kolonne b, B = (EN b). Ellers er ligningene inkonsekvente.

Hvis R = Jeg = J, da er løsningen unik

x = EN −1 b.

Hvis R < Jeg, så er det mange forskjellige løsninger som kan uttrykkes gjennom en lineær kombinasjon JR vektorer. System av homogene ligninger Øks = 0 med kvadratisk matrise EN (N× N) har en ikke-triviell løsning ( x0 ) hvis og bare hvis det( EN) = 0. Hvis R= rangering( EN)<N, så er det NR lineært uavhengige løsninger.

2.2. Bilineære og kvadratiske former

Hvis EN er en kvadratisk matrise, og x Og y- vektor av den tilsvarende dimensjonen, deretter skalarproduktet av formen x t Ja kalt bilineær form definert av matrise EN. På x = y uttrykk x t Øks kalt kvadratisk form.

2.3. Positive bestemte matriser

Firkantet matrise EN kalt positiv bestemt, hvis for en vektor som ikke er null x0 ,

x t Øks > 0.

Tilsvarende definert negativ (x t Øks < 0), ikke-negativ (x t Øks≥ 0) og negativ (x t Øks≤ 0) visse matriser.

2.4. Kolesky nedbrytning

Hvis den symmetriske matrisen EN er positiv bestemt, så er det en unik trekantmatrise U med positive elementer, for hvilke

EN = U t U.

For eksempel,

Ris. 19 Kolesky nedbrytning

2.5. Polar nedbrytning

La EN er en ikke-singular kvadratisk matrise av dimensjon N× N. Så er det en unik polar opptreden

EN = S.R.

Hvor S er en ikke-negativ symmetrisk matrise, og R er en ortogonal matrise. Matriser S Og R kan defineres eksplisitt:

S 2 = A.A. t eller S = (A.A. t) ½ og R = S −1 EN = (A.A. t) −½ EN.

For eksempel,

Ris. 20 Polar nedbrytning

Hvis matrise EN er degenerert, så er ikke nedbrytningen unik - nemlig: S fortsatt alene, men R kanskje mye. Polar dekomponering representerer matrisen EN som en kombinasjon av kompresjon/forlengelse S og snu R.

2.6. Egenvektorer og egenverdier

La EN er en kvadratisk matrise. Vektor v kalt egenvektor matriser EN, Hvis

Av = λ v,

hvor tallet λ kalles egenverdi matriser EN. Dermed transformasjonen som matrisen utfører EN over vektoren v, kommer ned til enkel strekking eller kompresjon med en koeffisient λ. Egenvektoren bestemmes opp til multiplikasjon med en konstant α ≠ 0, dvs. Hvis v er en egenvektor, så α v- også en egenvektor.

2.7. Egenverdier

Ved matrisen EN, dimensjon ( N× N) kan ikke være mer enn N egenverdier. De tilfredsstiller karakteristisk ligning

det( EN − λ Jeg) = 0,

som er en algebraisk ligning N-te orden. Spesielt for en 2×2 matrise har den karakteristiske ligningen formen

For eksempel,

Ris. 21 Egenverdier

Sett med egenverdier λ 1 ,..., λ N matriser EN kalt spektrum EN.

Spekteret har ulike egenskaper. Spesielt

det( EN) = λ 1 × ... × λ N,Sp( EN) = λ 1 +...+λ N.

Egenverdiene til en vilkårlig matrise kan være komplekse tall, men hvis matrisen er symmetrisk ( EN t = EN), så er egenverdiene reelle.

2.8. Egenvektorer

Ved matrisen EN, dimensjon ( N× N) kan ikke være mer enn N egenvektorer, som hver tilsvarer sin egenverdi. For å bestemme egenvektoren v n trenger å løse et system med homogene ligninger

(EN − λ n Jeg)v n = 0 .

Den har en ikke-triviell løsning, siden det( A -λ n Jeg) = 0.

For eksempel,

Ris. 22 egenvektorer

Egenvektorene til en symmetrisk matrise er ortogonale.