Matrix: Forskelle mellem versioner

Content deleted Content added
m →‎Introduktion: stavefejl o.l. ~~~~
m Robot: Konverterer nøgne referencer, ved hjælp af ref navne for at undgå dubletter, se FAQ; kosmetiske ændringer
Linje 6:
: <math>H = \begin{pmatrix}3&8&2\\4&9&7\end{pmatrix}.</math>
 
Der er et antal rækker og et antal søjler af elementer i en matrix, normalt mindst en række og en søjle, i hvilket tilfælde man ville kalde det en skalar. Ved at organisere tal i en simpel struktur kan man behandle mange tal så at sige engross ikke bare addere og gange dem men man kan lettere udlede forskellige egenskaber tallene imellem. Man kan opstille formler med matricer som er meget lettere at forstå end mange uoverskuelige ligninger.
 
== Introduktion ==
 
Denne artikel gennemgår nogle af de mere elementære egenskaber og brug af matricer. Men som motivation til at interessere sig for og forstå matricer introduceres de her.
 
Matrices blev vistnok i Europa brugt først af Gottfried Leibniz in 1693; men hovedsagelig til løsning af lineære ligninger hvilket også Gauss og Leibnitz gjorde. <ref> A. Cayley A memoir on the theory of matrices </ref>.Cauchy var den første der brugte en 3x3 matrice i forbindelse med stress i materialer. Først i begyndelsen af forrige århundrede kom der gang i brugen af matricer. Et kuriosum er at Werner Heisenberg som opfandt matrix formuleringen af kvantemekanikken i 1925 ikke vidste hvordan man ganger to matricer med hinanden. Noget der er helt utænkelig idag og som læres allerede på højere gymnasie niveau. I dag bruges de næsten overalt og de er uundværlige inden for ingeniør videnskaberne, den klassiske og moderne fysik, kemien, optikken, elektromagnetisme, komputer grafik, sandsynligheds teori, matrix Kalkulus, i kvantemekanikken og mange andre steder.
 
Kvadratform matricer er en særlig interessant kategori af matricer. Der findes en enhedsmatrix I, som gange med en vilkårlig kvadratform matrix A giver A som resultat A I = I A = A. også, forudsat A's inverse matrix existerer, A<sup> -1 </sup> A = A A<sup> -1 </sup> =I, og (A<sup> -1 </sup>)<sup> -1 </sup> =A. Det gælder '''ikke''' generelt at A B = B A. Man skal derfor sikre at man multiplicerer fra den rigtige side, Højre eller venstre multiplication. Alle elementerne forskellig fra nul i en enhedsmatrix befinder sig i hoveddiagonalen:
 
En 2x2 enhedsmatrix <math> I = \begin{pmatrix}1&0\\0&1\end{pmatrix} </math>
Linje 21:
:<math> e^{\begin{pmatrix}0&1\\-1&0\end{pmatrix} \pi} = -I </math>
 
En matrix ligning A X = B kan løses ved at multiplicere med A<sup> -1 </sup> på venstre side A<sup> -1 </sup> A X = A<sup> -1 </sup> B => I X = A<sup> -1 </sup> B => X = A<sup> -1 </sup> B. Det kan kun lade sig gøre når A er en [[regulær matrix]]. Det er ikke altid det mest effektive fordi det koster tid at finde en matrix inverse. Komputer programmer der løser matrix ligninger anvender afhængigt af anvendelsen mange forskellige strategier for at opnå en god effektivitet. .
 
Matricer er ofte sparsomme . Sparsomme matricer er defineret som matricer hvor halvdelen af indgangene (elementerne) er nul. En sådan matrix kan fx indeholde en million indgange, men kun 1 procent er forskellig fra nul. Det forårsager et stort spild af tid og hukommelse hvis man bare forsøger at behandle dem som almindelige matricer. En af de mange måder at lagre sparsomme matricer på er ved kun at lagre værdierne der er forskellig fra nul med deres koordinater i matttricen. Disse matricer kan fx opstå ved beskrivelse af grafer.
 
Båndmatricer hvor indgangene gruperer sig omkring hoveddiagonalen, forekommer ved numerisk løsning af partielle differential ligninger hvor relationerne mellem indgangene er lokal. Dette opstår fx for en numerisk løsning til en partiel differential ligning, ved projektion af den teoretisk korrekte løsning på et valgt manifold [[Galerkin method]]en.
Uendelige matricer findes indenfor planetteori og atomteori.
 
En anden type Matrix ligninger som bruges inden for mange områder er A X = kX, hvor k er en skalar (konstant) og X en søjlevektor. k kaldes en egenværdien til A og X kaldes egenvektoren til k. Der er højst n forskellige egenværdier hvis matricen er en nxn Matrix. Man finder : A X = k I X => ( A - k I) X = 0, (X antaget forskellig fra 0). Tallet k er en egenværdi hvis og kun hvis matricen ( A - k I) er singulær, det modsatte af regulær. det vil sige at [[determinaten]] det(A - k I ) er lig nul . Man får en ligning af nte grad i k og der er altså n løsninger (i der komplekse rum) ifølge [[algebraens fundamentalsætning]].
 
En speciel type matricer har kun reelle egenværdier det er symmetriske kvadratform matricer og Hermitiske matricer opkaldt efter [[Charles Hermite]] som i 1855 demonstrede at disse matricer ligesom de reelle symmetriske matricer har reelle [[Egenværdi, egenvektor og egenrum|EgenværdiEgenværdier]]er. Disse matricer bruges inden for kvanteteorien som Observable.
 
== Definition ==
 
En matrix er en rektangulærform tabel af tal eller andre matematiske objekter for hvilke operationerne addition og multiplikation er defineret. Mest almindeligt er en matrix over de reelle tal '''R''', indeholdende reelle tal eller en matrix over de komplekse tal '''C''' indeholdende komplekse tal. De tilsvarende matricer kaldes reelle eller komplekse.
 
Dimensionen af en matrix er produktet af antalle af indgange i søjlerne og indgange i rækkerne. En matrix A med m rækker og n søjler kaldes en m x n matrix ''m''-gange-''n''-matrix" og for en reel matrix A ∈ '''R'''<sup>{mxn}</sup> eller om man vil Mat<sub>m,n</sub>('''R'''). En matrice med det samme antal søjler og rækker har kvadratiskform. Matricer som består af kun en søjle eller en række kaldes ofte en vektor, nærmere betegnet en søjlevektor eller en række vektor. Når man ganger to matricer tager man en række i fra den første og en søjle j fra den anden og ganger dem, resultatet er et tal/objekt der skal placeres i resultat matricen i indgang (i,j). Rækken i og søjlen j skal have samme antal indgange.
En matrix med uendelig mange rækker eller søjler kaldes en uendelig matrix og en matrix uden elementer kaldes en tom matrix.
 
Linje 229:
 
Her er et eksempel på dette. Lad P(''n'') betegne alle polynomier af grad ''n'' eller mindre, med reelle koefficienter. Dette udgør et reelt vektorrum af dimension ''n'' + 1. Altså er det isomorf til vektorrumet '''R'''<sup>''n''+1</sup>. En isomorfi er den, hvor polynomiet
: ''a''<sub>0</sub> + ''a''<sub>1</sub>''x'' + ... + ''a''<sub>''n''</sub>''x''<sup>''n''</sup> ∈ P(''n'')
svarer til vektoren (''a''<sub>0</sub>, ''a''<sub>1</sub>, ..., ''a''<sub>''n''</sub>) ∈ '''R'''<sup>''n''+1''</sup>.
Lad nu ''D'': P(''n'') → P(''n'' – 1) betegne funktionen
Linje 297:
* [[Funktionsanalyse (matematik)]]
* [[Spektrum (funktionsanalyse)]]
 
== Noter ==
{{reflist}}
 
[[Kategori:Lineær algebra]]