Matrix: Forskelle mellem versioner

Content deleted Content added
m Gendannelse til seneste version ved Steenthbot, fjerner ændringer fra 2.106.128.198 (diskussion | bidrag)
Linje 12:
Denne artikel gennemgår nogle af de mere elementære egenskaber og brug af matricer. Men som motivation til at interessere sig for og forstå matricer introduceres de her.
 
MatricerMatrices blev vistnok i Europa brugt først af Gottfried Leibniz in 1693; men hovedsagelig til løsning af lineære ligninger hvilket også Gauss og Leibnitz gjorde. <ref> A. Cayley A memoir on the theory of matrices </ref>.Cauchy var den første der brugte en 3x3 matrixmatrice i forbindelse med stress i materialer. Først i begyndelsen af forrige århundrede kom der gang i brugen af matricer. Et kuriosum er at Werner Heisenberg som opfandt matrix formuleringen af kvantemekanikken i 1925 ikke vidste hvordan man ganger to matricer med hinanden. Noget der er helt utænkelig idag, og som læres allerede på højere gymnasie niveau. I dag bruges de næsten overalt og de er uundværlige inden for ingeniørvidenskaberneingeniør videnskaberne, den klassiske og moderne fysik, kemien, optikken, elektromagnetisme, computergrafikkomputer grafik, sandsynlighedsteorisandsynligheds teori, matrix Kalkulus, i kvantemekanikken og mange andre steder.
 
Kvadratform matricer er en særlig interessant kategori af matricer. Der findes en enhedsmatrix I, som gange med en vilkårlig kvadratform matrix A giver A som resultat A I = I A = A. også, forudsat A's inverse matrix existerer, A<sup> -1 </sup> A = A A<sup> -1 </sup> =I, og (A<sup> -1 </sup>)<sup> -1 </sup> =A. Det gælder '''ikke''' generelt at A B = B A. Man skal derfor sikre at man multiplicerer fra den rigtige side, Højre eller venstre multiplication. Alle elementerne forskellig fra nul i en enhedsmatrix befinder sig i hoveddiagonalen:
Linje 21:
:<math> e^{\begin{pmatrix}0&1\\-1&0\end{pmatrix} \pi} = -I </math>
 
En matrix ligning A X = B kan løses ved at multiplicere med A<sup> -1 </sup> på venstre side A<sup> -1 </sup> A X = A<sup> -1 </sup> B => I X = A<sup> -1 </sup> B => X = A<sup> -1 </sup> B. Det kan kun lade sig gøre når A er en [[regulær matrix]]. Det er ikke altid det mest effektive fordi det koster tid at finde en matrix inversinverse. ComputerKomputer programmer der løser matrix ligninger anvender afhængigt af anvendelsen mange forskellige strategier for at opnå en god effektivitet. .
 
Matricer er ofte sparsomme . Sparsomme matricer er defineret som matricer hvor halvdelen af indgangene (elementerne) er nul. En sådan matrix kan fx indeholde en million indgange, men kun 1 procent er forskellig fra nul. Det forårsager et stort spild af tid og hukommelse hvis man bare forsøger at behandle dem som almindelige matricer. En af de mange måder at lagre sparsomme matricer på er ved kun at lagre værdierne der er forskellig fra nul med deres koordinater i matricenmatttricen. Disse matricer kan fx opstå ved beskrivelse af grafer.
 
Båndmatricer, hvor indgangene grupperergruperer sig omkring hoveddiagonalen, forekommer ved numerisk løsning af partielle differentialligningerdifferential ligninger hvor relationerne mellem indgangene er lokal. Dette opstår fx for en numerisk løsning til en partiel differentialligningdifferential ligning, ved projektion af den teoretisk korrekte løsning på et valgt manifold [[Galerkin method]]en.
Uendelige matricer findes indenfor planetteori og atomteori.
 
En anden type Matrix ligninger som bruges inden for mange områder er A X = kX, hvor k er en skalar (konstant) og X en søjlevektor. k kaldes en egenværdien til A og X kaldes egenvektoren til k. Der er højst n forskellige egenværdier hvis matricen er en nxn Matrix. Man finder : A X = k I X => ( A - k I) X = 0, (X antaget forskellig fra 0). Tallet k er en egenværdi hvis og kun hvis matricen ( A - k I) er singulær, det modsatte af regulær. Detdet vil sige at [[determinaten]] det(A - k I ) er lig nul . Man får en ligning af nte grad i k og der er altså n løsninger (i der komplekse rum) ifølge [[algebraens fundamentalsætning]].
 
En speciel type matricer har kun reelle egenværdier det er symmetriske kvadratform matricer og Hermitiske matricer opkaldt efter [[Charles Hermite]] som i 1855 demonstrerededemonstrede at disse matricer ligesom de reelle symmetriske matricer har reelle [[Egenværdi, egenvektor og egenrum|Egenværdier]]. Disse matricer bruges inden for kvanteteorien som Observable.
 
== Definition ==
Linje 37:
En matrix er en rektangulærform tabel af tal eller andre matematiske objekter for hvilke operationerne addition og multiplikation er defineret. Mest almindeligt er en matrix over de reelle tal '''R''', indeholdende reelle tal eller en matrix over de komplekse tal '''C''' indeholdende komplekse tal. De tilsvarende matricer kaldes reelle eller komplekse.
 
Dimensionen af en matrix er produktet af antalletantalle af indgange i søjlerne og indgange i rækkerne. En matrix A med m rækker og n søjler kaldes en m x n matrix ''m''-gange-''n''-matrix" og for en reel matrix A ∈ '''R'''<sup>{mxn}</sup> eller om man vil Mat<sub>m,n</sub>('''R'''). En matrixmatrice med det samme antal søjler og rækker har kvadratiskform. Matricer som består af kun en søjle eller en række kaldes ofte en vektor, nærmere betegnet en søjlevektor eller en række vektor. Når man ganger to matricer tager man en række i fra den første og en søjle j fra den anden og ganger dem, resultatet er et tal/objekt der skal placeres i resultat matricen i indgang (i,j). Rækken i og søjlen j skal have samme antal indgange.
En matrix med uendelig mange rækker eller søjler kaldes en uendelig matrix og en matrix uden elementer kaldes en tom matrix.