În matematică , matricile sunt matrici de elemente (numere, caractere) care sunt folosite pentru a interpreta în termeni de calcul și, prin urmare, operaționale, rezultatele teoretice ale algebrei liniare și chiar ale algebrei biliniare .
Toate disciplinele care studiază fenomenele liniare utilizează matrici. În ceea ce privește fenomenele neliniare, se dau deseori aproximări liniare ale acestora, ca în optica geometrică cu aproximările lui Gauss .
Deși calculul matricei în sine apare la începutul XIX - lea secol, moare, sub forma unor tabele de numere, au o lungă istorie de aplicare în rezolvarea de ecuații liniare . Cele chinezi de text capitolele Nouă pe arta matematică scrie la II - lea lea î.Hr.. AD , este primul exemplu cunoscut de utilizare a tabelelor pentru rezolvarea sistemelor de ecuații , chiar introducând conceptul de determinant . În 1545, Girolamo Cardano a făcut cunoscută această metodă în Europa, publicându-și Ars Magna . Matematicianul japonez Seki Takakazu folosit în mod independent , aceleași tehnici pentru a rezolva sisteme de ecuații în 1683. În Țările de Jos, Johan de Witt este transformări geometrice folosind tabele în cartea sa de 1659, Elementa curvarum linearum . Între 1700 și 1710, Leibniz a arătat cum să folosească tabele pentru a nota date sau soluții și a experimentat cu mai mult de 50 de sisteme de tabele în acest scop. În 1750, Gabriel Cramer a publicat regula care îi poartă numele .
În 1850, termenul „matrice” (care va fi tradus prin matrice) este inventat (pe rădăcina latină mater ) de James Joseph Sylvester , care îl vede ca un obiect care dă naștere familiei de determinanți numiți în prezent minori , adică determinanții sub-matricilor obținute prin eliminarea rândurilor și coloanelor. Într-un articol din 1851, Sylvester specifică:
"În articolele anterioare, am numit o matrice dreptunghiulară de termeni matrice din care pot fi generate mai multe sisteme de determinanți, ca și cum ar fi din intestinele unui părinte comun."În 1854, Arthur Cayley a publicat un tratat privind transformările geometrice folosind matrici într-un mod mult mai general decât orice s-a făcut înainte. Acesta definește operațiile obișnuite ale calculului matricial (adunare, multiplicare și divizare) și arată proprietățile asociativității și distributivității multiplicării. Până atunci, utilizarea matricilor fusese limitată în esență la calculul determinanților; această abordare abstractă a operațiilor matriciale este revoluționară. În 1858, Cayley și-a publicat A Memoir on the Theory of Matrices , în care a afirmat și demonstrat teorema Cayley-Hamilton pentru matricile 2 × 2.
În plus, multe teoreme sunt demonstrate la început doar pentru matricile mici: după Cauchy, Hamilton generalizează teorema la matrici 4 × 4 și abia în 1898 Frobenius , studiind formele biliniare , a demonstrat teorema în orice dimensiune. A fost , de asemenea , la sfârșitul XIX - lea secol Wilhelm Jordan stabilește metoda de eliminare Gauss-Jordan (generalizand metoda Gauss pentru arrays etape ). La începutul XX - lea secol, matricele sunt centrale în algebra liniară , în parte datorită rolului pe care îl joacă în sistemele de clasificare Număr Hipercomplex ale secolului trecut.
Un matematician englez pe nume Cullis a fost primul, în 1913, care a folosit notația modernă a parantezelor (sau parantezelor) pentru a reprezenta matricele, precum și notația sistematică A = [ a i , j ] pentru a reprezenta matricea a cărei a i , j este termenul al i -lea rând și al j -coloanei.
Formularea mecanicii cuantice prin intermediul mecanicii matriciale , datorită lui Heisenberg , Born și Jordan , a condus la studiul matricilor care cuprind un număr infinit de rânduri și coloane. Ulterior, von Neumann a clarificat bazele matematice ale mecanicii cuantice , înlocuind aceste matrice cu operatori liniari pe spațiile Hilbert .
Studiul teoretic al determinanților provine din mai multe surse. Problemele teoriei numerelor îl determină pe Gauss să raporteze la matrici (sau mai precis la determinantul lor) coeficienții unei forme pătratice , precum și hărțile liniare din dimensiunea a treia. Gotthold Eisenstein dezvoltă aceste noțiuni, menționând în special că în notația modernă, produsul matricilor este necomutativ. Cauchy este primul care demonstrează rezultate generale pe determinanți, folosind ca definiție a determinantului matricei A = [ a i , j ] rezultatul substituirii, în polinom , a puterilor ak
jde un jk . El arată, de asemenea, în 1829, că valorile proprii ale unei matrici simetrice sunt reale. Jacobi studiază „determinanții funcționali” (numiți mai târziu Jacobians de Sylvester), folosiți pentru a descrie transformările geometrice dintr-un punct de vedere infinitesimal ; cărțile Vorlesungen über die Theorie der Determinanten de Leopold Kronecker și Zur Determinantentheorie de Karl Weierstrass , ambele publicate în 1903, definesc pentru prima dată determinanții în mod axiomatic ca forme multiliniare alternante .
Cel puțin doi matematicieni notabili au folosit cuvântul într-un sens neobișnuit.
Bertrand Russell și Alfred North Whitehead în Principia Mathematica , folosesc cuvântul „matrice” în contextul axiomei lor de reducibilitate (în) . Această axiomă face posibilă reducerea tipului unei funcții, funcțiile de tip 0 fiind identice cu extensia lor (en) ; ei numesc „matrice” o funcție care are doar variabile libere . Deci, de exemplu, o funcție Φ ( x , y ) a două variabile x și y poate fi redusă la o colecție de funcții ale unei singure variabile, de exemplu y , prin „luarea în considerare” a funcției pentru toate valorile substituite a i la variabila x redusă apoi la o „matrice” de valori procedând în același mod pentru y : ∀ b j , ∀ a i , Φ ( a i , b j ) .
Alfred Tarski , în Introducerea în logică din 1946, folosește cuvântul „matrice” ca sinonim pentru tabelul adevărului .
O matrice cu m rânduri și n coloane este o matrice dreptunghiulară de m × n numere, aranjate rând cu rând. Există m rânduri și în fiecare rând n elemente.
Mai formal și mai general, fie I , J și K să fie trei seturi ( K va fi adesea prevăzut cu o structură inelară sau chiar cu un câmp comutativ ).
Numita matrice de tip ( I , J ) cu coeficienți în K , orice familie de elemente K indexate de produsul cartezian I x J , adică, orice implementare A la I × J în K .
Cel mai adesea, ca și în restul acestui articol, mulțimile I și J sunt finite și sunt respectiv mulțimile de numere întregi {1, ..., m } și {1, ..., n } . În acest caz, spunem că matricea are m rânduri și n coloane sau că este de dimensiune sau dimensiune ( m , n ) . Prin notarea a i , j imaginea unei perechi ( i , j ) de harta A , matricea poate fi apoi notată
sau mai simplu ( a i , j ) dacă contextul i se împrumută.
În cazul particular în care I sau J este setul gol , matricea corespunzătoare se numește matrice goală .
De obicei, o matrice este reprezentată sub forma unui tabel dreptunghiular. De exemplu, este reprezentat sub o matrice A , cu coeficienți întregi, și cu dimensiunea (3,4):
În această reprezentare, primul coeficient al dimensiunii este numărul de rânduri, iar al doilea, numărul de coloane din tabel. O matrice pentru care numărul m de rânduri este egal cu numărul n de coloane va fi numită matrice pătrată de mărime (sau ordine ) n . O matrice cu un singur rând și n coloane se numește matrice de rând de dimensiunea n . O matrice cu m rânduri și o singură coloană se numește matrice de coloane de dimensiunea m .
Pentru a localiza un coeficient al unei matrice, indicăm indexul rândurilor sale, apoi indexul coloanei, rândurile numărând de sus în jos și coloanele de la stânga la dreapta. De exemplu, vom nota cu a i , j , coeficienții matricei A , i între 1 și 3 desemnând numărul rândului pe care apare coeficientul preconizat și j între 1 și 4 desemnând numărul coloanei sale; deci un 2,4 = 7 .
Aranjamentul general al coeficienților unei matrice A de dimensiune ( m , n ) este, așadar, după cum urmează
Se spune că coeficienții a i , j cu i = j sunt diagonali , cei cu i ≠ j sunt extradiagonali .
O submatrică a lui A este o matrice obținută prin selectarea unei părți I ⊂ {1, ..., m } a rândurilor sale și a unei părți J ⊂ {1, ..., n } a coloanelor sale; notăm A I , J . Spunem că o submatrică este principală dacă I = J în definiția anterioară. Diagonala de A este vectorul
unde p = min ( m , n ) .
Pentru a efectua anumite operații, poate fi util să lucrați la sistemul de rânduri sau coloane ale unei matrice. O putem scrie apoi într-una din următoarele forme
Setul matricilor cu coeficienți în K având m rânduri și n coloane este notat cu M m , n ( K ) (sau uneori M ( m , n , K ) ).
Când m = n denotăm mai simplu M n ( K ) .
Fie K un set și A = ( a i , j ) 1 ≤ i ≤ m , 1 ≤ j ≤ n ∈ M m , n ( K ) ; Numim matricea transpusă a lui A matricea A T = ( a j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K ) . Dacă K este o magmă , A T = ( a j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K op ) unde K op este opusă magma de K .
De exemplu, cu matricea A din exemplele anterioare, avem
Acum presupunem că K este înzestrat cu o structură inelară ; elementele lui K vor fi numite scalare , spre deosebire de matricile pe care le vom vedea pot fi considerate ca vectori .
Definim pe M m , n ( K ) o lege de compoziție internă rezultată din adăugarea scalarilor:
.Putem adăuga doar două matrice de aceeași dimensiune.
Pentru fiecare valoare a perechii ( m , n ) , spațiul M m , n ( K ) , atunci devine un grup abelian , cu un element neutru matricea nulă , aceea din care toți coeficienții sunt egali cu 0.
De asemenea, definim o operație în dreapta lui K pe fiecare spațiu M m , n ( K ) prin asocierea, cu fiecare scalar λ în K și cu fiecare matrice ( a i , j ) cu coeficienți în K , matricea ( a i , j ) λ = ( a i , j λ ) obținut prin efectuarea înmulțirii din dreapta, în K , a tuturor coeficienților matricei inițiale cu λ : este înmulțirea cu un scalar . Când inelul este comutativ, înmulțirea se poate face și în stânga.
Luând întotdeauna matricea A din primul exemplu (a se vedea mai sus ):
Spațiile M m , n ( K ) astfel obținute au deci o structură a modulului K - drept , și mai ales a spațiului K - vectorial , dacă K este un câmp comutativ .
Baza canonică a spațiului matricialK -modul M m , n ( K ) este liber de rang mn , adică are o bază de mn elemente: este suficient să se considere baza canonică ( E i , j ) 1 ≤ i ≤ m , 1 ≤ j ≤ n . Matricea E i , j este cea în care toți coeficienții sunt zero, cu excepția celui al indicelui ( i , j ) , care este egal cu 1.
Coordonatele din baza canonică a unei matrice A sunt coeficienții săi:
Începem prin definirea produsului unei matrice de rânduri printr-o matrice de coloane. Fie n un număr întreg, L o matrice rând, x i coeficienții săi, C o matrice coloană, y i coeficienții săi. Amândouă se presupune că sunt de mărimea n . Apoi definim produsul, considerat ca un scalar sau o matrice de dimensiune (1, 1):
Se observă condiția de compatibilitate pe dimensiunile matricilor (egalitatea numărului de coloane ale primei cu numărul de linii ale celei de-a doua). Acum definim mai general un produs între două matrice, prima, ( x i , j ) în M m , n ( K ) , a doua, ( y i , j ) în M n , p ( K ) , întotdeauna cu un condiția de compatibilitate a dimensiunilor (și ordinea factorilor înmulțirii nu poate fi modificată în general). Rezultatul obținut este o matrice de M m , p ( K ) , ai cărei coeficienți ( z i , j ) se obțin prin:
În lumina exemplului înmulțirii unei matrice de rânduri cu o matrice de coloane, putem reformula această definiție spunând că acest coeficient este egal cu produsul rândului i al primei matrice cu coloana j a celei de-a doua, care este scrisă după cum urmează, în cazul în care L i sunt liniile primei matrice și C j coloanele în al doilea, produsul este: .
Produsul matricial este asociativ , distributiv în dreapta și în stânga în ceea ce privește adăugarea matricei. Pe de altă parte, chiar și atunci când dimensiunile fac posibilă acordarea unui sens întrebării și chiar dacă inelul scalarilor este comutativ, un produs al matricilor nu se deplasează în general: AB nu este în general egal cu BA , de exemplu:
Notă : produsul a două matrice diferite de zero poate fi zero, ca în exemplul de mai sus.
Se întâmplă chiar, în funcție de dimensiunile respective ale matricilor A și B , că unul dintre cele două produse există și celălalt nu.
Transpunerea și produsul matrice sunt compatibile în următorul sens:
( chiar dacă inelul K nu este comutativ , amintindu-ne că matricile transpuse au coeficienții lor în inelul opus K op ).
Identitatea și matricea inversă a unei matricePentru fiecare număr întreg n , notăm cu I n matricea pătrată de mărime n ai cărei coeficienți diagonali sunt egali cu 1 și ai căror alți coeficienți sunt zero; se numește matrice de identitate de mărimea n.
unde δ i, j denotă simbolul Kronecker .
Sub rezerva compatibilității dimensiunilor, matricile I n sunt neutre la stânga și la dreapta pentru multiplicare.
Fie A o matrice de dimensiune ( m , n ). Spunem că A este inversabil în dreapta (respectiv în stânga) dacă există o matrice B de dimensiune ( n , m ) astfel încât AB = I m (respectiv BA = I n ). Se spune pur și simplu că este inversabil dacă este și dreapta și stânga. Subsetul lui M n ( K ) alcătuit din matricile inversabile are o structură de grup pentru produsul matricei; se numește grup liniar și se notează GL n ( K ) .
Pentru o matrice pătrată cu coeficienți într-un inel comutativ K , a fi inversat la dreapta sau la stânga sau având un determinant inversabil în K (adică non-zero dacă K este un câmp) sunt trei proprietăți echivalente.
Când inelul K este comutativ, mulțimea M n ( K ) a matricelor pătrate de dimensiunea n este, prin urmare, dotată cu o structură de K - algebră asociativă și unitară cu adaosul matricei, produsul printr-un scalar și matricea produsului.
Numita matrice scalar o matrice de forma I n λ unde λ este membru al inelului K .
Aceste matrice se numesc matrici scalare deoarece se comportă ca niște scalare, în ceea ce privește multiplicarea:
Când K este comutativ sau, în caz contrar, când λ este central în K , adică atunci când λ face naveta cu toate elementele lui K , avem și:
În schimb, orice matrice B a lui M n ( K ) astfel încât ∀ A ∈ M n ( K ), AB = BA este o matrice scalară I n λ unde λ este centrală în K (acest lucru este demonstrat luând pentru A matricile lui bază canonică ).
O matrice a formei:
se va numi matrice diagonală .
Pe lângă determinant, o altă funcție a notei este urmele . Ambele apar într-un obiect mai general, polinomul caracteristic , care la rândul său oferă anumite caracterizări ale matricelor diagonalizabile (adică asemănătoare unei matrice diagonale) sau ale trigonalizării .
Există mai multe moduri de a face grupul liniar GL n ( K ) să acționeze asupra spațiilor matricilor, în special:
Acum descriem rezultatele clasice ale acestor acțiuni, atunci când scalarele formează un câmp comutativ. Primele două acțiuni sunt adesea luate în considerare simultan; ne interesează, așadar, întrebarea: sunt date două matrice A și B de dimensiune ( m , n ) , există matrici P ∈ GL m ( K ) și Q ∈ GL m ( K ) astfel încât A = PBQ −1 ? Dacă acesta este cazul, se spune că cele două matrice A și B sunt echivalente . Rezultatul principal este că două matrice sunt echivalente dacă și numai dacă au același rang , ceea ce se exprimă din nou spunând că rangul este un invariant complet pentru clasele duble definite de cele două acțiuni de multiplicare la stânga și la dreapta . Mai mult, dat fiind o matrice, se pot găsi alte matrice privilegiate (matricele scalate ) în aceeași orbită pentru una dintre aceste acțiuni prin metoda pivotului Gaussian .
Pentru acțiunea prin conjugare, două matrice pătrate A și B de dimensiunea n pe aceeași orbită admit o relație de forma A = PBP −1 , pentru o anumită matrice inversabilă P de dimensiunea n ; se spune că două astfel de matrici sunt similare . Descrierea unui sistem complet de invarianți (care caracterizează matrici similare) este mai delicată. Acești invarianți îi numim invarianți de similaritate . Din punct de vedere algoritmic, reducerea unei matrici arbitrare la o matrice într-o formă privilegiată se face de un algoritm inspirat de cel al pivotului Gaussian, a se vedea teorema factorului invariant .
Un avantaj principal al matricelor este că permit operațiunilor obișnuite ale algebrei liniare să fie scrise convenabil , cu o anumită canonicalitate.
Primul punct este de a observa că K -modulul K n este identificat canonic cu spațiul matricelor de coloane M n , 1 ( K ) : dacă e i este n -plicația lui K n ai cărei coeficienți sunt zero, cu excepția i - lea , care este în valoare de 1, am asociat cu ea i -lea matricea coloanei e i , 1 din baza canonică a M n , 1 ( K ) (cel a cărui coeficienți sunt zero , cu excepția i -lea care este în valoare de 1), și extindem identificarea prin linearitate; matricea asociată cu fiecare n -plu va fi numită matrice de coordonate canonice .
Alte identificări sunt totuși posibile; când putem vorbi de o bază (dacă inelul scalarilor este un câmp, de exemplu), putem asocia matricele coloanei elementare cu orice bază a spațiului K n (sau mai general a unui modul fără K ), atunci extindeți din nou prin linearitate; matricile asociate se vor numi matrice coordonate în baza considerată.
Se pot juxtapune matricile de coordonate, într-o bază fixă, a mai multor n -upluri. Obținem astfel matricea de coordonate a unei familii de vectori. Rangul matricei este apoi definită ca dimensiunea familiei acestor vectori. În special, matricea unei baze într-o altă bază se numește matricea de trecere între aceste două baze, sau matricea schimbării bazei. Dacă X și X ' sunt matricile de coordonate ale aceluiași vector în două baze B și C și că P este matricea de trecere de la baza C în baza B , avem relația (o matrice de trecere este întotdeauna inversabilă):
Să E și F două spații vectoriale de dimensiuni corespunzătoare n și m peste un câmp K , B o bază E , C o bază F și φ un liniar de cartografiere a E în F .
Noi numim matricea φ în perechea de baze ( B , C ) , mat matricea B , C ( cp ) de M m , n ( K ) , astfel încât pentru orice vector x de E , dacă notăm y = φ ( x ) , X = mat B ( x ) și Y = mat C ( y ) , apoi:
Dacă ψ este a doua hartă liniară, a lui F într-un al treilea spațiu vectorial G cu baza D , atunci, relativ la bazele B , C , D , matricea compozitului ψ ∘ φ este egală cu produsul matricilor lui ψ și φ . Mai precis :
Aplicarea lui L ( E , F ) în M m , n ( K ) care cu fiecare φ își asociază matricea în ( B , C ) este un izomorfism al spațiilor vectoriale .
Pentru orice matrice M de M m , n ( K ) , harta X ↦ MX a spațiului K -vector M n , 1 ( K ) în spațiul K -vector M m , 1 ( K ) este liniară. Acesta este un punct cheie în legătura dintre algebra liniară și matrice. În consecință, se întâmplă adesea ca matricea M să fie identificată cu această hartă liniară. Vom vorbi apoi despre nucleul matricei, despre spațiile eigens ale matricei, despre imaginea matricei etc.
Dacă B și B ' sunt două baze ale lui E , C și C' două baze ale lui F , P = mat B ( B ' ) matricea de trecere de la B la B' și Q matricea de trecere de la C la C ' , atunci cele două matrice M și M ' ale aceleiași hărți liniare a lui E în F , în perechile de baze ( B , C ) și ( B' , C ' ), sunt legate de: M' = Q −1 MP . Se observă astfel că două matrice echivalente sunt două matrice care reprezintă aceeași hartă liniară în baze diferite. În special, în cazul unui endomorfism , dacă impunem B = C și B ' = C' , formula precedentă devine: M '= P −1 MP și două matrice similare sunt două matrice care reprezintă același endomorfism în baze diferite .
TranspunereSunt din nou E și F două K vector -spaces de dimensiuni finite, baze respectiv B și C , și φ liniar de mapare a E în F . Harta liniară transpusă t φ: F * → E * între dualii lor este definită de
Matricea sa din perechea de baze duale ( C *, B *) este legată de cea a lui φ în ( B , C ) prin:
ObservațieCând inelul nu este comutativ, dacă vectorii sunt reprezentați prin matrice de coloane, algebra liniară este compatibilă cu calculul matricial numai dacă modulele sau spațiile vectoriale considerate sunt în dreapta , ca în articolele detaliate mai sus, o hartă liniară corespunzătoare stângii multiplicarea unui vector coloană cu matricea care îl reprezintă. Dacă vrem să avem moduli sau spații vectoriale în stânga , trebuie să reprezentăm vectorii prin matrice de rânduri , o hartă liniară de această dată fiind reprezentată de înmulțirea în dreapta unui vector de rând prin matricea care îl reprezintă.
În general, un sistem de m ecuații liniare cu n necunoscute poate fi scris în următoarea formă:
unde x 1 , ..., x n sunt necunoscutele și numerele a i , j sunt coeficienții sistemului.
Acest sistem poate fi scris sub formă de matrice:
cu :
teoria rezoluției sistemelor folosește invarianții legați de matricea A (numită matricea sistemului ), de exemplu rangul său și, în cazul în care A este inversabil, determinantul său (vezi articolul Regula lui Cramer ).
În acest paragraf, inelul K al scalarilor va fi presupus a fi comutativ. În majoritatea aplicațiilor, acesta va fi un câmp comutativ.
Există și cazul necomutativ, dar trebuie luate unele măsuri de precauție, iar notațiile devin prea grele pentru acest articol.
Să E un K -modul și B = ( e 1 , ..., e n ) o bază E .
Fie o formă biliniară . Definim matricea din baza B prin următoarea formulă:
În cazul particular în care K = ℝ și f este un produs punct, această matrice se numește matrice Gram .
Mat matrice B f este simetrică (respectiv antisimetrică ) , dacă și numai dacă forma biliniară este simetrică (respectiv antisimetrică ).
Să x și y doi vectori de E . Notați cu X și Y coordonatele lor în baza B și A = mat B f . Avem apoi formula .
Două forme biliniare sunt egale dacă și numai dacă au aceeași matrice într-o bază dată.
Când K este un câmp de caracteristică diferit de 2, se numește matricea unei forme pătratice matricea formei biliniare simetrice din care rezultă forma pătratică.
Să E un K -modul liber și B, C două baze de E . Luați în considerare o formă biliniară.
Nota M = mat B f matricea f în baza B și M ' = mat C f matricea f în baza C . Să notăm cu P = mat B C matricea de trecere. Apoi avem formula de schimbare a bazei pentru o formă biliniară (nu trebuie confundată cu cea pentru o aplicație liniară ):
Se spune că două matrice pătrate A și B sunt congruente dacă există o matrice inversabilă P astfel încât
Două matrice congruente sunt două matrice care reprezintă aceeași formă biliniară în două baze diferite.
Când K este un câmp de caracteristică altul decât 2, orice matrice simetrică este congruentă cu o matrice diagonală. Algoritmul folosit se numește reducere gaussiană care nu trebuie confundată cu pivotul gaussian .
Se spune că o matrice este simetrică dacă este egală cu transpunerea sa și antisimetrică dacă este opusă transpunerii sale.
O matrice A cu coeficienți complecși se numește Hermitian dacă este egal cu transpusa a conjugat matricei A .
Se spune o matrice A
(Pentru mai multe exemple, consultați în partea de jos a paginii: „Articole conexe” și paleta „Matrice”)
Folosim greșit termenul de descompunere a unei matrice, indiferent dacă este o adevărată descompunere (în sumă) ca în descompunerea Dunford sau o factorizare ca în majoritatea celorlalte descompuneri.
În tot acest paragraf, K = ℝ sau ℂ .
O normă matricială este o normă de algebră peste algebra M n ( K ) , adică o normă de spațiu vectorial care este, de asemenea, sub-multiplicativă.
Raza spectrală a unei matrice pătratică A cu coeficienți complecși este cel mai mare modulul de sale valori proprii . Este egal cu minorant normelor matriceale A .
Pe M n ( K ) , orice normă N subordonată unei norme pe K n este o normă de algebră care îndeplinește în plus N ( I n ) = 1 (inversul este fals).
Spațiul vectorial M m , n (ℝ) , canomic izomorf la ℝ mn , își moștenește structura euclidiană . Produsul scalar este transcris ca
unde denotă trace (adică ) și un i , j (resp. b i , j ) denotă elementele A (resp. B ). Standardul asociat acestui produs scalar este standardul Frobenius sau standardul Hilbert-Schmidt :
unde σ ( A ) este vectorul valorilor singulare ale lui A și este norma euclidiană .
Dacă m = n > 1 , nu este o normă subordonată, deoarece
Inegalitatea Cauchy-Schwarz este scris (ca pentru orice produs scalar):
Această inegalitate poate fi întărită de inegalitatea urmei von Neumann :
unde σ ( A ) este vectorul valorilor singulare ale lui A , dispuse în ordine descrescătoare . Are aceeași structură ca inegalitatea Ky Fan , care presupune că matricile sunt pătrate și simetrice (putem înlocui apoi σ (•) cu vectorul valorilor proprii).
Spațiul vectorial M m, n (ℂ) este dotat cu o structură similară a spațiului hermitian .
Să A ∈ M n (ℂ) sau N algebra standard si o serie întreagă de rază de convergență R .
Atunci dacă N ( A ) < R , seria este absolut convergentă . (Arătăm acest lucru folosind acel N ( A n ) ≤ N ( A ) n .)
În special, se poate defini, pentru orice matrice pătrată complexă, cantitatea
Calculul efectiv al acestei exponențiale se face prin reducerea matricei .
Exponențialul joacă un rol central în studiul sistemelor liniare de ecuații diferențiale .