Liniar dependență și rang de matrice.
Un sistem de vectori de aceeași ordine este considerat a fi dependent liniar dacă un vector zero poate fi obținut de la acești vectori prin intermediul combinației liniare corespunzătoare. (În acest caz, nu este permis ca toți coeficienții combinației liniare să fie zero, deoarece aceasta ar fi trivială.) În caz contrar, se consideră că vectorii sunt independenți liniar. De exemplu, următorii trei vectori:
liniar dependentă, deoarece este ușor de verificat. În cazul dependenței liniare, orice vector poate fi întotdeauna exprimat în termeni de combinație liniară a vectorilor rămași. În exemplul nostru: sau sau Este ușor de verificat prin calcule corespunzătoare. De aici rezultă următoarea definiție: un vector este liniar independent față de alți vectori dacă nu poate fi reprezentat ca o combinație liniară a acestor vectori.
Luați în considerare un sistem de vectori fără a specifica dacă este independent sau liniar independent. Pentru fiecare sistem format din coloane vectori a, se poate determina numărul maxim posibil de vectori independenți liniar. Acest număr, notat cu litera, este rangul unui sistem de vectori dat. Deoarece fiecare matrice poate fi privită ca un sistem de vectori de coloană, rangul matricei este definit ca numărul maxim de vectori de coloane independenți liniar conținute în ea. Pentru a determina rangul matricei, se folosesc și liniile vectoriale. Ambele metode dau același rezultat pentru aceeași matrice și nu pot depăși cel mai mic sau rang al matricei pătrate de ordine variază de la 0 la. Dacă toate vectorii sunt zero, atunci rangul unei astfel de matrice este zero. Dacă toți vectorii sunt liniar independenți unul de altul, atunci rangul matricei este egal cu. Dacă formăm o matrice din vectorii de mai sus, atunci rangul acestei matrice este 2. Deoarece fiecare două vectori pot fi reduse la a treia cale a unei combinații liniare, rangul este mai mic de 3.
Dar putem verifica dacă vreunul dintre acești doi vectori este - independent de liniar, deci, rang
Se consideră că o matrice pătrată este degenerată dacă vectorii acesteia sau vectorii de rând sunt dependenți liniar. Determinantul unei astfel de matrice este egal cu zero și matricea inversă nu există, așa cum s-a menționat deja mai sus. Aceste concluzii sunt echivalente unul cu celălalt. Ca rezultat, o matrice pătrată se numește nondegenerat sau nonsingular, dacă vectorii de coloane sau vectorii de rând sunt independenți unul de celălalt. Determinantul unei astfel de matrice nu este egal cu zero și există matricea inversă (comparați cu pagina 43)
Rangul matricei are o interpretare geometrică complet evidentă. Dacă rangul matricei este egal, atunci spunem că spațiul -dimensional este împărțit de vectori. Dacă rangul vectorilor se află în subspațiul -dimensional, care include toate acestea. Astfel, rangul matricei corespunde dimensiunii minim necesare a spațiului, "în care sunt cuprinși toți vectorii", un subspațiu -dimensional într-un spațiu -dimensional se numește un hiperplane dimensional. Rangul matricei corespunde celei mai mici dimensiuni a hiperplanului, în care se află toate vectorii.
Ortogonalitate. Doi vectori a și b se consideră a fi reciproc ortogonali dacă produsul lor scalar este zero. Dacă pentru o matrice de comandă avem egalitatea în care D este o matrice diagonală, atunci vectorii coloanei A sunt reciproc ortogonali. Dacă acești vectori de coloane sunt normalizați, adică conduc la o lungime egală cu 1, atunci egalitatea rămâne și vorbim de vectori ortonormali. Dacă B este o matrice pătrată și egalitatea se menține, atunci matricea B se spune a fi ortogonală. În acest caz, rezultă din (1.22) că matricea ortogonală este întotdeauna nondegenerată. Prin urmare, ortogonalitatea matricei implică independența liniară a vectorilor sau a vectorilor de coloane. Conversia nu este adevărată: independența liniară a sistemului de vectori nu implică ortogonalitatea perechilor acestor vectori.