Matrici quadrate

Come abbiamo visto anche nel corso di Algebra lineare, le matrici si presentano nella forma:

$Ax=b$

Dove $A$ è la matrice dei coefficienti di $x$, che è il vettore colonna delle incognite, e $b$ è il vettore colonna dei termini noti.

Vediamo subito un importante teorema che si applica alle matrici quadrate:

Sia $A$ una matrice $n\times n$, allora le seguenti tre proposizioni sono equivalenti:

  1. Il sistema omogeneo $Ax=0$ ammette solo la soluzione nulla $x=0$;
  2. Per ogni vettore dei termini noti $b$, il sistema $Ax=b$ ammette un'unica soluzione;
  3. $A$ è non singolare.

Dove matrice non singolare significa che $det(A)≠0$. Se il det è uguale a 0 allora la matrice si dice singolare. (È una proprietà, la non singolarità, che si definisce solo per le matrici quadrate).

Errori (digressione)

Come abbiamo visto, esistono diversi tipi di errore, in particolare ci interessa ora l'errore inerente.

L'errore inerente, come già detto, è un errore sui dati dovuto al fatto che utilizzo dati non appartenenti all'insieme dei numeri finiti, ma ci possono essere anche altri errori sui dati.

Supponiamo di avere un insieme con i dati di input, un insieme di output e una funzione $f$ (non per forza una funzione matematica) che collega i due insiemi.

Se io ad un input $u$ applico la funzione $f$ ottengo un dato di output $v=f(u)$.

Se altero il dato e invece che $u$ prendo come input $u+\Delta u$, quindi un dato con una certa distanza da $u$ e vi applico la funzione, otterrò un altro output che chiamo $v+\Delta v$.

L'errore inerente è la distanza $\Delta v$ che c'è nel risultato.

Ciò che ci interessa studiare è la grandezza di $\Delta v$ rispetto alla grandezza di $\Delta u$, poiché se questi sono di simili grandezze allora ho tra le mani una funzione che si comporta bene.

Il problema sorge quando $\Delta v >> \Delta u$, ovvero l'errore inerente è grande.