Ciò che vogliamo fare è calcolare con metodi numerici la soluzione di un’equazione non lineare, quindi del tipo:
$$ F(x)=0 $$
Innanzitutto ci chiediamo: esiste e, se sì, è unica la soluzione?
Le condizioni necessarie e sufficienti affinché esista una soluzione sono che la funzione sia continua nell’intervallo $[a,b]$ e che $f(a)f(b)<0$, poiché queste due condizioni insieme mi dicono che nell’intervallo dato la funzione interseca l’asse delle $x$ almeno una volta, quindi esiste almeno uno $0$ di $f$ in $]a,b[$.
Non è possibile in generale costruire metodi numerici che calcolino le radici di un'equazione non lineare in un numero finito di passi, quindi bisogna necessariamente usare i metodi iterativi.
A partire da uno o più dati iniziali si calcolano i valori $x_k$ attraverso un processo iterativo sempre uguale ad ogni passo $k$:
$$ x_k = G(x_k-1)\quad \in\R $$
Dietro opportune condizioni gli iterati $x_k$ convergono alla soluzione $x^$, tale che $f(x^)=0$ per $k\rarr\infty$.
La successione $x_k$ converge ad $x^*$ con ordine $p\geq1$ se:
$$ \cfrac{|x_{k+1}-x^|}{|x_k-x^|^p} = C, \space\forall k\geq k_0 $$
Dove $k_0$ è un intero opportuno e $C\in\R$ è tale che:
$$ \begin{cases} 0<C\leq1&\text{se}\quad p=1 \\ C>0&\text{se}\quad p>1 \end{cases} $$
In generale la convergenza di questi metodi non dipende dalla scelta del valore iniziale $x_0$.
Abbiamo quindi due aspetti:
Convergenza globale
Il metodo converge per ogni $x_0$ iniziale
Convergenza locale
Il metodo converge solo per degli $x_0$ scelti in un opportuno intorno della radice esatta