Introduzione ai numeri finiti

A differenza di quanto accade facendo i conti "a mano" quando si studia analisi, con i calcolatori non è possibile raggiungere un livello di accuratezza simile poiché essi lavorano con numeri finiti. Ci saranno sempre dei "buchi" nell'eseguire i calcoli che saranno dati da quei numeri che il calcolatore non è in grado di rappresentare.

Per questo motivo, quando parliamo di numeri finiti bisogna subito introdurre il concetto di errore nel calcolo.

Errori nel calcolo

Nella risoluzione di un problema numerico utilizzando un calcolatore possono esserci diversi tipi di errore:

Misurare l'accuratezza di un risultato

Proprio in virtù della quantità di errori che un calcolatore produce, dobbiamo misurare l'accuratezza dell'errore tramite, per l'appunto, i margini di errore.

Ci sono vari modi per misurare l'errore:

Rappresentazione dei numeri in memoria

Nella memoria dei calcolatori i numeri sono rappresentati in base 2 (binario, duh). L'unità minima del linguaggio è il bit.

Per passare da un numero decimale ad un numero binario si utilizza il metodo delle divisioni successive (già visto in architettura).

Dal momento che i metodi più semplici di rappresentazione dei numeri li abbiamo già visti in architettura, li riepilogo brevemente:

Nel caso invece si vogliano rappresentare numeri reali minori di 1 si può procedere usando il medoto delle moltiplicazioni successive, ovvero prendo il numero in base 10 (che è minore di 1) e lo moltiplico per 2, se il risultato è minore di 1 segno il bit a 0 e proseguo, se è maggiore di 1 segno il bit a 1, tolgo la parte intera e proseguo. Continuo finché non ottengo un numero di cifre sufficienti.