Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
14/07/20 13:33
In informatica, la teoria
della complessità
computazionale è una
branca della teoria della
computabilità che studia le
risorse minime necessarie
(principalmente tempo di
calcolo e memoria) per la
risoluzione di un problema.
Con complessità di un
algoritmo o efficienza di un
algoritmo ci si riferisce
dunque alle risorse di
calcolo richieste. I problemi
sono classificati in differenti
classi di complessità, in base
all'efficienza del migliore
algoritmo noto in grado di
risolvere quello specifico
problema.
(l'efficienza di una
procedura dipende sia da
chi l'implementa, ma anche
da quanto sia difficile e
complicato il problema da
risolvere.
I problemi posso essere
classificati in classi di
complessità.
Come si misurano le risorse?
Per misurare l'efficienza di
un algoritmo in maniera
univoca, bisogna definire
una metrica indipendente
dalle tecnologie utilizzate,
altrimenti uno stesso
algoritmo potrebbe avere
efficienza diversa a seconda
della tecnologia sulla quale
è eseguito. Per questo
motivo si usa fare
riferimento ad un modello
di calcolo generico, cioè la
Macchina di Turing.
Esempio:
//10.55