Sei sulla pagina 1di 229
Alfio Quarteroni Riccardo Sacco ie-LUKICest-l (21g A. Quarteroni R. Sacco E. Saleri MATEMATICA NUMERICA 2° edizione a Springer Facots di ngegneria Contra Servizi Bitiiotecat Aun Quarrsxost "Wia'aombaneg se Ecole Polytechnique Petdadaseeeche e MOX - Dipartimento di Mates Pif€a “E, Brioschi” Politecnico di Milano Riccaroo Sacco Dipartimento di Matematica “E. Brioschi” Politecnico di Milano Fausto SALERI MOX - Dipartimento di Matematica “R, Brioschi” Politecnico di Milano Springer-Verlag fa parte di Springer Science+Business Media springer.it © Springer-Verlag Italia, Milano 2000 2002, 2004, 2005 rstampa riveduta e corretta, ISBN 88-470-0077-7, 2000 (2a edizione) ISBN 88-470-0010-6, 1998 (1a edizione) (Quest’opera& prottta dalla legge sul dirtto autore, Tut ist in particolare quel rela- tiv alla traduzione, alla rstampa,alP'uso di igure etabel, alla citazione orale ala ts sone radiofonica o televisiva alla siproduzione su microfilm o in database, alla riproduzione in qualsiasialtre forma (stampa o clettronica) rimangono rservati anche nel aso di vtilizo parzale. Una riprodurione di quest opera, oppure di parte di questa, anche nel caso specific solo ammessa nei limit stabilt dala legge sul dirtto dautore, ed @sogget- ta alfautorizzzrione de Editore. La violazione delle norme comporta le sanzioni prevste dalla legge. Lutilizzo di denominazioni generiche, nomi commercial, marchi registrati,ecc, in 4quest’opera, anche in assenza di particolareindicaziane, non consente di considerate tli denominazioni o march liberamente utilizabif da chiunque ai sensi della legge sul marchio. Riprosioto da copia camers-eady fornita dagli Autori Progetto grafico della copertna: Simona Colombo, Milano Stampato in Kala: Signum Se, Bollate (Milano) SPIN: 10745296 Prefazione La 12 13 14 15 16 LT Ls 19 110 1 112 113 21 22 23 24 . Elementi di analisi delle matriei Spasi vettoriali Matriei Operazioni su matrei 13.1 Inversa di una muatrice 1.3.2 Matric’ e trasformazioni linear Traccia e deverminante Rango e nucleo di una matrice Matriei di forma particolare 16.1 Matrici diagonal a bleahi 1.6.2. Matrici trapezoidalie triangolari 1.6.3 Matrici a banda Autovalori e autovettori ‘Trasformazioni per similitudine {La decomposizione in valori singolari (SVD) Prodotto sealare e norme in spazi vettotial Norme matrictali LILI Relazione tra le norme ed il raggio spetirale di una matrice 1.11.2 Suecessioni e serie di matric 20 4 25 Matrici definite positive, matrici a dominanza diagonale e M-matriei 26 Esercizi I fondamenti della matematica numerica Buona posizione e numero di condizionamento di un problema StabilitA di metodi mumerici 2.2.1 Le relazioni tra stabilith ¢ convergenza, Analisi a priori ed a posteriori Sorgenti di errore nei modelli computazionali Rappresentazione dei numeri sul calcolatore 2.5.1 Il sistema posizionale 29 aL 31 35 38 39 VI__ Indice Indice VII 2.5.2 I sistema dei mmeri floating-point a4 4. Risoluzione di sistemi lineari con metodi iterativi 105 2.5.3. Distribuzione dei numeri floating-point - - 46 4.1 Convergenza di metodi iterativi 105 2.54 Aritmetica IEC/IEEE . . 47 42 Metodi iterativi lineari_. 108, 2.5.5 Arrotondamento di un numero reale nella sua rappresen- 42.1 Limetodi di Jacobi, di Gauss-Seidel e del rlassamento 109 tazione di machina ae 8 4.2.2. Risultati di convergenza per i metodi di Jacobi e di Gauss- 2.5.6 Operazioni di macchina effttuate in vitgola mobile... 50 Seidel ut 26° Beercizi. ss... : 52 4.23. Risultati di convergenza per il metodo di rilessamento . . . 113 424 Ieaso delle matrici a bloce! a4 3, Risoluzione di sistemi lineari con metodi diretti 55 42.5 Form simmetric dei metodi di Gauss-Seidel e SOR... 114 3.1 Analisi di stabilita per sistem lineati 56 42.6 Aspetti implementativi cece 6 3.11 H numero di condizionamento di una matriee 56 4.3 Metodi iterativi stazionari ¢ non stazionari . | | 7 3.1.2. Analisi a priori in avanti 58 43:1. Analisi di convergenza per il metodo di Richardson 18 «priori all'indietro 60 43.2. Matrsi di precondizionamento . 120 «posteriori. 61 433 Il metodo éel gradiente .... « 127 82. Risoluziono di sistemi triangolari +... 6 434 Il metodo del graiente coniugato 131 32.1. Aspetti implementativi dei metodi delle sostituzioni 63 4.3.5 Il metodo del gradiente coniugato precondizionato 136 3.2.2 Analisi degli errori di arrotondamento = a 44 — Metodi basati su iterazioni in sottospadi di Krylov + 188; 3.2.3 Caleoio det?inversa di una matrice triangolare 65 4.44 Il metodo di Arnoldi per sistem Tinea 2 i 3.3 I metodo di eliminazione gaussians (MEG) e la fattorizzazione LU 66 44.2 Il metodo GMRES 143 3.3.1 TI MBG interpretato come metodo di fattorizeazione . 69 4.5 Criteri di arresto per metodi iterativi M5 3.3.2. Leffetto degli errori di arrotondamento 2 45.1. Un riterio basato sul controllo dellneremento 146 33.3 Aspetti implementativi della fattozizzazione LU B 45.2. Un criterio basato sul controlle del residuo us 334 Forme compatte di fattorizzazione a a 46 Beercizi us 34 Altri tipi di fattorizzazione . 5 3.4.1 Fattorizeazione LDM™ . 76 5. Approssimazione di autovalori ¢ autovettori 151 342 Matric simmettiche e definite postive: fattorizzazione di 5. Localizzazione goometrica degli autovalori 161 Cholesky... . : % 5.2 Analisi di stabilita © condiz 154 8.4.3, Matric retangolan fatrizzacione QR 78 5.2.1 Stime a priori 14 35. Pivoting 82 5.22 Stime a posteriori 158 36 Tealeolo delinverss | 36 5.3 metodo delle potenze . . 159 3.7 Sistemi a banda . : st 5.3.1 Caleolo dellautovalore di modulo massimo 160 3.7.1 Matric tridiagonal... 38 5.32 Calooio dell'autovalore di mnodulo minimo 162, 3.7.2 Aspetti computazionali . . 89 5.3.3 Aspetti computazional ¢ di implementazione . . 164 33 Sistemi a blocehi 91 5.4 Metodi basati sulle iterazioni QR. 5 167 3.5.1. Fattorizzazione LU a blocehi a 5.5 Viiterazione QR nella sua forma ei base . 168, 3.82 Inversa di una matrice a bloc 92 5.6 Il metodo QR per matrici in forma di Hessenberg... 170 3.8.3 Sistemi tridiagonali a blocehi «2... . 92 5.6.1 Mattie’ di trasformazione di Householie: e di Givens a7 3.9 Accuratezza della soluziane generata dal MEG o 5.62. Riduzione di una matrice in forma di Hessenberg Wk 3.10 Caleolo approssimato di K(A) : 6 5.6.3. Fattorizzazione QR di una matrice in forma di Hessenberg 176 3.11 Aumento dell'aceuratezra 7 5.64 Aspetti implementativi del metodo Hessenberg-QR, 176 8.11.1 Equillbratura 98 5.6.5 Aspetti di implementazione delle matriei di trasformazione 179 3.11.2 Rallinamento iterativo 9 5.6.6 Tl metodo QR con shift 481 3.12 Sistemi imdeterminati 100 5.7 Metodi per il ealcolo di autovalori di matrici simmetriche 184 3.13 Bsercizi 103 5.7.1 Il metodo di Jacobi 184 VII___Indive Indico __IX 5.7.2. Il metodo delle succession’ di Sturm 187 78 Esercizi 264 5.8 Bsorcizi 190 . Integrazione numerica 267 6. Risoluzione di equazioni e sistemi non lineart 193 8.1 Formule di quadratura interpolatorio 269 6.1 Condizionamento di un’equazione non lincare 194 8.1.1 La formula del punto medio o del rettangolo 269 6.2 Un approccio geometrico per la ricerca dele radici 196 812 La forumila del trapecio _ on 6.21 Il metodo di biserione « . . . 197 8.1.3 La formula di Cavalier-Simpson ara gg £22, lta dle cord, secant Regul Falsi ¢ Newton 19 -. ae a metodo delle iterazioni di punto fsso formule di Newton. : 6.3.1 Risultati di convergenza per alcuni metodi di punto fisso | 207 a eal syne 2 64 Radici di polinomi algebrici oe ba 8.4.1 Il metodo di integrazione di Romberg + 28 64.1 Timetodo di Horner ¢ la defiazione « 208, : ; 642 Il metodo di Newton-Horner 20 8.5 Integrazione automatica .. . 285 643 T metodo di Muller 28 8.5.1 Algoritmi di integrazione non adattivi 287 eat caren : ar 8.5.2 Algoritmi di integrazione adattivi 288 66 Tecniche di post-processing per mevodi iterativi 27 8.6 Integrali generalizzati (0 impropri) 298 6.6.1 La teeniea di acceleravione di Aitken [ae 86.1. Integrali di funzioni con discontinuti di prima specie 293 6.6.2 ‘Tecniche peril trattamento di radici multiple . 221 8.6.2. Integrali di funzioni con discontinuit& di seconda specie 293 6.7 Risoluzione di sistemi di equazioni non lineari 222 8.6.8, Integrali su intervalliilimitati ee 296 6.7.1 Wimetado di Newton e le sue varianti 223 8.7 Integrazione mumerica in pitt dimensioni 2. 297 6.72. Metodi di Newton modifeati 224 8.7. I metodo della formula di ridvzione . 207 6.7.3 Metodi quasi-Newton - 27 8.72 Quadrature composite bidimensionalt 299 6.74 Motodi di tipo secanti 228 88 Hsercizi 302 6.7.5. Metodi di punto fiss0 230 68 Boercivi peede 232 I polinomi ortogonali nella teoria delWapprossimazione 305 9.1 Approssimazione di fanzioni con serie generalizzate di Fowler. . 305 7. Approssimazione polinomiale di funzioni e dati 235 9.1.1 I polinomi di Chebyshev 307 7. Interpolazione polinomiiale 236 9.12 I polinomi di Legendre 308 7.1.1 Lerrore di interpolazione 237 9.2 Integrazione ed interpolazione Gaussiana 309 ee od equinpazat i 9.3 Integrazione ed interpolazione di Chebyshev - 313 TAB Stabilita delV’interpolazione potinomiale 239 24 Imvegrsion od intpelasione dt Legendre as 7.2 Forma di Newton del polinomio interpolatore aL : ee eae 721. Aleune proprieta delle difference divise di Newton 22 ee pec gee gach ee aa ee ae eas eee oa 9:7 Approssimazione di na funzione nel senso dei minimi quadrati . 320 Interpolazione composita di Lagrange . . 246 Se ieee eta eee la Bet Interpolazione di Hermite-Birkoft 246 9.8 Il polinomio di migliore approssimazione 323 Lestensione al caso bidimensionale 249 9.9 Tpolinomi trigonometric di Fourier 325 7.5.1 Interpolazione pokinomiale semplice 249 9.9.1 La trasformata rapida di Fourier + 80 7.5.2. Interpolazione polinomiale composita . .. - 250 9.10 Approssimazione delle derivate di una funzione 3al 7.6 Funzioni spline — 253 9.10.1 Metodi alle difforenze finite classiche 331 7.6.1. Spline enbiche interpolatorie 254 9.10.2 Differenze finite compatte 333 7.62 Bespline . . 258 9.10.3 La derivata pseudo-spettrale 336 7.7 Curve spline di tipo parametrico 262 9.1 Bsorciai : 337 x Indie 10.Risoluzione numerica di equazioni differenziali ordinarie ak. 10.1 10.2 10.3 107 108 109 10.10 I problemi st I problema di Cauchy Metodi numerici ad un passo Analisi dei metodi ad un pass. - 10.3.1 La zero-stabilita . 10.3.2 Analisi di convergenza 10.33 L'assoluta stabilita Le equazioni alle differen I metodi a piit passi (o multiseep) 10.5.1 I metodi di Adams... . 10.5.2 1 metodi BDF Analisi dei metodi multistep 10.6.1 Consistenza 10.6.2 Le condizioni delle radict 10.6.3 Analisi di stabilitae di couvergenza per i metodi multistep 10.64 L’assoluta stabilita net metodi multistep Metodi predictor-corrector Metodi Runge-Kutta. 10.8.1 Derivavione di un metodo Runge-Kutta espicivo 10.8.2 Adattivita dol passo per i metodi Runge-Kutta... 10.8.3 Regioni di assoluta stabilita per i motodi Runge-Kutta. . M1 caso dei sistemi di equazioni diferenziali ordinarie 10.11 Esercizi .. Approssimazione di problemi ai limiti Wa a2 U3 ud 5 Un problema modello . Tl metodo delle differenze finite 11.21 Analisi di stabilita com il metodo dellenergia 11.2.2 Analisi di convergenza 391 391 393 2 804 898, 11.23 Le difference finite per problemi ai limiti coefficient varkabili399 Tl metodo di Galerkin 11.8.1 Formulazione debole di problemi ai li 11.8.2 Una breve introduzione alle distribuzioni 11.8.3 Proprieta del metodo di Galerkin 11.84 Analisi del metodo di Galerkin 11.3.5 I metodo degli clement fini 11.26 Aspetti implementativi Problem’ difisione tasporio a trasporto domin Exorcizi 400 400 + 402 403 + 404 407 412 aud 420 Indice Bibliogratia Indice dei programmi MATLAB Indice analitico XI 423 431 435 Prefazione La motematica nunerica 2 quel ramo della matematica che propone,svluppa, analiza ed applica metodi peril ealcolo scientifico nel contesto di var camp dela matematica, quali Yanai, Valgebra linear, la geometra, la teora dll ap- prossimazione, ln toria delle equazion! funzionall, Pottimizzazion, le equazion! differenziali. Anche altre discipline, come la fisica, le scienze naturali e biologi- che, Vingegneria, Peconomin la finanza, frequentemente originano problemi che Tichiedono dt esere risolt ricorrendo al ealcolo scentifcn La matematiea numeri? pertanto staat alla confuenza di cverse discipline di grande riliovo nelle moderne scienve appicate, e ne diventa strumento esenaiale Ai indagine qualitativa e quantitativn. Tale raclo deciivo® pute accentuatodallo sviluppo impetuoso ed inarrestabile di computer ed algortni, che rendono ogg! possibile affrontare con il ealeolo sientifico problemi i dimension tanto elevate da consentire la simulazione di fenomeni reali, fornendo risposte accurate con tem- pid calcolo acettabil. La corispondente prliferazione di software numerico, se pet un verso rappresenta una richezza, per alto pone spesso Tutilizzatore alla ‘ondisione di dover orlentare correttamente nell sata del metodo (o del'algo- mo) pit efcace per affrontare il problema di suo specifica interese. E infati evidente che non esstono metodi o algoritmiefeaci ed aceurat per ogni tipo di problema Scopo principale del testo ® chiar fondamenti matematici alla base dei diversi metodi aualizeane le proprieth di stabilita, accuratezza e complessit al- goritmica od ilustrare, attraverso esempi e controcsempi, i vantagei ed f punti | dleboti di ogni metodo. Per tali verfiche wiene utilizzato il programma MATLAB ®. Tale scelta ri- sponde a due primarie esigenze: la semplicita di approceio e Ia diffusione ormai universale di tale linguaggio che lo rende ogg accessibile virtualmente su ogni piat- taforma di ealeolo, Ogni capitolo & integrato da. esempi ed esercizi che pongono i Jetiore nella condizione ideale per acquisire le conoscenze teoriche necessarie per decidere quali metodologie numeriche adottare. Questo volume @ indirizzato in primo luogo agli studenti delle facoltscientifi- ho, con particolare attenzione ai cors di aurea in Ingegneria, Matematica, Fisica © Scienze dell'Informazione. L’enfasi data ai metodi moderni per il calcolo scien- XIV ___ Prefauione tifico ¢ al relativo sviluppo ai software, Jo rende interessante anche per ricercatori utilizzatori nei campi professionali pit disparati TI contennto del testo & organizzato in undici capitoli. I primi due di essi so- xno dedicati a richiami di algebra lineare ¢ all'introduzione det concetti generali di consistenza, stabilita © convergenza di un metodo numerico ¢ degli ele ti di base dellaritmetica disereta. I successivi capitol sono dedicati alla, riso- Inzione di sistemi lineari (Capitoli 3 ¢ 4), al caleolo di autovalori (Capitolo 5), alla risoluzione di equavioni e sistemi non lineari (Capitolo 6), all approssimazion ne polinomiale (Capitolo 7), allintegrazione numerica (Capitolo 8), all’approssi- iazione ed integrazioue mediante polinomi ortogonali (Capitolo 9) o alla riso- luzione di equazioni differenziali ordinatie e di problemi ai limiti (Capitoli 10 ¢ 11). Segue infine indice per Ia consultazione dei programmi MATLAB svilup- pati all'interno del volume. Questi programmi sono anche disponibiliallindirizeo ‘tip://anow!.mate.polimit/"ealnum programs. ht. Si ritemuto utile per il lettore evidenziare le formule principali in un riquadro © lo intestazioni dei programmi MATLAB mediante una striscia grigia, che ne racchinde il titolo e una sintetica deserizione. Questa seconda edizione del volume si differenzia dalla prima voprattutto in quanto contiene un capitolo dedicato allapprossimazione di problemi ai limiti, eon, metodi alle differenze finite e agli elementi finiti. Inoltre, rispetto alla prima edizione, il capitolo relative alVottimizzazione & stato ridotto alla sola analisi dei sistemi non lineari, e per questo fatto conffuize xnelPattuale Capitolo 6. Naturalmente, col senno del poi, tutti i eapitoli del libro sono stati ampiamente riveduti e corretti. Con vivo piacoro, ringraziamo la Dr.ssa Francesca Bonadei e la Dr.ssa Carlotta D’Imporzano, di Springer-Verlag Italia, per il loro costante stimolo ed incessante sostegno durante Pintera fase di preparazione del volume, nonché Jean-Frederic Gerbeau, Paola Gervasio e Stefano Micheletti per il loro validissimo aiuto. Tnfine, vogliamo riconascere il preziaso contributo di Alessandro, Edie, Elena, Francesco, Lorella, Luca, Paola e Simona. Milano, Gennaio 2000 Gli Autori MATLAB & un trademark di The MathWorks, Inc. Per ulterior informasioni su MA- ‘TLAB e altri prodotti MathWorks, inclusi i MATLAB Application Toolboxes per la mate- vnatiea, ln vsualieagione « Yaualis, contatiare: ‘TheMashWorks, 24 Prime Park Way, Nox tick, MA GU760, Tels 001+-508-647-7000, Fax: 001+-508-647-7001, email: infotmathworks com, seowwchttp:/ anew mathworks com. | | | | | 1. Elementi di anali: i delle matrici In questo capitolo richiamiamo alcuni clementi di algebra lineare propedeutict alla trattazione svolta nel resto del volume. Rimandiamo per le dimostrazioni © li approfondimenti a [12], (90), (63). Per altri risultati relativi agli autovalori si vedano inoltre [70] e (126) 1.1 Spazi vettoriali Definizione 1.1 Uno spazio vettoriale rispetto al campo numerico K (K =Ro K = C) é im insieme non vuoto V per i cui elementi, detti vettori, sono definite due operazioni, l'addizione fra vettori e la moltiplicazione di uno sealare per un. vettore, tali che: 1. Vaddizione tra vettori ? commutativa ed associative; 2. esiste un elemento 0 € V' detto vettore zero o vettore mullo tale che v+0 =v per ogni v€ V; 3.0-v=0,1-v= , essendo 0) 1 rispettivamente lo zero e Punita di 4. per ogni elemento v € V esiste il suo opposto, —v, in V tale che v+(—v) = 0; 5, valgono le seguenti proprieti distributive: Woe K, WiweV, av tw) ov tow, YoBEK, WEY, (0+ Av =av+ fv; 6. vale la seguente proprieta associativ: Wa, BE K, WEY, (afv =a(3v). 2 Capitolo 1. Blementi di analisi delle matric Esempio 1.1 Spaci vettoriali particolarmente importanti sono: ~V = R" (rispettivamente V = C°): Vinsieme delle n-ple formate da. numert reali (cispettivamente complessi), m > 1s “Vv ns Pinsiome dei polinom! pa(2 Sous a coven ox real (0 comple) di grado minore o uguale an, n > 0; a Y= O(a): Vnsemse delle funzoni a valor reali (o comple) continue 28 fino alla errata pina, 0 7 <0 . Definizione 1.2 Diciamo che una parte non vuota W di V & un sottospazio vettoriale di V se e solo se & spazio vettoriale su K. . In particolare, linsieme W delle combinazioni lineari di un sistema di p vettori di V, {vi,-.-,¥phs ® un sottospazio vettoriale di V chiamato sottospazio gencrato 0 span del sistema di vettori e denotato con Ww span {Vi,-..,¥p} (raaivid + apy%y com ay € Ky f= 1h...59) I sistema {v1,..-,¥p} ® detto sistema di generatori per W, Se Wi,...,Wh, sono sottospasi vettoriali di V, anche S={w: Wav ti. tm con vs EW, f= 1y--ym} & un sottospasio vettoriale di V. Diciamo che S @ la somma diretta dei sottospazi W; se ogni elemento s € S$ ammette un’unica rappresentazione della forma 8 = Vit. t¥m con vy € Wyed i= 1,...,m. Intal easo seriveremo § = Wa. ..0Wr. Definizione 1.3 Un sistema di vettori {vi,..-,¥m} di uno spazio vettoriale V si dice linearmente indipendente se la relazione yyy Ha av2 HOV =O con @1,02,---,6m € K implica ay = a3 =... = dm = 0. Im caso contratio il sistema si dira linearmente dipendente. . Chiamniamo base di V un qualunque sistema di vettori generatori di V linearmente indipendenti. Se (uy,-.-, Un} ® una base di V, Vespressione v = 0ytti +.-.-+ Uatin B detta decomposizione di v rispetto alla base e gli scalari v,..-yt_ € K sono detti le componenti di v rispetto alla base data. Vale inoltre la seguente proprieta: Proprieth 1.1 (Teorema della dimensione) Sia V uno spasio vettoriale per it quale esiste una base formata da n vettori. Allora ogni sistema di vettori i earmente indipendenti di V a al pit’ n elementi ed ogni attra base di V han lementi. I numero n é detto dimensione di V e si serive dim{V) =n. Se invece per qualsias’n esistono sempre n vettoriKinearmente indipendenti di V, lo spazio vettoriale si dice a dimensione infinita 12. Matric 3 Esempio 1.2 Per ogni p lo spavio CP([a,8]) ha dimensione infinita. Lo spazio R” ha dimensione pari a n. La base tradizionale per R" & quella costituita dai vettori wnitari (o vereors) (03,---5€n} in cui (@:)j = is con i,j = 1,--.n, ed avendo ipdicato oon 64; i simbolo 4 Kronecker pati a0 se i # j ed 1 se i= j. Ovviamente questa non & Punica base possitile (si veda !Esercizio 2). * 1.2. Matrici Siano m en due numeri interi positivi, Diciamo matrice ad m righe ed n colonne ‘0 matrice m x no matrice (m,n) ad elementi in K, un insieme di mn scalari aiy con i= 1,..-,mej=1,.-.n, tappresentato dalla tabella rettangolare seguente an] an | on Omi md +++ an Nei casi in cui K = Ro K = C seriveremo rispettivamente A € R™" 0 A € ©”, per intendere Pappartenenza degli elementi di A agli insiemi indicati. Le imatrici verranno denotate con lettere maiuscole, mentre con lettere minuscole, corrispondenti al nome della matrice, ne verranno inclicati i coefficient Abbrevieremo la scrittura (1.1) scrivendo A = (aj) con i = 1,...,m ej 1,...n, Lindiee # @ detto indice di riga, mentre Vindice j & detto indice di colon- na. Linsieme (a:1,0:25-.-52in) 2 detto la. resima riga di A, cosi come Pinsieme (035, 25,--- Ons) & detto la jesima colonna di A. ‘Nel easo in cui m = m la matrice si dice quadrata o di ordine n e Vinsieme éegti iy © jg > jr. In maniera del tutto annloga se v ® un vettore di dimensione , intenderemo con v(ir :i2) il vettore di ddimensione 2 ~ iy +1 costituito dalle componenti di v dalla ij-osima alla ég-esimna, Queste convenzioni sono state scelte in vista della programmazione in linguagio MATLAB degli algoritmi presentati nel volume. 1.3. Operazioni su mat Siano A = (aj) ¢ B = (by) due matrici m xn su K. Diciamo che A ® uguale a B, se ag = by per é = ly...,m, j = 1,..-yn. Definiamo inoltre le seguenti operazios = somma di matricé In matrice somma ? la matrice A+B = (ay-+h). L’elemento neutro della somma di matrici 2 la matrice zero, denotata ancora con 0 € costituita soltanto da clement null ~ prodotto di una matrice per uno scalar: il prodotto di A per A € K, ® la matrice AA= Qa) = praloto di due matrck: i prodotto di due matrii A e B, rispetivamente di di rmensioni (m,p)¢ (p,m), 2 una matrice C(m,n) di elementi ey = TY, atbas, per i= Lye.2yM, F= Lyoneyns I prodotto di matrici ® associativo e distributive rispetto alla somma di matrict, ‘ma non 2 in generale commutative. Le matrici quadrate per Je quali AB = BA verranno dette commutative. Sree eae 1.3. _Operazioni su matrici 5 Per matriei quadrate V'elemento neutro del prodotto fra matric! 8 una matrice quadrate di ordine n, detta matrice unita di ordine m o, pit comunemente, matrice ‘dentita, data da, = (6:;). Essa per definizione Vunica matrice nxn tale per cui Aln = InA = A. Sottintenderemo nel seguito, a meno che non sia strettamente necessario, il pedice n, indicante la dimensione di I. La matrice identita ® una particolare matrice diagonale di ordine n, ossia una matrice quadata del tipo D = (dudy) avente Velemento di; come elemento diagonale i-esimo ed clementi extra-diagonali noll $i usera la notazione D = diag(dy1,dz2,. dyn) Se infine A & una matrice quadrata di ordine n, si definisce AP, con p intero, core il prodotto di A per se stessa p volte. Poniama A = I ‘Vanno anche ricordate le cosiddette operasioni elementari per riga che possono ‘essere compiute sui una matrice, Esse sono: 1. moltiplicare la riga i-esima di una matriee per uno scalare a; questa opera: ione & equivalente a premoltiplicare A per Ia matrice D = diag(1,....i,a, 1y-++51), con a in posizione i-esima; 2. permutare (ossia seambiare) fia foro le righe ¢ ¢ j di una matrice; realizza premoltiplicando A per la matrice PO) di element Vow rssh. Litd. JL g them MP =) 1 se rajsnior=i, és (2.2) 0 altrimenti, Matrici del tipo (1.2) prendono il nome di matrict di permutasione elemen: tari. Tl prodotto di matrict di permutazione elementari ® una matrice, che chiameremo matrice di permutazione, la quale realizra tutti gli scambi fra righe associati a ciascuna matzice di permutasione eleraentare. Le matrici di Permutazione sono di fatto riordinamenti per righe della matrice identitiy 8. aggiungero la riga j-esima moltiplicata per or alla tiga i-esima. Anche que- ‘ultima operazione pud essere realizzata premoltiplicando A per la matrice LENG, essendo NS) una matrice che ha tutti elementi mali tranne quello in posizione i,j che vale a. 1.3.1 Inversa di una matrice Definizione 1.6 Una matrice A quadrata di ordine n, si dice invertibile (o regolare © non singolare) seesiste una matrice B quadrata di ordine n tale che AB BA — I. B viene chiamata matrice inversa di A e viene indicata con A~. Una matrice ‘hon invertible verra detta singolare. . 6 Capitolo 1, Blementi di analisi delle mateiet Se A? invertible anche la sua inversa lo & ¢ (A“!? = A. Inoltre, se A e B sono due matric invertibili di ordine m anche AB 2 invertible e si ha (A B)-? = B-1A~, Vale la seguente proprieti: Proprieti 1.2 Una matrice quadrata & invertibile se ¢ solo se i suoi vettori colonna sono Hinearmente indipendenti. Definizione 1.7 Chiamiamo trasposta di una matrice Ac R™*" la matrice nm, denotata con AT, ottenuta scambiando tra di loro le righe e le colonne di A. Evidentemente (A7)? = A, (A+B)T = AT+BT, (AB)? = BMA e (@A)™ = a? Ya € R. Supponendo A invertibile, si ha inoltre che (AT) = (A~")"" Definizione 1.8 Sia A € €"*"; In matrice B= A¥ © C™™ 2 detta la matrice coniugata tresposta (0 aggiunta) di A se bij = aj, essendo a il numero complesso coningato di ay. . In analogia con il caso di matrici reali, si ha che (A +B)” = A” + BM, (AB) = BAM ¢ (aA)! = GA" Yar C. Definizione 1.9 Una matrice A € R"™” si dice simmetrica se A = A®, mentre Si dice antisimmatricn se A = —A Si dice infine ortogonate se ATA = AAT ossia se A? = ‘Le matrici di permutazione sono ortogonali e lo stesso vale per il loro prodotto. Definizione 1.10 Una matrice A € C"%" si dice hermitiana o autoaggiunta se AT = K ossia se A” = A, mentze si dice unitaria se AVA = AA =I. Se infine AMM = AMA, A detia matrice normale. . Di conseguenza, per una matrice unitaria si ha che A~! = A", Ovviamente una. matrice unitaria & anche normale, ma non & in generale hermitiana. Osserviamo infine che gli elementi disgonali di una matrice hermitiana sono necessariamente reali (si veda anche I'Esercizio 5). 1.3.2 Matrici e trasformazioni lineari Definizione 1.11 Una trasformazione Iineare da C* in C™ & una funzione f CC" tale che f(ax + By) = af(x) + Af ly}, Va,BeKevxyec™. ll T seguente rigultato collega mateici e trasformazioni linear 14, Traceia e determinante 7 Propriet& 1.3 Sia f : C* —+ C™ una trsformazione lineare, Allon esiste sununion matrice Ay €C™*" tale che f(x) yx Wee’ (13) Viceversa, se Ay € C™*", I funsione definita attraverso la (1.8) é wna trasfor- mazione lineare da C* én C™. Eeemplo 1.3 Unimportane trasformslone linere& Ia rtasion in senso antiorario dt hanged nel piano (21,2) La mares saeoclte ale trarormacion Boers dn a oe= [$F]. em eooley «= sin) ed 8 detta matrice di rotazione, Notiamo come G(8) fornisca un esempio di matrice ‘unitaria, non simmetrica (se s #0), . Osservazione 1.1 (Operazioni sulle matrici pattizionate a blocchi) Tutte le ope- razioni precedentemente introdotte possono essere estese anche al caso in cuit A sia una matrice partizionata a blocchi, a patto ovviamente che le dimensioni dei singoli sottoblocchi siano tali da garantire una corretta definizione delle singole operazioni : 1.4 Traccia e determinante Consideriamo una matrice A quadrata di ordine n. La trace di una matrice 2 la somma degli elementi diagonali di A, ossia t(A) = S72. as. Si dice determinante di A lo sealare definito dalla seguente formula det(A) = YO sign(m)aa, dang Oaens 1h essendo P = (x = (m1,-..)79)"} Fimsieme degli nt vettori ottenuti permutando A vettore degltindici i= (1,.".,n)¥ e sign(x) uguale a 1 (vispettivamente —1) se serve un numero pari (ispettivamente dispar) di scambi per ottenere mda i Valgouo le seguenti propria: det(A) =det(A"), det(AB) = det(A}det(B), det(A~}) = 1/det(A), det(A") = FEA), det(aA) = adet(A), Vae K. Se inoltre due righe © due colonne di una matrice sono uguali, il determinante & nullo, mentre lo seambio di due righe (0 di due colonne) in una mattive provoca 8 Gapitolo 1. Elementi di analisi delle matrici ‘un cambiamento nel segno del determinate della stessa, Ovviamente il determi- nante di tna matrice diagonale ® dato semplicemente dal prodotto degli elementi disgonal. Denotando con Aj; 1a matrice di ordine n—1 ottenuta da A per la soppressione della i-esima riga e della j-esima colonna, diciamo minore complementare associat allclemento a, il determinante della matrice Ais. Chiamiamo minore principale (dominante) kresimo di A, dy, il determinante della sottomatrice principale di ordine k, Ay = AL: k,1: k). Se indichiamo con Ay = (—1)'¥det(A,,) il cafattore dell’elemento a), per il caleolo effettivo del determinante di A spud sare la seguente relazione ricorsiva an sen=1, aatay= i» as Vasey, perm >, “ dotta formula di suiluppo del determinante secondo le riga é-esima 0 regola di Laplace. Se A una matrice quadeata di ordine m invertibile allora =afl deta) cesvendo C la matrice di element Aji, Y= Iy-..9n, j= Lye-ym Di conseguenza una matrice quadeata ® invertibile se solo seh determminante non nullo, Nel caso di matrici diagonali non singolari Vinversa ® ancora una matrice ingonale con cleroenti dati dagliinversi degli elementi diagonal. Notiamo infine come una matrice A ortogonale sia invertibile con inversa data da AT o dat(A) = 1 at una matrice 1.5 Rango e nucleo Sia A una matrice rettangolare m x n. Chinmiamo determinante di ordine q (con q2 I) estratto dalla matrice A, il determinante di ogni matrice quadrata di ordine qottensta da A per la soppressione di m ~q righe em ~q colonne. Definizione 1.12 $i dice rango di A ( lo si denota con rank(A)), Pordine massi- ‘mo de determinanti non nul estratti da.A. Una matrices dice ali rango completo 6 pieno se rauk(A) = min(myn). . Osserviamo come il tango di A esprima il massimo numero di vetori colonna di A limearmente indipendenti ossia la dimensione del range o immagine di A, definito range(A) = {y ©R™: y = Ax per x € R"} (5) 1.6. Matrict di forma partioolare 9 [A rigore si dovrebbe parlare di rangodi A per colonne, per distinguerlo dal rango di ‘A per righe dato dal massimo numero di vettori sarmente indipendenti Si pud perd dimostrare che il rango per righe ed il rango per colonne sono uguall. Si definisce nucleo di 4 il sottospazio ker(A) = {x ER": Ax =O} Valgono le seguenti relazioni 1. rank(A) = rank(A?) (se A €™*", rank(A) = rank(A")) 2 rank(A) + dim(ker(A)) In generale, dim(ker(A)) # dim(ker(A7)). Se A & una matrice quadrata non singolare, allora rank(A) =n e dim(lcer(A)) = 0 Esompio 1.4 Consideriamo la matrice Basa ha rango 2, dim(ker(A)) = 1 e dim(ker(A?)) COsserviamo infine che per una matrice A € C"%" le seguenti propriet’ sono ‘equivalenti 1. A non @ singolare; 2. dot(A) 4 05 3. ker(A) = {0}; 4. rank(A) =n; 5. A ha righe ¢ colonne lincarmente indipendenti. 1.6 Matrici di forma particolare 1.6.1 Mat Sono matrici della forma D = diag(D1,...,Dz), essendo Dj mnatriei quadrate con, i= 1,...)n. Ovviamente i singoli blocchi diagonali possono avere dimensione iversa, Diremo che una matrice a bloechi ha dimensione n se m & il numero di Dlocehi diagonali che la compongono. Il determinante di una matrice diagonale a. bloceht ® dato dal prodotto dei determinanti dei singoli blocchi diagonali. ci diagonali a blocchi 10 Capitola 1, Elementi di analisi delle matrici 1.6.2. Matrici trapezoidali e triangolari ‘Una matrice A(m xn) & trapezoidale superiore se per i > j, ai; = 0, trapezoidale inferiore se per i < J, a3 = 0. Il nome deriva dal fatto che, per le matrici ‘trapezoidali superior, gli lementi non null della matrice formano un trapezio nel caso in eul m j+p © banda superiore q se aj = 0 quando j > i +9. diagonali sono matrici a banda per le quali p = q = 0, mentre auelle ‘trapezoidali hanno p =m — 1, ¢= 0 se inferiori, p = 0, q =m — 1 se superior ‘Altre matrici a banda di rilevante interesse sono quelle tridiagonali, per le quali p = q = 1, € quelle bidiagonali superiori (p = 0, q = 1) 0 inferiort (P = 1 4 = 0). Nol soguito indicheremo con tridiagn(b,d,¢) la matrice tridiagonal di dimensione n avente rispettivamonte sulle sotto e sopra diagonali principali i vettori B= (bryos. sbmaa)? € © = (C1s.+-4¢n-1)", © sulla diagonale principale il vettore d= (ds,...,da)". Nel caso in cui si abbia bj = 8, dy = 5 e c = 7, per assegnate costanti 6, 5 e +, indicheremo la matrice con tridiagn (3, 5,7). Meritano un cenno a parte Je cosiddette matrici di Hessenberg inferior’ (p = 1.7. Antovalorie antevettori LL 1, q=n~1) che hanno la seguente struttura nha 0 fa tags tan fiat faa ban na| i tm | a Amin : an as 0 Fanaa Ovviamente si potranno costruize matzici analoghe nel caso a blocchi 1.7 Autovalori e autovettori Sia A una matrice quadrata di ordine » a coeffcienti reali o complessi; il numero € C2 dette autovalore di A se esiste un vettore x € C%, diverso da zero, tale che Ax = 2x. Il vettore x 2 detto aufovetiore associato allautovalore 2 e Vinsieme degli autovalori di A ® detto lo spetiro di A, denotato con #(A). Diciamo che x e y sono rispettivamente un autovettore desire e sinistro di A, associnti all autovalore dese Ax= dx y"A= ay". Léautovalore A, corrispondente all'autovettore x, si ottiene calcolando il quoziente i Rayleigh = x!" Ax/(x!x), I numero 2 soluione dell eguazione oaratteristica pa (A) = det(A — AI) = 0, dove p,(A) & il polinomio envutteristico. Bssendo quest*ultimo un polinomio di grado n rispetta a 2, esistono al piiin autovalori di A, non necessariamente distinti, Si pud dimostrare che dea) = [Ps #)= Ss (16) Di consegnenza, essendo det(AT — Ml) = det((A — AI)" = det(A ~ AI), si deduce che o(A) = o(A") ed analogamente che o(A#) = oA). Dalla prima delle (1.6) si deduce che uma matrice ® singolare se ¢ solo se ha almeno un autovalore A mullo, essendo p,(0) = det(A) = IIs In secondo luogo, #e A ® a coeflicenti reali, p,(X) ® un polinomio a. coefficienti reali e dunque gli autovalori complessi dovranno essere necessariamente complessi coniugat Infine, peri ‘Teorema di Cayley-Hamilton se p, (2) ®il polinomio caratteristico iA, allora p,(A) = 0 (per Ia dimostrazione si veda ad esempio [5), pag. 51), dove 4(A) denota un polinomio éi atric. 22___Copitolo 1, Element di analisi delle matrici 11 massimo dei moduli degli autovalori di A si chiama raggio spettrale e viene denotato con ofA) ‘max sme! ! Avere carattericato gli autovalori come le radici di un polimomio comporta in particolare che A un autovalore di A€ C"*" se e solo se \ @ un autovalore di AM. Un'immediata conseguenza ? che p(A) = p(A¥). Inottre VA € C™”, Ya € C, p(@A) = Jelp(A), € a(A*) = [p(A)]* Vk EN. Infine, se A 8 una matrice triangolare a blocchi Au Aw Aw @ Am... Bak A= : Oe 0 Ane per il fatto che p(X) = Pay, APaga(A)-+-Pagy (A> 8% deduce che lo spettro di Ab Tumione degli spettri de! singoltblocehi didgonal,o, di conseguenza, se A & tuiangolaro, gli autovalori di A sono i coeffcienti diagonal stess Per ogni autovalore di une matrice A Vinsieme degli autovettori associati @ A, assione al vettore nullo, costituisce un sottospazio di C", noto come Pautospazio, tassociato & 2, corrispondente per definizione a ker(A — AI). La sua dimensione, paria ddim [ker(A ~ AD] =n —rank(A ~ AN), a detta molteplicita geometrica dell'antovalore A. Essa non pud mai essere magaio- re della molteplicita algebrica di \ ossia della molteplicita ehe ha \ quale radice del polinomio caratteristico. Autovalori con molteplicita geometric strettamente mi- ore di quella algebriea si diranno difettivi, Una matrice con almeno un autovalore difettivo si dice aifettiva ‘Lantospazio associato ad un antovalore di una matrice A, ® invariante rispetto ‘ad A nel senso della definizione seguente: Definizione 1.13 Un sottospazio S in C* si dice invariante rispetto ad una matzice quadrata A se AS CS, essendo AS j] trasformato di S$ ¢ramite A.M 1.8 Trasformazioni per similitudine Definizione 1.14 Sia C una matrice quadrata non singolare dello stesso ordine della matrice A. Diciamo che le matric’ A ¢ C~1AC sono simili ¢ chiamiamo Ja trasformazione da A a C-1AC una trasformazione per similitudine. Diciamo inoltre che le due matrict sono unitariamente simili se C unitaria, 7 18. Trasformazioni per similituding 13 ‘Due matric! simili hanno lo stesso spettra v fo stesso polinomio earatteristico. In effetti, ® facile verificare che se (A,x) ® una coppia autovalore-autovettore di A, (4,07 !x) lo? di C-4AC in quanto (CtAC)C“!x Notiamo in particolare che le matrict prodotto AB e BA con A C™™" e Be C™* non sono simili, ma godono della seguente proprioth (si veda [61], pg. ‘Toorema 2.4.6) OAK = AC, (AB) {0} = o(BA)\ {0} cassia AB © BA hanno lo stesso spettro a meno di sutovalori milli, e dunque, (AB) = (BA), Liutilizzo dele trasformazioni per similitudine mira a ridurre In complessita del problema del ealeolo deglt autovalori di una matrice. Se infatti si iuscisse trasformare una matrice qualimque in una simie di forma triangolare o diagonate, iL calolo degi; autovaloririsulterebbe immediato. 11 principale risultato in questa direzione & dato dalla seguente propria (per fa cui dimostrazione rimandiamo (85), Teorema 4.2)+ Propricté 1.4 (Decomposizione di Schur) Data A € C™*" esiste win matr- ee U unitaria tale che An be bin 0d» mn oma = ula | on, oe ‘vendo indicato con d; gli autovatori di A. Di-conseguenza, ogni matrice A ® unitariamente simile ad una matrice triangolare superiore. Le matrici T ed U non sono necessariamente niche [61] Dall decomposivione di Schur dseendonn mot important rst, Tra quest 1. ogni matrice hermitiana ® uniteriamente simile ad una matzice diagonale reale ossia se A é hermitiana ogni decomposizione di Schur di A & diagonale. In tal caso, siccome U-TAU = A= diag(At,..-,An)s siha AU = UA ossia Auy = Aimy per i = 1,...,m dl modo che i vettori colonna di U sono gli autovettori di A, Ince, essendo gli autoveltor’ a due a due ortogouali disconde che una matrice hermitfana ha un sistema t : ad 0 oe Se un autovalore ® difettivo, allora In dimensione del eorrispondente blocco di Jordan ® maggiore di uno, Dalla forma canonica di Jordan si deduce allora che ‘una matrice pud essere dingonalizaata tramite una trasformazione per similitudine s¢ 0 solo se essa? non difetiva. Per questo motivo e matriei non dfettive vengono dette diagonatizzabil, In purticolare, le maisiei normal sono diagonalizzabil, Se partizioniamo X per colanne, X = (X1,..-,%,); allora i k; vettori associat al bloceo di Jordan Je, (2s), Verficano la seguente relazione ricorsiva: Fleet Ax: = xi, an) Ax dept, 5 Lk sek £1, T vettori x; sono detti i vettori prineipalio gli autovettori generalizzati di A. 15 _—— 1.9. Ls decomposizione in valori singolari (SVD) Esempio 1.8 Consideriamo la soguente matrice: qe ak A aya ayn ay o 2 0 69 «@ 0 ac|cU2 W252 ye ape ape Ba i eta tea imi “Vs “IA 1a 1a fa ae L-32 2 2 12 ap 7a {Ea forms canonica di Jordan di questa matrice © I4 relativa matrice X sono date da ° ° 1 ° ° 1 ° Si noti che due blocchi di Jordan differenti sono rifertt allo stesso autavalore (. Bi semplice verifica a quests punto la proprietA (1.7). Se ad esempio cons Dloceo relative all'sutovalore X2 = 3, abbiamo che Axa = [00300 5/" =3(00100 1)" = daxs, ‘Axi = [001304 =3[00010 1)" + [0010017 = daxe+xs, xs =[00013.4)" = [0.0001 4)" + [000101]? = daxs +34 1.9 La decomposizione in valori singolari (SVD) Una qualunque matrice pud essere ridotta in forma dingonale tramite pre ¢ post- ‘moltiplicazione per matrici anitarie. Precisamente, vale il seguente risultato: Proprieta 1.6 Sia Ae C™*™, "tall che Esistono due matrici unitarie Ue €”*™ @ VE Ui AV = diag(ors...09) R™™ —conp=minfmn) (18) m1 2... 2020. La(18) ¢ detta decomposizione in valori singolari (0 Singudar Value Decomposition da cui, in breve, SVD) di A ed i a, (0 0,(A}} sono detti 4 vulori singolari di A. Nel cago in cui A sia reale, anche Ue V lo saranno e nella (1.8) U”' andra sostituita, con UT. In geverale, si ha la seguente earatterizzazione dei valor singolari di A ai(A) = PMMA), 71... (9) 16 __Capitolo 1, Elementi di nnalisi delle matrici 1.10._Prodotto scalare ¢ normne in spazi veltoriali 17 In efftti dalla (1.8) si ha che A = UBV, AM = V3!"U# ¢ quindi, exsendo Ue 2. & hermitiana ossia (y,x) = Gey), Yx.y € Vi V unitarie, AMA = VE DV" ovvero AAA) = A,(E""B) = (o;(A))?. Essendo AA“ ¢ AMA matrici hermitiane, per quanto riportato nella Sezione 1.8, le colonne di U (ispettivamente di V), dette vettori singolari sinistri di A (rispettivamente desir’), sono gli autovettori di AA" (rispettivamente di A/'A) e, di conseguenza, znon sono definiti iz modo univoco. 3. 8 definite positiva ossia (x,x) > 0, Vx ZO (ovvero (x,x) > 0, e (x,x) = 0 se € solo se x= 0), Nel caso in ct V = C* (0 R®), un esempio 2 fornito dal classico prodotto scalare Dalla (1.9) si rieava che se A € C™" & hermitiana con autovalori dati da Ay, euclideo dato da ‘Ag,-++)An, allora i valori singolari di A sono dati dai moduli degli autovalori di ‘A. Infatti,essendo AA = A?, si ba che a; = JX? = [Al per #= 1.4m, Per quanto riguarda il rango, se risulta, Gay) = yx = Sa, O12 oD Oy > oH: vendo indicato con 7 i] numero complesso coniugato diz Inoltre, per ogni matrice A quadrata di ordine n e per ogni x, ye C” vale la allora il rango di A ® pari ar, il mucleo di A @ lo spazio generate dai vettori colonna. seguente relazione GV, {¥eui,---sVa}, ed il range di A 2 Jo spazio generato dai vettori colonna di U, fit yoos st) hs ‘ (Ax,y) = Ay). (ny Definizione 1.15 Supponiamo che il rango di A ¢ C"™ sia pari a re che A ammetta una SVD del tipo UAV = 5, La matrice At = VETUF & detta pseudo inversa di Moore-Penrose, essondo In particolare, sicoome per ogni matrice Q.€ C** si ha (Qx, Qy) = («,Q"Qy), vale il seguente risultato: Proprieta 1.7 Le matrici unitarie preservano sl prodotto scalare euclideo ossia 1 Bt = diag G aan (.10) (Qx, Qy) = (%y) per ayn’ matrice Q unitaria ¢ per ogni coppia di vettori x e y. tf Definizione 1.17 Sia V ino spacio vettoriale su K. Diciaino che Papplicarione [-[l:¥ +R 2 una norma su V se sono soddisfatti i seguenti assiomi: [At viene detta anche inversa generalizzata di A (si veda 'Bsercizio 13). In effetti ASSET a OSOnEY Ge eee ern 1. (@ [lvl 20 WEV e (ii) [lvl] =0 see solo se v= 0; AT =A", $i veda l’Esercizio 12 per ulteriori proprieta di tale matrice. 2. llav|| = lalliv| Ya eK, ¥w € V (proprieta di omogeneita); . 3. [Iv + wll < [lvl +|lwl] Wywe V waglianza triangols 1.10 Prodotto scalare e norme in spazi vettor (disugunglionsa triangolare), essendo fal il valore assolute di a se K=R, il suo modulo se K = C. . Spesso per quantificare degli errori o misurare delle distanze & necessario misurare Ia grandezza di vettori e di matrici. Per questo motivo introdurremo in questa sezione il concetto di norma vettoriale e, nella seguente, quello-d norma matriciale. Ritaandiamo a (113), [114] ¢ [5) per le dimostrazioni delle proprieta riportate, La coppia (Y [) si dice spazio normato. Distingueremo le varie norme tramite Spportuni pedici afiancati al simbolo della doppia barra. Nel caso in cul una applicaione || da V in R veriichi le proprietd 1(), 2e 3 diremo tale applicazione ‘ina seminerma, Chiameremo infine vettore wnifario un wettore con norma pari ad to, Uno spazio normato 2", munito ad esempio della norma p (o norma di Holder), Aefinita per un vettore x di component {ry} come Definizione 1.16 Un prodotio soalare in uno spaxio vettoriale V definito su K & ‘una qualsiasi applicazione (-,-) da Vx V in K che gode delle seguenti propriet: 1. ® lineare rispetto ai vettori di V ossia BD ist~ (Se) » perlsp 0, 3C > 0 tale che se |x ~ | <¢ allora | xi] ~ [3] | < Ce, per ogni x, REV. lim a!) = x, A =H can (uaa) essendo 11” e 2; le componenti dei cortispondenti vettoririspotto ad una base di = R*, per PunicitA det limite di una successione di numeri reali, la (1.14) ‘implica anche ['nicita del limite, se esistente, di una successione di vettor. Osserviamo inoltre che in uno spazio V a dimensione finita tutte le norme so- xo topologicamente equivalenti nel senso della convergenza, ovvero, data una successione di vettori x", si ha che Possiamo costruire agevolmente alcune niove notme utilizzando il seguente risul- tato: Propriet& 1.10 Sia |-\| una norma di R" ed A € R™" conn colonne linearmente indipendenti. Allora ta fancione "a2 dR” in definta come . Uf)» 0. < Ie + 0 per & + 00, Hele = Ax} ice", eesendo [||] © lI due norme qualsasi su V. Di conseguenz, possiamo stabilce 2 una norma di RY il seguente legame tra norme e lit 20___Capitolo 1. Elementi di analisi delle matrici 11, Norme matrigiai 21 Proprieta 1.11 Sia || una norme in uno spacio V i imensione fia. Altora Questa proprieth non rsulta verifcata da tutte le norme matricill, Ad esempio (da [60]} 1a norma ||Ajl4 = max |ay| per i= 1,...,n, 7 = 1,...,m non verifica la Jim =x im x— x =0, (1.16) se applicata alle matrici dove x V {x} & une successone di cement di V. aspe[! t], ey in quanto 2 = ||ABlla > [Aljal[Blla = 1 Pape, ore matical Notiumo che data una certa norma matriciale sub-moltiplicativa ||-|la, esiste sem- pre una norma vettoriale consistente. Ad esemplo, per nx qualsiast vetore fssato Definisione 1.19 Una norma matricile & una aplicnziane =: RO" — uu iP a Cn ance aches dass vedo ese tale che: 1. JAI] 20 VA ER™" @ J[Al] = 050 e solo se A= 05 x= Ixy" la EC, Di conseguenza, nel caso delle normne matriciali sub-moltiplicative non 8 necessatio specificare rispetto a quale norma vettoriale una norma matriciale & consistente. taie= [Zr @ ant norma matriciale detta norma di Frobenius (0 norma euclidea in C°*) compatibile con la norma vettoriale euclidea | «2. Si ha intatti ¥ (Ler dar) IAI Osserviana che per tale norma ilq||e = v7 . 2. jal] = [alll Ya eR, YA € R™" (omogeneita); 3. |A+B| Definizione 1.20 Diciamo che una norma matelciae || || ® eompatibile © consi- sstente con una horma vettoriale |. se Axi] s HAY fix, Yee”. (1.18) Pit in generale, date tre norme, tutte denotate con ||- J, ma definite su R™, R™ © R™*" rispettivamente, diciamo che esse sono tra loro consistenti so Vx © R™, Ax=y ER", Ac R™ si ba che ly} <[lAll [leh In vista della definizione di norma naturale rienrdiamo il seguente teorema: ‘Teorema 1.1 Sia |) una norma vettoriale. La funzione Per caratterizeare norme matricial dl interewe pratico, si rchiade in generale fa [Al] = sup! xo |x|] (1.18) Definizione 1.21 Diciamo che una norma matriciale ||- | @ sub-moltiplicativa se VAER™*™, WBE RMT @ una norma matriciale, che viene dette norma matriciale indotta (0 subordinata) © norma snatriciale naturale. YABY < pal [BI (1.16) | Dimostrazione. Cominciamo con Vosservare che la (1.18) 8 equivalente a . HAIL = sup iA (as) 22___Capitolo 1. Elementi di analisi delle matrici /|[x|, tale che la (1.18) Infatti, possiamo definire per ogni x #0, il vettare unitario w= divenga HAI = sup aul = [Awl] om wl Verifchiamo che la (1:18) (0 eauivalentemente fa (1.19) sia effettivamente una norma, utiizzando direttamente la Definigione 1.19, 41. Se [Axi] > 0, allora anche [|Al| = sup [Axl] > 0. Tucltre, ' [Axl JAll= spel =04 ||Ax| =O vx #0 © AX =O Vx £0 s0 0 solo se A=D, di modo che [|All =0 se @ solo se A= 0, 2. Dato uno sealare a, si ha [2Al| = sup flaax| = fal 1p Axil = a All bt es 3. Infine vale la disuguaglianzs triangolare, Infatti, per la definizione di estremo suporiore, sex 0 si ha Ax ER < yall Axi < Al quindi, preso x di norma unitaria, si ha WA + Bp] < [Ax + Bx < HAI + [BI da cui segue A +B] = sup A+ Bx < [AN + 0B ° Importanti esempi di norme matriciali indotte sono le cosiddette norme p definite come Ax, xo [ip VAlly La norma 1 ¢ la norma iafinito sono semplici da ealcolare, essendo nas, Saul WAlloo = apex, Yay] HAl sono pereid dete rispettivamente norma delle somme per colonna e norma dele Somme per rign. Inoltre, avremo che ||Allr = ||AT||ao € nel caso in cui A sia autoaggiunta o reale etriea, Ally = [Allo Un discorso a parte merita la norma 2.0 norma spettrale per in quale vale i soguente teorema: sim 111. Norme matricial 23 ‘Teorema 1.2 Sia o1(A) il pit grande valore singolare di A. Alora IIAla = ota) = pt Aal) = or(a). (20) In particolare se A & hermitiana (0, se reale, simmetrica) allora Walls = (A), (ay) entre se A unitaria Alp = 1. Dimostrazione, Esseudo AA hermitiana, existe una matric unitaria U tale che UM AAU = dings ns dove 4: sono gli autovalori (positivi) di AMA. Preso y = U"x, allora, (VFA AUY,y) ( 7 (AMAx,x) wa Thy Gx) se Gy) - saya oe = viata dda ent segue la (1.20), avendo ricardato la (1.9). Se A’® hermitiana si applicang le stesse considerazioni direttamente ad A, Infine, se AP imitaria Alla UAxI[3 = (Ax Ax) = (6, A" Ax) = [bell ce quindi Jf = 1. ° Di conseguenza, il caleolo di ||Allz & pitt oneraso di quello di |All 0 di |All. ‘Tuttavia, se ne viene richiesta solo una stima, possono essere utilizzate nel caso di Inatriet quadrate le seguenti relazioni maxiay| < [Alla 2 Teorema 1.8 8¢ ||| 2 wna norma matricine indotta da una norma veltoriale We etlora 1 JAxl 1. Infatti: ||\I\\| = (I= Ill] < |lII|2. $i noti che Ia norma di Frobenius, definita nella (1.17), non verifica la seconda proprieta del Teorema 1.8 e non pud dunque essere indotta da aleuna norma vettoriale. 1.11.1 Relazione tra le norme ed il raggio spettrale di una ma- trice Ricordiamo ora alcuni risutati che correlano il raggio spettrale di una matice alle nore matricial ¢ ehe verranno spesso impicgati nel Capitolo 4 ‘Teorema 1.4 Sia ||-|| una norma matriciale consistente, allora AA) SIA VAec™™ Dimostrazione. Sia \ un arbitrario autovalore di Ae v #0 wn autovettore ad esso associato, $i ha BA vt = Iv e quindi [4] < |All. ° Ava SHAN Iv Pit procisamente si ha la seguente proprieta (si veda per la dimostrazione [71], pag. 12, Teorema 3) Proprieta 1.12 Sia A € ©" © © > 0. Allora esiste una norma matriciale indotta || |n,< (dipendente da ¢) tale che IAllac S ofA) +2. Di conseguenza, fissata una tolleranza piccola a piacere, esiste sempre una norma matriciale che & arbitrariamente vicina al raggio spettrale di A, ossia (A) = inf al (1.22) VPestremo infetiore essendo preso sullinsieme di tutte le norme consistenti Osserviaio che il raggio spotirale @ una seminorya sub-moltiplicativa. in quan to non & vero che p(A) = Ose e solo se A = 0. Ad esompio, una qualunque matrice triangolare con elementi tuéti nulli sulla diagonale principale ha raggio spettrale nullo, pur non essendo la matrice nulla, Inoltre: LAL, Norme matricial 25 Propricth 1.18 Sia A wna matrice quadrata e sia ||-|| una norma consistent. Allore im |AIM = (A) 4.11.2 Successioni e serie di mat Una successione di matrici {A® €R™"} 2 detta convergente ad una matrice re im JA® — All =o. La scelta della norma @ ininfhuente essendo in R"*" tutte le norme equivalenti Nello studio della convergenza dei mnetodi iterativi per la risoluzione di sistem lineari (si veda il Capitolo 4), si & interessati alle cosiddette matrici convergenti Ricordiamo che A si dice convergente se lim A‘ =0, essendo 0 la matrice mulla, Vale il seguente teorema: ‘Teorema 1.5 Sia A una matrice quadrata, allora: im AY =0 4 (A) <1. (1.23) Ili, la serie geometrioa SAX & comvergnte see solo se p{A) <1, In ta caso Yateqeay (0.24) Di consequenca, se (A) <1 la matrice I~ A.& invertible © valgono le sequent diauguagtianze 1 0 tale che p(A) < 1 ~c e quindi, por Ia Proprieta 1.12, esste una norma matricialo ||| indotta e tale che IAI < p(A) + <1. Dal fatto che ||AM|] < |A* <1 e dalla definizione di convergenza, Bi deuce che per K-00 la sucoesione {A*} tende a zero, Vieevers, sis lim AT = 0 sia A un autovalore di A. Allora, Ax = Mx, essendo x(#0) un autovettore associato a 26 __Capitolo 1. Blementi di analist delle matrici 4.12, Matriei definite positive, matric a Gominanza diagonale e M-matricl 27 A, di modo che im X* = 0, Di consegnenza |4| < 1 ed essendo A un generico autovalore, si avr p(A) <1. La (1.24) si sicava owervando innansitutta che gli autovalori di I-A sono dati da 1— (A), essendo (A) il generico autovalore di A. D'altra parte, avendosi P(A) <1, si deduce che I-A ® non singolare, Allora dall'identita, (Ade At. FA) =A"), Baltrettanto facile verificare che Anon ® definitapositivain C2. Infatt i numero (Axx) ee bin generale reale per ogni x € C! ° Definizione 1.23 Sia A € ie". Le matrici A (A-A") 1 BIAHAT), Aas = 2 prendendo il limite per n che tende all'infinito st giunge ala tes, avendosi Saye sono dette rispettivamente Ia parte simmeirica ¢ la parte anti-simmetrica di &. C- ayaa Ovviamente A = As + Ass. Nel caso in cui A < C™*", Ia definizione si modifica nel modo seguente: Ay = }(A+ A") e Ass = 3(A— A"), . Si ha infin per il Teoeerna 1.3 Puguaglianza [| = 1 ¢ quindi 10) SI All —A)" s+ JAD =A)" covvero Ia prima disnsaglianca della (1.25). Per In seconda parte, dal fatto che I= I-A ‘A, moltiplieando adestra ambo i membri per (IA)? sixicava (I-A) = 1-A(-A) Passando alle norme, si ottiene HAY <1 + Ag Ay, ‘¢ dunque la seconda disuguaglianza, essendo All <1. ° ‘Vale la seguente proprieta: Proprieti 1.14 Una matrice A reale di ordine m 2 definite positiva se ¢ solo lo @ se la sua parte simmetrica As. Basta infatti osservare che per la (1.11) ¢ per la definizione di Ass, siha x? Agsx = 0 ¥x €R". Ad esempio, la matrice (1.26) ha parte simmetrica definita positiva, are) asetavaye[ 2d Osservazione 1.2 L'ipotesi che esista una norma matriciale indotta tale che ||Alj < Ss 3 +Ary= -1 274° 1 8 giustificata dalla Proprieta 1.12, tenendo conto del fatto che A ® convergente ‘e, quindi, che p(A) <1. WE Pitt in generale si ha (si veda per la dimosteazione (6): Si noti che la (1.24) suggerisce un modo per approssimare 'inversa di una matrice ‘tramite uno sviluppo in serie troncato, Proprieti 1.15 Sia A(n x n) (reale 0 complessa); se (Ax,x) é reale Vx € C, allora A & hermitiona. Una immediata conseguenza dei risultati appena rieordati ® che le matrici Aefinite positive in C* soddisfano a ben precise proprieta come la seguente. 1.12 Matrici definite p diagonale e M-matri e, matrici_ a dominanza Propriet& 1.16 Una matrice A quadrita di ontine n & definita positiva in C* se € solo se & hermitiana ed ha autovalori positivi. Quindi wna matrice definita positiva & non singolare. Definizione 1.22 Una matrice A € C*%" & detta definita posit in C” se il amumero (Ax,x) @ reale ¢ positive Vx € €°, x 7 0. Una matrice A € R™™ definite postiva in R* se (Axx) > 0 Vx € RY, x #0. Se alla disuguaglianza stretta viene sostituita quella debote (>) la matrice & detta semidefinita positiva. . Nel caso di matrici reali definite positive in R, valgono risulati pitt specifici di quelli presentati solo se Ja matrice % anche simmetriea (matrici di questo tipo verranno dette simmetriche definite positive o, in breve, sd.p.). In particolare, Esempio 1.7 Esistono matriei reali definito positive in R", ma non simmetriche, come vale il seguente risultato: ad esempio tutte le matrici della forma seguente Proprieti 1.17 Sia Ac R"™" simmetrica. A e definita positiva se ¢ solo se & A [ We | (1.26) soddisfatia una delle sequenti proprieta: a2 per ag -1, In effetti, per ogni vettore x = (21,22) non null di? 4. (Axx) > 0'Vie £0 con xe RY (Axx) = 2(¢1 +23 — aun) > 0. 2. gli autovalori delle sottomatrici principali di A sono tutti positivis 28 Capitolo 1, Elementi di snalisi delle matrici 8. 4 minori principali dominanti sono tutti positivi (Criterio di Sglvester); 4. esiste una matrice non singolare H tale che A= HTH, ‘Tutti gb element diagonali di una matrice definita positiva sono positivi, Infatt si hn ef Ae; = ay > 0, essendo e; P-esimo vettore della base canonica di R", Si pud inoltre dimostrare che se A ® simmetrica definite positiva il pit grande lemento in modulo della matrice deve essere um elemento diagonale (queste ultime proprieta costituiscono pertanto delle condizioni necessarie affinché una matrice sia definita positiva). Osserviamo infine che se A 2 simmetrica definita positiva e AY? & Vunica, matrice definita positiva soluzione delVequazione matriciale X? = A, allora JA = (Ax, x)! (1.27) xa dofinisce una norma vettoriale, detta norma dell’energia del vettore>x. Alla norms doll'energia ® associato il prodotto scalare in energia dato da fx, y}a = (AX.Y). Definizione 1.24 Ac R"™" si dice a dominanza diagonale per righe se fas] = > {ais|, con i= ae mentre ® detta a dominanza diagonale per colonne se Jase) = SO Iayil, con é of sone Se le disuguaglianze precedenti sono verificate in senso stretto, A si dice a domi rnanza diagonale stretta (per righe o per colonne, rispettivamente), . Una matrice simmetrica a dominanza dingonale stretta con elementi diagonali positivi, & anche definita positiva Definizione 1.25 Una matrice A R"*" non singolare @ una M-matrice se ays < O per # # j e se gli elementi dellinversa sono tutti positivi o al pitt mull . Per le M-matrici vale il cosiddetto principio del massimo discreto: se A ® una M-mattice € Ax < 0 si ha che x < 0 (intendendo queste disugunglianze fra vettori vere componente per componente), Le M-matrici sono infine legate alle matrici a dominanza diagonale stretta dalla seguente proprietd: Proprieta 1.18 Una matrice A ¢R™* a dominanza diagonale stretta per righe 4 cui elements soddisino ays <0 per i # j € ay > 0 & una M-matrice, Por altri risultati sulle M-matrici si vedano, ad esempio, [5] ¢ [119). 1 1.13. Brereisi 29 1.13 Esercizi Siano Wa e Wo duc generiet sottospazi di R", Si dimostei che se V7 allora dim(V) = dim(1;) + dim(W), mentre in goneraie dim +185, W@W, ddim(W) + ditm(W,) — diea(Wi 2), {Suggerimento: si consieri una base per Wi NW ¢ la sl estenda prima a W4 © poi Wa, verificando che ly base costtuita dallinseme det vettor!trovati una base pet lo spazio soma] ‘Vevificare che il seguente insiome di vettori wes (2a Net) forms aaa base per R", avendo indicato con 21,...,29 n punti dstinti di Si mostri con un esempio che il prodotto di due matrici simmetriche pub non essere ‘una matrice simmectrien. Sia B una matrice antisimmetrice ossia tale che BT BY" si dimostri che A“* = AF, ‘Una matrice A € C™*" 2 detta anéé-Aermitiona se AM = —A, Mostrare che gli clementi diagonali df A devon essore numeri immaginari pu. Siano A,B e A+B matrici invertibili di ordine n. $i dimostri che anche A! 4B! ® invertible risulta (ay B. Posto A= (0+ BYE =A(A+B)B=BALB) EA Data la matrice reale non simmetrica or. | ort ii 0 si verifichi che simile alla matrice diagonale D ‘autovettori. Questa matrice & normale? [Solusione: A non & normale.) iag(1,0, ~1) @ se ne trovino gli Yaate (A) souo gli autovalori i A, allora gl autovaloi i P(A) sono dati da ACP(A)) = POA). In particle, sf prov eis p(A") = pA) Si dimosici che una matrie di ordine n con n autovaort distin non pud essere Aifttiva. Si dimostdiolte che ia matrice normale nen pod sre ett Commulativits del proto di due matric. S¥ cmos che se A eB sono matic sqattte che han loses inskme di atovettor,allora AB = BA. $1 prov, fomendo ur cntroesrapio, che Il vceversa& fas. Sin A una matrice norma di aiovalori sy. Ae Singolr dt A'son0 [AA Sia A una matrice quacrata di ordine n. Si verifchi che se P(A) Dimostrare che i valori 16. 1 18, tole 1. menti di analisi delle matrict Sia A € C™" com rank(A) =n. Si dimostei che la pseudo-Inversa di Moore. Penrose At = (ATA)! gode delle seguenti propriet’: nat i 1, ABTA = As ()AIA=Iy; (2) ATAAt @)sen Si dimostsi che Al 2 unica matrice che rende minimo il funzionale min, JAX — essendo | Si dimostsi la Proprieta 1.9. (Sotucione: per ogni x, & € V si dimosti che | x|— ||| < xl Supponendo che dim{V) = n ed sviluppando su wna base di V il vettore w = x—¥ si dimostri che [| < Cla, dau la test imponendo, nella prima disuguaglianza trovata, che [Wllao 1, sono zz = pt VF — 1. In questo eas, F(2,p) = 2° — 2pe +1, il dato dé espresso dal coeffcieute p, mentre 2 @ il vettore di component {e+ -}. Per quanto riguarda il caleolo del condizionamento, osserviamo che la (2:6) i rericata prendendo G : BR Glp) = {#1,2-}. Posto Ga(p) = ty abblamo Gp) = 14 p/p? = 1. Usando la (2.7) con I-|| = [| [a si ottiene Ko) ~—WL, p>. Qa) alla (2.8) si ricava che nel cato di radici ben separate (ad esempio per p > V2) il problema F(z,p) = 0 & ben condizionato. I comportamento & drasticamente diverso hel caso di radici doppie, ovvero per p = 1. Si osserva anzitutto come, por p = 1, la 3H___Capitolo 2. Lfondamenti dela matematica mumerica 22, Stablith dl tod momerici 35 funsione Ca(p) = p+ YJF=T won sia pid derivable, facendo perdere a sgnifcato Hy gecprdo con la (2.7), In quantita G'(d)| esprime solo una approssimasione di alla (28). Peraltro, questultima evidensia come, per p prossimo ad 1, il problema in same sia mal condizionato, Tale problema, tuttaria, non é mal posto. Seguendo quanto ppuntualizzato nel'Osservazione 2.1 & possibile inatti riformularlo in modo oquivalente come F(e,t) = 27 — ((1+2)/t)e +1 = 0, con t = p+ fp? I, le cui radici x = € 2+ = I/t riultano coincidenti per ¢ = 1. Il cambio di parametro rimuove dunque la Singolarta presente nella precedente rappresentazione delle radici in funzione dip. Le due radici x- = 2-(0) ¢ + = x(t) sono infati funzioairegolai di tnel’imtorno dit ‘edi ealeolo del condizionamento tramite la (2.7) estitaisce K(?) > 1 per ogni valore di {I problema trasformato ha pertanto un buon eondizinnamento. . Esempio 2.3 (Sistem di equazionilineari) Si considert il stema lineare Ax = b, dove x ‘eb sono due vettori di R", mentre A @ la matrice (n x n) dei coefficient real del sisteana, Supponisino A non singolare; in tal caso «la soluzione incognita x, mentre i dati d sono esprossi dal termine noto b e dalla matrice A, ovvero d= {bi, 04/,1 i,j Sn). Supponiamo ora di perturbare il solo termine nota b. Avremo d = b, x = G(b) = A~b e pertanto, G'(b) = A“, di modo che dalla (2.7) si ottime ena < al pat = (a), 9) ‘ove K(A) indica i numero di condizionamento della matrice A introdotto nella Sezione 3.1.1 (abbiamo supposto di utilizzare una norma matriciale consistente). Pertanto se ‘A.é hen condizionats, il problema della risohuxione del sistema lineare Ax=b d stabile spetto alla perturbatione del termine noto b, La stabilita rispotto a perturbazioni sul coeflicienti di A verrd analizzata nella Sezione 3.9. . Esempio 2.4 (Equazioni non linear) Sia f : R — R una funsione i clase C! e si consideri Fequazione non Tineare Fad) = Se) = (2) — esiondo y : B+ Runa fanzione opportuna ed € Bun dato (eventualmente anche mullo). Tl problema 2 ben definito solo se @ invertibile in un intorno di d: in tal caso infatti = g"¥(d) equindi il risolveute & dato da @ = yg", Bseendo allora (~")'(d) = 1/¢"(e), 1a prima nella (2.7) fornisce, per dz £0 Kas hier (210) rmentre se d= 00.20 i ha Kd) = lle (@) uy Tl problema & dunque mal posto se x @ radice multipla di (x) —d; 2 malcondizionato ‘quando ¢'(2) ® “piccola”, ben condiionato quando ¢/(z) & “grande”. Riprendereme ‘queste consideragioni nella Sezione 6.1 . ‘Kom(d © viene talvolta chiamata numero di condizionamento assoluto al prim'or- ‘fine, Quest ultimo rappresenta il limite ragaiunto dalla costante di Lipschitz di @ {@iveda la Sezione 10.1) quando la perturbazione sui dati tende a zero. Jule numero non ® sempre un buon indicatore del numero di condizionamento Kete(d). Questo aceade, ad esempio, quando G’ si annulla in un punio, senza che {nun intoruo dello stesso si annulli anche G. Ad esempio, se « = G(d) = cos(d)—1 peed € (/2,/2), si ha G’(0) = 0, mentee Kaas(0) = 2/r 2.2 Stabilité di metodi numerici ‘Supporremo nel seguito che il problema (2.1) sia ben posto, Un metodo numerico per la risoluzione approssimata di (2.1) consisteri, in generale, uel costruire una successione di problemi approssimati Fraltnvdn)=0, wm &1 (2.12) dipendenti da un certo parametra n (che definiremo easo per caso), con Ia sottin- tesa speranza che rq + per r+ 00, ovvero che la soluzione numeriea conversa alla soluzione esatta. Affiché questo avwenga, ® necessario che dy — de che Fy approssimi” F quando n — oo. Precisamente, se il dato d del problema (2.1) & ammissibile per Fa, si dice che (2.12) consistente se Fa(t,d) = Fa(2,d) — F(x,d) +0 per n + 00 (2.13) easendo x Ia soluzione di (2.1) corrispondente al dato d. Il senso di questa definizione vert’ precisato nci capitoli seguenti per ogni singola classe di problemi. Un unetodo & detto fortemente consistente se Fa(z, d) = 0 per ogni valore di ne non solo porn —» oc. In aleuni casi (ad esempio quando si usano metodi iterativi) il problema (2.12) pud essere seritto come str) =O n> q (2.14) dove 29, 21, ---, q-1 Sono quantita assegnate, In tal caso In proprieti di forte consistenza diventa Fy (z,x,...,2,d) =0 per ogni n > @. Fal@nstnay Esempio 2.5 Il seguente metodo iterative (detto metodo di Newton, si veda la Sezione 62.2) por ilealeolo approssimato di una radice semplice di una funzione f : R +R. 2 dato, 2 2 f(ay/7'%), boo (219) ud essere sritto nea forma (2.14) ponendo Fa(ra,2a—1, f) = 20~an-1tf(tn-1)/f'(en-2) ed fortemente consistente in quanto F,(a,a,f) = 0 Wn > 1. Un esempio di metodo comitente per Vapprossimasione dir = [td dato dalla formula del punto medio (si veda la Sezione 8.1.1) a= (b= a)/nYoflat HOb-3)/2), 021 Questo metodo @ fortemente consistente se f & un polinomio lineare a tratti . Capitolo 2. { fordamen della matematica In generale non saranno fortemente consistenti i metodi numeric’ ottenuti dal] ‘modello matematico per troncamento di operazioni di passaggio al limite. In analogia a quanto detto per il problema (2.1), affinché il metodo mumnerieo sia a sua volta ben posto (0 stable) richiederemo che per ogni n fssato, esista la soluzione x» in eorrispondenza del dato dy, eho il ealeolo di ry in funzione di dy sia unieo (0 viproduetbile, ovvero se ripetuto pit vote con Io stesso dato, ealeola deve dare la stessa soluzione) ed, infine, che 2 dipenda com continuita dai dati, ‘oss che Van, Sy = tilda) > 0, Bo = Ko(mp) tale che Védq : Sdnl| <0 => l6z| < Kollddalh (2.16) Come per la (2.4), introdueiamo per ogmuno det problemi (2-12) le quantita, [sealfzal Leal ee ee = sty (a) = dala? stone) = 2, sda ‘Tl metodo numerico @ detto ben condizionato se K,(d,) @ “piccolo” in corrispon- denza di ognt dato dy ammissbie, mol condaionato in cago contraro. Ta analog alla (2-6), conideriamo il azo inci, Pet Ogal m favto, Je cloxiono funzionale (2.12) defnisea una applicarione Gy fra insimge dei dat! numeri ele soluzion By = En(dn), (217) ovvero Fr (Ga (dn), dn) =O. (2.18) ;pponendo Gy derivabile, si pud ottenere dal (2.17) Ke) = Nala gts NG (dn)lh (2.19) ral) Osserviamo che, nel caso in cut V'insieme dei dati ammissibili dei problemi (2.1) € (212) coincidano, in (2.16) ¢ (2-17) possiamo usare d al posto di dy. In tal caso possiamo definire i numeri di condizionamento asintotico relativo od assoluto, in cortispondenza del dato d, rispettivamente come segue: Keown (d) = fim Ee {d}, KOA) = im, sup Kaen (a) Esempio 2.6 (Somma e sottrarione) La funzione f : R? —> , fab) = a+8 8 una trasformesione linare it ex gradiente 2 f"(a,b) = (1,1)". Usando la norma vettorisle I[- [uy definita nella (1.12), sh ottiene K(@,6) % (Jol + b)/lla +B), da cui segue che Fradidizione di due numeri dello stesso soguo ® ben condizionats, essendo K(a,6) ~ 1 Inveoe la sottrazione di due numer crea tual mal condizionata,essendo in tal caso |a— 8 |a-+ bh. Questo fenomeno, gid ravvisato nell’Bsompio 2.2, conduc alla cancellassone 4 cifresigafzntive nel caso in ei | mumerk vengano rappresentat solo com ua numero finito di eifre (come avviene nel'aritmetica floting-poil, si veda Ia Serione 25.2). @ Se Esempio 2.7 Consideriamo di nuovo il problema del ealealo delle radiei di un polinomio gioveondo grado analizzato nell'Bsompio 2.2. Quando p > 1 (caso di radici ben separate), {ale problem ® ben condizionato; tuttavia, valutando In radice «con la formula 2 = p~ vi — | eeneriamo uz aigoritmo di calcolo insiabile. Pasa infatti& soggetta a error Aovnti alle concellasione numerica di cifre significative (si veda Ia Sezione 2.4) dovuti lParitmetica finita floating-point con cui opera il ealcolatore. Un modo per evitare Mosorgere di tal problem consiste nel calolare prima x, = pt/7?—Tepoiz- = 1/zs. In alternativa, si pnd risolvere F(x, 2) {gi veda la Sezione 6.2.2) ae = tnt = (RL, = 2pm + 1)/(2tm-1—2p) = fulp), a 21, zodato. Applicando Ta (2.19) per p > 1 si trova Ke(p) ~ [pi/hte ~ pl. Osserviamo inaltre che, nel cso Valgritmo converga, si avrebbe 2 convorgente ad una delle radii 0-7 pertanto,[ew—p| — Vp ~ Le dunque Kn(p) — K™*"(p). Pertanto il metodo di Newton per la ricerca di radici semplici delPoquazione di sooondo grado ® mal condizionato se |p| inolto vieino ad 1, diversimento 3 ben condivionsto, . Liobiettivo ultimo dell’approssimoziono mumerien 8, naturalmente, quello di costruire, attraverso problemi numeri di tipo (2.12), solugioni 2, che “si avvic nino” tanto pit alla soluzione del problema dato (2.1) quanto pit n diventa grande. ‘Tale concetto 2 formalizzato nella definizione che segue. Definizione 2.2 Il metodo numetico (2.12) 8 converyente see solo se Ye > 0 Bno(e), 35 = ding, e) > 0 tale che (2.20) Ya > role), Wbdn [dy || <5 => Jn(d}~29(d+ bdy)|| 2, sia 2 un numero reale con un numero finito ddjcifre 24 con 0< xy 0, Yay €R, Bys te. yp — zp] 1 si possono costruire due numeri 2 Soe 6) = 2 4 goons a) aa 4 penn, con r cite, tli che 20 < ag < alt) e alt) — al = rT, Sev 8 sooo in todo tale che 6°"? < e, prendendo yp pari a2) 0 pati a si giumge alla 44___Capitolo 2. 1 fondamenti della matematioa numoriea isnguaglianza cercata. Questo risultato legittim la rappresentazione dei me, reali su caleolatore (e dunque con un numero finito i clr). Anche se da un punto di vista astratto le basi sono tutte tra loro equivalent nella pratica computazionale tre sono le basi generalmente implegate: base 2 inaria, base 10 o decimale (Ia piitintvitiva) e base 16 o esadecimale. Quasi tut i moderni caleolntori iunpiegano tn base 2, a paste quelli tradiziaualtoente log alla base 16, Nel seguito, assumeremo che f sis un numero pari Nella rappresentazione binaria lo cifre si riducono ai due simboli 0 © 1, det anche bits (binary digite), mentre in quella esadecimale i simboli usati per la rappr sentazione delle cifre sono 0,1,...,9,4,B,C,D,E,F. Naturalmente, pitt piceo Ia base adottata, pit) Iunga @ la stringa di caratteri necessari per rappresentare Ig stesso mune Per sempliciti di notazioni, scriveremo d’ora in poi x invece di zg, sottinten dendo la base 8. 2.5.2 I sistema dei numeri floating-point 1 modo pitt intuitive per utilizzare NV posizion’ di memoria per la rappresentazione di un numero reale x diverso da zero quelo di fissarne una per i segno, N —k—M per le cifre intere e & per le cifte oltre il punto, in modo che si abbia (AY fay g0n a. a3 0) (2.283 essendo s uguale a1 0 @ 0. Si noti che solo se f= 2 una posizione di memoria ‘nuivale ad un bit. Un insieme di numeri di questo tipo & detto sistema det numeri 1a virgola fissa o fired-point, La (2.28) sta per secay-ot Sag 22s] quindi questa rappresentavione corrisponde ad aver fissato un fattore di scalatura uguale per tutti i numeri rappresentabil. L’uso della virgola fissa limita notevolmente il valore dei numeri massimo © minimo rappresentabili su un calcolatore, a meno di non impiogare wt numero V i posizioni di memoria molto grande. Questo svantaggio pud essere superato se! si suppone che a scalatura che compare nella (2.29) possa vatiare. Dato allora tun ‘numero reale x non nullo, la sua rappresentazione a virgola mobile o floating-point Odata da ReGen Rome] aa essendo ¢ € Nil numero di cifre significative a; consentito (con 0 < a; < 8-1), m= aydz...a, un numero intero detto mantissa tale che 0 0). Le N posizioni di memoria sono ora distribuite tra il seguo (una joione), Ye eife significative (t posizoni) e le cifre dellesponente (le restanti Wye t- 1 posizion'). 1 numero zero ha una rappresentazione a se stante. ‘Tipicamonte sui calcolatori sono disponibili due formati per lo rappresentazio- re floasing-p7int dei numeri: Ia singola e Ia dappia precisione. Nel caso di rap- presentarione binaria, questi formati corrispondono nella versione standard alla Fippresentazione con NV = 32 bits (singola precisione) Sie “aa tite e | aan! J Denotiamo con F(a,t,0) = {ou {ren rua ‘| Pinsieme dei numeri-macchina (0 numert floating-point) con t cifre significative, pave > 2, 0¢ a;

8, In tal caso a; & detta la cifta significativa principale, mentre ag & detta ultima cifra significativa e la rappresentazione di x verrh detta normalizzata. La mantissa varia ora tra QP! ¢ 8 — 1. Ad esempio, nel caso in cui @ = 10, = 4, L = -1e U = 4, senza Vipotesi che 1 £0, il mmmero 1 ammetterebbe le seguenti rappresentazioni 0.1000 10", 0.0100. 10%, 0.0010: 108, 0.0001 - 104 Sempre per Punicita della rappresentazione si suppone che anche lo zero abbia win seqno (tipicamente si sceglie s = 0), B immediato osservare che se x € F(6,t,L,U) allora anche — © F(3,t,L,U). ‘Valgono inoltre le seguenti maggioravioni per il valore assoluto di 2: ght {a cardinalta. i #(8.t,L,U) (dora in poi indicato per semplicta con F) & data Fein la] $ B71 - 8) = mas: (2.31) card F = 2(6 - 16" Dalla (2.31) si deduce che non & quindi possibile rappresentare alcun numero (a Parte lo zero) minore in valore assoluto di timin~ Si pud tuttavia nggirare questa 46 __Capitolo 2. T fondamenti della matematica munerica 2.5. Rapprosentavione dei numeri sul caleolatore 47 _ limitazione completando F con Vinsieme Fp dei cosidletti numeri floating-poi denormalizzati ottennti rinunciando allipotesi che ay sia diverso da zero, solo i numeri riferiti al minimo esponente L. In tal modo non si perde Punicita ai rappresentazione e si generano dei numeri che hanno mantissa compresa tra. 1 ef #9! —Le appartengono allintervallo (—2"~1, 64"), Tl minore tra tali numeri ha} ‘modulo pari a 5!" Contrariamente alla distanza assoluta, la distanza relativa fra, un numero ed 41 suo successivo pitt grande ha un andamento periodico che dipende solo dalla mantissa m. Se indichiamo infatti con (—1)*m(z)°-* uno dei due nmmeri, Ia distanzs Oe dal successivo sar& pari a (—1)°3°*, dt modo che Ia distanza relativa risulterd (2.32) Esempio 2.11 I numeri positivi di F(2, 3, —1,2) sono ‘Alinterno dell'intervallo (9°, 8°), la (2.82) docresce al erescere di 2 in quanto ella rappresentazione normalizaata la mantissa varia dag! a gt —1. ‘Tutta- ‘ia, non appena x = (*, la distanza relativa ritorna pari a 8" e riprende a eseresoere sull'intervallo suecessivo, come mostrato in Figura 2.2. Questo fenome- po oscillatorio 2 noto come wobbling precision ed ® tanto pit prommeiato quanto pit grande ® la base 8. Anche per questo motivo si prediligono generalmente nei taleolatori bast piecole. oun-2=2, on. (0.101) -2 (0.100) -” = 2, on) (0.110) -2 (0.101) -2 (0.100) ony (o.10) (0.101 (0-100) o.any-2t=4, @-2 a (101) (0.100) Essi sono tutti compresi fra tmin = ®t 1/4 ¢ mar = 6 (1 ~ Bt) = (1 ~ 2-9) =1/2, In totale abbiamo dunque (9 1)9-"(U—L+1) = (2—1)2°""(2+1+1) = 16] ‘mimeri strettamente postivi. Ad essi vanno aggiunti i loro oppost pit lo zero. Osservi ro che quando = 2, la prima cifa signifcativa nella rappresentazione normalizata & necessariamente pari ad 1e pub quindi non essere memorizzats sul calcolatoe (si para fn tal easo di hidden bi. Se ora ineludessimo anche i numeri denormalizaali pesitivi, dovemmo completare insieme precedente con i numeri seguenti o we oon (oom = 4 (0.010) +2" -vato in precedlenza il pit piccolo numero denormalizzato 16. Fig. 2.2. Variazione della distanza relativa per Vinsieme dei numeri (2,24, ~125, 128) IEC/IEEE a singola precisione 2.5.3. Distribuzione dei numeri floating-point T numeri floating-point non sono equispaziati, ma si addensano in prossimitA det piccolo numero rappresentabile, Si pud verificare che la spaziatura fra un numero « € F ed il suecessivo pitt vieino (purch® entrambi assunti diversi dallo zer0) & pari ad almeno "es,|2| ed al pit vale ex|2|, essendo exy = 9" Pepsiton macchina. Quest’ultimo rappresenta la distanza fra il numero 1 ed il successivo numero floating-point, ed ® dtnque il pit piccolo numero di IF per cui 1+ en > 1 Fissato invece un intervallo della forma (9°, **4, i numeri di F appartenenti tale intervallo sono equispaziati ed hanno distanza pari a 6°*, I decremento (0 ineremento) di un’unita dell'esponente comporta quindi una diminuzione (od un aumento) di un fattore 6 della distanza fra, due numeri consecutivi 2.5.4 Aritmetica IEC/IEEE La possibilta di costruire insiemi di numeri floating-point diversi fra loro per base, numero di cife signfieative e range dellesponente, ha dato luogo in passato ad una proliferazione di sistemi numerici. Per porvi rimedio @ stato fissato uno standard che oggi viene quasi universalimente riconosciuto. Esso é stato sviluppato nel 1985 dallinstitute of Electrical and Electronies Engineers (in breve, IEEE) ed 2 stato approvato uel 1989 dallnternational Bleetronical Commission (IC) come stan dard iniernazionale IECSS9 e con tale denominazione @ attualmente conosciuto 48 Capitolo 2, fondamenti della matematics numeriea 25, Rapprosentarione dei numeri sul caleolatore 49 (IEG 8 una onganizzazione analoga allInternational Standardization Organiza tion (ISO) per i campi del'elettroniea). [°I8C559 provede due formati per} numeri floating-point: un formato di base, costituito dai sistemi F(2, 24, ~125, 128) per la singola precisione, e (2,58, —1021, 1024) per la doppia, entrambi comprendenti ‘anche i numeri cenormalizeati, ed un formato esteso, per il quale vengono solo fissati dei limiti (ciportati in Tabella 2.1). Lepplicazione ft: R + F @ la pitt commmemente utilizzata ed & dotta rounding {el chopping si prenderebbe pit banalmente @ ~ a,). Evidentemente l(a) = 2 were Fed inoltre fl(z) < fl(y) sex 79 bite |e | >32 | > 6a L 021 | < 16381 1024 34 ‘Tabella 2.1. Limiti inferiori o superiori previsti dallo standard TEC559 per il formato esteso det numeri floating-point A parte le situazioni eccezionali, possiamo quantificare facilmente Verrore, as- soluto ¢ relative, commesso sostituendo fl(2) ad x. $i dimostra infatti la seguente Quasi tutti i caleolatori attuali soddisfano ampiamente a questi requisiti. Per ‘proprieta (si veda ad esempio [68], ‘Teorema 2.2) concludere, notiamo che in IEC559 non tutte le soquenze di bit eorrispondono ad un numero reale, Nella Tabella 2.2 riportiamo aleune codifche particolari che corrispondono ai valori 0, too ed ai cosiddetti non numeri (brevemente NaN dall’inglese not a number), corrispondenti ad esempio a 0/0 0 ad altre quantit& generate da operazioni eccezional ProprietA 2.1 Sex €R appartiene al range di, allora JM(z) = 2(1 +8) con [a] 10!-0.0(9] wh ooft] — [ieo0 Si pud in effetti dimostrare che per la somma e Ia sottragione eseguite senza cifta 0. =p Vi G delloquae ~~ (8) [Suggerimenta: si consider la definisione di Kate(a). | Sia # 4 0 uma approssimazione di una quantitA x a sua volta non nulla. Si forniscano delle relazioni fra Perrore relativo ¢ = |r ~3/in| e B= |x ~ 3/2) 6, Si trovi una formula stabile per il caleolo della radico quadrata di un numero ‘complesso. 7. Si trovino tutti gli clemonti delPinsiome F he denormalizzato, (10,6, 9,9) sia nel easo normalizzato 26. Beercisi 53 §, $i comsideri Vinsieme dei numeri denormalizeati Bp e si studi Pandamento della, distanza assoluta e della distanza relativa fra due di questi numeri. Si sitrova il fenameno della wobbling precision? [Suggerimento: per questi numeri si perde Yuniformita della densita relative. Di conseguensa la distanza assoluta rimane eostante (pari a 8~*), mentre quella telativa craco rapidamente per 2 che tende a 2er0}] 9, Quanto vale O° in artmetica IBEE ? [Solusione: rigorosamente si dovrebbe ottenere NaN. In pratca, i sistem IEEE restituiscono il valore 1. Una giustificazione di tale visultato pud essere trovata in (9)] 10, Si dimostri che Ia seguente successone k To=tog$, te +5 ” (240) 1 : cause dg ero i canetlaione non @ adatta in avlntin ila eaclo dante f= f! <2 quando ucientementa grande pur ewendol tn artnetic inf [Suggerimento: si supponga di considerate II dato iniziale perturbato f si studi ln propagazione dellerrore jg nella (2-40) 11, Si dimostri la (2.88) [Sotusione: si osservi che Toto y-@tul le (Fe) + HOM | fie) + Hy) — v) ety) lz+ol lz+ul ‘esi applichino la (2.37) e la (2.96),) 12, Dati 2,y,2¢ Foon 2 +y, y+ 2 2-+y+2 che eadono nel range di F, si dimostet che []e-fty +2) <0 ~ Girt ult bbe #]2)~+y +21 SCs (el+2lv +2). 18, Quali tn bo soguenté approasimarioni di Ltt alesse io ) 8 5 , (2.41) 1811 (1)? 18-511 (1 oa 05434 (3) +B) tr e8 7(2) 2 ) tminimiaza la propagasione dept errati di arotondamento? ‘TLAB {risultattottenutt al varlare del numero di addend 14. In una atitmetica binaria si pud dimestrare (84) che Verrare di arrotondamen- to per In somma fra due numeri ae b, con a > b, pud essere caleolate come (oL+]» [=] 4) [=] 0). Sulla base ot questa proprieta & stato proposto un ‘confronting in MA- 54 46, 16 Gapitolo 2. I fondamenti della matematica numerica metoda, detto somma compensate di Kahan, per eseguire le somme din addendi 4; in modo da compensare gli errori di arrotondamento, In pratica, posto Terrore iniziale di arrotondamento e, = 0-¢ s1 = ai, al passo é-esimo, con i > 2, si valuta ws = 161-1, sf aggiora la somma ponendo s; = si-1 + ys e si valuta il nuovo errote di arrotoudamento come e: = (6; ~ si-1) ~ yi. Si implementi questo algo- ritmo in MATLAB e ne si valuti Paccuratezza calcolando nuovamente la seconda delle (2.41) Per il calcolo delarea A(T) di un triangolo T di lati a, be ¢, si pub utilizzare Ia formula di Brome AD) = Vel= Hl DP=S) cssondo p il semiperimetro di 7’ $i dimostri che nel caso di triangoli molto defor mali (a +e), questa formula & poco accurata elo si verifichi sperimentalmente, Analizzare In stabilita, rispetto alla propaguzione degli errori di arrotondamento, dei soguenti due programmi MATLAB per il caleolo di f(2) = (€ — 1)/x per hie % Algoritmo 1 % Algoritmo 2 fx==0 ep (x): f= ifyset se fai = (es9(x) - 1) / x se end (5 G- 2) / 8 [Soluzione: il primo algoritmo risulta inaceurato cansa degli ervori di canoella- zione, mentze il secondo algoritmo (in presonza della cifra di guardia) ® stable ed 3. Risoluzione di sistemi lineari con metodi diretti Un sistema di m equuazioni linear’ in m ineognite ? un insieme di relazioni algebriche della forma Sagas = bs essoado 2; le incognite, ay i coefficienti del sistema e by i termini noti. Il sistema (3.1) verra pit comunemente seritto nella forma matriciale (1) Ax=b, (3.2) vendo indicato con A = (ai;) € C™*" la matrice dei coefficienti, con b=(6,) € C™ Al vettore termine noto © eon x=(2:) € C il vettore incognito. Si dice soluzione i (8.2) una qualsiasi n-upla di valori 2; che verifichi la (3.1). In questo capitolo considereremo prevalentemente sistem quadseti di ordine a coeffcienti reali ossia sistemi della forma (3.2) in cui Ac RM" eb < RY. in tal caso Vesistenza e Punicita della soluzione di (3.2) & garantita se vale una delle seguenti ipotesi (equivalent): L.A 8 invertibile; 2 rank(A)=n; 8, il sistema omogeneo Ax=0 ammette come unica soluzione il vettore nullo. La soluzione del sistema pud essere formalmente ottenuta tramite la regola di Cramer 4, 5 aly n i (33) essendo Ay il determinante della matrice ottenuta sostituendo la j-esima colonna iA con il termine noto b. Questa formula ® tuttavia di searso interesse mumerico. Ea 56___Capitolo 8. Risoluzione di sistem lineari con metodi diretti Se infatti si suppone di caleolare i determinanti tramite la formula ricorsiva (1.4), i costo computazionale richiesto dalla regola di Cramer ® delfordine di (n-+1)! flops ed & di conseguenza inaccettabile anche per piccole dimensioni di A (ad esempio, tun caleolatore in grado di effettuare 10° flops al secondo, impiegherebbe 9.6- 10" ‘anni per risolvere un sistema lineare di sole 50 equazioni). Per questo motivo sono stati sviluppati metodi mumerici alternativi alla regola di Cramer, che vengono detti diretti se conducono alla soluizione del sistema dopo ‘un numero finito di passi od iterativi se ne richiedono (teoricamnente) wn numero infinito. Questi ultimi verranno trattati nel Capitolo 4. Anticipiamo fin dora, che la seelia tra un metodo diretto ed un metodo iterativo non dipendera soltan- to dallefficenza teorica dello schema, ma. anche dal particolare tipo di matrice, dall’occupazione di memoria richiesta ed, in ultima analisi, dallarchitettura del caleolatore utilizzato. cominciando con Posservare che H(A) > 1 in quanto 1= AAT] <|IAll [AT = KOA). jnolire K(A~) = K(A) ¢ Var € € con a # 0, K(aA) = K(A). Infine, se A ® ‘rtogonale, Ka(A) = 1, in quanto |All = Vp(ATA) = y/p(D) = 1 ed essendo 4-1 = AT. Assumeremo per convenzione che il numero di condizionamento di {ina matrice singolare sia infnit. Per p = 2, Ka(A) pud essere meglio caratterizzato, Si dimostra infatti, a partie dalla (1.20), che ou A) Ka(A) = [Alle A nf) cesvendo 2(A) ¢ on(A) il massimo ed il minimo valore singolare di A (si veda la Proprieti 1.6). Di conseguenza nel caso di matrici simmetriche definite positive si ha 3.1 Analisi di stal ita per sistemi lineari La tisoluzione di un sistema lineare con tun metodo numerico comports inevitabil- mente 'introduzione di errori di arrotondamento: solo Putilizzo di metodi numerict stabili pud impedire che la propagazione di tall errori vada a discapito dell’accu- ratezza della soluvione numerica. In questa sezione analizzeremo da. un lato la sensibilita della soluzione di (3.2) a cambiamenti nei dati A e b (analisi a priori in avanti) e, dall‘aliro, supposta nota una soluzione approssimata % di (3.2), di quanto dovrebbero essere perturbati i dati A ¢ b affinché sia la soluzione esatta di un sistema perturbato (analisi a priori alPindietro). Lientita di tali perturba- zioni consentiri di misurare la bonta della soluzione calcolata & tramite l'analisi a posterior (33) Ka(A) a AA) =A essendo Amoe © Amin il massimo ed il minimo autovalore di A. Per una verifica diretta della (3.5), si osservi che WAll2 = ya(ATA) = Ve(A?) = Vinaz = Amos Avendosi inoltre 4(A~!) = 1/A(A), si ha che |JA~!\[z = 1/Amin © quindi la (3.5). Per tale ragione K2(A) & deito numero di condizionamento spettrale. 3.1.1 I numero di condizionamento di una matrice Osservazione 3.1 In generale, se definiamo la distanza relativa di A © C™*" Si definisce numero di condizionamento di una matrice A € C"*" Ia quantit’y dall'insiome delle matrici singolari rispetto alla norma p eome K(A) = WAN FA“ (a) dlist,(A) = nin { +. :AFOAR single} essendo || | una norma matriciale indotta. In generale K(A) dipende dalla nor- oo rare che ({75), (52 ima acelte: quando questa dipendensa vorrd cosere evidenzisteutiliaeremo una 2"? Simost (79), (52) notaaione con un pedice, ad esempio Ka(A) = |[Allac |A7' jac. Pit in generale, . 1 F(A) denotera il condizionamento in norma p di A. Casi particolarmente inte. Aish (A) = (6) KfA) ressanti sono quelli con p= 1, p = 2 € p =o (per le relazioni fra Ky(A), Ko(A) & Ka(A) si veda PEsercizio 1) ‘Come gid notato nellEsempio 2.8, al crescere del numero di condizionamento ‘aumenta Ia sensibilita della soluzione del sistema lineare Ax = b alle perturba- zioni nei dati. Mettiamo in luce alcune proprieta del numero di condizionamento, La (3.6) esprime il fatto che una matrice A con un numero di condizionamento elevato potrebbe comportarsi come una matrice singolare della forma A+SA. In altre parole, in tal caso, a perturbazioni nulle del termine uoto potrebbero non corrisponclere perturbazioni nulle sulla sokwzione in quanto, se A+5A 2 singolare, Si osservi che se vale la sexvente condizione TA pllbAly <1 allora la matrice A+5A # non singolare (si veda ad esempis [4], Teorema. 7.12) Coneludiamo con una. precisazione: Ia (8.6) pud indurci @ supparre che buon candidato per misurare il mal-condizionamento di una matrce sia il deter ‘minante della matrice stessa, in quanto sembrerebbe ragionevole ritenere per la (3.3) che a determinanti piceoli corrispondano matriei quasi singolari. Di fatto questa supposizione @ errata ed esistono esempi di matrici con determinante pic colo e condizionamento piecolo o determinante grande e condizionamento grande (si veda PEserciaio 2). 3.1.2 Analisi a priori in avanti Introduciamo una misura dela sensbiita del sistema alle perturbaaion! nei dat Nella Sezione 3.9 interpreteremo queste perturbazioni come Vffetto degli errori di arrotondamentointrodotti dai metodi numeri impiegati per la risluzione del Sema fineare. Perna pi pa tattarione delargomento si vedano ad esempio (27, fo} 113) e (19, ‘A causa degli errori di arrotondamento un metodo numerico impiegato per’ Ja risoluzione di (8.2) non foricd una solusione esatta del sistema di partenza, ma sotanto tna sohwione approesimsta che verfca un sistema perturbalo. Ia altre parole, un metodo numerico genera una soluzione (esatta) x + 6x del sistema perturbato (A+ 5A)(x +58) = b + 5b. (38) 11 seguente risultato fornisce una stima di 8x in funzione di 6A e di 6b. ‘Teorema 8.1 Siano A € R™" una matrice non singolare ¢ 5A € IR" tali che sia soiiafatia la (8.7) per una generion norma matriciale indotta | «||. Allora se XE R" @ soluzione di Ax=b con b ER" (b £0) e 6x ER" verficn la (3.8) per 8b ER", si ha che wet) + Heal All {lox xl Dimostrazione. Dalla (3.7) disconde che la matrice A“*6A ha norma ||- || minore di 1, Allora peril Teorema 1.5 si ha che I+ A~16A 8 invertible e dalla (1.25) discende che ee FAT TEA, 3.9) K(A) G |b) 1— K(A) SAN VAN Nb 1 NOAA Ss ag (310) 3.1. Analisi di stabilita per sites lineart ee ee ee praia parte, sicavando 6x nella (3.8) ¢ venendo conto dhe Axc= by si ha fx = (14 ATA 'A "(6b ~ 5x), jpessando alle norme ed utilizzando la maggiorazione (3.10), si ha wy Spay an 1 + HAL I) decal lox < ivideodo ifine ambo i membri per |x|] (diverso da zero in quanto b #0 ed A & non Singolare) od osservando che |x| > [fb|/All, si perviene alla tes ° I buon ondizionamento non basta a garantie risultati accurati nella risoluzio- ne di un sistema: sarh infatti importante, come gin evidenziato nel Capitolo 2, tisare anche algoritn stabi, Viceversa il fatto che una matrice sia mal condi- ‘mata non esclude che per particolari scelte del termine noto il sistema. risulti ‘omplessivamente ben condizionato (si veda I'Esercizio 4). Un caso particolare del Teorema 8.1 @ il seguente: Corollario 3.1. $i suppongano vatide le ipotesi det Teorema 3.1. Sia 6A Alora a abl. ex, KA) |B Tl Dimostrazione. Dimostriamo solo la prima disuguaglianza in quanto la seconda segue direttamente dalla (3.9). Dalla relazione Adx = 6b discende |6b|) < [Al ||5x||. Molti- plicando ambo i membri per |x| ¢ rioordando che [pll < JA" si ha ix bl] < K(A)|ibl|}6x|, ovvero 1a disuguaglianza cercata. ° \dbl) <0) Guy Per poter impiegare le disuguaglianze (8.9) ¢ (8.11) nell'analisi della propage- ione degli errori di arrotondamento per i metodi diretti, |All e [6b|) dovran- no essere stimati in funzione della dimensione del sistema e delle caratteristiche delVaitinetica floating-point usata. E infatts agionevole aspettarsi che le perturbazioni indotte da un metodo per Ja rsoluzione di un sistema lineare siano tali che 6A < 7/|Al| e |Sbl| < |b], essendo *y un numero positivo che dipende da w, Punit di roundoff (ad esempio, si porra nel seguito +7 = f-', essendo la base ¢ til numero di cifre della mantissa ‘del sistema F scelto). In tal caso la (89) pud essere completata dal seguente teorema: Teorema 3.2 Siano 6A € R™” ¢ db €R” tali che |6Al| < Al, [db|| < >[lbl er un opportuno”y €R*. Allora, se 7K (A) <1 si ha + VK (A) dt dul yK(A)’ i (3.12) 60___Capitolo 8._Risoluzione di sistomi lineari con motodi diretti (sx) il Dimostrazione. Dalla (3.8) discende che (1+ A~*4A)(x¢+ 8x) = x-+A44b. Dalle Tasioni (A) < Le [6A] < 7A] sisicava che L+-A~15A 8 non singolare, Invertendot :atricee passando alle norme si ottiene [bx+8x]] < [(H+A~26A)~2 (Dxl|+ 211A" Ib) Ti viet del ‘Teorema 1.5 si ottiene allora che 1 pene D+ Bel < —yqcagay il +14 BI) dla cui In (8.12), esendo ||A~'SAY < yAK(A) e texendo conto che Ib < [Al Ix imostriamo ora la (3.18). Sottraendo la (3.2) dala (38), ni ottiene Bx = —IA(x + 85) 4-db. Invertendo Ae patsando alle norme, si trova la seguente disuguaglianza. xl] 0, una stina in norma infinite, pid signicativa della (3.17), & lel JAT*I(F + anex( Ali + BD) Ile Tle dove stblamo indieato con |A| la matrice n x n di elementi jay con i,j = 1,...,m (ci riferiremo nel seguito a questa notazione come alla notazione del va- lore assoluto). Supporremo inoltre nel seguito di impiegare la seguente notazione compatta , Gas) C 2) questo metodo assume la forma seguente (3.19) Tl numero di moltiplicazioni e divisioni necessarie per eseguire questo algoritmo| ® pari a n(n + 1)/2, mentre il numero di addizioni sottrazioni risulta pari a n(n —1)/2, Lalgoritmo (3.19) richiede dungue n® flops Consideravioni analoghe valgono per un sistema lineare Ux=b, con U matri- c# triangolare superiore non singolare avente n righe (n > 2). In questo caso Valgoritmo prende il nome di metodo delle sostituciont allindictro (0 backward substitution) © nel easo generale assume la seguence forma 3.2, Risoluzione di sistemi triongolari___ 63 Anch'esso richiede n? flops 3.2.1. Aspetti implementativi dei metodi delle sostituzioni Notiamo che da un punto di vista computazionale alli-esimo passo delValgoritmo (3.19) viene richiesto il prodotto sealate fra il ettore riga L{i,1 + 4 1) (avendo (preso con questa scrittura il vettore estratto dalla matrice L prendendone gli cle- inenti dell’-esima rign dalla prima alla (j-1)-csima colonna) ed il vettore colonna Mi zi—1)- L'accoso alla matrice L & dunque fatto per righe: per questo mo tivo Talgoritmo delle sostituaioni in avanti implementato in questa forma viene chiamato orientato per righ. ‘Una sta codifica é riportata nol Programma 1 (jl Programma mat.equare richiamato in forvara-row si limita a verificare che la matrice L sia quadrata) Programma 1!” forward:cow! {" Metodo, dellé Sostitudieai il’ avail: “verBione’ ‘rientata per tighe funetion fx] -erward.rou(L.b) fnfemat scuare(L); »(2) = b(aY/L(L: fori = 2, x (i) = (D(PLGLEL)*(a(L:e))')/Li): end Per ottenere una versione orientata per colonne del medesimo algoritmo, basta cosservare che, una volta calcolata la componente -esima del vettore x, questa pud essere convenientemente eliminata dal sistema. Una implementazione di questa procedura, nella quale la soluzione x viene sovrascritta al vettore termine noto b, & quella riportata nel Programa 2. Programma 2 - forward.col ‘orientata per colonne ‘MelGAD! Geliedostituzions| tn ARES NGsione function [forward col(L.b) {nl=mat square(L) for jain. BEi}= bG)/LG); BG-+1:n) BG +1:n)-6G)*LG-HI:n4) end: b(n) = b(n) /L(0.0) Inmplementare il medesimo algoritmo in un modo orientato per righe, piuttosta che per colonne, pud cambiarne drasticamente le prestazioni (non i risultati). La scelta dell'ma o dellaltra forma andr’ dunque sempre correlats allo specifico hardware usato. Analoghe consideragioni possono essere svolte per il metodo delle sostituzioni allindietro, presentato nella (3.20) nella versione orientata per righe. Net Programma 3 si fornisce solo Ia versione orientata per colonne del medesimo algoritino. Al solito, i vettore x ® stato sovrascritto al vettore b. 64 ___Copitolo 3, Risoluzione di sistem lineari con metodi dinetti 3.2. Risoluzione di sistomi triangolari__65 Programma 3 > backward cot Metodo delle sostituzioni alliindietro: ver > [uy] per ogi j > i allora ‘orientata per colonne tual function (b]backonard.col(U,b) [| SO I sign. (ol=mat square(U) forj=n-12, Lp steso risultato vale anche nel caso in cui T=L, ma richiedendo che [ll > [bs] (=) /UG,): tts) =B(45-1)-bG)*UCAS-A): Her ogni j <0 quslora L ed U sino a dominauza diggonale. Questo stime Sie eae Forranno usate nelle Sezioni 3.3.1 e 3.4.2. Ovviamente in codiet di caleolo nei quali si vogliano risolvere sistem triangol Pr le dimostrazioni dei risultati riportati si vedano [50], (67] e [68]. i grandi dimension verra memorizzata la sola porzione triangolare delle matri ‘con un considerevole risparmio di memoria, 3.2.3 Calcolo dell’inversa di una matrice triangolare Lalgoritmo (8.20) pud essere facilmente adattato per il calcolo esplicito del’ine verse di una matrice triangolare superiore, Data infatti una matrice triangolare superiore U, i vettori colonna vs dellinversa V=(vi,..-,¥a) di U soddisfano i seguenti sistem lineari 3.2.2 Analisi degli errori di arrotondamento ‘L’analisi sinora svolta ha trascurato Ia presenza nei diversi algoritmi degli (i vitabili) error ai arrotondamento, Includendo questi ultimi, gli algoritmi de sostituzioni in avanti ¢ alPindietro non forniscono la, soluzione esatta dei si mi Lx=b e Uy=b, ma delle soluzioni approssimate % che possiamo immagin: soluzioni esatte dei sistemi perturbati Uv =e, Tyee (3.24) essendo {ei} ® la base canonica di R” (definita nell’Esempio 1.2). Si tratterebbe percid di applicare n volte lalgoritmo (3.20) alle (3.24), Questa procedura ® sicuramente inefficiente in quanto almeno la met& degli lementi dellimversa di U ® mullo, Sfruttiama dunque questo fatto. Indichiamo on ¥, = (Uigs---s¥f4)” il vettore di dimensione k tale che (L+oLjz=b, (U+sU)R=b, (3.21 con SL = (6li;) € 5U = (6ujs) matriei di porturbazione. Per poter applicare disuguaglianza (3.9), dobbiamo fornire una stima delle matrici di perturbaziono OL SU, in funzione degli elementi di L o di U, della dimensione delle stesse e del caratteristiche dell'aritmetiea floating-point utilizzata. A questo proposito, si py dimostrare che Uy =h, head) (3.25) exsendo U® la sottomatrice prinefpale di U di ordine k e Iy il vettore di RF con tutte le componenti null, fuorché la prima che ? pari ad uno, T sistem (3.25) sono triangolari superiori, ma di ordine k, e possono ancora essere risolti con il metodo (6.20). Porveniamo cos al seguente algoritmo di inversione per matrei triangolart superiori: per k= nyn~ 1,...,1 caleolare ris IT, (3.22 dove T ® uguale a Loa U ed essendo w= 30" Punit’ di roundoff definita nella (2.85). Bvidentemente se ru < 1 dalla (3.22) si deduce, tramite uno sviluppo ia serie di Taylor, che |3T| < reu\T| + O(w?). Inoltre, dalla (3.22) discende per la Mn = Us (3.9) che, se nuk (T) <1, allora “ 1 (8.20) & ug’ So uate, peri mk (T) + 0(0") (3.23) ae Al termine di questa procedura i vettori vj, caleolati costituiscono gli elementi non ull delle colonne di U-!. Questo algoritmo richiede circa n?/3-+ (3/4)n flops. Ancora una volta, a causa degli errori di arrotondamento, V'algoritmo (3.26) non fornira Vinversa esata, ma una sua approssimazione, L'errore introdotto potra ‘essere allora stimato applicando ad esempio Vanalisi a priori all’indietro sviluppata nella Sezione 3.1.3 Una procedura analoga, ottenuta a partire dall’algoritmo (3.19), pud essere {mpiegata per calcolare Pinversa di una matrice triangolare inferiore nuk(P) mak (T) per le norme 1, 00 e di Frobenius. Se u @ suffcientemente piceola (come gene ralmente accade), le perturbazioni introdotte daglierrori di arrotondamento nella Tisoluzione di un sistema triangolare possono essere dunque di fatto trascurate. Di conseguenra, l'aceuratez2a della soluzione ealeolata per un sistema triangolare con| il metodo delle sostituzioni in avanti o allindietzo ® in generale assai elevata. ‘Questirisultati possono essere raffinatiintroducendo alcune ipotesi supplemen- tari sug elementi di Lo di U. In particolare, se gli clementi di U sono tali che Sree eee eee 66 pitolo 3. Risoluzione di sitemi lineari con metodi diretti 133, Ilmetodo di climinazione gaussiana (MBG) e la fattorizzazione LU @7 3.3. Ni metodo di eliminazione gaussiana (MEG) e |, dove per k > 2 la matrice A ha la forma seguente fattorizzazione LU oo a metodo di eliminazione gaussiana si basa sull’dea di ridure il sistema Ax=b oe on tm sistema equivalent (avent cot la stesasotuzone) della forma Ux=—b, dove _ 8 triangolare superiore e b 2 wt nuovo termine noto. Quest’ultimo sistema pot ea 0 a... a essere risolto con il metodo delle sostituzioni allindietzo. Indichiamo il sisten originario come Al"'x = b()), Durante la riduzione sfrutteremo in modo essenzial la proprieta per la quale sostittendo un'equazione del sistema con la differenza t Vequazione stessa ed un’altra, moltiplicata per una costante non nulla, si ottien un sistema equivalente {ciot con la stessa.soluzione) a quello di partenza. Consideriamo dunque una matrice A ¢ B"*", non singolare, e supponiamo elemento diagonale a, sia diverso da zero, Introducendo i seguenti mottiplicat 0 0 af ~ B evidente che per k = n (") delta forma avendo assunto che af!) 2 0 per i otterremo un sistema triangolate superiore At*)x of ol 1 pe ra 8 fe | 2 is (0 0 ay tan zy by i 0 0 af ro ed avendo indicato con a{)) gli elementi di A), 2 possibile eliminare lincognit 2 da tntte le righe successive alla prima semplicemente sotiraendo dalla generic riga i con i = 2,...,n la prima Riga rooltipicata per ma ed eseguendo La stesi operazione sul termine noto. Se ora definiamo Per consistenza con le notazioni procedentemente introdotte indicheremo eon U Jn matrce triangolare superiore A). Gli al!) veugono detti elomenti pivotal ¢ devoun essere ovviamente tutti non mul per f= 1y.--n ~ 1 Per evidenziare le forme ee consextono di trasformare il auello + I-esimo, procediamo come segue. Per f of! £0 e definiamo il moltiplicatore istema k-esimo in 1... 1, assumiama che eee ay fF = a5) — maahy, o | mig ae Sk+leyn (3.28) vendo indieato con 6{" le componenti di bY), avremo un nuovo sistema dela forma og. wo @ ao... oT Tay of Poniamo quindi 0 ay Os t ie - = 7 eo oma i i, i ng ~ Mano) iF (8.29) 0 aan ac me +1) O) | : 0 BH 9 mad, Take che indicheremo con A@x = b®), equivalente a quello di partenza. ~ Esempio 3.1 Usiamo i MBG per risolvere il sistema seguente Proseguendo in modo analogo, possiamo ora trasformare il sistema in modo da| pio 3.2 U il MBG per risolvere il guente liminare Vincognita 2» dalle righe 3,...,2. In generale, si otterr’ una suceessione pee eo finita di sistomi ag = bt (AMX = BM) fda + + in = 8 (3.30) (x= bY, 1k Sn, 2 s AMx=b!, 1SkSn, (327) tintin = 8 68 __Capitolo 3._Risoluzione di sistem! lineari con metodi dirett ,_ Tl metodo di climinazione gaussiana (MEG) ela fattorizzazione LU 4g che ammette come soluzione x=(1, 1, 1)7- Al primo passo costruiamno i moltiplicat ino = 1/2. msi = 1/3 ¢ sottriano alla Seconda e terza riga del sistema la pring moltiplicata eispettivamente per ma. e pet mai. Otteniamo il sistema equivalence Nonostante cid, il MEG applicato ad essa si arresta al secondo passo, trovando Be A Servono dunque condizioni pit restrittive su A. Vedremo nella Sezione 3.3.1 che at ia +t ds =o og yen : i ei minori prineipali dominanti dy di A sono diversi dn zeto, con i= 1,-..4n~ 1, (A@x = b®) v4 + are + allora i corrispondenti elementi pivotali a?) devono essere necessariamente non 0+ bm + fs = & Ili, Ricordiamo che dy # il determinante di A,, P-esima sottomalrice prineipale castituita dalle prime i righe ed i colonne di A. La matrice dellesempio precedente ron verificava infatti questa condizione, essendo d; = 1, ma d; = 0. Bxistono tuttavia delle classi di matrici per le quali sicuramente il MEG pud es- Se infine sottraiamo alla torza viga la seconda, moltiplicata per maz = 1, vtteniamo sistema triangolare superiore ee ee sere sempre eotidotto a termine nella sus forma pid emplice (8.29). Tra di ext, Foordiemo x=0%) 2 04 Bm + de = 2b = Bn oa de 1. te matrici a dominanca diagonale pr righe dal quae possinmo immediatamente riavare