Sei sulla pagina 1di 38

Universit di Roma "La Sapienza" Facolt di Ingegneria

Introduzione alla Teoria dei Circuiti


Appunti dal Corso di Teoria dei Circuiti I per Ingegneria Elettronica e per Ingegneria delle Telecomunicazioni A.A. 1998-99

Prof. Elio D. Di Claudio

PREFAZIONE La Teoria dei Circuiti, oggetto di questo corso, si occupa essenzialmente della definizione e dell'analisi dei circuiti elettrici, vale a dire della connessione di blocchi (o componenti circuitali) in cui hanno sede fenomeni di natura elettromagnetica (conduzione elettrica, induzione magnetica, accumulo di carica, ecc.). Questi fenomeni sono gi spiegati con grande accuratezza dalla Teoria dei Campi elettromagnetici, che basata sulle equazioni di Maxwell ed valida fino a distanze molto piccole (inferiori ai 10-15 m) e alle massime frequenze d'interesse, come quelle dei raggi gamma. La Teoria dei Circuiti analizza gli stessi fenomeni, ma imponendo, almeno inizialmente, limitazioni piuttosto pesanti sulle frequenze di lavoro e sulla natura dei componenti circuitali (la presenza in un blocco fondamentale di un solo tipo di fenomeno elettromagnetico per volta, la costanza nel tempo delle caratteristiche del blocco, ecc.). Sorge spontanea a questo punto la domanda sull'utilit di introdurre (e studiare) una teoria sin dall'inizio affetta da errori di approssimazione del mondo fisico ben superiori, ed un campo di applicabilit inferiore. Ancora, le teorie della probabilit e dell'informazione suggeriscono che la stessa concezione di un blocco circuitale caratterizzato da relazioni funzionali costanti quasi certamente una idealizzazione eccessiva del mondo reale e dovrebbe essere sostituita da un modello di tipo statistico. Nella stesura di questi appunti ci si sforzati di dimostrare come le obiezioni alla Teoria dei Circuiti possono essere benissimo superate anche da un punto di vista teoretico, oltre che essere giustificate dal punto di vista empirico dai risultati che l'approccio circuitale ha consentito per quel che riguarda la comprensione ed il dominio dei fenomeni elettromagnetici (e non soltanto quelli) da parte dell'ingegneria. Si ripercorreranno in breve nei Capitoli I, II e III le tappe storiche del pensiero filosofico e scientifico che sono risultate determinanti per la creazione del concetto moderno di teoria. Si analizzeranno i passi fondamentali richiesti per la costruzione di una teoria scientifica generica, sottolineando l'importanza della verifica sperimentale dei risultati e, contemporaneamente, delle idee guida o credenze che hanno animato ed animano tuttora la migliore ricerca mondiale. Il termine credenza non deve trarre in inganno ed essere interpretato dal lettore nel senso negativo che comunemente gli si attribuisce. La credenza nel vocabolario filosofico rappresenta una idea guida (o un atteggiamento mentale) che viene costantemente seguita nel corso di uno sviluppo teorico per scegliere la rappresentazione matematica (modello) globalmente migliore fra pi alternative, tutte formalmente e fisicamente plausibili. Nella scienza e nella tecnica i modelli vengono sempre formalizzati nel linguaggio unificatore della matematica. La costruzione di una teoria scientifica richiede la definizione accurata di ipotesi di lavoro, assiomi ed obiettivi (risultati attesi). Lo stesso obiettivo pu essere spesso conseguito adottando pi metodologie, caratterizzate da gradi differenti di complessit ed accuratezza. Vincoli di tempo e di costo impongono di selezionare gli approcci metodologici pi efficienti alla soluzione dei problemi, cio quelli che di solito raggiungono gli obiettivi prefissati con maggiore rapidit, eleganza, fecondit e flessibilit, in modo da ridurre la mole del bagaglio di conoscenze da padroneggiare ed insegnare. Un metodo di indagine diventa una credenza della ricerca scientifica e tecnologica quando dimostra la propria validit in svariati campi di applicazione. La credenza circuitale si affermata proprio perch permette di padroneggiare con un formalismo matematico semplice,

ma potente, fenomeni diversissimi che coesistono frequentemente nel medesimo sistema fisico. C' da rimarcare che il fatto in s di aver perseguito una credenza durante lo sviluppo di una teoria non pu mai inficiarne la validit scientifica, semplicemente perch la correttezza delle conclusioni va sempre verificata per mezzo di una procedura sperimentale indipendente, tenendo nel debito conto linfluenza del rumore e degli errori sistematici di misura. Verr messo in evidenza come ladozione di moderni approcci statistici o probabilistici al modellamento dei sistemi fisici complessi praticamente impone di sviluppare modelli semplici e caratterizzati da pochi parametri significativi e, nei limiti del possibile, largamente indipendenti luno dallaltro (in senso statistico). In particolare, la scelta ottimale della parametrizzazione dipende pesantemente da considerazioni matematiche e statistiche (analisi di sensibilit e di indipendenza), cos che in moltissimi casi i parametri selezionati non conservano pi alcun legame diretto con le singole grandezze fisiche originarie. I modelli differenziali, le condizioni al contorno e le relazioni costitutive basate su funzioni continue del punto, che si incontrano spesso nei testi della fisica di base, sebbene restino indispensabili per comprendere la natura dei fenomeni e per stabilire le propriet delle soluzioni in casi elementari, quasi sempre non forniscono risposte sufficientemente precise, computazionalmente efficienti e statisticamente robuste ai problemi complessi posti dallingegneria. Al contrario, i modelli circuitali, che si basano sullinterconnessione di blocchi elementari ed idealizzati, caratterizzati da pochi parametri liberi, esibiscono per costruzione una struttura matematica assai snella, efficiente e statisticamente robusta, idonea per sviluppare applicazioni pratiche di grande complessit in tempi ragionevoli. Come esempio classico del modellamento circuitale, nei Capitoli IV, V e VI si deriveranno dei risultati intermedi della Teoria dei Campi, relativamente non informativi, che diventano gli assiomi fondamentali per la trattazione delle reti elettriche a costanti concentrate, cio le leggi di Kirchhoff e la definizione della potenza elettrica. Infine le equazioni costitutive dei componenti elettrici classici, che permettono di chiudere il sistema risolvente, verranno derivate direttamente dalle equazioni di Maxwell, per mezzo di un processo di separazione ideale delle componenti del campo elettromagnetico, di approssimazione locale delle soluzioni e di una assunzione di robustezza rispetto alle condizioni iniziali e al contorno. La validit del procedimento deve essere chiaramente giustificata dalle propriet della soluzione delle equazioni del campo e verificata sperimentalmente, tenendo conto dei limiti di precisione desiderati o realizzabili. Nellambito di validit della teoria verranno definite delle opportune grandezze invarianti (tensione e corrente), caratterizzate da una propriet di robustezza qualitativa rispetto alle distribuzioni del campo, conferita dalla natura integrale delle formule di definizione. Sar sottolineato come la formulazione di un modello circuitale risulta praticamente indispensabile per realizzare programmi per l'analisi ed il progetto automatico di dispositivi e, soprattutto, per ottimizzare il progetto ingegneristico, in presenza di vincoli di costo, di tempo e di verificabilit sperimentale. Si accenner anche alla progressiva evoluzione in atto nella Teoria dei Circuiti, che sta spostando linteresse dai modelli caratterizzati da un grafo non orientato, tipici delle reti elettriche classiche e dei sistemi acustici e meccanici, verso i circuiti unidirezionali, oggi ampiamente usati per descrivere una straordinaria variet di sistemi fisici ed economici. Questi nuovi modelli evidenziano le relazioni causa-effetto fra i fenomeni in gioco e risultano facilmente formalizzabili in programmi di simulazione numerica sul calcolatore.

I. TAPPE EVOLUTIVE DELLA CONOSCENZA SCIENTIFICA NELLA STORIA Il problema della fondazione logica della conoscenza scientifica (epistemologia) ha arrovellato i filosofi fin dall'antichit. Il nodo centrale dell'epistemologia quello di affermare la validit di una conoscenza scientifica, analizzando la correttezza dei processi empirici e mentali che sono stati seguiti per la sua formulazione. Risulta, infatti, tutt'altro che semplice distinguere proposizioni che hanno un valore scientifico e universale da altre che ne sono prive, pur essendo comunemente accettate nel loro contenuto di verit. Le origini del pensiero scientifico possono essere fatte risalire ad Aristotele (384 a.C. - 322 a.C.), che per primo si preoccup di superare l'astrattezza e la trascendenza della speculazione contemporanea, per legarla concretamente con l'esperienza. La logica aristotelica, raccolta nell'Organon, fondata sui concetti di proposizione, che lega un soggetto ad un predicato, e di sillogismo, un ragionamento che collega due proposizioni o premesse in modo da generare in maniera non equivoca una terza proposizione, opera del pensiero umano, che amplia cos la propria conoscenza. Il predicato di ciascuna proposizione ha la funzione di affermare o di negare qualcosa del soggetto [1], [2]. Il sillogismo affermativo, l'unico che Aristotele afferma essere scientifico ed universale, usa una regola di inferenza di tipo transitivo (modus ponens) che collega un soggetto ed un predicato globali, inserendo un terzo termine che funge da mediatore fra i due: a) prima proposizione o premessa: Ogni A (soggetto globale) B (predicato di A); b) seconda proposizione o premessa: Ogni B (ora soggetto) C (predicato di B); c) conclusione: Ogni A C (predicato globale di A).

Prima premessa

Conclusione

Seconda premessa

Figura 1: Schema di sillogismo aristotelico

Esempio: Il Boeing 747 un aereo (prima premessa).

Un aereo in grado di volare (seconda premessa). Il Boeing 747 in grado di volare (conclusione).1 Si notano in questo esempio alcuni tratti fondamentali del ragionamento scientifico aristotelico, che sono stati recepiti dalla moderna epistemologia: a) la conclusione esplicita la conoscenza intrinseca in ciascuna delle due premesse. Tuttavia si pu sostenere che la estenda anche (come la soluzione di un problema fisico particolare migliora la comprensione delle leggi fondamentali impiegate per descriverlo); b) la conclusione non richiede l'aggiunta di altre proposizioni oltre alle premesse per essere raggiunta [2]. Pertanto il sillogismo un ragionamento di tipo deduttivo o apodittico; c) in particolare, le premesse devono essere universali e compatibili, ovvero devono soddisfare i principi di non contraddizione e di terzo escluso (per esempio, non devono esistere aerei che non possano volare...). d) in certi casi il concetto contenuto nelle premesse potrebbe essere sostituito da opportuni elenchi (aereo {Douglas DC 9, Lockeed F 104,..., Boeing 747,...}), ma questa idea assai opinabile, dal momento che luniversalit delle premesse ne potrebbe risultare compromessa. Per esempio, larrivo di un nuovo modello di velivolo2,3, richiederebbe una modifica allelenco, che dovrebbe essere garantita da una sorta di certificazione esterna (la cui validit andrebbe a sua volta dimostrata...); e) la deduzione in s non contiene quasi mai gli elementi sufficienti per asserire la validit delle premesse [2]. La verit di un sillogismo logicamente corretto pu essere, invece, asserita dalla verifica empirica della conclusione, cio una conclusione vera pu discendere da premesse false. Se questa considerazione non tranquillizzante per la ricerca teorica, apre la strada a ragionamenti deduttivi, in cui luniversalit e/o la non contradditoriet delle premesse venga temporaneamente rilasciata, al fine di ottenere rapidamente risultati, la cui validit generale pu essere accertata empiricamente o per convergenza con ragionamenti di tipo diverso. f) il processo di deduzione mediante il sillogismo, non potendo essere risalito indietro all'infinito, richiede comunque la definizione di un principio primo indimostrabile (assioma nella terminologia corrente), da giustificare mediante argomentazioni induttive (anapodittiche). In particolare, i punti (b), (d) ed (e) evidenziano il problema fondamentale della ricerca odierna, che chiamata ad elaborare continuamente nuovi concetti, a sottoporli a verifica sperimentale e ad inquadrarli (formalizzarli) nella conoscenza precedente, allo scopo di usarli pi efficacemente o di disseminarli mediante le pubblicazioni o l'insegnamento.

Il ruolo e l'ordine delle premesse sono intercambiabili, cio i sillogismi (A=>B), (B=>C), (A=>C) e (B=>C), (A=>B), (A=>C) sono equivalenti [2]. 2 Le conseguenze pratiche di queste posizioni filosofiche non sono irrilevanti: negli anni Ottanta un aereo civile fu abbattuto perch la sua sagoma non era stata inclusa nella base dei dati di un riconoscitore basato sullintelligenza artificiale, sebbene le sue caratteristiche geometriche e di volo fossero state correttamente identificate dai sensori. Daltra parte, sono note le acrobazie semantiche usate in ambito legale per evitare che un manufatto venga incluso in una categoria commerciale codificata da regole universali, ma fiscalmente penalizzata. 3 La definizione mediante regole di solito preferibile, secondo la Teoria dellInformazione, a quella mediante tabelle memorizzate, perch impiega meno risorse e facilita lestensione e lunificazione dei concetti (generalizzazione) [11]. Tale conclusione allineata con il senso comune: uno studente rapido ed efficace nella soluzione di nuovi problemi generalmente pi apprezzato di uno studente sgobbone, ma poco creativo e flessibile!

Pi sillogismi vengono collegati deduttivamente, in modo che la conclusione di uno divenga la premessa per il successivo e creando una nuova teoria. L'insieme di tutte le conclusioni a cui si perviene partendo dagli assiomi fondamentali costituisce la base dei risultati della teoria, oggetto della verifica epistemologica. Nell'era contemporanea le conoscenze scientifiche vengono organizzate in teorie complesse, la cui struttura rimane sempre di tipo deduttivo e le cui proposizioni sono denominate comunemente teoremi. Pertanto, risulta possibile in generale formulare la seguente: Definizione: Una teoria una architettura di proposizioni, derivate da un insieme finito di assiomi indimostrabili mediante ragionamenti di tipo deduttivo, i quali usano regole di inferenza, la cui validit universalmente riconosciuta. Questa definizione di teoria coincide praticamente con quella formulata per la matematica da David Hilbert (Knigsberg, 1862 - Gottinga, 1943) negli anni 1922-1939 e sintetizzata nell'opera Fondamenti della Matematica [3]. Secondo Hilbert, l'obiettivo di una teoria proprio il raggiungimento di una trama di proposizioni intrinsecamente immuni da contraddizioni interne e dedotte da un insieme di assiomi o postulati, proposizioni fondamentali che non possibile derivare da altre mediante manipolazioni algebriche o logiche. La teoria viene formalizzata, una volta che sono state completamente definite le regole logiche impiegabili per le dimostrazioni. Le giustificazioni addotte durante la fase di assiomatizzazione non hanno valore ai fini della validazione della teoria, un po' come nella logica aristotelica. La validit della teoria viene dimostrata dall'assenza di contraddizioni fra le conseguenze deducibili dagli assiomi fondamentali, senza pi alcun legame con il mondo empirico. Proposizioni non deducibili dagli assiomi fondamentali, se pur fisicamente vere, non possono essere inserite nella teoria, se non come assiomi supplementari.

Assiomi

Concetti Intermedi

Risultati

Figura 2: architettura di una teoria

La concezione assiomatica ha pesantemente influenzato i recenti sviluppi dell'Informatica, della Teoria della Probabilit [4] e della Teoria dell'Informazione ed penetrata anche nella Teoria dei Circuiti e nella Teoria dei Segnali, specialmente ad opera delle scuole anglosassoni.
6

Sebbene si sia dimostrata (Gdel, 1931) l'impossibilit di costruire una teoria assiomatica completamente formalizzata, in cui ogni proposizione (compresi gli assiomi) sia deducibile dal sistema stesso, la posizione hilbertiana stata di una certa utilit anche nella fisica, dal momento che una formalizzazione spinta ha spesso avvicinato l'architettura di teorie inizialmente molto distanti (gravitazione, elettromagnetismo, interazioni nucleari forti e deboli), favorendone in molti casi l'unificazione, almeno a livello formale.

II. LA DEFINIZIONE DEGLI OBIETTIVI DI UNA TEORIA I limiti della teoria hilbertiana balzano palesi quando la formalizzazione riguarda una teoria fisica o una teoria ad hoc costruita per scopi di applicazione pratica. Nella matematica pura si pu giudicare la verit o la falsit di ciascuna affermazione sulla base di una verifica formale della dimostrazione, ripercorrendo tutti i passi logici e, ove il caso, ricontrollando tutti i calcoli. Nella fisica, invece, una teoria bellissima e perfettamente consistente pu essere benissimo falsa perch nasce da assiomi ed ipotesi collaterali non realistiche, che generano alla fine risultati che non superano la verifica sperimentale. L'ingegneria mira a definire procedure operative o algoritmi per manipolare entit reali (materiali, segnali, campi elettromagnetici, denaro) a scopo di progettazione, costruzione, previsione, pianificazione, misurazione. Le teorie ingegneristiche non hanno nulla da invidiare a quelle puramente matematiche per quanto riguarda la complessit, la difficolt ed il rigore dello sviluppo. Piuttosto la necessaria aderenza alla realt fisica, la incertezza di ogni misurazione, insieme all'obiettivo primario ed irrinunciabile della manipolabilit pratica dei risultati teorici in tempi relativamente brevi costituiscono formidabili ostacoli per una stabile formalizzazione. Fare affidamento su una formalizzazione matematica spinta pu essere addirittura controproducente nell'ingegneria, perch si possono creare ambiguit e distorsioni nel fine stesso della ricerca, non rilevabili da un punto di vista logico, come appare dai due esempi che seguono: Esempio 1: Due teorie perfettamente formalizzate approssimano la stessa funzione f(x,t) della variabile spaziale x e del tempo t. Viene fornita una tabella {f(xk,tl), k=1, 2,..., K, l=1, 2 ..., L} di valori della funzione calcolata sull'insieme di K*L punti dello spazio-tempo {(xk,tl), k=1, 2,..., K, l=1, 2 ..., L }. La prima teoria interpreta la funzione f(x,t) come soluzione dellequazione differenziale alle derivate parziali del tipo: 2f ( x,t ) 2f( x,t ) . = 2 x 2 t 2 (E1.1)

La seconda teoria approssima la funzione su un intervallo dello spazio-tempo mediante una serie doppia troncata di funzioni del tempo {gj(t), j=-,..., +} e dello spazio {hi(x), i=-,..., +} rispettivamente: f ( x ,t )

i = M j = N

h ( x )g
i

(t ).

(E1.2)

La prima teoria assai pi complicata e numericamente instabile se programmata su un calcolatore elettronico, ma ci fornisce numerose informazioni sulla natura del sistema. La seconda risulta pi accurata ed efficiente dal punto di vista computazionale, ma capace solo di fornire una generica descrizione funzionale del sistema. Non esiste motivo per preferire dal punto di vista logico una teoria rispetto all'altra se non sono specificati le ragioni che ne hanno determinato lo sviluppo. Infatti, le argomentazioni sulla differente utilit pratica o didattica hanno un valore puramente soggettivo e non hanno significato per la validit logico-matematica della teoria. Esempio 2: Una formula matematica collega la lunghezza dell'ombra proiettata da una torre con la posizione istantanea del Sole e l'altezza della torre stessa [5]. E' possibile costruire a partire da questa formula una teoria formalizzata che assume note l'altezza della torre e la posizione del Sole per calcolare la lunghezza dell'ombra, ma anche una teoria che permette di calcolare la posizione del Sole in funzione della lunghezza dell'ombra e dell'altezza della torre. Senza la definizione a priori dell'obiettivo del calcolo non esiste alcun metodo formale per accettare una teoria e rigettare l'altra. Da queste considerazioni si evince come la formalizzazione logico-matematica di una teoria non sia sufficiente a garantirne la correttezza sostanziale e l'utilizzabilit. Bisogna in qualche modo introdurre ulteriori controlli sulla validit sperimentale degli assiomi e delle ipotesi di lavoro, precisare il contesto dell'analisi e specificarne gli obiettivi. La costruzione di teorie svincolate dall'esperienza e la cui formalizzazione ostacola l'individuazione della ragion d'essere degli sviluppi stessi, riconosciuto dai moderni epistemologi come uno dei maggiori pericoli insiti nei metodi attuali di ricerca [4], [6], [7].

III. CONSIDERAZIONI SULLO SVILUPPO DELLE TEORIE NELL'INGEGNERIA

NELLE SCIENZE FISICHE E

La sequenza temporale dei passi logici compiuti nella costruzione di una teoria in ambito tecnico-scientifico non trova riscontro, di solito, nelle modalit con cui la stessa teoria verr presentata in un congresso o in un'aula didattica. L'applicazione pratica della stessa teoria seguir prassi ancora diverse, ma tutte perfettamente spiegabili alla luce delle propriet della formalizzazione matematica. Bisogna innanzitutto avere ben chiaro che una teoria non nasce per caso, ma spinta da bisogni diffusi (o anche, talvolta, da motivazioni personali) ed soggetta al livello generale della conoscenza tecnico-scientifica del momento. Lo sviluppo della fisica tende storicamente ad unificare teorie separate, inserendole in un'architettura logico-matematica comune. L'obiettivo quello di descrivere i fenomeni naturali con la massima compattezza delle equazioni per una data precisione. L'intuizione, il semplice desiderio di perfezione, la sintesi di dati sperimentali e l'introduzione di nuovi strumenti di indagine (il telescopio, il calcolatore, il satellite artificiale, ma anche il calcolo differenziale e variazionale, la teoria della probabilit e dell'informazione) consentono ad un certo momento storico di scoprire una nuova legge fisica, che, formalizzata in un sistema di equazioni, diviene l'assioma per la costruzione di una teoria [7]. La deduzione matematica definisce il contesto ed i risultati attesi per le prove sperimentali, a cui sole spetta il compito di validare la teoria.

Esempi storici esemplari di questo processo sono stati la teoria della gravitazione di Isaac Newton (1642-1727) [8], la teoria delle interazioni elettromagnetiche di James Clerk Maxwell (1831-1879) [9], la teoria della relativit di Albert Einstein (1879-1955), la teoria dei quanti di Planck, Heisenberg ed altri, [10], e le recenti teorie di Grande Unificazione. Al contrario della fisica, le teorie usate nell'ingegneria tendono invece a diventare sempre pi specializzate nel tempo, pur usando strumenti metodologici comuni, a causa di vincoli tecnici, economici e culturali, quali: a) la necessit di ripartire il lavoro industriale su pi persone contemporaneamente (parcellizzazione o taylorizzazione), per fronteggiare la mole di lavoro necessaria per i grossi progetti, in modo che ciascun tecnico possa concentrare l'attenzione ed essere responsabilizzato su pochi aspetti del sistema per volta; b) l'esigenza di ridurre i costi e i tempi di formazione del personale: il processo di apprendimento sar tanto pi rapido quanto pi la conoscenza mirata. Inoltre chiaramente pi facile ottenere una elevata qualificazione in un settore ristretto di attivit; c) l'obiettivo di standardizzare le procedure: la specializzazione assicura una grande prevedibilit dei risultati, dal momento che il medesimo gruppo di persone si occuper delle stesse parti (circuiti elettronici, antenne, meccanica, alimentazione di potenza, compatibilit elettromagnetica, ecc...) in diversi progetti consecutivi, affinando la propria esperienza. In pi, una formalizzazione matematica comune permette lo sviluppo di importanti strumenti di moltiplicazione di forza (programmi CAD per matematica come Matlab, per esempio), la cui qualit pu essere garantita dal controllo continuo imposto dallimpiego simultaneo presso numerosi utilizzatori, che possono concentrarsi pi facilmente sulla soluzione dei problemi specialistici. Le teorie dell'ingegneria definiscono spesso i propri assiomi a partire da risultati particolari delle leggi fisiche fondamentali per mezzo di un processo matematico di approssimazione locale (espansione in serie di potenze, integrazione rettangolare, linearizzazione...), oppure di estrapolazione al limite (formulazione di ipotesi come lassenza di rumore termico, le costanti circuitali concentrate, luniformit della qualit dei beni immessi sul mercato...). Lo sviluppo deduttivo delle teoria avviene quindi sulla base delle propriet formali di queste soluzioni particolari, senza pi alcun riferimento esplicito alla realt fisica originaria4. Lestensione del campo di validit di una teoria specializzata risulta quindi legata alla bont fisica delle assunzioni e a quella matematico-statistica delle approssimazioni messe in atto, la cui scelta presenta di solito un buon margine di discrezionalit. Tuttavia, il rigore dello sviluppo matematico formale (dimostrazioni di convergenza, regolarit, chiusura) spesso una buona garanzia per la validit sperimentale e lestendibilit dei risultati. III. 1 Le credenze. La derivazione della teoria soggiace non solo alle regole logico-matematiche sopra accennate, ma anche a criteri (credenze) [6] indotti dalla esperienza soggettiva dei ricercatori o imposti dai vincoli tecnologici e operativi. Queste idee-guida non hanno certo valore universale, ma sono un utile strumento per definire gli obiettivi e giudicare dell'applicabilit della teoria. Ricordiamo, fra i criteri che hanno dimostrato un grande valore per gli sviluppi tecnicoscientifici contemporanei:

Per esempio, nella Teoria dei Circuiti elettrici si studiano le propriet dei grafi, delle funzioni di trasferimento razionali, la sensibilit e la chiusura dei sistemi di equazioni ai tagli fondamentali, ma ci si preoccupa ben poco dei problemi termodinamici e della soluzione unica delle equazioni di Maxwell, che data per scontata.

a) la minimizzazione della lunghezza di descrizione (o di codice) della teoria, che sar tanto pi comprensibile e disseminabile quanto ridotto il numero di assiomi e teoremi necessari per giungere alle conclusioni [11]; b) la minimizzazione del supporto matematico e dei contributi di altre teorie per la derivazione dei risultati (teorie self-contained), per semplificarne l'apprendimento e l'impiego; c) la minimizzazione della profondit logica: dagli assiomi si derivano dei teoremi, che di solito non generano risultati utilizzabili direttamente, se non attraverso ulteriori elaborazioni. Le difficolt di costruire, verificare e di disseminare la teoria crescono esponenzialmente con i livelli gerarchici di teoremi necessari per giungere alle conclusioni5. Queste considerazioni spingono alla costruzione di teorie specialistiche, che usano come assiomi dei concetti intermedi, ovvero dei risultati particolari di una teoria pi generale, che per pu essere benissimo ignorata negli sviluppi matematici, nella formazione e nell'applicazione6. d) la massimizzazione della robustezza: i risultati della teoria devono soddisfare la verifica sperimentale entro limiti dello stesso ordine di grandezza rispetto alle approssimazioni originarie, per evitare errori catastrofici causati dalla precisione finita dei calcoli progettuali e dalle tolleranze delle lavorazioni; e) la generalizzazione: una teoria pu spiegare i risultati di varie teorie ad hoc gi esistenti, inserendoli in una nuova struttura matematica logicamente coerente. Gli assiomi delle teorie particolari divengono tesi di teoremi nella teoria generale; f) la cross-fertilizzazione: i concetti intermedi e i metodi matematici usati nella derivazione di una teoria vengono trasferiti in un'altra teoria preesistente, riducendone la complessit a vantaggio dell'eleganza e della concisione. Osservazione: Come si pu intuire, alcune delle idee-guida qui esposte possono essere reciprocamente in contraddizione. Per esempio, la generalizzazione non sempre riduce la complessit rispetto all'insieme delle teorie specialistiche o pu riguardare campi troppo lontani per essere di qualche utilit pratica7. Lo stesso pu dirsi per la cross-fertilizzazione, oggi una vera moda nella letteratura, che viene giustificata dalla nascita di nuovi strumenti di indagine, come il calcolatore elettronico, che traggono vantaggio da una impostazione matematica comune. III.2 I modelli matematici standard. Una abitudine attualmente molto diffusa nella letteratura tecnico-scientifica quello di costruire modelli matematici standard per l'analisi di un certo problema. Il modello consiste in un sistema di equazioni, che ha come obiettivo la descrizione o la manipolazione di una classe di sistemi fisici o economici. Le equazioni costituiscono le basi assiomatiche di una teoria, che usa i metodi deduttivi propri della matematica per derivare delle leggi che permettono di descrivere il comportamento del sistema osservato. Questa prassi assai comoda, perch consente di confrontare pi teorie a partire da una base comune e di trascurare le osservazioni empiriche da un certo punto in poi dello studio.
5

Assai spesso la teoria ha lo scopo di inquadrare logicamente dei risultati gi scoperti con l'intuizione ed ampiamente utilizzati nella pratica, conferendo loro un solido fondamento matematico-deduttivo. 6 Esempi banali di questi concetti intermedi sono la funzione di trasferimento di un circuito, i valori attesi delle distribuzioni di variabili aleatorie, il criterio di massima verosimiglianza nella teoria della stima e le librerie di porte logiche usate per la realizzazione di circuiti integrati. 7 Si pu affermare un po' causticamente che l'ingegneria e la ricerca richiedono applicazioni complesse e raffinate di teorie assai specialistiche, mentre la formazione scientifica di solito sviluppa la capacit di ricavare risultati semplici da teorie molto generali ed articolate.

10

In pi, il modello serve per la costruzione di programmi di simulazione automatica, progettazione assistita al calcolatore (CAD) e tecniche di validazione (testing) dei risultati, che sono le basi delle moderne procedure industriali e di ricerca teorica. Nel processo di modellamento si possono distinguere diverse fasi fondamentali: 1. Definizione degli obiettivi del modello matematico; 2. Collezione ed analisi dei risultati degli esperimenti, costruiti sulla base delle ipotesi di lavoro e delle conoscenze scientifiche e tecnologiche del momento; 3. Sintesi dei dati sperimentali, principalmente mediante gli strumenti offerti dalla statistica e dalla matematica applicate (interpolazione, regressione, approssimazione, classificazione, ...); 4. Astrazione del modello: normalmente, numerose formalizzazioni matematiche consentono di spiegare gli esperimenti con un sufficiente grado di accuratezza. Pertanto, ad un certo punto occorre effettuare una selezione competitiva fra i modelli, sulla base di criteri sia oggettivi (complessit matematica del modello, rapporto fra qualit dei risultati e costo della ricerca), sia soggettivi (eleganza matematica, comprensibilit degli sviluppi da parte degli altri ricercatori della stessa disciplina e idoneit a scopi di formazione). Da questa procedura di selezione, a volte condotta da apposite commissioni internazionali, emerge un modello standard, che la maggior parte dei ricercatori user per gli sviluppi successivi; 5. Sviluppo della teoria, cio creazione di un insieme di procedure di calcolo o algoritmi capaci non solo di predire, a partire dalle equazioni del modello standard, i risultati degli esperimenti eseguiti, ma anche di costruirne di nuovi per mettere alla prova la bont del modello; 6. Validazione della teoria attraverso l'esecuzione di nuovi esperimenti per confermarne o no le conclusioni. Se la teoria supera la verifica sperimentale, viene accettata dalla comunit tecnico-scientifica ed entra nella fase successiva di: 7. Raffinamento e disseminazione. La teoria viene riordinata, selezionando gli algoritmi migliori8, inquadrandoli nelle conoscenze precedenti ed inserendoli nei percorsi di formazione. Le ricerche successive saranno rivolte alla semplificazione formale, all'unificazione dei concetti e alla stesura dei manuali, che descrivono le procedure operative per l'applicazione dei risultati teorici.

Creazione assiomi

Deduzione

Teoria formalizzata

Induzione

Validazione

Affinamento

Base sperimentale

Disseminazione Formazione

Figura 3: Processo di formazione di una teoria


8

La proliferazione e la convivenza di molti algoritmi aventi il medesimo obiettivo in generale sintomo di scarsa comprensione delle propriet del modello ed tipica della fase "giovanile" di una teoria.

11

Si pu notare come, a differenza della natura deduttiva della teoria finale, la maggior parte dei passi sopra elencati richiede un approccio di tipo sintetico-induttivo, che fa leva su doti personali dei ricercatori, quali l'intuito, l'esperienza, la sensibilit matematica e formale, insieme alla capacit di organizzare una corretta pianificazione logica, economica e temporale degli sviluppi. La teoria esposta nei manuali una immagine statica e fredda del processo dinamico che l'ha creata e che pu definirsi a ragione come genetico-evolutivo. Le idee nascono a ruota libera sui tavoli dei ricercatori, poi vengono analizzate, discusse, corrette, confrontate sulla letteratura e nell'applicazione industriale. Molti sviluppi scompaiono o perch sono inutilmente complicati, ridondanti e di scarsa utilit pratica, o perch vengono ad un certo punto definitivamente soppiantati da approcci pi raffinati e conclusivi9. III.3 Il problema della verifica sperimentale. Nel corso degli ultimi venti anni in atto in tutto il mondo un profondo ripensamento sui metodi e gli indirizzi della ricerca di base ed applicata, che pongono laccento sulla verifica sperimentale diretta e quantitativa dei risultati analitici ottenuti da modelli complessi. Questo travaglio si concretizzato nella definizione di nuovi strumenti di indagine esploratoria, fra i quali sono particolarmente degni di menzione i concetti di lunghezza di descrizione dei modelli [11] e di robustezza statistica [12]. Essi hanno un fondamento solido nelle teorie della probabilit e dellinformazione, ma sono oggi impiegati in maniera euristica per indagare due problemi assai spinosi della ricerca attuale: la cosiddetta maledizione della dimensionalit, (curse of dimensionality) che si manifesta al progredire della conoscenza scientifica, e la selezione ottima dei modelli matematici, fra pi alternative possibili. Entrambe le questioni sono collegate alla possibilit di una efficace verifica sperimentale dei risultati teorici. Normalmente il progresso scientifico accompagnato dallinclusione formale di nuovi termini nelle equazioni, che inevitabilmente ne accrescono la complessit, intesa come numero di parametri indipendentemente specificabili. La verifica sperimentale riguarda inizialmente sistemi assai semplici (toy problems), su cui possibile: a) ricavare la soluzione delle equazioni del modello per via analitica o comunque con elevata precisione matematicamente garantita; b) ripetere in condizioni controllate lesperimento fino a raggiungere il livello voluto di confidenza statistica. Una nuova teoria soppianta quelle precedenti quando dimostra di poterne correggere meglio gli errori sperimentali. Questo progresso trova un limite nella realizzabilit di un sistema di prova realmente affidabile (costi elevati, tempi della sperimentazione, eccessive energie in gioco, emissione di radiazioni pericolose, limiti dei sensori, conoscenza imprecisa delle equazioni costitutive, deviazioni delle distribuzioni dei dati da quelle assunte, complessit del progetto, errori di arrotondamento nei calcoli, microinstabilit ed invecchiamento dei componenti del sistema). Inevitabilmente il numero degli esperimenti che possibile eseguire in condizioni controllate e ripetibili risulta limitato superiormente [14] e gli errori di previsione vanno attribuiti in parte allinadeguatezza del modello matematico, in parte agli errori nel calcolo della soluzione matematica ed in parte alla imprecisione delle misure e al trattamento statistico dei dati sperimentali. In molti casi di interesse, possibile definire formalmente una lunghezza di descrizione del modello (DL, Description Length), la quale cresce linearmente con il numero dei parametri
9

L'utilit operativa della teoria si intravede di solito solo al termine di lunghi sviluppi matematici, quando, invece, stata la motivazione e l'obiettivo di tutta la costruzione.

12

indipendenti [11] presenti nelle equazioni. Gli errori congiunti delle misure e dei calcoli accrescono anchessi la lunghezza di descrizione, proporzionalmente alla propria varianza. Il miglioramento del modello, evidenziato dalla riduzione statistica degli scostamenti fra previsioni e misure, e la crescita del numero di osservazioni impiegabili per la validazione accorciano, ovviamente, la lunghezza di descrizione stessa. Secondo il concetto MDL (Minimum Description Length) [11] o altri similari, oggi molto in voga (lAIC o criterio di Akaike, il rasoio di Occam), il modello ottimo quello che minimizza la lunghezza totale di descrizione, ovvero quello che in grado di stabilire il migliore compromesso statistico fra complessit a priori del modello (numero dei parametri liberi) e qualit delle previsioni a posteriori. Lintroduzione di questi criteri di ottimalit nella ricerca scientifica rappresenta indubbiamente una credenza, a dispetto della impostazione teorico-deduttiva rigorosa, ma sta portando ad un profondo ripensamento sulle metodologie di conduzione della ricerca e, soprattutto, di valutazione dei risultati scientifici. La ricerca di base classica puntava alleliminazione delle discrepanze sistematiche fra risultati teorici ed esperimenti, ovvero, in termini statistici, ad una riduzione della polarizzazione del modello [14]. I modelli pi elaborati riducono quasi sempre la polarizzazione rispetto a quelli pi semplici. Nel criterio MDL laccento invece posto sulla varianza che possiamo raggiungere durante la misura dei parametri liberi del modello con un numero di osservazioni limitato a priori. In un confronto sperimentale fra due modelli teorici, quello pi semplice potrebbe ottenere un accordo leggermente inferiore fra le previsioni ed i risultati empirici, ma lincertezza complessiva delle misure potrebbe pi che compensare i migliori risultati del modello pi complesso, rendendo di nuovo probabilisticamente incerto lesito della competizione [11]! Nella pratica, introducendo queste considerazioni probabilistiche, il modello pi semplice finisce sempre per prevalere, a meno che non sia palesemente inferiore nella qualit delle previsioni rispetto a quello pi complesso. Si pu anche osservare, a sostegno della validit del concetto MDL, che le teorie fisiche si sono evolute fino ad oggi nel sostanziale rispetto del principio di minima lunghezza di descrizione. Il problema della complessit ed il vincolo della finitezza dei campioni sperimentali ancor pi sentito nellingegneria, per svariati motivi: a) lo sviluppo dei nuovi prodotti, delle problematiche teoriche e delle procedure di collaudo procedono parallelamente, spesso con una ridotta base di conoscenze alle spalle; b) i prodotti stessi dellingegneria tendono a diventare tremendamente complessi, ed una spiegazione teorica completa del loro funzionamento a partire dalle leggi fisiche fondamentali ragionevolmente impossibile (e probabilmente fuorviante rispetto agli obiettivi), comunque imponenti siano le risorse umane e finanziarie devolute allo scopo; c) la funzionalit del prodotto e deve rimanere lobiettivo prioritario: tanto per fare un esempio, lo studio della meccanica quantistica ha permesso grandi miglioramenti nei componenti elementari ottici ed elettronici, ma fuor di luogo pensare di analizzare, costruire ed ottimizzare con questa teoria un microprocessore con cinque milioni di transistor, il cui compito , peraltro, quello di eseguire calcoli logici e aritmetici; d) molti prodotti avanzati dellingegneria operano in ambienti ostili e largamente ignoti a priori. Spesso possiedono dispositivi atti a modificare il proprio funzionamento per reagire alle sollecitazioni ambientali, dipendenti dai pochi dati acquisiti forzatamente entro un breve lasso di tempo da un insieme di sensori. Un modello matematico con pochi

13

parametri significativi diventa in questi casi un prerequisito per laffidabilit operativa, dal momento che questi potranno essere stimati con unincertezza adeguatamente ridotta (la varianza complessiva degli errori di previsione determinata approssimativamente dal rapporto fra il numero totale dei parametri e quello delle osservazioni sperimentali). A questo proposito, bisogna anche ricordare che le equazioni definite su un dominio continuo hanno un numero infinito di parametri liberi, creando problemi non facilmente risolvibili durante lanalisi di complessit. Gli anni Novanta hanno segnato una rivoluzione nel progresso tecnologico, che pone in evidenza i compromessi fra costi e benefici e lottimizzazione di ogni aspetto tecnico ed economico. In questo ambito la produzione industriale ad alta tecnologia pone obiettivi ben definiti alla ricerca di base: a) disseminazione del patrimonio delle conoscenze, selezionate sulla base dellintensit della loro applicazione e delleffetto positivo sulla sensibilit progettuale dei lavoratori (eliminazione di errori sistematici, rapidit di sviluppo); b) isolamento ed impostazione teoricamente corretta dei problemi di progetto; c) sviluppo di modelli matematici atti a renderne possibile la soluzione: particolare cura va dedicata alla messa a punto di programmi simulatori e delle tecniche di ottimizzazione numerica per la progettazione assistita da calcolatore; d) estrapolazione dal modello teorico, dai risultati delle simulazioni e dalle prove sperimentali delle direzioni di possibile miglioramento delle prestazioni, insieme alla definizione dei limiti fisici di questo progresso10.

IV. L'APPROCCIO CIRCUITALE Quello di circuito un concetto primitivo, indipendente dalla natura dei sistemi elettrici, e deriva piuttosto dalla naturale tendenza della mente umana a decomporre i grandi problemi in tanti sottoproblemi pi piccoli per padroneggiarli meglio. L'idea circuitale appartiene dunque alla classe di quelle che abbiamo definito credenze della ricerca scientifica ed caratterizzata dall'approccio geometrico-deterministico all'analisi dei fenomeni fisici e al loro confinamento all'interno di blocchi sigillati matematicamente e specializzati per funzione. I blocchi sono poi virtualmente interconnessi in modo da creare modelli di sistemi complessi. Come tutte le altre credenze, l'approccio circuitale deve essere giudicato esclusivamente valutando i risultati tecnici, economici e formativi che ha prodotto nella ricerca di base e nell'ingegneria. Osservare un circuito elettrico realizzato industrialmente forse la maniera migliore per comprenderne la natura. Su una piastra di circuito stampato estratta, per esempio, da un televisore si notano tanti blocchetti (componenti), collegati fra di loro da sottili fili di rame (piste), depositati su un supporto (substrato) di fibra di vetro o di altro materiale isolante. In generale, l'idea del circuito pu essere sintetizzata nella seguente: Definizione: Un circuito la connessione di blocchi, appartenenti a pochi tipi fondamentali, ognuno dei quali caratterizzato da equazioni dipendenti da un numero finito di costanti numeriche consistentemente misurabili (dette anche parametri circuitali).

Lo scopo di questa richiesta non certamente linteresse scientifico, ma la necessit di evitare investimenti senza ritorno, pur mantenendo la competitivit tecnico-economica del prodotto.

10

14

Ciascuno dei concetti presenti in questa definizione possiede una precisa formalizzazione matematica. Infatti, durante lo sviluppo della Teoria dei Circuiti bisogna sempre ricordare che un circuito non coincide con un sistema fisico, ma la sua rappresentazione sotto forma di modello matematico. Le componenti fondamentali di un modello circuitale sono quindi i blocchi funzionali e la rete di interconnessione, descritta da un apposito grafo. IV.1 Il blocco circuitale Il blocco circuitale modella matematicamente un sistema aperto a scambi energetici. Ogni blocco possiede un certo numero N di terminali o porte, che sono numerati da un indice intero k = 1, 2, ..., N, e sono le uniche vie di passaggio virtuali per i flussi energetici. Su ciascun terminale definito un insieme di opportune variabili di interfaccia Xk = { xik, i=1, 2, ..., Mk }. E' da rimarcare che il numero (Mk) ed il tipo delle variabili di interfaccia possono essere benissimo diverse da terminale a terminale. A scopo di formalizzazione, i valori assunti all'istante t dalle variabili di interfaccia, indicati con mik(xik,t), possono essere ordinati in un vettore g(t) = [ mik(t), i=1,..., Mk, k=1,..., N ]. Le variabili di interfaccia sono collegate fra loro da un sistema di equazioni costitutive del blocco, contenenti un insieme di P parametri circuitali, ordinati nel vettore a = [ aj, j=1, 2, ..., P ]. Le componenti del vettore a sono assunte indipendenti dal tempo (modello permanente o stazionario). Il legame costitutivo del blocco formalmente descritto da una equazione implicita di tipo vettoriale, del tipo: F({g(), - < < t }, a) = 0 11. (1)

Terminale etichettato 1

z - 3*x + 2*y = 0 y - 0.5*x - log z = 0

x
2

z y
Variabile di interfaccia

Figura 4: Blocco circuitale non direzionale

In un modello circuitale, gli effetti dei fenomeni energetici si manifestano esclusivamente attraverso la equazioni costitutive dei blocchi, ma restano quantitativamente indeterminati finch il blocco non viene connesso insieme con altri a formare il circuito.
11

Una definizione formale cos generica ha un significato operativo solo se la storia passata delle variabili dinterfaccia riassumibile in un numero finito di equazioni (ottenute, per esempio, per mezzo di una rappresentazione ricorsiva alle variabili di stato [13]).

15

Esempio 3: Un attuatore elettromeccanico caratterizzato come un blocco circuitale a due terminali. Il primo rappresenta l'ingresso di controllo, che un segnale12 elettrico caratterizzato dalla tensione elettrica v, espressa in Volt, il cui valore funzione dello spostamento angolare 0 che l'attuatore dovr imprimere al suo braccio meccanico. Il secondo terminale ha come grandezza di interfaccia lo spostamento angolare effettivamente compiuto dal braccio meccanico in risposta allo stimolo della tensione di controllo. ovviamente misurato in radianti. Il vettore di interfaccia g : g(t) = [ v(t), (t) ] ; L'equazione costitutiva implicita del blocco la seguente: J d 2 (t) d(t) +B + K( t ) v(t) = 0 ; 2 dt dt (3) (2)

Il vettore dei parametri circuitali del blocco a = [ J B K ]. Questo esempio dimostra alcuni aspetti peculiari del modellamento circuitale, che sono alla base delle sue potenzialit pratiche: a) Il tipo di fenomeni fisici coinvolti nel "blocco attuatore" non ha nessuna influenza sulla rappresentazione circuitale. Qualsiasi sistema, meccanico, pneumatico, elettrico che possegga la stessa equazione costitutiva e le stesse variabili di interfaccia sostituibile all'attuatore originario, senza che la rappresentazione matematica del circuito cambi. b) L'utilizzatore pu quindi tranquillamente ignorare la natura fisica del sottosistema rappresentato dal blocco e rimanere in grado di impiegarlo proficuamente, nellambito di validit delle equazioni costitutive. c) Come conseguenza dei punti precedenti, si pu affermare che l'approccio circuitale indipendente dalla tecnologia e permette di inserire nuovi dispositivi nel modello matematico di sistemi complessi senza stravolgerlo. d) I parametri circuitali appaiono nel modello come costanti. Nella realt essi sono variabili aleatorie [14], caratterizzate da una propria distribuzione: ogni attuatore costruito avr dei parametri [ J B K ] differenti dall'altro. Tuttavia, se la deviazione standard di ciascuna distribuzione ragionevolmente piccola (~10-20%) rispetto al suo valor medio, possiamo usare quest'ultimo come valore nominale del parametro per i calcoli progettuali e recuperare l'aspetto probabilistico della trattazione rigorosa mediante un'analisi locale di sensibilit delle equazioni costitutive13 espanse in serie di Taylor di basso ordine [13]. Questa procedura accelera la progettazione e, soprattutto, consente di distinguere immediatamente (ad occhio) l'influenza degli errori di ciascun parametro sul risultato finale.
12 13

Un segnale la rappresentazione matematico-funzionale di una grandezza fisica rispetto al tempo. I casi di deviazione standard elevata rispetto alla media del parametro oppure di parametri statisticamente dipendenti dall'andamento temporale delle variabili di interfaccia esulano dallo spirito e dalle finalit dell'approccio circuitale e vanno trattati da un punto di vista probabilistico. Tuttavia, modelli aventi queste propriet derivano generalmente da problemi mal posti (ipersensibili), non formalmente chiusi e/o fortemente non lineari (saturazione), quindi di problematica trattabilit ed utilit.

16

e) Una volta note le equazioni costitutive, i parametri circuitali del blocco possono essere in linea di principio caratterizzati o identificati dall'esterno, mediante misure delle sole variabili di interfaccia in opportune situazioni sperimentali. La supposta costanza ed indipendenza statistica delle costanti circuitali rispetto alle variabili di interfaccia assicurano che l'identificazione dei parametri consistente (con incertezza statistica tendente a zero all'aumentare del numero delle misure verso l'infinito) [14]. IV.2 Il grafo La seconda componente caratteristica della rappresentazione circuitale la connessione dei vari blocchi mediante un grafo, ovvero un insieme di tratti di curve (rami), talvolta orientate (archi), definite in un opportuno spazio multidimensionale, che collegano fra loro i terminali (morsetti) dei blocchi circuitali. Ciascun arco impone sempre l'omogeneit (stessa unit di misura) e la continuit (stesso valore) alle variabili di interfaccia in corrispondenza dei terminali dei blocchi collegati ai suoi estremi. Queste propriet restano verificate per ogni istante di tempo (assenza di ritardi o di memoria nella propagazione dell'energia) e generano equazioni di vincolo, una per ciascun arco, che si aggiungono a quelle costitutive dei blocchi interconnessi a formare il sistema risolvente del circuito. Talvolta, per simboleggiare equazioni di continuit di flussi (come, per esempio, la corrente elettrica) si introducono nei grafi i nodi, che sono speciali blocchi a pi di due terminali. A tutti i morsetti del nodo associata una variabile di interfaccia del medesimo tipo del quale si vuole imporre la continuit. L'equazione costitutiva del nodo uguaglia a zero la somma algebrica di queste variabili di interfaccia su tutti i morsetti. A seconda del particolare modello circuitale, i rami del grafo possono imporre altre equazioni di vincolo, oltre alla continuit. In particolare, nel caso dei circuiti elettrici, la presenza di percorsi chiusi formati da un sottoinsieme di archi (maglie) genera equazioni di equilibrio determinate dalla legge di Kirchhoff sulle tensioni [13]. Le equazioni di continuit e di equilibrio, che dipendono solo dalla geometria delle connessioni, ma non dai blocchi funzionali effettivamente presenti, sono dette anche vincoli topologici del circuito. Nota: una condizione indispensabile per la validit del modello circuitale quella che tutti i fenomeni energetici del sistema fra loro correlati siano modellati da opportuni blocchi interconnessi (sorgenti, pozzi e trasformatori di energia). Infatti, il circuito nel suo complesso rappresenta un sistema isolato, per il quale sempre possibile definire un'equazione globale di conservazione dell'energia. Il mancato modellamento di parti del sistema o di flussi energetici esogeni forza in ogni caso, ma in maniera sostanzialmente scorretta, questo principio di conservazione, conducendo ad analisi errate14. Le analisi di sensibilit [13] e di robustezza [12] applicate al modello matematico servono anche a stabilire i margini entro i quali assicurato il mantenimento della funzionalit del sistema fisico in presenza, rispettivamente, di piccole deviazioni rispetto alle assunzioni del modello e di errori grossolani in alcuni parametri circuitali (guadagno in corrente dei transistor BJT nei circuiti elettronici, per esempio).

E' chiaramente impossibile, per motivi sia teorici, sia pratici, rispettare alla lettera questa prescrizione. Tuttavia un compito fondamentale della ricerca stabilire l'importanza relativa dei vari fenomeni che il modello dovr rappresentare.

14

17

IV.3 Risoluzione o analisi del circuito Le equazioni costitutive e topologiche traducono nel linguaggio universale della matematica i comportamenti di un sistema fisico, che possono essere cos analizzati "a tavolino" o riprodotti al calcolatore (modello simulatore) a scopo di sperimentazione, in tutta comodit, con bassi costi e perdite di tempo. Pi il modello accurato, pi sar facile progettare e costruire manufatti di elevata qualit. Anche le propriet matematiche del modello circuitale possono essere strettamente correlate all'impegno necessario per il progetto e la costruzione e ai relativi costi. Le equazioni topologiche e costitutive, insieme ai vincoli derivanti dalle condizioni iniziali, da quelle al contorno e dagli andamenti imposti da cause esogene ad alcune grandezze di interfaccia, formano il sistema risolvente del circuito. Risolvere un circuito significa calcolare gli andamenti temporali di tutte le variabili di interfaccia. Questo obiettivo possibile solo se il sistema risolvente del circuito ammette una soluzione unica per ogni istante di tempo. IV. 4 La chiusura del sistema risolvente. Nella fisica e nell'elaborazione del segnale, il sistema risolvente generato da un modello circuitale ammette molto spesso infinite soluzioni (sistema indeterminato o sottodeterminato), a causa dell'impossibilit di caratterizzare dall'esterno certi blocchi (presenza di risposte inosservabili oppure non eccitabili). In questo caso, bisogna aggiungere alle equazioni del sistema risolvente altri vincoli derivanti da ipotesi di lavoro plausibili o credenze esogene (regolarit matematica della soluzione, minima varianza, ecc...) per raggiungere l'unicit della soluzione, che va pur sempre validata da un punto di vista sperimentale. Viceversa, gli insiemi di misure sperimentali per la caratterizzazione di un blocco circuitale, essendo affetti da errori casuali, generano certamente sistemi di equazioni incompatibili o sovradeterminati (pi equazioni che incognite). Questi sistemi vanno affrontati con i metodi della ricerca operativa e della statistica (minimi quadrati, massima verosimiglianza, inferenza bayesiana) che esulano dalla trattazione presente. Si incontrano anche sistemi risolventi che sono indeterminati solo in certi istanti dell'analisi. Questi punti, che al pi possono costituire un insieme numerabile sull'intero asse dei tempi, sono detti punti di ramificazione o di biforcazione. L'esperienza porta ad avvertire che queste anomalie matematiche dei sistemi risolventi sono raramente il risultato di errori nel processo di formalizzazione, anzi quasi sempre sono il segnale di mancanza d'informazione (inosservabilit, incompletezza o inadeguatezza delle leggi costitutive) e di comportamenti instabili o ipersensibili dell'oggetto modellato, che sono indesiderabili in qualsiasi realizzazione industriale o predizione economica. IV.5 Circuiti direzionali e non direzionali I modelli circuitali possono essere distinti in due classi fondamentali, a seconda della natura del sistema risolvente e della conseguente tecnica di soluzione: circuiti non direzionali e circuiti (uni-)direzionali. I circuiti non direzionali sono quelli in cui la direzione degli scambi energetici indeterminata e non stabilito alcun rapporto oggettivo di causa-effetto fra le variabili d'interfaccia prima della soluzione del circuito. Il sistema risolvente calcola congiuntamente tutte le variabili di interfaccia, che dipendono significativamente da tutti i blocchi interconnessi. Questa influenza reciproca rende pi onerosa e sensibile la soluzione del sistema stesso e complica la costruzione (sintesi) di un circuito che debba rispondere a specifiche predeterminate. Il blocco riportato in figura 4 di tipo chiaramente non-direzionale. I circuiti non direzionali derivano

18

in genere dal modellamento di campi ondulatori. Le reti elettriche appartengono proprio a questa categoria di circuiti. I circuiti direzionali sono invece quelli in cui stabilita a priori una relazione causa-effetto fra le varie variabili di interfaccia [13]. Per esempio, l'attuatore dell'esempio 3 un blocco direzionale, in cui la tensione di controllo la causa, mentre l'angolo di rotazione del braccio l'effetto prodotto dalla stessa causa. Il funzionamento dei vari blocchi disaccoppiato nei circuiti direzionali, cos che il sistema risolvente pu essere risolto sequenzialmente, dopo aver esplicitato l'equazione costitutiva di ciascun blocco rispetto all'effetto, identificato dal vettore di interfaccia y: y(t) = G(x(), < < t, a) . (4)

La funzione G nell'equazione (4) detta funzione di trasferimento fra le variabili di ingresso x(t) e le variabili d'uscita y(t)15. I circuiti digitali, oggi molto in voga, e le cosiddette reti neurali appartengono tutti alla famiglia dei circuiti direzionali. In particolare, consideriamo la figura 5. Essa rappresenta un circuito, detto rete neurale multistrato (o perceptron), che in origine aveva lo scopo di modellare la struttura di un organo sensoriale biologico, come la retina umana. La rete neurale illustrata formata da strati di tanti piccoli blocchi circuitali direzionali, detti neuroni per analogia con la terminologia biologica. Tutti gli archi del grafo associato all'architettura in figura 5 sono orientati dagli ingressi a sinistra verso le uscite a destra. Ciascun neurone a sua volta costituito da una connessione di pi (sotto)blocchi, collegati come in figura 6. Esso possiede inoltre P porte di ingresso numerate, caratterizzate dalle P variabili di interfaccia {xi(t), i=1,2,..., P}, ed una di uscita, la cui variabile di interfaccia {y(t)}. I parametri liberi (invarianti rispetto alle variabili dinterfaccia) sono costituiti dai pesi {wi, i=1,2,..., P} con cui sono combinate linearmente le variabili dingresso. La funzione costitutiva del neurone riportato in figura 6 evidentemente: 3 y( t ) = f wi xi ( t ) . i =1 (5)

Chiaramente i circuiti direzionali, che introducono i concetti di funzione di trasferimento e rapporto causa-effetto, si pongono ad un livello di astrazione superiore rispetto ai modelli non-direzionali, che risentono ancora fortemente della natura distribuita delle leggi fisiche. Oggi i circuiti direzionali, come quello riportato in figura 5, hanno una grande importanza nell'ingegneria, per l'eleganza del modello e per il loro legame diretto con il grafo di flusso di un algoritmo implementato su calcolatore. In particolare, i blocchi circuitali possono diventare dei sottoprogrammi (procedure, subroutine, function), che hanno le variabili di interfaccia16 come parametri formali.

Nella Teoria dei Circuiti lineari si preferisce definire la funzione di trasferimento a partire dalla trasformata di Laplace dell'equazione (4) [13]. La definizione data copre invece un maggior numero di casi di effettiva utilit pratica. 16 Gli algoritmi che discendono da modelli direzionali mantengono la struttura paratattica del circuito originale (stessa importanza assegnata a ciascun blocco). Essi risultano pertanto estremamente adatti all'uso su macchine di calcolo parallele e circuiti integrati dedicati (VLSI) [15]. La classica programmazione strutturata (o quella ad oggetti) conduce invece a strutturare l'algoritmo gerarchicamente (ipotassi).

15

19


ingressi

f f
uscite

f f W2
bias

bias

W1

X1

Y1

X2

Y2

X3

Figura 5: esempio di circuito direzionale (rete neurale multistrato)

x1

z1=x1*w1 z2 z2=x2*w2

z1 f(u)

x2

z3 u

x3

z3=x3*w3

Figura 6: Neurone (blocco direzionale) isolato

IV.6 La definizione del confine del circuito. Il modellamento circuitale parte, come si detto, da un processo di idealizzazione e di particolarizzazione delle leggi fisiche rispetto ad una classe di sistemi. In pi, il sistema risolvente impone una credenza di isolamento energetico dei blocchi circuitali interconnessi rispetto al resto delluniverso, che generalmente falsa [6]. Daltra parte, levidenza empirica del funzionamento e la particolare struttura di molti manufatti suggerisce che: la violazione dellipotesi di isolamento energetico non comporti necessariamente effetti pratici catastrofici; ladozione di provvedimenti locali di natura ingegneristica (dimensionamento ed orientazione dei componenti, scelta dei materiali, aggiunta di schermature e di sospensioni meccaniche) possa spesso restituire validit sostanziale alle assunzioni del modello; la natura delle soluzioni particolari ottenute da un modello circuitale ben fatto non dipenda rigidamente dalle assunzioni del modello, ed in particolare dalle condizioni iniziali ed al contorno.

20

Come diretta conseguenza di questi fatti, nelle applicazioni pratiche il confine del circuito non quasi mai univocamente definito. Anzi, in molti casi risulta conveniente escludere dal modello matematico alcune interazioni, per ridurre la complessit e migliorare la funzionalit. Sebbene queste operazioni delicate debbano essere sempre giustificate da un punto di vista matematico e statistico, il loro uso non soggiace apparentemente ad alcuna regola e resta legato alla sensibilit del ricercatore ed alla qualit della sperimentazione. La mera possibilit di poter variare senza troppi affanni il confine del sistema analizzato deve essere tuttavia spiegabile a partire dalle propriet intrinseche di un (buon) modellamento circuitale. IV.7 La robustezza dei modelli circuitali. La nozione di robustezza una delle pi recenti elaborate dalla statistica [12], essendo stata definita pienamente negli anni Ottanta, ed intimamente legata allincertezza ineliminabile da cui sono affette le misure sperimentali. Per quanto attiene allo sviluppo della teoria (classica) dei circuiti elettrici, opportuno riformulare appropriatamente qui una definizione di robustezza qualitativa, la quale torner assai utile nel seguito. La cosiddetta robustezza quantitativa [12], sebbene sia di importanza fondamentale per la comprensione delle propriet della caratterizzazione esterna dei parametri circuitali al variare delle assunzioni e degli algoritmi di ottimizzazione usati per la sintesi, esula dalle finalit della trattazione presente. La robustezza qualitativa attiene allinsensibilit strutturale delle variabili dinterfaccia e di misura delle costanti circuitali rispetto a ragionevoli errori locali di specificazione delle condizioni al contorno, delle leggi costitutive e del dominio di supporto. Sia dato un insieme di funzioni di punto (scalari, vettoriali, tensoriali) {xi(t, r), i=1,2,..., N}, definite su un dominio spaziale . A partire da queste funzioni di punto, si costruisca una nuova funzione u(t, r) nel seguente modo: u(t , r ) = G D ({x i ( , r'), i = 1,2,..., N}, , t, r , r'), r , r' D , < < t ; (P1)

Si suppone anche che sia stata definita una metrica opportuna [12] in per stabilire il grado di vicinanza tra due funzioni di punto xi(t, r) e xi(t, r), che vengono assunte assolutamente sommabili sul dominio stesso per ogni istante t17. Nella fisica e nellingegneria, queste funzioni di punto possono rappresentare, per esempio, la soluzione formale di un sistema di equazioni differenziali alle derivate parziali. Definizione: u(t, r) qualitativamente robusta se si mantiene limitata per ogni andamento ammissibile di xi(t, r) e continua quando la stessa xi(t, r) viene deformata continuamente verso funzioni vicine xi(t, r), secondo la metrica prescelta (cfr. [12]). Se restringiamo la nostra attenzione a funzioni lineari delle grandezze xi(t, r) facile dimostrare il seguente: Teorema: Le funzioni integrali del tipo:

Nel caso di domini di supporto aventi misura infinita, la sommabilit pu essere ridefinita per mezzo di opportune estensioni al limite e normalizzazione delle funzioni di punto [14].

17

21

N t u(t , r ) = K i (r ,r' ,t , ) x i (r' ,)dr'd i =1 D

(P2)

soddisfano ai requisiti di robustezza qualitativa, se e solo se i nuclei Ki(r, r, t, ) sono continui e limitati in norma per ogni valore delle variabili (r, r, t, ). La dimostrazione della sufficienza della forma (P2) per la robustezza qualitativa ovvia. La necessit della continuit e della limitatezza dei nuclei integrali deriva invece (sulla falsariga di quanto riportato in [12]) dal fatto che possono essere costruite particolari funzioni ammissibili xi, composte da un insieme di impulsi matematici strategicamente disposti, capaci di invalidare la tesi per forme non integrali e nuclei discontinui o non limitati in . Alcuni operatori integrali possono soddisfare anche al pi stringente requisito di robustezza quantitativa, che sancisce in sostanza linsensibilit al primo ordine di u(t, r) rispetto a perturbazioni delle xi e/o dei nuclei Ki [12]. Un sistema risolvente non patologico che leghi variabili dinterfaccia definite da formule integrali del tipo (P2) sar quindi soggetto ad una variazione continua e controllabile delle sue soluzioni rispetto ad errori nella definizione dei nuclei e delle condizioni al contorno. I modelli circuitali, che fanno esclusivo uso di variabili di interfaccia definite da funzioni integrali e posseggono per definizione un numero finito e ridotto di parametri liberi, risultano quindi ideali in tutti quei casi, in cui il sistema e lambiente sono descritti fisicamente in maniera incerta e/o incompleta. Viceversa, un modello basato su equazioni non qualitativamente robuste e affetto dalla maledizione della dimensionalit (poche misure e molti parametri liberi), creer invariabilmente grossi problemi nella verifica sperimentale18 e nelle applicazioni pratiche. V. DERIVAZIONE DEL MODELLO CIRCUITALE ELETTRICO DALLA TEORIA DEI CAMPI La discussione precedente ci permette ora di seguire in dettaglio il processo di derivazione dalle equazioni di Maxwell dei risultati intermedi, che costituiscono gli assiomi della Teoria dei Circuiti, rappresentati rispettivamente dalle due leggi di Kirchhoff e dalla espressione della potenza elettrica istantanea. Il campo elettromagnetico ha natura tensoriale dipendente dal punto P(r). Il vettore r = [ x, y, z ] contiene le coordinate spaziali di P, definite in un opportuno sistema di riferimento. L'uso di variabili di interfaccia tensoriali assai scomodo in pratica, dal momento che gli strumenti di misura, indispensabili per la caratterizzazione dei blocchi circuitali, osservano invariabilmente delle grandezze integrali del campo nell'intorno di un punto (flussi o integrali di linea). Oltre a tutto, per le considerazioni esposte nel precedente paragrafo, una funzione integrale del campo quasi certamente continua e regolare rispetto alla posizione delle curve o delle superfici nello spazio, semplificando i problemi matematici connessi con il modellamento. Per tutti questi motivi, la scrittura delle equazioni di Maxwell in forma integrale risulta il punto di partenza migliore per l'analisi dei fenomeni elettrici.
18

La robustezza qualitativa e anch'essa una credenza, se pur teoricamente giustificabile. La limitazione dei modelli integrali risiede di solito nella gamma di frequenze/energie che possibile trattare. Tuttavia la Teoria dei Segnali [14][15][17] sottolinea la possibilit di analizzare moltissimi fenomeni localmente in tempo o frequenza, mediante l'uso di espansioni locali delle soluzioni formali, [14], senza inficiare la qualit della previsione globale.

22

Nel seguito, i vettori dei campi elettromagnetici saranno indicati con lettere maiuscole in grassetto, i vettori della statica e della dinamica (posizione r, velocit v, forza specifica f) in lettere minuscole in grassetto e, infine, le grandezze scalari (tempo t) con lettere minuscole. Definizioni: E(r,t) : vettore del campo elettrico nel punto P(r); D(r,t) : vettore dell'induzione elettrica (risposta del mezzo materiale eccitato dal campo E); H(r,t) : vettore del campo magnetico nel punto P(r); B(r,t) : vettore dell'induzione magnetica (risposta del mezzo materiale eccitato dal campo H); J(r,t) : vettore della densit della corrente elettrica nel punto P(r); (r,t) : densit di carica elettrica nel punto P(r); lib(r,t) : densit di carica elettrica libera nel punto P(r); +(r,t) : densit di carica elettrica positiva nel punto P(r); (r,t) : densit di carica elettrica negativa nel punto P(r); n(r) : vettore normale con direzione uscente dalla generica superficie S nel punto P(r); dS : elemento infinitesimo della generica superficie S, orientato secondo n; t(r) : vettore tangente alla generica curva chiusa orientata nel punto P(r); dl : lunghezza dell'elemento infinitesimo della generica curva ; dV: elemento infinitesimo di volume; Sv : superficie che racchiude il volume V; S : porzione di una superficie arbitraria che ha per base la curva chiusa orientata : Ove inessenziale, nel seguito si ometteranno i parametri tra parentesi, che esprimono le dipendenze dalle coordinate spaziali e dal tempo. Equazioni di Maxwell in forma integrale (relazioni topologiche):

D ndS =
Sv V

lib

dV ;

(M1)

B ndS = 0 ;
Sv

(M2)

E tdl = t ndS
S

; D

(M3)

H tdl = J ndS + t
S S

ndS

(M4)

Equazioni di Maxwell in forma differenziale: div(D) = lib ; div(B) = 0 ; (M1) (M2)

23

rot (E) =

B ; t D . t

(M3)

rot (H) = J +

(M4)

Equazioni costitutive generiche dei materiali: D = (E) ; B = (H) ; J = (E, r) = +<v+>+-<v->19 ; f=E+J^B; (C1) (C2) (C3) (C4)

Indichiamo ora con il pedice "0" la componente dei vettori impressa da sorgenti esterne (generatori) e con il pedice "c" le componenti derivanti dalle interazioni elettromagnetiche. Per esempio, Ec il campo elettrico propriamente detto, mentre E0 un campo elettromotore di origine esogena. Otteniamo: J = J0 + Jc E = E0 + Ec D = D0 + Dc ; B = B0 + Bc ; H = H0 + Hc . ; ; (P1) (P2) (P3) (P4) (P5)

V.1 Legge di Kirchhoff alle tensioni (LKT) La tensione v(P1, P2) esistente fra due punti arbitrari dello spazio P1 e P2 viene definita in elettrotecnica dalla formula: v(P1 , P2 ) = E tdl .
P1 P2

(6)

Il segno (-) nuovamente del tutto convenzionale, e i membri dell'equazione (6) hanno dimensione [Volt]. A differenza del caso elettrostatico, per, il campo elettrico non vincolato ad essere conservativo. Per questo motivo bisogna indicare di volta in volta qual il percorso di integrazione prescelto.
La funzione detta funzione di conducibilit del materiale; similmente la funzione di permettivit elettrica e la funzione di permeabilit magnetica. Le equazioni sono scritte per un sistema in quiete rispetto ad un sistema di riferimento inerziale.
19

24

Consideriamo quindi un sistema fisico sede di fenomeni elettromagnetici e scegliamo al suo interno una generica curva chiusa e fissa nello spazio come percorso dell'integrazione. Inseriamo in (M3) tutti i contributi elencati in precedenza e, dopo facili passaggi, otteniamo: E 0 tdl E c tdl
S

B 0 B ndS c ndS = 0 . t t S

(7)

Il primo termine rappresenta il contributo di tensione vg dovuto ad eccitazioni impresse dall'esterno. Il secondo termine, che chiameremo (vR+vc), descrive il campo che deve sussistere in un conduttore per sostenere la corrente elettrica e tiene conto anche della densit di corrente di spostamento Jsp rappresentata dall'ultimo termine di (M4), che genera i cosiddetti effetti capacitivi, dovuti all'accumulo delle cariche elettriche. Il terzo termine (vM) indica il contributo dei campi magnetici esterni concatenati con la curva che provocano effetti di mutua induzione. Il quarto (vL), infine, descrive la componente del campo magnetico autoindotto dalla densit di corrente J. L'equazione (7) con le posizioni fatte diviene una forma della nota legge di Kirchhoff alle tensioni lungo il percorso chiuso , detto anche maglia nella terminologia dei circuiti [13]: vM + vR + vL+ vc + vg = 020; (8)

Anche se possibile scendere maggiormente nel dettaglio dei contributi degli integrali della formula (7), si vede immediatamente che: l'espressione (8) dipende solo da espressioni integrali e (potenzialmente) robuste dei campi elettromagnetici; gli integrali dipendono dalla forma della curva chiusa prefissata che attraversa il sistema, ma l'espressione (8) resta sempre formalmente valida per qualsiasi configurazione dei campi e per qualsiasi frequenza. V.2 Legge di Kirchhoff alle correnti (LKI) Per procedere nel ragionamento, conviene definire anche la corrente elettrica iS come flusso di J attraverso una superficie S che ha per base la generica curva chiusa . In questo modo abbiamo a disposizione una seconda grandezza integrale per rappresentare macroscopicamente le cariche elettriche in moto: IS = J ndS
S

(9)

Dalla quarta equazione di Maxwell (M4), scritta in forma differenziale, si ricava l'espressione della continuit della corrente elettrica, applicando ad entrambi i membri l'operatore divergenza ed integrando su un volume prefissato V, racchiuso dalla superficie Sv:

div(rot (H))dV = J ndS + t dV = 0


V Sv V

(10)

I segni sono nuovamente convenzionali. Per le definizioni in uso nellElettrotecnica si rimanda ai successivi paragrafi V.4-V.6.

20

25

La superficie di integrazione Sv pu essere suddivisa in un insieme S = {Si, i=1, 2, ..., M} di aree mutuamente disgiunte e tali da ricoprirla completamente. Il flusso della corrente elettrica attraverso ciascuna delle aree Si definisce, secondo l'equazione (9), la corrente Ii. L'ultimo termine della espressione (10) la cosiddetta corrente di spostamento Isp e rappresenta il contributo alla corrente totale dovuto dalla accumulazione della carica elettrica Q racchiusa nel volume V. Con queste posizioni, l'equazione (10) pu essere riscritta esclusivamente per mezzo di grandezze integrali21, ottenendo:

I
i =1

= I sp =

dQ dt

(11)

L'espressione (11) costituisce una forma generale della legge di Kirchhoff alle correnti [13]. Nelle figure 7 e 8 sono presentati alcuni casi particolari della formula di continuit della corrente elettrica. In particolare, la figura 7 rappresenta la diramazione della corrente elettrica su pi conduttori. La superficie di integrazione Sv dell'equazione (10), la cui proiezione sul piano di sezione appare come una linea tratteggiata nella figura 7, detta superficie di taglio e rappresenta un concetto fondamentale per l'analisi di circuiti elettrici in cui possono essere definite pi maglie contemporaneamente.

I3 I1 <>0 n I1 + I2 + I3 = 0
Figura 7: Equilibrio di correnti su un taglio

I2

E' da rimarcare come non sia stata fatta alcuna approssimazione per ricavare entrambe le leggi di Kirchhoff da quelle di Maxwell. Le forme (8) e (11) possono essere impiegate (ed in effetti spesso lo sono) anche in applicazioni ad alta frequenza. Sia le equazioni di Kirchhoff che quelle di Maxwell sono per incapaci di chiudere il sistema risolvente, senza far uso delle relazioni costitutive dei materiali e delle informazioni sulla configurazione geometrica del sistema. La costruzione del modello circuitale classico22 richiede, inoltre, l'indipendenza della soluzione dalla configurazione fisico-geometrica del dispositivo elettrico [13], che un vincolo di robustezza sul modello teoricamente difficile da assicurare. Da un punto di vista
Per le applicazioni circuitali, il segno di derivata parziale rispetto al tempo pu essere sostituito da quello di derivata totale. 22 Nel seguito sar seguita una forma classica della derivazione del modello circuitale a costanti concentrate. Per particolari applicazioni (alta frequenza, propagazione multimodo in linee di trasmissione,...), sar tuttavia possibile costruire differenti modelli circuitali imponendo approssimazioni leggermente diverse alle equazioni (6) e (7).
21

26

tecnico-progettuale, per, questa condizione ci assicura ragionevolmente il mantenimento della funzionalit di un circuito elettrico fisico al cambiare della disposizione dei componenti e della geometria delle interconnessioni. La condizione di robustezza non certamente verificata a priori dalle equazioni (8) e (11). Risulta quindi necessario concentrare i fenomeni elettromagnetici all'interno di regioni, conformate in maniera opportuna, per ridurre gli effetti degli accoppiamenti elettromagnetici indesiderati con campi di origine esogena.

n2

=0 <>0 I2 Isp

I1

I1 = -I2 = Isp
Figura 8: equilibri di corrente in un condensatore

n1

V.3 Il processo di concentrazione dei blocchi Perch possa definirsi un modello circuitale astratto, bisogna ancora: definire i blocchi circuitali e la loro equazione costitutiva; assicurarsi che l'equazione di ciascun blocco sia ampiamente insensibile alla scelta del percorso di integrazione (robustezza) e sia caratterizzabile in termini di grandezze integrali dei campi. definire la struttura della connessione. I passi fondamentali del processo di concentrazione delle costanti circuitali derivano da una serie di argomentazioni semi-euristiche: Argomento 1. Perch i flussi siano robusti, il materiale con caratteristiche elettriche significativamente diverse da quelle del vuoto dovrebbe essere disposto in una sorta di corda stretta attorno alla curva presa come riferimento, piuttosto che occupare una regione estesa e di forma arbitraria nello spazio. Argomento 2. Dalla formula degli integrali di linea, si pu immaginare che i particolari contributi del campo siano concentrati in specifici tratti della maglia, piuttosto che essere distribuiti omogeneamente su tutto il percorso . Se necessario, questa localizzazione dei fenomeni elettromagnetici pu essere assicurata da una costruzione opportuna del circuito

27

reale23. Ciascun tratto o regione della curva idealmente sede di un unico tipo di fenomeno elettromagnetico. Le regioni sede di componenti impresse dei campi elettrici e magnetici danno luogo ai blocchi generatori di tensione e generatori di corrente, rispettivamente. La regione in cui esistono fenomeni di autoinduzione definisce il blocco (auto-)induttore. La regione sede esclusiva di fenomeni di conduzione costituisce il blocco resistore. La regione ove presente solo corrente di spostamento definisce il blocco condensatore, e cos via di questo passo [13]; Argomento 3. La curva finora stata immaginata passante attraverso la regione attiva della corda, entro la quale hanno prevalentemente luogo i fenomeni elettromagnetici presi in esame. Tuttavia, se si immagina che il circuito elettrico immerso nel vuoto ideale, ovvero una regione dove tutte le induzioni D e B (ma non i campi E ed H), come pure la densit di corrente J, sono nulle, facile vedere che poco cambierebbe nel calcolo dei flussi e degli integrali di linea se la curva di integrazione originale fosse sostituita da una opportuna curva 1, che la interseca solo in corrispondenza dei confini delle singole regioni (figura 9). Il vantaggio che i campi elettrici e magnetici lungo la nuova curva 1 sono irrotazionali e quindi possibile ridefinire la tensione (6) come differenza di un potenziale opportuno [13]; Argomento 4. Nulla cambia per gli integrali nella espressione (7) se i blocchi attivi sono congiunti da regioni arbitrarie circondate dal vuoto e riempite di materiale conduttore perfetto (di conducibilit idealmente infinita), cos che la tensione ovunque costante (E = 0) e la continuit della corrente conservata. Le superfici di contatto fra blocchi attivi e blocchi perfettamente conduttivi si chiamano terminali o morsetti o poli, mentre il conduttore perfetto simboleggiato nella rappresentazione grafica del circuito elettrico da un tratto di linea che interconnette i morsetti di due blocchi. Argomento 5. I parametri circuitali di ciascuna regione possono essere descritti da funzioni integrali robuste e caratterizzabili solo se i campi elettromagnetici della regione sono lentamente variabili rispetto alle coordinate spaziali. In termini pi matematici, i campi stessi devono poter essere approssimati localmente nel senso di Hilbert da una espansione in serie rapidamente convergente, definita su una base opportuna di funzioni continue e limitate in norma. Date le soluzioni analitiche dell'equazione d'onda ottenuta dalle equazione di Maxwell [16], questa condizione implica che il tempo di attraversamento dell'onda attraverso il blocco debba essere (molto) inferiore al periodo minimo delle componenti significative del segnale di tensione [13]. In particolare, a basse frequenze ed in assenza di brusche discontinuit spaziali della funzione di conducibilit e della funzione di permeabilit elettrica , il contributo della corrente di spostamento pu essere trascurato nell'equazione (11). Per evidenziare il contributo di questi argomenti, seguiamo in dettaglio la derivazione di un modello idealizzato a costanti concentrate per un blocco conduttivo, detto nella terminologia elettrotecnica resistore.

Questa argomentazione pu apparire sofistica e non-fisica, ma l'obiettivo della derivazione proprio quello di giustificare un certo modo operativamente valido di costruire i circuiti elettrici, non certo quello di ottenere una trattazione generale del comportamento elettromagnetico dei materiali!

23

28

Vuoto

Figura 9: Curve di integrazione possibili in una maglia di circuito

V.4 Concentrazione del blocco resistore Si consideri un blocco di materiale conduttore di forma arbitraria e si individuino su di esso due aree perfettamente conduttive S1 e S2 che ne costituiscono i morsetti. Per semplicit si pu assumere che i morsetti sono parte di una superficie di taglio Sv che racchiude il blocco conduttivo. Le superfici dei morsetti S1 e S2 misurano, rispettivamente, A1 e A2. Si ritengono trascurabili i fenomeni di accumulo di carica e quelli dovuti a campi elettromagnetici impressi o indotti. Questo pu essere assicurato dalluso di schermature e di eccitazioni di prova costanti nel tempo (in continua). Se il materiale all'interno del blocco conduttore supposto lineare, isotropo, permanente ed omogeneo, l'equazione costitutiva per la densit di corrente una semplice proporzione, [16]: Jc = Ec . (12)

Con riferimento alla figura 10, si definiscano due punti P1 e P2, appartenenti rispettivamente alle superfici S1 e S2, e si congiungano con il tratto di curva , di lunghezza L, su cui si calcola la tensione globale vR: P2 v R = E tdl = E 0 L . P1

(13)

E0 un opportuno valore del campo elettrico tangente alla curva . Nello scrivere l'equazione (13) si fatto uso del teorema della media per gli integrali definiti. Allo stesso modo, si pu calcolare la corrente IR calcolando il flusso di J attraverso la superficie S124:

24

Si scelta la superficie S1 in accordo con la convenzione dell'Elettrotecnica riguardo alla definizione dei versi coordinati di tensione e corrente sui blocchi circuitali a due terminali, detti anche bipoli [11].

29

I R = J ndS = E 1 A 1 . S1

(14)

Ancora una volta stato applicato il teorema della media, che ovviamente valido per qualsiasi configurazione dei campi e distribuzione spaziale della conducibilit. Il rapporto fra tensione e corrente detto resistenza R del resistore e ne costituisce il solo parametro circuitale (legge di Ohm): R= vR E0 L L = E A = K R A . IR 1 1 1 (15)

Da notare che il coefficiente adimensionale KR, detto fattore di forma, dipende dalla configurazione del campo elettrico. Se questo fosse perfettamente uniforme all'interno del resistore e se il blocco avesse forma di parallelepipedo, KR sarebbe pari esattamente all'unit. Per forme arbitrarie, occorre risolvere le equazioni di Maxwell con le adatte condizioni al contorno per calcolare teoricamente il valore di KR. Tuttavia, il carattere integrale delle espressioni (13) e (14) suggerisce che, anche se i campi non fossero costanti, il valore della resistenza varierebbe assai poco in molti casi di pratico interesse, come evidenziato dai seguenti argomenti: Sviluppando i campi spazialmente in serie di Fourier, si scopre che il contributo dei modi spaziali fortemente oscillanti, corrispondenti alle armoniche elevate di J ed E, tende a smorzarsi rapidamente, in assenza di brusche discontinuit strutturali; Il teorema della media fornisce un risultato esatto non solo se i campi sono costanti (integrazione rettangolare), ma anche se questi posseggono una componente lineare non prevista rispetto alle coordinate spaziali. In altre parole, l'errore commesso nel valutare gli integrali (13) e (14) un infinitesimo del secondo ordine rispetto alle dimensioni dell'oggetto, confermando la robustezza del modello semplice. Non ci aspettiamo, quindi, particolari criticit realizzative, come del resto confermato dai bassissimi costi dei resistori commerciali.

Per la maggior parte delle applicazioni, che tollerano errori dell'1%-5% sul valore della resistenza, questo modello semplificato del resistore fornisce una precisione sufficiente. Per usi particolari possibile selezionare i resistori fisici, per mezzo di una procedura di caratterizzazione esterna. Alternativamente, i resistori possono essere calibrati, aggiustando finemente il valore di R mediante la rimozione controllata di materiale dal blocco, effettuata di solito a mezzo laser. Procedura basica di caratterizzazione: si applica al resistore una tensione continua nota V con un generatore e si misura la corrente IR che scorre nella maglia che contiene il generatore di tensione ed il resistore incognito25. La misura viene ripetuta pi volte, alternando eventualmente diversi generatori per ridurre l'effetto di errori sistematici. Si ottiene, cos, una serie di N misure, che vengono raccolte nei vettori v ed i, rispettivamente. Infine, il valore di R viene stimato in maniera statisticamente consistente26 [14] applicando una procedura di ottimizzazione, che ricerca la soluzione fisicamente pi plausibile al sistema
25 26

Occorre evitare dispersioni di correnti su maglie conduttive parassite. Errore nullo in media con varianza tendente a zero almeno con la quantit (1/N) [12].

30

sovradeterminato (e di per s incompatibile!) v = Ri. Molto spesso questa soluzione viene trovata minimizzando rispetto al parametro incognito {r} la norma euclidea del vettore e degli errori che rendono inconsistente il sistema (metodo dei minimi quadrati): R= arg min r

(e( r ) ) = argrmin (v ri )
2
2

2
2

(16)

n =0 Sv S1 E P1 iR

P2 S2 vR

<>0

Figura 10: Blocco resistore

La concentrazione dei blocchi induttore (caratterizzato solo fenomeni di autoinduzione magnetica) e condensatore (solo corrente di spostamento) si ottiene riapplicando il processo descritto in questo capitolo rispettivamente al primo ed al terzo termine dell'espressione (11). V.5 Concentrazione del blocco condensatore. Il blocco detto condensatore (ideale) sede esclusivamente di fenomeni dovuti alla corrente di spostamento che dipende da accumuli di cariche elettriche in presenza di brusche variazioni spaziali della conducibilit, secondo l'espressione (11). Un condensatore ideale costituito da due armature piane perfettamente conduttive, con interposto un materiale dielettrico lineare con =0. Si ipotizza che la corrente di spostamento (e quindi l'induzione elettrica Dc) sia significativa solo nello spazio compreso fra le armature, ciascuna delle quali ha superficie A. Se il dielettrico lineare, isotropo ed omogeneo, la relazione costitutiva (C1) esprime la proporzionalit fra campo ed induzione elettrica. Il fattore di proporzionalit detto permettivit elettrica del dielettrico [16]: Dc = Ec . (17)

Con riferimento alla figura 11 e ripetendo i ragionamenti svolti per il resistore, la tensione vc fra i morsetti del condensatore pu essere espressa come:

31

P2 v c = E tdl = E 0 L . P1

(18)

La corrente elettrica Ic obbedisce all'equazione di Kirchoff (11), che va particolarizzata come:

I c =
Sv

D d ndS = (E 1A ) t dt

(19)

Nell'equazione (19), E1 rappresenta come sempre un opportuno valore del campo elettrico derivante dall'applicazione del teorema della media all'integrale che calcola il flusso di D. Si procede quindi all'eliminazione, attraverso l'ausilio del fattore di forma KC=E1/E0, dei termini che hanno la dimensione di un campo elettrico [Vm-1] nelle le espressioni (18) e (19)27. L'equazione costitutiva, nell'ipotesi di invarianza rispetto al tempo (permanenza) di tutte le dimensioni ed i parametri del dielettrico, diventa la classica [13]: Ic = C dv c dt , (20)

dove il coefficiente C detto capacit del condensatore.

vc

P2
A

P1 Ic
D Sv

Figura 11: Campi elettromagnetici in un condensatore

Curiosamente, questa procedura in matematica e statistica viene spesso definita concentrazione delle variabili di un sistema di equazioni. Nel caso della Teoria dei Circuiti, il termine concentrazione viene invece inteso nel senso spaziale sopra esposto.

27

32

V.6 Concentrazione del blocco induttore. L'induttore ideale un dispositivo a due terminali, o bipolo, in cui hanno idealmente luogo esclusivamente fenomeni di autoinduzione magnetica, provocati dalla corrente IL che percorre la medesima maglia del circuito. Per poter provocare induzione, la corrente elettrica deve percorrere delle spire conduttrici (o avvolgimenti) avvolte a spirale su un supporto di materiale magnetico. Come per il resistore ed il condensatore, si suppone una perfetta stabilit dimensionale (assai problematica da realizzarsi in pratica per effetto delle forze agenti sugli avvolgimenti stessi), in modo che le linee e le superfici di integrazione non varino rispetto al tempo. La disposizione dei campi elettromagnetici e delle superfici di integrazione pi convenienti descritta in figura 12.

IL

P1 t S n

P2 VL

Figura 12: Campi elettromagnetici in un induttore

Il campo magnetico H generato dalla corrente IL significativamente diverso da zero solo nello spazio compreso fra gli avvolgimenti coassiali. Il numero degli avvolgimenti N e la profondit totale di questi l. Sia A la superficie delimitata da ciascun avvolgimento e proiettata su un piano perpendicolare all'asse dell'induttore. La corrente di spostamento ipotizzata trascurabile. La curva si svolge nella regione ove si verificano i fenomeni magnetici di interesse, ovvero allesterno dellavvolgimento (supposto costituito da un conduttore ideale), ma sufficientemente vicino ad esso. Se i versi della corrente e del percorso di integrazione lungo la curva sono scelti congruenti con quelli della figura 12, la quarta equazione di Maxwell fornisce direttamente: H0l = NIL. (21)

Il vettore induzione magnetica B, sotto le ipotesi semplificative di linearit, omogeneit ed isotropia del materiale magnetico, ovunque proporzionale al campo magnetico H: B = H. (22)

La costante detta permeabilit magnetica del mezzo [16]. La tensione vL dell'induttore dovrebbe essere calcolata secondo le espressioni (7) e (8) lungo una curva , prossima agli avvolgimenti conduttori, come illustrato in figura 12. La terza equazione di Maxwell fornisce
33

la tensione ai capi degli avvolgimenti in funzione della derivata temporale del flusso di B attraverso una superficie S avente per base proprio la curva . Questa integrazione assai difficile da visualizzare, dal momento che una superficie siffatta assomiglia ad una scala a chiocciola a N giri, osservata in pianta. Tuttavia possiamo fare appello al principio di robustezza delle funzioni integrali sopra enunciato per affermare che l'integrale in oggetto non si discosta significativamente da: v L =
S

d B n b dS N (H 1 A ) . dt t

(23)

Ancora una volta, le quantit H0 ed H1, ottenute dall'applicazione del teorema della media, hanno dimensione [Am-1] e possono essere legate da un fattore di forma KL=H1/H0. Sostituendo l'espressione (23) nella (21) e raggruppando in una coefficiente di autoinduzione L i termini non dipendenti dal tempo (per l'ipotesi di permanenza), si ottiene immediatamente l'equazione costitutiva dell'induttore ideale:

vL = L

dI L . dt

(24)

Con lo stesso metodo possibile derivare il modello circuitale a costanti concentrate di altri dispositivi di tipo elettrico pi complessi o comprendenti equazioni diverse da quelle del campo elettromagnetico. Le problematiche relative alla ricerca ed alla caratterizzazione dei modelli circuitali parametrici sono sviluppate nella teoria della stima, che sar oggetto di corsi futuri. V.7 Generalizzazione e astrazione del modello circuitale elettrico. Le ipotesi sotto cui sono state ricavate le equazioni costitutive dei bipoli elettrotecnici classici appaiono alquanto stringenti, ma il pregio fondamentale di questa analisi semplificata consiste nel mostrare che semplici equazioni integro-differenziali possono modellare accettabilmente alcuni fenomeni elettromagnetici. Nulla vieta di introdurre relazioni pi complesse per estendere l'applicabilit del modello circuitale a casi pi generali (linee di trasmissione, effetto pelle, isteresi, guide d'onda...). Tuttavia questa generalizzazione non si fonda pi sull'analogia fisica, bens sulle capacit matematiche di certe famiglie di funzioni (per esempio, i polinomi, le funzioni razionali, le sigmoidi...) di approssimare rapidamente (ovvero con pochi parametri liberi) e robustamente le equazioni topologiche, quelle costitutive e le soluzioni finali. La formalizzazione del modello finale pu quindi discostarsi notevolmente dalle equazioni tradizionali della fisica, introducendo nuove rappresentazioni matematiche del fenomeno stesso, che, come sempre, dovranno essere valutate per via sperimentale e sotto il profilo della complessit matematica e computazionale. Nellottica circuitale, lo studio fisico-matematico di base fornisce essenzialmente quelle indicazioni qualitative sulle soluzioni (propriet di unicit, regolarit matematica e di invarianza statistica soprattutto), necessarie per la concezione del modello e per la messa a punto delle procedure di identificazione dei parametri circuitali invarianti via via introdotti.

34

VI. LA POTENZA ELETTRICA La potenza nella dinamica , come noto, il prodotto scalare della forza per la velocit. Nel caso elettromagnetico, la potenza elettrica specifica p(r,t) pu essere definita partendo dalle equazioni della forza specifica (C4) e della corrente (C3) e prendendo a riferimento la figura 10. La potenza spesa dal campo elettrico per mantenere la densit di corrente elettrica J vale, nel caso di portatori di carica tutti positivi:
p(r , t) = f v = E v = E J .

(25)

La potenza dissipata28 in calore per unit di volume nella regione conduttiva eguaglia pure questa quantit. E' facile convincersi che integrando la (25) sul volume V, delimitato da Sv, in figura 10 e cambiando il segno si ottiene la potenza elettrica P fornita al (vale a dire entrante nel) resistore dal resto del circuito e trasformata irreversibilmente per effetto Joule: PR(t) = vR(t)*IR(t) . (26)

Questa relazione costituisce il terzo assioma della Teoria dei Circuiti, che si aggiunge alle due leggi di Kirchhoff per le tensioni e per le correnti [13] ed valida per ogni blocco a due terminali. Esistono altre maniere per giustificare l'espressione (26) della potenza elettrica, ma quella riportata ha il pregio di presentare un legame diretto con un fenomeno fisico ben noto. Generalizzazione del concetto di potenza elettrica. E' possibile generalizzare il concetto di potenza ad altre regioni, caratterizzate da correnti e campi impressi ed indotti, introducendo il cosiddetto vettore di Poynting P [16]: P=EH. Calcolando la divergenza di P e sostituendo le equazioni di Maxwell si ottiene: div(P) = H rot(E) - E rot(H); div(P) = H B D . EJ E t t (28a) (28b) (27)

Calcolando il flusso uscente di P attraverso la superficie chiusa Sv che delimita un volume V si trova una espressione generalizzata rispetto alla (26) che pu essere interpretata come potenza perduta istantaneamente dalla regione contenuta nel volume V29. Lespressione (28b) costituisce il risultato del cosiddetto Teorema di Poynting. Il primo termine dell'espressione (28b) rappresenta la densit di potenza magnetica ed il terzo la densit di potenza associata alla corrente di spostamento. Definendo le opportune tensioni ancora possibile riottenere l'espressione (26) [16], che, ricordiamolo, rappresenta un assioma nella Teoria dei Circuiti elettrici.

Un flusso di energia uscente dal resistore considerato positivo. Da qui il segno opposto rispetto all'espressione (25), che esprime invece la potenza assorbita e trasformata dal campo elettromagnetico.
29

28

35

La trattazione circuitale possibile anche per altri fenomeni di tipo distribuito (meccanici, acustici, idraulici, ecc...) e rappresenta un approccio metodologico assai efficiente che, come vedremo del capitolo seguente, pu sostituire vantaggiosamente le soluzioni ottenibili risolvendo sistemi di equazioni differenziali, soprattutto nei casi non lineari (assetto dei satelliti, distorsione negli altoparlanti e cos via). VII. MODELLI CIRCUITALI DI CAMPI SPAZIALMENTE DISCRETIZZATI30 Soluzioni analitiche delle equazioni di Maxwell sono disponibili solo per geometrie molto semplici. Lo sfruttamento applicativo dei fenomeni elettromagnetici dipende, invece, dall'abilit di calcolare con precisione e di manipolare i campi in situazioni complesse, in modo da produrre quegli effetti che si desiderano (diffusione acustica, telerilevamento, trasmissione dellinformazione). L'uso del calcolatore rende possibile trattare in breve tempo grandi quantit di dati, ma poco efficace in presenza di operatori simbolici e funzioni continue. Per risolvere con un calcolatore elettronico problemi di campo, le funzioni e le loro derivate devono essere per forza approssimate su una griglia discreta di punti del continuo spazio-temporale, oppure espanse in serie su una base opportuna di funzioni approssimanti (metodi agli autocoefficienti) [13]. Di conseguenza, la soluzione numerica delle equazioni di Maxwell affetta da una certa imprecisione intrinseca, imputabile in parte all'accumulo di errori di arrotondamento nei calcoli ed in parte alla discretizzazione spaziale. La precisione raggiungibile , daltra parte, nettamente insufficiente per molte applicazioni nelle telecomunicazioni e nel telerilevamento (propagazione su raggi multipli, acustica applicata, schermature elettriche e magnetiche di forma complessa, calcolo dei parametri circuitali parassiti), quando sono richieste valutazioni quantitative per il progetto di manufatti. Si potrebbe pensare allora di elaborare un metodo generale per modellare sistemi elettromagnetici complessi, decomponendo spazialmente il sistema stesso in tante piccole parti e creando per ciascuna di esse un modello integrale (circuitale) di elevata precisione. Una volta trovate le equazioni costitutive di ciascun blocco, il sistema risolvente del circuito globale sarebbe in grado di fornire un valore del campo su un insieme discreto di punti dello spazio. I valori in punti diversi da quelli considerati nel modello circuitale potrebbero essere ricavati per interpolazione spazio-temporale fra i valori calcolati. Tutte le procedure sarebbero perfettamente formalizzabili come programmi di calcolo automatico. Tecniche sofisticate di questo tipo sono effettivamente state sviluppate ed usate, specialmente nella progettazione di antenne, nello studio della propagazione delle onde elettromagnetiche e sonore e nellelaborazione del segnale proveniente da schiere di sensori spazialmente distribuiti (array processing) [17]. L'esperienza dimostra che questo approccio pu portare facilmente nelle applicazioni a risultati migliori della soluzione numerica delle equazioni di Maxwell, proprio per la maggiore stabilit delle espressioni integrali rispetto a quelle differenziali31.

Un insieme discreto un insieme numerabile (o anche a cardinalit finita) derivato da un insieme denso secondo una regola prefissata, detta operazione di campionamento. 31 L'errore sui campi con i metodi che approssimano direttamente le equazioni di Maxwell sono tipicamente dell'ordine dell'1%. Alcuni metodi numerici basati su approcci circuitali, applicati ad antenne caratterizzate e calibrate, raggiungono invece precisioni da cento a mille volte superiori, molto prossime ai limiti statistici di indeterminazione!

30

36

Infine, molti dei modelli circuitali per lo studio dei campi sono di tipo unidirezionale, cosa che mette in evidenza e permette di sfruttare efficacemente nelle applicazioni le relazioni causa-effetto fra i fenomeni elettromagnetici coinvolti.

VIII. CONCLUSIONE La Teoria dei Circuiti elettrici stata formalizzata piuttosto di recente (a partire dagli anni Trenta) ed ha raggiunto il massimo della sua espansione negli anni Sessanta e Settanta, con la realizzazione dei maggiori programmi per l'analisi e la sintesi dei circuiti analogici, come il famosissimo SPICE dell'Universit di Berkeley in California. Nei successivi due decenni, poi, la Teoria dei Circuiti si specializzata in una moltitudine di branche differenti, che hanno per oggetto i dispositivi elettronici, i circuiti digitali tempodiscreto, i circuiti VLSI per il calcolo parallelo superveloce, le reti booleane, i controlli automatici, l'elaborazione del segnale, le reti neurali e cos via. Queste nuove discipline hanno incorporato rapidamente i recenti contributi offerti dalla fisica teorica, dalla Teoria Statistica dell'Informazione, dall'analisi numerica e dall'algebra lineare. Tuttavia, il tipo di analisi esterna ed indipendente dalla tecnologia, propria dell'approccio circuitale, stato mantenuto e consente oggi di costruire dei modelli comportamentali ragionevolmente semplici e caratterizzabili di dispositivi altrimenti complicatissimi da descrivere e gestire. La Teoria dei Circuiti elettrici rimane un esempio da manuale di come sia possibile derivare una teoria utile a partire da leggi fisiche generali e considerazioni semi-empiriche, avendo come obiettivo il dominio pratico dei fenomeni elettromagnetici e come idee guida la semplicit, la compattezza, l'eleganza e la versatilit dello sviluppo teorico.

BIBLIOGRAFIA [1] Aristotele, Analitica I, 1, 24 a 16. [2] Guido De Ruggiero, Storia della Filosofia, Parte I: La Filosofia Greca, vol. II, pp. 20-30, Ed. Laterza, Bari, 1958. [3] D. Hilbert, P. Bernays, Grundlagen der Mathematik, vol. I, 1934, e vol. II, 1939. [4] Bruno de Finetti, Probabilit ed induzione, Ed. CLEB, Bologna, 1993. [5] Libero adattamento da S. Bromberger, Why-questions, in R. Colodny, Mind and cosmos, Pittsburgh, 1966, pp. 86-111. [6] Karl Raimund Popper, The logic of scientific discovery, Londra, 1959. [7] Ludovico Geymonat, Storia del pensiero filosofico e scientifico, Il Novecento, Ed. Garzanti, 1996. [8] Isaac Newton, Philosophiae naturalis principia mathematica, 1687. [9] James Clerk Maxwell, Treatise on electricity and magnetism, 1873. [10] Niels Bohr, Teoria dell'atomo e conoscenza umana, trad. it. Boringhieri, Torino, 1961. [11] J. Rissanen, Modeling by shortest data description, Automatica, Vol. 14, pp. 465-471, 1978. [12] P.J. Huber, Robust Statistics, J. Wiley, 1981. [13] Giuseppe Martinelli, Mario Salerno, Fondamenti di elettrotecnica, ed. La Siderea, Roma, 1995-96 (II ed.). [14] Athanasios Papoulis, Probability Random Variables and Stochastic Processes, Mc Graw-Hill, New York, III Edizione, 1991.

37

[15] S.Y. Kung, H.J. Whitehouse, T. Kailath, VLSI and modern signal processing, Englewood Cliffs, NJ, USA, Prentice Hall, 1985. [16] Scipione Bobbio, Emilio Gatti, Elettromagnetismo Ottica, ed. Bollati Boringhieri, 1991. [17] A. Viola, E.D. Di Claudio, G. Orlandi, Algoritmi per la stima della direzione di arrivo di segnali a larga banda mediante schiere di sensori, Alta Frequenza, Vol.6, N. 2, Milano, Marzo-Aprile 1994, pp. 37-47.

38

Potrebbero piacerti anche