Sei sulla pagina 1di 111

SVILUPPO

PRODOTTO

Prof. Nicola Cappetti - Dipartimento di Ingegneria Industriale Università degli Studi di Salerno – Perone Alessandro


“Teorie della progettazione: approcci matematici, logici e metodologici per la valutazione delle soluzioni
sviluppate”

Progetto: In ingegneria e architettura, il complesso degli elaborati (disegni, calcoli e relazioni) che
determinano le forme e le dimensioni di un’opera da costruire (edificio, impianto, macchina, strada, ecc.), ne
stabiliscono i materiali, il modo di esecuzione, le particolarità costruttive, i reciproci impegni tra committente
e costruttore e ne stimano il costo (in alcuni casi vi è compresa anche una relazione sulla ricerca preliminare
che ha determinato le scelte).
Il disegno è la comunicazione tecnica di ciò che è stato progettato.



Un aspetto importante è legato alla storia del prodotto dal punto di vista economico: la vita di un
prodotto comincia nel momento in cui ci si rende conto che vi è un’opportunità, ovvero il mercato
è pronto per quel determinato prodotto (vi sono clienti disposti ad acquistarlo). C’è un certo tempo,
variabile a seconda della tipologia di prodotto, che va da quando si avverte l’esistenza di
un’opportunità, si comincia a sviluppare un’idea di prodotto che possa coglierla, si trova una
configurazione ottimale del prodotto stesso, si ingegnerizza, si realizza l’impianto e si comincia
quindi la produzione. Se le vendite sono soddisfacenti nel tempo, vi sarà un punto in cui si riesce a
recuperare gli investimenti (le 2 aree sono uguali). Quindi è necessario un certo tempo tra il
momento in cui vi è un’opportunità e il momento in cui si comincia a guadagnare.
Il primo tratto è difficilmente comprimibile; si può invece cercare di comprimere il time to market,
prendendo decisioni se non ottimali, almeno buone in tempi rapidi.



CAP.1 – LO SVILUPPO NUOVI PRODOTTI –
Il successo delle aziende dipende dalla loro capacità di identificare i bisogni dei clienti e di creare
rapidamente prodotti che li soddisfino, siano fabbricabili a costi contenuti e siano differenziati dalla
concorrenza. Per raggiungere questi obiettivi non si devono affrontare solo problemi di marketing
né di sola progettazione o di fabbricazione, bensì il processo di sviluppo del prodotto deve
coinvolgere tutte le principali funzioni aziendali. Si definisce prodotto un bene che viene venduto da
un’azienda a un cliente. Lo sviluppo di nuovi prodotti è l’insieme delle attività che, partendo
dall’individuazione di un’opportunità di mercato, o da un’opportunità tecnologia e di mercato,
terminano con la produzione, vendita e distribuzione del prodotto.
- Le caratteristiche di un efficace sviluppo di prodotto: dal punto di vista degli investitori economici,
lo sviluppo di un prodotto di successo consiste in beni che possono essere prodotti e venduti con
profitto, sebbene il profitto sia spesso difficile da valutare direttamente e in breve tempo. Cinque
ulteriori aspetti specifici, tutti in qualche modo legati al profitto, sono comunemente usati per
valutare la riuscita delle attività volte allo sviluppo di un prodotto:
a) la qualità del prodotto: quello che si è ottenuto al termine del processo di sviluppo è un buon
prodotto? Soddisfa alle aspettative del cliente? È robusto e affidabile? La qualità del prodotto alla
fine trova una sua valutazione significativa nella porzione di mercato e nel prezzo che il cliente è
disposto a pagare.
b) il costo del prodotto: qual è il costo di fabbricazione del prodotto? Notiamo che a questo costo
contribuiscono sia il capitale investito per macchine e attrezzature sia il costo specifico per la
produzione di ogni singolo pezzo.
c) il tempo di sviluppo del prodotto: quanto tempo è stato necessario per completare la fase di
sviluppo del prodotto? Il tempo di sviluppo dà un’idea della prontezza di risposta dell’azienda nei
confronti della concorrenza e delle evoluzioni tecnologiche, così come quantifica la rapidità del
ritorno economico dovuto all’attività del gruppo.
d) il costo di sviluppo del prodotto: quanto è costato all’azienda sviluppare il prodotto? Il costo di
sviluppo è una frazione significativa degli investimenti necessari a conseguire dei profitti.
e) la capacità di sviluppo dei prodotti: in che modo l’esperienza fatta nello sviluppo dello specifico
prodotto ha portato a un miglioramento delle procedure di sviluppo sia a livello aziendale sia di
gruppo? La capacità di sviluppare efficacemente dei prodotti è un vantaggio competitivo per
l’azienda che può essere sfruttato anche in futuro.
Elevati valori di questi 5 indicatori dovrebbero garantire all’azienda un successo economico.


- Chi progetta e sviluppa prodotti?




















Si definisce gruppo di progetto (project team) l’insieme degli individui coinvolti nello sviluppo di un
prodotto. Normalmente questo gruppo ha un responsabile (project leader), che può venire da una
delle funzioni aziendali e può considerarsi costituito da un nucleo base (core team) e altri individui
che vanno a costituire il gruppo allargato (extended team). Per poter lavorare insieme
efficacemente il nucleo base è sufficientemente ristretto da potersi incontrare frequentemente in
una sala riunioni. Il gruppo allargato può essere costituito invece da decine o centinaia di persone.





- Durata e costo dello sviluppo di prodotto: solo pochi prodotti si riescono a sviluppare in meno di
un anno, molti richiedono dai 3 ai 5 anni. Il costo dello sviluppo di un prodotto è all’incirca
proporzionale all’aumentare del numero di persone coinvolte nel gruppo di progetto e alla durata
del progetto. Oltre ai costi specifici per l’attività di sviluppo, l’azienda dovrà generalmente anche
investire in macchine e attrezzature necessarie per la fase produttiva. Questi costi sono spesso di
un’entità paragonabile ai costi di sviluppo del prodotto.

DEF. OPEN INNOVATION: L’open innovation (innovazione aperta) è un modello di innovazione
secondo cui le imprese, per creare più valore e competere meglio sul mercato, non possono basarsi
soltanto su idee e risorse interne ma hanno il dovere di ricorrere anche a strumenti e competenze
tecnologiche che arrivano dall’esterno, in particolare da startup, università, istituti di ricerca,
fornitori, inventori, programmatori e consulenti.





- Le sfide dell’attività di sviluppo prodotto:








• Le parole e i simboli usati per rappresentare il nuovo prodotto: include il nome dato al
prodotto, il logo utilizzato, le informazioni riportate sulla confezione, le parole e le immagini
utilizzate nella pubblicità, ecc.
• Il significato razionale ed emotivo attribuito al prodotto: il significato razionale è
principalmente influenzato dalle caratteristiche fisiche e funzionali del prodotto, mentre
quello emotivo può essere soprattutto influenzato da parole e simboli che possono fare di
un nuovo prodotto un oggetto molto desiderato, al di là delle sue funzionalità, si pensi in
particolare ai prodotti di lusso quali orologi, penne stilografiche e prodotti di abbigliamento.

CAP.2 – PIANIFICAZIONE DEI NUOVI PRODOTTI –
La pianificazione dei prodotti (product planning) è l’attività che, partendo dall’esame dell’insieme
(portfolio) dei possibili progetti di interesse dell’azienda, identifica il sottoinsieme di prodotti da
sviluppare in uno specifico arco temporale, ad esempio 2-5 anni. L’attività di pianificazione di
prodotti assicura che i progetti di sviluppo saranno coerenti con la strategia globale dell’azienda e
cerca di dare risposta ad alcune questioni:
Quali progetti di sviluppo vanno intrapresi? Qual è la combinazione più conveniente tra prodotti
interamente nuovi, prodotti basati su esistenti piattaforme tecnologiche e prodotti derivati da altri
già presenti? Qual è la tempistica e la sequenza dei progetti?
A ogni progetto selezionato va poi assegnato un gruppo di lavoro (project development team) che
deve svilupparlo. Prima di iniziare l’attività, il gruppo deve conoscere la sua missione (mission). Nella
cosiddetta “dichiarazione d’intenti” (mission statement) per il gruppo di sviluppo saranno raccolte
le risposte alle seguenti domande fondamentali:
Quali segmenti di mercato si devono considerare nel progetto del prodotto e nella definizione delle
sue caratteristiche? Quali nuove tecnologie (se esistenti) vanno incorporate nel nuovo prodotto?
Qual è il budget e la tempistica del progetto?
- Il processo di pianificazione dei prodotti: il piano di prodotto identifica l’insieme (portfolio) dei
prodotti che l’azienda intende sviluppare e i tempi della loro introduzione sul mercato. Il processo
di pianificazione prende in esame le opportunità di sviluppo di prodotto ottenute da varie fonti, tra
cui le indicazioni del marketing, della ricerca, dei clienti, dei gruppi di sviluppo di prodotto attivi e
dallo studio dei prodotti della concorrenza. Dall’insieme di tutte queste opportunità viene
identificato il portfolio di progetti da sviluppare stabilendone la tempistica e l’allocazione delle
risorse.
- Quattro tipologie di sviluppo prodotto: i progetti di sviluppo di prodotto possono essere
classificati in vari modi, come si è visto anche nel cap1. Di seguito viene proposta una classificazione
in 4 tipologie:
1)Nuove piattaforme di prodotto: questo tipo di progetto mira a realizzare un’intera famiglia di
prodotti basati su di una nuova piattaforma comune. La piattaforma rappresenta una base
tecnologica comune da cui si ricavano vari modelli di prodotto. La nuova famiglia di prodotti si
rivolge a mercati e categorie di prodotti già noti.
2)Derivati di piattaforme di prodotto esistenti: questi progetti estendono una piattaforma di
prodotto esistente per migliorare la copertura di un certo mercato con 1 o più prodotti nuovi. Un
esempio di questo tipo di progetto potrebbe essere lo sviluppo di una nuova fotocopiatrice basata
sulla piattaforma di prodotto esistente di tipo ottico (digitale).
3)Miglioramenti di prodotti esistenti: questi progetti si limitano a effettuare solo aggiunte o
modifiche di alcune caratteristiche a prodotti esistenti per mantenerli aggiornati e competitivi. Un
esempio di questo tipo di progetto potrebbe essere una modifica per rimediare a difetti in una
fotocopiatrice esistente.
4)Prodotti totalmente nuovi: questi progetti riguardano prodotti o tecnologie di produzione
totalmente differenti e possono servire per entrare in mercati nuovi e non familiari.

- Il processo:



Dopo la selezione dei progetti e l’allocazione delle risorse, viene elaborato un mission statement per
ciascun progetto. La formulazione di un piano di prodotto e l’elaborazione del mission statement
precedono quindi il vero e proprio “processo di sviluppo del prodotto”.
Per sviluppare un piano di prodotto e il mission statement dei progetti si suggerisce un processo in
5 fasi:
1) Individuare le opportunità
2) Valutare i progetti definendo le priorità.
3) Attribuire le risorse e pianificare i tempi.
4) Completare la pianificazione pre-progettuale.
5) Riflettere sui risultati e sul processo.

Passo 1: individuare le opportunità. Il processo di pianificazione inizia con l’identificazione delle
opportunità di sviluppo di prodotto. Idee e proposte di nuovi prodotti o innovazioni da apportare a
prodotti esistenti possono scaturire da molte fonti, tra cui, per esempio: marketing e addetti alle
vendite, clienti attuali o potenziali, enti di ricerca o di sviluppo tecnologico, terze parti quali i
fornitori, inventori e soci d’affari (business partner).
L’identificazione di opportunità è strettamente legata all’attività di identificazione dei bisogni del
cliente.
Passo 2: Valutare i progetti definendo le priorità. Tale passo è la selezione dei progetti più
promettenti da sviluppare. Vengono proposte di seguito alcune prospettive in base alle quali
valutare e attribuire delle priorità a opportunità per nuovi prodotti.

- Strategia competitiva e obiettivi dei nuovi prodotti: la strategia competitiva di un’azienda
definisce il suo approccio al mercato e ai prodotti in relazione alle aziende concorrenti. Questa
strategia può quindi guidare la scelta di quali opportunità sviluppare. Sono possibili diverse
strategie, quali:
• Leadership tecnologica: per eseguire questa strategia, l’azienda dà grande risalto alla ricerca
e allo sviluppo di nuove tecnologie e all’utilizzo di tali tecnologie nello sviluppo dei prodotti;
• Leadership di costo: tale strategia richiede che l’azienda sia competitiva nell’efficienza
produttiva, attraverso un’economia di scala, l’uso di migliori metodi di fabbricazione, un
basso costo del lavoro o una migliore gestione del sistema produttivo.
• Differenziazione: con questa strategia l’azienda cerca di ottenere un vantaggio competitivo
ricercando elementi di diversità rispetto ai concorrenti.
• Focalizzazione sui clienti (customer focus): per eseguire tale strategia, l’azienda lavora a
stretto contatto con i clienti attuali e nuovi per valutare i loro mutevoli bisogni e preferenze.
Gli obiettivi assegnati ai nuovi prodotti possono essere differenti. Un nuovo prodotto deve
perseguire un obiettivo generale e un’azienda può avere molteplici progetti di sviluppo ciascuno dei
quali persegue obiettivi differenti. Esempi di obiettivi perseguiti dai nuovi prodotti sono: recuperare
i profitti che sono erosi nella fase di maturità ormai raggiunta dai prodotti esistenti, difendere la
quota di mercato che potrebbe essere erosa dai prodotti lanciati dalla concorrenza, consolidare la
posizione innovativa dell’azienda.
- Posizionamento competitivo: il nuovo prodotto dovrà differenziarsi da quello della concorrenza.
A questo fine è utile riferirsi a “mappe di posizionamento” che aiutano a collocare il nuovo prodotto
rispetto ai concorrenti e ai prodotti attualmente offerti dall’azienda. Le differenziazioni possono
riguardare: il prezzo, la qualità, una o più prestazioni del prodotto (es. velocità di lavorazione,
silenziosità). Un esempio di mappa di posizionamento può considerare 2 dimensioni: prezzo e
prestazioni.


- Segmentazione del mercato: si può pensare ai clienti come appartenenti a distinti segmenti di
mercato. La divisione del mercato in segmenti consente all’azienda di valutare le azioni dei
concorrenti e la forza dei propri prodotti esistenti in relazione a ogni specifico gruppo di clienti. Dalla
collocazione dei propri prodotti e di quelli della concorrenza all’interno dei vari segmenti, l’azienda
può valutare le opportunità che meglio eliminano i punti deboli nella propria linea produttiva e che
meglio sfruttano i punti deboli nell’offerta della concorrenza.



- Traiettorie tecnologiche: nei settori a forte contenuto tecnologico, la decisione chiave per la
pianificazione dei prodotti è quella legata alla scelta dei tempi nell’adozione di una nuova tecnologia
per una linea di prodotti. Per esempio, nel mercato della documentazione, l’evoluzione tecnologica
fondamentale della fine del secolo scorso è stata il passaggio all’elaborazione e alla stampa digitale
delle immagini. Per pianificare i prodotti è stato fondamentale decidere quando iniziare a sviluppare
prodotti bassati sulla tecnologia digitale al posto di altri prodotti basati sulla tecnologia ottica. Le
cosiddette “curve a S” delle varie tecnologie sono uno strumento concettuale che aiuta a riflettere
su tali decisioni.


Passo 3: Attribuire le risorse e pianificare i tempi. È probabile che l’azienda non possa permettersi
di investire su tutte le opportunità di sviluppo di prodotto presenti nel suo portfolio di progetti.
Siccome la tempistica e l’attribuzione delle risorse sono definite sulla base dei progetti più
promettenti, vi saranno normalmente troppi progetti in competizione per risorse insufficienti. Di
conseguenza, il tentativo di assegnare risorse e definire una pianificazione temporale richiederà
quasi sempre il ritorno alla fase di esame e di attribuzione delle priorità per ridurre il numero di
progetti da sviluppare.
- il piano di prodotto: l’insieme dei progetti approvati dal processo di pianificazione ordinati
secondo una sequenza temporale diventa il piano di prodotto (product plan). I piani di prodotto
sono aggiornati periodicamente, ad esempio ogni trimestre o ogni anno, nell’ambito dell’attività di
pianificazione strategica dell’azienda.

Passo 4: Completare la pianificazione pre-progettuale.
Dopo l’approvazione del progetto e prima dell’attribuzione di risorse, deve essere svolta un’attività
di pianificazione pre-progettuale, prima dell’avvio della fase di progettazione vera e propria del
prodotto. Questa attività coinvolge un gruppo di lavoro ristretto, i cui componenti appartengono
alle diverse funzioni aziendali, spesso conosciuto col nome di core team. Il core team comprende
persone che rappresentano un ampio spettro di conoscenze: tecniche, di marketing, della
produzione e dei servizi ai clienti. A questo punto la precedente descrizione di opportunità di
prodotto può essere riformulata in una visione di prodotto.
Esempio (visione): sviluppare una piattaforma digitale, di livello intermedio, condivisibile in rete, per
realizzare immagini e stampe.
L’obiettivo definito nella visione di prodotto può essere estremamente generale. Per fornire
indicazioni chiare all’organizzazione che deve sviluppare il prodotto, il core team può definire più
dettagliatamente il mercato obiettivo e le ipotesi alla base del lavoro di sviluppo. Tutte queste
decisioni vengono raccolte in un mission statement (dichiarazione di intenti), che, in breve, riassume
la direzione da seguire da parte del team di sviluppo del prodotto.
- Mission statement (dichiarazione di intenti): può includere alcune (o tutte) delle seguenti
informazioni:
• Breve descrizione del prodotto (una frase): questa descrizione include tipicamente i
vantaggi fondamentali per il cliente ma evita di fare riferimento a specifici concetti di
prodotto. Potrebbe anche essere la stessa vision di prodotto.
• Obiettivi principali: oltre alle finalità del progetto che rientrano nella strategia aziendale
vanno generalmente inclusi gli obiettivi temporali, di costo e di qualità; per esempio: tempi
per il lancio del prodotto, obiettivi in termini di quota di mercato.
• Mercato(i) obiettivo del prodotto: si identificano sia il mercato primario, sia i mercati
secondari da tener presente nell’attività di sviluppo.
• Ipotesi e vincoli per l’attività di sviluppo: al mission statement si può allegare una
documentazione relativa alle decisioni prese su ipotesi e vincoli.
• Stakeholders: ovvero i gruppi coinvolti direttamente dal successo o dal fallimento del
prodotto.
Passo 5: riflettere sui risultati e sul processo.
Quale passo finale del processo di pianificazione, il team di lavoro dovrebbe farsi alcune domande
per valutare la qualità sia del processo sia dei risultati conseguiti. Si suggeriscono alcune domande:
il piano di prodotto supporta la strategia competitiva dell’azienda? Le risorse complessive allocate
allo sviluppo di prodotto sono sufficienti per sostenere la strategia competitiva dell’azienda? Come
si può migliorare il processo di pianificazione del prodotto?
Poiché il mission statement è il risultato del lavoro del team di sviluppo, è opportuno effettuare una
verifica della fattibilità pratica prima di procedere col processo di sviluppo. Questa fase iniziale è il
momento migliore per rimediare a problemi evidenti, prima che essi diventino più importanti e
costosi man mano che si avanza nel processo di sviluppo.

CAP.3 - LE FASI DEL PROCESSO DI SVILUPPO –
Un processo di sviluppo di prodotto è la sequenza di passi o attività che un’azienda compie per
ideare, progettare e commercializzare un prodotto. Molti di questi passi e attività sono di tipo
intellettuale e organizzativo piuttosto che fisico.
- Le fasi di un generico processo di sviluppo: In figura è presentato un generico processo di sviluppo
di prodotto strutturato in 6 fasi. Il processo inizia con la fase di pianificazione che è il collegamento
alle attività di ricerca e sviluppo tecnologico. L’output della fase di pianificazione è il mission
statement del progetto, che è il documento necessario per la fase di sviluppo concettuale e serve
per guidare il team di sviluppo. La conclusione dell’intero processo di sviluppo è quando il prodotto
è pronto per il lancio sul mercato.
Le fasi di un generico processo di sviluppo sono:
0.Pianificazione: si fa spesso riferimento all’attività di pianificazione come “fase zero” perché
precede l’approvazione del progetto e l’inizio vero e proprio dell’attività di sviluppo del prodotto.
Questa fase parte dalla strategia aziendale e include la valutazione degli sviluppi tecnologici e degli
obiettivi di mercato. Il risultato dell’attività di pianificazione è il mission statement del progetto che
specifica il mercato del prodotto, gli obiettivi del prodotto, le ipotesi fondamentali e i vincoli.



1. Progettazione concettuale: si identificano i bisogni del cliente, si generano e valutano dei concetti
di prodotto alternativi tra loro e si seleziona un singolo concetto per un ulteriore sviluppo. Un
concetto è la descrizione della forma, della funzione e delle caratteristiche di un prodotto ed è
spesso accompagnato da un insieme di specifiche, da un’analisi di prodotti competitivi e da una
giustificazione economica preliminare del progetto.
2.Progettazione a livello sistema (pre-design): comprende la definizione dell’architettura di
prodotto e la suddivisione del prodotto in sottosistemi e componenti.
3. Progettazione di dettaglio: comprende la definizione completa della geometria, dei materiali e
delle tolleranze delle singole parti del prodotto e l’identificazione di tutte le parti standardizzate che
saranno acquistate dai fornitori.
4. Sperimentazione e miglioramento (testing e refinement): richiede la costruzione e la valutazione
di vari prototipi del prodotto.
5. Avviamento della produzione (production ramp-up): il prodotto viene costruito utilizzando il
sistema produttivo previsto.



- Prodotti spinti dalla tecnologia (tecnology-push): disponendo di una nuova tecnologia
proprietaria, lo sviluppo di prodotti technology-push inizia con la ricerca di un mercato appropriato
in cui applicarla (ossia, la tecnologia spinge lo sviluppo di nuovi prodotti).





- Prodotti a elevata incidenza del processo (process-intensive): tra questi vi sono semiconduttori,
alcuni prodotti alimentari, i prodotti chimici e la carta. Per questi prodotti il processo produttivo
pone dei vincoli rigidi sulle caratteristiche del prodotto, per cui non si può separare la progettazione
del prodotto dalla progettazione del processo stesso, nemmeno nella fase concettuale.
- Prodotti su specifiche del cliente (customized): prodotti tipici sono gli interruttori industriali, i
grandi motori elettrici, speciali batterie e container. I prodotti customizzati sono caratterizzati da
variazioni più o meno marcate di una configurazione di prodotto esistente e vengono sviluppati
tipicamente per soddisfare specifici requisiti avanzati dal cliente.
- Altri tipi di prodotti: il processo di sviluppo generico subisce adattamenti anche in altre situazioni,
oltre a quelle precedentemente descritte. Come primo esempio si possono considerare i prodotti
che, durante il loro sviluppo, traggono vantaggio dal fatto di realizzare più prototipi che vengono
testati presso clienti. È il caso del software o di altri prodotti elettronici. Il processo di sviluppo è
altamente flessibile e con iterazioni, cioè avviene seguendo delle spirali in cui le informazioni
ottenute dai vari test servono a modifica-





Il problema della progettazione può essere schematizzato come sopra: esistono 4 domini (del
cliente, funzionale, fisico e del processo) e il percorso di progettazione può essere visto come
un’interazione tra questi 4 domini.
Requisiti funzionali (RF) = funzioni che deve avere il prodotto, ovvero ciò che il prodotto deve fare
per soddisfare le attese del cliente.
Parametri di progetto (DP) = scelte progettuali da prendere in modo tale da soddisfare i requisiti
funzionali e quindi poter fare un’operazione di mappatura tra dominio funzionale e fisico.
OSS: il processo di mappatura da un dominio e il successivo è un processo creativo, quindi renderlo
un processo logico è una forzatura, anche se attualmente si sta cercando di renderlo tale in modo
da avere soluzioni probabilmente meno innovative, ma in tempi rapidi.

Processo di Progettazione: Il processo di progettazione parte sempre da idee astratte di tipo
qualitativo e arriva ad una
descrizione quantitativa in
termini di dimensionali,
geometrici e tecnologici.







La teoria dello sviluppo prodotto:
• Il processo di progettazione genera una determinata corrispondenza tra i quattro domini
(mappatura)
• Il processo di mappatura dei Requisiti funzionali nei Parametri di Progetto è
fondamentalmente creativo ed esprime il senso della progettazione
• In generale la mappatura da un Dominio al successivo è creativa o basata su esperienze
pregresse La fase creativa e quella esperienziale non portano necessariamente a risultati
ottimali




Equazione della progettazione:
- Innovare significa trasformare i problemi in soluzioni” (Eric Reiss)
Problemi = Esigenze
Soluzioni = Prodotti
Ricordiamo che:
FR = requisiti funzionali;
DP = parametri di progetto;



Tale matrice rappresenta l’interazione tra parametri di progetto e requisiti funzionali; ogni volta che
modifichiamo, scegliamo un parametro di progetto alteriamo il risultato della nostra progettazione
in termini di funzionalità che avrà il prodotto.
Esempio: supponiamo di avere una scatola parallelepipeda. Cambiando una delle dimensioni
fondamentali (altezza, larghezza, profondità), cambiano anche l’ingombro e la capacità della
scatola: quindi con una misura alteriamo 2 requisiti, 2 caratteristiche del prodotto.
Se riduciamo le dimensioni riduciamo (peggioriamo) la capacità e viceversa: si tratta di trovare il
valore ideale del parametro di progetto.




Aldilà del modo di strutturare un problema di progettazione, i passi della progettazione sono simili.
C’è un target di progetto, ossia ciò che ci viene chiesto di progettare, con dei vincoli (es. realizzare
un edificio a impatto ambientale zero). Definiamo un’idea di prodotto, effettuiamo una simulazione
con un calcolatore (es. calcolo della resistenza dei materiali), analizziamo i risultati e, se
soddisfacenti, realizziamo un prototipo (fisico); valutiamo tale prototipo, eventualmente lo
modifichiamo e, dopo un certo numero di iterazioni, arriviamo alla delibera del progetto. Maggiore
è il numero di iterazioni, maggiore sarà il tempo impiegato; si può però compattare tale tempo, e
quindi quello di progettazione, con dei software di simulazione.
Il problema è che ogni volta che si prende una decisione in un progetto, si è di fronte ad un
compromesso: bisogna quindi cercare un equilibrio tra tutti i requisiti funzionali, che tengono conto
delle esigenze del cliente. Osserviamo che ci sono degli aspetti, quali comfort o estetica o
leggerezza, che non sono valutabili oggettivamente (es. leggerezza à ognuno a partire dalla stessa
misura, ovvero il peso, darà un giudizio diverso). È importante tener conto del fatto che non tutti i
requisiti funzionali hanno la stessa importanza.
I metodi di progettazione tentano di risolvere il problema della quantificazione di requisiti non
misurabili e il confronto tra requisiti non confrontabili.


Decision making: Esistono differenti metodi che permettono di “prendere decisioni” in maniera
ottimale. L’applicazione di queste tecniche dipende da:
• Tipologia di progetto e caratteristiche richieste 

• Conoscenze intuitive a disposizione del progettista (derivate da esperienza) 

• Conoscenze teoriche (leggi fisiche) 

• Indagini statistiche 

• Disponibilità di materiali e/o componenti commerciali 

• Costi 

• Possibilità tecnologiche 

• Altro.... 

Ottimizzazione nel processo di progettazione:
In tutte le fasi di progettazione ci si pone il problema dell’ottimizzazione poiché:
• Spesso è necessario trovare un equilibrio tra esigenze opposte (es.: bilanciamento delle
tolleranze in dipendenza della precisione del meccanismo e del contenimento dei costi)
• Spesso si devono confrontare e ottimizzare aspetti non quantificabili numericamente (es.: la
carrozzeria di un’autovettura viene valutata esteticamente e strutturalmente)
• Spesso le caratteristiche richieste non hanno la uguale importanza.

Metodi di progettazione/ottimizzazione
In tutte le fasi di progettazione, l’ingegnere può far uso di differenti metodi per “ottimizzare” il
progetto:
• Ottimizzazione, tra le caratteristiche richieste, di quelle di fondamentale importanza
(Approccio algoritmico): cioè, in breve, si migliorano prima le caratteristiche più importanti
e poi, eventualmente, le atre;
• Riformulazione del problema progettuale in modo che sia scomponibile a blocchi
ottimizzabili individualmente (Approccio assiomatico, TRIZ)
• Utilizzo di sistemi di rappresentazione della conoscenza che, con appositi algoritmi, possano
individuare la soluzione ottimale globale (sistemi logici [Fuzzy, doxastica, ...], algoritmi
genetici, Reti neurali, etc.) (Approccio logico o IA)
Esempio: motore inferenziale àè un algoritmo che simula le modalità con cui la mente
umana trae delle conclusioni logiche attraverso il ragionamento. Si fonda sulle regole di
composizione AND-OR; quindi se riceve in ingresso AND e OR restituisce AND e così via…
Ci sono sistemi inferenziali più complessi, come la logica FUZZY usata nei sistemi di controllo.
• Utilizzo di metodi comparativi (AHP, MADM, ...): non è un vero e proprio approccio
metodologico di scelta dei parametri di progetto. In tali metodi si confrontano ipotesi di
soluzione cercando di capire qual è la migliore, quindi essi non guidano verso la scelta di un
valore ottimale per un parametro di progetto.
Es. AHP (analytic hierarchy process): La metodologia consente di confrontare più alternative
in relazione ad una pluralità di criteri, di tipo quantitativo o qualitativo, e ricavare una
valutazione globale per ciascuna di esse. Tale metodo è usato ad esempio nei bandi di gara
pubblica.






OBIETTIVI DA PERSEGUIRE:




Approccio algoritmico: nell’ambito dell’approccio algoritmico si riconoscono dei sottogruppi:
• Progettazione sistematica:
- Pahl and Beitz; 

- Hubka adn Eder; 

- Oshuga; 

- VDI (German Standard Institute); 

- Concurrent Engineering; 

• Progettazione robusta:
- Metodo Taguchi; 

- Metodo 6-sigma (six-sigma);
Tali metodi sono nati in realtà non per l’ottimizzazione di progetto, ma per il controllo qualità.
Il metodo six-sigma in particolare è volto alla realizzazione di prodotti con processi di lavorazione
tali da mantenere in qualità fino a 6sigma (lo standard al di fuori del quale c’è lo scarto è 3sigma;
con tale metodo invece si riesce a non scartare fino a 6sigma).
Taguchi: si cerca di rendere il prodotto non ottimale, ma comunque sufficientemente “robusto”,
cioè si vuole garantire un prodotto che abbia dei RF soddisfatti sempre allo stesso modo (buono).
• Design for X:
- Design for Assembly 

- Design for Manufacturing 

- Design for Maintenance 

- Design for Environment 

Il design for X è un approccio atto a garantire specifici requisiti nell’ambito della fase di
progettazione;
X = proprietà del prodotto che lo caratterizza in relazione a una o più fasi del ciclo di vita.
Si tratta di una Famiglia di “Metodologie” che considerano in particolare alcuni aspetti del ciclo
di vita del prodotto.
Design for Manufacturing: Progettazione dei componenti e dei sistemi in modo tale che la
lavorazione risulti efficiente e di alta qualità. OBIETTIVI: Minimizzare il numero delle parti,
utilizzare parti standard, progettare parti per facilitare assemblaggio.

Design for Assembly: Progettazione mirata a minimizzare i costi relativi all’assemblaggio,
analizzando tempi e costi delle operazioni di assemblaggio direttamente proporzionali al
numero dei componenti da assemblare. OBIETTIVI: Ridurre i rischi di errato assemblaggio del
prodotto, Assicurare accessibilità e visibilità, Minimizzare utilizzo di attrezzi e il numero delle
parti.
Approccio logico:
• Algoritmi Genetici: In sintesi si può dire che gli algoritmi genetici consistono in algoritmi che
permettono di valutare delle soluzioni di partenza e che ricombinandole ed introducendo
elementi di disordine sono in grado di crearne di nuove nel tentativo di convergere a
soluzioni ottime.
• Approcci logici
- Logica Doxastica (delle credenze) 

- Logica Fuzzy: La logica fuzzy o logica sfumata o logica sfocata è una logica in cui si può
attribuire a ciascuna proposizione un grado di verità compreso tra 0 e 1. È una logica
polivalente, e pertanto un'estensione della logica booleana. Con grado di verità o valore di
appartenenza si intende quanto è vera una proprietà: questa può essere, oltre che vera (= a
valore 1) o falsa (= a valore 0) come nella logica classica, anche pari a valori intermedi. Si può
ad esempio dire che:
- un neonato è "giovane" di valore 1
- un diciottenne è "giovane" di valore 0,8
- un sessantacinquenne è "giovane" di valore 0,15
Formalmente, questo grado di appartenenza è determinato da un'opportuna funzione di
appartenenza μF(x)= μ. x rappresenta dei predicati da valutare e appartenenti a un insieme
di predicati X. μ rappresenta il grado di appartenenza del predicato all'insieme fuzzy
considerato e consiste in un numero reale compreso tra 0 e 1. Alla luce di quanto affermato,
considerato l'esempio precedente e un'opportuna funzione di appartenenza monotona
decrescente quello che si ottiene è:
- μF(neonato) = 1
- μF(diciottenne) = 0,8
- μF(sessantacinquenne) = 0,15 

- Logica binaria
• Reti Neurali
• Approcci probabilistici: simili a quelli logici perché misurano la bontà del progetto
valutandone la “probabilità della bontà”.
- Entropia informazionale 

- Probabilità marginale 


Approccio assiomatico:
- Axiomatic Design by N.P. Suh;
- Teoria della complessità;
- Principi di indipendenza e dell’informazione.

Metodi comparativi in fase Concettuale:
- Triz Theory
- Kansei Engineering
- Quality Function Deployment
- AHP (Analitycal Hierarchy Process)





Un buon progettista deve:
- Saper riconoscere il metodo migliore di ottimizzazione in funzione dello specifico problema; 

- Saper integrare ed armonizzare tali tecniche in presenza di problemi complessi.
Pregi e difetti nell’utilizzo dei metodi:
- Ottimizzazioni in tempi ridotti
- Tempi lunghi di implementazione
- Formalizzazione della conoscenza (interessante per aziende che non fanno innovazione);
- Incoscienza del livello di ottimizzazione (metodi comparativi).

Ottimizzazione di progetto:


Ottimizzare un progetto significa massimizzare il valore della Funzione Obiettivo (F.O.):


m(FRs) è il livello di soddisfacimento dei Requisiti Funzionali e dipende dalle scelte fatte sui DPs.
I vari metodi differiscono per il modo di calcolare questa misura.
OSS. La funzione obiettivo dipende dal problema da analizzare: una volta determinati i RF, sapremo
come ricombinarli.
OSS: I parametri di progetto vengono scelti dal progettista.






Axiomatic Design: un po’ di storia
La teoria della progettazione assiomatica è stata sviluppata dal Prof. Nam P. Suh (MIT) che nel 1990
ha pubblicato un testo che comincia con la frase “there exists a fundamentals set of principles that
determines good design practice”.
In tale testo il Suh sostiene che è possibile un approccio assiomatico alla progettazione, da affiancare
a quello algoritmico
ASSIOMA: è una definizione che si crede essere universalmente vera, anche nelle sue applicazioni,
ma che non può essere provata.
L’axiomatic design è stato sviluppato ed è stato, negli anni, anche supportato con lo sviluppo di un
software ad hoc.
È un metodo di progettazione che si basa sulla costruzione di matrici di relazione logico/funzionale
tra i domini della progettazione.



OSS: più semplifico la relazione tra FR e DP, più è semplice l’ottimizzazione della funzione; per
semplificare tale relazione bisogna eliminare delle dipendenze, e ciò in 2 modi: o modificando il
vettore dei DP o modificando la matrice della relazione.
Il metodo TRIZ aiuta ad eliminare delle dipendenze.
I FR sono molto diversi tra loro; alcuni sono misurabili non in maniera quantitativa; c’è una serie di
metodi per misurare in modo omogeneo RF diversi.
Robust design: viene usato come secondo step di ottimizzazioneà identifico un’idea di prodotto,
stabilisco i FR e i relativi pesi, definisco un’idea di come sviluppare il nostro prodotto, cerco di
risolvere le contraddizioni (con tecnica TRIZ o Zigzagging), poi misuro il soddisfacimento dei FR,
calcolo la F.O. e quindi la soluzione migliore e cerco infine di raffinare tale soluzione modificando i
parametri di progetto.
ASSIOMA 1) si basa su un principio molto semplice: esiste una serie di regole per fare un buon
progetto; la principale è avere indipendenza tra i FR. Se ogni DP influenza più di 1 FR ho un problema
di contraddizione. Se non voglio fare una scelta di equilibrio tra due FR devo avere che ogni volta
che scelgo devo agire su un solo FR: in termini matematici la matrice A deve essere diagonaleà ogni
DP influenza 1 FR à scelgo tutti i DP indipendentemente. Questo però è difficile nella realtà!
In breve quindi l’ASSIOMA 1 afferma di mantenere l’indipendenza tra i FR al fine di poterli
ottimizzare separatamente.





[A] indica la dipendenza tra DP e FR e quindi indica quanto varia un FR al variare di un DP (variazione
espressa infatti da una derivata parziale).
Condizione ideale: progetto disaccoppiato àse cambio DP1 cambia solo FR1; se cambio DP2 cambia
solo FR2 e così via…; scelgo quindi i parametri di progetto migliori per ciascun requisito funzionale
senza dover trovare compromessi con gli altri parametri.
Progetto quasi accoppiato (al centro) à è una condizione nella quale si riesce ad ottimizzare il
progetto senza troppi compromessi; si tratta di una matrice triangolare. Osserviamo che FR1
dipende da tutti e 4 i parametri; FR2 solo da DP2, DP3 e DP4,…, FR4 solo da DP4 à se scelgo prima
DP4 ottimizzando FR4 ottengo una matrice triangolare 3x3 in cui FR3 dipende solo da DP3 essendo
DP4 già stato fissato: posso cioè fare un’ottimizzazione ordinata in cascata in cui scelgo prima un
parametro (quello che impatta meno sul progetto) poi il successivo e così via fino all’ultimo.
OSS: quando scelgo DP1 ho già ottimizzato tutti i FR precedenti, quindi posso scegliere liberamente
tale valore senza alterare gli altri; se invece facessi il contrario, cioè se scegliessi prima DP1, non
potrei massimizzare gli altri.
Osserviamo inoltre che in questo caso abbiamo tutti FR dello stesso peso; se invece ad es. FR1 ha
un peso molto maggiore di RF4, vincolare le soluzioni di RF1 e RF4 può essere sbagliato.
OSS: se abbiamo una matrice sparsa, conviene prima cercare di renderla triangolare!








ASSIOMA 1
Assioma dell’indipendenza dei FRs: i requisiti funzionali devono essere, tra loro, indipendenti.
Tale requisito è automaticamente verificato per i progetti “disaccoppiati”



Progetti disaccoppiabili:


Ogni funzione può essere ottimizzata in modo indipendente.

Progetti accoppiati:









I corollari del primo assioma:




OSS: per avere un progetto disaccoppiato bisogna dunque:
1. disaccoppiare i parametri di progetto;
2. minimizzare il numero di requisiti funzionali (e vincoli);
3. integrazione delle parti fisiche àintegrare i parametri di progetto in una singola parte fisica se i
FR possono essere indipendentemente soddisfatti nella soluzione proposta;
4. uso della standardizzazione: usare parti standardizzate o intercambiabili se l’uso di queste parti è
coerente con FR e vincoli. ES. viti, bulloni, etc non si progettano perché esistono gli standard.
5. uso della simmetria à usare forme e/o componenti simmetrici se sono coerenti con FR e vincoli;
6. tolleranze maggiori à specificare la massima tolleranza ammissibile nel definire i FR.
7. progetto disaccoppiato con poche informazioni à cercare un progetto disaccoppiato che
richiede meno informazioni di uno accoppiato nel soddisfare un insieme di FR.
OSS: in alcuni casi possono esserci alcuni DP che influenzano solo alcuni FR; altri DP che influenzano
solo alcuni altri FR e così via à si può parlare di “progetto accoppiato a blocchi”.




Applicazione del primo assioma
I Requisiti Funzionali DEVONO essere indipendenti…
Come fare??
Bisogna fare in modo che il flusso di acqua sia controllato da un solo comando e che
anche la temperatura sia controllata da un solo comando; inoltre i due comandi
devono essere indipendenti tra loro.
Soluzione: leva di controllo flusso complessivo + leva di controllo miscelamento:
troppo complicata!
Applico il 3° Corollario del Suh (Integrazione delle parti):
UNICA LEVA con doppio comando:
1) Cilindrico verticale (movimento dx-sx) per controllo miscelatore
2) Cilindrico orizzontale (movimento su-giu’) per controllo flusso








OSS: lo zigzagging consiste nel creare dei sotto-blocchi, ognuno dei quali può essere ottimizzato
separatamente, sperando che l’integrazione vada bene.
Nella realtà ottimizzo i sotto-blocchi ritenendo che l’ottimizzazione di essi porta comunque ad un
prodotto ottimale. L’alternativa è non riuscire ad ottimizzare.
I problemi non affrontabili: matrici rettangolari ànella realtà è difficile avere matrici quadrate.


RIDONDANTE: ho più soluzioni per i DP a parità di soddisfacimento dei FR;
INSUFF.: trovare un compromesso tra DP e RF è molto difficile.



METODO TRIZ: Teoriya Resheniya Izobreatatelskikh Zadatch (dal russo) traducibile come “Theory of
inventive problem solving”.
Si tratta di una teoria qualitativa che fornisce regole, istruzioni, suggerimenti ed esempi per la
risoluzione di problemi.
La teoria TRIZ è stata sviluppata in Russia a partire dal 1946 dallo studioso Genrich Altshuller, che a
14 anni ottenne il suo primo brevetto. Dall’analisi di circa 400 mila brevetti egli dedusse che:
- il 98% delle invenzioni si basano su principi solutivi noti (cioè non sono vere e proprie innovazioni,
ma reinterpretazioni di cose già esistenti);
- solo il restante 2% è costituito da invenzioni pioneristiche;
- gli inventori (ri)usano inconsapevolmente gli stessi modelli di soluzione (cioè gli stessi approcci per
ottenere soluzioni);
- l’evoluzione tecnologica è un processo sistematico;
- l’innovazione può essere sistematizzata.

Per A è insoddisfacente affidare l’innovazione alle sole logiche empiriche del tipo trial and error.
Altshuller partì dall’analisi di 400.000 brevetti, osservando che problemi e soluzioni si ripetono nei
diversi ambiti tecnologici ed individuando degli schemi generali che sottendono all’evoluzione dei
sistemi tecnici: il 98% delle invenzioni utilizzano un principio risolutivo già noto.
Ciò significa che qualcuno, da qualche parte, ha già risolto il nostro problema! Ma allora, sfruttando
questi modelli, è possibile dare una metodica alla soluzione dei problemi.

La TRIZ è una metodologia sistematica orientata verso l’uomo, basata sulla conoscenza, per la
soluzione inventiva dei problemi.
OSS: i problemi si ripetono e, allo stesso modo, le soluzioni.
Esempio: Cosa hanno in comune un peperone, una nocciolina e un diamante?!?
Ø 1945 à brevetto per denocciolare i peperoni attraverso una brusca riduzione di pressione
Ø 1950 à brevetto per sbucciare arachidi: stesso principio
Ø 1972 à brevetto per dividere in parti pure i diamanti con difetti: stesso principio
Una certa quantità di prodotto (peperoni, diamanti…) viene messa in una camera d’aria, nella quale
la pressione viene incrementata lentamente, per poi essere abbassata repentinamente.
L’improvviso calo di pressione crea una differenza di pressione tra l’interno e l’esterno del prodotto,
col risultato di un’esplosione che divide il prodotto.

Gli ostacoli all’innovazione:
Nell’istruzione tradizionale ci viene insegnato a risolvere problemi. I passi da seguire sono:
- riconoscimento della tipologia;
- definizione del modello e scelta degli strumenti adeguati alla soluzione;
- determinazione della soluzione.
Quest’approccio presenta ottimi risultati nel caso dell’esecuzione di compiti e nella soluzione di
problemi che presentano una certa ripetibilità, ma quando esistono passaggi critici che non sono
noti ecco che diventano necessarie delle soluzioni inventive.
Gli ostacoli principali alla soluzione inventiva dei problemi si possono individuare in:
Ø formazione ingegneristica tradizionale: la conoscenza del problema ci porta spesso a
limitarci all’ambito tecnologico di provenienza limitandoci nell’esplorazione di altri spazi
della soluzione;
Ø inerzia psicologica: per le azioni quotidiane di utilizzano meccanismi dell’abitudine (mentre
guido posso parlare col passeggero): ci si deve liberare da questo automatismo proprio come
ci si deve concentrare sulla guida in presenza di un improvviso banco di nebbia.
Inoltre pensare a soluzioni diverse può comportare dei costi; psicologicamente si è portati a non
innovare;
Ø carenza di creatività.

Creatività vs Età: i 3 aspetti precedenti, cioè formazione ingegneristica tradizionale, inerzia
psicologica, creatività cambiano in funzione dell’età del soggetto in questione.



In tale grafico viene riportato l’andamento della creatività in funzione dell’età dell’individuo
secondo diversi studiosi. Altshuller ad esempio ritiene che il picco della creatività si ha a 14 anni (età
alla quale ottenne il suo primo brevetto), poi si osserva una decrescita della stessa.


A partire da un problema specifico, per trovare una soluzione inventiva a tale problema, bisogna
eliminare una barriera costituita dall’inerzia psicologica. L’idea di Altshuller è quella di analizzare ed
astrarre il problema, studiandolo in via assolutamente teorica e dopodiché generare delle soluzioni
assolutamente teoriche e riportare tali soluzioni nel problema specifico, ottenendo quindi una
soluzione specifica.
Per effettuare tale passaggio da un problema specifico ad un modello generale del problema
bisogna capire a che punto del trend evolutivo ci si trova, definire tutte le relazioni nello spazio, nel
tempo e di interfaccia, valutare l’impiego di risorse, l’idealità e le contraddizioni. Valutati questi 5
aspetti, si è in grado di definire un modello generale teorica del problema e quindi si può procedere
alla ricerca di una soluzione generica. Trovate una o più soluzioni generiche si possono cercare delle
soluzioni specifiche.

SPAZIO TEMPO INTERFACCIA:
Ø In TRIZ assume notevole importanza la capacità di analizzare un problema da tutte le
angolazioni possibili: ciò significa saper cambiare la prospettiva nello spazio, nel tempo e
nelle sue interfacce.
Ø Uno strumento utile in questa fase è la matrice per il Multi Screen Approach.


Spazio: dal singolo dettaglio alla visione complessiva del contesto
Tempo: considerando il sistema nell’evoluzione dal suo passato al prossimo futuro
Interfacce: interne ed esterne
Matrice a nove quadranti in cui si parte dal sistema in esame per poi considerare i suoi sottosistemi
ed il suo supersistema, e se ne valutano le rispettive caratteristiche nel tempo.
Esempio: problema della verniciatura del legno per i mobili: processo in cui la contraddizione
maggiore è data dall’impossibilità di aumentare di troppo la velocità senza rischiare di perdere in
qualità.
L’ingegneria giapponese: irrigazione degli alberi con acqua già colorata.
OSS: con riferimento alla matrice: al centro abbiamo il prodotto nel presente, ovvero nel momento
in cui viene utilizzato. Tale utilizzo dipende dal contesto (ad es. se non ci fosse la carta, la matita non
avrebbe alcuna utilità)àquando si fa un nuovo prodotto bisogna immaginarlo nel momento di
utilizzo e chiedersi come lo si utilizza, in quale contesto, cosa succedeva nel passato e cosa succederà
in futuro (in particolare si pensi ad aspetti quali l’inquinamento, il riciclaggio). Bisogna evidenziare
tutti i problemi/opportunità che possono presentarsi. Il prodotto è un sistema nel presente, fatto di
sottosistemi: la penna ad esempio è fatta dal tappo, dall’inchiostro, ecc., ma ha bisogno della carta
per essere usata, di qualcuno che vende tutto ciò che serve (supersistema).
L’approccio al futuro fa pensare ai prodotti in modo diverso.

Esempio:





IMPIEGO DELLE RISORSE:
Ø Risorsa è qualsiasi cosa all’interno del sistema che non sia impiegata al massimo delle sue
potenzialità.
Ø La ricerca di tali risorse rivela nuove opportunità attraverso le quali migliorare il sistema
esaminato.
Ø Dunque, sfruttare le risorse significa aumentare le UF (funzioni utili) e quindi aumentare
l’idealità del sistema.
È il caso di segnalare che fra le Risorse bisogna mettere anche gli elementi dannosi del sistema
(calore da smaltire, scarti di lavorazione, fenomeni di risonanza, etc.).
ESEMPIO: Le bottiglie dell’acqua minerale frizzante usano la pressione della CO2 come risorsa per
aumentare la rigidezza del sistema (infatti rispetto a quelle dell’acqua naturale hanno uno spessore
inferiore ed una geometria più semplice).

IDEALITA’: Atto mentale di creazione di un oggetto astratto, che non può esistere nella realtà e che
non può essere ottenuto tramite un esperimento.

å UF å UF
Idealità = Idealità =
å HF , cioè å cos ti + å danni
dove:
Ø Danni: ci si riferisce soprattutto all’inquinamento, alle malattie che potrebbe comportare
l’uso del prodotto (si pensi alle radiazioni elettromagnetiche dei cellulari);
Ø Costi: quelli da sostenere per usare il prodotto: acquisto + manutenzione + materie di
consumo;

Il prodotto migliore è quello che ha un rapporto di idealità maggiore.

IFR: Pensare alle soluzioni, non ai problemi!!!
Avendo come scopo ultimo l’Ideal Final Result (IFR): la soluzione migliore al problema.
Metodo inverso: si parte dal fondo. Nota la soluzione, è possibile scartare altri metodi che altrimenti
andrebbero considerati.

Esempio idealità:
Per eseguire dei test di resistenza alla corrosione dei materiali alcuni provini vengono immersi in un
recipiente pieno di uno specifico acido. Il recipiente deve essere rivestito internamente con uno
strato protettivo per impedire che si corroda durante l’esperimento. Tuttavia l’evidenza dei fatti ha
dimostrato che lo strato di protezione si corrode anch’esso in minima parte, influenzando le reazioni
chimiche tra l’acido e il provino immerso. Che fare?
La soluzione ideale dal punto di vista del TRIZ prevede che il recipiente scompaia: infatti dal punto
di vista concettuale per realizzare l’esperimento servono solo l’acido e il provino. La soluzione
implementata nella realtà consiste nel realizzare il recipiente che contiene l’acido col materiale da
testare. In questo modo la funzione “recipiente” si unisce alla funzione “provino”, ottenendo il
risultato sperato (lo strato di protezione non influenza più l’esperimento perché non c’è più) e
semplificando notevolmente il sistema.

I sistemi evolvono nel tempo verso un maggiore grado di idealità…


nel tempo infatti si aggiungono delle funzioni riducendo costi e danni: è il trend evolutivo.







TREND EVOLUTIVI:



Uno dei più importanti contributi di A. sta nell’aver identificato nei brevetti analizzati le tendenze
seguite normalmente dei sistemi verso il RFI. È possibile riconoscere facilmente queste evoluzioni
anche negli oggetti più comuni: ad esempio il trend chiamato dinamizzazione è la tendenza di un
sistema ad adattarsi al contesto esterno, aumentando i suoi gradi di libertà, partendo da un sistema
completamente rigido, passando ad un grado di libertà, poi a due fino ad arrivare alla completa
flessibilità, per poi passare ad uno stato liquido/gassoso ed arrivare infine ad un campo energetico.

CONTRADDIZIONI: Una contraddizione è letteralmente una proposizione che asserisce qualcosa di
opposto o incompatibile con un’altra.
Abbiamo già parlato di astrazione …
L’ipotesi è sempre che problemi differenti in campi di applicazione diversi possono portare ad una
medesima contraddizione a livello astratto.
Bisogna trovare un equilibrio tra requisiti funzionali che si muovono in direzioni opposte.
L’approccio tradizionale ingegneristico corrisponde alla ricerca del trade-off tra le rispettive curve
caratteristiche che porta il progettista ad individuare la soluzione ottima. Questa soluzione è però
spesso insoddisfacente: un PC con un’autonomia appena sufficiente e un peso non trascurabile.
Le soluzioni che di seguito proponiamo hanno un grande potere euristico (cioè un potere di
stimolare idee inventive) ma non pretendono d’essere strumenti infallibili.

Ci sono diversi tipi di contraddizioni:
CONTRADDIZIONI TECNICHE:
Ø Hanno luogo quando un’azione è simultaneamente utile e dannosa
Ø Rappresentano un conflitto tra due sub-system
Ø Strumento: matrice delle contraddizioni: Sulla colonna si sceglie il
parametro che deve essere migliorato, sulla riga quello che può
peggiorare in virtù del miglioramento del primo. Le celle sulla
diagonale sono vuote perché il contemporaneo miglioramento e
peggioramento di uno stesso parametro esula dallo scopo della
matrice atta a risolvere contraddizioni tecniche e non
contraddizioni fisiche.

ESEMPIO 1:



OSS:
FORMA (non deve essere modificata la forma classica della scarpa);
Faciltà di operazioni (non deve essere difficile infilarsi le scarpe).


La parte centrale delle scarpe da tennis è stata fatta a onde e si può estendere a fisarmonica. Le
onde sono tenute in una certa posizione. La forma si cambia premendo il bottone sul tacco per
rilasciare le onde ed estendere le scarpe in base alle dimensioni del piede. Lasciando il bottone, le
onde si fissano in una nuova posizione (rispettavano i parametri degli ortopedici, grande successo)
ESEMPIO 2:


OSS:
Parametro da migliorare: VOLUME DI UN OGGETTO STAZIONARIO (lo spazio occupato dalla
stampante)
Parametri che si peggiorano: LUNGHEZZA DI UN OGGETTO MOBILE (il foglio, le cui dimensioni
tendono a ridursi con il diminuire del volume)
Principio: curvatura



non si muove linearmente come le comuni stampanti a getto d’inchiostro, ma lungo una
circonferenza. La stampante stessa è un anello attraverso il quale passa un foglio di carta arrotolato.
Stampante tre volte più piccola: ha vinto una delle medaglie d’oro alla competizione per progettisti
IDEA.

ESEMPIO 3:



















CONTRADDIZIONI FISICHE:
Ø Un dato sub-system dovrebbe avere sia la proprietà A che la
proprietà non-A per soddisfare le condizioni del problema.
Ø Il conflitto riguarda un elemento all’interno di un sub-system.
Ø Strumento: Principi di separazione.

LA SEPARAZIONE:
Ø Separazione nel tempo (es. affondamento pali in Siberia): Un’esigenza esiste in un periodo
di tempo ma non in un altro;
Ø Separazione tra parti e assieme (es. catena trasm. bici): Un’esigenza esiste a livello di sub-
system ma non al livello superiore o inferiore;
La catena della bici deve essere sufficientemente rigida per reggere il tiro alla pedalata e
sufficientemente flessibile per adattarsi alle ruote dentate
Ø Separazione sotto condizione (es. setaccio): Un’esigenza esiste sotto certe condizioni ma
non altre.
La granulometria che si vuole ottenere dipende dall’applicazione.
Ø Separazione nello spazio: Un’esigenza esiste in un luogo ma non in un altro.
Es: la retromarcia dell’auto si usa per fare manovre in un parcheggio ma non la usiamo in
strada.

OSS: Esempio dell'Affondamento dei Pali in Siberia (superfici permanentemente ghiacciate).
Era desiderabile che i pali fossero puntati all'estremità in modo che fosse più semplice affondarli nel
terreno. D'altra parte, per avere una capacità massima di sostenere il peso e resistere agli
assestamenti, era desiderabile che i pali fossero smussati.
Una soluzione a questo problema si ottenne includendo una camera vuota nel palo da affondare
riempita con del filo metallico, del pietrisco cementato e una carica esplosiva.
Dopo aver affondato il palo sino alla sua posizione finale la carica veniva fatto esplodere, creando
una base smussata. Quindi, abbiamo un esempio di separazione del tempo: il palo era stato puntato
momento in cui era stato affondato, e smussato quando era stato trasportato il peso.

ESEMPIO 4:



In particolare possiamo usare i principi della separazione nello spazio: segmentazione, estrazione,
qualità locale, muovi verso un’altra dimensione, inversione, curvatura, matrioska, superfici flessibili
e rivestimenti, asimmetria, intermediario, copia.
n Soluzione: Padella asimmetrica (usiamo asimmetria, qualità locale, estrazione)à
- Asimmetria: zona torica e zona conica
- Qualità locale: parte ottimizzata per girare la frittura e
parte ottimizzata per la sua estrazione
- Estrazione: viene estratta su entrambi i lati la funzione
dannosa, ottimizzandoli per quella fruttuosa








VERSO LA SEMPLICITA’: Come fanno gli astronauti a scrivere senza gravità?
Ø La NASA, negli anni 60, ha finanziato un progetto di ricerca per realizzare delle apposite
penne, efficaci ma costosissime.
Ø La soluzione dei russi (che applicavano la TRIZ) è stata di fornire gli astronauti di matite.


METODI MULTICRITERIO - “MULTIPLE CRITERIA DECISION MAKING (MCDM)”: processo
decisionale in presenza di più criteri.

Esiste la possibilità di confrontare diverse soluzioni sulla base di più criteri. Si cerca la soluzione
migliore tra le proposte. Gli approcci multicriterio sono tanti. In genere si assegnano punteggi alle
varie proposte e si sommano con particolari regole i vari punteggi.
Es. matrice di interrelazione:


Decisione multicriterio: scelta di una azione o alternativa tra un insieme di alternative ammissibili
effettuata sulla base di due o più criteri.
Criterio: indicazione su come valutare un tipo di prestazione misurata per le diverse alternative,
ovvero su come deve essere scelta l’alternativa più efficiente rispetto quella prestazione (e.g., il
calcolatore meno costoso, la moto più maneggevole, l’auto con meno consumi).

Nel caso del MCDM i criteri sono in generale contrastanti: bisogna trovare una decisione di
compromesso. Il decisore è un esperto che dà un giudizio di misura dei vari parametri.

OSS: i RF possono essere definiti quali criteri. Il problema è quantificare la misura della prestazione
(es. è difficile dare una misura dell’estetica o dell’ergonomia).

Le alternative considerate possono essere:
- discrete e finite (enumerabili);
- continue ed infinite (non enumerabili).

Attributo: misura (valore) di una prestazione di una alternativa; è un parametro; è fornito nel caso
di alternative discrete.
Obiettivo: una funzione che misura una prestazione per un’alternativa definita come punto nello
spazio delle variabili decisionali; utilizzata nel caso di alternative di tipo continuo.
In altri termini è una formulazione matematica che mette insieme le misure dei RF o dei criteri
secondo determinati criteri matematici.

Approccio generale al MCDM:
- utilizzare le informazioni note (factual elements) ed i giudizi espressi dal decisore (value elements)
per determinare una decisione di compromesso;
- ovvero aiutare il decisore a selezionare l’alternativa più coerente con la sua struttura di preferenza;
- tipi di regole decisionali (decision rules):
1) regole di ottimizzazione (optimizing rule): stabilire un ordinamento completo tra tutte le
alternative (l’ottimo);
2) regole di soddisfacimento (satisficing rule): determinare un’alternativa soddisfacente senza
ottimizzare globalmente.

I metodi decisionali multicriterio (fase di analisi e valutazione delle alternative e decisione) hanno
tutti una struttura comune: vi è la formulazione del problema (in termini di obiettivi e alternative),
l’acquisizione delle informazioni (fornite dal decisore, giudizi di preferenza), l’elaborazione delle
informazioni, quindi l’applicazione del metodo MCDM (bisogna tenere in considerazione decision
rule e ipotesi sulla struttura di preferenza del decisore) e infine la decisione (quindi l’alternativa
scelta).

MAXIMIN – caratteristiche:

- gli attributi devono essere commensurabili (misurati rispetto una scala comune);

OSS: si hanno problemi di commensurabilità degli attributi, ogni caratteristica ha le sue scale di
misurazione, quindi bisogna normalizzare rispetto alla stessa base;

- utilizza un sottoinsieme delle informazioni disponibili;

- non esiste la possibilità di compensare tra loro i valori degli attributi.
ESEMPIO: MAXIMIN

L’approccio ottimista ha un’anomalia, perché non tiene conto della molteplicità dei massimi.

ESEMPIO: MAXIMAX



ESEMPIO: MAXIMAX



La procedura di Hurwicz consiste nel fare un compromesso tra minimo e massimo. In pratica si
prende il min e il max di ogni alternativa e se ne fa una media pesata; poi si sceglie l’alternativa con
il punteggio mediato migliore.
Una media pesata implica che viene assegnato un coefficiente a al min e un coefficiente 1-a al max:
questa procedura viene adottata quando non si sa se essere ottimisti o pessimisti. È importante poi
assegnare il giusto peso al min o al max: posso ad esempio considerare allo stesso modo min e
maxàscelgo a=50%; se sono più pessimista che ottimista, scelgo a=0,7 così che il min pesa più del
max. A seconda del valore di a ovviamente può cambiare il giudizio.
Chi sceglie a? Quanto vale a? La risposta non c’è.
The Analytical Hierarchy Process (AHP):



È un processo analitico gerarchico in cui viene dato un metodo per l’assegnazione dei punteggi alle
varie alternative secondo vari criteri. Ogni alternativa è collegata a tutti i criteri e, viceversa, ogni
criterio è collegato a tutte le alternative.
L’approccio AHP si basa su una matrice si comparazione. Si confrontano le varie alternative rispetto
ad una caratteristica.

Performance Tree Example: comprare un’auto per andare a lavoro.
Ø Requisito: la macchina dovrebbe ospitare 4 persone incluso l’autista;
Ø 3 attributi:
- chilometraggio del gas (gas mileage);
- prezzo;
- comfort.
Ø 3 livelli di rating.











ESEMPIO:









AHP



AHPà ESEMPIO – CONFRONTO A COPPIE –

- Si considerino i seguenti criteri:
A) Costo di acquisto; B) costo di manutenzione; C) chilometraggio del gas;
- Si vogliono trovare i pesi di tali criteri;
- L’AHP confronta ogni cosa a due alla volta:

1) Si confronta A con B:
qual è più importante? Supponiamo A
di quanto? Supponiamo moderatamente à3

2) si confronti A con C:
qual è più importante? A
di quanto? Molto più importante à5

Consistenza: le valutazioni (ratings) dovrebbero essere consistenti in 2 modi:
1) le valutazioni dovrebbero essere transitive;
questo significa che: se A è meglio di B e B è meglio di C allora A deve essere meglio di C.
2) le valutazioni dovrebbero essere numericamente consistenti:
- nell’esempio dell’automobile abbiamo fatto 1 confronto in più del necessario:
sappiamo che P = 3M e P = 5G à3M = 5G à M = (5/3)G.

La matrice di consistenza per l’esempio dell’auto dovrebbe essere:


NOTA: la matrice ha rango 1, quindi le righe sono multiple tra loro.
I pesi sono facili da calcolare per questa matrice: sapendo che le righe sono multiple tra loro,
calcolando i pesi normalizzando ogni colonna, otteniamo:




Applicazione dell’AHP:

Ponderazioni dell’AHP:

1: approssimativamente uguale;
2: leggermente più importante di…;
3: più importante di….


Quindi per i prodotti A e B in relazione ai criteri di importanza:





OSS: se ho un giudizio di A rispetto a B e di A rispetto a C, che è matematico, posso determinare il
giudizio di B rispetto a C incrociandolo con i giudizi di A rispetto a C e A rispetto a B.
Supponiamo che A/B = 3 E A/C = 2 à A = 3B e A = 2C à 3B = 2C à B = 2/3C ànella rispettiva casella
dovrei mettere il valore 2/3, ma seguendo la regola di Saaty, si possono mettere solo numeri interi
tra 1 e 9 o i loro reciproci à2/3 non può essere messo, quindi inserisco 1 che è il più vicino,
ottenendo però una matrice inconsistente (cioè che esprime giudizi matematicamente diversi sulle
varie righe).
Allora Saaty per forzare la consistenza afferma che è possibile mettere anche numeri razionali (2/3).

APPLICAZIONE del metodo AHP di Saaty:
Dunque una matrice di confronto a coppie (pairwise comparison matrix PCM) di tale criterio può
essere espressa da:


EIGEN ANALYSIS – POWER METHOD



OSS: forzando la matrice, da una sola riga posso ricavare tutte le altre: moltiplico la matrice per un
vettore di tutti 1, sommo gli elementi della riga e poi normalizzo a 1, ottenendo dei punteggi per
ogni riga.
Poi elevo la matrice al quadrato ed effettuo la stessa procedura. Se elevo alla decima potenza e
rifaccio l’operazione, ottengo un valore che differisce alla quarta cifra decimale dal secondo casoàil
punteggio si stabilisce (il vettore finale è sempre più simile al precedente). Se la matrice è
consistente i valori ottenuti dalla normalizzazione sono sempre gli stessi e sono anche quelli ottenuti
dalla prima colonna. Cioè se la matrice è consistente, normalizzando a 1 una qualsiasi colonna,
ottengo sempre gli stessi valori.

- Pesi per matrici Inconsistenti:
METODO 1 – METODO DEGLI AUTOVALORI/AUTOVETTORI (Eigenvalue/Eigenvector Method) –
Gli autovalori sono strumenti importanti in molte applicazioni matematiche, scientifiche e
ingegneristiche. Definiti come segue:
- per una matrice quadrata A e un vettore x, l=autovalore di A dove Ax=lx, x nonzero, x è dunque
l’autovettore associato a l.



Pesi per matrici Inconsistenti, PROPRIETA’:

- il numero di autovalori non nulli (nonzero Eigenvalues) per una matrice è uguale al suo rango (una
matrice consistente ha rango 1);
- la somma degli autovalori è uguale alla somma degli elementi della diagonale della matrice (all 1’s
for consistent martix).



Measuring consistency:
- Ricordiamo che per una matrice di confronto consistente 3x3, l=3;
- confrontiamo con lmax dalla matrice;
- usiamo un test statistico:



APPLICAZIONE:



AHP: è un altro modo di strutturare un problema di decisione, usato per dare priorità alle
alternative. Cerca di rispecchiare il processo di decisione dell’uomo. È facile da usare, molto
intuitivo.

COSTRUIRE LA GERARCHIA: la gerarchia corrisponde ai valori dei decision maker.





DEFINIRE L’OBIETTIVO: scegliere una nuova auto.
DEFINIRE I CRITERI: stile, affidabilità, economia del consumo di carburante;
SELEZIONARE LE ALTERNATIVE: civic coupe, saturn coupe, ford escort, renault clio.





Come ottenere un ordine di priorità da una matrice di confronto a coppie? Tramite gli autovettori.
Saaty dimostrò matematicamente che la soluzione degli autovettori fosse il migliore approccio.
METODO DEGLI AUTOVETTORI:
1) un modo veloce per ottenere questo ordine (ranking) è elevare la matrice di confronto a coppie
a potenze di cui viene fatta successivamente la radice ogni volta (raise the pairwise matrix to powers
that are successively squared each time);
2) si calcolano poi le somme delle righe e si normalizzano;
3) il computer è programmato per fermarsi quando la differenza tra queste somme in 2 calcoli
consecutivi è più piccola di un certo valore prefissato.






“RETI NEURALI E ALGORITMI GENETICI”:
La scienza cognitiva è l’insieme delle discipline (intelligenza artificiale, psicologia cognitiva,
linguistica, filosofia della mente e del linguaggio, neuroscienze, antropologia), che hanno per
oggetto lo studio dei processi cognitivi umani e artificiali.
- Introduzione alle reti neurali artificiali:
Nonostante i risultati conseguiti nell’automazione di alcuni processi intelligenti, le macchine offrono
ancora un comportamento piuttosto primitivo e incomparabile con l’uomo nella simulazione dei
processi percettivi.
Tale processo esige la capacità di segmentazione che, tuttavia, non può aver luogo solo con
operazioni di basso livello basate, per esempio, sul rilievo di variazioni di luminosità.
Per via dell’enorme variabilità dovuta alla velocità di pronuncia, alla prosodia, al parlatore e a varie
altre condizioni di rumore, le parole, non sono facilmente rappresentabili mediante un dizionario di
centroidi, ovvero di “istanze medie” di riferimento delle parole del dizionario.
- la metafora neurobiologica:
• Il neurone è il mattone elementare che
caratterizza tutte le strutture cerebrali ed è sede di
processi elettrochimici responsabili per la
generazione di campi elettromagnetici.
• Le sinapsi costituiscono il mezzo attraverso cui
giungono al neurone i segnali provenienti dalla rete.





• Le funzioni cognitive risiedono in
particolari zone: tali funzioni possono
essere perdute a seguito della “rottura”
dei legami sinaptici.
• Essendo il comportamento dei
neuroni noto, è possibile trarre
ispirazioni per la costruzione di macchine
in grado di replicare compiti connotati da
una forte componente di elaborazione
sotto simbolica?

- reti neurali artificiali:

• Molti modelli connessionistici sono ispirati al
paradigma biologico a livello di unità neuronale, dove si
eredita il principio che l’attivazione neuronale è
soggetta a eccitazioni e inibizioni dalle unità connesse.
• Principio di Lotfi Zadeh sul softcomputing.




• L’elemento alla base della rete neurale, e cioè il sistema di elaborazione, è il neurone
artificiale.
• Il neurone formale è una schematizzazione del neurone biologico.
• Le sue funzioni principali sono:
- l'attivazione neuronale;
- l'attività del neurone;
- connessioni fra unità;
- calcolo dell'input.

- Funzionamento di una rete neurale:
• Le reti neurali si basano sul modello proposto da McCullock e Pitts.
• Il segnale di input deve essere moltiplicato per il peso della connessione attraverso cui arriva
al neurone.
• Il risultato delle moltiplicazioni viene sommato e se la somma supera una certa soglia il
neurone si attiva attivando la sua uscita.


n
NETi = åWij y j
j =1
yi = f ( NETi - Ji )












- Architettura di una rete neurale:


- una rete è formata da tre strati:
• input units: questo strato si preoccupa di trattare gli ingressi in modo da adeguarli alle
richieste dei neuroni;
• hidden units: si preoccupa dell'elaborazione vera e propria;
• output units: si preoccupa di raccogliere i risultati ed adattarli alle richieste del blocco
successivo della rete neurale.
Queste reti possono essere anche molto complesse e coinvolgere migliaia di neuroni e decine di
migliaia di connessioni. Si parla perciò di architetture neuronali.

- Esempi di neuroni artificiali:
• I neuroni del primo tipo (a sinistra) si eccitano per punti che sono situati sopra il piano di
separazione, dove si annulla l’attivazione, e si inibiscono per punti situati al di sotto.
• Le unità del secondo tipo (a destra) si eccitano per punti contigui al centro (wia; wib; wic) e
si inibiscono quando ci si allontana, con una velocità commisurata al parametro radiale σi.


• L'architettura di una rete è definita dalle funzioni di trasferimento e apprendimento, dai
pattern di connessioni e dal numero di unità.






- Modalità di apprendimento:
• L'addestramento è il processo mediante il quale la rete impara a riconoscere la relazione
incognita che lega le variabili d'ingresso a quelle d'uscita.
• Esistono diverse regole d’apprendimento tra cui:
- regola di Hebb;
- regola delta generalizzata;
- back propagation.
• Si individuano tre diverse modalità di apprendimento a seconda del ruolo esercitato dal
supervisore del concetto:
- l’apprendimento con supervisione;
- l’apprendimento con rinforzo;
- l’apprendimento senza supervisione.

- Algoritmo di Backpropagation:
• Permette di modificare i pesi delle connessioni in modo tale che si minimizzi una certa
funzione errore E.


• Per minimizzare E(w) si può usare l'algoritmo della discesa del gradiente (gradient-descent).
• L'algortimo parte da un punto generico e calcola il gradiente . Il gradiente
dà la direzione verso cui muoversi lungo la quale si ha il massimo incremento. Definita la
direzione ci si muove di una distanza η predefinita a priori e si trova un nuovo punto
sul quale è calcolato nuovamente il gradiente. Si continua iterativamente finché il
gradiente non è nullo.

• L'algoritmo di backpropagation può essere diviso in due passi:
• forward pass;
• backward pass.
- Il percettrone: Rappresentano una semplificazione estrema del sistema nervoso centrale. Il
percettrone è un caso particolare di rete neurale, in cui una qualsiasi uscita della rete è
completamente indipendente dalle altre perché ciascun peso influenza solo uno degli output.
Le unità elementari possono rappresentare le funzioni booleane semplici.
• Ma quali funzioni booleane possono essere
rappresentate con un percettrone a singolo strato?
• Il percettrone, date le sue particolari caratteristiche che
semplificano l'analisi e la sintesi di reti neurali, permette
di rappresentare solo alcune funzioni booleane
complesse.








• Ogni funzione è rappresentata per mezzo di un grafico bidimensionale in base ai valori dei
due ingressi.


• Un percettrone può rappresentare una funzione solo se c'e una qualche linea retta che
separa i pallini bianchi da quelli neri. Tali funzioni sono dette linearmente separabili.
• L'ingresso di un percettrone, con due input, e' dato da: I = W1*X1 + W2*X2 + Q
• Gli ingressi che causano una transizione dell'uscita da 0 a 1, corrispondono all'equazione:
W1*X1 + W2*X2 + Q = 0
• Pertanto un percettrone può rappresentare la AND e la OR, ma non la XOR.
• Eguali problemi si sono avuti nel caso di processi cognitivi, quali ad esempio il
riconoscimento di forme.
• L'idea di base è quella di modellizzare la
retina, vista come una matrice di sensori
luminosi, la cui uscita è collegata in modo fisso
e geneticamente predeterminato ad un
insieme di elementi elaborativi (demoni) che
sono in grado di riconoscere particolari pattern
di ingresso. L'uscita dei demoni va a unità
logiche a soglia, con output nullo fino alla
soglia, poi crescente linearmente. La rete che
ne risulta e' strettamente feedforward (non
contiene feedback), non ha comunicazioni fra
elementi elaborativi o operazioni casualizzate.
I percettroni sono reti a tre livelli:
• livello di ingresso;
• livello intermedio;
• il livello di uscita.

- Pregi e difetti delle reti neurali:
• Pregi:
- Trattano molti dati in quanto lavorano in modo parallelo;
- Buona immunità al rumore;
- Riduzioni delle prestazioni in caso di malfunzionamento di alcune unità (e non blocco del sistema);
- Alto grado di utilizzabilità in presenza di dati storici.
• Difetti:
- Black Box: i dati ricavati non possono essere spiegati attraverso il linguaggio simbolico umano;
- Efficienti se le variabili predittive sono scelte con cura;
- Impossibilità di trattare variabili di tipo categorico (ad esempio nomi di città);
- Richiesta di una fase di apprendimento;
- Impossibilità di definizione della rete ottima: dipendenza dall’esperienza del creatore.

Applicazione: lettura targhe. Un’applicazione è il riconoscimento di targhe automobilistiche
acquisite mediante ordinarie telecamere in ambiente autostradale utile per le società di gestione
del traffico in corrispondenza delle stazioni di esazione a seguiti di infrazioni in impianti automatici.
Il sistema è composto da moduli sviluppati con tecnologia neurale. Un modulo di controllo provvede
a sincronizzare le operazioni dei moduli
slave delegati ad assolvere le funzioni di
segmentazione della targa, dei caratteri e
riconoscimento dei caratteri. Altri moduli
esprimono vincoli grammaticali sulle
stringhe possibili oltre a una probabilità a
priori che si presenti una data targa.
Il riconoscimento dei caratteri è basato su
due moduli. Il primo contiene percettroni
multistrato con struttura ad
autoassociatore, che modellano le classi
attese. La struttura può integrarsi
dinamicamente quando si presenta una eventuale altra classe. Tale modulo ha la funzione di
stabilire una lista di classi candidate, mentre il modulo a fianco, basato su percettroni multistrato
con struttura a classificatore, serve a raffinare la decisione.

- Introduzione agli algoritmi genetici:
• Gli algoritmi genetici (GA) sono metodi adattativi che possono essere usati per risolvere
problemi di ricerca e ottimizzazione.
• Sono in grado di evolvere soluzioni per problemi del mondo reale, in analogia al principio di
selezione naturale di Darwin.
• Lavorano con una popolazione di individui ciascuno dei quali rappresenta una possibile
soluzione del problema posto.
• Ad ogni individuo è associato un punteggio di adattamento detto "fitness score.
• Gli individui migliori hanno la possibilità di riprodursi incrociandosi con altri individui della
popolazione.
• Questa nuova generazione contiene una proporzione più alta delle caratteristiche possedute
dagli individui buoni della precedente.
• Essi non garantiscono di trovare una soluzione ottima per un problema, ma generalmente
trovano una soluzione sufficientemente buona e in tempi sufficientemente rapidi.

Algoritmo di evoluzione della soluzione:












Principi di base:
• Codifica: si assume che una possibile soluzione per un problema possa essere rappresentata
come un set di parametri (detti geni) i quali sono uniti insieme per formare una stringa di
valori (spesso chiamata cromosoma).
• Il numero di bit richiesto per rappresentare le variabili viene determinato in funzione della
precisione richiesta e dell’ampiezza del dominio di definizione attraverso la seguente
formulazione:
U max - U min
p=
2l - 1
• Funzione Fitness: Per ciascun problema da risolvere deve essere costruita una specifica
funzione fitness. Dato un particolare cromosoma, la funzione fitness restituisce un singolo
valore numerico "fitness" o una "figura di merito", che si suppone sia proporzionale alla
utilità o abilità dell'individuo che il cromosoma rappresenta.
• Riproduzione: durante la fase di riproduzione di un GA, gli individui sono selezionati tra la
popolazione e ricombinati, producendo la discendenza che sarà compresa nella generazione
successiva. I genitori sono selezionati a caso usando uno schema che favorisce gli individui
migliori.
• Avendo selezionato due individui, i loro cromosomi sono ricombinati, tipicamente usando il
meccanismo del crossover e la mutazione.
• Il crossover prende due individui, e taglia le stringhe dei loro due cromosomi in qualche
posizione scelta a caso, per produrre due segmenti "testa" (head) e due segmenti "coda"
(tail). I segmenti coda sono poi scambiati per produrre due nuovi cromosomi di lunghezza
completa.
• La mutazione è applicata a ogni figlio singolarmente dopo il crossover. Viene alterato a caso
ogni gene con una probabilità bassa (tipicamente 0.001).





• Convergenza: se l’algoritmo genetico è correttamente implementato, la popolazione
evolverà in molte generazioni in modo che il fitness del miglior individuo e la media in ogni
generazione cresca verso l'ottimo globale. La convergenza è la progressione verso la
crescente uniformità.








• Algoritmo genetico:
BEGIN Genera la popolazione iniziale in maniera aleatoria
Calcola il fitness di ogni individuo
While Not finito DO
Begin /* ciclo riproduttivo */
Seleziona due individui dalla vecchia generazione per l'accoppiamento
/* influenzato in favore dei migliori */
Ricombina i due individui per avere due discendenti
Calcola il fitness dei due discendenti
Inserisci i discendenti nella nuova generazione
End
IF la popolazione converge Then
Finito := TRUE
END

- Tecniche di Crossover:
• Il tradizionale algoritmo genetico usa il one point crossover.
• DeJong ha studiato l’efficienza del crossover multipoint ed è arrivato alla conclusione che il
due-punti crossover dà un miglioramento ma che aggiungere più punti crossover riduce le
prestazioni dell’algoritmo.
• In questa tecnica piuttosto che stringhe lineari i cromosomi possono essere considerati come
circoli formati dall’unione degli estremi insieme. Per cambiare un segmento da un circolo
con un altro proveniente da un altro ciclo, si richiede la selezione di due punti crossover.
Quindi il 2-point opera come il one-point (cioè cambiando un solo segmento), ma è più
generale. Un cromosoma, considerato come un circolo, può contenere più building blocks,
poiché sono in grado di avvolgersi alla fine della stringa.


• Crossover Uniforme: in questa tecnica ciascun gene nei figli è creato tramite una copia del
corrispondente gene da uno dei due genitori, scelto in accordo a una “maschera di
crossover” creata in maniera casuale. Dove c’è un 1 nella maschera, il gene è copiato dal
primo genitore, e dove c’è uno zero, il gene è copiato dal secondo genitore. Il processo è
ripetuto con i genitori scambiati per produrre un secondo figlio. Una nuova maschera
crossover è generata casualmente per ciascuna coppia di genitori. Il figlio quindi contiene
una mistura di geni provenienti da ciascun genitore. Il numero degli effettivi punti crossover
non è fissato, ma supererà L/2, dove L è la lunghezza del cromosoma.

Perché i GA funzionano?
• Il teorema dello schema di Holland è la prima rigorosa spiegazione del perché gli algoritmi
genetici funzionino.
• Uno schema (al plurale spesso schemata) è un modello di valori del gene che possono essere
rappresentati (nella codifica binaria) da una stringa di caratteri dell'alfabeto {0,1,#}.
• Un cromosoma contiene gli schemi ottenuti sostituendo col simbolo "# " uno o più dei suoi
bit.
• Per esempio, il cromosoma"1010", contiene tra gli altri gli schemi 10##, #0#0, ##10 e ##1#.
L'ordine di uno schema è il numero di simboli diversi da "#\" che contiene e la lunghezza
definita è la distanza tra i simboli diversi da "#\" più esterni (nell'esempio 2,3,1,3,
rispettivamente).
• Il Teorema dello Schema spiega la potenza di un algoritmo genetico in termini di quanti
schemi sono processati. Agli individui della popolazione viene data la possibilità di riprodursi,
spesso chiamata prove di riproduzione.
- Esplorazione e sfruttamento:
• Un qualsiasi algoritmo di ottimizzazione efficiente, deve usare due tecniche per trovare il
massimo globale: esplorazione (exploration) per esaminare nuove e sconosciute aree dello
spazio di ricerca, e sfruttamento (exploitation) per fare uso dei punti precedentemente
visitati per trovare punti migliori.
• Queste richieste sono contraddittorie, e un buon algoritmo di ricerca deve trovare un buon
compromesso tra le due.
• Holland infatti ha fatto certe semplificazioni:
1. la popolazione è infinita;
2. la funzione fitness riflette accuratamente l’utilità della soluzione;
3. i geni in un cromosoma non interagiscono significativamente.

- Elitismo ed Epistasi:
• Quando creiamo una nuova popolazione con crossover e mutazione abbiamo una grande
probabilità di perdere il miglior cromosoma. L’elitismo è un metodo che prima copia il
miglior cromosoma (o i pochi migliori) nella nuova popolazione e il resto viene fatto in
maniera classica.
• Il termine epistassi è stato definito dai genetisti per indicare il fatto che l’influenza di un gene
nel fitness di un individuo dipende da quali valori dei geni sono presenti altrove.
• Un gene è detto epistatico quando la sua presenza inibisce l’effetto di un altro gene in un
altro locus (per locus si intende la posizione all’interno del cromosoma).
• I geni epistatici sono alcune volte chiamati geni inibitori a causa dei loro effetti sugli altri geni
che sono descritti come “ipostatici”.
• Comunque possiamo dire che l’epistasi è l’interazione tra due differenti geni in un
cromosoma. Questo estende il concetto che il valore di un gene (fitness) dipende dai valori
di altri geni. Il grado di interazione sarà, in generale, differente per ciascun gene in un
cromosoma. Se un piccolo cambiamento è dovuto a un gene ci aspettiamo un cambiamento
risultante nel fitness nel cromosoma.
- Restricted Mating:
Uno schema di “mating restriction” permette a un individuo di accoppiarsi con un altro solo se
quest’ultimo appartiene alla stessa nicchia, oppure, se non ci sono altri nelle nicchia, con un
individuo scelto a caso.
Lo scopo è quello di incoraggiare la speciation e ridurre la popolazione di “letali”, cioè di individui
figli di genitori di nicchie differenti. Infatti in questo caso sebbene ciascun genitore possa avere alto
fitness, la combinazione dei loro cromosomi può essere molto scadente se cade in una valle tra due
massimi. La natura evita la formazione di letali evitando l’accoppiamento tra specie differenti.
La filosofia del “restricted mating” assume che se due genitori simili (cioè della stessa nicchia) sono
accoppiati, allora i figli saranno simili a essi. Comunque questo dipende molto dallo schema di
codifica, in particolare dall’esistenza di building block e bassa epistasi.
Con queste ipotesi usando gli operatori convenzionali di mutazione e crossover, due genitori con
genotipo simile, produrranno sempre figli con genotipo simile. Ma se il cromosoma è altamente
epistatico, non c’è garanzia che questi figli non abbiamo basso fitness (cioè siano letali), infatti
somiglianze nel genotipo non implicano somiglianze nel fenotipo. Questi effetti limitano l’uso del
restricted mating.
Esempio: massimizzazione di una funzione 1/2.
- Massimizzare la funzione f(x) = x^2 , dove x può variare tra 0 e 31.
- Per prima cosa bisogna scegliere che tipo di codifica utilizzare per creare la rappresentazione
genetica: in questo caso si è optato per una codifica binaria con stringhe genetiche della lunghezza
di 5 unità ciascuna, in modo tale da codificare i numeri da 0, che corrisponde allo 00000 in sistema
binario, al 31 (11111 in sistema binario).
- A questo punto generiamo una piccola popolazione composta di sole quattro stringhe genetiche
prese a caso. Ogni stringa viene codificata, ovvero si converte dal sistema binario a quello decimale,
e si valuta la sua fitness applicando la funzione potenza al numero decimale ottenuto.
- Al termine di tale valutazione ogni stringa riceve una probabilità di riproduzione proporzionale alla
propria fitness e, a partire da questa, vengono generate un certo numero di copie per ogni stringa.
Queste nuove stringhe vengono poi accoppiate e passate all’operatore di ricombinazione genetica
che sceglierà un punto di incrocio, in questo caso la probabilità di crossover è Pc = 1, cioè tutte le
coppie. Infine ciascun elemento generato dalla ricombinazione genetica viene mutato
dall’operatore di mutazione casuale con una probabilità Pm = 0,001.


Strumenti di analisi e di sintesi: Zigzagging
I Parametri di progetto possono seguire lo stesso criterio di dettagliamento dei requisiti funzionali
con un’operazione detta “zigzagging”:

Esempio di zigzagging
- L’azione di zigzagging ha un preciso significato in ambito progettuale:
- ZIG
• Concettualizzazione del problema 

• Mappatura dei Requisiti Funzionali (FR) in funzione dei Parametri di Progetto (DP) con
relativa definizione e riempimento della Design Matrix [DM]: FR = [DM]*DP 

• Test dell’Assioma dell’indipendenza 

- ZAG
• Definizione del livello inferiore dei requisiti funzionali: ogni requisito funzionale deriva
dall’analisi dei parametri di progetto del livello superiore
• Verifica che ogni parametro di progetto generi un RF

ASSIOMA 2:
Assioma dell’informazione: il miglior progetto è quello con il contenuto minimo di informazione;
Informazione = una misura della conoscenza richiesta (mancante) per soddisfare un FR ad ogni
livello gerarchico;
Informazione è legata alla probabilità di soddisfare un FR.

Misura dell’informazione
L’assioma dell’informazione può essere applicato a ogni parametro di progetto (DP).
La misura dell’informazione è quella suggerita da Shannon, derivante dalla misura della “media
dell’autoinformazione” e può essere espressa in nat (logaritmo in base e) o in bit (logaritmo in base
2)
I = loge (1/P)
P = Probabilità di soddisfacimento di un FR
Una grande probabilità di successo implica che l’informazione è molto molto piccola!!
OSS: se la probabilità di soddisfacimento dei FR è massima, cioè P = 1, allora I = 0 cioè se abbiamo
un evento certo, il contenuto di informazioni richiesto è nullo; se abbiamo un evento impossibile,
allora esso è infinito.

Nella definizione dei parametri di progetto è possibile identificare:


- Il System Range (SR) = Distribuzione di probabilità che il valore del parametro di progetto sia tale
da soddisfare il requisito funzionale
- Il Design Range (DR) = Distribuzione di probabilità che il valore del parametro di progetto assume
in base alle scelte del progettista (limitazioni delle macchine)
- Il Common Range (CR): insieme dei valori del parametro di progetto, comuni al system range e al
common range, rispetto cui è possibile stimare la probabilità che il nostro progetto (design) soddisfi
il requisito funzionale.

OSS: spesso è difficile calcolare la probabilità di soddisfacimento dei FR, come ad es. la probabilità
che piaccia un certo prodotto.


OSS: sulle ascisse abbiamo i DP; sulle ordinate il livello di soddisfacimento del RF legato a quel valore
del DP.
Il design range è l’intervallo di valori di un DP che può essere usato nell’ambito della progettazione.
Il system range è l’attesa del mercato, cioè il valore che il mercato chiede per quei DP.
Quindi Suh decide di prendere come probabilità l’area comune (common range).
Osserviamo che il DR deve essere esteso in modo tale da ricoprire il più possibile il SR. Fare un DR
più ampio può avere senso solo se ci si sposta verso il SR, ma non ha senso superarlo.
Osserviamo inoltre che si tratta di “problemi accoppiati”, cioè ogni DP influenza più di un RF, quindi
bisogna vedere l’influenza che ha su ciascuno di essi.
Aumentare il DR aumenta i costi e inoltre potrebbe compromettere le funzionalità del prodotto: la
scelta dei valori dell’intervallo del DS serve per trovare un compromesso con gli altri RF.
Il SR, che abbiamo considerato in forma flat, potrebbe avere anche una forma simil-gaussiana.

Problemi con FR dipendenti

Quando due requisiti funzionali sono dipendenti tra loro può accadere che uno dei due non risulti mai
soddisfatto da un parametro e quindi che il progetto sia sempre “pessimo” secondo il 2° assioma.

Esempio di applicazione del 2° Assioma
Immaginiamo di avere una vettura i cui requisiti funzionali siano descritti da questi 3 parametri:

La descrizione dei parametri ci permette di definire 3 distribuzioni di probabilità, di tipo a gradino


(integrabili alla Riemann) che rappresentano i nostri System Ranges.
Immaginiamo di avere tre possibili set di opzioni (design ranges) tra cui scegliere volendo rispettare
la regola imposta dal secondo Assioma del Suh:

Per ogni parametro possiamo sovrapporre i DR con i SR e ottenere i CR necessari per calcolare
l’Informazione. Calcoliamo l’informazione utilizzando la teoria di Shannon
And the winner is.......
La vettura A (con il minor valore di informazione espressa in nat).

Corollario 2°assioma: usare per quanto possibile componenti standardizzati, in quanto si è certi che
funzionano, quindi non accrescono il contributo di informazioni richieste.

- La logica Fuzzy nei sistemi di controllo: la logica Fuzzy è usata fondamentalmente nei sistemi di
controllo.
Esempio: problema del pendolo inverso: abbiamo un carrello che possiamo movimentare verso dx
o sx con un impulso più o meno forte con un’asta incernierata verso l’alto. Il problema è misurare
la velocità di oscillazione dell’asta e movimentare di conseguenza il carrello.

INTEGRARE (se necessario) CON “CONTROLLO OMRON p1-11” e “CONTROLLO OMRON p12-24”

LA LOGICA FUZZY: FUZZY SETà il modo più semplice di presentare la logica Fuzzy è il concetto
d’insieme.


Insiemistica Cantoriana:
Definito l’Universo X dei valori possibili, definisco l’insieme A tale che:
A = {x, µ ( x)}, "x Î U
µ ( x) = funzione di appartenenza
µ ( x) Î X ,
µ ( x) Î {0,1}
ì0 Þ e' falso
µ ( x) = í
î 1 Þ e' vero
Nella definizione Cantoriana di insieme il valore della funzione di appartenenza può essere soltanto
0 oppure 1: a tale insieme si da il nome di “Crisp Set”.


Esempio di sub-set di Cantor



Rappresentazione grafica del subset



Probabilità e “Fuzzyness”: La probabilità misura il grado di “verosimiglianza” e/o possibilità
dell’avverarsi di un evento futuro in base alle conoscenze attuali. La teoria della probabilità si occupa
di eventi casuali e non è in grado di catturare il grado di incertezza insito nelle variabili linguistiche.
La Fuzzyness non è l’incertezza di un’aspettativa; essa è l’incertezza dovuta all’imprecisione nella
definizione di un concetto espresso in termini linguistici, come, ad esempio, i concetti di alto o caldo!



Fuzzy Set:
I 4 concetti base della logica fuzzy:
1) Gli insiemi fuzzy hanno contorni “sfocati”;
2) Le variabili fuzzy, in qualità di variabili linguistiche, possono essere descritte sia
qualitativamente che quantitativamente;
3) Ogni variabile linguistica può essere vincolata assegnando alla stessa un valore “fuzzy” e/o
una distribuzione di “possibilità” (e non probabilità);
4) Le regole if-then non sono rigidamente determinate (logica di Boole) ma definiscono una
mappatura funzionale tra 2 o più variabili oppure una relazione di implicazione.

Definizione di Fuzzy Set: Definito l’Universo X dei valori possibili, definisco l’insieme A tale che

A = {x, µ ( x )}, "x Î U
µ ( x) = funzione di appartenenza (Membership function)
µ ( x) Î X ,
µ ( x) Î [0,1]

Il valore che assume µ(x) si chiama “grado di appartenenza” (membership degree); Nella definizione
Fuzzy di insieme il valore della funzione di appartenenza può variare in modo continuo tra i valori 0
e 1.

OSS: posso definire un insieme, gruppo di elementi dell’U, che ha caratteristiche comuni. Cosa
succede se si è indecisi sull’appartenenza o meno ad un insieme per un certo elemento? Ad
esempio, si vogliono prendere i numeri dell’universo del discorso X che siano grandi: ma cosa vuol
dire “grandi”?
Ci sono delle situazioni in cui esprimere l’appartenenza ad un insieme non è così ovvio.
Dato l’universo del discorso X, l’insieme A è l’insieme degli elementi x appartenenti a X con grado di
appartenenza µ(x) all’insieme A.
Cioè per ogni elemento di X, viene assegnato un valore di appartenenza all’insieme A, valore che
può essere definito matematicamente, con la funzione µ(x), oppure può essere assegnato un
punteggio a seguito di una votazione (da parte di esperti). Definendo l’insieme in questo modo,
l’insieme binario ha una funzione di appartenenza di tipo (0,1).
Es: l’insieme dei numeri pari è costituito da tutti i numeri dell’universo del discorso, con grado di
appartenenza 0 se il numero non è divisibile per 2, 1 in caso contrario.
DIFFERENZE tra insieme Booleano e insieme Fuzzy:
- dell’insieme Fuzzy fanno parte TUTTI gli elementi di X, ciò che li caratterizza è il valore della µ(x).
Es. 3 fa parte dell’insieme dei numeri pari con grado di appartenenza 0.
Questo incide sulle operazioni tra insiemi.
- non ha senso parlare di complemento di un insieme così come lo abbiamo definito in precedenza,
perché l’insieme che otterremmo sarebbe vuoto;
- anche il complemento di un insieme deve essere ridefinito, perché avremmo tutti insiemi
sovrapposti.
Bisogna quindi valutare non l’appartenenza ad un insieme, ma il grado di appartenenza.

FUZZY vuol dire “SFOCATO”, quindi tale logica va usata quando si ha a che fare con concetti, quantità
non ben definite, come gli aggettivi molto, poco, abbastanza, ecc. àla logica fuzzy permette di
tradure matematicamente, tramite la µ(x), aggettivi quali poco, abbastanza, molto, ecc.

- Quando l’Universo X è finito (formato da un numero finito di elementi) allora si ha



Quando l’Universo X è infinito (formato da un numero infinito di elementi) allora si ha


Il segno / non è un segno di divisione ma un segno di “relazione”.
OSS: l’insieme Fuzzy è un insieme A di elementi x, con x = x1, x2, x3, …, xn ÎX ognuno dei quali ha un
grado di appartenenza µA(x) all’insieme A.

Può essere scritto come: grado di appartenenza / elemento.










Fuzzy Set finito:



ESEMPIO: Fuzzy set vs Crisp Setà individuo alto o basso?


- Logica binaria: una persona è considerata bassa fino a 1,80m poi alta.
- Logica fuzzy: viene definita una funzione di appartenenza in cui i valori 0 e 1 esprimono
l’appartenenza minima o massima.

- Possiamo anche avere funzioni di appartenenza triangolari: una persona può essere classificata
come bassa media o alta.
In termini Crisp (insieme di Cantor), fino a 1.70m viene classificata come bassa, tra 1.70 e 1.80m
media, poi alta.
In termini di logica fuzzy invece vi sono dei valori di confine (110, 180) dove si confondono i concetti
di basso medio e alto. Da 160 comincia a decrescere il concetto di corto e da 165 comincia a crescere
quello di medio.
Due aspetti interessanti:
1) se sono a 180? Nella realtà fa parte contemporaneamente sia dell’insieme di persone corte che
medie à la logica Fuzzy non è esclusiva, dà la possibilità di trattare lo stesso valore con giudizi
differenti;
2) se sono a 164 c’è una parte delle persone (che danno un giudizio) che esprime il giudizio “basso”,
un’altra parte che invece non riesce a dare una risposta, per le quali il numero di etichette (basso
medio alto) scelte non è sufficiente.



ci sono diversi modi per definire la µ(x); questo perché essa dipende dalla conoscenza che si ha di
un certo concetto, quindi la curva può essere più o meno dettagliata. Non esiste una regola esplicita
di definizione della µ(x).
La logica fuzzy consente di formalizzare la conoscenza.

Alcune regole degli insiemi Fuzzy
Dati due insiemi Fuzzy m(a) e m(b) allora i due insiemi son uguali se
"x, µa ( x) = µb ( x)

se µ ( x) = k = vero
allora
1 - µ ( x) = 1 - k = µ ( x) = falso

Regole di unione e intersezione:


Formulazione alternativa




Esempio di insieme Fuzzy






Il ragionamento Fuzzy


1) Fuzzificazione: trasformazione di dati “crisp” e variabili linguistiche in dati Fuzzy attraverso la
costruzione delle membership function
2) Definire le regole di interazione tra le funzioni di appartenenza per la definizione di un obiettivo
in termini di grado di appartenenza finale
3) Defuzzificare: determinare il valore “crisp” di output corrispondente al grado di appartenenza
della funzione obiettivo.

Fuzzy nella progettazione:

Nella progettazione di prodotto e di processo la logica fuzzy puo’ essere utilizzata in presenza di due
tipi di problematiche:
1) Decision making in condizioni di incertezza e in condizioni in cui le relazioni tra Requisiti
Funzionali e Parametri di progetto sono espressi con variabili linguistiche (non
matematicamente);
2) Controllo in condizioni in cui le relazioni tra gli input definiti e gli output sono espressi con
variabili linguistiche (non matematicamente).

Le regole di composizione Fuzzy:

Le funzioni di appartenenza possono essere definite sul medesimo dominio funzionale ma
rappresentare caratteristiche diverse dello stesso sistema.
Quando deve essere effettuata una valutazione di una funzione complessiva esistono precise regole
di composizione delle funzioni stesse.
Alcune fra le regole più utilizzate sono le seguenti:
• Operatore MAX (Unione – OR) viene utilizzato quando almeno una delle caratteristiche deve
essere verificata e massimizzata;
• Operatore MIN (Intersezione – AND) viene utilizzato quando tutte le caratteristiche devono
essere verificate e massimizzate contemporaneamente
• Operatore Mean (Mean) aritmetica, viene utilizzata quando le caratteristiche modificano il
risultato finale della valutazione in proporzione a dei “pesi” definiti dal progettista;
• Operatore Gmean (Media geometrica) utilizzato quando tutti I valori delle funzioni di
appartenenza concorrono a rendere “peggiore” il progetto.


CAP.6 ESEMPIO PISTOLA SPARACHIODI








“ROBUST DESIGN – PROGETTAZIONE ROBUSTA”: La metodologia Robust Design nasce in
Giappone nel 1960, sviluppata da Taguchi, viene utilizzata per migliorare la “produttività” nella
ricerca e nello sviluppo prodotto, poiché si pone 2 obiettivi principali:
- Minimizzazione dei costi
- Massimizzazione della qualità nella produzione.
OSS: il metodo Taguchi ha l’obiettivo di evitare problemi di qualità, ovvero rendere robusto il
sistema per limitare l’effetto dell’influenza di fattori esterni.
Ci sono molte cose che l’azienda non è in grado di prevedere. Ci sono situazioni in cui il prodotto
viene usato per scopi non previsti (es. usare il cacciavite per rompere l’imballaggio di una scatola).
Bisogna capire se al variare delle condizioni di utilizzazione, il prodotto mantiene la stessa
performance. La valutazione della qualità in tutte le condizioni si effettua attraverso la raccolta di
dati da parte del servizio assistenza, interventi di garanzia, ecc.

Un prodotto o un processo robusto funziona correttamente, anche in presenza di noise factors,
quali: variazioni nei parametri, cambiamenti ambientali, condizioni operative, variazioni nella
produzione.
I 2 obiettivi esplicitati in precedenza, come si sa, sono spesso in contrapposizione tra loro:



Lavorare sulla qualità vuol dire stabilire dei limiti di accettabilità di prodotto e fare in modo da avere
pochi scarti (uno scarto è un prodotto al di fuori dei limiti di accettabilità). Si può intervenire in 2
modi: o si allargano i limiti di accettabilità, o si migliora il processo di produzione.
Taguchi philosophy: La filosofia di Taguchi si basa sul concetto che lo stesso Geniki Taguchi ha
espresso sulla “qualità”:
“La QUALITA’ è legata alla perdita che la società ha a causa della variabilità funzionale e ambientale
(comportamentale) di un dato prodotto”.
Pertanto la “bontà” di un progetto e dei prodotti che ne scaturiranno vengono valutati in termini di
“perdita di qualità” (Quality Loss).
La progettazione robusta permette di esprimere, per un dato prodotto, la perdita di qualità in
funzione della variabilità dei parametri di progetto, contestualizzata alla produzione e all’utilizzo
dello stesso prodotto.
OSS: l’obiettivo della filosofia Taguchi è eliminare i giudizi negativi da parte del mercato, non
migliorare quelli positivi. àPRINCIPIO FONDAMENTALE: migliorare la qualità del prodotto
minimizzando gli effetti negativi, senza eliminarne le cause.
La metodologia Robust Design, sviluppata da Taguchi, viene usata per migliorare la produttività in
fase di sviluppo del prodotto, per ottenere fondamentalmente prodotti di alta qualità a basso costo.
Il robust design dà ai costruttori 2 indicazioni:
- come ridurre i costi nell’innovazione dei prodotti in base alle richieste dei consumatori;
- come garantire che i risultati ottimali dei laboratori siano ottimali anche nelle operazioni di
produzione e nell’uso da parte dei consumatori (prende in considerazione la soddisfazione di utilizzo
dell’utente).

Gli strumenti del robust design
L’approccio utilizzato nella “progettazione robusta” è tipo probabilistico/statistico e si basa sul
controllo della variabilità dei requisiti funzionali a seguito delle possibili variazioni a cui lo stesso è
soggetto durante il processo produttivo.
La variabilità può essere legata sia alle variabili di “processo” nel corso della “produzione” sia alle
variabili “operative” durante l’utilizzo.
Gli strumenti per controllare tali variabilità sono i seguenti:
Signal to Noise Ratio: indispensabile per la valutazione della qualità
Orthogonal Arrays: necessario per valutare simultaneamente l’effetto di molti parametri di
progetto (di utilizzo) sul prodotto finale.

Difettosità – Politica “zero difetti”
La qualità di un prodotto è esprimibile in termini di
Ø Difetti che si presentano sul prodotto alla fine del ciclo di produzione
Ø Difetti che si presentano durante l’utilizzo da parte del consumatore
Difetto = Perdita
Difetto = Uscita dalle tolleranze imposte dei parametri di funzionamento del prodotto
Zero-difetti => tutti i prodotti rispettano le specifiche di progetto durante il corso della propria vita
Problema:
In Produzione è possibile “controllare” i fattori di variabilità.
In utilizzo è possibile soltanto “ipotizzare e prevenire” eventuali fattori di variabilità.
Individuazione Difetti
Per ogni tipologia di prodotto (la cui curva delle specifiche qualitative può essere rappresentata da
una gaussiana) esistono 2 tipi di difettosità:


Difetto 1= allontanamento del valore del parametro di progetto dal valore nominale (per un
determinato lotto di prodotti);
Difetto 2= dispersione eccessiva dei valori dei parametri di progetto attorno al valor medio
Prodotti difettosi = frazione della quantità prodotta, le cui specifiche sono al di fuori di un range di
tolleranza prestabilito.

Robust design: le tecniche di progettazione: Le due tecniche di progettazione che permettono
l’implementazione della progettazione robusta sono:
- La Progettazione di sistema: che coinvolge tutte le tecniche che legano le specifiche geometriche
e funzionali alle tecnologie di produzione
- La Progettazione parametrica: che coinvolge tutte le tecniche statistiche/probabilistiche di analisi
della variabilità di tali specifiche in funzione della variabilità dei parametri di progetto

Strumenti operativi di progettazione robusta
Alla base della progettazione robusta vi è la PROGETTAZIONE DELLE TOLLERANZE in termini
parametrici in modo da
A. Ridurre le tolleranze ai parametri che influenzano maggiormente le performance qualitative
dei prodotti
B. Minimizzare i costi legati alla riduzione di determinate tolleranze (Necessità di tecnologie
costose, controlli continui, etc. etc.)
La funzione Perdita di Qualità introdotta da Taguchi viene espressa proprio in funzione delle
“tolleranze” associate ai parametri di progetto.

Richiami di statistica: Una volta definito un set di n valori x1, x2,…., xn associati a una variabile

Si definisce Media

Si definisce Varianza = S =

Si definisce Deviazione Standard =




Quality Loss Function (QLF): Taguchi ha classificato le funzioni di perdita di qualità in 4 categorie
principali, in funzione del contesto applicativo:
1. Nominal the best
2. Lower is better
3. Higher is better
4. Asymmetric
Tutte le suddette funzioni possono essere espresse con funzioni quadratiche.



Detto {y1,….., yn} i valori della caratteristica y di n elementi e detta m il valore target, è definibile,
genericamente, una Quality Loss Function L(y) tale che


In tale espressione k (coefficiente di perdita della qualità) va determinato attraverso il limite che
garantisce la funzionalità.

OSS: Taguchi associa una perdita ad ogni prodotto che raggiunge il consumatore: tale costo* include
insoddisfazione del consumatore, costi di garanzia per il produttore, perdite di reputazione o quote
di mercato per la società.
Prima di Taguchi “ottica zero difetti” àil prodotto è difettoso solo se una caratteristica è fuori
tolleranza.
Costo*: in realtà all’interno della tolleranza c’è variabilità: più ci si avvicina agli estremi dell’intervallo
di tolleranza, meno il prodotto funzionerà in modo ottimo, e ciò comporterà i costi prima citati per
l’azienda. Al cliente interessa che il prodotto funzioni in ogni condizione d’uso; bisogna considerare
anche il cattivo utilizzo (le regole di utilizzo del prodotto non sono mai rispettate).
Un prodotto è tanto più robusto quanto più riesce a mantenere la prestazione nominale al variare
di fattori non controllabili (fattori di disturbo).

QLF - Nominal the best
In questo caso la caratteristica di qualità ha un valore target finito, in genere diverso da zero, e la
perdita di qualità si valuta allontanandosi simmetricamente dal target.


Esempio: le misure dei pezzi meccanici: la “nominale” è la migliore!!
OSS: la funzione di perdita è una funzione che si ipotizza di secondo grado: è del tipo k(y-m) 2; y è
un parametro di progetto, m è il valore scelto dalla progettazione.
La prima funzione rappresenta l’ottica zero-difetti: fissato l’obiettivo m e l’intervallo di tolleranza,
se A0 rappresenta il costo dello scarto, al di fuori dell’intervallo spenderemo A0, internamente 0.
La seconda invece rappresenta la logica Taguchi: atteso m, spostandosi verso gli estremi
dell’intervallo, aumentano i costi delle perdite fino ad un valore A0.

Average Quality Loss: Immaginiamo ora un prodotto sia prodotto in un certo numero n di esemplari
e che ogni esemplare mostri un valore reale yi di una determinata caratteristica (di valore nominale
pari a m = valore target):

Definita la QLF come


Si ha che la Perdita Media di Qualità di n esemplari di prodotto la cui caratteristica di qualità ha
valore yi e’ data da:

Ricordando che:
Si ottiene con pochi passaggi che


E siccome per n molto grande si ha che (n-1)/n = 1

allora la Average Quality Loss = AQL =



dove k(µ-m)2 è il termine dato dallo scostamento dei valori della media m degli yi dal valore
desiderato m (nominale), s2 è il termine dato dalla dispersione dei valori yi intorno alla loro media
m.

Influenza dei parametri su AQL



Di norma il progettista impone un range di variabilità in cui l’errore è tollerabile.


Tale range permette di valutare la probabilità di errore (failure) derivante dalla distribuzione
Gaussiana dei valori.














Design vs Target: abbiamo 4 situazioni possibili


il caso peggiore è:

Ricordiamo che la Average Quality Loss AQL = .


OSS: misuro la qualità in diverse ipotesi di utilizzo, vedo come cambia il rapporto segnale-rumore
(S/N ratio) e ottimizzo questa funzione, che diventa la mia f.o.

The P-diagram: In accordo con P-diagram, i parametri che determinano le caratteristiche di
qualità si possono suddividere in 3 tipologie:
1. Inputs (Signal factors, M): statici o dinamici, rappresentano i valori associati ai parametri in
relazione alle caratteristiche di qualità richieste
2. Parametri di disturbo (Noise factors, x): parametri che non possono essere controllati dal
progettista
3. Parametri di controllo (Control factors, z): parametri che possono essere specificati
liberamente dal progettista, che cerca di definirne i valori ottimali (levels)


Noise factors: Il processo produttivo causa, inevitabilmente, una variabilità intrinseca dei prodotti
(unit to unit variation); tale variabilità e’ affetta, a sua volta, da diversi fattori che ne determinano
un calo di qualità:
A. Cause esterne al processo: ambiente nel quale è condotto il processo (temperatura,
umidità, carichi, materie prime, operatori…)
B. Disuniformità del processo: lotti prodotti simultaneamente in condizioni non uniformi
(posizione diversa all’interno di un forno da sinterizzazione…)
C. Deriva del processo: diminuzione delle caratteristiche del processo legate allo scorrere del
tempo (usura di utensili, perdita di efficacia di reagenti…)

Influenza noise factors su parametri di progetto: Dette gi(x) le funzioni di variabilità dell’output
(ordinate) in relazione ad una variabilità di input (noise – ascisse) possiamo avere 3 tipi di risposta
lineare al noise factor:


Influenza non lineare dei noise factors


Ovviamente lo stesso discorso vale quando le leggi di “influenza” dei noise factors sui parametri di
progetto sono non lineari.
Metodi per ridurre la varianza: Per ridurre la varianza e quindi minimizzare σ2 è possibile:
1. Individuare ed eliminare (o rilavorare) i prodotti non conformi (molto costoso)
2. Scoprire ed eliminare le cause di non conformità (mediamente costoso)
3. Rendere le caratteristiche del prodotto insensibili alle variazioni (noise factors) attraverso un
processo di analisi preventiva con metodi di Robust Design (il meno costoso).




Strumenti del Robust design: Come gia’ detto all’inizio della lezione, la metodologia del Robust
Design utilizza principalmente due strumenti matematici:
Ø Vettori ortogonali: permettono di studiare un grande numero di variabili attraverso un
numero ridotto di esperimenti
Ø S/N ratio (signal to noise ratio): rapporto tra i valori dei parametri in ingresso e le variazioni
non controllabili, permette di prevedere il livello di qualita raggiungibile.
S/N Ratio: Detta µ la media dei valori di un parametro di progetto (su n prodotti) e σ2 la varianza
indotta da un noise-factor, si definisce
Rapporto S/N = h= -10 log10 (µ2/s2)
Si dimostra facilmente che S/N Ratio è proporzionale alla QLF e quindi deve essere minimizzato.
1° obiettivo del progettista: calcolare/valutare l’impatto dei noise factors in termini di variabilità
delle specifiche del prodotto.

S/N Ratio – analisi a più parametri: Il valore S/N può essere calcolato su un set di parametri che, in
fase di conceptual design, si immagina possano modificare il valore dei parametri di funzionamento
del prodotto.
Detta Y=f(xi) la funzione che mette in relazione il target Y agli xi noise factors può accadere che i
noise factors siano:
Ø Indipendenti tra loro: il valore di S/N è dato dalla somma pesata dei singoli S/N riferiti ad
ogni xi, pesati con un coefficiente di sensitività:


Ø Dipendenti tra loro: si ha bisogno di un piano degli esperimenti (DOE) che permetta di
valutare tutte le combinazioni possibili tra i parametri che possono assumere, a causa dei
noise factors, differenti valori.
N.B.: se non si conosce il valore di µ si utilizza, al posto di µ la media dei valori ottenuti negli
esperimenti = hmedio.

Matrice degli esperimenti (Design of Experiment): La matrice degli esperimenti e lo strumento
matematico utilizzato dal Robust Design per mettere in relazione le diverse variabili, espresse sotto
forma di vettori ortogonali.
La matrice degli esperimenti, nota anche come Design Of Experiments (DOE) prevede di associare
diversi livelli ai valori dei parametri nei diversi esperimenti, considerando poi i risultati di tutti gli
esperimenti per determinare l’effetto dei diversi parametri.
La matrice degli esperimenti e a sua volta una matrice ortogonale, nel senso che per ogni coppia di
colonne si verificano tutte le combinazioni possibili tra i diversi livelli associati ai fattori e si verificano
un uguale numero di volte (proprietà di bilanciamento – non la dimostriamo!!).











DOE e Orthogonal Arrays: Costruiamo un esempio di Piano degli esperimenti:
Problema fisico (Processo di Chemical Vapor Deposition)
Num. di Parametri di noise (Ambientali) = 4
Num. di valori per ogni parametro di noise = 3


Numero di combinazioni possibili = 34 = 81 combinazioni
DOE e Orthogonal Arrays: Si puo’ dimostrare che con la tecnica dei vettori ortogonali il numero
degli esperimenti si puo’ ridurre da 81 (numero di combinazioni) a 9 con la seguente regola:


Cosa sono e come si costruiscono i Vettori Ortogonali???
Tecnica dei vettori ortogonali: E’ una tecnica degli esperimenti introdotta da R.A.Fisher per la
sperimentazione in agricoltura;
Fisher sviluppo la cosiddetta tecnica dei quadrati latini e greco-latini per risolvere un problema di
esperimenti in biologia.
Il problema è stato posto per via della necessità di ridurre al minimo il numero di esperimenti da
effettuare.
Con questa tecnica sono stati sviluppati numerose serie di MATRICI DEGLI ESPERIMENTI in funzione
del numero di parametri e degli “stati” (numero di possibili valori) che tali parametri possono avere
(sui libri di testo si possono trovare molti esempi)

Per ogni combinazione posso valutare il valore S/N e poi posso effettuare una serie di analisi
raggruppando i dati secondo criteri logici e valutandoli rispetto ad un target predefinito o rispetto
alla media dei valori di h in modo da capire l’influenza relativa (importanza).
Valutazione dell’influenza dei fattori: Per valutare l’influenza dei diversi fattori, in ogni esperimento
i viene valutato ηi, funzione della media quadratica di difetti rilevati:
η = -10log10 (media quadratica di i “difetti” rilevati nell’esperimento i)
Minimizzare le difettosità equivale pertanto a massimizzare η, detto anche S/N ratio.

Nell’esempio analizzato il valor medio totale di η e dato da .


Due indici qualitativi per lo studio dell’influenza dei parametri:
ANOM: Analisi delle Medie
ANOVA: Analisi della Varianza
La media risulta bilanciata su tutta la regione sperimentale perche ogni livello di ogni fattore è
ugualmente rappresentato nei 9 esperimenti.
Si può quindi valutare l’effetto di un fattore, considerato ad un determinato livello, sulla base della
deviazione valutata rispetto al valor medio totale.
Ad esempio la temperatura considerata al livello 3 (A3) e presente negli esperimenti 7, 8, 9 quindi il
valor medio di η per questi esperimenti e dato da mA3= 1/3 (η7 + η8 + η9).
Pertanto, l’effetto della temperatura considerata al livello 3 sarà dato da (mA3 – m).
Analogamente, per la pressione considerata al livello 2 si avrà mB2= 1/3 (η2 + η5 + η8) e quindi
l’effetto della pressione considerata al livello 2 sarà dato da (mB2 – m)
Analisi di sensibilità dei fattori (Grafica)
ANOM = Analisi delle medie


Vantaggi relativi all’utilizzo di matrici ortogonali: L’errore commesso sulla valutazione dell’effetto
di un fattore, considerato ad un determinato livello, è inferiore rispetto a quello che si
commetterebbe nell’approccio tradizionale, studiando un fattore alla volta. Per ottenere lo stesso
grado di affidabilità variando un fattore alla volta sarebbe necessario condurre un numero molto
maggiore di esperimenti.
Il livello di approssimazione che si ottiene utilizzando matrici ortogonali e nella maggior parte dei
casi sufficientemente adeguato da non richiedere di eseguire l’elevato numero di esperimenti che
deriverebbe dalla combinazione fattoriale di tutti i livelli considerati.

Ottimizzazione dei valori dei diversi parametri: Il valore ottimale di un parametro e quello
corrispondente al massimo valore del rapporto S/N, quindi al massimo valore di η.
Nel caso in esame questo corrisponde all’insieme di valori A 1B2 C2 D2 oppure A 1B1 C2 D3, che danno
il massimo valore di η (minimo in valore assoluto) e quindi il minimo numero di difetti.
N.B. l’insieme dei valori ottimali non deve necessariamente corrispondere ad una riga della
matrice degli esperimenti

Il totale della somma dei quadrati si può scomporre in un termine relativo alla media e uno relativo
ai singoli esperimenti, ovvero


Considerando il parametro A (temperatura) e ricordando che ogni livello ricorre in tre esperimenti,
si avrà quindi per quanto riguarda la somma dei quadrati dovuta ad A
3(mA1-m)2 + 3(mA2-m)2 + 3(mA3-m)2
e analogamente per gli altri termini
Calcolo della somma dei quadrati


Il fattore A (temperatura) risulta quindi responsabile della maggior parte della variazione di η.
Verifica: Determinate le condizioni ottimali, si realizza un esperimento utilizzando i valori ottimali
dei parametri corrispondenti e si verifica se η misurato e vicino a quello previsto.
Se ciò si verifica, il modello additivo utilizzato è valido e consente di prevedere efficacemente il
comportamento del sistema perche i parametri sono tra loro indipendenti, altrimenti non è valido
perché si e in presenza di una forte interazione tra parametri.

Analisi dei dati ottenuti da una matrice degli esperimenti: Si possono pertanto riassumere i
seguenti passi nell’analisi dei dati ottenuti da una matrice degli esperimenti
1. Valutare S/N ratio per ogni esperimento
2. Valutare l’effetto dei diversi attori/parametri
3. Valutare l’importanza relativa dei diversi fattori e la varianza dell’errore
4. Determinare il livello ottimale per ogni fattore e prevedere S/N ratio per la combinazione
ottimale
5. Verificare il risultato con un esperimento.

Robust design – 8 passi principali: Quanto visto finora permette di riassumere i passi principali del
Robust design:
Pianificare l’esperimento
1. Identificare funzione principale, effetti collaterali e modalità di guasto
2. Identificare i fattori non prevedibili (noise factors) e le condizioni sperimentali che
permettano di valutare la perdita di qualità
3. Identificare le caratteristiche di qualità da osservare e la funzione obiettivo da ottimizzare
(S/N ratio)
4. Identificare i fattori di controllo ed i livelli da considerare
5. Progettare la matrice degli esperimenti e definire la procedura di analisi dei risultati.
Eseguire l’esperimento
6. Eseguire gli esperimenti previsti dalla matrice degli esperimenti
Analizzare e verificare i dati ottenuti
7. Analizzare i dati, determinare i livelli ottimali per i fattori di controllo e prevedere le
prestazioni a questi livelli
8. Verificare i risultati e pianificare azioni future.

In genere, per ridurre la varianza si può agire sui valori dei parametri o sulle tolleranze ad essi
associate.
Ø Modificare il valore nominale del parametro in modo che la caratteristica di qualità sia meno
sensibile al noise factor: parameter design
Ø Ridurre la tolleranza sul parametro per controllare il noise factor: tolerance design
Tipicamente parameter design non comporta un aumento di costi, mentre tolerance design si.




DEMPSTER E SHAFER:
Uncertainty modelled by 2 measures:
Belief (Bel) – measure of total evidence in favour.
Plausibility (Pl) – measure of total evidence not against
𝑩𝒆𝒍 𝑨 ≤ 𝑷𝒍(𝑨)


Supponiamo di dover prendere una decisione: un certo evento A avviene o meno? Man mano che
analizziamo il problema facciamo una serie di osservazioni: la probabilità di accadimento di un
evento aumenta o diminuisce in funzione delle osservazioni che facciamo. Nel fare le osservazioni
c’è un valore di convincimento che sia possibile A e un valore che NON sia possibile A: c’è un range
di valori di plausibilità di una certa soluzione A e c’è un ambito di incertezza (uncertainty), ovvero si
è incerti che una data soluzione proposta possa andar bene. Più è ampio l’intervallo di incertezza,
più è confusa l’idea.
La 1° zona del grafico è il convincimento che la soluzione A sia possibile;
La 2° zona del grafico è la regione di incertezza;
La 3° zona del grafico è il convincimento che la soluzione A NON sia possibile;
Zona di convincimento di A + zona di incertezza = plausibilità.
OSS: come si fa ad ipotizzare cosa racchiude l’ambito di incertezza? Non c’è una regola per estrarre
la certezza dall’incertezza, ma è possibile fare delle hp plausibili.
Dempster e Shafer:


Supponiamo di avere un’incertezza tra 3 possibili soluzioni A, B, C. Si cerca in genere con i metodi
finora visti, di attribuire un punteggio ad ognuna di esse. Un aspetto importante di D-S è che viene
attribuito un punteggio anche ad eventuali abbinamenti.
OSS: osservando la figura, notiamo che la somma di tutti i punteggi dati alle varie ipotesi è 1, infatti:
0.4 + 0.1 + 0.0 + 0.0 + 0.3 + 0.0 + 0.2 = 1.0.
In qualche modo tale schema ci dice: accetto l’idea che A,B,C siano equivalenti, che A e B siano
equivalenti, che A e C oppure B e C siano equivalenti, oppure che A sia il migliore, che B sia il migliore
o che C sia il migliore.
Per equivalenti intendiamo che uno dei 2 o dei 3 va comunque beneàla coppia A B vuol dire che
uno dei due tra A e B va bene; A C vuol dire che stiamo escludendo B dalle possibili soluzioni.
Una volta trovata una regola per ripartire i coefficienti in base alle mie osservazioni, riesco a tirar
fuori delle informazioni su qual è la scelta migliore, che potrebbe essere legata ad una coppia, terna
o quaterna (se ci sono più hp).
L’aspetto interessante legato alla possibilità di scegliere tra più soluzioni è scomporre l’incertezza.
Cosa vuol dire fare osservazioni successive? Stiamo facendo una serie di metodi che tengono conto
di più criteri: da una prima osservazione relativa al primo criterio potrebbe emergere che la
soluzione più plausibile è una tra A e B; rispetto al secondo criterio vanno tutte più o meno bene…
ecc.; continuando posso fare osservazioni rispetto a tutti gli altri requisiti funzionali.


Given a population F = (blue, red, green) of mutually exclusive elements, exactly on of which (f) is
true, a basic probability assignment (m) assigns a number in [0,1] to every subset of F such that the
sum of the numbers is 1.




C’è un procedimento matematico per tirar fuori questi numeri che ha come fatto interessante che
posso utilizzare più RF per esprimere un giudizio e compararlo con quelli precedenti per ridurre il
più possibile l’incertezza e posso usare più esperti per lo stesso requisito. In linea di principio è un
metodo iterativo che non si ferma mai, posso sempre aggiungere informazioni, aggiungere giudizi
da parte di uno o più esperti rispetto ad uno o più requisiti funzionali.
Osservando la matrice: è un confronto rispetto a 3 alternative in cui è necessario dare un punteggio
per ogni possibile combinazione (A B e C sono le alternative); posso dire che le alternative sono
equivalenti, posso dare un punteggio ad AB, AC, CB, A, B, C: in pratica chiedo ad un esperto di
giudicare rispetto ad un RF queste combinazioni. Ovviamente se ritengo che A sia una soluzione
plausibile, le coppie AB e AC avranno anch’esse un certo valore dato che contengono A.
L’importante è dare punteggi in modo tale che la somma sia 1. Poi posso chiedere ad un 2° esperto
di esprimere lo stesso tipo di giudizio.



Per il primo esperto ABC è 0.2, BC 0.05, A 0.1, ecc.;
Per il secondo esperto ABC 0.3, AB 0.1, ecc.;
Posso comporre questi giudizi.
OSS: il punteggio che faccio come prodotto va all’intersezione tra i 2 insiemi: combino i punteggi
dati da ogni esperto mettendoli d’accordo sulla soluzione comune. Se un esperto dice che AC ha
valore 0.30 e l’altro che BC vale 0.2, il loro prodotto va su C. Poi bisogna combinare tutti i valori.
Abbiamo un valore di ABC e 3 di AB; 2 valori di AC e 3 di BC (?).
Il problema è che avendo attribuito zero agli insiemi vuoti, bisogna rinormalizzareàprendo per ABC
la somma di tutti i punteggi assegnati ad ABC; per AB la somma di tutti i punteggi assegnati ad AB,
ecc… faccio la somma di tutto, vedo che è diversa da 1 e normalizzo quindi a 1 al fine di correggere
i risultati mancanti.


Ottengo quindi una graduatoria finale, i cui risultati sono riportati nella tabella m(A)+m(B).
Osserviamo che il punteggio attribuito ad ABC si è ridotto. Combinando i giudizi dei 2 esperti ottengo
che l’incertezza si riduce o meglio si sposta un po’ su AB, un po’ su AC e un po’ su BC, però alla fine
A B e C hanno punteggi mediamente un po’ più alti rispetto all’inizio (C è arrivato a 0.26 da 0.15).
N.B. Non potevo non inserire questo discorso “molto chiaro e per niente contorto” del prof. Cappetti
(non che il resto sia chiaro):
“Se inserisco il giudizio di un 3° esperto e rifaccio la combinazione tra questo vettore finale e il
giudizio del 3°, posso procedere nuovamente così e succede che questo 0.07 dell’incertezza tra
A,B,C, se gli esperti sono sufficientemente coerenti, iterando più volte la matrice in funzione del
numero di giudizi, succede che il vettore cambia fino a un valore ridotto dell’incertezza per ABC, AB,
AC e BC e più alti per A, B, C perché questo mi consente di prendere una decisione.
Se in questa matrice esprimo assenza di incertezza (quindi valori nulli) per ABC, AB AC e BC, viene
fuori per A, B e C la ripartizione della probabilità secondo la probabilità condizionata.
Se uno degli esperti esclude una delle alternative mettendo valore zero, cosa succede? Il prodotto
di un numero per zero è sempre zero, quindi dovrebbe sparire la A dalla tabella. Nella realtà succede
che se metto 0 alla A, il punteggio che aveva che fine fa? Vengono ridistribuiti nelle soluzioni dove
c’è anche la A (AB AC ABC) quindi se 2 esperti sono completamente in contrapposizione (uno dà un
valore alto per un’hp, l’altro un valore molto basso), invece di migliorare il punteggio su quelle hp,
si migliora il punteggio sull’incertezza che ha un senso (dato che i 2 esperti sono in forte
contraddizione, non riesco a decidere quale soluzione sia migliore e quindi sposto la decisione su
AB AC o su ABC)àaumento il margine di incertezza àGiudizi contrastanti aumentano il margine
di incertezza! Questo va bene se sto confrontando 2 esperti su uno stesso RF; meno bene se sto
effettuando un confronto tra RF. Succede che le scelte le faccio escludendo grandi contrapposizioni.
OSS: la somma dei prodotti degli elementi che non hanno intersezione ci dà una misura della coerenza.

Potrebbero piacerti anche