Sei sulla pagina 1di 95

REVERSE ENGINEERING

Nel ambito della produzione dei componenti si segue uno schema logico e procedurale che consente di
passare dall’ide al prodotto finito in modo oramai molto preciso. Partendo dal concept design, segue in
tutte le produzioni ad oggi un modello CAD che successivamente, valutato su CAM viene realizzato con uno
specifico processo produttivo.

La possibilità di disegnare e produrre forme sempre più complesse a reso però molto più difficile il
passaggio inverso ovvero l’ingegneria inversa che si chiede dunque come è possibile, passare dall’oggetto
fisico al modello in CAD senza che questo sia inizialmente a diposizione. Se le forme fossero semplici
basterebbe poter misurare l’oggetto, ma l’evoluzione tecnica che ha permesso lo sviluppo di oggetti più
complessi non consente più un’ operazione di questo tipo.

Si sono rese necessarie e si sono sviluppate nel tempo quindi, diverse tecniche che consentano la
ricostruzione di un oggetto e del suo modello CAD a partire dall’acquisizione di una serie di punti nello
spazio. L’insieme di questi punti prende il nome di nuvola.

La Reverse Engineering (R.E.)

La RE tratta, dunque, la scansione di corpi 3D ai fini di eseguirne la ricostruzione di un modello numerico


per oggetti di varie dimensioni o addirittura di ambienti.

Questo torna utile in diverse applicazioni. Ci basti pensare ad esempio ad un prodotto artigianale realizzato
come unico pezzo, del quale se ne vuole avviare la produzione in serie tramite fusione. Per avviare la
produzione ovviamente abbiamo bisogno di uno stampo che possa poi anche essere riprodotto e condiviso
in modo facile. Per realizzare lo stampo quindi potremmo ricorrere a un modello CAD ottenuto tramite
scansione 3D che per sottrazione lo definisce.

Un altro caso potrebbe essere quello in cui un componente viene ottenuto ad oc per una specifica
macchina tramite aggiustamenti progressivi e che volendo avviare una produzione anche di questo per
determinarne le tavole tecniche se ne esegua la scansione 3D.

Oltre a questo, il RE torna utile ovviamente in moltissimi ambiti dell’ingegneria edile, biomedica, della
medicina e anche in ambito di protezione dei beni culturali.

Convinti adesso dell’utilità di tale processo, possiamo andare ad indagare come questo si sviluppa.
La prima cosa che deve essere fatta per realizzare un modello numerico 3D di un corpo è
andare a acquisire dati, ovvero creare una nuvola di punti, tramite una scansione 3D che
può essere definita tramite diverse metodologie classificate in due macro-gruppi, tecniche
di acquisizione con e senza contatto.

Una volta eseguita la scansione dobbiamo analizzare i dati rilevati da quest’ultima per
definire così la nuvola di punti. Questa parte detta di pre-processing è fondamentale e
contiene dentro di se tutte le operazioni di filtraggio e analisi dei dati.

Una volta terminata anche questa fase passiamo alla vera modellazione che consente dalle
nuvole di punti definite nel passaggio precedente di andare a determinare una forma del
corpo solido ottenendo così il modello numerico.

Tale modello infine deve essere riportato sul CAD e analizzato tramite CAM per
determinare una strategia produttiva.

Tecnologie di acquisizione

Nella prima parte di corso quindi ci occuperemo di definire tutte le strategie note per eseguire
l’acquisizione dei dati. Tale processo prende il nome di digitalizzazione dell’oggetto e come tutti i processi
di rilevazione dati questo avviene con un apposito strumento, caratterizzato da una propria risoluzione,
accuratezza e precisione.

A grandi linee i processi di rilevazione dei dati possono essere classificati come in figura.

Con il termine di acquisizione dati in ogni caso si intende più propriamente la scansione 3D, con alcune
eccezioni, che porta ad ottenere una o più nuvole di punti (con coordinate tridimensionali) che giacciono
sulla superficie dell’oggetto da acquisire e che, quindi, ne definiscono la forma. Si tratta quindi di misure di
posizione di punti nello spazio. Come ogni misurazione quindi questa è affetta da errore però e si possono
definire per queste:

• Accuratezza: l’errore di accuratezza è la differenza tra la misura vera e quella fornita dallo
strumento. Uno strumento è tanto più accurato quanto la media delle misure che fornisce si
avvicina alla misura vera. Nel caso della scansione 3D, la scelta di una tipologia di strumento
(tecnologia) rispetto ad un’altra si ripercuote generalmente sull’accuratezza. L’accuratezza deve
essere compatibile con la misura che si deve eseguire, altrimenti lo strumento scelto non è adatto
ed è necessario cambiare tecnologia di base (ad esempio passare da uno strumento ottico ad uno a
contatto).
• Precisione : misura la ripetibilità di una misura, cioè quanto la distribuzione di una serie di misure
ripetute è dispersa rispetto al valore medio. Uno strumento può essere preciso ma non accurato e
viceversa. Ovviamente, lo strumento ottimale è preciso e accurato, cioè fornisce in modo ripetibile
misure ben sovrapposte alla grandezza reale.

Le principali cause di errore di questi strumenti/tecnologie ad ogni modo sono riassumibili nelle seguenti
componenti:

• Rumore: in pratica è una misura fittizia che si sovrappone a quella effettuata dallo strumento. È
quantificato dal SNR (Signal to Noise Ratio) cioè dal rapporto fra la potenza del segnale utile e
quella del rumore.
• Variazione spaziale: si intende minima variazione delle coordinate spaziali apprezzabili dallo
strumento, per cui in poche parole quanto fitta riesco a fare la nuvola di punti. Una risoluzione
piuttosto bassa comporta ovviamente una minor precisione del modello.
• Calibrazione dello strumento: nella pratica consiste nella misurazione di un oggetto noto secondo
un procedimento ben definito (all’interno della procedura di calibrazione) e in una successiva re-
impostazione dello strumento affinché riproduca in modo più accurato possibile la misura nota.
Solitamente la calibrazione deve essere effettuata su base periodica e, comunque, ogni volta in cui
ci possa essere il dubbio che lo strumento abbia subito «modifiche» (urti, sbalzi termici, etc.). La
calibrazione non deve essere confusa con la taratura che, invece, non prevede la modifica dei
settaggi dello strumento ma, semplicemente, esamina la capacità dello strumento di riprodurre una
misura nota.
• Accessibilità: alcune regioni dell’oggetto, a causa della forma o delle dimensioni dell’oggetto
stesso, potrebbero non essere fisicamente raggiungibili dallo scanner. Quando si sceglie lo
strumento per una certa applicazione è fondamentale tenere presente questo aspetto.
• Fissaggio della parte per la digitalizzazione: l’oggetto da scansionare deve essere sorretto in
qualche modo (appoggiato su un piano, sospeso, montato su un supporto): la regione dell’oggetto
che si interfaccia con il dispositivo che lo supporta non può generalmente essere scansionata.
• Finitura della superficie dell’oggetto: se opaca, lucida, speculare, testurizzata, etc. Il tipo di
superficie dell’oggetto da scansionare ha una profonda influenza sul tipo di dispositivi utilizzabili: le
tecnologie ottiche per riflessione, ad esempio, non possono essere utilizzate per oggetti speculari o
«troppo» testurizzati senza un trattamento preliminare.
• Sistemi di riferimento: I punti 3D acquisiti dagli scanner sono espressi nel sistema di coordinate
dello scanner stesso (la cui posizione è incognita a priori). Ovviamente è possibile roto-traslare il
sistema di riferimento in modo arbitrario in modo da riportare i punti in un sistema di riferimento
opportuno. Se la geometria dell’oggetto stessa non consente di risalire ad un sistema di riferimento
«utile», è necessario scansionare anche un secondo oggetto (ad esempio un parallelepipedo)
solidale al primo che possa servire alla definizione del sistema di riferimento.
SITETMI A CONTATTO
I sistemi a contatto sono il primo metodo di scansione 3D che andremo dunque ad analizzare. Questi sono
caratterizzati da un elevata accuratezza e precisione e possono sempre eseguire, a differenza sei sistemi
ottici, il controllo completo sul rilievo. Solitamente sono poco influenzabili e caratterizzati quindi da un
rumore basso soprattutto se la misurazione viene eseguita in ambiente controllato.

Tra i difetti dobbiamo segnalare invece una lentezza consistente nella rilevazione e una forte dipendenza
dalle condizioni di accessibilità del componente che vogliamo scansionare.

Sistema a contatto – I tastatori

Il tastatore, con sensore di contatto o senza è uno strumento che


tramite un apposito contatto tra il sensore e il corpo riesce a
determinare la posizione spaziale di quest’ultimo.

Uno dei metodi più utilizzati per il funzionamento di questo sensore è


sensore Renishaw che tramite un circuito elettrico determina
l’avvenuto contatto. Una molla infatti tiene aperto un circuito elettrico
apposito che però, al momento in cui l’asta del sensore entra in
contatto si contrae determinando la chiusura del circuito e segnalando
quindi l’avvenuto contatto.

Oltre alle sonde a trigger on/off appena vista esistono anche sonde di
contatto analogiche o digitali che misurano la deflessione dello stilo
che porta la sfera e, da questa, risalgono alla posizione della sfera
stessa. Queste teste sono sensibilmente più costose di quelle a trigger
ma permettono di acquisire un numero di punti per unità di tempo da 10 a 100 volte superiore (si arriva a
50 mm/s).

Con i sistemi a contatto non tutto viene acquisito per problemi di accessibilità, anche semplicemente dovuti
al diametro della sfera del tastatore.

Sistemi CMM o a braccio articolato

Un sistema molto più preciso del tastatore, il quale è uno strumento manuale, è il CMM il quale è un
sistema passivo, non motorizzato costituito da una serie di tratti incernierati, che vanno da 4 a 7 gradi di
libertà.

In ogni cerniera del braccio articolato che si viene a formare è dunque presente un encoder che misura la
posizione angolare dei bracci. I sistemi a braccio articolato possono essere equipaggiati anche una testa di
scansione ottica.

Questi sistemi di rivelazione angolare però della posizione dei bracci soffre l’influenza dell’umidità e della
temperatura nelle rilevazioni. Per cercare di limitare l’effetto delle influenze di temperatura ed umidità
possiamo utilizzare materiali di costruzione del braccio come carbonio ed INVAR. I bracci possono
analizzare diversi volumi di lavoro al variare della loro dimensione. La cosa positiva è che
indipendentemente da questo, l’accuratezza migliore che si può ottenere è di ± 0,02 𝑚𝑚. Altro aspetto
fondamentale che influenza la misura è il bilanciamento della macchina stessa che deve essere il più preciso
possibile e a tale scopo esistano numerosi brevetti per assicurarsi che il bilanciamento sia eseguito nella
maniera corretta.

Generalmente una macchina come questa può arrivare a costare anche 60.000 euro.

Uno scanner a braccio articolato oltre al sistema robotizzato può avere altre due tipologie di strutture, una
a portale e l’altra della a sbalzo. In tal caso il costo può arrivare oltre i 300.000 euro e un’accuratezza di
±0,001 𝑚𝑚.

La macchina ogni volta che viene accesa sarebbe bene che eseguisse una prima fase di calibrazione che
dovrebbe essere periodica o ad ogni accensione ai fini di incrementare l’accuratezza. Per eseguire la
calibrazione esistano delle barre apposite di dimensioni definite che posizionate in modo opportuno
permettano di valutare le prestazioni dello scanner e permettano di decidere se la calibrazione è
necessaria. Nel caso si debbano effettuare scansioni da più posizione per un oggetto complesso, viene
definito anche una terna di assi ortogonali come SDR fisso che ci consente di
determinare gli spostamenti relativi del pezzo e dell’utensile ricostruendo la
scansione.

L’acquisizione dei punti può essere poi eseguita in due modi, in scanning
mode, dove il tastatore striscia sul pezzo e i punti vengono acquisiti a
intervalli di ∆𝒕 𝒐 ∆𝒔 costanti o in point mode, dove si individuano i
punti prima che se ne conosca la posizione effettiva e si acquisiscano
uno per volta.

Generalmente la soluzione in point mode è utilizzata per oggetti di


grosse dimensioni, con basse densità dei punti e precisione elevate,
dove le geometrie da tracciare sono semplici. Questa scansione,
eseguibile sia con sistemi manuali che con CMM ed ha lunghi tempi di
preparazione ed effettuazione del rilievo.

La soluzione scanning mode è utilizzata su oggetti di dimensioni contenute,


con forme ed orientamento prevalenti, dove la densità dei punti richiesti è elevata e si richiede una
ottima precisione. Nonostante i tempi di scansione siano lunghi consente un rapido posizionamento del
pezzo. La tecnica si esegue sia manualmente che in CMM.

Ad ogni modo, per entrambe le tipologie di scansione possiamo definire la linea di scansione come la
successione geometricamente e temporalmente ordinata di punti giacenti su di un piano.

Le linee di scansione sono particolarmente utili nel contesto del R.E. perché rappresentano “sezioni del
pezzo” e dunque possono essere utilizzate per la ricostruzione di superfici complesse tramite LOFT.

Sia con il tastatore manuale però, che con quello a braccio robotizzato, pensare che tutti i punti si
distribuiscano in modo uniforme su di un piano non è possibile e neanche questi siano talmente fitti da
definire una vera e propria linea. Solitamente, una volta definiti i punti, si procede quindi all’individuazione
del piano di best-fit definendo poi su di esso la linea di scansione.

Per la definizione delle linee di scansione possiamo quindi adottare due strategie, una che prevede la
definizione di un singolo piano da traslare, la seconda che prevede di andare a definire una serie di famiglie
di piani paralleli che possiamo poi andare a utilizzare per ottenere scansioni in diversi punti.

Metodologie di rilievo del CMM


I punti da “toccare” vengono stabiliti secondo strategie diverse:

• Manualmente, uno alla volta tramite joystick (point mode)


• In base a programmi di controllo, ad esempio per la verifica geometrica e dimensionale di pezzi di
geometria nota (in questo caso non funziona da vero e proprio “scanner”, ma da sistema di
controllo).
• In base a programmi di scansione per geometrie incognite a priori; ci sono molte strategie possibili,
molte delle quali danno risultati simili allo “scanning mode” anche se il tastatore non è sempre in
contatto; il passo di scansione può essere anche molto piccolo (0.01mm) ma i tempi diventano
enormi. Con la CMM si possono ottenere esattamente linee di scansione (almeno considerando i
centri della sfera del tastatore).

I programmi di scansione prevedano quindi di definire un SDR di riferimento come quello in figura e una
volta definito, per ogni valore della x o della y possiamo andare a
determinare una linea di scansione che verrà eseguita ad una certa
quota di sicurezza Z che ci consente di strusciare con il pezzo di ma
non di andare a battere. Usando per ogni x e per ogni y questa
definizione della linea, una volta coperta tutta l’estensione del pezzo
in entrambi i sensi abbiamo eseguito la scansione. La strategia di
ricerca dei contatti più semplice prevede un passo orizzontale
costante; tuttavia, questo comporta il rilievo di punti con distanze gli
uni dagli altri molto diverse a seconda dell’inclinazione della
superficie del pezzo. In altre parole, la risoluzione reale è
marcatamente variabile. Ci sono strategie più complesse per mitigare
questo fenomeno.

Una possibile soluzione al problema


precedentemente esposto può
essere l’adozione di un passo
orizzontale variabile per cui si
assume:
𝑍𝑛 − 𝑍𝑛−1
𝑃 = 𝐷 ∙ cos(tan−1 ( )
𝑃𝑛−1

Per cui, il passo di scansione si aggiorna in base all’inclinazione rispetto all’orizzontale della congiungente
degli ultimi due punti toccati.

Errore sistematico

Come abbiam detto, il punto di contatto dal sistema di controllo viene assunto come il centro sfera, ma
questo introduce chiaramente un errore sistematico minimo il quale altor non è che un errore di misura
dovuto a differenza di posizione fra punto rilevato e reale punto di contatto. Un errore di tipo sistematico è
compensabile però nella maggior parte dei casi. Ad esempio, se la geometria è nota la curva di offset si può
costruire calcolando, per ogni punto rilevato, il punto che si ottiene muovendosi lungo la normale alla
superficie nota di una distanza pari a quella di offset. In questo modo la compensazione è quasi «perfetta»

In caso di geometria non nota a priori la normale ad un punto può essere stimata in base ai punti che lo
precedono e che lo seguono. In particolare, la
direzione di offset per un punto può essere stimata
utilizzando la bisettrice dell’angolo formato dai
segmenti che convergono nel punto considerato o
anche l’altezza del triangolo che formano i tre punti.
Ovviamente questa stima diventa sempre più precisa all’aumentare della densità dei punti.

In alternativa possiamo anche ricorrere ad un


ultimo algoritmo dove si considera la spezzata
che unisce i centri della sfera nelle posizioni di
contatto e si traslano parallelamente a sé stessi i
vari tratti in modo tale che le intersezioni
determinino i nuovi punti I punti ottenuti
dall’operazione di offset non risultano giacenti
sulla superficie reale, ma la spezzata che si
ottiene è «parallela» a quella di partenza.
SISTEMI OTTICI
Per conoscere il modello 3d di un oggetto oltre a sistemi ottici attivi, i quali si ribadisce fanno ausilio
pesante di sensori artificiali che interagiscano con il corpo di cui si vuole il modello, esistano anche sistemi
ottici detti passivi, i quali invece non necessitano di alcun tipo di ausilio. Vediamo adesso insieme uno ad
uno quali sono. Prima però è necessario introdurre il funzionamento delle telecamere e dei sistemi ottici in
generale.

MODELLAZIONE TELECAMERE

La maggior parte dei sistemi ottici fa uso di telecamere e per trattare quindi questi sistemi è necessario
introdurre alcuni concetti di base.

Tutte le telecamere di basano sul modello pinhole, detto anche foro stenopeico, è alla base di tutta la
geometria proiettiva e rappresenta la più semplice schematizzazione dell’occhio umano. Il pinhole è il
centro di proiezione del sistema di riferimento della telecamera e anche centro del suo SDR che assume
assi disposti come in figura.

Il piano su cui l’immagine si viene a proiettare è sempre dunque sempre un piano parallelo al piano X-Y
detto quindi piano di immagine o piano di retina. Questo piano disterà poi dal pinhole una quota Z e tale
distanza è detta lunghezza focale. Per comodità si considera il piano immagine ribaltato dall’altra parte del
centro di proiezione (quindi posto tra l’oggetto e il centro di proiezione stesso). La distanza tra centro di
proiezione e il nuovo piano continua ad essere pari alla lunghezza focale, ma in questo caso avrà valore
della Z positivo.
Una telecamera soltanto però, come è evidente non riporta informazioni riguardo la posizione
tridimensionale degli oggetti raffigurati. Per avere cognizione del posizionamento delle parti si rende
necessario avere due telecamere a disposizione che acquisiscano la stessa situazione come avviene nella
visione umana. Il principio che sta alla base di questa tecnica è quello della triangolazione stereoscopica.

Tale tecnica, sfrutta quindi le due telecamere per tracciare le due semirette che congiungano i centri ottici
con le proiezioni sui rispettivi piani di immagine. L’intersezione delle due semirette consente di
determinare la posizione 3D del punto in questione nota la posizione delle due fotocamere.

Perché il sistema funzioni è di fondamentale


importanza sapere come sono
reciprocamente posizionate ed orientate le
due telecamere che inquadrano il punto da
individuare, in modo da poter «descrivere»
tutte le entità geometriche coinvolte in un
unico sistema di riferimento.

Queste informazioni sono ricavabili solo


attraverso una calibrazione delle
fotocamere che può essere eseguita, mono
o stero. Nel caso di calibrazione mono per
entrambe le telecamere si studia le
traslazioni dell’origine del sistema di coordinate caratteristico della telecamera rispetto all’origine di un
sistema esterno preso come riferimento, mentre nel caso stero si analizzano le traslazioni relative delle
origini dei sistemi di riferimento caratteristici delle due telecamere.

Con la calibrazione si procede quindi sia a ricavare parametri intrinsechi che estrinseci (traslazioni dei SDR)
delle fotocamere. I parametri intrinseci sono:

• La lunghezza focale, che deve essere nota per la specifica fotocamera e ci permette di determinare
la posizione dei due pinhole
• I parametri legati all’ottica (lenti) e alla sensoristica che ci consentono di determinare eventuali
distorsioni.

DETERMINAZIONE DEI PUNTI SUI PIANI DI IMMAGINE

Prima di tutto p necessario introdurre quelle che sono definite come coordinate quadruple o coordinate
omogenee. Come sappiamo, ogni singolo punto è descritto da una terna di coordinate cartesiane 𝑃 =
(𝑥, 𝑦, 𝑧). Possiamo identificare per ogni punto però, anche una quadrupla di coordinate espresse come:

𝑃 = (𝑥, 𝑦, 𝑧, 𝑤)
tale che si possa esprimere:
𝑥 𝑦 𝑧
𝑤≠0 =𝑋 =𝑌 =𝑍
𝑤 𝑤 𝑤
per cui la rappresentazione in coordinate spaziali, coincide con quella in coordinate quadruple per 𝑤 = 1 e
quindi:

𝑃 = (𝑋, 𝑌, 𝑍, 1)
Le quadruple coordinate con 𝑤 = 0 chiaramente però, definiscano punti la cui posizione spaziale è
determinata dal vettore {𝑥, 𝑦, 𝑧} di modulo infinito e proprio in questo consiste uno dei principali vantaggi
delle coordinate omogenee, possiamo andare a rappresentare punti all’ infinito in modo semplice. Un
ulteriore vantaggio è che, con questo tipo di rappresentazione, possiamo anche definire matrici di
traslazione 4x4 :

Quando un punto viene acquisito quindi, questo ha coordinate X,Y,Z rispetto ad un SDR fisso esterno di
centro O e versori I,J e K. La proiezione del punto sul pinhole definisce invece il punto sul piano di immagine
di coordinate omogenee 𝑥 𝑒 𝑦 tali che:
𝒙 𝑿 𝒚 𝒀
= 𝒆 =
𝒇 𝒁 𝒇 𝒁
Indicato quindi 𝒔 = 𝒁 possiamo esprimere il passaggio dal sistema di riferimento della fotocamera
quello esterno tramite la matrice:

Oltre al sistema di riferimento teorico della fotocamera si definisce anche il sistema di riferimento uv della
fotocamera che ha come unità di misura il pixel.
Riportando quindi il sistema in coordinate pixel possiamo scrivere:

Dove KK prende il nome di matrice della camera. In realtà per trovare la KK avrei bisogno di conoscere la
posizione di 3 punti (ogni punto fornisce due equazioni) nello spazio rispetto alla telecamera e questo non è
possibile. Posso, però, conoscere la posizione di N punti nello spazio rispetto a un sistema di riferimento
O(I,J,K) caratterizzato da G (incognita a priori).

Per risolvere il problema si devono scattare foto di bersagli noti (in cui siano individuabili almeno 6 punti la
cui posizione è reciprocamente nota). Questo ci definisce anche il così detto pattern di acquisizione o
calibrazione. Un esempio di immagine che mi consente di realizzare la calibrazione di una coppia di camere
è una scacchiera. Calibrando prima la camera di dx o di sx, una volta nota la P conosco tutti i parametri
caratteristici (intrinseci ed estrinseci) della relativa telecamera ed essendo nota la posizione della
telecamera rispetto alla scacchiera che ho usato per fare la calibrazione posso ripetere la procedura per la
seconda telecamera (DX) collegata rigidamente alla prima e che inquadra la stessa scacchiera (stessa
posizione). In questo modo effettuo la calibrazione intrinseca ed estrinseca anche della seconda
telecamera, risalendo alla sua posizione rispetto alla medesima scacchiera. In conclusione ottengo la
posizione di una telecamera rispetto all’altra, Quindi posso esprimere i punti presenti su entrambe i piani
immagine rispetto ad un unico sistema di riferimento (solitamente quello della telecamera SX).

A causa degli errori di calcolo e del fatto che si lavora con precisione finita però, le due rette condotte per i
centri ottici e per i punti sui rispettivi piani immagine non si incontrano…. In effetti risultano sempre
sghembe. Come si fa la triangolazione, se il punto di intersezione non esiste?

Esistono diverse strategie per individuare il punto che più si avvicina a quello di intersezione. Quella
intuitivamente più comprensibile (ma raramente applicata) consiste nell’individuare il punto medio del
segmento di minima distanza delle due rette sghembe.

PROBLEMA DELLE CORISSPONDENZE

Come già visto, a parte il fatto delle rette sghembe, con la calibrazione ottengo le posizioni reciproche delle
telecamere e note le distanze focali, se ho un solo punto nello spazio posso già costruire il triangolo e
risolvere il problema. Il problema sorge però quando ho più di un punto in quanto vanno determinate le
corrispondenze. Ci sono molti modi per risolvere (o per rendere più semplice da risolvere) il problema delle
corrispondenze. La tecnica più utilizzata è sicuramente quella basata sulla geometria epipolare.

Definito quindi un sistema di due ottiche inquadra la stessa immagine, sia X il punto in considerazione e 𝑥 la
coordinata sul piano immagine di una delle due fotocamere. Si definisce piano epipolare quindi il piano
che passa per i due centri di proiezione e per il punto 𝒙. Si definisce invece retta epipolare l’intersezione
di tale piano con il piano di immagine della seconda camera.

La retta epipolare altro non è che la proiezione sul piano immagine della seconda camera, del luogo dei
punti 𝑿𝒊 che hanno proiezione 𝒙 sul primo piano di immagine.
La retta di intersezione dei due centri di proiezione delle camere invece definisce sui due piani di immagine
due punti di intersezione detti epipoli destro e sinistro.

Per casi semplici potremmo fermarci quindi anche a questo risultato asserendo che in base a quanto visto,
il punto corrispondente a quello scelto e che stiamo cercando è quello che si trova sulla retta epipolare
corrispondente nel secondo piano immagine. Quando il numero di punti aumenta, può accadere (ed accade
sempre) che più punti cadano sulla retta epipolare e il problema si complica.

Tralasciando come si ottiene, in questi casi più complessi, nota la matrice di rotazione e il vettore di
traslazione dei punti ottenuti dalla calibrazione delle camere possibile determinare in geometria epipolare,
la così detta matrice fondamentale che lega completamente le immagini di sinistra e di destra
comprendendo anche tutti i parametri intrinseci delle due fotocamere. Grazie alla matrice fondamentale,
è possibile calcolare immediatamente la retta epipolare dato un punto su uno dei piani immagine.

LA TECNOLOGIA DIGITALE

Le vecchie tecnologie usavano lastre di materiale fotosensibile per determinare l’immagine acquisita, ma
questo portava a numerosi errori. Con l’avvento del digitale invece e la possibilità di captare immagini ed
elaborare i dati in modo immediato tramite software dedicati si è potuto osservare un netto miglioramento
dei sistemi di misura. Il sensore che consente di acquisire l’immagine in formato digitale è dunque il così
detto charged coupled device array, indicato anche con la sigla CCD che altro non è che un sistema di diodi
fotosensibili che convertono fotoni luminosi in carica elettrica e dunque in segnali digitali. Il funzionamento
del CCD è basato sull’effetto fotoelettrico, ossia sull’emissione di elettroni da parte di un catodo
bombardato da fotoni. Il CCD è esposto alla luce e l’informazione, accumulata contemporaneamente su
tutta l’area sensibile, viene poi letta sequenzialmente riga
per riga. Il risultato è un’immagine, con una risoluzione
completa sia verticale che orizzontale, catturata con
un’unica apertura e chiusura dell’otturatore della
macchina fotografica.

Il CCD poi è lineare, per cui la funzione di trasferimento


tra il segnale fotonico in ingresso e il segnale digitalizzato
in uscita dovrebbe variare linearmente con la quantità di
luce sul CCD secondo la relazione:

𝑠𝑒𝑔𝑛𝑎𝑙𝑒 𝑑𝑖𝑔𝑖𝑡𝑎𝑙𝑒 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 ∙ 𝑞𝑢𝑎𝑛𝑡𝑖𝑡à 𝑑𝑖 𝑙𝑢𝑐𝑒


In realtà la funzione di trasferimento non è mai proprio lineare, ma per produrre un’ immagine corretta
deve essere nota. Ogni singolo sensore poi non accumula un singolo fotone, ma può accumularne diversi e
in modo del tutto simile a un bacino di acqua, possiamo definire quando questo è colmo più o meno. Il
grado di pienezza di fotoni di ogni singolo sensore prende il nome di saturazione.

Ovviamente poi un’immagine risulterà tanto più nitida e meglio acquisita tanto saranno più fitti e densi i
sensori per cui, potremmo dire che il numero fisico dei sensori presenti nel dispositivo di acquisizione
prende il nome di risoluzione. Ogni sensore, che prende il nome di pixel, trasporta quindi un’informazione
sull’immagine. La risoluzione che si misura in termini di pixel disposti sulla superfice del sensore ha unità
di misura tipica dell’ordine del megapixel. In alternativa alla cifra secca possiamo andare a definire la
risoluzione anche come prodotto tra le righe e le colonne di pixel (esempio 1600 x 1200 vale a dire 2
megapixel).

Riconoscendo poi l’energia del fotone che colpisce un determinato sensore, in termini di lunghezza d’onda
e frequenza, possiamo definire il colore dello specifico pixel. Perché ciò sia realizzabile però, nessuna altra
lunghezza d’onda di disturbo deve entrare nel sensore e pertanto occorrano dei filtri che isolino solo le
lunghezze d’onda del visibile, i filtri RGB.

Il filtro RGB in realtà non è un singolo filtro, ma tre filtri da cui una volta
acquisite le immagini possiamo andare a riunire le varia immagini
ottenute per determinare l’immagine full color.

Esistano diversi metodi per la memorizzazione delle tre immagini con i tra
filtri distinti in RGB, il primo è il divisore di raggio di luce (beam splitter), il
secondo prevede l’uso di un filtro rotativo e il terzo di un filtro di Bayer.

Nel beam splitter il raggio di luce viene diviso attraverso un opportuno


prisma dividendo l’immagine nei tre colori principali e facendo
impressionare tre retiche contemporaneamente. Questo sistema di
acquisizione è molto rapido e preciso, ma risulta particolarmente
ingombrante in quanto abbiamo bisogno di 3 sensori e risulta anche più costosa.

Il metodo di rotazione dei filtri invece, pone i tre filtri su di un disco rotante che alterna così quest’ultimi
davanti al sensore CCD Il sensore memorizza così le tre immagini in rapida successione ed assegna, anche in
questo caso le tre bande per ciascun pixel. Le immagini non sono però catturate dal sensore nello stesso
istante e dunque la macchina e anche il soggetto devono rimanere stazionari per il tempo (seppur molto
breve) necessario alla completa acquisizione. La soluzione risulta però meno ingombrante e costosa
rispetto alla precedente.

La soluzione migliore in termini di economicità, ingombro e qualità


diventa però quella del filtro di Bayer che prevede di andare a disporre
davanti ad ogni pixel un filtro diverso alternando questi in modo
stabilito e determinando il colore delle immagini per interpolazione.
Ogni pixel viene quindi legato ad un filtro
diverso come in foto.

Generalmente, per ogni riga del sensore si


cambia assegnazione del filtro alternando
verde-blu e verde-rosso. I pixel non sono
equamente divisi e si ha una maggiore presenza di verde. Ciò è dovuto al fatto che
l’occhio umano non è egualmente sensibile ai tre colori fondamentali e per avere
una sensazione del colore del tipo true color occorre una maggiore presenza di
verde. Quello che si ottiene alla fine sono dunque tre immagini andando ad isolare i vari pixel
impressionati. Queste tra acquisite nello stesso momento, risultano però incomplete e devono essere
quindie riempite andando a desumere i colori mancanti.

Sulla base di quanto detto, ogni immagine senza filtro di bayer esce in bianco e nero come una matrice X x Y
di punti. Ogni immagine a colori invece è una terna di 3 matrici di X x Y punti (una per ogni canale R, G e B).
Le matrici contengono elementi che generalmente possono assumere valori interi a 0 a 255, ovvero per
descrive ogni pixel abbiamo a disposizione 8 bit. La matrice di pixel impressionati viene quindi rielaborata in
un dato numerico.

Se si ha dispossizione l’immagine a colori dunque di qualsiasi cosa, possiamo passare all’immagine a in


sclala di grigi, facendo la media pesata dell’intensità di ciascun pixel.
30,9 ∙ 𝑅𝑜𝑠𝑠𝑜 + 58,7 ∙ 𝐺𝑟𝑒𝑒𝑛 + 11,4 ∙ 𝐵𝑙𝑢𝑒
𝐺𝑟𝑖𝑔𝑖𝑜 =
100
L’elaborazione digitale delle immagini, dunque, è una manipolazione matematica delle matrici che
descrivono le immagini stesse.

LA SCALA DI GRIGIO

La scala di grigio è una funzione che lega un valore della saturazione alla sua ripetibilità in un’immagine. Il
colore di saturazione nulla ovviamente è il nero, mentre il colore di saturazione massima è il bianco. Data
dunque un’immagine e la linea di attraversamento, la funzione “tono di grigio” descrive il valore della
saturazione lungo tale profilo.
La scala di grigi non è altro però a questo punto che un istogramma che si ottiene plottando il numero di
pixel che assumano una certa intensità luminosa tra zero e 255 livelli di grigio. Si osservi che non
necessariamente tutti i livelli sono coperti perché i pixel non assumano tutti e 256 i valori.

Per rendere maggiormente evidenti i dettagli dell’immagine è possibile espandere la scala dei grigi in
modo che tutta l’ampiezza cromatica sia sfruttata.

In pratica quello che viene fatto è manipolare per il pixel più chiaro affinché questo diventi totalmente
bianco, quello più scuro affinché diventi perfettamente nero e così ridistribuire tutti i toni intermedi su
tutto lo spettro. Questo consente di aumentare i dettagli della nostra immagine. Ogni pixel viene quindi
ricalibrato di tonalità tramite:
𝒙𝒊 − 𝒙𝒎𝒊𝒏 .
𝒙𝒊 𝒏𝒖𝒐𝒗𝒐 = ∙ 𝟐𝟓𝟓
𝒙𝒎𝒂𝒙 . −𝒙𝒎𝒊𝒏 .
dove 𝑥𝑖 𝑛𝑢𝑜𝑣𝑜 indica la nuova tonalità del pixel, 𝑥𝑖 la tonalità di base e 𝑥𝑚𝑖𝑛 . e 𝑥𝑚𝑎𝑥 . il massimo e il minimo
della scala di grigio, ovvero il pixel più chiaro e il pixel più scuro. Estendere la scala di grigi però non basta
nella maggior parte dei casi in quanto non possiamo ridefinire bene la distribuzione, in tal caso occorre un
algoritmo di equalizzazione che appiattisca l’istogramma. L’Equalizzazione riassegna i valori di luminosità
dei pixel in modo che coprano quanto possibile tutti i livelli di grigio in modo uniforme. L’immagine
risultante può apparire “innaturale” ma consente di rilevare alcuni dettagli che l’immagine originale non
riporta.

La luminosità del nuovo pixel, nell’algoritmo di equalizzazione è data dalla formula:


𝑗
𝑁𝑖
𝐵 = 255 ∙ ∑
𝑇
𝑖=0

dove B è la nuova luminosità, j è la vecchia luminosità, i è la vecchia luminosità, 𝑁𝑖 il numero di pixel con
luminosità uguale nella vecchia immagine e T il numero di pixel complessivo nell’immagine. L’obiettivo
dell’equalizzazione è quello di rendere costante l’istogramma dell’immagine, questo non è realizzabile con
un numero finito di toni di grigio (l’approssimazione è sempre più vera all’aumentare del numero di toni di
grigio.

RISOLUZIONE DEI CONTORNI E RIDUZIONE DEL RUMORE E LA CONVOLUZIONE

Oltre ai metodi per aumentare la nitidezza e i dettagli delle immagini, esistono anche metodi che
consentono di ridurre il rumore presente in un’immagine, metodi che consentono l’individuazione dei
contorni che sono una delle feature principali o, in generale e metodi per il miglioramento dell’immagine
stessa. Molti di questi metodi però sono basati sulla convoluzione. La convoluzione cerca quindi di
utilizzare dei metodi matematici sulle matrici che descrivano le immagini determinando così una nuova
immagine.

Uno dei filtri più usati in assoluto per la riduzione del rumore è il filtro medio. Applicare il filtro medio
significa sommare i valori di luminosità dei pixel “vicini” a quello trattato dividendo poi il valore per il
numero di pixel stessi considerati e usando il valore medio per determinare la nuova immagine.

Il secondo filtro che vediamo è il filtro mediano non lineare che assegna a ciascun pixel una luminosità pari
al valore mediano dei pixel a lui vicini. La regione rispetto a cui calcolare i pixel vicini solitamente è una
matrice quadrata di rango 3, 5, 7 etc. In definitiva il filtro ordina il valore di luminosità dei pixel vicini e
sceglie il valore mediano come output.

Per quanto riguarda invece l’individuazione dei contorni ’idea di base è utilizzare matrici di filtro con valori
non esclusivamente positivi (filtraggio simil-derivativo). In questo modo se una regione dell’immagine
presenta una luminosità uniforme oppure un gradiente uniforme, il risultato dell’applicazione della matrice
è quello di portare il “grey level” a zero o a un valore prossimo a zero, ovvero tinge di nero il pixel. Se
invece l’immagine presenta una discontinuità, ossia una linea, un punto, uno spigolo, il risultato del filtro è
un valore non nullo.

Esistono molti altri filtri (che operano basandosi sulla convoluzione) e che servono ad isolare i contorni
dell’immagine. Tra tutti, il più utilizzato è il filtro di CANNY. In generale gli operatori di individuazione dei
contorni mirano a ottenere un’immagine binaria: Pixel di contorno = bianco (255 oppure 1) Pixel non di
contorno = nero (0).

A livello pratico tutto ciò quando faremo una scansione lo rivedremo nei seguenti passi. Supponiamo di
acquisire un’immagine con un lama di luce laser che impressiona il corpo che stiamo fotografando.

Per prima cosa quello che facciamo è


passare dall’immagine a colori a
l’immagine in toni di grigio. Sull’immagine
a toni di grigio si applica un operatore simil
derivativo per estrarre i contorni (es. filtro
di CANNY). Risulta evidente che la lama di
luce non illumina una striscia di spessore
unitario (di 1 pixel), bensì evidenzia regioni
oblunghe di spessore variabile. Ci
chiediamo quindi quali punti devono
essere considerati per fare la
triangolazione?

Regione per regione è possibile (partendo dall’alto)


individuare i limiti della regione stessa (ricerca dei
pixel più a sx e più a dx per una certa riga) Una volta
individuati gli estremi si può calcolare il punto
medio (giallo) dei segmenti orizzontali (rossi)
delimitati dagli estremi stessi. La spezzata che
unisce i punti gialli su righe successive può essere
considerata una buona approssimazione della lama
laser “ideale”. Tale linea ha spessore unitario e i
pixel che la compongono possono essere impiegati
per effettuare la triangolazione
SISTEMI SENZA CONTATTO – OTTICI PASSIVI
LA STEREO VISIONE

Come abbiamo detto questa tecnica non introduce elementi artificiali, ma osservano la scena così come è
senza interagire con essa. Il sistema ottico passivo più famoso è la stereo visione passiva che funziona solo
grazie alla triangolazione stereoscopica fatta osservando la scena da due punti di vista differenti, ad
esempio con due telecamere (la forma naturale di stereo visione sono gli occhi). Nella stereo visione una
volta ritratta l’immagine da due punti di vista differenti, si individua una caratteristica di questa ovvero una
feature e si cerca tracciando la retta epipolare, la corrispondenza sull’altra immagine. Nota questa infine,
si effettua la triangolazione per determinare la posizione 3d del punto di interesse.

La stereo visione consente di avere una visione 3D dell’ambiente o dell’oggetto che immersiva, del tutto
analoga ai nostri occhi. Il procedimento della sterovisione è anche il solito dell’uso del 3D al cinema che
proiettando da due punti diversi e sfruttando lenti polarizzate, consente di dare un senso di profondità
all’immagine.

Alcuni dispositivi più moderni anche di uso comune visualizzazione immersiva e non per fare una
ricostruzione 3D, ciò non toglie che l’hardware composto da due fotocamere sia indifferente.

Ad ogni modo, per quanto riguarda i dispositivi di scansione industriale, questi sono caratterizzati da
algoritmi di image processing e computer vision che consentano una volta realizzata l’immagine di
definire:

• Contorni degli oggetti


• Angoli
• Forme particolari (anche a livello di piccoli punti di pixel che possono originarsi dalla texture)

Tutti questi particolari possono essere riconosciuti e assunti come features per determinare informazioni
sull’ambiente o sull’oggetto. Ad esempio, consideriamo l’immagine sottostante. Come possiamo vedere la
foto di questo cortile viene prima di tutto passata da un algoritmo di risoluzione e rettificazione
dell’immagine che ne corregge gli errori classici (effetto botte, sfumature etc…). Dopo di che un algoritmo
riconosce la i bordi dell’immagine e ne determina una copia eseguita in scala di grigi. Infine un ultimo
algoritmo valuta la profondità dei vari punti andando ad eseguire dei controlli di triangolazione.

Notare come, l’unico punto che non riusciamo a determinare all’interno degli immagine sono i punti a
texture bianca, dove per l’eccesso di luce abbiamo raggiunto la saturazione.

Lasciando stare però l’acquisizione delle dimensioni di spazi aperti, a noi interesserà scansionare oggetti, e
per farlo però si rende evidente come sia fondamentale che su questi appaiano punti di acquisizione degli
algoritmi, ovvero che su questi possa essere possibile determinare delle feature.
Se un oggetto è completamente privo di particolarità non possiamo fare la scansione 3D.

Nell’acquisizione di questa chiesa, ad


esempio, alcuni punti sono facilmente
distinguibili dagli algoritmi, mentre altri
sono invisibili. La parete bianca di
intonaco, non può dare nessuna
informazione al programma. Le rette
epipolari convergono nell’epipolo
destro e nell’epipolo sinistro.

Con due immagini e la ricerca delle


corrispondenze possiamo ricavare una
scansione 3D sfruttando la
triangolazione.

Qui sulla destra è poi riporta l’immagine di un tipico scanner


stereoscopico realizzato dalla Intel il quale funziona sia in attivo che in
passivo in funzione del fatto che accenda o meno il proiettore situato tra
la due camere, il quale utilizza un raggio di luce per determinare le
distanze. .

Ricapitolando la stereovisione passiva è uno dei processi di


scannerizzazione più semplice ed economici dal punto di vista hardware,
ma estremamente complesso dal punto di vista software. Oltre a questo,
un altro svantaggio è che occorrano anche diverse feature per acquisire le immagini, per cui non si
acquisiscano punti di bianco omogeno.

Sono molto utili quindi per ottenere una nuvola di punti immediati, ma non vanno bene per le acquisizioni
precise in quanto gli algoritmi di ricerca delle corrispondenze solitamente non sono molto efficaci. I dati si
rendono poi scadenti oltre modo in torno al bordo esterno dell’oggetto e questo è dovuto alla tangenza dei
raggi ottici attorno alla superfice da acquisire. Un problema aggiuntivo che però analizzeremo più avanti è
anche la copertura.

Della stereovisione esiste ad ogni modo una variante detta sensore trifocale che migliora un po’ i risultati,
ma che non viene usata in ambito industriale.

Ad ogni modo, la stereovisione non è l’unica tecnica con cui si riescono a estrarre informazioni 3D dal
mondo che ci circonda. Anche l’occhio umano di per se utilizza altri indizi come:

• l’ombreggiatura
• la testurizzazione
• la messa a fuoco
OMBREGGIATURA

Per capire la forma di un oggetto non possiamo affidarci solo alla


stereovisione e questo vale sia per i nostri occhi che in campo industriale.
Molte informazioni il nostro cervello le elabora a partire da quella che
viene definita ombreggiatura, la quale differisce dall’ombra e viene intesa
come la scala di colore che il corpo assume per effetto della luminosità.

Come possiamo vedere nell’immagine qui riportata, la vista dell’elemento


di sinistra non ci permette di capire che forma abbia l’oggetto, ma quello
di destra, anche se resta un’ immagine piatta, grazie all’ombreggiatura
possiamo dedurne la forma.

Come sappiamo quindi il processo per cui si passa dalla immagine di sinistra a quella di destra si chiama,
ovvero dalla forma si risale all’ombreggiatura prende il nome di rendering, mentre al contrario quello per il
quale grazie all’ombreggiatura si risale alla forma prende il nome di shape from shading.

Questo processo nello specifico si rende possibile però grazie allo studio della luminosità dell’immagine e di
ogni singolo pixel che la compongano. Questo studio assai complesso però ancora non ha trovato una
soluzione generale.

Lo studio parte sempre quindi, cercando di determinare una relazione tra il versore normale ad una
superfice e la luminosità con cui vedo la porzione locale di superfice stessa.

𝑅(𝑛(𝑥)) = 𝐼(𝑥)

• R funzione generica
• 𝑛(𝑥) versore normale del punto x
• 𝐼(𝑥) luminosità dell’immagine nel punto x

Definito s dunque, il versore opposto alla direzione della luce, se è possibile sfruttare le seguenti ipotesi:

• Si può considerare la superfice opaca (nessun assorbimento), con riflettanza nota e con
comportamento diffusivo
• Fonte luminosa all’infinito (esempio ottimo sono i raggi solari)
• Immagine non in prospettiva, assimilabile alla proiezione ortogonale della scena

L’equazione di irradianza risulta:

𝑠 ∙ 𝑛(𝑥) = 𝐼(𝑥)
L’equazione di irradianza mette in evidenza come il valore di luminosità
𝐼(𝑥) è pari al cos (𝜃) dell’angolo formato tra 𝑠 e 𝑛(𝑥). In altre parole
consente di individuare il cono su cui giace il versore n.

Come sappiamo la luminosità è massima quando la luce ha direzione


uguale con verso opposto al versore normale. Determinando quindi
un vettore intensità luminosa per ogni pixel, in altre parole consente
di individuare l’angolo di inclinazione del versore s e n tra loro e di conseguenza il cono su cui giace il
versore n.

Questo crea un’indeterminazione però in quanto non posso sapere la direzione esatta del versore n, io ho
determinato solo una superfice conica di cui tutti i versori sono soluzione.

𝐼(𝑥) = cos(𝜃) non basta quindi a determinare una soluzione e la forma del corpo. Se potessi conosce
invece la normale ad ogni punto con esattezza non avrei ovviamente problemi a ricostruire la forma del
corpo.

Per ovviare a questo problema però, sono stati proposti diversi approcci, uno dei più utilizzati è il metodo
variazionale o di minimizzazione.

Andando a minimizzare infatti una opportuna funzione costituita da più vincoli, possiamo stimare la
direzione dei versori n.

La funzione da minimizzare è la somma delle funzioni:


2
∑(𝐼𝑖 − 𝑛𝑖 ∙ 𝑠)2 + ∑(𝑛𝑖 − 𝑛𝑗 )
𝑖 {𝑖,𝑗 }

dove il primo membro riporta il vincolo di luminosità, il quale impone che la luminosità dell’immagine
generata dalle normali individuate sia punto per punto il più vicino possibile a quella dell’immagine.
Fondamentalmente si richiede che la luminosità di ogni singolo pixel sia pari al prodotto scalare tra il
versore normale e le luce riflessa in quel punto.

La seconda parte invece è il vincolo di levigatezza, il quale impone che la differenza tra la normale in un
punto e la normale in un punto adiacente (che sono quelli definiti in un intorno 3 x 3 ) deve essere la
minima possibile. Questo approccio si capisce bene, non è applicabile sugli spigoli.

Ma ci sono dei pixel per i quali sono sicuro che la normale è quella?

Questi pixel sono quelli per i quali la luminosità è massima, dove la normale alla superfice in quel punto è
diretta come la luce.

Riassumendo quindi, data un’immagine di una superfice con riflettanza nota e costante sotto una sorgente
luminosa conosciuta, si possono provare a stimare le normali dall’ombreggiatura e ricavare l’orientamento
delle superfici infinitesime. L’unico problema resta l’ambiguità delle forme concave/convesse per le quali si
hanno le stesse ombreggiature senza distinzioni.

I vantaggi ad ogni modo sono


che posso ricorrere ad una sola
immagine eseguita con un
hardware banale, non servono
corrispondenze ed è analogo
alla visione umana. Gli
svantaggi sono che non è
stabile matematicamente, ma
ambiguo, ed oltretutto non
devono essere presenti texture
sul corpo che alterino l’ombreggiatura.

Per cercare di rimuovere l’ambiguità ed eliminare il dubbio tra struttura concava o convessa. Possiamo
andare cercare di aumentare i punti di luce. Questa tecnica detta photometric stero è molto efficace, ma in
realtà non è, anche se funziona con lo stesso principio dell’ombreggiatura, una soluzione passiva in quanto
la fonte di luce è artificiale.

FORMA DELLE TEXTURE

Matematicamente simile alla precedente, vengono impiegati algoritmi per “stirare” una texture nota in
modo da ottenere una configurazione simile a quella dell’immagine. Persiste l’ambiguità della concavità o
convessità però. Al contrario dell’ombreggiatura poi, non è possibile determinare il modello 3D senza usare
avere una texture sul corpo.

FORMA DA FOCUS

Per ogni immagine acquisita con una fotocamera, possiamo


definire quello che è chiamata profondità di campo che
altro non è l’ampiezza della regione di spazio messa a fuoco
dalla camera. Tutto quello che si trova al difuori di tale
regione, sia più vicina che più lontana dall’obbiettivo finisce
fuori focus. Lo spessore della profondità di campo si
definisce quindi con il simbolo 𝛿.

La messa a fuoco di un oggetto invece la quale dipende dalla lente e che non dipende dalla profondità di
campo, la quale cambia in funzione del diaframma di una fotocamera funziona grazie allo schema sotto
riportato.

Un punto di un corpo riflette in modo diffusivo la luce e una certa parte dei raggi riflessi viene riemessa in
direzione della lente che converge i raggi e li convoglia a “schermo”. Se i raggi come possiamo vedere
convergono in un solo punto, allora tale punto è a fuoco, altrimenti se i raggi non arrivano a convergenza
sul sensore e vi arrivano troppo presto il punto è fuori focus.

Ma come si fa a partire da questa considerazione a studiare la forma dell’oggetto?

Supponiamo di avere un corpo texturizzato e una fotocamera con una profondità di campo molto ridotta.
Se, come in immagine scatto una prima foto dal punto a distanza D, la foto verrà completamente sfocata.
Allo stesso modo, se ci avviciniamo di una certa distanza. Avvicinandoci a poco a
poco però ad un certo punto arriveremo a mettere a fuco una parte del corpo.
Continuando ad avanzare quindi, considerando sempre spostamenti ∆𝑫 molto
piccoli per ogni scatto viene messa a fuoco una parte diversa del corpo e ogni parte
viene correlata alla distanza di messa a fuoco che è stata necessaria per
inquadrarla. Combinando i vari strati quindi, i dati acquisiti dalla foto e le
distanze a cui vengono prelevati tali immagine possiamo risalire alla forma.
Il controllo delle parti a fuoco e non a fuoco lo possiamo fare partendo dallo
studio dei contorni. Questa tecnica quindi, in molti casi anche
estremamente precisa, pecca però della necessità una texture che è
fondamentale che ci sia per determinare la forma. La tecnica ad ogni modo
è molto precisa e viene usata ampliamente. Ovviamente minore è la
profondità di campo e quindi più foto dovrà fare, ma questo
consente anche di aumentare la precisione. Solitamente un ∆𝑫
piccolo, al massimo quanto 𝜹 va bene.

Un metodo alternativo a questo può essere invece anche il così


detto forma da De-Focus che prevede di andare a scattare una
sola immagine e poi stimando il grado di sfocatura andare a
stimar la distanza degli oggetti.

SHAPE FROM SILHOUTETTE

Come implica il suo nome, in questa tipologia di scansione 3D si fa ricorso alla sagoma dell’oggetto ai fini di
determinarne la forma. L’idea nasce nel 1974 a Baumgart il quale nella sua tesi di dottorato valutò la forma
3D di una bombola e di un cavallo giocattolo partendo da 4 immagini del profilo di questi. Da allora il
metodo si è evoluto e modificato fino a diventare usato anche nella pratica industriale.

Tale sistema di scansione passivo ovviamente a differenza della stereovisione o altri sistemi non può esser
eseguito in movimento ma vedremo che i suoi pregi anche questo.

Per quanto riguarda la sua esecuzione invece, questo si articola in tre fasi principali che sono:

1. L’acquisizione delle immagini


2. La calibrazione del sistema sfruttando il pattern
3. La ricostruzione 3D del pezzo con le conoidi o sistema visual hull.

Per realizzare questa tecnica ad ogni modo è necessario conoscere molti parametri che possono essere
divisi in:

• Intrinseci: tutte le caratteristiche ottiche e geometriche della camera (come la lunghezza focale, la
distorsione della lente, etc. )
• Estrinseci: ovvero la matrice di rotazione e traslazione che consente di determinare la posizione
nello spazio e l’orientazione della camera rispetto ad un sistema di riferimento assoluto.

Gli algoritmi di calibrazione si basano sul fatto che tali parametri incogniti governano il modo in cui i punti
della scena si proiettano sul piano della retina (CCD) per cui dato un certo numero di punti di cui si
conoscano le coordinate assolute è possibile ricavare tutti i parametri intrinseci ed estrinseci incogniti.
La conoscenza dei parametri viene ottenuta quindi andando ad eseguire la fase di acquisizione delle
immagini con l’oggetto poggiato staticamente su di un pannello di calibrazione con geometria nota.

Una volta eseguita la calibrazione dunque, ed acquisite diverse immagini, le quali devono sempre mostrare
alcuni punti del pattern di calibrazione, si può procedere applicando il metodo visual hull il quale consente
di “determinare la forma dell’oggetto più grande che può essere riprodotto con un numero finito di
silhouette”.

Tale processo prevede che, dato un


oggetto statico, si possano fare diverse
acqusizioni di questo da diversi punti di
vista e scontornare la nostra
visualizzazione come se fosse una
proiezione ortogonale. Una volta ottenute
queste proiezioni possiamo poi tracciare i
fasci di rette che sono passanti dal centro
di ogni camera e per ogni punto della
silhouette stessa. Questo consente di
determinare quindi, con due sole
immagini due conoidi la cui intersezione
determina almeno in parte il volume e la
forma dell’oggetto. Aumentando il
numero acquisizioni possiamo poi
migliorare la forma risultante.

Per riprodurre un oggeto il più simili alla realtà solitamente occorano un numero minimo di acquasizioni
che varia dalle 20 alle 50.
Una pecca di questo processo è che, anche se graficamente sembra semplice, il calcolo delle intersezioni
delle conoidi in realtà è molto complesso e per questo morivo sono state proposte numerose soluzini per
velocizzare il processo e renderlo più leggero a livello di conti.

Per aumentare le performance a livello computazionale possiamo sono stati messi a punto numerosi
metodi, in paritcolare il metodo Voxel.

Con tale metodo, le immaigni acquisite vengono sovrapposte da una matrice molto fitta. Per ogni singolo
pixel si assume quindi un punto indicato in questo caso con il termine di voxel non dando informaizoni
aggiuntive all’immagine ma essendo necessari solo al fine de processo.

Tale matrice ciene inizializzata in prima battuta solo con 0 e a seguire si rappresentail conoide. Se un voxel
questo punto si trova all’interno del conoide di interesse in quel momento, si aumenta il suo valore di un
unità. Facendo questo procedimento per ogni conoide alla fine, i voxel contenuti dentro ogni conoide,
saranno quelli con un valore interno pari al numero di acqusizioni. Selezionando solo questi voxel dunque
poissiamo risalire alla forma complessa dell’oggetto.

Ricapitolando dunque, i pro di questa


tecnologia è che richiede un apparato
molto semplice e poo costoso, come una
macchina fotografica, un cavallto e una
tavola rotante per eseguire le acqusizioni
da diversi punti di vista. I constor sono la
precisione di questo metodo ad ogni modo
resta scadente, andando però sempre a
sovrastimare nel caso le dimensioni
dell’oggetto. Il difetto più grande ad ongi
modo resta il fatto di non riuscire a
cogliere le concavità in quanto nessun
conoide le potrebbe rilevare e non sono
definibili da intersezione.
SISTEMI SENZA CONTATTO – OTTICI ATTIVI
I modelli attivi sono sistemi di scansione 3D che sfruttano sistemi ottici senza contatto dotati però di un
supporto artificiale, solitamente un laser. Generalmente questi sistemi sfruttano una nuvola di punti molto
densa che produce una serie fitta di dati, questo li rende precisi e rapidi con sistemi matematici solitamente
anche più robusti dei sistemi passivi. L’unico contro di questi sistemi è che, se i sistemi ottici passivi
possono essere utilizzati in ogni condizione questi invece richiedano un attento controllo della scena.

Schema tridimensionale triangolazione tra laser e camera

La maggior parte di questi sistemi come abbiamo già detto sfrutta un laser il quale puntando un
determinato target su di un corpo genera un punto di acquisizione della fotocamere, che in questo modo,
cercando una corrispondenza e calibrata
la posizione del laser rispetto ad essa, da
quello che riesce ad ottenere sul piano
immagine è in grado di stimare, fissato
un SDR, la posizione del punto illuminato
stesso.

Tutti i sistemi ovviamente però non


funzionano idealizzati come sopra, ma il
sia il laser che le fotocamere fanno uso
di lenti che idealizzate secondo il
modello pinhole creanoagli schemi
triangolazione piana in presenza della
lente.

Bisogna porre attenziona al fatto che il


laser deve proiettare effettivamente un
puntino, altrimenti questo verrà letto in
modo diverso sul piano immagine.

Il sistema laser-camera poi può essere sia fisso come nell’immagine


sopra riportata, che a laser mobile, come nell’immagine sulla destra.

Per cercare di determinare tutto il corpo infatti, sono necessari tanti punti di acquisizione e di conseguenza,
un movimento del blocco camera-laser lungo tutto di esso o un movimento noto del laser. Per evitare il
movimento di tutto il blocco possiamo andare far ruotare solo il laser introducendo uno specchietto sul
quale la luce, rimbalzandoci, viene orientata in relazione all’angolo di rotazione dello specchio steso.
Ovviamente è ancora necessario muovere il gruppo nel caso l’oggetto debba essere acquisito da un diverso
punto di vista.

Focalizzando la nostra attenzione sul sistema a specchio rotante adesso vediamo le relazioni che ci
permettano di acquisire i punti.

Grazie a relazioni trigonometriche, fissato un SDR nel centro dello specchietto che direziona il laser,
possiamo determinare la posizione spaziale del punto sapendo che y è l’altezza a cui si trova il laser e che x
e z sono descritti dalle relazioni:
𝐻
𝑍=
tan(𝛼) + tan(𝛽)
𝐻
𝑋 = 𝑍 ∙ tan(𝛼) 𝑜𝑝𝑝𝑢𝑟𝑒 𝑋 =
tan(𝛽)
1+
tan (𝛼)
con:
𝑝
tan(𝛽) =
𝑓
dove si evidenza come tutti i parametri siano in realtà già noti:

𝛼 → è l’inclinazione dello specchietto

H → lo definisce la calibrazione

p → definito dall’immagine e di valore positivo o negativo è il pixel che riporta l’immagine del punto laser

f → definito dalla calibrazione (distanza focale= distanza centro di proiezione e piano di immagine)

Adesso vogliamo anche trovare delle relazioni che consentano la determinazione della risoluzione
orizzontale del prelievo, ovvero di quanto devo spostare nelle diverse direzioni il puntatore laser ai fini di
determinare uno scostamento nella stessa direzione sul piano
immagine, del pixel illuminato. Questo parametro, dunque,
prende il nome di risoluzione direzionale.

Analizzando dunque uno spostamento orizzontale del laser


osserviamo che, fissata la distanza minima tra pixel e pixel,
questa può essere correlata alla distanza di scostamento del
laser da una semplice similitudine di triangoli per cui la
risoluzione orizzontale varia secondo la formula:
∆𝑥 𝑧
=
∆𝑝 𝑓
Fissata dunque la distanza focale (f) e di ripresa (z), la risoluzione
orizzontale dipende dalla risoluzione del sensore utilizzato,
ovvero dal numero di pixel che riesce a mettere per ogni riga del
piano immagine. Stesse osservazioni le potremmo fare per la
risoluzione verticale ovvero muovendo il laser nella direzione
perpendicolare al piano riportato in figura.
Cambiando la profondità invece, il discorso si fa più complicato per cui abbiamo che all’aumentare della
profondità del punto di acquisizione la risoluzione di profondità peggiora al quadrato della distanza.

Infatti:
∆𝑧 𝛿𝑧 𝛿𝑧
= → ∆𝑧 = ∙ ∆𝑝
∆𝑝 𝛿𝑝 𝛿𝑝
con:
𝐻
𝑧= 𝑝
tan(𝛼) +
𝑓
Per cui:

𝛿𝑧 𝐻 𝑧2
=− =−
𝛿𝑝 𝑝 2 𝐻∙𝑓
𝑓 ∙ (tan(𝛼) + )
𝑓
La risoluzione in z segue dunque un
andamento quadratico, per cui fissate le
caratteristiche dello strumento, la
risoluzione in profondità varia con il quadrato della distanza. (dimostrazione richiesta all’esame).

Nella realtà, non ci sono scanner che usano però un singolo punto, ma usano sempre una fascio o
quantomeno una lama di luce. Se avessi un punto solo, infatti, ci vorrebbe un sacco di tempo, per questo
motivo si ricorre alla lama di luce e si scatta una sola foto sulla quale poi andiamo a fare la scansione per
ogni punto della lama. Ma come facciamo a riconoscere il punto sulla lama di luce?

Attraverso un pattern di calibrazione, con il quale


possiamo conoscere il piano della luce proiettato
dal laser, o meglio la sua equazione. Intersecando
poi tale piano con la semiretta che parte dalla
telecamere e passa per uno dei punti rossi
dell’immagine scelto arbitrariamente possiamo
determinare la posizione del punto sul piano
immagine ed eseguire la calibrazione.

L’ordine con cui si scegliere i punti “rossi”


sull’immagine può essere fatto secondo una
logica qualsiasi. Esempio dall’alto verso il basso e
da sinistra a destra che solitamente è la più
conveniente.

In pratica la telecamera studia la differenza tra il piano di


luce che si genera sulla scacchiera di calibrazione e quello
che visualizziamo sull’oggetto. Da una singola immagine io
posso quindi triangolare ad avere coordinate 3D di tutta la
linea. Spostando poi la linea o viceversa, possiamo
determinare la scansione completa.

Tra i sistemi di movimentazione più comuni per


determinare tutta forma dell’oggetto poi abbiamo la:
• rotazione relativa dell’oggetto,
• rotazione dello scanner,
• scorrimento oggetto,
• scorrimento scanner,
• specchietto,
• braccio cinematico (che assume come input e deve sapere l’esatta posizione dello scanner)

Riassumendo quindi, gli scanner laser-camera hanno una risoluzione dipendente dalla distanza di lavoro e
solitamente hanno un angolo di triangolazione di funzionamento corretto poco variabile tra i 15 e i 30°,
dove si ricorda che l’angolo di triangolazione coincide con l’angolo compreso tra la direzione del laser e la
retta di proiezione del punto sul piano di immagine. Aumentare oltre questo range di funzionamento
l’angolo di triangolazione introduce problemi di copertura, mentre scendere al di sotto causa una riduzione
della precisione.

Tutti gli scanner di triangolazione sono affetti da errore di copertura. Tale errore non è un errore vero e
proprio, ma piuttosto una incapacità di acquisizione dei dati in quanto, sia in stero visione che in
triangolazione laser, lo scanner è in grado di determinare la posizione di un punto, solo se questo viene
inquadrato contemporaneamente sia dalla telecamera che dal laser stesso. Avere strumenti vicini, che
questi siano sistemi di fotocamere o coppie laser-fotocamere, garantisce di ridurre il problema della
copertura in quanto questi due oggetti punteranno sempre più o meno nello stesso punto. Se nelle
telecamere della stereovisione queste due possono essere posto molto vicine, nella triangolazione laser
invece questo angolo deve essere di almeno 15° il che comporta che si presenti sempre un problema di
copertura minimo.

Oltre a questo, la triangolazione laser presenta


problemi legati anche al peggioramento dei dati
prelevati sui bordi o gli spigoli degli oggetti e
questo è dovuto alla tangenza del laser.

Come possiamo vedere nell’immagine qui sotto,


infatti, uno scostamento di un pixel se siamo
centrati sul corpo, è determinato da un piccolo
spostamento del laser. A mano a mano che ci
avviciniamo al bordo però, con la tangenza del
corpo una variazione di un pixel si riflette su una
variabilità del laser sempre maggiore e questo
comporta errori di acquisizione.
Scanner a triangolazione con luce strutturata

Un'altra tipologia di scanner che possiamo utilizzare è quello a luce struttura, ovvero una luce caratterizzata
da un pattern che facilità l’acquisizione. Non si proietta più quindi, una lama di luce, ma una serie di
pattern a luce bianca con caratteristiche nere. Il principio di triangolazione rimane invariato però e si fa
comunque uso di una fotocamera di supporto per acquisire i punti. Strumenti comuni che funzionano con
questo sistema sono la Kinect ad esempio.

Sulla Kinect, ad esempio, venivano disposte 3 dispositivi, un proiettore di raggi infrarossi, una telecamera a
infrarossi e una a calori RGB. La luce vicina all’infrarosso non veniva dunque osservata dal giocatore, ma
solo la telecamera che infatti aveva una specchiatura apposita. Invece che una lama di luce, dunque, la
Kinect proietta un pattern noto di punti semi casuali, in quanto 9 di questi erano fissati.

Esaminando il pattern proiettato sulla scena


e confrontandolo dunque con quello noto ci
permette di fare una scansione 3D
istantanea della stanza determinando le
corrispondenze di ogni punto e passando
così alla triangolazione laser.

Una volta risolto il problema della triangolazione, l’algoritmo


determina il punto luminoso proiettato nell’immagine e
rivisto dalla telecamera. Questo consente di determinare la
nuvola di punti 3D e tutto questo la Kinect lo faceva con una
frequenza di 30 fps.

Ovviamente la scansione raffigura soltanto solo quello che la


camera vede e in contemporanea del laser.
Quindi, per ottenere un modello 3D completo di un oggetto, si dovrebbero fare acquisizioni da più punti di
vista e assemblare le nuvole come vedremo nella sezione dedicata alla manipolazione dei dati acquisiti e al
l’elaborazione delle nuvole di punti.

Per risolvere il problema, Microsoft ha messo a disposizione uno strumento software (Microsoft Fusion) ch
e riesce ad assemblare in tempo reale le nuvole durante l’acquisizione e a produrre, così, un modello 3D
dell’oggetto.

Stereovisione attiva

Altra metodologia piuttosto utilizzata è la sterovisione attiva che seguendo il principio identico a quella
passiva sfrutta due fotocamere, determina le corrispondenze e triangola i punti al fine di determinare la
loro posizione 3D. La differenza risiede nel fatto che a differenza di ricercare i features queste vengono
proiettate consentendo di acquisire corpi anche dove non abbiamo particolarità. In poche parole, i punti di
acquisizione li possiamo creare noi con un laser o con un marker adesivo. Notare come in questo caso la
posizione del laser sia completamente ininfluente.
Ma come vengono creati i marker di acquisizione?

Con un solo punto rosso di laser proiettato questo consente di


individuare su entrambe le immagini in modo immediato la
corrispondenza, ma ovviamente il processo diventa
estremamente dispendioso in termini di tempo.

Per velocizzare il procedimento, uno dei metodi possibili è


quello di utilizzare lame di luce che mi consentono con una sola
immagine di determinare le corrispondenze di molti più punti
come nella triangolazione classica e poi determinare la
posizione 3D con la retta epipolare. Questo consente
l’acquisizione di tutti i punti interessati dalla lama stessa.

Per velocizzare ulteriormente si cerca poi di proiettare tante


lame di luce, come nel caso del pattern di luce usato da altri scanner. Il
problema resta sempre però scegliere il corrispondente di un punto
sull’altro piano immagine per eseguire la triangolazione.

Se tutte le lame sono visibili possiamo usare lo stesso metodo della lama
singola contando le lame, ma siccome alcune di queste lame potrebbero
sparire a causa della forma dell’oggetto, dobbiamo trovare una univoca
corrispondenza tra le varie lame di luce.

Per risolvere questo problema dobbiamo codificare le lame di luce e una


delle tecniche più banali è dargli un colore diverso, per cui si dà vita alla
tecnica, proiezione con luce strutturata.

In questo modo abbiamo una corrispondenza diretta sulla base dei colori per cui saprò che un punto
appartentenente alla linea fucsia, preceduta da un una liena blu e succeduta da una linea verde, si trova
solo in qualla posizione.

Il problema di questa tecnica è legato all’aspetto dell’oggetto per cui deve avere un colore omogeno e
tenue che non presenti pattern ai fini di mantenere una distinzione del colore. Un altro aspetto negativo è
che telecamere di acquisizione in questo caso non potranno essere più in bianco e nero, ma devono
riportare il colore con il filtro di Bayer e questo peggiora la qualità dell’immagine. Questa tecnica quindi non
si è diffusa molto.

Molto più utilizzata è quella a frange luce ombra la cui successione viene ben valutata con la codifica Gray.
Proiettando sull’oggetto una serie di proiezioni diverse, di luce ed ombre consente di effettuare la
snansione.

Fissato un pixel quindi, si succedano


diversi pattern di righe luce ombre e
se il punto è in ombra si assegna
valore 0 , 1 se il punto è in luce. Il
codice binairio che ottengo alla fine di
tutte le proiezioni vale per il punto in
questione per ogni telecamera di
acquisizione e lungo tutta la riga. Tra
striscia e striscia poi per un
determinato pattern cambia un solo
bit.
Questo consente di codificare quindi le strisce per ogni patter di acqusizione ed usare metodi di
triangolazione semplici.

Nota interessentate, le prime due immagini proiettate sono sempre tutto biano e tutto nero, queste non
portano informazioni utile alla codifica, ma servono al programma a capire come cambia il colore del corpo
se esposto alla luce o all’ombra acquisendone la luminosità.

La successione delle tipologia di ombre è duqnue la seguente:

dove l’unico limite è la risoluzione del proiettore e le telecamre che guardano. Se un proiettore è da
1920*800 io posso scansionare 1920/2 posizioni diverse della lama bianca. Questo sistema di acquisizone
delle stereovisione attiva è poi estremamente veloce.

ATTENZIONE !

Esistano dei distemi che sono ibridi,ovvero che pur presentando due fotocamere e un laser o un proiettore,
non funzionano sempre come sensorei a stereovisione attiva. La stereovisione attiva infatti ha un limite
gorsso che si ricorda essere quello di poter determinare la posizione di un punto se e solo se la posizione
questo viene inquadrato da tutte e due le camere contemporanemante. Se così non fosse però alcuni laser
sfruttando una sola camera ed il laser riescno a determinare la posizione del punto e questo vuoldire quindi
che funzionano da distemi di triangolazione laser. Per riconoscerli quindi guardiamo come e cosa riescano
ad acqusire e non facciamo trarre in inganno dalla presenza di due o più fotocamere.

Considerazioni generali sugli scanner ottici a triangolazione laser camera o stereovisione attiva

• I più utilizzati sono triangolazione laser/proiettore-camera e stereovisione attiva


• I costi sono molto variabili dai 3.000 euro fino ai 200.000-300.000 euro
• Per gli scanner ottici al momento non esiste una norma per la gestione della metrica e che definisca
standar di miusurazione della precisione. Per avere una prescrizione univoca sulla precisione e sulla
misurazione di quest’ultima dobbiamo risucire a trovare metodi di valutazione esatta della
posizione 3D di punto. Tuttavia le specifiche tecniche dello scannere devono sapersi leggere.
• Per avere risultati buoni dobbiamo avere un colore uniforme, meglio se opaco. Per migliorare il
risultato delle scansioni si possono poi utilizzare degli spray opacizzanti, i soliti usati nei liquidi
penetranti. Sono facilmente rimovibili, ma non costano poco.
• Parametri importanti di lettura delle capacità di uno scanner:
Area di misura-> fondamentalmente la capacità di inquadramento che può variare in funzione
delle ottiche delle telecamere montate. La risoluzione è data dalle telecamere, ma i pixel di
acqusizione sono i soliti per cui un oggetto piccolo avra risoluzioni maggiori perché ha lo stesso
numero di punti spalmati su una superficie minore.
Mpixel della fotocamera -> indica il numero di punti di acquisizione sul piano immagine che sono
importanti al punto precedente.
Distanza media tra i punti -> variabilità della distanza dei punti di acquisizione, ovvero quanto
devo spostareil marker laser o di luce per registrare la variazione di un pixel. Più è piccola migliore è
ovviamentel la qualità dello scanner.

In alcuni scanner può essere ripostata la precisione, ma non abbiamo indicazioni su quali condizione questa
sia stata valutata. Non abbiamo procedure di valutazioni perché non sappiamo definire ancora con
accuratezza la precisione di pun punto nello spazio.

SCANNER OTTICI ATTIVI – BASATI SULLA MISURAZIONE DI DISTANZA

L’ultimo stumento ottico attivo che andremo a vedere è lo scanner a tempo di volo il cui principio di base è
quello di inviare un impulso luminoso, solitamente un laser e misurare il tempo che il riflesso impiega a
tornare indietro. Detto anche scanner TOF (time of flight) questo è l’evoluzione dei sistemi a scanisone
totale usati nei rilevatori territoriali ed archiettonici. Nello scanner TOF la rotazione angolare è motorizzata
e il sistema funzionando in coordinate sferiche, stabilito nel suo centro il SDR stabilisce due angoli di
rotazione e una distanza, sparando il laser. Le coordinate in forma sferica vengono poi tramutate in
coodinate cartesiane e riportate sulla nuvola di punti

L’angolo di rotazione è 360° sia per la torretta poi


che per il laser anche se per quest’ulitmo l’angolo
utile è di soli 305° perché puntando in basso la luce
urta nel supporto.

I due angoli caratteristici cono quelli della rotazione


dello strumento rispetto all’asse verticale e
rotazione dello specchio rispetto ad un asse
orizzontale.

I due angoli corrispondono rispettivamente agli angoli 𝜙 𝑒 𝜃 di un


sisitema di coordinate sferico corrispoendente ad un sistema
cartesiano con asse Z verticale ed asse X orizzontale coincidente
con l’asse di rotazione dello specchio.

Noti quindi 𝜙 e 𝜃 Una volta determinata 𝜌 con il laser possiamo


conoscere le coordinate del punto 3D. La distanza 𝜌 dell’oggetto è
poi proporzionale coe abbiamo detto al tempo di volo per cui:
1
𝜌 = 𝑐 ∙ 𝑇𝑂𝐹
2
Ovviamente il corpo deve evere un comportamento diffusivo
almeno in parte per determinare la riflessione della luce e
ricavare così il tempo di volo. Non deve essere troppo assorbente o riflettente per riuscre ad acquisire il
punto.

A livello schematico questo sistema detto LIDAR (light detection and ranging) viene rappresentato
nell’immagine qui sotto. Dopo che la luce è partita si avvia il cronometro e si stoppa al ritorno, facendo
però anche una stima sul ritarso del sistema.

Tra i vantaggi di questi scanner abbiamo la possibilità di uso su grandi volumi di lavori arrivando anche fino
a 350 metri per rilevazione.

L’accuratezza è però scadente questo è dovuto alla misurazione del tempo che è molto piccola. Questo
porta una misurazione con un errore anche di 5 mm che nel caso di applicazioni meccaniche industriali non
sono assolutamente validi, ma possono diventare utili in ambito navale, siti archeologici, rilievi ambientali e
altre grandi applicazioni.

Notare poi che le scansioni e le


foto saranno di tipo sferico e
che dovanno essere riportate
sul diagramma cartesiano in
modo analitico, ma nel caso poi
si voglia un immagine piana ad
ogni modo di ciò che visto lo
scanner queste proiezioni
saranno fatte con le regole di
Mercatore che come sappiamo
defromano le immagini. Nello specifico per il rilievo qui fatto, la foto grigia indica la risposta agli infrarossi,
la foto in rosso è alla mappa si distanza, la foto classica prende le informazioni sui colori ed infine
combinando le cose si ottiene la nuvoal di punti 3D.

Sistemi simili sono anche i sistemi laser a vairaizoni di fase, che hanno lo stesso funzionamento, ma che
piuttosto che misurare il tempo, misurando la variazione di fase della luce riflessa, raggiungano precisioni
molto più elevate rendendolo utile anche in campo industriale.

La variazione di fase però non dipende dalla distanza del punto, per cui come fa il laser a determinarne la
posizione. Come noi sappiamo ogni onda è caratterizzata da una sua lunghezza e il tempo impiegato
dall’onda a eseguire tale distanza è detto periodo. In un periodo l’onda copre tutti i valori possibili della
funzione sinusoidale, ma in funzione della fase con cui viene riflessa siamo in grado di derminare la
distanza, se ovviamente la riflessione avviene all’interno di un periodo. Se infatti la rilfessione avvenisse
dopo un periodo noi potremo ancora misurare la fase, ma la distanza sarebbe potuta essere
tranquillamente un multiplo di questa.

La luce pura però, avendo una lunghezza d’onda estremamente ridotta ha uno spazio di utilizzo limitato. Si
modula quindi in ampiezza la luce creando fasci di luce da diverse lunghezze d’onda, da 76 metri, 9,6 metri
e 1,2 metri. Il primo raggio di luce ci consente quindi in modo molto apporssimativo di andare a valutare il
periodo dell’onda a lunghezza ridotta di cui andae a misurare la variaizone di fase. A sua volta questa
misurazione serve per andare a vlautare il periodo dell’onda a lunghezza ulteriormente ridotta. Questo
consente di arrivare ad un ottima precisione di circa 2 mm che torna utile anche in alcune applicazioni
idustriali.

I vantaggi dello scanner a a tre fasi sono che possiamo assumere grandi nuvole di punti fino a 76 m di
distanza con specifiche viste e fino a 130 metri di buio(aumento della rilevazione). La scarsa accuratezza
resta invece il principale svantaggio anche se però abbiamo ridotto l’errore ad 1mm circa che è la tolleranza
dimensionale di tanti oggetti oltre al fatto che le superifici troppo assorbenti o riflettenti non funzionano o
non possano essere comunque scansionate.

Ad ogni modo questi scanner sono molto rapidi e consentono acquisizioni 3D molto rapide e in ambito
industriale di sovrapporre modelli CAD e nuvole di punti per misurare gli errori.
TRINAGOLAZIONE E MODELLAZIONE DEI DATI
Adesso cominciamo a parlare di manipolazione dei dati. Come è già stato messo in evidenzia, il processo di
scansione porta ad ottenere una o più nuvole di punti. Il processo successivo consiste nel manipolare i dati
acquisiti agendo direttamente sulla nuvola di punti, ma è solitamente in modo molto più efficace andando
a manipolare le mesh poligonali.

Solitamente questi processi, essendo molto fitte le nuvole di punti, vengono eseguiti da software appositi
che vengono forniti insieme agli scanner o acquistati. Tra i software più efficienti si segnalano Rapidoform,
Geomagic e Polyworks.

Il processo di manipolazione dei dati consente di modellare la forma del solido a partire dalla triangolazione
delle nuvole di punti che una volta terminata definisce le così dette mesh poligonali, le quali possono
essere combinate per determinare la forma dell’oggetto con un certo grado di accuratezza e precisione.
Pertanto, noi partiremo da come riuscire a portate le nuvole di punti a definire la mesh di triangoli per poi
andare ad unire quest’ultime.

In realtà la triangolazione fa parte delle tecniche di modellazione che consente di passare dalla nuvola di
punti alla mesh triangolare e ne rappresenta la base e la procedura più importante.

ATTENZIONE a non confondere questa triangolazione con la triangolazione della stereovisione.

Nuvole di punti 2.5D

Partiamo con il definire alcuni concetti di base necessari alla triangolazione. Per prima cosa, la
triangolazione è realizzabile solo su una nuvola di punti che viene definita 2.5 D. Questa tipologia di nuvola
di punti rispetta quindi le seguenti caratteristiche.

• All’interno della nuvola di punti non ci sono sottosquadri.


• Esiste almeno un punto eventualmente anche all’infinto da cui posso osservare la nuvola senza
avere sovrapposizioni delle aeree in vista.

Dalla prima definizione si deduce che non tutte le acquisizioni possono essere triangolate, infatti se questa
presenta sottosquadri, ovvero rientranze, perché magari sono state acquisite con sistemi ottici attivi o con
tastatori che rilevano anche queste zone, allora vedremo che la triangolazione non è possibile.

Dalla seconda definizione ne consegue che esiste almeno una famiglia di piani paralleli rispetto a cui posso
proiettare i punti della nuvola senza avere sovrapposizioni. Notare come affinché la seconda sia vera deve
essere verificata anche la prima. Se infatti così non fosse un corpo con una rientranza, andando a proiettare
i suoi punti su di un piano causerebbe una sovrapposizione dei punti stessi, o comunque osservando poi il
piano, non sarei più in grado di capire quali dei punti era in vista e quale no. In parole povere, la
triangolazione può essere fatta solo se non rileva spigoli o punti che dalla vista che sto analizzano non si
vedano, facendo un paragone con le proiezioni di disegno meccanico, posso triangolare solo viste che non
hanno spigoli nascosti disegnati. A tale scopo in realtà tutte le scansioni eseguite con CMM e con
sterovisione senza spostare lo scanner rispetto all’oggetto producano una nuvola di punti 2.5 D. Se
ovviamente rotiamo l’oggetto possiamo ottenere dei sottosquadri nella nuvola e questo comporta che
questa non sia più 2.5D.

La triangolazione

Esistano diversi metodi per ottenere una mesh costituita da triangoli che uniscano un insieme di punti G
nello spazio. Il problema sarà affrontato con riferimento al caso piano che è immediatamente estendibile a
nuvole di punti 2.5D.
Sia G quindi un insieme di punti disposti in un piano cartesiano mentre si definisce S l’insieme dei segmenti
𝑆𝑖𝑗 che connettano il punto i-esimo ad ogni punto j-esimo.

𝐺 = {𝑃1 , 𝑃2 , 𝑃3 … 𝑃𝑛 }
𝑆 = {𝑆12 … 𝑆1𝑛 , 𝑆21 , … 𝑆𝑚𝑛 }
Sia poi H il grafo completo di S e G.

𝑯 = (𝑮, 𝑺)
dove con il termine grafo si indica la rappresentazione grafica degli insiemi G dei punti ed S dei segmenti.

Si definisce allora T=(G;K) una triangolazione di G con K


sottoinsieme massimale tale che due segmenti qualunque di S non
si intersecano in punti diversi dagli estremi dei segmenti stessi.

K in poche parlo è il sottoinsieme di tutti i segmenti che non sono


incidenti e che si uniscano solo nei vertici dei punti definiti
dall’insieme G.

Per ogni coppia di segmenti incidenti però, possiamo scegliere


quale dei due selezionare come partecipante alla triangolazione,
ovvero appartenente alla serie K, il che vuol dire che la
triangolazione stessa non è unica.

Esistano quindi diversi algoritmi che mi consentono di ottenere


una trianoglaizone.

Nell’immagine possiamo
vederne due esempi.

Un algoritmo semplice per ottenere la triangolazione dei punti nel


piano dato un insieme di punti G e quello della numerazione.
L’algoritmo più semplice si basa sul seguente procedimento.

• Ordinamento dei punti rispetto ad una coordinata, ad


esempio si numerano tutti i punti con x decrescente.
• Si costruisce poi il triangolo avente per vertici i primi tre
punti che non sono allineati che normalmente sono P1, P2
e P3 in quanto essendo questi assunti con uno scanner
difficilmente saranno allineati.
• Si seleziona poi uno di questi tre punti e si connette
questo con tutti gli altri punti dell’insieme se e solo se il segmento che si genera non interseca altri
segmenti.

Questa triangolazione però è brutta in quanto genera diversi errori. I singoli triangoli scadenti vengono
detti spikes e risultano di forma particolarmente allungata con triangoli molto irregolari che vedremo poi
sono molto difficili da trattare. Oltre tutto questa triangolazione, anche mantenendo lo stesso algoritmo
non è unica in quanto se cambio l’ordinamento dei punti o il modo di tracciare il segmento cambia anche la
triangolazione.

La triangolazione più utilizzata è quella di Delaunay la quale si appoggia sulle costruzioni di Voronoi.
Introducendo queste due caratteristiche, sia G nuovamente un insieme n punti disposti su di un piano
cartesiano (XY) allora si può definire la regione di Voronoi per un punto 𝑃𝑖 come:

𝑉(𝑃𝑖 ) = {ℎ ∈ 𝑅 2 | 𝑑(ℎ, 𝑃𝑖 ) < 𝑑(ℎ, 𝑘) ∀ 𝑘 ∈ 𝐺{ℎ}}


In poche parole la regione di Voronoi di un punto P è definita dall’insieme di punti del piano che sono più
vicini al punto P rispetto che ad ogni altro punto.

Per determinare questa regione di Voronoi, in


modo grafico a dire il vero, basta tracciare la
congiungente tra due punti e poi determinare la
retta perpendicolare alla mezzeria del segmento.
Tale retta delimiterà il piano nelle due regioni di
Voronoi corrispondenti. Ripetendo questo
procedimento per ogni coppia di punti possiamo
determinare le regioni di Voronoi per l’intero
insieme G.

A questo punto si può definire il diagramma di


Voronoi come una partizione dei punti del piano in
un insieme di regioni poligonali, spigoli e vertici
indicandola come Vor(G).

Il diagramma triangolazione di Delaunay a questo


punto può essere definito come il duale rispetto
alla diagramma di Voronoi per cui, andando a
tracciare la congiungente tra tutti i punti che
hanno almeno un lato del poligono di Voronoi in comune possiamo ottenere una triangolazione. Questo
fa sì che:

• Ad ogni regione di Voronoi corrisponde un vertice di Delaunay


• Ad ogni vertice di Voronoi corrisponde un vertice de Delaunay
• Ad ogni spigolo di Voronoi corrisponde uno spigolo di Delaunay

Non è detto che gli spigoli siano incidenti e che i punti siano interni ai
triangoli. A livello di proprietà invece questa triangolazione consente:

• Dato un insieme di punti, qualsiasi sia la disposizione dei punti,


questo ammette una sola triangolazione di Delaunay.
• Il cerchio circoscritto attorno al triangolo di Delaunay non può
contenere altri punti dell’insieme.
• La triangolazione di Delaunay rende massimo il minimo angolo interno dei triangoli e quindi questa
è la migliore triangolazione che mi consente di ottenere triangoli il più regolari (equilateri) possibili.

Nota interessante, noi abbiamo dato un definizione della triangolazione di Delaunay, ma non un algoritmo
di calcolo.

Algoritmo di Bowyer-Watson per la generazione di triangolazione di Delaunay in 2D

Per la realizzazione della triangolazione esistano altri tipi di algoritmi e sicuramente quello più utilizzato è
quello di Bowyer-Watson che consente di determinare come varia la triangolazione aggiungendo un punto
per volta. Si tratta quindi di un algoritmo che calcola le modifiche da apportare ad una triangolazione di
Delaunay.
I 3 passi fondamentali dei quali l’algoritmo si compone sono quindi:

• si considera una triangolazione iniziale fittizia che contiene tutti i punti dell'insieme dato
(aggiungendo 3 punti fittizi).
• si inseriscono ad uno ad uno tutti i punti dell'insieme aggiornando via via la triangolazione secondo
la procedura descritta dopo.
• si cancellano tutti i triangoli che hanno un vertice coincidente con uno dei tre vertici della
triangolazione fittizia iniziale.

Si crea quindi come primo passo un triangolo fittizio che contiene tutti i punti di partenza, tale triangolo
prende il nome di triangolo di servizio. Si tracciano poi tutti gli altri triangoli e si eliminano infine tutti i
triangoli che hanno un vertice in comune con uno dei punti fittizi che abbiamo aggiunto per creare il
triangolo di servizio.

Ma come avviene la creazione dei triangoli interni?

Supponiamo di partire da una triangolazione già esistente e di voler aggiungere il punto P. Per prima cosa si
determina quindi il triangolo che contiene il punto che vogliamo
aggiungere. A seguire si selezionano i triangoli adiacenti a questo
come riportato in figura. Si tracciano poi le circonferenze circoscritte
ai triangoli individuati, le quali come sappiamo non devono
contenere il nuovo punto. Se una circonferenza contiene il punto
nuovo P allora per il triangolo che descrive tale circonferenza si
elimina il lato in comune con il triangolo contenente il punto P
ottenendo una nuova forma poligonale che viene poi modificata per
terminare la triangolazione collegando il punto P con tutti gli altri
vertici che vengono a formarsi.
Nell’immagine qui riportata ad
esempio, la circonferenza del
triangolo verde non contiene P e
quindi al triangolo corrispondente
non accade nulla, ma gli altri due
triangoli si per cui i lati in comune
tra il triangolo 1 e il rosso e il
triangolo 2 e il rosso vengono
eliminati. Questo forma una nuova
regione poligonale che viene
separata in triangoli andando a
collegare P con tutti i nuovi vertici.

Questo tipo di algoritmo ottiene indipendentemente dall’ordine di inserimento dei punti la stessa
triangolazione di Delaunay.

Tutto questo va bene però finché resto nel 2D ma per una nuvola di punti che è ottenuta da una scansione
3D deve restituire una mesh 3D. Per realizzare tale mesh quindi, dobbiamo adattare questa triangolazione
per una sistema a 2.5 D.

Riportando i punti sul piano da una nuvola 2.5D possiamo ottenere una rappresentazione piana
proiettando su un piano XY. Una volta quindi eseguita la triangolazione possiamo poi riassegnare la Z ad
ogni punto in 3D mantenendo i triangoli ed ottenere così la modellazione
3D.
Manipolazione dati ottenuti (pre-processing)

Quello che noi otteniamo a fine della costruzione della triangolazione, altor non è che la nuvola di punti
triangolata corrispondente al modello CAD poligonale. Tale modello è sufficiente solo nella computer
grafica però e nei nostri casi sappiamo bene che una scansione e ricostruzione singola probabilmente non
saranno sufficienti.

Molte delle necessità di manipolazione dei dati ottenuti derivano dal fatto che quasi sempre è necessario
mettere insieme (assemblare-allineare-registrare) più nuvole di punti ottenute con diversi posizionamenti
tra scanner e oggetto. Solitamente il posizionamento iniziale delle nuvole viene fatto manualmente
utilizzando riferimenti selezionati sull’oggetto sul quale eventualmente si possono applicare marker
opportuni, quali adesivi o simili. In alcuni casi i software impiegati possono identificare automaticamente i
marker o provvedere immediatamente all’assemblaggio/allineamento/registrazione.

Come abbiamo visto, in alcuni software l’allineamento viene realizzato andando ad indicare dei punti di
congiunzione tra le nuvole per cui si va minimizzare la distanza ai minimi quadrati. Ovviamente si va a
definire una nuvola mobile e una nuvola fissa rispetto alla quale vengono valutate le rototraslazioni della
nuvola di punti mobile. L’inserimento dei marker è migliore perché il sistema li riconosce in automatico e li
posiziona reciprocamente. Solitamente la nuvola fissa deve essere in grado di inquadrare la porzione più
grande di oggetto per evitare la propagazione degli errori.

Ma indipendentemente che io abbia scelto a mano i punti di allineamento o abbia inserito i marker come si
realizza questa corrispondenza tra punti effettivamente?

Esistano due tipi di registrazione.

• Registrazione punto-punto
• Registrazione punto - piano

Nel caso di registrazione punto-punto quando ho


delle nuvole di punti, per ogni punto della nuvola
mobile si ricerca il punto corrispondente della
nuvola fissa.

Assumendo dunque un raggio di ricerca di dimensioni assegnate si fissa quindi per ogni punto della nuvola
mobile un intorno di ricerca che viene analizzato per determinare i punti all’interno. Il punto con la minima
distanza nella nuvola fissa viene individuato come il corrispondente.

Una volta trovato i punti corrispondenti possiamo andare a cercare di minimizzare la distanza. Denominati
𝑎 quindi i punti della nuvola fissa e 𝑏 i punti della nuvola mobile, indicata con R la matrice di rotazione T
quella di traslazione, si valuta:

𝑒 = ∑|𝑎𝑖 − (𝑅 ∙ 𝑏𝑖 + 𝑇)|2

Dove R e T sono uniche e devono essere determinate ai fini di minimizzare 𝑒 il quale indica la distanza. Una
volta applicata la rototraslazione si riesegue il processo andando però a stringere l’intorno di ricerca e
questo viene eseguito in modo iterativo fino a che il tutto non converge ovvero la nuvola smette di
muoversi. Raggiunta la convergenza si passa alla nuvola nuova.

La registrazione punto – piano invece alternativa al precedente risulta fino a 10 volte più veloce. Servano
un numero di iterazioni molto inferiore per arrivare a convergenza. I punti corrispondenti, dati la nuvola
fissa e la nuvola mobile, si cerano sempre con l’intorno di ricerca, dopo di che non si minimizza la distanza
tra punti, ma si minimizza la distanza tra punto e il piano tangente per il punto dall’altra parte. Si vuole
quindi minimizzare la funzione:
𝑒 = ∑ 𝑑𝑖𝑠𝑡 (𝑅 ∙ 𝑏𝑖 + 𝑇 , 𝜋𝑖 )

Dove 𝜋𝑖 è il piano tangente nel punto 𝑎 della curva fissa.

Ma come determino il piano tangente nella nuvola di punti? Si determina andando ad eseguire in questo
caso prima la triangolazione. Questo metodo, infatti, si può eseguire solo dopo che dalla nuvola di punti
siamo passati alla mesh, da qui per ogni punto si determinano le normali dei triangoli di Delaunay che
hanno quel punto come vertice e si determina la normale per ognuno di questi triangoli. La normale nel
punto di interesse, dunque, sarà dato dalla media delle normali precedenti. Il piano tangente sarà invece
perpendicolare alla normale appena calcolata.

Semplificazione delle nuvola di punti

Ora che abbiamo visto come eseguire la scansione, come triangolare i punti e allineare le nuvole dobbiamo
cercare anche di migliorare la rapidità con le quali queste operazioni vengono fatte. Molto spesso dal punto
di vista computazionale, avere molti punti derivati dalla scansione può rallentare il processo e per questo
dobbiamo cercare di semplificare le nuvole stesse.

Il processo di semplificazione e o compressione delle nuvole solitamente si rendono necessarie a causa


dell’ overlapping e dell’oversampling

• Overlapping è una tipologia di errore dovuta alla sovrapposizione delle nuvole o delle mesh quando
si mettono insieme più scansioni dello stesso oggetto.
• Oversampling o sovra campionamento avviene invece quanto si ha un numero eccessivo di punti o
triangoli per descrivere una superficie.

Molti software eseguono la semplificazione nelle zone di overlapping (chiamata anche “merge” delle
nuvole di punti) semplicemente prendendo punti “medi” nelle zone di sovrapposizione. Questo comporta
solitamente perdita di dettaglio come per tutte le operazioni di mediatura, ma consente di andare a
velocizzare moltissimo il processo di costruzione dei modelli. Per mediare i punti si cercano i punti
corrispondenti e poi si esegue la media. In alcuni casi lo strumento di scansione consente di sapere non solo
la posizione del punto di acquisizione, ma sa anche la direzione di acquisizione. In questo caso è possibile
scegliere nelle zone di sovrapposizione i punti che sono stati acquisiti dalla direzione più favorevole (cioè
quella perpendicolare alla superficie dell’oggetto).
Questa tecnica costituisce già un modo per effettuare la semplificazione anche nel caso di oversampling.

Se il problema dell’overlapping si presenta solo in caso di troppe nuvole di punti però, il problema
dell’oversampling invece si fa sempre presente a causa delle necessarie scansioni multiple che servono per
definire un oggetto. Molto spesso accade che siano acquisiti troppi punti per il tipo di superficie che si deve
modellare (ad esempio, in una zona quasi piana è inutile avere punti tanto fitti quanto in una zona con
rapide variazioni della geometria). L’idea di ridurre il numero di punti o triangoli che contribuiscano a
definire la forma dell’oggetto o che non contribuiscano a definire la forma di ciascuna linea di scansione
può dunque velocizzare molto il procedimento. Si mantiene in poche parole solo punti o triangoli con un
alto valore ai fini della caratterizzazione della forma.

Le tecniche più comuni sono:

• Decimazione brutale
• L’algoritmo di Douglas - Peucker
• Metodo della griglia

Decimazione brutale : eliminare dei punti in modo sistematico e regolare (ad esempio, ogni quattro punti
se ne elimina uno) oppure in modo casuale. Fa schifo fare coì e non assicura il mantenimento della linea di
scansione, ma in alcuni casi non si può fare in altro modo.

Algoritmo di Douglas-Peucker:

• Si decide l’ampiezza di una banda di tolleranza


(che viene impiegata come di seguito descritto)
• Si considera una linea di scansione che definisce
una linea della nuvola di punti
• Si uniscono il primo e l’ultimo punto della linea
con un segmento
• Si considera la banda di tolleranza a «cavallo» di
tale segmento
• Si individua tra il punto della linea di scansione il
più lontano dal segmento
• Si valuta se detto punto cade fuori o dentro alla
banda di tolleranza
• Se cade dentro, tutta la linea di scansione viene approssimata con il segmento
• altrimenti la linea di scansione viene divisa in due, «spezzandola» in corrispondenza del punto
individuato al passo 5 e il procedimento riparte (per le varie linee di scansione) dal passo 2.

Questo algoritmo è molto vecchio, ma estremamente efficiente, anche se non è molto efficace con line
curve (linee con lobi) o meglio possono funzionar ma con una riduzione di punti molto minore almeno che
non si ricorra a modifiche dell’algoritmo che utilizza non più segmenti per approssimare ma archi di
circonferenza. L’algoritmo di Douglas-Peucker, tende a mantenere più punti via via che la banda di
tolleranza si stringe; mentre tende a semplificare maggiormente la linea di scansione via via che la banda di
tolleranza si allarga. In effetti, la banda di tolleranza rappresenta proprio quanto si tollera che la linea di
scansione semplificata si discosti da quella originale (lo scostamento massimo è pari alla metà
dell’ampiezza della banda di tolleranza). Questo può poi essere usato solo nel caso di overlapping in
quanto può essere applicato su di una sola linea di scansione, cosa che abbiamo solo se si ha una scansione
molto fitta, ma non troppe scansioni sovrapposte.

Metodo della griglia: tale metodo può essere utilizzato solo se la nuvola è 2.5 D. Per prima cosa data un
nuvola di punti quindi, si proietta questa sul piano di studio e tale piano poi viene diviso in tantissime celle
quadrate di dimensioni fisse. L’algoritmo poi chiede un rapporto di semplificazione, ovvero quanti punti
vogliamo tenere per ogni punto della nuvola di partenza. L’algoritmo in questo caso quindi procede
andando ad eseguire un clustering adattativo per cui si aggregano diverse celle creandone altre sempre
quadrate e di dimensioni diverse, affinché in ogni cella caschi il numero di punti richiesto dal rapporto di
semplificazione.

Una volta fatto questo, per ogni cella, si calcola il baricentro dei punti all’interno di quella cella specifica e si
sostituisce quest’ultimo con i punti di partenza. Il baricentro viene definito anche per la componente z in
modo tale poi che il nuovo punto che otteniamo abbia un’informazione anche di profondità. Qui
ovviamente è evidente la necessità di dover avere una nuvola di punti che sia 2.5 D.

NOTA: alcune nuvole ottenute con sistemi TOF che attengano i punti in SDR di riferimento sferico, possono
e generano nuvole di punti 2.5 D in senso sferico che possono essere trattate quindi come altre nuvole di
punti, sia per triangolare che per semplificare la nuvola di punti stessa.

Metodi per nuvole 3D.

Nel caso in cui la nuvola i punti contenga dei sottosquadri però, dobbiamo cercare altri algoritmi di
semplificazione. Uno dei più utilizzati quindi è il così detto algoritmo di equivalenza usato sia per
overlapping che oversampling. Questa operazione è simile a quella effettuata nella ricerca dei punti
corrispondenti, in quanto si utilizza un intorno di dimensioni assegnate per ricercare eventuali punti da
cancellare. Si determina quindi un intorno sferico di ricerca di ogni punto all’interno del quale non devono
scade altri punti della nuvola. Se questi punti sono presenti invece possiamo andare o eliminarne alcuni o
calcolare il baricentro di quelli che abbiamo in un intorno e questo cambia in funzione
dell’implementazione dell’algoritmo che abbiamo. Il procedimento è particolarmente rapido e efficace nel
caso di zone con densità insolitamente alta di punti (ad esempio a causa di overlapping), ma può essere
anche impiegato per nuvole singole. Tuttavia, questa tecnica produce una distribuzione omogenea di punti,
andando a semplificare raggi di raccordo e geometrie variabili in modo rapido.

Metodi di semplificazione della mesh 3D

In questo caso possiamo andare a semplificare il nostro modello 3D non sfruttando solo la nuvola di punti,
ma anche gli spigoli degli oggetti che abbiamo ottenuto della triangolazione e calcolo delle mesh. Questa
operazione preventiva consente infatti di andare a determinare le zone con raccordi e geometrie variabili
dove è necessario per ridurre gli errori di valutazione del modello avere una nuvola di punti più fitta e le
zone dove invece possono andare bene anche solo pochi punti, ad esempio nelle zone piane. Questo
consente di ridurre notevolmente l’errore di semplificazione sugli
spigoli.

Nella prima immagine abbiamo la mesh non semplificata della


scansione, che nel caso venga semplificata con metodo della nuvola
3D produce errori su ogni punto di piegatura mentre mantiene molti
punti della nuvola sulla zona piana dove non sono necessari (seconda
immagine). Andando a
semplificare la mesh
considerando delle zone
dove è necessario
mantenere più punti
possiamo ottenere con lo
stesso numero di triangolo
un risultato molto migliore.
Quelli visti sono soltanto alcuni dei possibili algoritmi di semplificazione. Ne esistono decine, alcuni
implementati nei software commerciali per l’elaborazione dei dati 3D, altri implementati in ambienti
software quali Matlab o simili.

La riparazione della mesh – la lisciatura

Al termine dell’assemblaggio, la nuvola potrebbe avere molto rumore producendo così errore. Questo con
appositi strumenti può essere rimosso in parte andando a rendere la mesh più realista, ma questo
comporta sempre una perdita di dettaglio. A fronte di ciò è chiaro che la cosa migliore in assoluto sarebbe
non avere il rumore e averlo tendente al nullo che consente con la sua riduzione di perdere poco dettaglio.

Oltre alla rimozione del rumore, una volta che ho semplificato e accoppiato le mesh, di solito dobbiamo
andare ad eseguire la riparazione. A causa, infatti, delle geometria dell’oggetto o di scansioni sbagliate,
possono venire a crearsi degli errori notevoli, ad esempio buchi nella mesh o fori che non sono visibili.

Nei programmi di trattazione del mesh, esistano diverse tecniche per chiudere un foro che sono
implementate. Possono esse realizzate infatti chiusure piane, tangenti o in curvatura in funzione di come
vogliamo disporre i triangoli aggiuntivi per coprire il foro della mesh. La chiusura può anche essere fatta a
golfo ovvero andando a delimitare noi il foro. Ovviamente aggiustare la mesh va bene solo se non ci
interessano metrologicamente parlando le misure esatte.

Valutazione dell’errore del modello poligonale

Questo è uno strumento che vuole mettere in evidenza le differenze che ci sono tra due geometrie, in
particolare tra una permutazione di una combinazione di una mesh, una nuvola di punti, un modello
matematico o un modello CAD. Questa differenza può essere anche utilizzata però per capire se ad
esempio l’oggetto si sta deformando nel tempo comparando due acquisizioni fatti in istanti differenti nel
tempo, se la posizione di acquisizione influenza l’acquisizione stessa andando a comparare due scansioni
fatte da punti di vista diversi ed infine nel caso in cui una volta che data un scansione si manda il nostro
modello in produzione, si volesse vedere se il processo produttivo ha introdotto degli errori rispetto al
modello CAD scansionando il prodotto appena uscito di officina.

Noi partiamo sempre dal dato scansionato assumendo che questo sia la bibbia però, ciò che produce
l’errore sono quindi tutte le modifiche che facciamo per la ricostruzione della mesh, la semplificazione delle
scansioni e la rimozione del rumore. Possiamo quindi anche in fase di modifica della nuvola di punti stessa,
cercar di capire passo per passo quanto ci scostiamo dalla configurazione reale.

I software sono infatti in grado, nella maggior


parte dei casi, di fornire subito dopo una certa
operazione la mappa dell’errore, ovvero di
quanto ci scostiamo con quella operazione
dalla nuvola di punti.

Esempio, si prende la nuvola di punti ottenuta


dalla scansione di auto e se ne esegue la mesh
3D essendo questa ovviamente una nuvola di
punti che non è 2.5D.

La mesh che otteniamo è molto complessa


però, per cui cerchiamo di semplificarla
andando a semplificare la nuvola di punti 3D.
Confrontando però le due mesh abbiamo una
differenza che può essere visionata con la
mappa di errore. Questa mappa mi permette anche di determinare dove si trova l’errore cosa molto
importante in quanto poi posso intervenire su di essa.

In alternativa possiamo anche far vedere, invece che il colore i vettori normali ad ogni triangolo della mesh
dove il modulo è proporzionale all’errore commesso.

Le differenze si possono valutare sia sull’oggetto 3D (intera mesh o nuvola di punti), oppure su sezioni di
esse. In questo secondo caso il confronto è quello tra:

• Una serie di punti (derivanti dalla nuvola di punti) e una curva spezzata o no (derivante dalla mesh
o dal modello CAD ideale)
• Due curve: una spezzata derivante da una mesh e una non spezzata derivante dal modello CAD Due
curve: entrambe spezzate, derivanti da due mesh
• Due curve: entrambe non spezzate, derivanti dal modello CAD ideale e dal modello CAD ricostruito

Ma come facciamo effettivamente a confrontare le curve?

Il primo sistema ci dice che possiamo valutare l’area compresa tra due curve il quale ci fornisce di per se
una misura dell’errore che commettiamo. Questo metodo di controllo è però globale, possono esistere
anche diversi sistemi che misurano l’errore locale.

Il secondo metodo che è appunto un metodo locare, ci propone come misura dell’errore di valutare la
differenza angolare tra le normali tra punti corrispondenti.

Il terzo metodo, allo steso modo del precedente, valuta un errore punto per punto, ma lo fa andando a
valutare la sommatoria delle distanze tra punti corrispondenti.

Il quarto metodo, uno die più utilizzati invece è un misto tra il secondo e il terzo e questo propone di
andare, dato un punto, a valutare prima la tangente in quel punto in modo tale da determinare la normale
e misurare su di questa la distanza tra le curve.

In ultima analisi possiamo considerare poi anche di fornire noi al programma una direzione di valutazione
della distanza e dell’errore.

Molti software ovviamente non usano solo uno di questi metodi, ma ne usano diversi simultaneamente.

Ma come si trovano i punti corrispondenti? Lo abbiamo già visto e lo si fa si ricorda con il metodo di ricerca
sferica. In alternativa a questo metodo possiamo usare anche l’ascissa curvilinea.

Nel caso di curve (e specialmente nel caso di dimensione dei tratti molto variabili e diverse tra curva e
curva) si può utilizzare l’ascissa curvilinea adimensionalizzata con la lunghezza della curva. I punti
corrispondenti in questo caso sono quelli che hanno lo stesso valore
dell’ascissa curvilinea adimensionalizzata. Notare come in questo
metodo ad ogni modo potrebbe risultare che il punto più vicino non
coincide con il punto corrispondente.

Un'altra domanda che ci sorge


spontanea è poi, ma le normali alle curve invece? Come le
calcoliamo? Possiamo anche utilizzare lo stesso metodo giù visto,
oppure per velocizzare il procedimento, a volte si calcola la normale
impiegando uno soltanto dei segmenti o dei triangoli che convergono
in un punto. Ad esempio dati i primi due segmenti concorrenti in un
punto, possiamo tracciale le normale ad entrambi e poi fare la media
di queste due.

Ok… ma il software non ci fa scegliere che metodo di valutazione dell’errore usare e tantomeno ci dice
quale stanno usando. Lo possiamo però capire da soli? A seconda delle possibili scelte relative agli aspetti
visti infatti, gli approcci elencati precedentemente per la stima dell’errore vengono implementati in modo
diverso e danno risultati diversi.

Se ci viene dato quindi un oggetto scansionato e un modello CAD originale dell’oggetto, possiamo andare a
determinare l’errore.
Sommario Reverse engineering

Dopo aver visto le tecniche di scansione per allineare, pulire e decimare le nuvole di punti, dobbiamo capire
come avviene la vera e propria modellazione. Questa può avvenire tramite due approcci di cui il primo lo
abbiamo già visto, è il metodo poligonale per cui la mesh viene creata tramite triangolazione. Per lo studio
di questi modelli esistano modellatori CAD che studiano a lavorano proprio tramite solo mesh poligonali. A
livello di rendering tutte le superfici matematiche sono riportate in modello poligonale e questo vale anche
per il secondo approccio di scansione.

La ricostruzione però, a livello prettamente matematico, in quanto la scheda grafica può mostrare solo
mesh poligonali, possono essere studiate per creare modelli anche con ricostruzioni non sfaccettate.
Questo metodo di ricostruzione si divide a sua volta in diverse tipologie e viene quindi realizzata tramite:

• operazioni di loft
• Patches di superfice
• Ricostruzione per superfici

Queste tre modalità di ricostruzioni attenzione però, non sono esclusive per cui nella modellazione i tre
metodi sono componibili.

Operazioni di loft applicate a sezione della triangolazione

Data una scansione 3D del quale vogliamo ottenere il modello CAD tramite estrusione con loft, la prima
cosa da fare è andare a chiudere la mesh derivata dalla nuvola di punti. Una volta chiusa la mesh, andiamo
a creare una serie di piani paralleli che vadano a sezionare il corpo in modo tale da definire i profili del loft
che voglio unire. I piani non devono essere assolutamente tangenti alla nuvola di punti in quanto se
tangenti definiranno non più un profilo di un loft, ma un punto che non è valido per la creazione del loft.

Ovviamente poi, il numero di piani deve essere sufficiente a garantire che i profili che definiscano il loft
siano in numero adeguato a definire il modello
del corpo per intero. Oltre al numero di piani
questi devono essere posizionati anche in
modo intelligente in modo tale che ogni
feature del nostro oggetto sia interessata da
almeno un piano di sezione. Ai fini di
migliorare poi la ricostruzione con loft,
possiamo anche inserire più punti di controllo
per ogni sezione e volendo anche una linea di
controllo che ne definisce l’allineamento.

Il loft come possiamo vedere però non chiude il modello per superfici che abbiamo ottenuto. La chiusura
deve essere fatta manualmente tramite dei piani di o delle superfici curva.

Una volta terminata la ricostruzione possiamo andare ad analizzare la mappa dell’errore.

Il loft tende poi a perdere però gli spigoli vivi che dovrebbero essere modificati andando a sostituire
quest’ultimi con linee guida o con segmenti di retta.

Il miglior pregio di questa ricostruzione è che le sezioni vengono definite con curve spline che possono
essere facilmente modificate se si vuole cambiare il modello.

Metodo delle patches


Il termine che letteralmente significa “toppe” definisce un metodo di ricostruzione 3D del modello CAD
tramite superfici di sola geometria piana. Per la realizzazione di questo metodo, il software analizza la
curvatura della mesh formando una rete che avvolge la ricostruzione poligonale.

In questo procedimento per prima cosa dobbiamo definire


lo sharp edge, ovvero gli spigoli vivi che devono essere
mantenuti e presi come indicazione per la creazione della
rete. I lati di tale rete vengono poi utilizzati come limiti
delle patches di superfici spline che vengono “fittate” sulla
mesh. Le patch generate sono tangenti le une alle altre
(continuità C1 oppure C2), ma anche in questo caso
solitamente si perdono gli spigoli vivi. Per cercare di
migliorare l’analisi possiamo solo aumentare il numero di
patches che vogliamo che il software generi.

Le modifiche possiamo fare però su questo modello 3D


sono molto limiate e più adatte ad un uso di tipo design
piuttosto che ingegneristico che invece sono migliori da un
punto di vista di modifica.

In alcuni casi però a superficie da ricostruire non si presta


ad approcci diversi da quello delle patches e questo ne
impedisce la modifica della ricostruzione 3D.

Ricostruzione della geometria con superfici primitive o features

Andando ad analizzare l’insieme dei triangoli generali dalla formazione della mesh si osserva che questi
potrebbero aderire, in modo più o meno corretto ad una superfice definita. Si procede quindi ad una
procedura di segmentazione dove di cerca di preparare l’insieme dei dati al fitting.

Tramite quindi la segmentazione si suddivide l’insieme di triangolo in sottoinsiemi, ognuno dei quali
contiene solo triangoli appartenenti ad un tipo semplice di superfice corrispondente come ad esempio,
piani , sfere, solidi di rivoluzioni etc. La segmentazione può essere fatta «studiando» sia gli spigoli (edge-
based) che le facce (face-based) dei triangoli che compongono la mesh ma ad oggi non esistano algoritmi
univoci e definiti. Il problema della segmentazione è tutt’ora aperto infatti e ci sono molti studi
sull’argomento volti ad individuare algoritmi totalmente automatici ma anche di tipo interattivo.

Una volta eseguito questo raggruppamento si passa quindi al fitting che a questo punto cerca di
approssimare /interpolare ogni sottoinsieme con una superfice matematica.

Facciamo un esempio:

La geometria dell’oggetto in figura si vede che non è free form, ma


che in realtà sono una serie di superfici primitive definibili.
Nonostante l’approccio per patches sia sempre possibile in questo
caso non è assolutamente il più
conveniente. Tramite segmentazione
e fitting infatti possiamo, andando a
intersecare diverse superfici
primitive, ottenere il risultato nella
seconda immagine.
La cosa più interessante di questo approccio di ricostruzione 3D è che possiamo, una volta segmentato il
corpo, un modello 3D CAD che è composto da schizzi quotabili, modificabili, dove posso aggiungere vincoli
etc.

Il fitting però, individua solo le superfici corrette, non impone i vincoli, gli schizzi saranno disallineati con
alcun tipo di vincolo e senza quote. Il nostro obbiettivo finale in realtà è ottenere il disegno che il
progettista avrà fatto per questo corpo per cui anche noi dovremo in realtà cercare di disegnare il corpo per
aggiustare il fitting.

Per prima cosa, per aggiustare il fitting, dobbiamo selezionare il paino di giacenza dello schizzo di base
come facevamo in CAD andando a selezionare il piano si disegno.

Una volta selezionato il piano, il software mostrerà la polilinea ottenuta dalla sezione del modello che noi
andremo però solo a seguire per generare lo schizzo.

Considerazioni finali

Prima di stabilire se è necessario spingersi oltre la mesh (triangolazione) e quale metodo impiegare, è bene
soffermarsi a pensare quale è l’obiettivo che si vuole raggiungere:

• Ricostruire la geometria più fedele possibile dell’oggetto scansionato (ad esempio per confrontarlo
con il modello CAD ideale)
• Ricostruire la geometria “ideale” dell’oggetto scansionato (ad esempio perché abbiamo l’oggetto
ma non il modello CAD)

Nel caso 1 (conosciuto come problema di “ispezione”) probabilmente è meglio fermarsi alla mesh. Ogni
elaborazione successiva falsa la geometria di partenza mentre nel caso 2 (conosciuto come problema di
“reverse engineering”) si possono utilizzare gli approcci visti.

Se dopo una scansione, quindi, otteniamo una mesh non proprio corretta o con una serie di errori, non è
detto che io debba correggere la mesh, ma i dati acquisiti potrebbero bastarmi per determinare il modello
CAD.

Se volessi ottenere il modello CAD quindi, la prima cosa da fare è andare a posizionare l’oggetto
riportandolo dal SDR dello scanner al sistema di riferimento del software di modellazione. Per determinare
il SDR ideale del software però abbiamo bisogno prima di eseguire la segmentazione che mi consente di
andare a determinare gli insiemi di triangoli. Una volta determinate quindi le varie forme con il risolutore
automatico del software (anche se non sempre queste sono corrette e per correggerle l’unica cosa che
possiamo fare è aumentare la sensibilità) possiamo andare a definire i vincoli che mi posizionano il SDR.

Ad esempio, nel caso di una superfice cilindrica per rivoluzione, determinata dal software, possiamo
imporre la congiunzione tra l’asse della superfice e quello del SDR globale di disegno. Altre soluzioni
possibili sono quelle di porre in congiunzione piani di giacenza fondamentali tra loro e pini del SDR, oppure
piani di simmetria e piani del SDR etc. … Bisogna stare attenti però anche alla precedenza, per cui l’ordine
con cui do i riferimenti in quanto ogni volta che blocco un riferimento ulteriore, questo verrà bloccato sulla
base dei precedenti. Dobbiamo quindi sempre indicare come primo riferimento la corrispondenza della
feature più importante. Per un oggetto assial simmetrico come un cilindro ad esempio, potremo andare
nell’ordine, asse di rivoluzioni, piano di simmetria e piano di giacenza. Le corrispondenze dopo la prima
non sono poi più tenute a rispettare la coincidenza, ma cercano di ridurre la distanza andando a imporre la
coincidenza sulla prima feature. Questo succede perché ovviamente la scansione non è perfetta. La
simmetria, che è una caratteristica fondamentale di tanti oggetti meccanici, deve essere determinata
imponendo delle feature di scansione, che ovviamente per determinare la simmetria devono essere
almeno 2 piani, ma possono esserne indicati anche di più in modo tale da determinare il piano di simmetria
come la media di più piani e posizionare al meglio il SDR.

NOTA: come riconoscere una nuvola di punti da una mesh anche se si eliminano i triangoli?
Dall’ombreggiatura, difatti se il corpo viene renderizzato con l’ombra, vuol dire che il software ha già
calcolato una struttura solida e quindi ha la mesh, altrimenti non avrebbe potuto sapere come si
sviluppavano gli effetti di luce nel rendering.

Una volta terminata la segmentazione e il posizionamento, possiamo cominciare a disegnare per ricostruire
il modello CAD. Per prima cosa proviamo sempre ad impostare un auto sketch che cerca di determinare in
modo automatico il disegno sottostante al profilo da lui determinato.

Una volta ottenuto l’auto sketch questo deve essere modificato andando: a completare il disegno da lui
creato, imponendo vincoli allo schizzo o determinando le quote fino a quando questo non diventa
totalmente definito.

Una volta terminato il modello CAD è possibile andare a determinare l’errore o comunque la deviazione che
c’è tra il corpo scansionato e il modello ricostruito. La mappa a calori mi permette quindi di avere un
indicazione generale dell’entità dell’errore, ma per vedere dove questi sono posizionati e se sono
veramente significativi o addirittura errori calcolati male occorre la visualizzazione a vettori.
ADDITIVE MANUFACTURING
L’ additive manufacturing è un metodo di produzione di oggetti tridimensionali che a partire da un modello
digitale CAD riesce a realizzare oggetti complessi solo aggiungendo materiale dove serve, ovvero tramite un
processo di produzione additiva. Contrariamente a quanto avviene
infatti nella produzione classica, dove solitamente prendiamo del
materiae in volume maggiore all’oggetto che vogliamo ottenere e lo
modifichiamo fino ad ottenere la forma che vogliamo (produzione
sottrattiva) , in questo caso facciamo l’operazione inversa usando
l’esatto volume del materiale che ci occorre. Nel 1985 l’idea di base
fu quella di pensare un oggetto come una grande serie di fette
tridimensionali, per cui aggiungendo una seziona alla volta potevamo
ricostruire l’oggetto complesso.

Ad oggi le tecnologie realizzative sono moltissime in realtà ed interessano diversi campi in quanto possiamo
realizzare dai componenti meccanici, ai biotessuti fino ad arrivare anche agli alimenti. Ogni tipologia di
produzione richiede però tecniche specifiche, pur basandosi sul principio di base di dividere l’oggetto in
sezioni, la differenza risiede soprattutto su come andiamo a unire le varie sezioni.

Le forme realizzabili sono infinitamente complesse e solitamente non ottenibili tramite processi produttivi
tradizionali. Le tecnologie di produzione additiva appartengono dunque al settore del digital fabbrication (o
Direct Digital Manufacturing), a cui appartengono anche tecniche di produzione sottrattiva come il taglio
laser e la fresatura/tornitura con macchine utensili a controllo numerico CNC. Il concetto chiave di questa
branca produttiva sono i dati che diventano la cosa più importante in quanto sono i dati che si
materializzano in oggetti fisici quando servono. I dati sono il valore, gli oggetti sono mere istanze transitorie
che possono essere usate oppure no e pertanto prive di valore. Insieme a questa tipologia di fabbricazione
sono nati dunque anche una serie di studi su come possiamo proteggere i dati, permetterne una sola volta
il loro utilizzo o marchiare le serie produttive per vedere se questi sono stati abusati.

Oltra alla disponibilità infinita di forma, la produzione additiva può funzionare con diverse materie prime di
base che sono utilizzabili inserendoli all’interno sotto forma di polveri, liquidi, paste, filamenti o lamine.
Possono essere realizzati oggetti di colori diversi composti da materiali diversi, pur non mescolando metalli
e non metalli, ed infine possono essere prodotti anche oggetti con funzionalità cinematiche ovvero che
hanno moto relativo tra loro (può ed esempio essere stampata per intero una catena in ferro per una
moto).

La stampa 3D entra poi a pieno titolo a far parte della terza rivoluzione industriale e non solo per la
realizzazione di pezzi unici, ma soprattutto perché ha consentito lo sviluppo di prototipi di ogni forma che
sono disponibili in poche ore e che aumentano quindi la possibilità di analisi, sviluppo e progresso.

In realtà oggi si fa un gran parlare della tecnologia del 3D Printing per un motivo molto meno prestigioso
del progresso tecnologico. Queste si stanno diffondendo sempre di più anche al grande pubblico con
stampanti che con pochi euro, 200-300 euro, promettano il raggiungimento di risultati strabilianti. In realtà
le macchine di cui abbiamo parlato fino ad ora non hanno nulla a che vedere con queste, al mondo sono
ancora molto poche e costano dai 200 fino ai 700 mila euro; pertanto, sono segretamente nascoste dalle
aziende che le posseggano. Sentiamo sempre più parlare di stampanti 3D invece perché la scadenza dei
brevetti delle aziende detentrici ha portato nel 2013 ad un enorme calo del prezzo dei relativi impianti, in
quanto la deposizione del brevetto di fatto impedisce uno sviluppo della concorrenza nel settore delle
stampanti 3D, soprattutto nel segmento di quelle più funzionali e più avanzate.

Le stampanti 3D professionali, infatti, nonostante siano ampiamente utilizzate ad oggi restano strumenti
costosi, lenti, poco accurati nella maggior parte dei casi in confronto a metodi di produzione a controllo
numerico per esempio. Nel corso degli anni ci si aspetta
quindi una riduzione dei prezzi delle macchine, un
aumento dell’efficienza, una disponibilità maggiore dei
materiali ed infine la possibilità di stampare più famiglie
di materiali diversi insieme come, ad esempio, metalli e
plastiche. Gli sviluppi futuri ad ogni modo un’infinità e
vanno dall’edilizia fino alla stampa di vestiti.

I vantaggi della stampa 3D

Con la stampa 3D, come abbiamo già evidenziato, il


vantaggio più grande è che possiamo ottenere ogni
tipologia di forma realizzando anche oggetti che sono realizzati da più componenti accoppiati tra loro.

L’obbligatorietà dell’uso del modello CAD e la produzione tramite stampa porta quindi allo sviluppo di
standard di comunicazione che la migliorano e la rendono più semplice rispetto alle vecchie regole del
disegno meccanico.

Con la riduzione del tempo di realizzazione del prototipo e l’abbassamento dei costi di sviluppo il progetto
raggiunge standard accettabili per la produzione in tempi molto più rapidi migliorando così il time to
market. La riduzione dei costi del prototipo porta anche a minori costi di sviluppo, identificando
precocemente degli errori di progettazione

Si possono poi utilizzare le stampanti 3D per ottimizzare la produzione topologica ottenendo il rapporto
ottimale tra prestazioni a leggerezza. Grazie alla libertà consentita alla forma degli oggetti si può prendere
ispirazione dalla natura cercando di generare delle matematiche che replichino le forme organiche, in
grado di porre il materiale solo dove
serve effettivamente. L’ottimizzazione
della forma porta di conseguenza a
risparmi di peso, che portano ad un
miglioramento dell’ efficienza delle
parti mobili. Pensiamo ad esempio
quanto carburante o energia si
potrebbe risparmiare se una macchina
a parità di integrità strutturale pesasse
almeno 1/3 in meno.

Proprio sotto questo aspetto, una delle strutture più importanti che consentirebbe di raggiungere gli
obbiettivi prima citati è il lattice, una struttura reticolare che garantisce resistenza e leggerezza.

Una produzione in stampa 3D potrebbe poi anche essere più


ecologica poiché riduce la quantità di materiale sprecata nei processi
di fabbricazione e talvolta è possibile utilizzare materiali riciclati.

Oltre tutto ciò la stampa3D potrebbe consentire di avere pezzi di


ricambio a disposizione in loco riducendo tempi di gestione e
spostamenti necessari, migliorando l’assistenza, replicando opere
d’arte e pezzi unici.

Tutto questo però ad oggi ha anche dei limiti assolutamente non


trascurabili. Vediamoli insieme.
Limiti

Il principale limite all’impiego di una nuova tecnologia, lo sappiamo, è sempre lui, il costo. Le stampanti
infatti sono molto costose e riescano a superare tranquillamente i 300.000 euro.

Altro aspetto limitante è il costo del materiale che se pur essendo materiale generico, per cui in teoria
neanche troppo costoso, le macchine, riconoscono solo il materiale proveniente dalla casa madre lo
decidano loro il prezzo. Questo però va oltre il mero guadagno in quanto solitamente il materiale è
appositamente trattato ed ottimizzato affinché sia ottimizzato per quella specifica macchina.

Altro problema è che solitamente gli oggetti realizzati con tecniche additive non hanno la medesima
robustezza di quelli prodotti con i metodi e i materiali tradizionali. In molte tecniche le caratteristiche in Z
sono 20-30% inferiori di quelle in XY e oltretutto non possiamo disporre di tutti i materiali in quanto una
grande gamma ad oggi non sono ancora disponibili in stampa 3D.

Nonostante poi abbia velocizzato i tempi di prototipo, i tempi di produzione del singolo componente sono
ancora molto lunghi. La stampa 3D risulta quindi adatta per ora, solo alla costruzione di piccoli oggetti
complessi e non su larga scala.

Sono poi solitamente caratterizzate da basse accuratezze e precisioni basse e non adatte quindi ad oggetti
estremamente precisi. La risoluzione cala drasticamente in quanto il dettaglio più piccolo realizzabile e
legato alle dimensioni dello stampo.

Infine, si deve considerare anche la nascita di nuovi problemi in quanto la diffusione della tecnologia 3D
può favorire l’aggravamento di alcune problematiche. Infatti, con uno scanner e una stampante 3D diventa
facile riprodurre perfettamente oggetti protetti da marchi e brevetti, semplificando la contraffazione dei
prodotti.

Quando usare la stampa 3D

Non è sempre detto che la soluzione in stampa 3D quindi, visti anche i limiti di quest’ultima, possa
diventare conveniente. Solitamente, quindi, quello che dobbiamo vedere sono le dimensioni del pezzo, la
complessità, il valore del progetto, le dimensioni della serie e il tipo di applicazione. Una volta fatte
considerazioni su questi aspetti possiamo concludere e decidere di investire più o meno in una stampante
3D. Nel caso in cui poi si decida di non comprare una stampante, ma si vuole ad ogni modo procedere
all’uso della stampa 3D possiamo anche ordinare il pezzo da un Hub di produzione.

Ammettendo di voler o poter realizzare la stampa 3D gli aspetti più importanti di cui tenere conto sono:

• La dimensioni trattabili dalla stampante: per ogni stampante possiamo definire il volume massimo
stampabile il quale solitamente è proporzionale al costo della macchina e inversamente
proporzionale alla sua accuratezza. Scegliere quindi la macchina in questo caso è più complesso in
quanto non vale il principio più grosso è e meglio è.
• Requisiti di resistenza della stampante: per cui dobbiamo valutare quali sono le prestazioni che si
si aspetta dalle parti stampate.
• Le dimensioni della serie per mese: ovvero il numero di componenti che si vuole realizzare.
• Il tempo che vogliamo impiegare per la produzione di una singola parte: In quanto in funzione di
questo ci potrebbe convenire avere in casa la produzione oppure esternalizzarla.
• Accuratezza e precisione richiesta
• Investimento iniziale che si vuole fare
La progressione di utilizzo della stampa 3D

Nel corso degli anni gli impieghi possibili della stampa 3D sono stati numerosi e ad oggi abbiamo una
grande serie di possibilità di utilizzo. In ogni modo non tutti sono stati usati fin da subito e qui nel grafico
riportato possiamo vedere quando e come questa è stata impiegata in azienda.

Vediamo adesso i vari campi di interesse e cerchiamo di capire i risvolti che questi hanno avuto nella
produzione.

Rapid prototyping

Nonostante le crescenti potenzialità delle simulazioni 3D su calcolatore e le notevoli prestazioni raggiunte


dai software per la prototipazione virtuale, la realizzazione di modelli fisici è fondamentale per lo sviluppo
di prodotti di qualità. La stampa 3D consente di avere a disposizione in poche decine di ore quindi, un
prodotto ultimato e completo su cui eseguire test o simulazioni, senza la necessità di dover andare a farsi
realizzare il componente da un artigiano o a mano in azienda. Possiamo eventualmente anche ottenere un
prodotto di qualità inferiore su cui andare ad eseguire dei test oppure delle prove di ergonomi. Questo a
ridotto non solo i tempi ma anche i costi in quanto una singola stampa può costare anche 400 euro
ordinando in un centro specializzato, ma può arrivare a costarne qualche migliaio realizzarlo in proprio. Il
prototipo può poi essere un singolo elemento, nel caso questo sia di dimensioni considerevoli, oppure può
essere una pre serie per cui la stampante produce una serie di oggetti tutti con lo stesso obbiettivo, ma con
caratteristiche diverse ai fini di determinare quale sia la migliore soluzione.

Rapid Tooling

La stampa 3D ci consente di andare a produrre utensili per produzione di preserie e in alcuni casi di serie. Si
utilizzano i prodotti del 3D Printing per ottenere oggetti realmente utilizzabili nella produzione. Per questo
motivo si distingue tra il direct e indirect tooling.

Nel direct tooling gli utensili sono fabbricati in modo diretto con le stampanti 3D mentre nel indirect le parti
ottenute si utilizzano come modelli ed anime per la realizzazione di stampi. Esempio se con lampa 3D,
dunque, realizzo il modello che mi occorre per soffiare la bottiglietta di plastica, questo è un esempio
chiaro di direct rapid tooling, mentre se con la stampa 3D ottengo il modello di un oggetto che verrà usato
poi per la realizzazione del negativo in una sabbia al verde per una colata di fusione questo è un indirect
rapid tooling.

Rapid manufacturing

Con il termine di Rapid Manufacturing si intende la possibilità di realizzare, mediante tecnologia additiva, la
produzione definitiva, nel materiale finale direttamente dal modello matematico realizzato al CAD
tridimensionale, senza l’impiego di utensili e attrezzature. Attualmente questa tecnologia è applicabile con
successo unicamente laddove i volumi produttivi siano limitati o nelle produzioni personalizzate tipiche ad
esempio del settore biomedicale. Ai fini di ottenere i maggiori vantaggi da questo tipologia di produzione il
prodotto però deve anche essere pensato per andare ad essere realizzato in stampa 3D. Ad esempio il
supporto con passa cavi in foto qui sotto, in un caso per caratteristiche di progetto era obbligato ad essere
montato come in figura ed ad utilizzare un gran numero di componenti. Nel caso in cui si decida di ricorrere
invece alla stampa 3D possiamo progettare tutto con due soli componenti che escano di stampa già
assemblati.

Altro esempio invece può essere questo condotto bi parte dove si


nota la complessità necessaria alla realizzazione in tecniche
convenzionali e la semplicità con cui potrebbe essere realizzato in
stampa 3D.
PROCESSO DELLA STAMPA 3D
Il processo di stampa 3D non è assolutamente univoco e cambia da stampante a stampante in funzione del
materiale che si utilizza e della casa produttrice. Possiamo però ad ogni modo definire alcuni passaggi
comuni che in ogni stampate devono essere eseguiti, dalla macchina o dall’operatore.

Nel ciclo della produzione di un oggetto quindi, per stampa 3D, si parte sempre dal modello CAD
dell’oggetto il quale, generalmente non è compatibile con il software della macchina e pertanto si tramuta
in modello in un file leggibile generalmente accettato da tutti i software ovvero il file STL (Solid to Layer).

L’STL consiste in una rappresentazione semplificata della superficie interna ed esterna del pezzo tramite
facce triangolari, che per definizione sono piane, in conclusione il file STL è la mesh dell’oggetto.
Ovviamente già questa prima fase introduce un errore detto di facetting ovvero l’errore che si commette a
rappresentare una superfice curva come una serie di tante superfici piane triangolari.

Una volta tradotto ad ogni modo il software legge il file STL e da una prima interpretazione di come
realizzare il pezzo. Qui l’operatore si torva davanti una serie di operazioni e scelte fondamentali tra cui la
scelta dell’orientamento del pezzo.

La scelta dell’orientamento di lavorazione influisce infatti su diversi aspetti tra cui:

Posizionamento dei supporti e durata di lavorazione

Un corpo se ha delle parti a sbalzo non può essere realizzato sospeso nel vuoto, ma toccherà alla
stampante generare dei supporti adatti prima di andare a realizzare la parte. Ovviamente questo è tutto
materiale sprecato e la loro costruzione aumenta il tempo necessario alla lavorazione e non solo in quanto
impongono interventi successivi quali rimozione e lavorazioni superficiali per far scomparire i difetti estetici
dove erano innestati. Premesso che un supporto viene sempre creato e già questo porta via tempo e
precisione di lavorazione. È sempre necessario distanziare la piattaforma dal pezzo: per facilitare il distacco,
proteggere piattaforma e pezzo durante il distacco, mantenere in posizione il pezzo e, per alcune tecniche,
mantenere il pezzo in posizione durante la sinterizzazione successiva (vedi Desktop Metal). Nelle tecniche
che impiegano polveri tale distanza viene ottenuta depositando un letto di polvere. Per tutte le altre
tecniche è necessario inserire supporti che prendono il nome di zattera.

Sulla resistenza meccanica

Purtroppo, le tecniche di produzione con stampa 3D non garantiscano sempre la stessa resistenza
meccanica in tutte le direzioni generando componenti anisotropi che hanno solitamente una resistenza
meccanica inferiore nella direzione z. Questo comporta ovviamente che in funzione del carico e della
tipologia di pezzo che voglio realizzare posso preferire un certo tipo di orientamento che devo andare a
valutare.

Una volta terminato il posizionamento, il software della macchina passa allo slicing, ovvero al taglio del
corpo in sezioni orizzontali di spessore variabile dai 5 𝜇𝑚 fino al cm in funzione della tipologia di macchina.
Durante questa fase il software genera i percorsi dei dispositivi di stampa per realizzare le varie sezioni,
controlla tutti i parametri di funzionamento della stampante, calcola la quantità di materiale che deve
essere fornita e i tempi di esecuzione. Lo slicing di per se però introduce ulteriori errori dovuti alla
costruzione delle sezioni stesse che introducano delle nuove rugosità in quanto cerchiamo di approssimare
una superfice matematicamente definita tramite una serie di scalini. Questo introduce una rugosità
superficiale che può essere successivamente rimossa con operazioni di aggiustamento.

Questa tipologia di errore, che prende il nome di staircase, può essere ridotto ricorrendo allo slicing
adattativo che prevede di andare a ridurre lo spessore della sezione riducendo coì l’errore.
Una volta che viene realizzato anche lo
slicing siamo arrivati al termine delle
operazioni comuni e il file che abbiamo
ottenuto, contente tutte le coordinate
dei punti di ogni singola sezione viene
inviato al calcolatore di gestione della
macchina che avvia la stampa
posizionando il materiale solo dove
serve. A seguire devono essere
eseguite poi tutte le caratteristiche operazioni di costruzione fisica del prototipo, rimozione dei supporti e
finitura manuale del pezzo con eventuale trattamento superficiale e controllo qualità (fase che diventerà
sempre più importante se il metodo della stampa 3D diventerà sempre più efficiente).
IL FORMATO STL
Come abbiamo detto il modello CAD viene modificato in e tradotto in file STL dove il modello viene
praticamente mesciato per intero. Questo formato, ideato dalle 3D Systems nel 1987 per dare istruzioni ai
suoi sistemi di stereolitografia, è ad oggi lo standard da cui partire verso qualsiasi macchina additiva.

Nel formato STL Ogni triangolo viene descritto dai tre vertici e dai coseni direttori della normale. La
normale deve essere un versore (vettore unitario) che punta all’esterno dell’oggetto solido in modo da
definire quale delle due superfici del triangolo è quella esterna.

È un formato banale e ridondante. Il file STL può essere sia in formato ASCII che binario anche se il file
binario sarebbe da preferire perché ha dimensioni più compatte, ma quello ASCII viene supportato da un
maggior numero di sistemi.

Partendo da un modellatore CAD, la creazione un file STL viene fatta richiedendo di importare poi due
parametri fondamentali che sono la deviazione e la tolleranza angolare.

La deviazione (o tolleranza cordale) è la massima deviazione lineare normale (perpendicolare) consentita,


ovvero la distanza massima tra la curva e lo spigolo che l’approssima. La tolleranza angolare invece, indicata
anche come deviazione angolare, indica la distanza angolare massima che possiamo avere tra le due
normali a triangoli adiacenti.

In funzione del grado di deviazione e tolleranza la mesh risulterà più o meno simile al modello CAD originale
e quindi più o meno precisa, ma non conviene sempre esasperare questi parametri in quanto più sono
stringenti questi parametri e più che è alta la possibilità di errori.

Errore di facetting

L'approssimazione di superfici curve attraverso facce triangolari, come abbiamo già detto, introduce
inevitabilmente un errore detto errore di facetting. Ovviamente tale errore può essere ridotto abbassando
la deviazione per cui, più basso è il valore di deviazione, più il file STL assomiglia al file CAD nativo, maggiore
il numero di triangoli e quindi minore l’errore di facetting. Come abbiamo già detto però una maggiore
densità di triangoli, oltre ad accrescere il tempo di calcolo rende più probabile anche la generazione di
errore in conversione del file.

La densità dei triangoli è quindi un compromesso tra grado di approssimazione, il tempo di calcolo e la
difficoltà nella realizzazione di un file STL senza errori. Ai fini di migliorare la resa ad ogni modo, ci si
accorge velocemente che piuttosto che agire sulla deviazione conviene agire sulla tolleranza angolare che
va considerata come un parametro che “rifinisce” la mesh.

Se il valore di tolleranza angolare è impostato abbastanza piccolo da essere il parametro dominante,


forzerà il processo di generazione STL ad aggiungere più triangoli nelle regioni di una parte con curvature
più nette, che sono spesso caratteristiche con piccoli raggi. Questo a sua volta “migliorerà” la levigatezza di
queste caratteristiche nella parte stampata in 3D risultante più di quanto fornirebbe la tolleranza cordale.

Una mesh tipica quindi appare come in foto, con i tratti piani caratterizzati da pochi triangoli e le parti curve
invece molto dense.

Le regole del formato STL

Il formato STL deve rispettare ad ogni modo due regole. La prima detta
regola del vertice a vertice ci dice che ogni triangolo, ha su ogni lato, un
solo triangolo confinante per cui come possiamo vedere in figura,
chiaramente si ha che l’immagine sulla destra non è corretta.
Le seconda regola invece viene detta regola del
volume legale, la quale invece afferma che il guscio
di triangoli deve essere in grado di contenere un
liquido senza perdite. Non ci devono quindi essere:
buchi (triangoli mancanti), sovrapposizioni di
superfici o intersezioni di queste.

Per determinare se una mesh è però a tutti gli effetti un volume legale possiamo utilizzare la regola di
Eulero che afferma:

𝐹 − 𝐸 − 𝐻 + 𝑉 = 2𝐵
dove F è il numero di facce, E è il numero di lati, H è il numero di superfici forate e B il numero di corpi
separati.

Per la regola Vertice a Vertice ogni triangolo condivide i tre lati con soli tre altri triangoli, quindi risultano
esattamente 3/2 lati ogni faccia (E/F=3/2). Inoltre, nel caso in esame, nessuna superficie può avere fori:
H=0. Considerando quindi B=1 perché si fa riferimento sempre al singolo corpo, la regola di Eulero può
essere semplificata come:

2𝑉 − 𝐹 = 4
Errori di conversione

I tipici errori di conversione sono:

Triangoli mancanti che per il rispetto della regola del Volume Legale la mesh non può avere buchi.

Verso invertito delle normali per cui tutti i triangoli devono avere la normale che punta verso l’esterno
dell’oggetto. Se il modello definito nel file STL contiene una normale invertita (cioè che punta nella
direzione opposta) gli interpreti (tra cui la stampante 3D) non sono più in grado di determinare quale sia la
parte interna e quale sia quella esterna dell’oggetto

Elementi duplicati o ridondanti dove tutte le linee o le facce che non sono necessarie per definire la
superficie dell’oggetto causano una errata interpretazione della sua forma da parte della stampante 3D.
STEREOLITOGRAFIA
Come avevamo già accennato, non è soltanto una la tecnica di stampa 3D a nostra disposizione, ma sono
molteplici e ognuna di queste ha una sua storia e un principio di funzionamento tutto suo. Adesso andremo
quindi ad analizzarle una ad una a partite dalla stereolitografia.

La stereolitografia (S.L.A. Stereo Lithography Apparatus) è la prima tecnica che andiamo ad analizzare di
stampa 3D nonché la prima ad essere nata in assoluto. Fu sviluppata per la prima volta nel 1987 dalla 3D
System, azienda californiana che ebbe l’idea di poter utilizzare un fotopolimero per la stampa di oggetti
solidi, impressionando quest’ultimo con un laser di alta precisione.

Funzionamento

Come abbiamo accennato la SLA utilizza un fotopolimero per lo stampaggio di oggetti solidi. In particolare,
il fotopolimero, il quale non è altro che una resina fotosensibile, si trova all’interno di una vasca
completamente livellata sul quale si dispone una lastra di supporto forata. Il laser invece, che tramite un
galvanometro (orientatore a specchio) e un sistema a carro ponte si muove sulla vasca, consente di andare
a impressionare la vasca nei punti giusti facendo solidificare il gel.

L’oggetto viene costruito strato per strato sulla piattaforma che


ad ogni strato di abbassa sprofondando nella vasca (da qui si
spiega la foratura) per consentire la stampa dello strato
successivo. Ad ogni abbassamento poi, per livellare il gel, passa
sopra di esso un componente detto racla che consente di
spianare e rabboccare il gel nei punti in per effetto menisco si
vengono a creare dei piccoli vuoti. Tutto l’apparecchio è
ovviamente contenuto in camera nera per garantire che il
polimero non si impressioni.

Ovviamente perché tutto il processo sia realizzabile occorre che le


resine siano trasparenti o traslucide per permettere alla
radiazione di sprofondare nello spessore dello strato da
realizzare.

Ovviamente il laser non cerca di solidificare tutta la sezione di


ogni singolo strato, altrimenti si impiegherebbe troppo. Solitamente, quindi, questo crea solo il bordo di un
oggetto e a lavoro ultimato il prototipo viene estratto dalla resina liquida rimanente ed introdotto in un
forno a luce ultravioletta per terminare il processo di solidificazione.

La stereolitografia è generalmente accettata quindi perché produce oggetti robusti, con ottima finitura
superficiale, facili da identificare nello stampo e da distaccare dai supporti senza considerare il grosso
risparmio di resina che si ha rispetto alle normali realizzazione in plastica.

Il processo ad ogni modo è composto da alcune fasi principali che sono qui sotto riportate.

Lo slicing come abbiamo già detto è necessario, ma anche una delle possibili cause di errore. Il modello
descritto nel file .STL, derivante dal modello CAD tridimensionale, viene sezionato con piani paralleli molto
ravvicinati. Si ottiene il file .SLI, contenente una serie di sezioni 2D dell’oggetto tridimensionale, che
determinano il percorso del laser in ogni strato. Aspetto positivo della SLA è che ni possiamo andare a
gestire lo slicing come ci torna più comodo in quanto questo è determinato non dello spessore di fili o altre
entità ma solo da quanto possiamo abbassare la sezione.

La calibrazione invece è un sistema di elaborazioni di immagini che si consente di andare ad affinare la


precisione del nostro laser. Per eseguire la calibrazione, dobbiamo andare a disporre sulla piattaforma
mobile una griglia di quadrati di lato 0,05 mm che deve essere ricalcata dal laser. La griglia, disegnata su di
un foglio fotosensibile viene quindi ricalcata ottenendo due griglie sul foglio. La differenza tra queste due
viene quindi utilizzata per valutare l’errore e la correzione da apportare al laser.

Il ricoprimento invece è la fase del processo in cui tramite la racla andiamo a rendere piana la superficie del
fotopolimero prima della creazione dello strato. Una volta abbassata la piattaforma, poiché la resina è
molto viscosa, questa non riesce a distribuirsi in modo uniforme, solo per effetto della gravità, in tempi
accettabili. Viene quindi impiegato un organo mobile che ha lo scopo di distribuire la resina dello strato
superficiale e prevedere il rabbocco del liquido per compensare gli effetti del ritiro del materiale sul pelo
libero

A seguire abbiamo la polimerizzazione invece che è la fase del processo in cui sezione per sezione, tramite
il laser andiamo a creare lo sviluppo solido del nostro oggetto. Ogni sezione però, che potrebbe essere
anche particolarmente vasta, non viene interamente ricalcata dal laser, ci vorrebbe altrimenti un tempo
molto lungo essendo il campo di azione di quest’ultimo veramente piccolo, per questo motivo si hanno
diverse strategie di polimerizzazione che adesso andremo ad analizzare.

Strategie di polimerizzazione

Prima di tutto però è necessario notare come si


distribuisce la luce all’interno del fotopolimero.
Una volta che questo colpisce il fotopolimero,
infatti, la luce penetra in esso con una
distribuzione di tipo gaussiano come nella foto
qui riportata.

Supponendo poi una velocita di avanzamento del


laser costante possiamo quindi supporre che la
zona solidificata di foto polimero sviluppi una
geometria cilindrica a sezione parabolica come
quella in figura.

Per garantire l’adesione tra strato e strato poi è necessario osservare come si debba avere una profondità si
slicing (∆𝑆) inferiore alla altezza di penetrazione della sezione. Questo comporta che per ogni volume di
fluido, questo sia foto impresso dal laser due volte, la prima in modo superficiale per farlo solidificare
leggermente (in quanto il contatto con l’aria inibisce la solidificazione) e la seconda invece, una volta che la
piattaforma si è abbassata di una sezione, per consolidare il collegamento con lo strato superiore. Questo
ripassare del laser più volte su di un volume di fluido prende il nome di overlap.

Tornando dunque al come completare la polimerizzazione di una sezione quindi, quello che si fa è partire
solitamente dai contorni della sezione realizzando quello che viene chiamato contouring, realizzando in
poche parole per ogni layer prima la linea esterna.

Una volta terminato il contorno a questo punto passiamo alla fase di riempimento detta hatching la quale
però in funzione della zona che dobbiamo riempire può essere realizzata in diversi modi.
Se si deve solidificare ad esempio un intero
layer esterno parallelo alla superfice
elevatrice possiamo realizzare il riempimento
tramite una serie di traiettorie parallele
parzialmente sovrapposte sia verticalmente
che orizzontalmente in modo tale da garantire
l’attaccamento verticale ed orizzontale.
Questo processo di riempimento non può però
essere applicato per ogni superfice in quanto
nascerebbero molte tensioni residue oltre che
a volerci veramente molto molto tempo.

La questione della nascita delle tensioni interne è dovuta alla solidificazione per cui durante la
fotopolimerizzazione, avviene una riduzione del volume della resina (ritiro) e questo si traduce in tensioni
esercitate dal materiale in trasformazione sul polimero solido (già trasformato) adiacente.

Se non facciamo niente al termine del processo il componente potrebbe essere dunque caratterizzato da
tensioni residue interne che possono anche indurre notevoli deformazioni della geometria con tensioni a
loro volta dipendenti dal layer e dalla geometria complessiva.

Per superfici interne, quindi, sono state sviluppate


metodologie alternative di riempimento. La prima
tecnica che vediamo quindi è la così detta tecnica
Weave dove la compenetrazione tra i layer avviene solo
in specifiche zone consentendo si svincolare il
riempimento della parte rimenante evitando la nascita
di tensioni interne. In poche parole, quello che avviene è
che ogni sezione non viene riempita, ma cucita con la
realizzazione di una trama a rete ottenuta facendo
passate prima lungo l’asse x e poi l’asse y, unendo così i
vari layer.

La Strategia Weave porta un notevole miglioramento rispetto ad un


riempimento in cui ogni passata compenetra completamente lo strato
sottostante ma la polimerizzazione delle passate in X e Y tende
comunque a richiamare verso il centro il materiale del contorno al quale
si congiunge. Inoltre, le zone di compenetrazione sono allineate in Z e
quindi, man mano che si aggiungono strati, si avranno tensioni residue
anche in questa direzione.

La tecnica Weave è stata quindi soppianta nel corso degli ultimi


anni dalla tecnica Star Weave che per evitare il problema della
sovrapposizione dei giunti di congiunzione dei vari strati e
quindi il ritiro in direzione Z, realizza la stessa tramatura lungo X
e lungo Y però in modo sfalzato e
soprattutto senza collegare
completamente il contorno in modo
tale da rendere la sezione
abbastanza solida, ma senza andare
a tirare la sezione verso il centro.
Altra tecnica piuttosto utilizzata in
quanto consente di andare a ridurre
ulteriormente le tensioni residue, ma
un po’ più lenta delle altre è la Skin e
Core dove il materiale l’interno di
ogni sezione viene solidificato a celle
e poi queste collegate tra loro da
piccoli filamenti. Questo garantisce la
massima solidità dell’oggetto in
uscita, ma limita al massimo il ritiro.

Se l’oggetto che deve essere realizzato è una lastra sottile


però possiamo andare a considera un ulteriore tecnica di
riempimento. In questa tecnica abbiamo quindi i profili
disegnati per ogni spessore e una tramatura lungo la
direzione perpendicolare al profilo che va da parte a parte
di questi senza però collegarli in modo tale da fornire
solidità all’oggetto evitando il ritiro.

Il pezzo che si ottiene come è evidente contiene al suo


interno una grande quantità di materiale liquido ancora ovviamente. Questo primo oggetto, quindi, detto
green part deve procedere a solidificazione sfruttando una camera UV.

Processo di post costruzione

Quando il processo di costruzione è terminato la piattaforma risale automaticamente sopra la superficie


della resina e qui si attendente per una decina di minuti che il materiale in eccesso grondi. A seguire quindi
la piattaforma viene portata in un bagno (il quale dura 45 min circa) di isopropanolo, alcool etilico o
acetone per pulire la resina ancora presente sulla superfice delle parti solidificate. A seguire quindi si
procede ad un normale lavaggio sotto acqua per 5 min dopo di che possiamo procede al distacco dei corpi
dalla piattaforma. A questo punto possiamo andare ad inserire le parti all’interno del forno consentendo
così la polimerizzazione delle parti rimaste liquide ottenendo così l’oggetto finale detto anche red part. La
camera è estremamente controllata e si bloccano quindi i parametri essenziali come, la potenza di
irraggiamento, lo spettro di frequenza della luce, la temperatura e il tempo di trattamento, che può variare
da 1 a 12 ore.

Purtroppo, il materiale di realizzazione di questa tecnica è ovviamente monocolore per cui al termine della
solidificazione solitamente, abbiamo bisogno di andare a verniciare la parte o ad eseguire un trattamento
superficiale. Uno dei processi ad ogni modo più utilizzati su queste parti poi è la galvanizzazione che rende
le parti molto più resistenti, ma anche elettricamente conduttive e stabili dimensionalmente in ambiente
umidi.

Resina

Solitamente per garantire il minimo ritiro della resina dobbiamo avere una resina particolarmente viscosa e
che forma quindi una struttura abbasta solida. Avere una resina viscosa però ha anche lati negativi come,
ad esempio, la difficolta di far sprofondare la lastra di supporto che allunga notevolmente i tempi di
appiattimento della resina e di conseguenza di realizzazione del processo. Come al solito, dobbiamo quindi
trovare il compromesso ottimale tra i due aspetti. Un'altra caratteristica di interesse della resina è la sua
uniformità/stabilità per cui la separazione dei componenti della resina determina un comportamento non
uniforme, pregiudicando la qualità del componente.
Macchina

Le caratteristiche della macchina di cui tenere conto sono invece la potenza del laser che deve essere
sufficiente a garantire la fotopolimerizzazione, lo spot ovvero la grandezza del laser, la quale più è piccola
più si avranno tempi di processo lunghi ma anche precisioni maggiori, precisione e ripetibilità della
posizione della piattaforma e un buon controllo sulle vibrazioni di questa.

Errore del curl distortion

Oltre all’errore di ritiro delle parti, nella SLA si può venire a verificare anche un
errore dovuto alle parti sporgenti detto curl distortion. Quando infatti abbiamo un
corpo che sporge, il primo strato di questo andiamo a creare sarà soggetto solo al
suo ritiro, ma a mano a mano che ci aggiungiamo sopra degli strati, ogni strato
ritirandosi comporterà l’arricciamento della parte sporgente. Per evitare questo
errore solitamente, oltre che ai supporti è necessario andare a disporre anche dei
tiranti, ovvero dei supporti obliqui che non hanno il compito di lavorare a
compressione, ma di ancorare le parti sporgenti per evitare che si pieghino,
lavorando in trazione. Il curl distortion se non corretto può portare a deformazioni
della geometria, se non che alla delaminazione.

Perché scegliere la stereolitografia?

Molti altri processi di stampa 3D come abbiamo accennato, producano componenti anisotrope con una
minore resistenza nella direzione di impilamento (Z). Al contrario la SLA crea parti altamente isotrope
basandosi su molti fattori che possono essere controllati rigorosamente integrando la chimica dei materiali
nel processo di stampa. Durante la stampa i componenti della resina formano legami covalenti ma, strato
dopo strato, la parte rimane in uno stato di semi-reazione definito "grezzo". Allo stato grezzo, la resina
trattiene gruppi polimerici che possono formare legami fra uno strato e l'altro, conferendo isotropia e
impermeabilità alla parte dopo la polimerizzazione finale. Ne risultano parti con prestazioni meccaniche
prevedibili.

Altra caratteristica interessante è la impermeabilità importante per applicazioni ingegneristiche e di


fabbricazione in cui il flusso d'aria o di liquido deve essere controllato e prevedibile. Le parti stampate con
stereolitografia sono continue e quindi impermeabili, ottime per prototipi per l'industria automobilistica,
per la ricerca biomedica e per validare la progettazione di parti per prodotti di consumo.

Oltre a questo, la SLA garantisce ottima accuratezza e precisione e si colloca quindi tra i processi meccanici
e quelli ad alta precisione.

La risoluzione di questo processo è particolarmente alta poi e varia tra i 25 ei 300 𝜇𝑚𝑚. Questo garantisce
una finitura superficiale molo maggiore anche appena terminate, senza dover richiedere quindi lavorazioni
superficiali ulteriori. Questa qualità di superficie è ideale per applicazioni che richiedono una finitura
impeccabile e aiutano inoltre a ridurre il tempo di post-elaborazione poiché le parti possono essere
facilmente levigate, lucidate e verniciate.

La SLA può oltretutto usufruire di una grande versatilità dei materiali. Le resine per la stereolitografia
hanno il vantaggio di possedere una vasta gamma di formulazioni: i materiali possono essere morbidi o
duri, rinforzati con materiali secondari quali vetro o ceramica o dotati di proprietà meccaniche quali elevata
temperatura di distorsione termica o resistenza all'impatto.

Upside down SLA

Una variante alla SLA è la SLA upside-down dove i pezzi si costruiscano dal basso verso l’alto e quindi la
piattaforma invece di abbassarsi si alza. In questa variante abbiamo quindi, invece che una vasca di
fotopolimero nera, abbiamo una vasca trasparente dove via via
viene aggiunto il fotopolimero necessario alla realizzazione della
sola sezione di interesse. Questo porta a grandi risparmi di
materiale oltre che a velocizzare enormemente i tempi di
svuotamento e pulizia della vasca. Da quando sono nate, queste
macchine quindi si sono ampliamente diffuse in quanto sono più
veloci a livello di processo complessivo mantenendo ottime
efficienze. La pecca sta nel fatto che in questo caso i supporti non
funzionano da puntoni, ma come tiranti e per questo devono essere
realizzati più spessi, il che a sua volta comporta una maggiore
difficoltà di distacco e un maggiore effetto ventosa. Se il
quantitativo di pezzi da produrre è consistente questo metodo,
comunque, consente dei notevoli risparmi e quindi è preferibile.

Come nella SLA classica il processo post stampaggio è il solito per


cui si procede a lavaggio in solvente, acqua e poi camera UV. Per
alcuni materiali e alcune geometrie però con questa macchina
possiamo preferire il riempimento completo in quanto più veloce.

Il laser poi in questo processo può essere movimentato sia con galvanometro che con doppio asse x-y.

Low forces SLA

La stereolitografia Upside-Down introduce forze di distacco che agisce sulla parte stampata a mano a mano
che questa si separa dalla superficie del serbatoio, in tal modo il volume di stampa risulta limitato e sono
necessarie robuste strutture di supporto. Nasce quindi la low forces SLA che grazie all’uso di un serbatoio
flessibile, e ottenendo un’ottima precisione delle parti e una qualità superficiale elevata grazie all’impiego
di una illuminazione lineare permette di
avere forze di stampo ridotte consente
l’uso di strutture di supporto
leggerissime e facile da rimuovere.
Questo ci consente di ottenere supporti
più snelli e quindi si sprecare ancor
meno materiale, oltre che a
considerare un distacco più semplice.

L’illuminazione lineare nonostante il menisco flessibile si riesce ad ottenere tramite un galvanometro che
dirige il fascio laser su uno specchio superiore e uno specchio inferiore parabolico per fornire un fascio
costantemente perpendicolare al piano di stampa.

Ceramaker

Il ceramaker è una macchina che consente di andare a realizzare oggetti in ceramica tramite la
stereolitografia. Il pezzo viene generato solidificando una pasta costituita da particelle ceramiche e un
legante fotosensibile. La pasta, una volta stesa sull’elevatore da una lama, viene solidificata, strato per
strato, da un fascio laser senza quindi però avere bisogno della vasca.

Ovviamente a solidificare non è la pasta di ceramica, ma il legante che fornisce quindi solidità all’oggetto.
La pasta può essere scelta tra quelle già disponibili oppure preparate appositamente su indicazione del
cliente. Una volta terminato il processo di stampa si deve quindi procedere a cuocere il pezzo in forno per
far evaporare il legante e unire la pasta ottenendo alla fine fondamentalmente un composto sinterizzato
che però può assumere forme molto complesse.
FDM
La tecnologia fused deposition modelling detta anche FDM è una
tecnologia dove si riesce a stampare oggetti, anche di forma complessa,
usando materiale termoplastico sotto forma di filo di spessore variabile
da 1,5 a 8 mm di diametro. La macchina, quindi, è composta
complessivamente da un piano di lavoro dove andiamo a depositare
tramite una testa, si stampa il fio che viene riscaldato precedentemente e spinto
all’interno dell’ugello che provvede a depositare il materiale modello. Nell’ugello
solitamente vengono a collimare però due cavi porta materiali, uno che porta il
materiale d’apporto e uno che porta il materiale per creare i supporti. a qualità del
prodotto è fortemente legata alla temperatura della testa di estrusione e della camera
di lavoro. Una temperatura omogenea consente un maggior controllo del ritiro e quindi una maggiore
precisione.

Il processo

Per la realizzazione del componente in FDM quindi si procede andando a creare come sempre per prima
cosa il file STL il quale però ultimamente sta venendo soppiantato direttamente dal modello CAD. Una volta
importato il file, comunque, si procede all’orientamento del corpo ai fini di ridurre al minimo la presenza di
supporti, i quali però, grazie alle caratteristiche del filo, possiamo evitare il loro posizionamento fino ad un
angolo di 60°. Viene quindi effettuato a seguire lo slicing e creato, per ogni sezione, il percorso di
deposizione, ottimizzando i tempi di realizzazione tramite l’appropriata gestione di alcuni parametri.

Una volta cominciato il processo di stampa quindi, la stampa per prima cosa, la testa di estrusione,
muovendosi sul piano X-Y deposita per prima cosa la zattera, ovvero il supporto di base per il resto del
componente. Si comincia poi a depositare il resto del filo per realizzare sezione per sezione l’intero
componente. Per realizzare ogni singola sezione si esegue allo stesso modo prima il contouring per poi
procedere il riempire il resto della sezione che nella maggior parte dei casi, a differenza della SLA deve
essere riempita in modo completo. Il riempimento può essere quindi realizzato in due modi, completo ad S
oppure sparse, realizzando quindi il riempimento in alcuni punti.

Dopo che la sezione è stata realizzata quindi, il piano di supporto si abbassa e si procede alla realizzazione
della sezione successiva.

Una volta terminato tutto il processo di stampa quindi si procede all’eliminazione dei supporti ed eseguire
un trattamento superficiale ai fini di migliorare la risoluzione e finitura superficiale. Generalmente per
riuscire a rimuovere i supporti è sufficiente eseguire il così detto waterworks, ovvero un processo di
dissoluzione tramite un solvete, dei supporti che proprio per questo motivo sono realizzati in materiale
diverso da quello del modello. Per la maggior parte dei materiali modello il materiale supporto è di tipo
organico (derivato del mais o del riso) e quindi solubile in una soluzione basica, ma si può eventualmente
anche usare l’acetone per materiali plastici di supporto come l’ULTEM.

L’FDM produce però componenti con una finitura superficiale molto


scarsa, con una superfice permeabile e che quindi deve essere
necessariamente lavorata. Per andare a rendere la superfice
impermeabile, la prima cosa che possiamo fare è andare ad eseguire un
bagno di acqua ed acetone che consente di andare a chiudere le porosità
del pezzo. Per invece migliorare invece la finitura superficiale, non
potendo procede con metodi abrasivi solitamente, si ricorre alla
burattatura (tecnica riportata in figura) oppure con tecniche di pulizia ad
ultrasuoni.
Successivamente i pezzi possono essere verniciati oppure essere soggetti a cubicatura anche se questa
tecnica è oramai sempre meno usata. Ad ogni modo la cubicatura è una tecnica di trasferimento ad acqua
che consente ad un rivestimento stampato su una pellicola solubile di andare ad essere appunto sciolto in
bagno, reso appiccicoso da un collante e spray e poi applicato sul pezzo semplicemente andando ad
immergere dentro la vasca il componente stesso. Tutte queste fasi post processo però solitamente portano
via tanto tempo e per questo motivo sono state create delle macchine automatiche come la 3D finisher. La
3DFINISHER è un dispositivo professionale per la finitura di ABS, ASA e acetato di cellulosa. Un ciclo
completo di lavorazione impiega in media 70 minuti mediante flaconi monouso venduti separatamente.

Lavorazioni particolari

Uno degli aspetti positivi maggiori è che si possono annegare all’interno del pezzo altri particolari come ad
esempio inserti metallici. L’apertura della camera di lavoro per l’inserimento alla giusta altezza dell’inserto
però deve essere rapido per non causare un’eccessiva riduzione della temperatura.

Un'altra cosa molto interessante che possiamo fare con tutte le stampanti FDM è che possiamo cambiare
colore e durante la lavorazione, ma solo a strati.

Materiali

Il principale materiale utilizzato per la stampa FDM è l’ABS (Acrylonitrile Butadiene Styrene), materiale
molto customizzante per cui è possibile modificare le percentuali relative dei tre monomeri principali per
cambiare completamente le sue caratteristiche. Le temperature di lavoro sono comprese tra 210 e 250°C.
Altri materiali esistano ma sono generalmente tutti molto costosi come riporta la tabella in immagine qui
riportata.

Questi materiali hanno una pecca


ulteriore, per cui nessuno di questi
è flessibile. Se infatti in SLA è
possibile andare a realizzare
componenti elastici in lattice nella
tecnica FDM invece non possiamo
fare componenti elastici, se non
che utilizzando un materiale
flessibile il TPU 92A che ha un
ottimo allungamento a rottura del
400%, ma che degrada subito.

Software

I software di gestione sono molteplici anche il pi famoso è sicuramente GrabCad print, che oltre ad essere il
più utilizzato è anche il più evoluto in quanto organizza la stampa, monitora i livelli di materiale e lavora
visualizzando il modello e le sue anteprime in dettaglio.

Oltre tutto il software ci consente di andare ad impostare diversi aspetti della


nostra stampa come il materiale di modello (il materiale di supporto viene scelto
automaticamente poi sulla base di questo), selezionare l’altezza dello slicing,
scegliere lo stile e la del densità del riempimento (riempimento ad S, spearse, ad
esaedri etc.). Una volta date tutte queste caratteristiche il software mostra una
anteprima del prototipo che si ottiene mostrando in arancione zattera e supporti,
in verde il corpo e una sua sezione e in giallo l’altezza dell’”estrusione”. Il software
consente anche in ultima analisi di controllare eventualmente lo spessore della parte da 2 a 6 mm e di
gestire anche la tipologia di supporti impostando la modalità smart o basic dove nella prima si inserisce la
minima quantità di supporto necessaria mentre nella seconda si cerca di stare più attenti alla stabilità di
questi piuttosto che al consumo di materiale.

Macchine a Delta Tower

Ci sono alcune macchine alternative che eseguano stampa in FDM che


consentono un volume e soprattutto un’altezza della camera di lavoro,
molto maggiore. Queste sono le macchine delta tower dette anche
macchine a ragno dove la testa viene movimentata da tre assi in
direzione sia verticale che orizzontale. Questo garantisce molta più
libertà di movimento e ampiezza della camera in confronto alla
soluzione con movimentazione su assi cartesiani.

Macchine commerciali e soluzioni alternative

Ultimaker: è una stampante 3D FDM estremamente commerciale, di volume di lavoro non troppo
importante, che consente di andare e a realizzare oggetti di piccole dimensioni anche in casa, visto il costo
limitato. La novità più grande di questa macchina è che introduce un estrusore con sistema retrattile per il
posizionamento del materiale sia di modello che di supporto. In questo modo i due estrusori non
interferiscono l'uno con il lavoro dell'altro con meno possibilità di incontrare problemi durante le stampe
complesse.

Sixer: la Sixer lavora fino a 6 materiali contemporaneamente a patto che questi siano caratterizzati però dal
fatto di avere a coppie di tre la stessa temperatura di estrusione in quanto gli ugelli sono 6 si, ma a coppie
di tre questi vengono riscaldati dal solito materiale.

Quad Fusion Print Head: questa invece non è la macchina per intero, ma un singolo estrusore che consente
di stampare a calori anche senza realizzare questa sezione per sezione. Sfruttando infatti 4 fili colorati dei
colori primari e mescolandoli opportunatamente l’estrusore è in grado di ottenere tutta la gamma di colori
in assoluti. Ad oggi questo estrusore è compatibile con la maggior parte di tutte le stampanti 3D in
commercio.

Arbug plastic freeforming (APF)

Come abbiamo potuto osservare, uno dei problemi della


stampa FDM è la disponibilità dei colori molto ridotta
comunque e una disponibilità dei materiali ampia si, ma
ridotta comunque rispetto ai normali processi industriali che
possono produrre oggetti con una disponibilità di materiale
molto maggiore.

Una tecnologia nuova quindi, per risolvere questo problema, è


la Arbug plastic freeforming che consente di andare a creare la
plastica in modo diretto come in un processo industriale
tramite la clochea, per poi andare però a far fluire il materiale
dentro uno ugello che deposita il materiale in filamento come
in una stampa FDM. Questo aumenta moltissimo la
disponibilità dei materiali e i colori che possono essere
realizzati. Il processo ricalca quindi per la prima parte il
processo della stampa ad iniezione per poi fluire però in un
ugello otturatore che, temporizzato ad alta frequenza, non eroga un vero e proprio filamento, ma piuttosto
una serie molto fitta di gocce (250 gocce/sec).

Nella camera di produzione termoregolata non sono richiesti processi speciali per l‘indurimento della
materia plastica: le piccolissime gocce, infatti, si legano automaticamente al materiale circostante. Questo
consente poi di creare materiali abbastanza resistenti ed isotropi.

In conclusione i vantagi di questa tecnologia sono relativi alla varietà dei materiali che può essere un
qualsiasi materiale usato nei processi industriali introducendo la possibilità di uso anche di materiali
flessibili, possono essere combinati materiali diversi per ottenere tutti i coolori, consente di avere buone
qualità dei pezzi a livello di resistenza e di inserire inserti metallici.

Unica pecca, rispetto al processo FDM classico è che aumenta lo staicase in quanto depositando solo
sferette la rugosità ovviamente peggiora. Il fatto di depositare sferette è dovuto al fatto che il materiale
appena lavorato dalla clochea non è adatto ad essere filato in quanto non rimarrebbe in posizione. Per
migliorare la finiutra superficiale i software di queste stampanti consentono di andare a regolare la
dimensione delle goce e la frequanza di deposito, ovviamente questo però denota un aumento dei tempi.

Continue filament fabrication (CFF)

Questa macchina FDM vuople rispondere alla necessità


di avera una maggiore resistanza dei pezzi stampati nel
piano X-Y. L’idea quindi per ricolvere questo problama è
quello di depositare una fibra continua di mateirale
composito. La macchina dunque ha due ugelli, uno che
depone un filmaneto classico di materiale da FDM da
ricoprire con materiale di rinforzo senza intetturzione
(filamento unico), per poi andare a ricoprire
nuovamente il tutto con materiale di base. In questo esempio si riporta un oggetto realizzato con una
struttura a Nylon interna ad honey comb, un filamento continuo di carbonio che avvolge l’elemento
centrale ed infine nuovamente unos trato di nylon.

I materiali per la matrice sono solitamente quindi il Nylon e l’Onyx, un materiale brevettato da Markforge
con eccellenti prestazioni anche se difficile da verniciare per cui nella maggior parte dei casi per motivi
estetici si prfereisce il nylon. La fibra continua invece può esse realizzata invece solitamente con fibra di
vetro o fibra di carbonio. L’innovazione introdotta da Markforged, denominata Composite Fiber
Coestrusion, risiede prevalentemente nell’estrusore per le fibre continue che devono essere preimpregnate
prima della deposizione con un materiale termoplastico viscoso. Solo così è possibile stendere le fibra,
interrompendo e riprendendo l’estrusione quando necessario.

Vi sono due diverse modalità di deposizione delle fibre di rinforzo nel layer (piano XY):

• Isotropica: le fibre vengono depositate in diverse direzioni, ottenendo un comportamento simile


lungo le due dimensioni del piano
• Concentrica: le fibre vengono depositate e disposte in modo da creare delle shell di rinforzo intorno
a pareti interne ed esterne e intorno ai fori.

Desktop metal fiber

Analogamente al CFF, Desktop Metal propone la stampante Fiber. Anche in questo caso vengono
combinate le eccezionali prestazioni della fibra continua con la facilità della stampa 3D a filamento per
produrre componenti ad alte prestazioni, più forti dell’acciaio e più resistenti dell’alluminio, che possono
funzionare fino a 250°C senza interruzioni. Le parti stampate su Fiber presentano rinforzi in fibra continua
orientati all’interno di un involucro in fibra tritata. Gli utenti possono ottimizzare automaticamente
l’orientamento delle fibre per la massima copertura o abilitare la Modalità Expert per impostare
l’orientamento in funzione di condizioni di carico specifiche.

La stampante è dotata di due testine di stampa, una dedita alla deposizione della fibra continua nelle zone
critiche del componente, mentre la seconda è un estrusore termoplastico che stampa ad risoluzione il
guscio esterno in fibra tagliata.

La stampa inizia con la deposizione del filamento rinforzato con fibra tagliata. La stampante continua a
costruire la geometria del pezzo in filamento di fibra tagliata, con una struttura di riempimento regolabile,
fino al punto in cui è stato definito il rinforzo in fibra continua. Quando la stampa si avvicina al primo strato
del rinforzo in fibra continua, la stampante crea uno strato superiore di fibra tagliata compatto. Questo
strato crea una superfice liscia su cui viene laminato il primo strato di nastro con la fibra continua.
LAMINATE OBJECT MANUFACTURING (LOM)
In questa tipologia di stampa abbiamo come materiale di partenza
un foglio di carta caratterizzato da una superfice spalmata di un
materiale termoadesivo. Ogni sezione del corpo viene quindi
ritagliata sul foglio di carta tramite un laser e poi successivamente
incollato con quello sottostanti. Il vantaggio di questa stampa è che
i tempi sono notevolmente ridotti in quanto non abbiamo da
preoccuparci del riempimento della sezione e non dobbiamo
oltretutto preoccuparci dei supporti in quanto la carta sottostante
funge direttamente da supporto alle superfici superiori. Ad ogni
sezione l’levatore quindi si abbassa come possiamo vedere nello
schema mentre il sistema di distribuzione della carta resta fermo.

Il laser come possiamo vedere però non taglia solo la parte


interessata dalla sezione, ma taglia tutta la parte non interessata
disegnando una griglia con il laser e questa si rende necessaria per
andare a poter estrarre il pezzo. Il pezzo ovviamente uscirà con una struttura molto simile a quella del legno,
pertanto risulta sensibile all’umidità che porta alla delaminazione. Questo rende necessario andare a trattare
superficialmente il componente introducendo l’uso di resine e trattamenti superficiali.

I particolari LOM possono essere impiegati per verifiche estetiche, di montaggio, in sostituzione dei classici
modelli in legno per i processi fusori e nell’attrezzaggio rapido. Un vantaggio enorme di questo processo è
quello però di poter stampare componenti di ogni dimensione.

Tra i difetti di questo processo abbiamo però


la scarsa resistenza meccanica. L’aspetto e la
consistenza del pezzo sono quelli caratteristici
del compensato, caratterizzato però da forte
anisotropia e quindi forti rischi di
delaminazione

Questa macchina ad oggi è stata superata e


non viene più venduta, anche se a giro se ne
trovano molte altre.
SELECTIVE DEPOSITION LAMINATION (SDL)
L’evoluzione della LOM è la così detta selective deposition lamination (SDL) la quale è una tecnologia
brevetta brevettata, acquisita nel 2019 dalla CleanGreen3D. Il processo consente di andare a stampare con
fogli A4 oggetti in tecnica LOM che però possono essere realizzati a calori, con materiale completamente
riciclato e andando a depositare la colla solo nei punti della sezione, invece che andare ad utilizzare una carta
imbevuta interamente di colla termoaderente. Questo consente, a fine stampa, di andare ad estrarre i
componenti in modo molto più semplice. Il pezzo ottenuto, derivante da carta incollata, è praticamente un
pezzo di legno colorato.

Il processo

Il primo foglio di incollaggio viene disteso sull’elevatore. La macchina deposita quindi su di esse gocce di
adesivo, molto più fitte nella zona di sezione interna e molto poco fitta se non nulla nella zona restante. Viene
inserito un nuovo foglio di carta stampata dopodiché l’elevatore si solleva fino a premere contro una piastra
riscaldata posta nella parte superiore della camera di lavoro. L’azione della temperatura e della pressione
causa un solido incollaggio tra i due fogli. Una lama (non di luce laser, ma solida) quindi, taglia quindi i
contorni della sezione ed un reticolo nella zona esterna che consentirà una più facile rimozione della carta in
eccesso. Il taglio avviene ad una profondità esattamente uguale allo spessore della carta in modo tale che
venga tagliato un solo foglio alla volta. Il processo si ripete poi strato per strato fino al completamento del
pezzo e una volta terminato si procede all’estrazione.

Una delle ultime macchine nate però, prodotta dalla CleanGreen3D è una combinazione delle due in quanto,
come nella LOM si utilizza un rullo per distribuire il materiale, però utilizzando carta normale. Come nella
tecnica SDL poi l'adesivo viene applicato selettivamente per lo strato successivo e il processo si ripete fino al
completamento della stampa.

La Solido

Una macchina particolare SDL o la Solido SD300 che prevede di andare ad


utilizzare però non fogli di carta, ma di PVC. Questa macchina, ance se
rientra nelle SDL non applica la colla in modo selettivo, ma la applica sul tutto
in materiale per poi andare ad inibirla dove non serve per facilitare il taglio
e l’uscita delle componenti. Questo comporta però un notevole spreco di
colla. Il processo prevede quindi l’importazione del file STL che può essere
ulteriormente modificato mediante il software di macchina. Sull’intera area
dell’elevatore, dunque, viene applicata la colla di partenza, dopo di che,
tramite le penne si procede a inibire la colla nei punti in cui non serve. Un
sistema di trascinamento, dunque, stira dentro il foglio di PVC che viene prelevato a lamine o da un roto. Una
volta quindi incollato il foglio, tramite una lama rotante se ne procede al taglio e al successivo incollaggio
costruendo coì lo strato successivo. Finita la costruzione del pezzo si possono manualmente rimuovere le
parti in eccesso. Come stampante però è comoda perché di ridotte dimensioni.
SELECTIVE LASER SINTERING (SLS)
Il processo si bassa sulla sinterizzazione selettiva di particelle realizzata mediante un laser. In questo caso
quindi i materiali di partenza sono polveri di Nylon generalmente, o in altri materiali. In questo caso i
supporti non sono necessari come in tutte le volte che ci sono polveri, in quanto in questi casi la polvere in
eccesso nella presenza della vasca fungano da supporti. Questo consente una variabilità delle forme
enormi, in quanto l’assenza si supporti facilita molto il processo realizzativo ed estrattivo del componente
dato che le polveri in eccesso si eliminano molto bene.

La parola sintering trae un po’ in inganno però in quanto per processo di “sinterizzazione” noi intendiamo
un processo dove tramite una combinazione di pressione e calore otteniamo un prodotto poroso, ma
sufficientemente resistente. La sinterizzazione classica poi si fa solitamente solo per polveri metalliche.

Vediamo adesso però la sinterizzazione selettiva.

Nella macchina abbiamo la vasca di polvere da dove viene appunto prelevata la quantità di polvere
necessaria a realizzare lo strato. Tramite un rullo quindi lo strato di polvere viene steso sulla piattaforma di
lavoro, che mano a mano che si realizza le sezioni del componente si abbassa. Ovviamente mano a mano
che si avanza, anche la piattaforma di lavoro si piena di
polvere e questa polvere in eccesso che non sinterizza funge
e da supporto. Come al solito poi prima di iniziare la stampa
vengono disposti sempre un paio di strati di polvere che
fungano da zattera.

La macchina può anche essere realizzata con delle vasche che


invece che trovarsi alla stessa altezza del piano di lavoro, si
trovano al di sopra di esso. In tal caso l’organo di
distribuzione è una racla.

La camera di lavoro è preriscaldata in modo tale da


mantenere in temperatura le polveri e viene anche
mantenuta inerte.

Questa condizione nella camera di lavoro minimizza l’energia richiesta dal laser, gli effetti del
cambiamento di volume indotto dal cambiamento di fase e previene l’ossidazione.

Il laser sinterizza la polvere dando origine al profilo della sezione . La scansione avviene in “raster” oltre
all’errore di staircase so ha quindi anche l’errore raster che comporta una porosità elevata e una scarsa
finitura superficiale. Questo errore affligge tutte le macchine a polveri ed è dovuto al fatto che la lama laser
sinterizzando solo in alcuni granuli di polvere e non tutti creerà un profilo non uniforme.

A fine del processo di stampa, il pezzo deve essere raffreddato. Il primo raffreddamento viene effettuato in
macchina dove si attende il tempo di estrazione della “torta stampata” che altro non è che il blocco di
polveri pressate e riscaldate all’interno del quale sono immersi i miei componenti. Questo blocco viene
solitamente estratto tramite l’uso di un box in plexiglass. Una volta estratte si procede quindi al lavaggio
dalla polvere in eccesso tramite aria compressa, pennelli e altri strumenti. La polvere in eccesso rimossa
dalla torta può essere in parte riciclata. Non tutta la polvere può essere riciclata perché alcune polveri
potrebbe non aver aderito ai modelli, questa polvere non può essere riutilizzata. Per questo motivo per
pezzi di scarsa importanza strutturale possiamo usare miscele di polveri riciclate anche del 40% mentre per
pezzi di componentistica abbiamo bisogno di riciclare le polveri per intero. Nell’ultimo periodo, un trend di
produzione per cercare di andare a limitare lo spreco di polveri, è quello di creare una macchina ulteriore
alla stampante che consente di andare a riscaldare le polveri, pulirle e recuperarle ottimizzando così il ciclo
di produzione. È il caso delle macchine della Form Labs Fuse 1 e Fuse Sift dove avendo a disposizioni due
Fuse Sift e una Fuse 1 possiamo ottimizare molto i tempi. Avendo infatti due cartucce di polveri e due box
di estrazione della torta possiamo mettere in stampa un primo pezzo nella Fuse 1 mentre questo va in
stampa, attendere che una delle Fuse Sift prepari le polveri. Una volta che la stampa è conclusa, possiamo
quindi spostare la prima torta nella seconda Sift dove viene pulita in modo automatico restituendo un boc
di polveri e i componenti stampati, mentre la prima Sift fornisce un box di polveri già pronti per la stampa
sulla quale la Fuse 1 può andare subito a lavorare. Svuotata la prima sift possiamo quindi subito inserire al
suo interno le polveri nuove per prepararle alla nuova stampa.

Come nella SLA, avendo una vasca, un pezzo potrà essere composto da un solo materiale. Non abbiamo
quindi la possibilità di cambiare materiale durante la stampa o di usarne diversi. Un'altra cosa interessante
è che possiamo in questa tecnica andare ad utilizzare tutto il volume di lavoro della vasa. Questo significa,
che se possiamo riempire l’intero volume risparmiamo in energia necessaria al riscaldamento della
macchina e tempo.

I materiali a diposizione solo solitamente basi Nylon, magari caricate con fibre compositi come caricato
vetro, ma le polveri a disposizione non moltissime. Uno dei materiali più interessanti, come in tutte le
tecniche di stampa 3D è poi la cera, che ci consente di andare a realizzare modelli per la fusione persa.
Come già accennato in altre tecniche, non esistano poi neanche in SLS, materiali flessibili se non che per
pochi cicli e di proprietà ovvero forniti solo dalle case produttrici. La comodità di questa stampa è che è
fortemente isotropo, il che consente di avere una buona resistenza meccanica e la capacità di essere
lavorato interiormente (forato, filettato etc.) e superficialmente. Trattamento superficiale che si rende
necessario obbligatoriamente nella maggior parte dei casi vista la scarsa capacità di finitura.

Hanno un pregio però rispetto a tute le altre tecniche di stampa 3D, i pezzi costano poco e potendo
mettere tutti i componenti che vogliamo nel volume di lavoro. È caratterizzata da un’alta produttività.

Come nella SLA, altro problema legato al laser, è che le componenti che vengono realizzate in periferia sono
realizzate con una qualità peggiore, dovuta alla mancanza di precisione del laser nelle zone lontane.

Nel volume di lavoro si ribadisce possiamo mettere una quantità enorme di componenti e ogni macchina ha
un proprio software, i più famosi sono EOSPACE e quello della 3D System che consentono di andare a
disporre i pezzi e poi per cercare di andare a limitare l’uso di polveri minimizza l’altezza.

Oltre tutto, alcuni software


possono creare attorno ai
componenti piccoli, se
selezionato dall’utente, una
gabbietta da rompere
all’estrazione per ritrovarli
meglio.

Selective Heat Sintering (SHS)

Processo analogo all’SLS, impiega polveri termoplastiche monocromatiche che vengono solidificate
mediante una testina di stampa termica che, composta da varie resistenze termiche che possono
rapidamente cambiare temperatura, scalda le zone corrispondenti alla sezione. Questa macchina,
nonostante i suoi costi ridotti e la sua compattezza non ha avuto molto successo sul mercato.
Strategia di scansione

Nell’ottica di ottimizzare il percorso del laser per ottenere le caratteristiche desiderate del pezzo riducendo
al minimo il tempo per realizzarlo, può essere adottata la strategia Skin & Core. La zona esterna, skin, che a
sua volta può essere divisa in due zone, estera ed interna, richiede il massimo dettaglio
nella riproduzione dei dati digitali, la miglior qualità della superficie e la massima
densità possibile (durezza, proprietà meccaniche). Vengono quindi adottati parametri
laser “duri” per garantire la massima densità del sinterizzato. I volumi interni, core,
richiedono invece proprietà meccaniche “sufficienti”. Vengono quindi impiegati
parametri laser “veloci” con la possibilità anche di non toccare le polveri interne
lasciando uno spazio nel modello CAD per estrarre le polveri rimaste dentro.

Per ogni zona a riempimento pieno invece può variare la modalità con cui si sposta il
raggio laser durante la fase di sinterizzazione (hatch), che può essere, principalmente,
di 3 tipi:

• scansione parallela alla direzione di movimentazione del carter


• scansionare ad assi ortogonali
• scansioni ad isole, molto più efficiente perché limita il ritiro termico.
POLIJET (MJ)
Tecnologia brevettata dall’azienda israeliana Objet che, da Dicembre 2012, si è unita a Stratasys. 
Analogamente ad una stampante 2D a getto d’inchiostro, la testina di stampa Polyjet (in numero variabile
nelle diverse tipologie di macchina) scivola avanti e indietro lungo l’asse X, depositando uno strato di
fotopolimero liquido (processo chimico e non termico).

Nella macchina base, sia il materiale di modello che il materiale di supporto sono fotopolimeri.

La testa di stampa deposita entrambi i


materiali e tramite poi la lampada UV che
segue la testina, si ottiene la solidificazione
del fotopolimero tramite un processo
chimico e non termico. La testa si stampa
riesce però a coprire solo 65 mm per cui la
testa si stampa, non può fare solo un
movimento lungo un asse ma dovrà
muoversi sia in direzione X che Y.

Per cercare di evitare che ciò accada e


velocizzare poi il tempo di stampa
possiamo andare a disporre, se ci stanno,
tutti i componenti nella prima striscia. Se
però la passata singola non è possibile, la
successiva ad ogni modo è traslata solo di
un mezzo passo in modo tale da passar su
tutto il materiale più di una volta almeno
ottenendo così un componente più
omogeno.

Ogni testina di stampa contiene 200 ugelli


e la distanza tra due ugelli è pari a circa 0.3
mm. Nella passata di ritorno viene deposto
materiale sfalsando gli ugelli di 0.15 mm, per rendere più uniforme la deposizione del materiale. Per
stabilizzare la zattera viene deposto uno strato modello e a seguire 1mm di supporto.

Il materiale di supporto di questa tipologia di stampa è un materiale simile a cera che è di facile rimozione
tramite l’uso di un getto di acqua. La superfice in contatto con il supporto però tende ad opacizzare per cui
nelle zone dove i supporti non sono necessari, il software propone l’opzione “opaco” per consentire
l’eventuale inserimento di uno strato di materiale di supporto al solo scopo di rendere le superfici del pezzo
opache e non lucide, in generale quindi omogenee.
Come spessore del layer questa è la migliore macchina in assoluto ed ha raggiunto i 16 𝜇𝑚 di spessore per
cui questa macchina è caratterizzata da una rugosità superficiale ottimale.

Il software Objet Studio è semplice da usare e intuitivo, permettendo a chiunque di usare i sistemi Objet
efficientemente. Il software GrabCAD, più evoluto, stampa direttamente invece da CAD, organizza code di
stampa, monitora i livelli di materiale e lavora visualizzando il modello nei dettagli.

Il software deposita ovunque poi un minimo strato di supporto per dare a tutto il pezzo la stessa opacità in
quanto il materiale modello a contatto con quello di supporto tendeva ad ingiallire.

Il supporto attenzione però, non può reggere oggetti, per cui non può essere realizzato un Esting 3D (si
ricorda che l’Esting 3D è il posizionamento di più componenti nel volume della camera di lavoro ). Ogni
componente, quindi, viene e deve essere realizzato in una singola passata della camera di lavoro (Esting 2D,
ovvero possiamo posizionare più pezzi ma solo se poggiati sul piano di lavoro).

Un altro pregio, presente solo nella versione più recente delle macchine è la possibilità di poter lavare i
supporti tramite l’uso di una miscela di acqua con il 2% di soda che non richiedendo acqua in pressione
consente di facilitare la rimozione dei supporti.

Polyjet matrix

Il modello base dalla macchina è quella che abbiamo appena descritto. Una versione successiva indicate
con il nome Connex 1, consentono l’uso simultaneo di 2 materiali diversi per il modello e per il supporto.
Questa macchina consente di andare quindi, usando due testine a creare oggetti in due materiali
accoppiati, oppure creare oggetti in Esting 2D in materiale diverso.

Con questa miglioria, è nata anche un’idea di realizzazione di materiale “compositi”, per cui possiamo
creare una matrice con un materiale di base e creare poi un riempimento con il secondo materiale. La
possibilità di combinare i materiali consente anche, andando a mescolare materiali neri e bianchi per
ottenere diverse scale di grigio. Questi materiali nello specifico vengono ottenuti non miscelando i due
fotopolimeri liquidi originali ma combinando i pixel, creando nuovi materiali con caratteristiche uniche.

Queste macchine, riescano ad essere molto precise, anche se non a livello della SLA, ma comunque molto
meglio della FDM, in confronto alle quali però peccano sul numero di materiali disponibili che solitamente
nella tecnica polyjet sono limitate a gomme. Con la Connex 1 però sono stati introdotte delle mescole rigide
come la WW+ (di colore bianco) che consente la creazione di componenti con materiale rigido, simile
all’ABS e per questo detto appunto digital ABS.

Dopo un paio di anni, superata la Connex 2 che non introdusse particolari migliorie, siamo arrivati alla
Connex 3, ultimo modello di macchina per la stampa Polyjet. Le macchine della linea Connex3 offrono la
possibilità di integrare decine di colori in un unico prototipo, scegliendo tra 20 tavolozze di colori,
combinando in specifiche concentrazioni e microstrutture tre resine di base. Le tre macchine della linea
Connex 3, la 3-260, la 3-350 e la 3-500 ospitano per fare ciò fino ad 8 cartucce, consentendo così di gestire
3 colori di base, il bianco, il nero, la gomma, il trasparente e due cartucce per due tipologie di supporto
diverse. L’ultima nata Stratasys J750, contenente 16 cartucce, consente di stampare oggetti con 360.000
colori automaticamente mappati per creare modelli fotorealistici, qualsiasi combinazione di materiali rigidi,
flessibili, trasparenti o opachi e i loro compositi ed assegnarli ad un unico modello o ad un vassoio assortito.
E’ in grado di produrre superfici ultra-lisce e dettagli finissimi con spessori dello strato fino a 0,014 mm. Le
testine di stampa di nuova generazione raddoppiano il numero di ugelli per una maggiore velocità e qualità
di stampa.

L’informazione sul colore oltretutto, può anche non essere indicata sul file STL e può essere aggiunta
utilizzando anche Photoshop 3D creando file VRML da trasferire sulla macchina.
Una particolarità della Stratasys J750 è quella poi
di andare, invece che far muovere la testina di
stampa sul piano X-Y, hanno un piatto rotante che
consente di velocizzare il processo di stampa,
ridurre le accelerazioni meccaniche sulla testina
aumentando la precisione di questa, senza alterare
la capacità di stampa in Esting 2D. La piattaforma
viene poi divisa in n fasce e la testina lavora in
posizione fino a che non si è realizzato l’intero
strato di una fascia con una rotazione completa del
piatto di stampa. Una volta terminato il giro la
testina si sposta nella posizione fissata per la
creazione dello strato della fascia successiva. La
testina andrà dunque ad occupare solo n posizioni.

Come possiamo vedere però abbiamo sempre sul


piatto di stampa un settore libero che non può essere occupato da componenti e questo è dovuto al fatto
che quello è lo spazio che la piattaforma ruotando percorre nel tempo in cui il la testina si sposta.

Un ultima macchina di applicazione interessante è la Stratasys J750 Digital Anatomy che consente di
andare a stampare simulazioni di organi per consentire ai chirurghi di esercitarsi, con dei materiali che sono
simili al tessuto. Questo consente di far allenare i chirurghi e talvolta anche di effettuare una simulazione di
interventi particolarmente complessi.

MULTI JET PRINTING (MJP)


Una tecnica brevettata dalla 3D System e che non differisce molto dalla Polyjet è la tecnica Multi jet
printing. In questa tecnica gli ugelli sono disposti su una testina di stampa ed eiettano un materiale
termoplastico liquefatto simile a cera. La testina in questo caso si muove solo in direzione X mentre in
direzione Y e chiaramente Z si muove la piattaforma. Il materiale rilasciato dagli ugelli solidifica e aderisce
con il precedente strato. Dopo un certo numero di strati (variabile) una lampada UV polimerizza realizzando
così la solidificazione in una passata sola.

Ricapitolando, a livello realizzativo, la testina viene posizionata sopra la piattaforma di lavoro per iniziare la
generazione del prototipo. La testina quindi si muove solo in direzione x fino al completamento dello strato
a cui termine la piattaforma si sposta sia in direzione Z che in Y dando il via alla creazione del nuovo strato.
Alla fine della creazione di ogni strato, un rullo livella asportando eventuale materiale in eccesso. Dopo un
certo numero di strati, una lampada UV passa a polimerizzare il tutto.

Queste macchine, rispetto alla tecnica Polyjet riescano ad essere bene o male precise alla stessa maniera,
ma usando un materiale piu resistente consentono la realizzazione dell’Esting 3D.

Oltre tutto, queste stampe hanno una rimozione dei supporti molto facile, che avviene tramite una cottura
in forno a 45° gradi che scioglie la cera di supporto. Eventuali rimanenze possono essere rimosse con un
bagno d’olio successivo. Questo è molto importante perché i supporti solubili in forno consentono di
realizzare piccoli particolari e spessori che nella tecnica PolyJet possono rompersi facilmente a causa del
getto di acqua in pressione. Nelle macchine MJP si possono ottenere poi spigoli più vivi grazie alla minore
coesione tra supporto e modello.

Sono ancora in fase di sviluppo però la possibilità di usare colori e materiali.


BINDER JETTING (BJ)
Il progetto nasce al MIT di Boston e adesso di proprietà della 3D
System. Il materiale di base in questo sistema è sotto forma di
polvere che viene deposita nelle camere di lavoro con una
selezione della posizione. Una volta depositata la polvere per la
realizzazione dello strato poi, una testina di stampa molto simile a
quella di una classica stampante ad inchiostro, deposita in modo
selettivo una quantità di colla che può essere colorata o no.
Questa tecnica, quindi, consente di eliminare i supporti in quanto
la polvere in eccesso in camera di lavoro consente di andare a
supportare il componente stesso, realizzare un Esting 3D e
realizzare anche componenti a colori.

Il processo di questa stampa è bene o male intuibile dallo schema


per cui, una volta preparato il file STL e lo slicing, si depone lo
strato di polvere di zattera (3,188 mm), si passa la racla e si comincia poi a realizzare gli strati successivi.
Generalmente la macchina esegue anche una procedura di allineamento automatico delle testine che
prevede la stampa di un modello nella polvere, la relativa lettura mediante un sensore ottico e il
conseguente allineamento delle testine di stampa.

Il pistone situato sotto la camera di lavoro abbassa la base di polvere da 0,1 mm per preparare lo strato
successivo e il ciclo si ripete fino ad ultimamento del componente. L’intero processo richiede il
riscaldamento dell'aria all’interno della camera di lavoro per creare l'ambiente operativo ottimale per la
stampa.

A fine del processo di stampa, la polvere non solidificata viene aspirata, filtrata, quindi riportata
nell'apposito alimentatore per essere utilizzata in altre costruzioni riciclandola al 100% in quanto, non
subendo deformazioni termiche, la polvere può essere tranquillamente riusata. Una volta aspirato il grosso
della polvere però la parte anteriore della macchina viene aperta e il pezzo viene spostato nella camera di
rimozione finale della polvere. Qui viene spruzzata aria compressa sulla parte per rimuovere qualsiasi
traccia di polvere residua (anche questo materiale viene automaticamente aspirato e recuperato).

Una volta rimossa qualsiasi traccia di polvere dalla parte, quest'ultima può essere utilizzata direttamente o
essere sottoposta ad un posttrattamento di infiltrazione per ottimizzarne la resistenza o la finitura. Questo
trattamento post-processo è fondamentale e necessario in quanto i pezzi usciti di stampa risultano
particolarmente porosi e di conseguenza anche poco resistenti.

Questo trattamento si rendere necessario anche al fine di eventuali trattamenti superficiali in quanto, il
pezzo prodotto con polvere solitamente presenta un aspetto granuloso. La sua infiltrazione però, lo rende
sufficientemente resistente da poter essere sabbiato. Il difetto più grande dopo l’infiltrazione resta
comunque le scarse proprietà del materiale.

È stata ad ogni modo una tecnica innovativa, la prima capace di produrre pezzi multicolore utilizzando poi
lo stesso principio della stampa a getto di inchiostro (stampa su carta). Per ottimizzare poi la durata e il
consumo della cartuccia di colore si tende a colorare solo le parti esterne, ovvero quelle in vista.
FILM TRANSFER IMAGING (FTI)
In questa tecnologia, che rientra nei processi a luce con materiale fotosensibile, è molto recente e nasce da
una tecnologia più vecchia contemporanea alla stereolitografia ovvero la Solid Ground Conturing (SGC).

La SGC nasce come risposta ai principali problemi della stereolitografia che, come ricordiamo, aveva il
grosso problema di riuscire a solidificare un intera sezione con il laser. La SGC proponeva quindi di andare a
solidificare l’intera sezione grazie all’uso di una lampada ultravioletta consentendo così una maggiore
rigidità del corpo che avrebbe consentito l’eliminazione dei supporti e dei trattamenti post stampa.

In questo processo un sottile strato di fotopolimero veniva deposto sul carrello elevatore e tramite la
conoscenza della sezione veniva realizzato un supporto di vetro che riproduce in negativo la sezione stessa.
La maschera viene posizionata sopra la resina ed esposta ad una lampada ad ultravioletti ad alta potenza
consentendo così la solidificazione del componente filtrando la luce con la parte trasparente della machera.
Successivamente la resina non polimerizzata viene aspirata e sullo strato appena creato viene deposto uno
strato di cera liquida (che funzionerà da supporto) che immediatamente dopo viene solidificato impiegando
una piastra raffreddata.

Alla fine del processo quindi otterrò un parallelepipedo di cera con all’interno annegati i pezzi che volevo.
Questa tecnica, quindi, non era adatta alla produzione di poche componenti in quanto si sarebbe sprecato
un sacco di materiale. Una volta completato il modello la cera viene eliminata con un bagno di acqua e
acido citrico a 60°. Alcune macchine sono dotate di un impianto per l’eliminazione automatica della
maggior parte della cera (eventuali residui vengono rimossi manualmente).

Il fatto di avere un processo di stampa a solidificazione unica rende il processo molto più veloce e non
rende necessario la definizione di processi di riempimento della sezione con una riduzione notevole delle
deformazioni in quanto in questo processo possiamo usare resine molto viscose. La luce UV oltretutto è
molto meno costosa, di manutenzione inferiore rispetto al laser e non necessita dell’apparato di
focalizzazione.

La macchina risulta comunque molto complessa e costosa visto il suo alto numero di parti e il sistema di
aspirazione della resina può causare la creazione di bolle d’aria negli strati. Nel caso di particolari cavi è
necessario prevedere dei fori per l’evacuazione della cera. Il fatto di essere conveniente poi solo nel caso di
realizzazione di un numero di parti consistenti però, la ha resa sempre meno usata nonostante i numerosi
vantaggi rispetto alla SLA.

La FTI

Il processo SGC si è dunque evoluto nel FTI, un processo di costruzione che impiega comunque un materiale
fotosensibile che viene solidificato con un proiettore UV, ma in questo caso si creano componenti che
vengono fatti aderire a una piattaforma che si muove dal basso verso l’alto come nel processo di SLA
verticale.

In questo processo uno strato di resina viene


deposto su una piastra/vasca trasparente e poi
viene coperta dalla piattaforma nera che va in
battuta sulla resina dal lato esposto all’aria. In
questo modo si crea una camera buia sulla
quale andiamo a creare la sezione tramite la
lampada UV e un sistema di specchi.

Al passaggio successivo la piastra quindi si alza,


la vasca viene ripulita dalla resina non
solidificata e viene poi risteso un nuovo strato. La piattaforma a questo punto si abbassa
nuovamente e mette in battuta con la resina lo strato precedentemente realizzato che è
solidale alla piastra per adesione. Si procede così alla stampa dell’intero componente e a fine
processo si procede al distacco. I supporti per garantire l’adesione ed evitare poi l’effetto
ventosa con la piattaforma dovranno essere molto più resistenti. Il pezzo infine può essere
ripassato in forno UV per consolidare la solidificazione.

Come tecnica questa risulta estremamente precisa e produce componenti con un’ottima
caratteristica superficiale paragonabile alla SLA. Rispetto alle tecniche FDM poi è capace di
creare spigoli vivi e componenti non porosi per cui impermeabili.

MULTI JET FUSION (MJF)

Una delle macchine di produzione additiva più recenti ad essere nate è la macchina a Multi Jet
Fusion prodotta dalla Hewlett Packard. In questa macchina un agente di fusione viene
depositato su un letto di polveri attivando il processo di solidificazione grazie alla successiva
attivazione di una sorgente infrarossi. Grazie alla possibilità di depositare fino a 30 milioni di
gocce al secondo poi e grazie ad un agente di dettaglio che viene deposto sul contorno della
sezione ed è in grado di delineare la geometria del pezzo, strato per strato, questa è una
macchina molto veloce, precisa e adatta anche alla produzione di piccole e medie serie.

Il processo parte sempre dal file STL che viene inviato alla stampante. I modelli possono essere
aggiunti all’interno del volume di lavoro attraverso un nesting 3D, per cui possiamo depositare
diversi elementi all’interno della camera di lavoro. Questo è possibile perché chiaramente
nella lavorazione non sono necessari supporti.

La stampante divide poi la camera di lavoro in due parti, una relativa alla stampa effettiva e una invece
adatta alla gestione delle polveri della processing station. All’interno di questa dobbiamo andare ad
inserire un carrello che contiene i diversi piani di lavoro per i diversi oggetti che devono essere prodotti, il
carrello nello specifico prende il nome di build unit. Le polveri vengono quindi caricate nella Build Unit
prelevandole in parte dalle cartucce di nuovo materiale e in parte, se disponibile da un lavoro precedente
nel serbatoio del materiale di riciclo. Le polveri nuove e vecchie sono sempre mescolate e inserite quindi
fino al riempimento del carrello.

La Build Unit viene quindi estratta dalla processing station e inserita nella stampante 3D. Il carrello a questo
punto viene inserito direttamente all’interno della stampante 3D e da qui il processo può iniziare. Un
sistema di cloche all’interno del carrello porta quindi le polveri dal punto più basso della Build Unit fino alla
cima e una ralla finale contenuta nella stampante 3D depone lo strato di materiale necessario su di un
elevatore.

Sull’elevatore va dunque a passare il carrello di


stampa che riscalda le polveri facendo passare la
luce ad infrarosso e depositando sia l’agente di
fusione che l’agente di dettaglio. Questo primo
passaggio degli infrarossi serve solo per andare a
preparare le polveri, una volta eseguito questo
primo riscaldamento la macchina rileva quindi la
temperatura delle polveri.

A questo punto la macchina procede a solidificare la


polvere nei punti giusti, andando a riscaldare in modo locale consentendo così che la polvere che non deve
essere usta per la costruzione del modello possa essere riciclata. Il fatto di aver deposto l’agente di
dettaglio consente di andare ad evitare che sui bordi questo riscaldamento, per errore possa integrare
polveri fuori dal profilo, andando a schermare localmente invece il riscaldamento.

Una volta solidificato lo stato, possiamo andare a questo punto a definire lo strato successivo, facendo
scendere l’elevatore nella Build Unit e portando in cima altri materiali.

Il pregio di questo macchina è che andando a separare il processo di preparazione delle polveri e quello di
stampa, possiamo non spegnere mai la macchina. Aggiungendo il fatto che questa ha un volume di lavoro
molto grande, può avere un nesting 3D e può essere tenuta accesa ininterrottamente preparando diversi
carrelli di stampa, la macchina è un’ottima candidata per la produzione di oggetti di piccole/medie
dimensioni in quantità medio-piccole. Oltre tutto, trattando generalmente polveri di nylon questi materiali
possono avere resistenze meccaniche considerevoli e vista la precisione e la quantità di agente di fusione
depositato, anche se prodotta in polveri, la macchina produce oggetti di ottima qualità con scarsa porosità.

A conclusione della lavorazione la Build Unit viene riportata nella Processing Station per il raffreddamento e
la pulizia dei prototipi (con tempi di raffreddamento di circa un’ora per ogni ora di stampa). Il sistema di
“fast cooling” permette di diminuire drasticamente i tempi di raffreddamento e quindi di consegna del
manufatto. L’operatore con un aspiratore interno all’unità di pulizia rimuove la polvere non solidificata ed
estrae così facilmente i pezzi. I pezzi vengono quindi passati alla sabbiatrice per eliminare ogni residuo di
polvere.

Ovviamente vista la separazione delle parti, la presenza della processing station, della stazione di pulizia e
della stampante 3D, questa intera attrezzatura è particolarmente ingombrante.

La macchina è stata realizzata in un’ultima versione anche a colori, andando ad utilizzare agenti di fusione
colorati. Questa versione della macchina però non consente di andare a separare le macchine per processi
di caricamento delle polveri e ciò rende la macchina più lenta pur mantenendo un principio di
funzionamento uguale. La scelta di produrre oggetti di design con una sola stazione di stampa rinunciando
alla velocità ha consentito di andare a ridurre i costi delle macchine rendendola più accessibile.

Ad oggi la HP ha reso prenotabile anche la versione metallo di questa stampante che potrebbe uscire a
breve.

DROP ON DEMAND (DOD)

Stampanti 3D ad alta velocità e precisione per la produzione di modelli per la fusione a cera persa mediante
la tecnologia Drop on Demand sono state brevettate negli ultimi anni dalla SolidScape e poi anche questa
acquisita da Stratasys.

Le buone caratteristiche di precisione e finitura superficiale sono controbilanciate dalla lentezza e dalle
ridotte dimensioni della tavola portapezzo.
Il processo prevede l’uso di due testine a getto movimentate nel piano X-Y che depositano gocce
microgeometriche di cera. Il materiale blu è il materiale del modello, mentre il materiale di supporto invece
è di colore viola.

Il polimero termoplastico, allo stato


liquido in uscita dalla testina, solidifica
rapidamente dopo il contatto con lo
strato precedentemente deposto. La
testina di costruzione depone prima i
perimetri interni ed esterni della
sezione, per ottenere una buona
finitura delle pareti, e
successivamente deposita il materiale
per riempire l’interno.

Una volta completato lo strato un


dispositivo di spianatura, costituito da
una fresa elicoidale, effettua il
livellamento dello strato creando una
superficie liscia e uniforme su cui
deporre lo strato successivo.
Successivamente la piattaforma viene
abbassata e inizia la deposizione dello
strato successivo. Il processo
continua, strato per strato fino al completamento del modello. Una volta terminata la stampa, l’oggetto
viene immerso in un bagno di solvente che consente di andare a rimuovere la cera di materiale di supporto.
Questo consente quindi di creare componenti di materiale molto vario e di forme libere.
METAL ADDTIVE MANUFACTURING – PRINCIPALI VANTAGGI

La stampa 3D per oggetti metallici ha permesso una libertà in fase di progettazione permettendo la
realizzazione di forme molto complesse. La possibilità di depositare materiale solo dove si vuole possiamo
andare poi ad alleggerire i componenti, creando personalizzazioni e ottimizzazione della produzione.

Possiamo poi andare a ridurre i costi di produzione degli stampi, ammortizzando i loro costi e accorciando il
loro tempo di produzione. Si possono poi abbattere gli sfridi di produzione e rendere anche i costi di
produzione indipendenti dalla quantità da produrre se un giorno si arriverà mai alla produzione di macchine
di stampa 3D sufficientemente rapide da poter avere una produzione di massa. Se queste infatti
sostituissero la produzione classica, non si avrebbe più nessun costo per la produzione di stampi, utensili di
attrezzature di produzione.

Ovviamente uno degli aspetti più importanti negli ultimi anni, nella produzione di oggetti metallici in
stampa 3D, visto che questi hanno sempre una maggiore importanza, richiedano un attento controllo di
qualità post produzione e un monitoraggio real time della produzione. Le macchine generalmente sono
dotate quindi di un software apposito che consente di andare a stampare una foto del modello in
produzione. I testi di controllo qualità possono essere realizzati anche sulla macchina tramite la messa in
stampa di modelli prestabiliti che possono essere misurati verificando così la giusta capacità produttiva.

La produzione delle polveri

La produzione delle polveri è una fase fondamentale dei processi di stampa 3D in metallo. Per ottenere
buoni risultati è necessario lavorare polveri nella giusta forma, dimensione e qualità. Il processo di
produzione della polvere viene detta atomizzazione. Le polveri devono avere una forma più sferoidale
possibile. Particelle con spigoli vivi possono opporre troppa resistenza al passaggio della racla, oltre a
rovinare quest’ultima o lo strato sottostante già solidificato.

Gli strati di polvere dovranno poi essere molto omogenei in spessore e densità di polvere per centimetro
quadrato in modo che i componenti a fine processo siano densi e senza difetti. Per questo motivo le
polvere vengono attentamente setacciate e controllate. Le diverse proprietà delle polveri sono fortemente
influenzate dal tipo di atomizzazione, dalle condizioni e dai parametri di processo, ma in generale è
possibile schematizzare gli impianti di produzione in 4 fasi:

• Estrazione del metallo e produzione dei semilavorati di partenza. Tendenzialmente si cerca di non
partire da elementi puri ma da leghe che sono più stabili a livello termodinamico.
• Segue il processo di atomizzazione
• A fine di questo arriva il vaglio che tramite setacci molto fini si separa la polvere in funzione della
taglia dimensionale, ad esempio, particelle inferiore ai 40 𝜇𝑚 per la SLM e comprese tra i 30 a 100
𝜇𝑚 per EBM
• Segue poi la validazione, fase necessaria per ottenere un prodotto certificato.

I processi di atomizzazione sono poi molteplici.

Water atomoization

Si parte da un bagno fuso del prodotto semilavorato che è contenuto all’interno di un crogiolo con un
ugello sul fondo. L’ugello ha lo scopo di accelerare il deflusso del fluido che viene quindi spruzzato
all’interno di una camera di atomizzazione, dove lo spruzzo di metallo fuso incontra una getto di acqua che
solidifica immediatamente il metallo che cadendo nella vasca di raccolta precipita poi sul fondo. Questo
processo ha il limite di non produrre polveri con geometria perfettamente sferica. Il suo vantaggio invece è
quello di poter atomizzare particelle molto fini variando la pressione a monte del processo. Occorre però
fare attenzione in quanto le polveri più fini possono unirsi a quelle più
grandi formando dei veri e propri grappoli. Le polveri vengono infine
vengono essiccate in forno a circa 60-100°C

• Gas atomization
Si differenzia dal Water Atomization in quanto il getto d’acqua è
sostituito da un flusso di gas inerte che fuoriesce da una struttura
coassiale all’ugello. Si riesce quindi a gestire il processo con due
parametri: pressione all’ugello e pressione del gas. L’atomizzazione
ha una durata maggiore consentendo di avere particelle più
sferiche. L’impianto lavora in leggera sovrappressione per garantire
bassissimi trafilamenti di ossigeno dall’esterno. Sono impianti
molto semplici a livello tecnologico ma difficili da gestire: a fine
processo la camera va lavata portandola due o tre volte
sottovuoto.
• Sistema al plasma senza crogiolo
Il materiale di partenza è un filo che passa attraverso un sistema di
torce al plasma che, settando in maniera opportuna la pressione
del plasma stesso, sono in grado di fornire sia il calore che l’energia
necessaria per atomizzare il flusso di materiale fuso, che altrimenti
colerebbe verso il basso. Il problema di questa tecnologia è la
generazione del filamento di partenza: generare un filo,
sufficientemente flessibile, è più complesso che generare un
lingotto. Il plasma permette di controllare più facilmente le
temperature ed i tempi di processo, limitando la dispersione
granulometrica delle polveri Altro vantaggio è che sfrutta un
quantitativo minore di gas inerte. I costi di produzione sono però
più elevati.
• Atomizzazione centrifuga
Questo sistema, ancora a livello sperimentale, utilizza la
forza centrifuga per la separazione delle particelle. Il
principio è lo stesso, viene sommata un’energia
meccanica «contactless» (capace di disperdere il
materiale) all’energia che serve per fondere il materiale
stesso. Non avendo un flusso vero e proprio, ma solo
un’atmosfera inerte, il consumo di gas è notevolmente
inferiore. La dimensione delle particelle ottenibili è
maggiore rispetto alle altre tecniche.
Direct Metal Laser Sintering (DMLS) & Selective laser melting (SLM)

Le macchine metallo che sono nate per prime sono state quelle che replicavano il processo della SLS che nel
caso di metalli prendeva il nome di Direct Metal Laser Sintering (DMLS) e lavorava su polveri in metallo. Le
prime macchine in realtà usavano un fotopolimero imbevuto di una polvere di metallo basso fondente per
cui solitamente erano semplicemente dei pezzi di plastica rafforzata in polvere di metallo e quindi niente di
speciale.

Abbiamo dovuto aspettare del tempo prima che potesse nascere la macchina DMLS effettiva che, con lo
stesso principio della SLS, sfruttando un laser a più alta energia che riusciva ad effettuare microfusioni delle
polveri che portano alla sinterizzazione delle polveri.

Il principio di funzionamento della macchina è il solito per cui abbiamo una vasca di polveri che rifornisce
una camera di lavoro grazie al movimento di una racla, due piattaforme movimentate e un sistema di
ottiche laser.

L’unica differenza dall’SLS resta la forma della materia in quanto si usano polveri. Questo introduce una
maggiore difficoltà di distribuzione delle polveri da parte della racla.

Quando il laser va a colpire il letto di polvere questo genera delle scintille, per questo motivo le macchine
sono dotate di un sistema di aspirazione delle scintille che se cadessero invece all’interno della sezione,
potrebbero causare difetti in essa. Le macchine sono poi oltretutto dotate di un software che consente di
rilevare la presenza di questi difetti ed eventualmente interrompere la stampa del componente.

Anche se la polvere funge da supporto quando si usano polveri metalliche è spesso necessario costruire
comunque i supporti che evitano la distorsione del pezzo dovuta al ritiro. Questo risulta fondamentale nella
costruzione della sezione successiva. I supporti sono rastremati nella zona di collegamento al pezzo e quindi
facilmente asportabile con delle pinze. I pezzi subiscono un successivo trattamento di rinvenimento per
ridurre le tensioni residue.

Queste macchine sono in grado di lavorare in staircase adattativo, per cui sono caratterizzate da un elevata
precisione.

Generalmente le macchine a metallo hanno poi più di un laser che lavora in quanto, se si sta scomodando
una macchina di queto tipo probabilmente è per un oggetto finito e non per la realizzazione di un modello
estetico e di un provino in plastica e pertanto, parlando di produzione si richiede una velocità di lavorazione
elevata. La produttività di una macchina metallo, dunque, è un parametro molto importante. Gli standard
solitamente si aggirano attorno i 100 𝑐𝑚3 /h anche se ci sono macchine con un a produttività maggiore.

I materiali lavorabili, le tipologie di leghe metalliche, sono numerose e da qualche anno è possibile anche
stampare un acciaio adatto per la produzione additiva di utensili da lavoro a caldo e a freddo, il Tool Steel
H13. Recentemente abbiamo anche a disposizione la stampa di leghe del rame e del rame puro.

Adesso passiamo però alla selective laser


melting (SLM).Essenzialmente molto
simile alla al DMLS, la differenza sta nel
fatto che invece di sinterizzare le polveri,
qui si fondano davvero le polveri grazie
ad un laser ad alata energia. La differenza
è dunque visibile solo a microscopio
dove, la tecnica SLS per sinterizzazione
comporta una massa disomogenea
mentre la tecnica SLM forma un unico
strato omogeno di materiale.

Il processo complessivamente per avviene nello stesso identico modo, con l’unica differenza che l’intero
processo avviene ovviamente in ambiente inerte, con solitamente un’atmosfera complessivamente fatta di
gas nobili principalmente Argon. La fusione poi richiede un laser molto più potente che solitamente è un
laser in fibra ottica con un range di potenza compreso tra i 200 e i 400 W.

Una volta rimossi i pezzi dalla piattaforma di lavoro si procede alla loro pulizia.

In entrambe le macchine abbiao a disposizione un software poi, fornito dalla EOS detto QuantAm che
consente di realizzare nesting 3D e di etichettare gli oggetti piccini, oltre che a posizionare i supporti al
meglio riducendo lo spreco di materiale e rendendoli più facili da rimuovere.
Electron beam metling (EBM)

Un altro processo simile alla tecnica SLM è l’electron beam melting (EBM) dove l’unica differenza resta
nella forma della sorgente che ci consente di andare a fondere il materiale, la quale non è un laser, ma un
fascio di elettroni.

I pezzi lavorati in EBM solitamente hanno una produttività maggiore in quanto il fascio di elettroni è
caratterizzato da una potenza maggiore del laser classico. Lo spot di questa è però più grande, circa il
doppio, questo comporta quindi un peggioramento della finitura superficiale che vediamo più porosa.

La tecnica EBM però, vista la maggiore potenza consente di


fondere una gamma di materiali maggiore, tra cui il titanio che
per le applicazioni medicali è fondamentale. Le velocità che si ha
poi nella fusione delle polveri, vista l’alta potenza, rende
superfluo la presenza del gas inerte, ma è sufficiente avere il
vuoto nella camera di lavoro. Questo contribuisce anche alla
focalizzazione corretta del fascio elettronico.

L’ electron beam gun genera un fascio con una potenza oltre i


3000 W. L'elevata potenza del fascio consente produttività e
velocità di costruzione elevate (fino a 80 cm3/h, 20 cm3/h per il
titanio e dunque per 4 laser fino ai 320 cm3/h). L’alta
temperatura raggiunta dal laser di processo (700 º C per titanio)
poi riduce le tensioni residue rendendo superflui trattamenti
termici. Il costo di esercizio della macchina poi, nonostante le alte
potenze non è elevato.

La sorgente del fascio in ogni macchina EBM poi è dritta e viene


direzionata da una lente di deflessione che fa si che la circolarità,
intensità e velocità del fascio di elettroni siano sempre le stesse in
tutti i punti del piano di stampa.
Direct energy deposition (Thermal Spray)

Il Thermal Spray è nato come alternativa alle tradizionali forme di coating e non come metodo di stampa
3D. Si evoluta come tecnica di riparazione di prodotti danneggiati e solo di recente utilizzata per la
produzione additiva di metallo.

Il punto di forza di queste tecnologie è l’elevata efficienza di deposizione e i minori vincoli in termini di
processo. Le tecniche di questo tipo sono molteplici, ma sono tutte caratterizzate da un procedimento
comune.

La presenza di un feed stock è quindi una delle prime caratteristiche comuni. Il feed stock altro non è che il
materiale che andrà a formare il coating del pezzo e generalmente questo si trova in forma di polvere o di
filamento.

A seguire in ogni tecnica, una sorgente di calore porta a fusione il feed stock e tra questi abbiamo un laser,
un arco elettrico e energia cinetica.

Una volta fuso il materiale, tramite un sistema che accelera e proietta il materiale, oramai in forma di
particelle microscopiche, verso il sub strato (gas accelerati) deposita il materiale.

Il coating, che si viene a formare sul substrato, è il risultato dell’accumulo delle particelle solidificate del
feed stock. Ovviamente per avviare questo processo però dobbiamo avere una base del materiale, oltre che
ad un sistema di movimentazione della testa di stampa o della piattaforma.

Vedendo adesso i sistemi nello specifico, analizziamo per prima la


laser engineering net shaping. Il processo si basa sulla fusione di
un flusso di polvere metallica, opportunamente addotta nella zona
di focalizzazione, ottenuta mediante una sorgente laser (500W-
4kW). Le gocce di metallo vengo spinte verso il substrato da un
flusso di gas inerte, generando per strati l’elemento metallico.

Il laser e l’alimentazione devono muoversi però rispetto al pezzo


questo movimento può essere realizzato andando o a far ruotare la
piattaforma o muovendo la testa di stampa.

L’unico vincolo di questa lavorazione resta il


fatto che il materiale costituente la polvere
metallica deve essere tale da non riflettere la
radiazione laser. Nella testa poi, al lato della sorgente laser scorre un forte flusso di gas
inerte che consente di spruzzare il materiale, depositarlo e proteggerlo dall’ossidazione.

Ovviamente il materiale viene depositato per strati con uno staircase di 0,05-0,1 mm ed
principalmente utilizzata per la riparazione dei pezzi metalli o per il loro completamento.

Nel caso di uso del filo come feed stock abbiamo bisogno di modificare poi la struttura
delle testa che assume e una conformazione del tipo coax wire. Il raggio laser viene
diviso da un sistema ottico in tre fasci separati che vengono
successivamente focalizzati in un punto attraverso il quale scorre
esattamente l’alimentazione del filo che quindi fonde e si deposita sul
substrato.

Una tecnologia alternativa ma di base molto simile può essere quella


dove la testa tulizza un arco elettrico molto simile alla saldatura TIG per
fondere il materiale di diposito. Ovviamente in questo caso il processo
come nella fusione TIG prevede la deposizione di un materiale di base
che è raccolto in una bobina di filo.

La tecnica più strana di tutte è però la così detta cold spray . Uno dei problemi principali del Thermal Spray
risiede proprio nell’approccio termico al coating. La necessità di portare a fusione il materiale del feedstock
fa si che il coating risenta delle criticità tipiche delle lavorazioni ad alta temperatura: la presenza di ossidi, di
stress termici residui e zone termicamente alterate. Nel caso di energia sviluppata da combustibili, si
somma anche la presenza di incombusti. Il Cold Spray, tecnologia relativamente recente, sfrutta l’energia
sviluppata nell’impatto tra particella e substrato per creare una deformazione plastica e aderenza
permanente su quest’ultimo. L’assenza di una fonte di energia termica per la fusione del feed stock rende
questo processo immune dai principali svantaggi dei thermal spray tradizionali, compreso il considerevole
dispendio di risorse energetiche, facendone anche un’alternativa a ridotto impatto ambientale.

La polvere deve comunque essere riscaldata precedentemente e portata a poi in un ugello convergente-
divergente che la accelera in un flusso di gas inerte come elio o azoto che spara le particelle a velocità
altissime sulla superfice dell’oggetto. Una volta impattate, l’energia cinetica di queste è sufficiente a
causarne la fusione. La deposizione avviene
dunque allo stato solido e con energia
cinetica e non termica con un minor consumo
globale e la possibilità di utilizzare il processo
con materiali sensibili alla temperatura.

Questo processo è vantaggioso rispetto ai due


precedenti perché genera sollecitazioni
residue minime, si possono usare ampie
gamme di materiali e con tassi di deposizione
molto elevati, maggiori rispetto agli altri due (fino ai 300-400 cm3/h e in alcuni casi anche fino ai 1500
cm3/h).

Infine tutte e tre queste tipologie possono essere cominbante in una macchina ibrida, sottrattitva e additiva
che consente di eseguire sia i tagli che le deposizione per la produzione di compoennti completi e
complessi. Nonostante in queste macchine quindi sembrerre svantaggioso andare a rimuovere del
materiale in realtà dobbiamo pensare che vista la completa assenza di supporti per la realizzazione della
stampa abbiamo comunque un vantaggio e pertanto può convenire andare a stampare l’intero supporot di
base e poi andare a lavorarci sopra sia con tecniche adattative che sottrattive.
Dekstopo metal

La Dekstop metal è una società statunitense che sviluppato un procesos innovativo che prende spunto dal
più tradizionale metal injection molding (MIM).

Il processo di MIM unisce le tecnologie consolidate di stampaggio a inieaizone di plastica e la metallurgia


delle polveri. Il processo, che non è di stampa 3D prevede infatti di anadare a fare uno stampaggio a
inieazione di una plastica contente polveri metalliche. Una volta ottenuto questo compontete detta grenn
part se ne esegue un lavaggio in solvente per eliminare il grosso del legante, lasciando solo la forma delle
parti. A seguire dunque si procede al primo riscaldamento per l’eliminazione ulteriore del polimero e la
successiva cottura in forno che finisce la sinterizzaizone delle polveri ottenendo così il pezzo finito.

Polvere metallica molto fine (

Nella Dekstop Metal si è avuto l’idea


però di sostituire lo stampaggio a
iniezione con una macchina di stampa
3D il che ha consentito quindi di
aumentare la libertà di forma del
processo.

Le tre macchine messe a disposizione


poi dalla Dekstop metal sono tre: la
studio, la production e la shop
system.

Dekstop metal studio

Il processo, molto simile all’FDM plastica, vede l’impiego di due ugelli. Il primo estrude le barrette di feed
stock ottenute andando a miscelare il polimero e le polveri in metallo e il secondo le barrette di anti
sintering agent, entrambe mantenute a una temperatura di 60°C. L’uso di barrette come materiale di
apporto e lavorazione comporta il grande vantaggio di non dover gestire polveri direttamente nella
macchina.

Il processo di stampa, molto simile al FDM, inizia fino alla costruzione del modello, dunque, una volta
convertito il STL o, essendo una macchina di nuova generazione acquisendo direttamente il file CAD. Una
delle principali caratteristiche è relativa al supporto. Il supporto non è dello stesso materiale del pezzo ma
un secondo materiale, detto anti sintering agent (bianco) che viene depositato all’interfaccia tra modello e
supporto per separarli quando vengono portati in forno.

La macchina, che esegue poi lo stesso procedimento della MIM nella zona secondaria di questa, ha un
software che gestisce in automatico tutte le fasi del processo con un costo complessivo 10 volte inferiore
rispetto alle normali lavorazioni laser classiche. La macchina poi, di dimensioni ridotte compatibile con un
ambient di ufficio produce componenti che buone resistenze meccaniche confrontabili in tutte le direzioni
con un’ampia gamma di materiali a diposizione. Una delle pecche più grandi resta però la velocità di
deposizione che è molto bassa di circa 15 cm3/h.

La macchina è dotata di due ugelli di stampa, uno da 400 µm (standard printhead) e uno da 250 µm (high-
res printhead), che ne cambiano di molto le prestazioni. Il volume di lavoro della macchina da studio è di
circa 300x200x200 mm ma la dimensione del modello finale stampabile è pari a 240x150x155 mm in
quanto si deve considerare il ritiro durante la sinterizzazione che va dal 17% al 25% in funzione del
materiale.

Dekstop metal produtcion

La principale differenza dalla macchina Studio sono le sue dimensioni e quindi l’ambiente all’interno del
quale può lavorare. Oltre a questo, abbiamo anche una differenza sostanziale sul feed stock che nel caso
della macchina Production è una polvere. Il sistema di stampa della Dekstop metal production, detta anche
single pass jetting (SPJ) si propone come alternativa ai sistemi laser in quanto 100 volte più veloce e 20
volte più economico.

La macchina utilizza due Power Spread Unit una Print head che si muovano sullo stesso carrello sia in
andata che in ritorno. La PSU depone la polvere sul piano di lavoro e la polvere viene a seguire compattata
generando uno strato uniforme. A seguire la testa di stampa (PH) deposita goccioline di legante in
corrispondenza del modello, ovvero lo deposita in modo intelligente. A seguire in una successiva passata
deposita il supporto, ovvero l’anti sintering.

Una volta terminato lo strato, si passa ai i successivi e una volta terminato il modello la Broun Part (nome
dato al modello di legante e polveri) viene inserita in un fondo microonde per accelerare la sinterizzazione
ed eliminare il legante in una camera sottovuoto.

Un sistema di controllo della temperatura in tempo reale mantiene i pezzi al di poco sotto della loro
temperatura di fusione fino ad ottenere il pezzo finito e la rimozione del legante.

Per quanto riguarda i supporti invece durante la stampa, come in altri processi che impiegano polveri, non
sarebbero necessari supporti. Questi vengono realizzati, con lo stesso materiale del modello, per
mantenere il pezzo in posizione durante la fase di sinterizzazione in fornace. I supporti sono separati dal
modello da 0,4 mm di materiale anti sintering. Questi si rendono necessari solo per angoli superiori ai 30° e
fori di diametro maggiore ai 15 mm. Per la zattera invece, la Desktop metal Production utilizza uno strato di
2,5 mm di materiale antisinetring.

Questa macchina ha capacità produttive enormi che consente di realizzare fino a 12000 cm3/h per cui è
adatta ad oggetti di produzione elevata e per grandi serie. Questo giustifica anche il costo della macchina
però che si aggira attorno ai 600.000 euro.

Desktop Metal Shop

Vista la alata produttività delle Production e le piccole dimensioni dello studio, queste sono adatte solo a
determinati scopi. Per le soluzioni intermedie alla produzione di serie e alla singola produzione però non si
avevano macchine e questo, quindi, ha spinto la Desktop Metal a creare la soluzione intermedia, con un
costo di macchina che si varia dai 300.000 fino ai 450.000 euro e 4 diversi volumi di lavoro 4L,8L, 12L e 16L.

Questa macchina più veloce, comunque, della fusione laser stampa fino a 70 kg di metallo al giorno e con
un tempo di ciclo dalle 6 alle 12 ore che consente almeno due cicli di lavoro al giorno.

Non esiste però un singolo processo in grado di garantire la stessa qualità e gli stessi costi sia nella
produzione ad alto volume che in quella a basso volume.

In questa macchina quindi la testa di stampa ha 5 file di ugelli per un totale di 70.000 ugelli con una
ridondanza del 25% rispetto ai sistemi comparabili con conseguente maggiore della qualità di stampa.

La ridondanza consente di garantire la qualità di stampa anche se, durante la lavorazione, alcuni degli ugelli
smettesse di estrudere. Complessivamente la testa di stampa quindi riesce a deporre fino a 670 milioni di
goccioline di legante in un secondo e una velocità di stampa di 700 cm3/h.
Atomic Diffusion Additive Manufactuirng (ADAM)

Analogamente alla Desktop Metal Studio, Markforget ha sviluppato la tecnologia ADAM (Atomic Diffusion
Additive Manufacturing). La macchina, denominata MetalX, impiega un filamento composto da un legante
plastico misto a polvere metallica. Il pezzo uscito dalla stampante deve subire un lavaggio con solvente
chimico, per rimuovere gran parte del legante, e un successivo processo di sinterizzazione. Anche in questo
caso modello e supporto sono separati da un materiale ceramico fornito però sotto forma di filo.

Nell’eliminazione del legante ad ogni modo,


si procede con un primo riscaldamento che
servere per aliminare parte di questo. Nel
solito forno poi, la temperatura si innalza
fino al raggiungimento della temperatura di
sinterizzazione.

RAPID TOOLING

Il rapid tooling o attrezzaggio rapido, è un insieme di tenciche mirate alla costruzione in tempi previ di
attrezzature o destinate alla realizzazione della pre-serie.

La realizzazione di attrezzature per la produzione rappresenta una delle fasi più lunghe e costose nello
sviluppo di un nuovo prodotto ed i metodi tradizionali sono pensati per grandi volumi di produzione. Nel
Rapid tooling si possono quindi realizzare oggetti realmente utilizzabili nella produzione. Si possono in
particolar modo distinguere due categorie diverse della stessa tecnica:

Direct tooling: gli utensili sono fabbricati in modo diretto con stampanti 3D.

Indirect Tooling: le parti ottenute si utilizzano come modelli ed anime per la realizzazione di stampi.

Nell rapid tooling diretto, una delle principali applicazioni è la creazione di stampi per la termoformatura
sottovuoto o sotto pressione, dove dovendo utilizzare uno stampo da cui è possibile aspirare l’aria, avere
uno stampo 3D fatto con un’alta porosità è un estremo vantaggio.

Un altro esempio di applicazione molto interessante della stampa 3D per il rapid tooling è la creazione di
anime sacrificali che con queste tecniche possono essere realizzate anche di forma complessa per impiego
nelle lavorazioni di materiali compositi e nelle strategie di fusione.

Dopo la polimerizzazione questi possono essere facilmente dissolti in soluzione basica eliminando la
necessità di processi secondari senza alcun limite di forma oppure eliminati con aspirazione dopo la
vaporizzazione del legante.

Un altro processo di stampa tradizionale che ha trovato aiuto molto nella stampa 3D è il nesting casting,
ovvero la microfusione e la fusione a grappolo dove la stampa 3D consente la realizzazione molto più
rapida, economica ed efficiente, dei modelli in cera per le microfusioni.

La tecnologia della microfusione (detta anche fusione di precisione o fusione in cera persa) con colata sotto
vuoto a pressione controllata viene tradizionalmente utilizzata per la fabbricazione di prototipi e piccole
serie. Partendo da master, fino ad ora realizzati con tecniche tradizionali, si possono ottenere particolari in
metallo in tempi molto rapidi.
L’abbinamento di questa tecnica tradizionale con le tecniche additive ha reso ancor più interessante la sua
applicazione ed ha portato allo sviluppo di alcune tecnologie:

• Direct Rapid Tooling: DIRECT SHELL PRODUCTION CASTING (DSPC)


• Indirect Rapid Tooling: INVESTMENT SHELL CASTING – CYCLON
• Indirect Rapid Tooling: TETRASHELL - MATERIALISE

Generalmente le tecniche Binder Jetting vengono impiegate per la produzione diretta di gusci per
microfusioni. Il processo che prende il nome di DSPC additivo permette il passaggio diretto dal modello
matematico del pezzo al modello matematico del guscio e quindi alla realizzazione del guscio ceramico
senza passare dal modello in cera e consentendo anime integrali e geometrie comunque complesse. Con
queste tecniche si hanno anche riduzioni di tempi. I software di macchine specializzate consente poi anche
di calcolare in automatico il posizionamento di materozze, canali di colata e valuta in autonomia il ritiro
termico adattando il volume dello stampo. Se sono richieste più copie dello stesso pezzo è possibile
modellare il classico grappolo per fare tutti i necessari duplicati.

Molto spesso però io non posso creare direttamente lo stampo, ma conviene andare a creare il modello
detto anche master che poi utilizzerò per la creazione dello stampo. Il modello, che viene realizzato in
stampa 3D è un esempio di rapid tooling indiretto.

Per rendere i modelli idonei ad essere impiegati come master nel Rapid Tooling è necessario:

• ridurre la rugosità superficiale mediante finitura manuale con tela abrasiva o con trattamenti di
infiltrazione con cera o vernice su base epossidica;
• conferire al modello i requisiti indispensabili per il successivo impiego come l’inserimento di angoli
di spoglia, la maggiorazione delle dimensioni per tener conto dei ritiri, l’inserimento dei dispositivi
di colata e tutti gli altri accorgimenti tipici della tecnica degli stampi.

I modelli realizzati in stampa 3D vengono particolarmente utilizzati però nel caso si voglia produrre uno
stampo in silicone. Lo stampo si ottiene colando sotto vuoto una gomma siliconica su di un modello
realizzato con tecniche di prototipazione rapida. Da uno stampo di questo tipo, a causa della sua rapida
usura, si ottengono generalmente non più di 15-20 colate per cui dobbiamo valutare bene il suo impiego
anche se questo risulta particolarmente economico. Risulta comoda magari quando si devono realizzare
delle preserie prototipali di 4 -20 come se ad esempio, realizzato un modello per FDM, per velocizzare la
copia dei modelli volessi utilizzare una tecnica di stampa in silicone con resina poliuretanica. In alcuni casi
viene utilizzata anche per la produzione di serie di piccoli o piccolissimi lotti poiché il costo di uno stampo
siliconico è decisamente inferiore a quello di uno stampo in metallo.

Tra i vantaggi degli stampi al silicone quindi abbiamo:

• costo basso dello stampo e tempi rapidi per la realizzazione delle prime stampe
• precisione e ritiro contenuto durante la fa di colata
• complessità del pezzo ottenibile molto elevata
• elevata elasticità e alta resistenza alla lacerazione che consente una facile estrazione del pezzo

gli svantaggi principali invece sono che:

• lo stampo è legato alla produzione di un limitato numero di componenti per stampo, dai 5 fino ai
50 massimo in quanto il silicone è soggetto ad usata.
• La vulcanizzazione del silicone è troppo lenta per pezzi di dimensione elevata
• Il modello del master deve avere un ottima rugosità superficiale e si deve avere un operatore con
molta esperienza che consente di non rovinare il master durante l’estrazione se si vuole riutilizzare.
Per quanto riguarda invece lo stampo in guscio in sabbia possiamo realizzare quest’ultimo con una
tecnica detta TetraShell, un processo che permette di creare mediante stereolitografia un modello
estremamente leggero, che viene poi utilizzato in fonderia per realizzare un guscio di ceramica per la
colata in metallo. Il software di TetraShell consente poi di andare a valutare in autonomia il ritiro e il
canale di colata. Il modello una volta realizzato viene bagnato con una colla termoresistente e poi
spruzzato con sabbia in modo tale da formare una un guscio esterno solido. Si procede poi alla colata
dove il modello evapora e il guscio invece rimane fino a solidificazione del pezzo in metallo. Una vota
terminata la solidificazione si procede alla rottura del guscio. Ovviamente questo modello di stampa 3D
è un tecnica di indirect rapid toolong.

Potrebbero piacerti anche