Sei sulla pagina 1di 55

GUIDA ALLA CONFIGURAZIONE DELLE WORKSTATION

Propongo questa guida a tutti coloro che hanno la necessità di sostituire parzialmente o totalmente la propria
workstation e si trovano a scontrarsi con un settore in rapidissima evoluzione e la poca informazione in materia o
semplicemente con alcuni dubbi da chiarire per la messa a punto del sistema.

Sommario
1) La scheda madre
2) Il processore
• Processori Intel Core i7 socket 1366
• Processori Intel Core i7 socket 1156
• Processori Intel core i5 Lynnfield
• Processori AMD Phenom II
• Processori AMD Athlon II
• Scelta della CPU per una Workstation monoprocessore
• Processori Intel Xeon 5500 e 5600
3) La memoria RAM
• Dual /Triple Channel
• Memoria RAM per sistemi triple channel: Intel socket 1366
• Memoria RAM per sistemi dual channel: Intel socket 1156 e AMD AM3
• Scelta e dimensione della memoria
4) La scheda video
• Output grafico 3D
• Hardware installato e prestazioni del software
• La memoria video
• Configurazioni Multi - GPU ATI Crossfire e NVIDIA SLI
• Schede video professionali
• Schede video gaming
• Scelta della scheda video per la gestione della viewport
• Elaborazioni GP-GPU
• Software
• Memoria RAM
• Schede video professionali dedicate al GPU - computing
• Scelta della scheda video per il GPU - computing
• Configurazioni multi - GPU
• Configurazioni ibride con schede video professionali e gaming
5) Unità di archiviazione di massa
• Dischi rigidi tradizionali
• WD Velociraptor
• Dischi rigidi ad alte prestazioni: SCSI/SAS/Fibre channel
• Solid State Drive
• Array di dischi: il RAID
• Scelta delle unità di archiviazione
6) L’alimentatore
7) Il case

8) Renderfarm
• Descrizione, analisi dei costi/benefici
• Configurazione dei rendernode
9) Il sistema operativo
10) Alcuni esempi di configurazioni
11) Conclusioni

Ritengo interessante per quegli utenti che pensassero di procedere personalmente all’assemblaggio del loro computer o ad
acquisti online, dei quali possono non essere esperti, la lettura dei tutorial sull’assemblaggio e sull’overclock e della guida
all’acquisto ondine proposta dall’utente Pako 1981.
acquisti online: http://www.treddi.com/forum/index.php?showtopic=38281
assemblaggio: http://www.treddi.com/forum/index.php?showtopic=58043
overclock: http://www.treddi.com/forum/index.php?showtopic=44992

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


PRINCIPALI COMPONENTI DEL COMPUTER E LORO SCELTA
SCHEDA MADRE
E’ la componente principale, che raccoglie tutte le interfacce con le varie componenti del computer.
Il cuore della scheda è il chipset, elemento che si occupa di gestire le comunicazioni fra i vari componenti.
Generalmente esso si compone di un northbridge, che gestisce le connessioni al processore, alla scheda video ed al
southbridge, che invece fornisce le connessioni agli hard disk e alle porte di comunicazione (USB, firewire,
parallele, seriali, PS2, eventuali schede di rete, audio o modem integrati). Nelle CPU di nuova generazione Intel ha
proceduto integrando nella CPU il controller PCI-express per la comunicazione con le schede video, per cui il
chipset si riduce ad un solo chip avente le funzioni di un southbridge. La stessa via sarà seguita da AMD con le
soluzioni Llano destinate al mercato di fascia media. Per contro nelle CPU Intel fino all’architettura Core 2, il
memory controller era contenuto nel northbridge, che forniva dunque anche l’interfaccia verso la RAM.
Nella scelta della scheda madre influiscono considerazioni di espandibilità, connettività, overclock. Considerata
l'organizzazione attuale dei sistemi, in particolare Intel, la scelta della soluzione processore - chipset - scheda
madre deve essere effettuata contemporaneamente, non avendo più a disposizione quella versatilità che
caratterizzava le architetture. Le opzioni disponibili per quanto riguarda le schede madri ed i chipset, e dunque in
particolare l'espandibilità della piattaforma, ed i costi, influenzano in modo determinante la scelta della CPU stessa.
Per questo motivo Chipset e schede madri saranno trattati assieme alle corrispondenti tipologie di processore.
Una volta selezionato il tipo di sistema da assemblare, e dunque il processore ed il chipset, la scheda madre sarà
scelta, oltre in seguito a considerazioni di qualità e costo, principalmente in base alla sua dotazione accessoria,
considerando dunque il numero e la tipologia di connessioni interne (PCI, PCI-express, SATA, USB...) e posteriori
(USB, E-SATA, LAN, Firewire..) disponibili. Sono da tenere in considerazione anche la qualità della circuiteria di
alimentazione della CPU e l'efficacia del relativo sistema di dissipazione, soprattutto nel caso si intenda
overcloccare il processore.

IL PROCESSORE

Il numero di core
Le unità centrali di elaborazione di una CPU sono dette core e sono in genere presenti in numero di due, quattro,
sei, o più unità nelle CPU destinate a sistemi workstation di fascia alta e server. Ormai tutti i software professionali
che richiedono elevate prestazioni alla CPU sfruttano la presenza di più core o di più processori. Alcune
applicazioni quali i giochi potrebbero non essere studiati per sfruttare più di due core o anche di uno solo. Dal
punto di vista delle prestazioni ovviamente a parità di altre caratteristiche è preferibile una CPU dotata di un
maggior numero di core, rispetto ad un processore inferiore ma operante ad elevate frequenze.

La frequenza operativa
La caratteristica più comunemente considerata di un processore oltre al numero di core è la frequenza, ma voglio
far notare come essa non sia l’unica e spesso nemmeno la più importante: certamente a parità di architettura un
processore con frequenza maggiore è sempre superiore ad uno con frequenza più bassa.
A questo proposito possiamo considerare ad esempio un confronto fra una CPU Intel core i7 920 ed una CPU Intel
core 2 quad Q9400. Entrambe sono CPU quad core che operano alla frequenza di 2,66GHz, ma la prima CPU è in
grado di surclassare la seconda in qualunque ambito e senza eccezione alcuna. Prendendo ad esempio un render
non è escluso che il core i7 di qui sopra possa concludere l'operazione in un tempo pari alla metà di quanto
impiegherebbe la soluzione core 2 quad.
Il parametro che caratterizza l’efficienza del processore è l’IPC (instructions per clock). A partire dagli anni 2004-
2005 la corsa verso CPU a frequenze sempre più alte si è arrestata su un valore massimo che, per ogni generazione
di CPU, si attesta in media sui 3-3,5GHz. L’aumento di prestazioni viene ottenuto, passando da una generazione
alla successiva, tramite un aumento dell’IPC e del numero di core.
La frequenza del processore deriva dal prodotto di un termine detto clock (dal nome del componente che lo
scandisce) per un moltiplicatore. Un tipico clock per un processore Pentium 4/D, Athlon 64, Athlon X2, Phenom,
Phenom II è di 200MHz; 266MHz per i Core 2 Duo/Quad Conroe, 333 per i processori Penryn/Yorkfield (E8000,
Q9000); le CPU Nehalem (core i7 e core i5, sia Bloomfield che Lynnfield) hanno invece clock di base di 133MHz.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


La memoria cache
In essa vengono trasferiti i dati provenienti dalla memoria centrale che andranno elaborati dai core del processore, e
in essa confluiscono i dati elaborati da riportare in memoria: una cache di dimensioni maggiori permette di eseguire
processi più pesanti senza ricorrere a più trasferimenti tra CPU e RAM. Nell’esecuzione di un rendering tuttavia la
sua dimensione risulta poco influente: un raddoppio della cache è generalmente compensabile con 200-300MHz di
aumento della frequenza complessiva. Si rivela per contro molto influente nel caso di codifica/decodifica di flussi
video, operazione che richiede di scambiare con la memoria un grande volume di dati.
Ogni CPU integra una cache L1 di dimensioni ridotte (fino a 128Kb) dedicata a ciascun core.
La cache L2 è generalmente dedicata per ciascun core, con l'eccezione delle architetture core e core 2 di Intel, che
presentavano due core con cache L2 di grandi dimensioni condivisa. Le CPU quad core, che erano ottenute unendo
in un unico package due die dual core, con il risultato che ogni coppia di core aveva una sua L2.
L’architettura della cache ormai universalmente diffusa per le CPU di fascia alta prevede una cache di primo e
secondo livello di dimensioni relativamente modeste e dedicata per ogni core. Una cache di terzo livello, di
dimensioni elevate ma con prestazioni inferiori alle prime è invece condivisa tra tutti i core e ne assicura
l’interfaccia.
Un'ingegnerizzazione di questo tipo permette da una parte di associare ad ogni core una cache L2 molto veloce e
dalla latenza molto ridotta, dall'altra di avere a disposizione una memoria comune a tutti i core di grandi
dimensioni, e che all'occorrenza può costituire un buffer per il controller di memoria, senza che a causa delle
prestazioni richieste ad una L2 l’estensione della cache a dimensioni molto grandi comporti un eccessivo aumento
della complessità, dei costi, e dei consumi.
Infine avendo slegato i core dalla cache è possibile variare dinamicamente ed in modo indipendente la frequenza e
la tensione di alimentazione di ognuno di essi in funzione delle richieste del sistema, implementando tecnologie di
risparmio energetico più raffinate ed efficienti.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


PROCESSORI INTEL CON ARCHITETTURA NEHALEM
Le CPU Intel Nehalem sono state presentate a partire da Novembre del 2008, ed hanno introdotto notevoli
differenze nell'architettura Intel, fra le quali cito il controller di memoria DDR3 integrato, la reintroduzione
dell’Hyper threading, che porta ogni core ad eseguire due thread contemporaneamente, l’introduzione di una cache
L3 condivisa di generose dimensioni.
L'architettura della cache è di tipo inclusivo (il contenuto della L2 è replicato nella L3), e prevede L2 dedicata di
256kBytes per core ed L3 condivisa di 2MB per core, operante a frequenza inferiore a quella dei core (frequenza
dell'uncore).
Altre novità architetturali riguardano il miglioramento delle unità di fetch/decode e branch prediction, e
l'introduzione delle istruzioni SSE 4.2.
La nomenclatura Intel è piuttosto articolata e prevede le seguenti serie di prodotti:
- Core i7 9xx: CPU socket 1366 a quattro e sei core, destinate alla fascia più alta del mercato
- Core i7 8xx: CPU socket 1156 a quattro core con Hyper Threading
- Core i5 7x0: CPU socket 1156 q quattro core sprovviste di Hyper threading
- Core i5 6x0: CPU socket 1156 dual core con multi threading con grafica integrata
- Core i3 5x0: CPU socket 1156 dual core con Hyper threading e grafica integrata, sprovviste di Turbo Boost.
Le successive CPU Sandy Bridge rappresentano un'evoluzione dell'architettura in oggetto.

PROCESSORI INTEL CORE I7 SOCKET 1366

Core i7 Bloomfield
I processori core i7 Bloomfield sono CPU Intel Quad core destinata alla fascia alta del mercato, in vendita a partire
da novembre del 2008.
Il memory controller DDR3 integrato gestisce tre canali e supporta un massimo di 24GB di RAM, qualora i sei slot
disponibili sulle schede madri siano occupati da banchi da 4GB di RAM. Non sono supportate memorie ECC. La
frequenza massima nominale supportata per la RAM è di 1066MHz (1333 per le versioni extreme edition). Al di
sopra della soglia di 1333MHz è necessario overcloccare l’uncore della CPU, al fine di mantenere per quest’ultimo
una frequenza doppia rispetto a quella della memoria.
Le prestazioni rispetto alla precedente generazione di CPU (core 2) sono estremamente elevate: basti pensare che in
quasi tutti gli ambiti di utilizzo in cui sono richieste elevate prestazioni alla CPU, e sono sfruttati tutti i core
disponibili, il più modesto di questi processori, il modello core i7 920 a 2,66GHz è in grado di superare il
precedente top di gamma Core 2 quad QX9770, processore che opera alla frequenza di 3,16GHz. Con alcuni motori
di render Core i7 920 è in grado di superare processori core 2 overcloccati a 4GHz.
Questi processori hanno socket LGA1366 e richiedono una piattaforma dotata di scheda madre con chipset X58 e
memoria DDR3.
Si deve tenere conto del calore sviluppato da queste CPU, che è estremamente elevato (TDP pari a 130W).
Assemblando una workstation dotata di processore core i7 sarà fondamentale acquistare anche un dissipatore
migliore di quello venduto da Intel assieme alle proprie CPU; in particolare l’overclock richiede sistemi di
dissipazione molto raffinati ed eventualmente impianti a liquido.

Core i7 Gulftown
Sono CPU a 6 core prodotte con processo produttivo a 32nm; sono inoltre stati implementati ulteriori accorgimenti
per ridurre il consumo dei core in stato di idle. La cache L3 è pari a 12MB.
Rappresentano un affinamento del core Bloomfield, una fase tick dell’evoluzione delle CPU Intel, nella quale viene
sviluppato il nuovo processo produttivo ed affinato il core. Per contro la messa a punto di una nuova architettura,
che sarà inizialmente prodotta col processo produttivo messo a punto precedentemente, rappresenta una fase tock.
Versioni quad core di questi processori (disponibili solo come CPU Xeon 56x0 per workstation bi-processore) sono
ottenute disattivando due core da una CPU a sei core.

Versioni
Le CPU Bloomfield (quad core) sul mercato sono il 930 con frequenza di 2,80 GHz, il 950 a 3,06GHz, ed il 960 a
3,2GHz. A causa dei successivi tagli di prezzi operati sui modelli di fascia più alta i prezzi di questi prodotti sono
molto vicini, compresi tra 220 e 260 euro circa. E’ dunque conveniente l’acquisto di un Core i7 960. Infine è
ancora a listino il 975 extreme, CPU dalla frequenza di 3,33GHz.
Le CPU Gulftown in vendita sono il 970, operante a 3,2GHz, il 980x, con frequenza operativa di 3,33GHz, ed il
990x, con frequenza di 3,46GHz. Il prezzo di vendita delle versioni extreme è di 1000 dollari, corrispondente a

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


850-950 euro circa. Le CPU extreme hanno moltiplicatore di frequenza sbloccato verso l'alto, in modo da facilitare
l'overclock.
Il 970 ha subito un buon calo di prezzo; ora che è stato riposizionato nella fascia dei 500 euro circa è divenuto una
CPU interessante per workstation di fascia abbastanza elevata.
Sono disponibili diverse CPU Xeon a 6 core.
Dati i prezzi di vendita, è evidente come il 950 rappresenti al momento l'unica CPU Core i7 Bloomfield che sia
conveniente acquistare.
La CPU Core i7 980x sono molto costose, ma avendo prestazioni molto elevate possono essere utilizzate su
macchine a singola CPU di fascia molto alta. Data la modesta differenza di costo il 970 non appare conveniente.
Sarà in ogni caso conveniente valutare le prestazioni dei nuovi Sandy Bridge quad core, che spesso avvicinano
quelle dei Gulftown, ad un prezzo decisamente inferiore.

Possibilità di upgrade
Le CPU di fascia più alta di generazione successiva, aventi architettura Sandy Bridge, integreranno un bus PCI-
express, e per questo motivo necessiteranno di un socket diverso, identificato dalla sigla LGA2011. Non saranno
dunque compatibili con le schede madri attuali. Le possibilità di aggiornare sistemi basati su Core i7 Bloomfield (le
CPU Core i7 più diffuse in ambito workstation) sono dunque limitate alle CPU Gulftown, che ad oggi hanno costi
molto elevati. Successivi cali di prezzo potrebbero rendere interessante l’aggiornamento delle CPU quad core.

Chipset
X58 è l'unico chipset destinato ai processori Intel core i7 Bloomfield e Gulftown, basati su architettura Nehalem e
su socket LGA1366. Il chipset non integra un memory controller dato che in questa architettura esso è integrato
nella CPU.
Il chipset fornisce 40 linee PCI-express 2.0 ed è in grado di gestire configurazioni multi-GPU sia Crossfire che SLI,
non potendo NVIDIA proporre un chipset proprio per piattaforme Intel socket 1366 e 1156.
Delle 40 linee disponibili, 36 escono dal controller PCI-e del northbridge e sono effettivamente utilizzabili per la
connessione di schede video. Le rimanenti quattro linee sono collegate al southbridge, e generalmente vengono
impiegate per connettere controller ausiliari che arricchiscono la dotazione della scheda madre: ad esempio
controller SATA3, USB3, Gigabit Ethernet.

Le schede madri dotate di chipset X58 sono generalmente dotate di due, tre o anche più connettori PCI-express 16x
2.0, al fine di supportare configurazioni CrossfireX a quattro GPU e three way SLI. Qualora si volessero installare
tre schede video, una di esse riceverà la banda piena di 16x, mentre le rimanenti due avranno a disposizione un bus
operante a 8x. Con quattro schede video (configurazione CrossfireX) tutte le schede avranno a disposizione 8 linee.
Il southbridge è l’ICH-10R già visto sul P45.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Il prezzo di una buona scheda madre con chipset X58 e socket 1366 è abbastanza elevato. D'altra parte l'intera
piattaforma socket 1366 è dedicata agli utenti enthusiast e professionisti.

Schede madri socket 1366


Gigabyte GA-X58A UD7: Nuova scheda madre di fascia enthusiast destinata a supportare le CPU Intel core i7
Bloomfield e Gulftown: sostituisce le schede EX58 Extreme nella fascia più elevata, rispetto alla quale si distingue
per l’implementazione di un controller Marvell in grado di gestire due porte SATA 3.0 6Gb/s, con supporto a
configurazioni RAID 0 e 1, e di un controller USB 3 che pilota due porte USB 3. Come per la precedente versione
Extreme, il sistema di dissipazione del northbridge è estremamente sviluppato e include la possibilità di raffreddare
a liquido il dissipatore; inoltre sono disponibili due chip LAN e una ricchissima dotazione di porte e slot.
Il costo della scheda è molto elevato e in genere non giustificabile per una workstation.
Gigabyte GA-X58A UD5: è la scheda madre Gigabyte di fascia alta dedicata a processori core i7 Bloomfield e
Gulftown, evoluzione della precedente EX-58 UD5, rispetto alla quale introduce un controller SATA 3 (6Gb/s)
Marvell ed un controller USB 3.
Il prezzo è elevato e se non ci sono particolari interessi consiglierei di scegliere una versione inferiore e più
economica, quale la EX-58A UD3R. La differenza rispetto a schede più economiche risiede più che altro nel
volume dei dissipatori e nella dotazione accessoria, in particolare nella presenza di due chip LAN Gigabit.
Gigabyte GA-X58A UD3R: Scheda madre di fascia media adatta alla maggior parte delle configurazioni, date le
buone caratteristiche generali. I dissipatori e la circuiteria di alimentazione della CPU sono adatti ad overclock
anche importanti. La dotazione accessoria prevede un controller SATA-3 (6Gb/s) Marvell ed un controller USB 3
in grado di supportare ciascuno due linee.
Gigabyte EX58 UD3: Non la consiglio: gli slot a disposizione per la memoria RAM sono limitati a 4: di cui due
fanno capo allo stesso bus. Ciò vuol dire che al massimo saranno utilizzabili 12GB di RAM, mentre se si scegliesse
di usare anche il quarto slot l’operatività del controller scenderebbe a single channel, con conseguente perdita di
prestazioni. Inoltre è stata sostituita dalle nuove Gigabyte X58A UD3R.
Asus P6T deluxe: schede madri Asus di fascia medio - alta per processori core i7. Garantisce una circuiteria di
alimentazione corposa e sovrastata da dissipatori di buone dimensioni. Purtroppo come in molti prodotti Asus
l’overclock è reso complicato da un elevato Vdrop, che comporta una tensione di alimentazione della CPU
inferiore a quanto impostato da bios, e che cala al crescere del carico di lavoro. Il confronto con la concorrente
Gigabyte UD5 vede invece una sostanziale parità per quanto riguarda la dotazione accessoria. La scelta potrà essere
operata in base alle preferenze del singolo e/o alle disponibilità nei negozi e, non da ultimi, ai prezzi.
La Asus P6T deluxe integra un controller RAID SAS Marvell che mette a disposizione due connettori SATA/SAS.
Si dovrà tener però conto del fatto che le prestazioni di questo controller risultano in realtà inferiori a quelle del
controller ICH-10R del chipset Intel, quando usato con dischi sata. Il confronto non è ovviamente possibile su
dischi SAS; è ovvio che un simile controller non avrà mai le prestazioni di un controller dedicato con processore e
memoria RAM proprio, come ormai è standard per hardware di un certo livello quale dev’essere quello dedicato a
tutta una catena basata su un simile standard. Lo scarso aumento di prestazioni portato da questi dischi in ambito
desktop/workstation inoltre, mi porta a dubitare dell’utilità di un simile controller. Ovviamente dischi SAS non
hanno da offrire solo che elevate prestazioni ma anche standard di qualità ed affidabilità elevatissimi.
Asus P6T WS professional: scheda madre dedicata alle workstation dotate di processore core i7. Asus è l’unica a
proporre questa serie di schede madri, dotate di caratteristiche particolari quali la presenza di slot PCI-X e di un
controller SAS. I primi sono slot ancora parzialmente in uso in ambito server/workstation per controller SCSI/SAS
e per schede di rete a alte prestazioni, ma vengono via via sostituiti con lo standard PCI-express. La scheda è
comunque adatta ad un uso più comune offrendo tre slot PCI-e adatti a schede grafiche, e circuiteria di
alimentazione e dissipatori adatti ad overclock, cose spesso non presenti in schede madri studiate prettamente per
workstation. Il costo è elevato; la dotazione supplementare rispetto alle schede già viste è di dubbia utilità viste le
considerazioni già fatte sulle prestazioni del controller SAS Marvell e delle catene SAS in generale in ambito
workstation, nonché il progressivo abbandono del connettore PCI-X in favore del PCI-express.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


PROCESSORI INTEL SOCKET 1156

Core i7 Lynnfield
Si tratta di CPU Quad core dotate di Hyper Threading pensate per la fascia medio - alta del mercato, in commercio
dal settembre del 2009, ed ora in via di sostituzione da parte dei nuovi Sandy Bridge socket 1155.
La piattaforma di riferimento in questo caso prevede una scheda madre socket LGA1156 con chipset Intel P55 e
memoria DDR3 in configurazione dual channel.
Le CPU core i7 Lynnfield si distinguono dunque da core i7 Bloomfield per il controller di memoria, che è DDR3
dual channel anziché triple channel, per il socket, che è LGA1156 in luogo dell'LGA1366, nonché per
l'integrazione del controller PCI-express 2.0 che mette a disposizione un bis 16x elettrico per l'interfaccia con la
scheda grafica. Sarà possibile, in questa piattaforma, sfruttare la piena banda PCI-e prevista installando un unica
scheda video. Configurazioni a due schede video saranno possibili, ma in tal caso le linee dovranno essere divise in
due bus 8x, a fornire ciascuno una VGA. Sono supportati SLI e Crossfire.
Valgono le stesse considerazioni già fatte per le CPU Bloomfield circa il memory controller, con la sola differenza
che la quantità massima di memoria installabile è pari a 16GB, essendo disponibili solo due canali.
Per quanto riguarda le prestazioni esse sono generalmente allineate a quelle di Core i7 Bloomfield a parità di
frequenza. Confrontando le due soluzioni si può stimare una differenza nel costo complessivo pari a 100 euro circa
a favore della nuova CPU Lynnfield ed un consumo elettrico inferiore di circa 30W in full load (TDP di 95W), il
che si traduce in genere in una minore rumorosità. Il consumo in idle delle CPU Lynnfield è infine eccellente. A
favore di Bloomfield si devono però considerare la possibilità di installare fino a 6 banchi di memoria RAM, la
possibilità di aggiornare successivamente a processori a 6 core Gulftown, nonché la possibilità di installare più
schede video senza incorrere in penalizzazioni per quanto riguarda l'ampiezza del bus PCI-express che le connette.

Turbo Boost
Si tratta di una funzione che eleva la frequenza in presenza di carichi di lavoro elevati ed in funzione del numero di
core in uso. Ovviamente più basso è il numero di core sfruttati, più alta è la frequenza a cui vengono portati ad
operare, e solo i core in uso vengono "overcloccati". Una simile feature è presente anche in core i7 Bloomfield
anche se opera in modo meno spinto.
A tal proposito ricordo come alcune schede madri, sia socket 1156 che 1366, consentano di impostare un
moltiplicatore di clock di una unità superiore al nominale per la CPU installata, una volta disattivato turbo boost,
proprio tenendo conto del fatto che in realtà le CPU in esame operano ad una frequenza superiore a quanto
dichiarato. In questo aspetto Turbo boost è analogo ad una seconda tecnologia di risparmio energetico che
diminuisce il moltiplicatore di una unità in caso di sfruttamento scarso, col vantaggio però di rendere la CPU più
attraente da un punto di vista del marketing e di aumentare l'appeal di eventuali test nei quali non si sia tenuto conto
di questo "bonus" di 133MHz.

Versioni
Le CPU core i7 Lynnfield attualmente in commercio sono core i7 860, core i7 870, core i7 875K. Il primo opera a
frequenza di 2,8GHz, il secondo ed il terzo hanno frequenza nominale di 2,93GHz. Le versioni di CPU Intel
contraddistinte dalla lettera K hanno moltiplicatore di frequenza sbloccato verso l'alto, e consentono un overclock
più semplice.
Considerando l'eventuale turbo boost (che tipicamente viene comunque disattivato in overclock), il quale anche in
caso di sfruttamento intenso di tutti i core applica un aumento di una unità del moltiplicatore di clock, col risultato
di elevare la frequenza della CPU di 133MHz. In presenza di turbo boost core i7 860 sarà dunque un processore a
2,93GHz usando tutti i core, mentre 870 sarà una CPU da 3,06GHz, sempre considerando il caso più probabile in
una workstation grafica, in cui tutti i core sono sfruttati.
Le CPU Core i7 860 ed 870 sono vendute a 230 euro circa, mentre la versione 875k, con moltiplicatore sbloccato, è
in vendita a partire da 280 euro circa.
La convenienza nel configurare una macchina con queste CPU è ormai definitivamente scemata, dal momento che
sono disponibili le CPU Sandy bridge socket 1155 destinate a sostituirle, vendute con rapporti prestazioni/prezzo
più favorevoli.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Core i5 Lynnfield (quad core)
Sono CPU quad core costruite a 45nm sprovviste di Hyper threading, e per questo motivo sono prestazionalmente
inferiori a core i7 in tutti quegli ambiti in cui più core a disposizione sono sfruttati. La differenza prestazionale a
parità di frequenza è molto variabile, ma si aggira sul 20% a favore di core i7.
L'architettura è per il resto analoga a quella delle CPU Lynnfield già analizzate.
Sono in commercio CPU Core i5 750 (2,66GHz di frequenza nominale, 2,80GHz con turbo boost), e core i5 760,
con frequenza nominale di 2,80GHz, 2,93GHz con turbo boost. Core i5 750 viene venduto ad un prezzo di 170
euro circa, mentre il prezzo di core i5 760 è superiore di una decina di euro.

Core i5 Clarkdale (dual core)


La famiglia di CPU Core i5 per socket 1156 include anche CPU di caratteristiche profondamente diverse ma non
adatte all’assemblaggio di una workstation. Si tratta di processori dual core con multi threading costruiti a 32nm, ed
integranti nel package un processore grafico costruito a 45nm. Nonostante le frequenze elevate le prestazioni in
presenza di software multi threaded sono ovviamente inferiori ad una CPU quad core, anche sprovvista di multi
threading, mentre il costo molto elevato non li rende consigliabili come CPU dual core. Per quanto riguarda le
prestazioni il confronto vede queste CPU allinearsi agli AMD Athlon II X3 di frequenze più elevate, o agli Athlon
II X4 di frequenze più ridotte venduti a prezzi molto inferiori.
Versioni analoghe, ma sprovviste di turbo boost, prendono il nome di Core i3.

Possibilità di upgrade
Le possibilità di aggiornare la piattaforma socket 1156, che supporta i core i7 ed i core i5 Lynnfield si fermano qui.
Non saranno disponibili CPU più avanzate basate su questo socket. Le CPU Sandy Bridge basate su socket
leggermente diverso: 1155 pin, sono incompatibili con l’hardware attuale.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Chipset
P55 è praticamente l'unico chipset dedicato alle CPU Intel core i5 e core i7 Lynnfield, basate su architettura
Nehalem con LGA1156, sebbene esistano versioni differenti ma di caratteristiche simili, chiamate H55, P57, H57,
che consentono l’output video dal chip grafico integrato nelle CPU Intel Core i5 dual core e Core i3 (Clarkdale).
E' improprio in questo caso parlare di chipset dato che a partire da questa generazione di piattaforma Intel ha scelto
di eliminare il northbridge, integrando all'interno della CPU il controller del bus PCI-express. In questo modo
l'unico chip che rimane sulla scheda madre, in comunicazione diretta con la CPU tramite un bus DMI, svolge le
funzioni di un southbridge.
Le 4 linee PCI-express in uscita sono di tipo 2.0, rispettando gli standard di alimentazione migliorati caratteristici
di questa generazione, ma sono limitati ad una velocità di 2.5Gbit/s, caratteristica delle connessioni di tipo 1.0.
Vengono utilizzati per la connessione di chip accessori integrati nella scheda madre e per mettere a disposizione
slot di espansione PCI-e, in genere di tipo 1x. Purtroppo non si può trascurare il fatto che un controller SATA 3
(6Gbit/s) o USB3 (5Gbit/s) connesso a questo tipo di interfaccia ne sarà sempre limitato. In genere i produttori di
schede madri implementano uno switch per cui i controller ausiliari vengono collegati al PCI-express uscente dalla
CPU (limitando le linee verso la scheda video), quando la scheda installata è singola. Una volta che vengono
installate due schede, a queste vengono inviate 8 linee ciascuna, e i controller ausiliari vengono connessi al
southbridge.
Le connessioni SATA in uscita sono di tipo 2.0 (3Gbit/s).
Il bus DMI che connette il chipset alla CPU è lo stesso che veniva tradizionalmente per connettere il northbridge ed
il southbridge, nei chipset X58, ma anche X48, P45 e via discorrendo; la sua banda passante è dunque limitata a
2Gb/s. Ciò è possibile proprio grazie all'integrazione del bus PCI-express nel processore. La comunicazione fra
schede video e CPU non sarà infatti più fornita dal bus che collega northbridge e processore.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Schede madri socket 1156
Gigabyte P55 UD3/UD3P/UD3R: Schede madri in formato ATX dotate di chipset Intel P55, socket LGA-1156,
slot di memoria DDR3 e due slot PCI-express 2 16x meccanici, di cui il secondo facente capo al chipset e dunque
fornito da sole 4 linee PCI-express elettriche, inservibili per una configurazione multi-GPU nonostante questa sia
dichiarata compatibile; il bus fra processore e chipset infatti non consente di amministrare in modo adeguato una
scheda video connessa a quest’ultimo. Le schede UD3P e UD3R differiscono dalla UD3 liscia per la presenza di
due porte e-SATA sul pannello posteriore , nonché per la dotazione di connettori PCI e PCI-express. Infine il
numero di fasi di alimentazione della CPU è di 8 per UD3R e UD3P e di 6 per UD3. Questa differenza peserà solo
marginalmente sulle possibilità di overclock, considerata anche la scarsa attitudine del sistema di raffreddamento
della circuiteria di alimentazione delle schede.
Si tratta in sostanza di schede abbastanza economiche e interessanti per macchine non molto costose grazie alla
completa dotazione accessoria.
Gigabyte P55 UD4/UD4P: Hanno migliori caratteristiche di overclock grazie al miglior sistema di raffreddamento
basato su dissipatori connessi tramite heatpipe e alle 8 fasi di alimentazione. Il formato è ATX.
Entrambe supportano configurazioni multi-GPU tramite connettori PCI-e 2 8x elettrici nel caso in cui siano inserite
due GPU, facenti capo al controller integrato nel processore. SLI e Crossfire sono dunque utilizzabili con una
scarsa penalizzazione dovuta alla banda dimezzata rispetto allo standard.
Le schede differiscono per il chip audio Realtek integrato e per la presenza di due chip gigabit LAN anziché uno
sulla scheda P55 UD4P.
Gigabyte P55 UD6: E’ dotata di 6 slot per la RAM DDR3 nonostante il controller integrato nelle CPU sia
ovviamente dual channel. La ritengo d’altronde una scheda troppo costosa (e in pratica inutilmente) per il target
delle macchine a cui destinerei i processori Lynnfield.
Gigabyte P55A UD3/UD3P/UD3R/UD4/UD4P/UD6: Schede madri che differiscono dai corrispondenti prodotti
precedenti per l’integrazione di un chip NEC che fornisce due USB 3 ed un chip Marvell che fornisce due porte
SATA 3.
Gigabyte P55-UD4M: versione micro-ATX simile per caratteristiche e dotazione alla P55 UD4P. Utile dove è
necessario ricorrere ad un case di ridotte dimensioni.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


PROCESSORI INTEL CON ARCHITETTURA SANDY BRIDGE
Nonostante siano state presentate all'inizio di Gennaio tutte le schede madri dedicate a queste CPU sono
state ritirate dal commercio in data 2 Febbraio 2011, in seguito alla scoperta di un bug nei chipset P67 ed
H67. Si prevede che la commercializzazione di questi prodotti riprenda nel mese di Aprile 2011.
Sandy Bridge rappresenta un'evoluzione semplice ma efficace della precedente architettura Nehalem. Tutte le CPU
Sandy Bridge sono prodotte con il nuovo processo a 32 nanometri, introdotto inizialmente con le CPU Clarkdale
(dual core core i5 6x0 e core i3 5x0) e Gulftown (core i7 a sei core).
Oltre al nuovo processo produttivo, la nuova architettura introduce tecnologie volte al risparmio energetico, ancor
più affinate di quelle già presenti in nehalem, ed ulteriori miglioramenti che permettono di ridurre il consumo dei
processori sia in idle che a pieno carico.
Le CPU che ne risultano, pur non risultando rivoluzionarie, mostrano consumi ridottissimi e sono in grado di
raggiungere frequenze decisamente elevate.
Contemporaneamente, altri affinamenti dell'architettura della CPU hanno permesso di incrementare l'IPC di un
valore che oscilla tra il 10 ed il 20% rispetto ai Nehalem. In particolare il Multi threading risulta ancor più efficace
che in passato.
Le CPU fino ad oggi presentate sono quad core e dual core basate su socket 1155 e costituiscono la nuova offerta
Intel nella fascia media e medio - alta.
Date le ottime caratteristiche di questi processori, fino a ché non saranno disponibili prodotti di fascia più alta
(Sandy bridge LGA2011, previsto per l'autunno 2011) e la nuova generazione di CPU AMD (Bulldozer) queste
CPU risultano convenienti anche per un'utenza di fascia molto alta.
Tutte le CPU Sandy bridge socket 1155 sono dotate di una GPU integrata nel die, che può essere di tipo HD2000 e
HD3000. La seconda è dotata di un numero di pipeline doppio rispetto alla prima.
La nomenclatura prevede le seguenti serie:
- core i7 2600/K: quad core con multi threading, grafica HD3000 e 8MB di cache L3.
- core i5 2x00/K: quad core sprovvisti di multi threading, con grafica HD2000 e 6MB di cache L3.
- core i3 21x0: dual core con Multi threading, grafica HD2000 e 3MB di cache L3.
Le CPU Core i3 sono sprovviste di Turbo Boost.
Sono disponibili versioni a basso consumo, designate dalle lettere S (quad core a 65W di TDP) e T (quad core a
45W di TDP e dual core a 35W di TDP).

Overclock
Nell'architettura sandy bridge un numero superiore di elementi, rispetto a Nehalem (clarckdale) è stato spostato dal
chipset (che ora consta del solo southbridge ed è chiamato PCH) al die del processore.
E' integrato dunque, oltre al controller di memoria ed al controller PCI-express, con 16 linee elettriche e di
generazione 2, il generatore di clock, che è unico per la CPU e tutto il sistema. Ciò comporta l'impossibilità di
overcloccare queste CPU facendo salire la frequenza di clock, perché ciò comporterebbe un funzionamento fuori
specifica del chipset e di tutti i bus presenti sulla scheda madre, dunque PCI-express, SATA, USB e via seguitando,
che non sono in grado di supportare una frequenza superiore a quella nominale.
Dato che le CPU normali hanno moltiplicatore di frequenza bloccato verso l'alto, l'overclock sarà possibile
solamente acquistando una CPU della serie K, che ha moltiplicatore sbloccato e aumentabile fino al valore di 57. In
realtà modesti overclock nelle CPU core i5 e core i7 con moltiplicatore bloccato (chiamate limited unlocked da
Intel) sono possibili utilizzando gli step di moltiplicatore liberi per l'aumento della frequenza in turbo boost. Le
CPU Core i3, essendo sprovviste di Turbo boost, non sono overcloccabili in assoluto.
L'overclock richiede l'utilizzo di schede madri con chipset P67. Con shcede madri H67 l'overclock non è possibile.

Versioni
Limitando il nostro interesse alle CPU Quad core, dunque core i5 e core i7, le CPU attualmente disponibili sono
quattro core i5 (2300, 2400, 2500, 2500k) e due core i7 (2600 e 2600k).
Le prime hanno frequenza compresa tra 2,8GHz (2300) e 3,3GHz (2500). I prezzi di vendita sono compresi tra 140
e 180 euro, e data la modesta differenza di prezzo conviene optare per le CPU di frequenza più elevata, scegliendo
tra 2400 e 2500.
Le CPU Core i7 sono invece in vendita a prezzi più elevati, a partire da 240 euro circa, e si caratterizzano, oltre che
per la frequenza di 3,4GHz, per la presenza di 8MB di cache e per il supporto all'Hyper threading. Le prestazioni
sono di conseguenza visibilmente superiori.
Le versioni K hanno prezzi superiori a quanto indicato di una trentina di euro circa e visti anche gli ottimi risultati
ottenibili sono molto consigliate.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Possibilità di upgrade
Ritengo possibile che Intel risponda al lancio delle nuove CPU AMD Bulldozer, previsto entro la prima metà del
2011, con alcune nuove versioni di processori Core i5 e Core i7. Perora si tratta però solamente di una supposizione
personale, basata sul fatto che, tra l'altro, i processori sandy bridge di fascia più elevata, basati sulla nuova
piattaforma LGA2011, non sono attesi prima dell'autunno.
In ogni caso non si tratterà di variazioni importanti dell'offerta e difficilmente sarà conveniente sostituire un top di
gamma attuale con una nuova CPU.
Per quanto riguarda l'architettura successiva, nota come Ivy bridge, caratterizzata dal nuovo processo a 22nm, non
si hanno notizie certe sulla sua compatibilità con le schede madri attuali. E' possibile che per quanto riguarda le
CPU socket 1155 (che sarà mantenuto dalle CPU di fascia media) sia richiesta una nuova scheda madre.

Chipset
Per le CPU Sandy bridge socket 1155 sono disponibili due diversi chipset: P67 ed HD67. La scelta del chipset è
importante perché condiziona le funzionalità del processore disponibili.
La grafica integrata sarà utilizzabile solo con chipset H67; P67 non consente di utilizzare il sottosistema video, e
tutte le schede madri dotate di questo chipset, di conseguenza, non hanno porte per l'output video.
L'overclock delle CPU, come vedremo, è possibile solo con schede madri con chipset P67.
Infine, il bus PCI-express è splittabile in due bus 8x solo su schede madri P67. Le schede madri H67 avranno un
solo slot PCI-express e non sarà possibile, ad esempio, installare due schede video.
P67 supporta SLI e Crossfire.
Dunque emerge, almeno per ora, la necessità di scegliere: sarà possibile avere un core i7 2600k con HD3000, ma
non sarà possibile usare il video integrato se si vorrà, ad esempio, overcloccare la CPU.

In futuro un nuovo chipset (Z68) dovrebbe coniugare i vantaggi di entrambi i chipset attuali.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


ARCHITETTURA AMD STARS (K10)
Costituiscono un'evoluzione delle precedenti CPU Phenom di prima generazione, che a causa dei ritardi
accumulati, collegati ai mai risolti problemi a livello di sviluppo del processo produttivo erano risultati nettamente
inferiori alla concorrenza. L'architettura risale quindi alla metà del decennio concluso e sebbene i Phenom II si
siano dimostrati vantaggiosi dal punto di vista dei consumi e delle prestazioni, l'IPC non appare adeguato ad una
moderna CPU di fascia alta. Di conseguenza CPU AMD dal buon rapporto prestazioni/prezzo si scontrano con
CPU Intel dall'inferiore numero di core e frequenza. La fascia più alta dell'offerta Intel (core i7 Sandy bridge e core
i7 Gulftown) è dunque priva di una vantaggiosa concorrenza.
Il processo produttivo è a 45nm ed ha consentito una sensibile riduzione del calore dissipato rispetto alle CPU della
serie precedente, nonché un aumento delle frequenze a valori prima impensabili. Ulteriori miglioramenti delle
prestazioni si devono all'aumento delle dimensioni della cache L3 (da 2 a 6MB), presente nelle CPU Phenom, ed
all'introduzione di un buffer per il memory controller indipendente dalla cache.
Le CPU Athlon si distinguono da quelle Phenom per l'assenza della L3.
L'architettura della cache è di tipo esclusivo, dunque i dati contenuti nei tre livelli di memoria sono differenti e le
dimensioni sono sommabili. La L2 dedicata ha generalmente dimensione di 512Kbytes per core, con l'eccezione
dei processori Athlon II X2, che hanno 1MB per core.
La nomenclatura in questo caso prevede:
- Phenom II X6 1xxx: processori core Thuban
- Phenom II X4 9xx: processori core Deneb
- Phenom II X4 8x0: processori core Deneb con 2MB di cache: non più in commercio.
- Phenom II X3 7x0: processori core Hekka.
- Phenom II X2 5xx: processori core Callisto
- Athlon II X4 6xx: processori core Propus
- Athlon II X3 4xx: processori core Rana
- Athlon II X2 2xx: processori core Regor
Le versioni BE hanno moltiplicatore di frequenza sbloccato verso l’alto, facilitando estremamente l’overclock.

CPU Core Deneb (Quad core)


Sono CPU quad core identificate dal nome Phenom II X4, delle quali rimangono in commercio le versione con
frequenze comprese tra 2,8GHz e 3,5GHz. Le versioni di fascia più alta eguagliano le prestazioni delle CPU
Nehalem Core i5 quad core (750, 760).
Questi processori risultano dunque buone basi per costituire workstation di costo contenuto o dove non è richiesta
un’elevata potenza computazionale, ma anche rendernode di piccole farm o desktop generici.
È sicuramente una buona scelta l’acquisto di un processore Phenom II X4 955BE da 3,2GHz, venduto ad un prezzo
di 110 euro circa. La CPU deve essere abbinata ad una scheda madre socket AM3, che risulterà più economica di
un’altra destinata a CPU Intel. Il dissipatore fornito è di qualità, consentendo di evitare l'acquisto di un prodotto
diverso nel caso non si intenda overcloccare il processore o non si abbiano particolari esigenze di silenzio. Si deve
fare attenzione che la CPU sia prodotta con step C3, che garantisce consumi inferiori e overclock più elevati.
Le altre versioni di questi processori non risultano in genere convenienti. 945 e 925, operanti rispettivamente a
3GHz e 2,8GHz, hanno prezzo praticamente allineato al 955, mentre i 965BE e 975BE, con frequenza di 3,4GHz e
3,5GHz rispettivamente, sono venduti a partire da 130 e 150 euro, cifre alle quali diviene conveniente optare per
una CPU Thuban a 6 core, almeno fino a che il software usato sia in grado di trarne vantaggio.

CPU Core Thuban (6 core)


Per colmare il gap con le CPU Intel Nehalem Core i7 quad core, AMD ha scelto di sviluppare CPU a sei core. Tali
processori, che prendono il nome di Phenom II X6, sono basati sul core Thuban, sviluppato con processo
produttivo a 45nm SOI al quale è stato aggiunto l’uso di materiali isolanti low-k dielectric al fine di ridurre le
tensioni di alimentazione e dunque i consumi dei processori.
Inoltre è stato introdotta la tecnologia Turbo Core, che mira ad incrementare le frequenze di funzionamento dei
core in uso, quando parte dei core della CPU sono inutilizzati.
Con questi accorgimenti le prestazioni delle CPU a sei core, nell’uso di software multi - threaded, sono allineate a
quelle dei core i7 quad core di pari frequenza, mentre il consumo risulta inferiore a parità di potenza.
Il confronto sulla base di software non in grado di sfruttare tutti i core a disposizione invece mette in luce il minore
IPC dei core Phenom (che infatti devono essere presi in numero di sei per eguagliare le prestazioni di quattro core
Intel); le CPU Intel sono dunque superiori, a parità di frequenza, nelle applicazioni non in grado di sfruttare tutti i
core a disposizione; in queste condizioni un Phenom II X6 1090T a 3,2GHz eguaglia un core i7 920 o 860.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Phenom II X6 è oggi disponibile nelle versioni:
- 1035T a 2,6 GHz (3,1 GHz con turbo core) e TDP di 95W
- 1055T a 2,8 GHz (3,3 GHz in turbo core) ed in versioni con TDP di 95W e 125W
- 1075T a 3GHz (3,5GHz con turbo core)
- 1090T BE a 3,2 GHz (3,6 GHz con turbo core)
- 1100T a 3,3GHz (3,7GHz con turbo core).
Tutte queste ultime CPU hanno TDP di 125W.
In ogni caso i consumi inferiori delle CPU Phenom II X6 dimostrano l’ottima efficienza del nuovo core Thuban. Il
costo di queste CPU, inferiore a quello delle controparti Intel, tenuto conto anche del minor costo delle schede
madri per CPU AMD, rende queste CPU altamente competitive sul mercato delle Workstation a singola CPU di
fascia medio - alta.

Socket
Nell’ambito dei processori AMD Phenom II distinguiamo CPU socket AM2+ dalle CPU socket AM3; la differenza
sostanziale consiste nel tipo di controller di memoria integrato: DDR2 per le CPU AM2+ e doppio, DDR2 e DDR3
per le CPU AM3. Com’è possibile intuire è possibile montare CPU AM3 su schede madri AM2+ e in molti casi
anche AM2.
Sono di tipo AM2+ i soli Phenom II X4 920 e 940BE, non più in commercio. Tutte le altre CPU AMD Phenom II
sono socket AM3.

Consumo e overclock
Le CPU Phenom II X2 hanno TDP di 80W. I Phenom II X3 710 e 720BE TDP di 95W. I Phenom II X4 920, 925,
945, 960T, X6 1035T e 1055T hanno TDP di 95W, mentre le versioni Phenom II X4 955BE (step C2 e C3) e
965BE step C3, ed i Phenom II X6 1055T e 1090T BE hanno TDP di 125W.
Le versioni a basso consumo 705e (triple core a 2,5GHz) e 900e, 905e, 910e (quad core a 2,4, 2,5 e 2,6GHz
rispettivamente) hanno TDP di 65W.
Nell’ambito delle CPU Core Deneb (quad core) il passaggio allo step produttivo C3 ha comportato un
abbassamento del TDP e contestualmente dei consumi e del calore dissipato. Allo stesso modo il nuovo step
migliora le capacità di overclock.
Il nuovo step produttivo (E0) utilizzato per il core Thuban ha permesso un incremento del 50% del numero di core
mantenendo praticamente invariati i consumi a parità di frequenza. Le possibilità di overclock delle CPU Thuban
sono nel contempo migliori di quelle delle CPU Deneb, nonostante il maggior numero di core. Una CPU Deneb in
overclock può raggiungere ad aria le frequenze di 4GHz, ma solitamente si dovrà arrestarsi a valori leggermente
inferiori, laddove una CPU Thuban può superare tale soglia con relativa facilità.
In particolare, overcloccando una CPU Athlon II o Phenom II, è fondamentale mantenere bassa la temperatura che
si raggiunge a pieno carico. Una temperatura superiore ai 60 gradi infatti spesso limita la stabilità del processore. E'
spesso possibile raggiungere frequenze molto elevate con vcore ridotti (1,3-1,4 volt, vicini a quello di default), a
patto che la temperatura dei core rimanga bassa. Contrariamente a quanto sarebbe intuitivo, un aumento della
tensione di alimentazione può rivelarsi controproducente, perché può comportare un aumento della temperatura in
full load. Conviene quindi dotarsi di adeguati dissipatori volendo salire in overclock.
Per quanto riguarda il TDP ricordo anche qui di non confrontare i valori di produttori diversi: i Phenom II X4 e X6
con TDP di 125W hanno infatti consumi inferiori ai Core 2 Quad ed ai core i7 con TDP di 95W.
Le versioni a basso consumo possono essere utili in situazioni nelle quali il consumo energetico o il calore dissipato
sono importanti. Il prezzo è d’altra parte elevato, superiore a 150 euro. E' possibile che una CPU dal consumo
simile sia ottenibile a partire da un normale 955 downcloccato e downvoltato.

Processori triple Core e dual Core


I processori triple core sono ottenuti a partire dai quad core (Deneb) per disattivazione di un core, consentendo così
anche il recupero degli esemplari difettosi. Queste CPU risultano ovviamente superiori ai dual core sia AMD che
Intel a parità di frequenza. D’altra parte si sovrappongono per costo a diversi processori Athlon II X4 che in
presenza di software multi - threaded ottengono prestazioni superiori. In presenza di software non in grado di
sfruttare più di due core invece può essere conveniente un dual core con frequenze più elevate.
Le CPU dual core Phenom II X2 allo stesso modo sono ottenute per inattivazione di due core, e non si distinguono
molto per prestazioni dalle CPU Athlon II X2, che hanno consumi e costi più contenuti. Il prezzo è invece simile a
quello degli Athlon II X3 ed Athlon II X4, rendendoli di conseguenza utili solo nelle situazioni in cui un elevato
numero di core non sarebbe sfruttato.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


PROCESSORI AMD ATHLON II
Sono processori AMD a due, tre e quattro core con architettura che si distingue da quella di Phenom II per
l’assenza della cache L3. Le CPU dual core inoltre integrano 1MB di cache L2 per core anziché 512KB per core. A
differenza dei Phenom II X2 (dual core), gli Athlon II X2 sono CPU effettivamente dual core. Le CPU Athlon II
sono tutte socket AM3, compatibili dunque sia con schede madri AM2/AM2+ e memoria DDR2, sia con schede
madri AM3 e memoria DDR3.
I processori Athlon II sono leggermente inferiori ai Phenom II a parità di frequenza, a causa della mancanza della
cache L3, ma sono venduti ad un prezzo estremamente contenuto.
I quad core attualmente in commercio sono gli Athlon II X4 635 a 2,9GHz, 640 a 3GHz, 645 a 3,1GHz.
Considerati i prezzi attuali il modello da comprare è il 640, acquistabile a circa 80 euro.
Sono disponibili inoltre versioni a basso consumo (TDP di 45W): Athlon II X4 605e a 2,3GHz, 610e a 2,4GHz,
615e a 2,5GHz, ma hanno costi elevati.
Le versioni triple core sono ottenute dai quad per inattivazione di un core, eventualmente difettoso: le versioni
disponibili sono Athlon II X3 440 a 3GHz, 445 a 3,1GHz, 450 a 3,2GHz e Athlon II X3 455 a 3,3GHz. Anche qui
troviamo anche versioni con TDP di 45W, che hanno d’altro canto costi elevati.
Le versioni dual core sono CPU molto economiche ma con buone frequenze e consumi ridotti. Sono adatte a
computer economici quali piccoli server da ufficio.

Chipset
Da quando ha acquisito ATI, AMD produce in casa i chipset destinati a supportare i propri processori. Ciò ha reso
AMD un produttore di piattaforme complete. Gli ultimi chipset prodotti da Nvidia per sistemi AMD sono i chipset
nForce 750° e 780a, che forniscono il supporto alle configurazioni SLI. Le schede madri prodotte con questi
chipset sono per lo più dotate di socket AM2+, destinato alle vecchie Cpu AMD Phenom I ed Athlon 64 X2,
nonostante sia possibile installare anche CPU AMD Phenom II ed Athlon II, previo opportuno aggiornamento del
BIOS della scheda madre.
Sono disponibili schede madri sia AM2+ che AM3 basate su chipset AMD di generazione 7x0, ed una limitata
offerta di schede madri socket AM3 dotata di chipset Nvidia. Le due piattaforme si distinguono per il supporto a
memoria DDR2 e DDR3 e per il supporto al bus Hyper Transport a 3,6 e 4GHz rispettivamente. Il memory
controller è ad ogni modo integrato e solo una piccola differenza meccanica nel socket della CPU (che non
compromette la retro-compatibilità di CPU AM3 con schede madri AM2+ e AM2) e la presenza di slot DDR2 o
DDR3 distingue le due tipologie di schede madri. E’ dunque possibile installare CPU AM3 su schede madri con
socket AM2+ e memoria DDR2, previa verifica della compatibilità sul sito del produttore della scheda madre, che
deve aver rilasciato un BIOS adeguato). Non è possibile installare vecchie CPU AM2/AM2+ su schede madri
aventi socket AM3, dato che queste schede madri hanno slot per memoria DDR3, non supportata dal memory
controller della vecchia generazione di processori. La forma del socket non permette quest’ultimo accoppiamento,
prevenendo errori da parte degli utenti.
La quantità massima di memoria RAM installabile non dipende dalle caratteristiche della scheda madre ma bensì
del memory controller integrato nella CPU. Da molti anni ormai il supporto si è assestato sul quantitativo di 16GB,
ottenibili installando 4 banchi da 4GB di capacità ciascuno.

- 785G: Chip con video integrato molto diffuso, evoluzione del precedente AMD 780G, dedicato a schede madri
socket AM3 e con southbridge SB750, che fornisce il supporto alle configurazioni RAID 5, oltre ai consueti
livelli 0, 1, e 10. Le sei connessioni SATA sono di generazione 2 (3Gbit/s).
E' presente il supporto all'advanced clock calibration, che consente migliore stabilità dei voltaggi in overclock.
Il video integrato ATI HD4250 (RV620) ha prestazioni simili a quelle del precedente 780G, mentre migliora la
decodifica dei flussi multimediali mediante UVD2 ed è introdotto il supporto alle DirectX 10.1.
Il controller PCI-e del northbridge, di generazione 2.0, fornisce 16 linee e consente di installare due schede
video supportando configurazioni ATI Crossfire fornendo ad ognuna una connessione a otto linee elettriche.
- 770: E’ stato il chipset di fascia medio - bassa dedicato a processori socket AM2+, in grado di supportare due
bus PCI-express 2 16x e configurazioni Crossfire. Il southbridge è l’ormai superato sb700 con supporto a RAID
0, 1 e 10. Le schede madri equipaggiate con questo chipset non sono ormai consigliabili.
- 790: Chipset di fascia alta di precedente generazione per le CPU AMD: un prodotto molto versatile che si
distingue per migliori attitudini in overclock e la possibilità di sfruttare configurazioni CrossfireX a più di due
schede video. Il southbridge è il più moderno SB750, che offre supporto alle modalità RAID 0, RAID 1 e RAID
5, nonché RAID composti, e migliori prestazioni in overclock (del processore) grazie al supporto all’advanced
clock calibration. E' stato tuttavia sostituito dal nuovo 890, dotato di nuovo southbridge con supporto alle
connessioni SATA 3 a 6Gbit/s.
Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com
Il chipset 790GX integra un chip video ATI HD4200 che lavora alla frequenza di 700MHz, ed un totale di 16
linee PCI-express 2.0 con possibilità di suddivisione in due linee 8x al fine di supportare due schede video in
modalità Crossfire.
Il chipset 790FX è invece sprovvisto di video integrato e fornisce 32 linee PCI-express 16x, al fine di dare pieno
supporto alle tecnologie Crossfire e CrossfireX (fino a due schede con piena banda 16x elettrica, e fino a 4
schede video con banda ridotta ad 8 linee).
- 880G: chipset AMD di nuova generazione avente video integrato ATI HD4250 (RV620) operante a 560MHz di
frequenza e con supporto a dx10.1. Rispetto ai chipset 785G porta un miglioramento nella gestione delle
configurazioni Hybrid Crossfire, nella quale vengono usati in Crossfire schede video di fascia bassa ed il chip
integrato, con la possibilità di disattivare la scheda video qualora non siano richieste elevate prestazioni. Il
northbridge è inoltre prodotto a 55nm anziché 65nm.
Rispetto alla generazione precedente i chipset della serie 8 introducono il nuovo southbridge SB850, con
supporto alle connessioni SATA 3 (6Gb/s). Sono inoltre disponibili 14 linee USB 2 e 22 linee PCI-e.
- 870: chipset di fascia entry level per configurazioni AMD di caratteristiche analoghe a 880G, ma sprovvisto del
video integrato. Essendo destinato per lo più a macchine di fascia bassa è in genere preferibile una scheda madre
provvista del chip video.
- 890: chipset di fascia alta di nuova generazione disponibile in due versioni: 890G, avente video integrato (AMD
HD4290 a 700MHz) e 890FX, sprovvisto di video integrato.
Il northbridge è analogo a quello già presente in 790FX, sebbene per quanto riguarda la versione con video
integrato 890GX, sussistano lievi differenze che riguardano il supporto all'Hybrid Crossfire e a livello di
processo produttivo, che è a 55nm anziché 65nm.
La differenza con il chipset precedente è invece presente nel southbridge, che è di nuova generazione SB850,
con 6 porte SATA 3, 14 USB 2.
Le linee PCI-express sono 22 nei chipset 890G, e salgono a 42 per la versione 890FX, al fine di dare supporto
alle configurazioni CrossfireX con fino a 4 schede video.
Sebbene si tratti di una proposta di fascia alta il chipset 890 è presente anche su schede madri dal costo
contenuto, attorno ai 100 euro, rendendo nella maggior parte dei casi sconveniente l'acquisto di schede madri
870.

Schede madri per sistemi AMD


Le schede madri AM2+ sono tutte compatibili non solo con le CPU Athlon 64X2 (socket AM2), Phenom e Phenom
II AM2+, ma anche con le CPU Phenom II e Athlon II basate su socket AM3. Ricordiamo come il socket AM2+
sia meccanicamente identico ad AM2, mentre il socket AM3 differisce marginalmente dai primi due; le CPU
socket AM3 ma siano dotate di un memory controller compatibile con memoria DDR2 e DDR3 e sono installabili
su schede madri socket AM2 ed AM2+, previo aggiornamento del BIOS (se disponibile). Le CPU socket
AM2/AM2+ non sono invece compatibili con le schede madri socket AM3 a causa della mancanza del supporto
alla memoria DDR3 prevista in queste schede madri. Una lieve differenza di forma del socket non permette
accoppiamenti incompatibili.
Gli slot PCI-e dedicati alla/e schede video sono tutti in versione 2.0.
Il RAID, in modalità 0 ed 1, è supportato su tutte le schede.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Gigabyte GA-890GPA-UD3H: scheda madre ATX di nuova generazione con chipset AMD 890GX con video
integrato e 128MB di DDR3 sideport, che consente di incrementare le prestazioni del chip grafico integrato. Le
prestazioni non si discostano molto dalle precedenti schede con chipset 785G dotate di sideport, ed il prezzo è in
media più elevato. Il nuovo chipset è comunque vantaggioso dal punto di vista della connettività (SATA 3), e la
scheda madre integra un chip NEC che fornisce due connessioni USB 3.
Sono possibili configurazioni a più schede video, ma non con piena banda passante.
So tratta nel complesso di una scheda madre di fascia medio – alta, dotata del chip con video integrato di fascia più
elevata. La nuova fascia media è infatti composta da schede madri con chip 880G. Offre dunque una buona
dotazione accessoria, una buona connettività e buone prestazioni in overclock.
Gigabyte GA-890XA-UD3: Scheda madre entry level di nuova generazione. A causa della penuria di chipset
AMD 890, in seguito ad una domanda superiore alle capacità produttive al lancio, il chipset di questa scheda madre
è stato ottenuto unendo un northbridge AMD 790FX ad un southbridge di nuova generazione SB800. In particolare
il northbridge di vecchia generazione non differisce sostanzialmente dai nuovi AMD 890FX, ed è dunque stato
riutilizzato senza particolari penalizzazioni. La principale differenza è infatti costituita dal processo produttivo, a
65nm per la vecchia generazione, e a 55nm per la nuova. La differenza influisce marginalmente sul consumo del
northbridge che è comunque una parte trascurabile del consumo di un computer. Il chipset di nuova generazione
invece si distingue dal vecchio per il southbridge che implementa il supporto alle porte SATA di generazione 3.0,
per cui le maggiori features del nuovo chipset sono comunque implementate in questa scheda madre.
Nel complesso la scheda madre è molto economica e consente comunque buoni risultati in overclock, limitati più
che altro dallo scarso sviluppo dei dissipatori di calore della circuiteria di alimentazione della CPU.
E' preferibile invece rispetto ad una scheda madre con chipset AMD 870 per la presenza di due connettori PCI-
express entrambi con piena banda (16x gen 2.0).
Gigabyte GA-890FXA-UD5: Scheda madre socket AM3 di fascia alta, dedicata ai processori Athlon II e Phenom
II fino a sei core. Le caratteristiche dei dissipatori e della circuiteria di alimentazione consentono overclock molto
elevati. E’ possibile connettere fino a 4 schede video, che in questo caso riceverebbero la banda dimezzata di 8
linee elettriche.
La connettività include porte SATA 3 (6Gb/s) connesse al southbridge, porte USB 3, doppio chip Gigabit Ethernet.
Asus M4A89TD PRO: Scheda madre di fascia media con chipset AMD 890FX, che offre buone caratteristiche
generali e dotazione accessoria.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


SCELTA DELLA CPU PER UNA WORKSTATION MONO-PROCESSORE
Si tratta indubbiamente di una componente sulla quale non lesinare: è il processore a svolgere i processi di
rendering, conversione ed esportazione di tracce multimediali, applicazione di filtri nei software di grafica 2D, fatte
salve implementazioni di algoritmi che sfruttano le schede video che sempre più si stanno diffondendo in questi
ambiti. Ad ogni modo anche in queste implementazioni è possibile una partecipazione da parte della CPU allo
svolgimento dell'elaborazione, per l'esecuzione di processi non eseguibili sulla GPU, o in parallelo ad essa.
In tutte le applicazioni adatte a sfruttare un elevato numero di core, a parità di architettura, è in genere preferibile
un processore avente più core, rispetto ad uno dotato di un numero di core più basso, ma operanti a maggiore
frequenza.
La scelta del processore dipende dunque dal tipo di software utilizzato, nonché dai prezzi di acquisto e dalle
possibilità di upgrade offerte dalle diverse soluzioni. Ovviamente deve essere valutata l’importanza del singolo
software a seconda delle prestazioni richieste, nella scelta del processore.
Attualmente la condizione del mercato è tale per cui difficilmente è conveniente acquistare una CPU con costo
superiore ai 200-250 euro. Con il ritiro dal mercato delle schede madri socket 1155, nella fascia dei 200 euro
rimangono convenienti le CPU AMD Phenom II X6 1100T, scese ad un prezzo di poco inferiore ai 200 euro, ed i
Phenom II X6 1090T, disponibili a circa 160 euro. A causa del prezzo simile a questi ultimi non sono convenienti
al momento i 1075T, mentre per workstation di fascia più bassa è possibile acquistare un 1055T, disponibile a circa
140 euro.
Nella stessa fascia di prezzo intel propone prodotti decisamente differenti tra loro: Ad un prezzo di 250 euro circa
si ritrova il core i7 950, basato su scheda madre socket 1366; ad un prezzo inferiore ai 180 euro si trovano invece i
core i5 760, processori quad core sprovvisti di hyper threading, generalmente molto inferiori alle CPU AMD a sei
core di pari costo.
A vantaggio delle CPU core i7 950 le prestazioni nei software che non usano tutti i core, dato che ogni core
bloomfield risulta più potente di un core Thuban. Vale inoltre la pena di ricordare come le schede madri socket
1366 dispongano di sei slot per la memoria RAM, contro i quattro consuetamente disponibili.
A vantaggio dei processori AMD il costo inferiore a parità di prestazioni in multi threading, il costo inferiore della
scheda madre, la possibilità di raggiungere prestazioni superiori con le CPU di fascia più alta. Infine il minor
consumo rispetto ai sistemi core i7 bloomfield.
Entrambe le piattaforme consentono di installare più di una scheda video, fornendo ad ogni PCI-express la piena
banda. I sistemi intel socket 1155 (Sandy Bridge) e 1156 (Lynnfield) non offrono questa possibilità. Vedremo
essere questo un fattore importante nel determinare la velocità di caricamento per l'elaborazione di un render su
scheda video.
Per workstation di fascia medio - bassa o per le quali non è richiesta un’elevata potenza alla CPU, sono consigliate
le CPU Phenom II X4.
Per una workstation mono-processore molto potente è possibile utilizzare il Core i7 980x, sebbene sia questa una
CPU estremamente costosa. La sola differenza di prezzo tra questa CPU ed una CPU tra quelle precedentemente
menzionate consente l'assemblaggio di rendernode dotato di Phenom II X6, soluzione che garantisce certamente
prestazioni superiori.
Processori a due core non sono ormai preferibili almeno per un computer dedicato alla grafica 3D mentre possono
essere ancora validi se destinati ad un impiego CAD e per grafica 2D e sicuramente all’altezza delle moli di lavoro
tipiche di computer general purpose dedicati alla navigazione, ai software d’ufficio, ed adibiti a server. Anche in
questa fascia ribadisco la preferenza verso le CPU AMD; a favore di queste CPU giocano le possibilità di upgrade
(l'alternativa piattaforma core 2 risulta ormai molto superata), il costo molto ridotto non solo della CPU ma anche
della scheda madre, la possibilità di fruire del video integrato, e le prestazioni del dissipatore venduto in boundle,
che a differenza di quello Intel non deve essere necessariamente sostituito con un prodotto di migliori prestazioni.

PROCESSORI INTEL XEON 5500 E 5600


Sono CPU aventi core Bloomfield e Gulftown rispettivamente, le prime quad core, le seconde a quattro e sei core,
dotate di Hyper Threading e destinate ad essere installate in numero di due su schede madri adatte.
A parità di frequenza le prestazioni eguagliano dunque quelle delle corrispondenti CPU Core i7 Bloomfield e
Gulftown. Per questo motivo non è consigliabile installare un'unica CPU Intel Xeon in luogo di un più comune core
i7, anche se sono disponibili modelli X3500 ed X3600 espressamente dedicati all’uso su schede madri a singolo
processore. Si tratta, insomma, di CPU core i7 dal nome cambiato.
Gli Xeon sono processori dal costo unitario molto elevato e per questo un loro acquisto è giustificato solo nel caso
in cui si necessiti di molta potenza. Il costo inoltre cresce sensibilmente passando dai modelli più lenti ai modelli
più veloci. Il consumo sembra essere leggermente inferiore a quello dei core i7 di pari frequenza anche se è difficile
fare un confronto diretto tanto in quanto le piattaforme sono differenti e Intel definisce in modo diverso il TDP
passando dai processori desktop ai processori Server/Workstation.
Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com
Oltre al costo elevato dei processori si deve considerare il costo della scheda madre che si aggira per una
workstation bi-processore sui 350-450 euro, ed il costo della RAM, che deve essere DDR3 ECC. I moduli
disponibili sono in genere ECC registered con un costo di oltre 100 euro ogni 4GB. È conveniente l’acquisto di
banchi da 4GB di RAM per massimizzare l’espandibilità del sistema. Sarà necessario d'altra parte installare almeno
4 banchi: due banchi per ogni CPU, in modo che ogni processore possa usufruire almeno di un bus dual channel
verso la memoria ad esso destinata. La memoria installata dovrà essere ripartita in modo eguale tra i due processori,
in modo che ognuno possa accedervi senza transitare attraverso il QPI ed il memory controller dell’altra CPU. Non
sono dunque consigliabili configurazioni con soli tre banchi di memoria. Dedicare tre banchi ad ogni processore
consente lo sfruttamento della massima ampiezza di banda disponibile (triple channel) ma in generale non apporta
benefici tangibili rispetto ad una configurazione dual channel.
Le CPU consigliate sono i modelli E5620 da 2,40GHz (380 euro a pezzo circa).. Le versioni inferiori sono
sprovviste di Hyper Threading e risultano dunque facilmente superabili da una configurazione Core i7 di buona
frequenza, mentre le versioni superiori sono adatte solo a sistemi dove è richiesta una grande concentrazione di
potenza a causa dell’elevato prezzo d’acquisto. Le versioni E5630 a 2,53GHz vengono infatti a costare fra i 500 e i
600 euro.
Si intuisce come nella maggior parte dei casi sia conveniente una macchina dotata di core i7 eventualmente
overcloccato o una piccola renderfarm.
Ricordo infine come le CPU Xeon non siano in genere overcloccabili, se non adoperando schede madri molto
costose e destinate al segmento ultra - enthusiast di appassionati e videogiocatori.

LA MEMORIA RAM
E’ costituita da banchi di memoria a stato solido ed è destinata a contenere i processi ed i file aperti.
Qualsiasi tipo di memoria si caratterizza, oltre che per la dimensione, per la sua frequenza di lavoro e per la sua
latenza.
Le memorie di tipo DDR (double data rate) in uso attualmente, permettono di sfruttare per la comunicazione sia il
fronte di salita che quello di discesa del segnale sinusoidale, di fatto, raddoppiando le frequenze di lavoro rispetto
al clock. Dunque una RAM DDR con clock di 400MHz, avrà frequenza di 800MHz.
La latenza si definisce approssimativamente come il numero di cicli di clock che intercorrono fra due operazioni di
lettura/scrittura successive sulla RAM.
Si deve sempre tenere presente che gli aumenti di prestazioni legati alle memorie RAM sono in ogni caso modesti e
stimabili in pochi punti percentuali. Sarà dunque sempre più conveniente investire in una CPU più potente che non
in una RAM veloce, al fine di aumentare le prestazioni di un computer.
I sistemi attuali a singola CPU richiedono quasi senza eccezioni memoria DDR3, che è oggi anche la più
conveniente dal punto di vista dei costi.
La memoria DDR3 offre consumi più contenuti rispetto alle precedenti DDR2. Ciò non ha praticamente alcuna
ripercussione sui consumi complessivi del computer; si deve però considerare che il banco di memoria stesso
dissiperà una quantità di calore inferiore, e dunque sarà meglio raffreddato. La memoria RAM infatti, nello
standard ATX delle schede madri attualmente in uso, è posta in una posizione in cui difficilmente viene raffreddata
adeguatamente. Come risultato il banco di RAM non si raffredda e lavora a temperature elevatissime, tali da
causarne il danneggiamento nel giro di poco tempo. Molte memorie sono soggette a guasti dopo uno o due anni di
utilizzo a seguito del funzionamento a temperature eccessive. E’ dunque sempre bene prevedere una ventola a
raffreddare la RAM installata.
Solo l'aggiornamento di vecchi sistemi con schede madri socket 775 o AM2 o AM2+ (che possono comunque
ancora accogliere CPU molto potenti, come i Phenom II X6, se è stato fornito l'adeguato aggiornamento del BIOS)
richiede ancora di acquistare memoria DDR2, che ha un prezzo in salita per via del calo della produzione.
Converrà, volendo aumentare la dotazione, affrettarsi.

Dual/triple channel
Un bus dal memory controller, di qualunque tipo esso sia, verso la memoria RAM ha ampiezza di 64bit. A partire
dallo standard DDR, al fine di aumentare la banda passante verso la memoria fu presa la via di raddoppiare i canali
pilotati dal memory controller. Ne deriva un’architettura nella quale ad ogni canale risulta fare capo un certo
quantitativo di memoria e, nell’accedere alla RAM, il controller suddivide equamente le operazioni da svolgere sui
due canali. Il bus risultante ha dunque un’ampiezza di 128bit e prende il nome di bus dual channel. Affinché ciò sia
possibile bisogna che ogni canale faccia capo a memoria avente le stesse identiche caratteristiche. Per questo
motivo i banchi di memoria che si installano su di un sistema in cui il memory controller è dual channel, devono
essere in numero pari ed a due a due identici.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Le CPU Intel core i7 Bloomfield hanno integrato per la prima volta un controller di tipo triple channel; ciò porta ad
avere un bus della considerevole ampiezza di 192 bit, eliminando così ogni rallentamento possibile nell’accesso
alla memoria da parte del processore. In realtà possiamo affermare in via del tutto generale come il bus dual
channel sia in genere più che sufficiente ed il triple channel comporti un miglioramento solo in casi molto
particolari. Ciò è confermato dal confronto delle prestazioni dei processori Core i7 930 e 860, aventi stessa
architettura, ma memory controller differente: le CPU Bloomfield hanno infatti controller a tre canali, mentre
Lynnfield ha un classico controller a due canali.
Al fine di sfruttare i tre canali a disposizione per la memoria, su sistemi dotati di CPU Core i7
Bloomfield/Gulftown si dovranno installare banchi a tre a tre uguali.
Memory controller di tipo quad channel sono invece utilizzati nelle attuali CPU AMD Opteron Magny-Cours,
ottenute unendo in un unico package due CPU Opteron Lisbon, che integrano ognuna un controller dual channel. In
passato memory controller quad channel erano utilizzati da Intel sui chipset dedicati alle CPU Xeon X53x0 ed
X54x0.
Praticamente ogni produttore propone kit costituiti da due o tre banchi di RAM garantiti per il funzionamento in
dual (o triple) channel.

Memoria RAM per processori Intel Core i7 Bloomfield e Gulftown


Il controller di memoria integrato è del tipo DDR3. La scelta della tipologia di memoria è dunque obbligata.
Il memory controller delle CPU core i7 è di tipo triple channel. Questo è ovviamente un fattore positivo sebbene gli
incrementi di prestazioni rispetto ad un comune dual channel siano in realtà visibili solo in applicazioni che fanno
un uso intenso della RAM. Non noteremo praticamente alcuna differenza passando da una memoria entry - level
qual è una 1333MHz c9 ad una, apparentemente ben più veloce, 1600MHz c7. Converrà dunque investire in altro.
Anche l’overclock delle CPU core i7 non richiede RAM più veloci di una comunissima 1333MHz; impostando il
moltiplicatore minimo a disposizione nel BIOS di una scheda madre per CPU core i7, generalmente pari a 6, sarà
possibile raggiungere il clock di 1333MHz/6 = 222MHz. Considerando che il clock nominale dei core i7 è pari a
133MHz si capisce come un simile clock sia già elevatissimo e sostanzialmente fuori portata per una CPU da usare
tutti i giorni.
Non si dovrà invece dimenticare che le specifiche Intel suggeriscono caldamente di non superare, con la tensione di
alimentazione della memoria, la soglia di 1,65v, pena il possibile danneggiamento del memory controller. Tutti i kit
triple channel in commercio hanno tensioni di alimentazione da specifica comprese fra 1,5v (standard per le DDR3)
e 1,65v. Se invece si opta per un kit DDR3 dual channel, questo potrebbe essere un vecchio prodotto nato per CPU
Phenom II o core 2; in tal caso è possibile che il banco sia certificato per funzionare, alle frequenze e latenze di
specifica, con tensioni di 1,8 volt.

Memoria RAM per sistemi con controller dual channel: Intel Core i7 e Core i5 Lynnfield, AMD AM3
Il memory controller dual channel e supporta memoria di tipo DDR3, sebbene i processori AMD funzionino anche
su schede madri AM2+ con memoria DDR2. Il kit da scegliere dovrà di conseguenza essere di questo tipo: due o
quattro banchi di DDR3. Valgono grosso modo le stesse indicazioni viste per core i7 Bloomfield: non è necessaria
una RAM molto veloce, anche se il bus ha ampiezza minore e in caso si lavori spesso nel campo del video editing o
del compositing potrebbe essere vantaggioso usare memoria più veloce.
Anche per le CPU Lynnfield è necessario assicurarsi che la tensione di alimentazione prevista sia al più di 1,65
volt. Le memorie indicate sono in banchi da 2Gb o meglio 4GB con una frequenza di 1333MHz o 1600MHz e
latenza da 7 a 9 a seconda del costo. Vale anche qui la regola di non investire troppi soldi in RAM più veloci. E’
sempre conveniente puntare sulla CPU nella ricerca di prestazioni più elevate.

Scelta della memoria e sua dimensione


Per quanto riguarda i prodotti, ci sono molte marche buone, io mi sento di consigliare sempre, per l’ottima
affidabilità e qualità, G-skill (fra le RAM più performanti, soprattutto in overclock), Corsair, Patriot (con prodotti
di assoluta affidabilità), A-data, Team Group, Kingston, Mushkins per la buona qualità in relazione al prezzo
contenuto; si tratta sempre di materiale affidabile.
La scelta del produttore per la RAM dovrebbe per quanto possibile tenere conto della possibilità, nel caso se ne
preveda la necessità, in futuro di trovare un altro kit di banchi uguali, in questo modo si ha la massima certezza di
non incorrere in problemi di incompatibilità e dunque di instabilità del sistema. Questa eventualità, ad ogni modo,
soprattutto nei sistemi desktop, è molto remota.
Un maggiore quantitativo di RAM permette di mantenere in memoria centrale più file e più pesanti, senza che il
sistema debba ricorrere agli hard disk per salvare questi dati da elaborare. Ricordiamo che l’hard disk è qualche
migliaio di volte più lento della RAM. Per questo motivo nel momento in cui la RAM si esaurisce e il sistema

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


ricorre alla memoria virtuale l’utilizzo del processore cade a livelli minimi: pochi punti percentuali: il sistema non
riesce a reperire in tempo utile i dati da inviare al processore.
Non è assolutamente detto che la memoria venga usata tutta non appena si lancia un task apparentemente pesante: il
sistema userà tutta la RAM necessaria, non un bit di più. E questo spiega anche come mai non sempre è lecito
attendersi dei miglioramenti delle prestazioni passando ad un quantitativo di RAM maggiore.
Suggerisco una dimensione minima di 4Gb; una dotazione di 8GB per una workstation è comunque fortemente
consigliata, considerati anche i prezzi attuali della memoria DDR3. In questo caso sarà bene usare banchi da 4GB
per non limitare l'espandibilità futura del sistema.
Su piattaforma Bloomfield/Gulftown è consigliabile un kit da 8Gb ripartiti in due banchi da 4GB, o meglio un kit
da 12GB in tre banchi da 4GB.
Ricordiamo come per le CPU AMD sia possibile ricorrere a memoria di tipo ECC (che nel caso di banchi di grandi
dimensioni ha un costo a volte inferiore), mentre le CPU Intel Bloomfield e Lynnfield non supportano memoria a
controllo d’errore.
Il prodotto ad oggi spesso più equilibrato per prezzo e qualità è il classico Corsair XMS3 1333MHz o 1600MHz c9,
disponibile in banchi da 2GB e 4GB.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


LA SCHEDA VIDEO
La scheda video è uno dei componenti più discussi all'interno di una workstation grafica e spesso uno dei più
importanti.
Scegliere correttamente una scheda video per una workstation richiede di selezionare la tipologia di prodotto più
adatta fra schede professionali, caratterizzate da costi elevati ed ottimizzazioni per il software professionale che
consentono di utilizzare un hardware spesso modesto, e schede video tradizionali, destinate a personal computer e
la cui fascia più alta si indirizza più che altro ad un pubblico di videogiocatori. Caratteristiche di queste schede
sono le elevate potenze a disposizione ad un basso costo.
In secondo luogo diviene necessario selezionare il produttore della GPU (attualmente ATI e NVIDIA si spartiscono
praticamente l'interezza del mercato delle VGA discrete), e la potenza della GPU. Contrariamente a quanto si tende
a pensare è in sostanza il processore grafico a determinare le prestazioni della scheda grafica nell'ambito dei
software professionali; quantità e tipologia della memoria installati sono generalmente variabili secondarie.
La funzione più tradizionale della scheda video di una workstation è quello di generare l'immagine a video ed
eventualmente gestire il modello tridimensionale in viewport. Sarà ovviamente questo secondo caso, che si riferisce
all'utilizzo di software di grafica tridimensionale, a richiedere alla scheda video elevate prestazioni.
A questo ruolo tradizionale si sta poi sovrapponendo una seconda funzione: le GPU offrono infatti potenze di
elaborazione estremamente elevate, che possono essere sfruttate nell’esecuzione di processi pesantemente
parallelizzabili. Questo secondo utilizzo della VGA prende il nome di GPU computing e costituisce un
elaborazione di tipo general purpose GPU (GP-GPU) e sebbene sia oggi agli albori è destinato a cambiare
l'architettura delle workstation e dei loro stessi componenti.
A causa delle differenti specifiche richieste ad una scheda video da impiegare nei due ruoli sopra citati, output
grafico ed elaborazione GP-GPU, la scelta della scheda video sarà fin dall'inizio suddivisa in due capitoli differenti.
Spesse volte, tra l'altro, si preferirà impiegare schede video differenti nei due ruoli, installando più di una scheda.

OUTPUT GRAFICO 3D
Saranno qui trattate le caratteristiche tecniche di rilievo e la loro importanza nella scelta di una scheda video che
sarà dedicata alla gestione di una viewport tridimensionale.

Hardware installato e prestazioni del software professionale


Faccio subito un appunto sulla dipendenza delle prestazioni in viewport dalla potenza della scheda video installata:
a parità di architettura ci si potrebbe aspettare che ad un aumento delle prestazioni della scheda video corrisponda
un proporzionale aumento delle prestazioni in viewport, al pari di quanto vediamo nei test sulle schede grafiche
proposti nella maggior parte delle testate giornalistiche e basati su videogiochi.
Purtroppo questa cosa non è vera in generale prendendo in considerazione un software di grafica tridimensionale.
Prima di tutto si deve considerare l'impatto dei driver, delle loro ottimizzazioni, ed eventuali penalizzazioni, per
quanto riguarda le schede video tradizionali Geforce e Radeon.
Non è dunque sempre lecito considerare validi i risultati delle recensioni su schede video gaming, eseguiti con
giochi, nel confrontare due schede video da destinare all'uso professionale.
Non sono validi nemmeno i confronti eseguiti sulla base di software professionali diversi da quello che si andrà ad
utilizzare.
Può infatti accadere che GPU che sono risultate meno potenti nei test con videogiochi risultino migliori di altre
quando usate in software professionali. Può accadere anche che il confronto tra due schede video sia fortemente a
favore di una in uno specifico software, e sia invece a favore dell'altra quando le si confronta su di un software
diverso. Soprattutto quando si considerano schede video professionali è necessario, per valutarne le prestazioni, un
test specifico, eseguito sul software che si intenda usare, e con queste stesse schede.
Variazioni sostanziali delle prestazioni delle schede possono essere dovute a specifiche penalizzazioni che NVIDIA
ed ATI introducono nei driver delle schede video gaming, in modo da avvantaggiare i loro prodotti di fascia
professionale. Interventi simili si possono trovare anche direttamente nel singolo software.
Per quanto riguarda le schede video professionali è molto importante il lavoro di ottimizzazione dei driver svolto
dal produttore, che può aumentare significativamente le prestazioni di una scheda video.
Gli stessi risultati con benchmark basati su software professionali (SPECviewperf, ad esempio) possono spesso
trarre in inganno.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


La memoria video
Spesso si valutano le prestazioni di una scheda video a partire dalla dimensione della memoria RAM di cui essa
dispone. Un approccio di questo tipo è sbagliato e risponde al segnale che purtroppo negli anni il marketing ha
cercato di diffondere. Spesso si vedono in vendita computer dotati di schede video dalle infime prestazioni ma
equipaggiate con quantitativi di memoria spropositati, e che mai saranno in grado di utilizzare. A volte poi si sfrutta
la possibilità di utilizzare memoria RAM centrale per espandere a quantitativi assurdamente elevati la RAM
teoricamente a disposizione della scheda video. Si vedono così ATI hd4350 con 1GB di memoria dedicata e fino a
3GB utilizzabili ricorrendo alla RAM condivisa.
Essendo la quantità di RAM l’unico dato divulgato su queste VGA si è diffusa l’idea che questo sia il fattore
importante.
Il consiglio è dunque quello di non lasciarsi attrarre da versioni costum di schede video, più costose dell’originale,
che offrono il raddoppio della RAM quale unica differenza. Nella fascia bassa in particolare non avrà alcuna
importanza la dimensione della RAM; ormai tutte le schede in questa fascia offrono 256MB o anche 512MB di
memoria.
In particolare nella gestione di una viewport tridimensionale la memoria video ha un importanza limitatissima, dato
che in genere non sono presenti texture da applicare e nessun’altro tipo di mappatura.

Configurazioni multi - GPU ATI Crossfire e NVIDIA SLI


Per quanto riguarda le configurazioni a GPU multiple, ATI Crossfire e NVIDIA SLI (scalable link interface)
dobbiamo ricordare come attualmente i software di grafica non siano ottimizzati per farne uso. Una simile
tecnologia deve infatti essere supportata non solo dal driver del produttore, ma anche direttamente dal software 3D
al fine di essere efficace.
Crossfire e SLI funzionano in un modo praticamente uguale: le due schede video sono installate su due slot PCI-
express gestiti da un controller abilitato a supportare l'una o l'altra tipologia di interfaccia. Le schede video devono
inoltre essere interconnesse tramite un apposito bridge. Un'unica scheda video raccoglierà i frame elaborati da
entrambe le GPU e li invierà al monitor.
L'elaborazione dell'immagine è tale per cui vengono alternati frame elaborati dall'una e dall'altra scheda video. Una
scheda elabora un frame e l'altra il suo successivo. Questo approccio al multi-GPU è noto come Alternate Frame
Rendering (AFR).
Ovviamente si capisce subito come SLI e Crossfire siano due soluzioni che permettono di aumentare il frame rate
del sistema video, ma non abbiano nulla a che fare con la ripartizione sulle schede video di un elaborazione GP-
GPU. In quest'ultimo caso infatti, lo shader core della GPU sarà impiegato per l'elaborazione di una serie di dati
precaricati nella relativa RAM, e l'output non avrà nulla a che vedere con il tradizionale path flow per cui è previsto
il chip ed il resto dei componenti di una VGA, i quali non saranno minimamente utilizzati durante l'elaborazione.
Al momento ATI ha iniziato la pubblicizzazione di un nuovo standard Crossfire dedicato al settore professionale.
Questa scelta è ovviamente figlia delle politiche ATI, che prevedono lo sviluppo di chip di piccole dimensioni e
con potenze elaborative elevate rapportate all’area della GPU, ottenendo da queste schede di fascia performance Le
schede di fascia più elevata in assoluto sono ottenute mediante l’utilizzo di più GPU su singola scheda.
Per quanto riguarda il supporto da parte dei controller PCI-express, volendo configurare una macchina con più
schede video è bene dotarsi di una scheda madre con chipset che possa fornire la banda piena ad ogni scheda video.
Esistono a questo criterio delle eccezioni: in primo luogo il chip NVIDIA nforce 200, che consente di connettere
tramite bus PCI-express 16x due schede video (sia ATI che NVIDIA), e si connette sempre via bus PCI-express (in
genere si usano tutte le 16 linee) al controller. In sostanza il chip nforce 200 gestisce il traffico fra le due schede
video evitando che questo debba raggiungere il controller e riducendo dunque il numero di linee necessarie in
direzione del controller rispetto alle 32 complessive iniziali. Il chip permette anche di collegare quattro schede
video con bus 8x ciascuna.
Un chip simile, Hydra è prodotto da una ditta esterna ad ATI ed NVIDIA di nome Lucid, consente di collegare e
far collaborare schede video ATI e NVIDIA nello stesso sistema. L’installazione di driver di due VGA di
produttori diversi è consentita da Windows Seven. Una configurazione mista di questo tipo è comunque fin troppo
onerosa dal punto di vista del supporto software, perché al momento attuale sia effettivamente pensabile di
sfruttarla in una workstation. Nello stesso settore videoludico, dove lo sviluppo dei software adatti ad usare più
schede video (dello stesso produttore) è stato molto più intenso, queste configurazioni mostrano ancora risultati
molto controversi.
Nulla vieta, comunque, di installare sullo stesso sistema schede video differenti (anche per produttore) dedicate a
compiti diversi. In questo caso non sarà ovviamente necessario il supporto da parte di un chip di questo tipo, come
non entrano in gioco SLI e Crossfire, che anzi saranno in genere lasciati disabilitati anche se disponibili.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


SCHEDE GRAFICHE PROFESSIONALI
Sia NVIDIA che ATI offrono una linea di prodotti particolare destinata prevalentemente alle workstation grafiche:
si tratta delle schede video NVIDIA Quadro e ATI FirePro (precedentemente note con il nome di FireGL),
caratterizzate da prezzi sensibilmente più elevati di quelli delle schede video comuni.
Ovviamente l'hardware di cui dispongono non differisce sostanzialmente da quello di altre schede video
corrispondenti destinate al mercato tradizionale e gaming. Spesso anzi, è possibile individuare un'autentica identità
fra un prodotto professionale ed un prodotto gaming.
Prodotti di questo tipo si distinguono invece per i driver forniti, che contengono ottimizzazioni importanti, volte a
migliorare sia le prestazioni che la compatibilità con i software professionali. Il supporto tecnico ed eventualmente
la dotazione accessoria (porte, adattatori), forniscono un ulteriore elemento di distinzione tra queste schede e le
corrispondenti schede video gaming.
In particolare il software si distingue per l'adozione di un engine OpenGL proprietario, che sostituisce quello
offerto da Windows, garantendo prestazioni superiori, e per una serie di ottimizzazioni specifiche per i vari
software di grafica 3D disponibili. In particolare nei software programmati in OpenGL quindi le prestazioni di una
scheda video professionale si distinguono in modo molto marcato da quelle di una analoga scheda video
tradizionale. Con l'avvento di Windows Vista e Windows 7, comunque, nei quali il supporto nativo alle openGL è
stato ulteriormente ridotto, la maggior parte dei software 3D professionali è stata riprogrammata per usare le
librerie directx, in modo da continuare a garantire una certa compatibilità con le schede video Geforce e Radeon,
utilizzate da moltissimi utenti. Ciò ha ridotto in molti software il divario di prestazioni che esisteva
precedentemente rispettivamente tra Quadro e Geforce e tra FirePro e Radeon.
Sono infine disponibili per alcuni software molto diffusi (in pratica AutoCAD e 3DS Max), driver specifici
appositamente sviluppati.
Infine una scheda professionale garantisce un buon mantenimento delle prestazioni nel tempo, all'uscita di nuove
versioni del software in uso, al cambio di libreria grafica implementata. La scheda video sarà molto probabilmente
sempre ben supportata da aggiornamenti driver che ne mantengono elevate le prestazioni al rinnovarsi del parco
software.
Per contro si tratta di un prodotto costoso e difficile da rivendere, e che richiede un po' di attenzione in più,
necessitando in alcuni casi dell'installazione di driver specifici e dell'eventuale selezione del software per il quale
ottimizzare il driver dal pannello di controllo del driver stesso.
Vale la regola che l'acquisto di una scheda di fascia superiore è giustificato qualora le sue prestazioni siano
effettivamente necessarie. Se il prodotto di fascia inferiore fosse sufficiente a far fronte al proprio lavoro la
differenza di prezzo fra le due schede è eccessivamente elevata per optare per l'acquisto della più costosa, magari
con l'obiettivo di tenerla più a lungo o non essendo certi di quale possano essere le potenzialità di ogni versione.
Molto probabilmente la generazione successiva garantirà le stesse prestazioni ad un prezzo inferiore alla metà di
quello dell'attuale. L'acquisto di una scheda di questo tipo deve quindi essere attentamente ponderato, soprattutto
quando si considerano le schede di fascia più alta, che possono costare dai 1000 ai 3000 euro.
Si deve inoltre considerare che spesso le prestazioni non scalano linearmente con la potenza di elaborazione a
disposizione, per cui la differenza di costo fra due modelli potrebbe non essere ripagata da un adeguato incremento
di prestazioni.
Non sempre una scheda di questo tipo è conveniente. Succede specialmente nella fascia di prezzo relativamente più
bassa (fino ai 200-300 euro circa) che una scheda video gaming dal costo inferiore si comporti ugualmente bene.
Ciò può accadere con software ottimizzati in directx o anche con software openGL, in particolare se si utilizzano
sistemi operativi che offrono una buona gestione di queste librerie: linux e MacOS, per i quali le directx non sono
nemmeno disponibili.
Soprattutto quando si andrà a scegliere una scheda video nella fascia più alta si dovrà necessariamente tener conto
di quelle che sono le ottimizzazioni dello specifico software in uso. Esistono infatti software che prediligono VGA
NVIDIA e software che prediligono VGA ATI.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Schede video NVIDIA Quadro
La line-up attuale prevede schede video quadro 600 nella fascia di prezzo tra i 160 ed i 200 euro, schede video
quadro 2000 nella fascia dei 450-500 euro, quadro 4000 nella fascia degli 800-1000 euro, quadro 5000 e 6000 nella
fascia più elevata.
Le prime due schede sono basate su chip gf108 (96 ALU, impiegato sulle geforce gt430) e gf106 (192 ALU,
impiegato sulle geforce gts450) rispettivamente, e costituiscono un buon salto di qualità rispetto ai prodotti della
fascia precedente: quadro fx-580 (chip g96, prima g84, impiegato su geforce 9500gt e 8600gt rispettivamente), e
quadro fx-1800 (chip g94 a 64 ALU impiegato sulle geforce 9600gt).
Il divario di prestazioni è tale per cui non sarà conveniente l'acquisto di schede video di generazione precedente,
sebbene queste siano ancora sul mercato. Rimangono sul mercato anche le quadro fx-380 (chip g98, prima g86 da
16 ALU, impiegato su geforce 9400gt e 8500gt). Anche queste schede, dalle prestazioni davvero molto basse, non
rappresentano una scelta consigliabile. Sarà bene, piuttosto, dedicare un budget maggiore di quanto inizialmente
previsto alla scheda video, oppure optare per una scheda video Geforce o Radeon.
Le schede video di fascia più alta usano tutte chip gf100, impiegato sulle geforce GTX480, 470 e 465. La quadro
6000 è caratterizzata da una GPU con 448 ALU attive (come per la geforce gtx470, ma con frequenze più basse
rispetto a quest'ultima) e 6GB di memoria RAM GDDR5. La quadro 5000 è caratterizzata da un chip con 352 ALU
attive: le prestazioni di questa GPU, a meno delle importanti differenze che intercorrono tra i driver, sono dunque
paragonabili a quelle di una geforce gtx465.
Infine il chip impiegato nella quadro 4000 ha solo 256 ALU attive, delle 512 presenti. A causa del suo costo molto
elevato, vicino ai mille euro, e delle sue prestazioni praticamente simili a quelle di una quadro 2000 (192 ALU, ma
a frequenza maggiore), nonché dei consumi elevati associati all'uso di un chip come GF100, non la rendono in
genere una scelta consigliabile.
Nella scelta della scheda video Quadro da acquistare si dovrà tenere presente, data l’elevata differenza di prezzo tra
due schede di due fasce diverse, che la scheda più costosa sarà consigliabile solamente se la scheda più economica
non risulterà sufficientemente potente. Tuttavia la scelta, all'interno del listino delle Quadro, si limiterà nella
maggior parte dei casi, alle sole schede quadro 600 e 2000.
La quadro 2000 dovrà essere acquistata solamente qualora le prestazioni della quadro 600 risultino inadeguate.
Schede video di fascia superiore saranno difficilmente consigliabili, potendo scartare le quadro 4000 per quanto già
visto, ed essendo le quadro 5000 e 6000 caratterizzate da prezzi estremamente elevati (a partire da oltre 1500 euro
per una quadro 5000).
Raramente queste schede saranno scelte anche per le loro prestazioni in rendering, dato che, come si vedrà al
capitolo che tratta le elaborazioni GP-GPU, le prestazioni delle quadro di fascia alta sono in genere inferiori a
quelle delle geforce di fascia più elevata, dato ceh intercorrono tra queste tipologie di scheda, oltre che differenze a
livello di Hardware (chip, alu attive) anche differenze nelle frequenze di funzionamento, generalmente più
conservative per le schede video Quadro.

Schede video ATI FirePro


L'attuale generazione, basata su chip della famiglia evergreen (rv870, rv840, rv830) è uscita fra marzo e aprile
2010, e si compone delle seguenti schede:
FirePro v4800 e v3800: chip rv830 a 400 shader, analogo di quello impiegato sulla Radeon HD5670, con
rispettivamente 1GB di GDDR5 e 512MB di GDDR3. Schede video economiche e di buone prestazioni, adatte
all'uso CAD/CAM e alla modellazione 3D in genere. In particolare le due schede differiscono per il quantitativo di
memoria; di conseguenza sarà possibile scegliere la scheda più economica quando la RAM disponibile non
costituisce un limite (nella maggior parte dei casi, dunque). La differenza di prezzo è tuttavia moderata, essendo in
vendita la firepro v3800 ad un prezzo di 120 euro circa, e la v4800 a 150 euro circa.
FirePro v5800: chip rv840 a 800 shader, 1GB di memoria GDDR5 su bus a 128 bit, corrisponde ad una Radeon
HD5770. Scheda video professionale di fascia media, che ben giustifica la differenza di prezzo rispetto alla v4800;
le sue prestazioni la rendono adatta alla maggior parte delle workstation. Le FirePro v4800 e 5800, di conseguenza,
come per le quadro 600 e 2000, coprono le richieste della maggior parte degli utenti, e saranno messe a confronto
per la maggior parte delle configurazioni in cui si prevede di usare una FirePro.
Il prezzo di vendita della v5800 è compreso tra i 350 ed i 400 euro. Come per le corrispondenti quadro 600 e 2000,
anche nella scelta tra FirePro v4800 e v5800 si dovrà valutare bene la differenza di prestazioni e le necessità
dell'utente. Data l'elevata differenza di prezzo, acquistare una scheda video da quasi 400 euro potrebbe non essere
necessario e rivelarsi svantaggioso.
FirePro v7800: chip rv870 a 1440 shader, con 2Gb di memoria GDDR5, corrispondente ad una HD5850. Il prezzo
di questa scheda è fissato attorno ai 700 euro; date le sue prestazioni, in realtà simili a quelle di una v8800, la
v7800 costituisce una buona scheda nella sua fascia di prezzo. Dovrà comunque essere valutata nei confronti

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


dell'offerta NVIDIA. Date le differenze di prestazioni tra le varie schede, che variano da software a software,
potrebbe essere che nell'uso di software ottimizzati per VGA NVIDIA risulti migliore o comunque più vantaggiosa,
grazie al suo prezzo, una Quadro 2000.
FirePro v8800 e 9800: sono dotate di chip rv870 con 1600 shader (usato sulle HD4870), con 2GB e 4GB di
GDDR5 rispettivamente. Il costo elevato e la differenza prestazionale modesta, rispetto ad una FirePro v7800, ne
rendono difficile l'adozione nella maggior parte delle situazioni in cui ci si trovi a scegliere una scheda di fascia
così elevata. Il prezzo delle v8800 è in genere di poco inferiore a quello delle quadro 5000, ma a differenza di
queste è difficilmente reperibile in Italia. Per quanto riguarda le FirePro v9800, il loro prezzo è superiore ai 2500
euro. Nessuna di queste schede sarà dunque generalmente scelta per una workstation grafica.

SCHEDE VIDEO GAMING


Sono schede che raggiungono potenze elevatissime mantenendo un costo contenuto. Sono dunque certamente
utilizzabili in assenza di pesanti penalizzazioni nei confronti delle schede professionali.
Trascurando le line-up complete di ATI ed NVIDIA cito le schede di entrambi ad oggi più importanti.
Saranno tralasciate anche schede video di vecchia generazione sostituite ormai da diversi mesi (GTX260, 275, 285,
GTS250, GT240 e 9800GT), non essendo ormai consigliabili in nessun ambito.
ATI Radeon HD5750 e HD5770: scheda video di fascia media dal costo indicativo di 75 euro e 100 euro
rispettivamente. La HD5770 è preferibile qualora la differenza di prezzo risultasse modesta; le sue prestazioni
infatti non si discostano in genere molto da quelle di una HD5750.
Sono schede video di generazione evergreen, che non sembra saranno sostituite a breve da schede di generazione
HD6000 (northern island).
ATI Radeon HD5850 e HD5870: schede video di fascia alta della generazione Evergreen (uscite a settembre
2009) dell'offerta ATI. Nonostante siano ancora disponibili sono ormai state sostituite dalle ancor più efficienti
HD6850, HD6870, HD6950 e HD6970.
ATI Radeon HD6850 e HD6870: Sono schede di fascia medio - alta: le prime leggermente inferiori alle HD5850,
le seconde leggermente inferiori alle HD5870, ma superiori alle HD5850. Il nome trae dunque in inganno. Se prima
le schede di tipo HDx800 erano, nella nomenclatura ATI, schede video top di gamma a singola GPU, sono ora
schede video di fascia performance, cioè medio-alta. Le loro caratteristiche (prestazioni, prezzo, consumi), ne
fanno schede video estremamente interessanti per un vasto bacino d'utenza. Il prezzo di vendita è di circa 150 euro
per le HD6850, e circa 180 euro per le HD6870, prezzo al quale sono in genere più vantaggiose delle GTX460.
ATI Radeon HD6950 e HD6970: Sono schede video di fascia alta di nuova generazione, presentate a dicembre del
2010. RIspetto alle schede video delle generazioni precedenti, a partire dalle HD2900XT, l'architettura di queste
schede ha subito per la prima volta una variazione importante, essendo passata da uno schema VLIW 5, in cui gli
shader della GPU erano costituiti da 5 ALU operanti in parallelo, ad un'architettura di tipo VLIW 4. Nei chip di
nuova generazione le 4 ALU appartenenti ad un array sono tutte dello stesso tipo, e possono eseguire
contemporaneamente la stessa operazione su 4 dati differenti. Operazioni trascendentali e su dati in doppia
precisione vengono eseguite impiegando le 4 ALU su un singolo dato. Nell'architettura precedente ogni shader era
costituito da 4 ALU di questo tipo più una ALU complessa, che poteva svolgere sia operazioni semplici in parallelo
alle altre 4, sia le operazioni trascendentali, per le quali le altre ALU non erano impiegate.
Il passaggio alla nuova architettura ha consentito un aumento sostianziale del rendimento degli shader. Le nuove
HD5950, caratterizzate da 1408 ALU attive (su 1536 presenti, impiegate sulla HD6970) è infatti sempre più
potente di una HD5870, caratterizzata da 1600 ALU (VLIW 5).
Le HD6950 sono disponibili in versione da 1GB e 2GB di memoria RAM. Nella maggior parte dei casi le
prime,disponibili a 220 euro circa, saranno comunque adatte all'uso, non essendo necessaria molta RAM nella
gestione di una viewport. Le prestazioni di queste schede sono superiori a quelle delle Geforce GTX560 Ti.
Per il loro costo elevato sono invece in genere sconvenienti le HD6970 che, come spesso accade nei software
professionali, non mostrano reali differenze prestazionali rispetto alle sorelle inferiori.
NVIDIA Geforce GTS450: scheda video abbastanza economica, venduta ad un prezzo che parte da poco sotto ai
100 euro. e d’altro canto con prestazioni modeste. Può essere considerata in alternativa alle ATI HD5750 per quelle
applicazioni per le quali è richiesta una scheda video gaming NVIDIA. Risulta in genere preferibile
NVIDIA Geforce GTX460: schede video di fascia medio - alta equipaggiate con il chip NVIDIA GF104, derivato
dal precedente GF100 destinato alla fascia più alta del mercato. Rispetto al controverso progetto GF100, GF104 ha
introdotto una importante semplificazione dell'architettura, nonché ottimizzazione dei rapporti tra le unità
funzionali destinate all'uso quale scheda video. Come risultato le schede video GTX460 raggiungono prestazioni
adeguate garantendo un'efficienza che le sorelle di fascia alta non conoscono, e che si avvicina a quella delle
schede concorrenti. Le schede video GTX460 sono disponibili in tre versioni, che si distinguono per il numero di
ALU attive e per l'ampiezza del bus verso la RAM, e di conseguenza per le dimensioni della memoria. Le schede
Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com
con 768MB di memoria (bus a 192 bit) nell'uso di software professionali non si distinguono realmente dai prodotti
dotati di 1GB di memoria, che mostrano nell'uso generale prestazioni allineate a quelle delle HD6850. Il prezzo
medio di acquisto è di circa 130 euro per le versioni con 768MB di memoria, e di circa 160 euro per quelle con bus
da 256 bit, e 1GB di memoria. Sono disponibili anceh schede con 2GB di RAM, utili per il rendering su GPU.
A queste versioni si aggiungono le GTX460 SE (smart edition), che tendono ad ingannare: la GPU ha infatti
prestazioni inferiori a quelle del GF104 comune, avendo solo 256 ALU attive contro 334. Tale caratteristica,
nell'uso dei videogiochi e compensata (almeno in alcune situazioni, le due caratteristiche non intervengono nello
stesso modo nelle prestazioni di una scheda) con un bus di memoria a 256 bit, analogo a quello offerto dalle
GTX460 1GB classiche. Con questa scheda NVIDIA vuole dunque recuperare i chip GF104 scartati per difetti
produttivi, e nel contempo riutilizzare lo stesso PCB delle GTX460 classiche. Questa scheda sostituisce le GTX460
768MB, ma nell'uso di software professionali ha prestazioni inferiori e non è dunque conveniente.
NVIDIA Geforce GTX560 Ti: Scheda video di fascia alta NVIDIA, dotata di chip GF104 con tutte le ALU attive
(384). le sue prestazioni sono analoghe a quelle delle precedenti GTX470, pur con un'architettura più elegante,
caratterizzataa da costi di produzione inferiori (chip più piccolo) e consumi più contenuti. Il prezzo di vendita di
circa 200 euro non le rende d'altro canto molto vantaggiose nei confronti delle GTX460, vendute a 50 euro in meno
e che mostrano spesso prestazioni vicine, sempre considerando i software professionali.
NVIDIA Geforce GTX470 e GTX480: Sono state le prime schede video ad impiegare il chip NVIDIA GF100, di
generazione Fermi, che in questi prodotti è implementato rispettivamente con 448 e 480 ALU attive. Le schede
sono state presentate alla fine di Marzo 2010 dopo aver accumulato un importante ritardo.
Le prestazioni ed il prezzo delle GTX470 sono allineate a quelle delle HD6870, e della GTX560 Ti, nell'uso di
giochi lievemente superiore. Il consumo elettrico ed il calore dissipato da queste schede, con conseguente
rumorosità molto importante, ha sempre portato a sconsigliarne l’acquisto nella maggior parte dei casi. Il prezzo
basso le ha rese per un certo tempo interessanti, se non altro in vista di un utilizzo GP-GPU, ma ora che sono
disponibili anche da parte di NVIDIA schede migliori (GTX560) non sono più per nulla convenienti. Sono in via di
ritiro dal mercato.
Le schede video GTX480 sono state sostituite dalle GTX570 e GTX580.
NVIDIA Geforce GTX570 e GTX580: Sostituiscono le GTX470 e GTX480 nella fascia più alta dell'offerta
NVIDIA. SOno dotate di chip GF110, evoluzione del precedente GF100, rispetto al quale corregge almeno in parte
alcuni difetti, in particolar modo il consumo energetico.
Le GTX580 hanno GF110 con tutti i 512 shader attivi, mentre la GTX570 è caratterizzata da 480 shader, ed ha
prestazioni analoghe a quelle della precedente GTX480.
Il consumo ed il calore dissipato rimangono tuttavia un problema e sebbene siano stati lievemente ridotti rispetto
alle schede precedenti, costituiscono un autentico record. Sarà bene installare queste schede su macchine dotate di
un alimentatore adeguato e di un buon cabinet, che fornisce sufficiente areazione. Il dissipatore montato di serie è
per contro di qualità molto buona.
Laddove sia richiesta una scheda video per elaborazioni GP-GPU basate su NVIDIA CUDA d’altro canto le schede
video con chip Fermi, ed in particolare queste schede, garantiscono prestazioni molto più elevate rispetto ai prodotti
già analizzati, mentre le schede video ATI non sono in genere utilizzabili. Spesso è reputata una buona alternativa
l'uso di due Geforce GTX460 o GTX560, disponibili tra l'altro in versione con 2GB di RAM
Nel scegliere una scheda video gaming si deve sempre ricordare che i driver della scheda non sono ottimizzati
verso i software di grafica, per cui si potrebbe andare incontro a difetti nella viewport (artefatti) o problemi di vario
tipo. Una scelta attenta a questo tipo di problematiche ad ogni modo garantisce un acquisto sicuro.
Pregi delle schede video gaming sono invece la migliore possibilità di rivenderle ad un buon prezzo, le elevate
prestazioni nelle esecuzioni GP-GPU, l'immediatezza di utilizzo (non saranno necessari interventi sui driver di
nessun tipo, proprio per la mancanza di ottimizzazioni disponibili).

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


SCELTA DELLA SCHEDA VIDEO PER LA GESTIONE DELLE VIEWPORT
Anche nel caso in cui la workstation fosse destinata anche a calcoli da eseguire su scheda video, spesso si preferirà
dedicare schede video diverse all'output grafico ed al calcolo GP-GPU. La scelta delle schede video per questi due
impieghi così diversi sarà dunque trattata separatamente.
Se si prevede di impiegare la stessa scheda per un duplice scopo sarà necessario operare una scelta di
compromesso.
Configurando una workstation grafica la scelta della scheda video non può prescindere dalla scelta del software cui
sarà essa dedicata. Considerando le schede video gaming esistono software adatti a schede video di un certo tipo e
software che con la stessa scheda video possono soffrire di artefatti anche importanti. Considerando schede video
professionali invece la differenza è generalmente a livello di prestazioni. L’ottimizzazione di un software per l’una
o l’altra marca fa pendere pesantemente la bilancia delle prestazioni a favore dell’uno o dell’altro prodotto.
Esistono inoltre software per i quali è sempre bene munirsi di una scheda professionale e situazioni nelle quali si
può scegliere una normale Geforce o una normale Radeon.
In primis si dovrà dunque considerare quale software si intende utilizzare e a che livello. Certamente un uso
sporadico e a basso livello di un certo programma non risentirà di eventuali penalizzazioni prestazionali.
Vediamo allora un elenco dei software professionali più usati in ambito grafico professionale. Per tutti gli altri
software vale la regola generale che vuole le schede video professionali preferibili sulle gaming, eventualmente
preferendo queste ultime nella fascia media e bassa (a partire dai 100 euro in giù).
AutoCAD: Al pari di 3DS Max è passato da una programmazione incentrata su OpenGL all’uso di librerie directx,
ma con l’uscita delle ultime versioni le sue prestazioni nella viewport 3D sono andate via via calando, specialmente
nell'uso con Geforce o Radeon: contemporaneamente sono diventati sempre più frequenti artefatti di vario genere
sia nelle visualizzazioni 2D che 3D. E' dunque necessario scegliere una scheda video professionale anche nella
fascia più bassa, dunque ATI FirePro v3800, o una FirePro v4800 o NVIDIA Quadro 600 nella fascia più alta.
Facendo uso della sola visualizzazione 2D di AutoCAD, nella fascia più bassa, possono essere usate schede video
gaming.
Rhinoceros: è un software che storicamente ha fatto uso di OpenGL, anche se con l’uscita di Windows Vista è
stato riconvertito in directx, al fine di continuare a garantire la compatibilità anche con le schede video gaming. Le
esigenze di questo programma sono molto contenute per cui non sarà necessario investire molti soldi nella scheda
video. Una gaming nella fascia dei 100-150 euro sarà spesso più che sufficiente.
Solidworks: E' possibile usare schede video sia Radeon che Geforce, specialmente nella fascia di prezzo più bassa.
Per un uso ad alto livello di solidworks è comunque consigliabile una scheda video professionale, ed è preferibile
usare una quadro, che mostra in genere prestazioni migliori della controparte ATI. Sono dunque consigliate Quadro
2000 nella fascia più alta.
3D Studio Max: è un software da diverse versioni programmato usando directx. Questa scelta dovrebbe far
preferire di gran lunga schede gaming eventualmente di fascia elevata. Si deve però tener conto del fatto che le
prestazioni di 3D studio Max, quando impiegato con schede video tradizionali, in termini di frame rate sono
fortemente dipendenti dalla CPU, e a causa di inspiegabili giochi di driver sono calate in modo importante
passando da Windows XP a Windows Vista e Windows Seven. Andando nel dettaglio ciò che si nota è che le
prestazioni in viewport di 3DS Max sono dipendenti sia dalla GPU che dalla CPU in tutti e tre i sistemi. Passando
da Windows XP a Windows Vista/Seven però si nota un importante calo delle prestazioni, e facendo uso di schede
video gaming in presenza di Windows Vista o Windows Seven il miglioramento prestazionale passando da una
VGA ad una migliore è molto scarso, divenendo invece ancor più legato alla CPU. Una scheda professionale
risentirà in modo minore del passaggio ai nuovi sistemi operativi e le prestazioni risultano meno dipendenti dalla
CPU. Una quadro fx-580 eguaglia così una scheda video di fascia alta quale una HD5850 in Windows Vista/Seven,
laddove risultava inferiore ad una gaming di fascia media utilizzando Windows XP.
Molto probabilmente il passaggio di 3DS dalle OpenGL alle directx aveva innescato un travaso di utenza da VGA
professionali a gaming mal visto dai produttori (le schede professionali hanno margini di guadagno elevatissimi).
Se l’utilizzo fondamentale è quello di 3DS Max, per la gestione della viewport il mio consiglio è allora quello di
schede video gaming solo fino alla fascia dei 100 euro circa; in particolare sono convenienti le ATI HD5750. Le
geforce di generazione fermi mostrano tutte inopportuni rallentamenti e lag. Al di sopra di questa soglia una scheda
professionale quale una ATI FirePro v3800 o v4800 o eventualmente una NVIDIA quadro 600 è preferibile.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Maya: la sua ottimizzazione è verso le schede video ATI, ma è preferibile in questo caso utilizzare una scheda
video professionale. Le Radeon hanno sofferto, almeno in passato, di artefatti nella viewport di Maya. Nella fascia
più bassa si possono dunque usare schede video gaming NVIDIA, quali le GTS450 o le GTX460; già a partire dalla
fascia dei 150 euro diviene comunque una buona scelta una ATI FirePro v4800 o eventualmente 5800.
XSI: L’ottimizzazione è verso schede video NVIDIA, anche se le ATI professionali sono esenti da incompatibilità.
Anche qui suggerisco le Geforce nella fascia più bassa, per poi passare alle Quadro 600 ed eventualmente 2000
nella fascia più alta. L'uso di schede video Geforce è divenuto ancor meno vantaggioso in seguito all'introduzione
delle schede video Fermi, che hanno mostrato inopportuni cali di prestazioni ed in alcuni casi artefatti.
Cinema 4D: E’ fortemente ottimizzato per girare con schede video ATI, mentre le schede video professionali, sia
ATI che NVIDIA; non mostrano alcuna reale differenza di prestazioni rispetto alle corrispondenti versioni Radeon
e Geforce. In queste condizioni il consiglio è quello di usare una ATI Radeon anche nella fascia alta. Le schede
Radeon suggerite nel capitolo dedicato alle gaming sono dunque adatte.
Lightwave: E’ possibile fare uso di una scheda video gaming, indifferentemente ATI o NVIDIA. Le prestazioni
delle schede video professionali non giustificano l’elevato costo d’acquisto.

ELABORAZIONI GP-GPU
Consistono nell'utilizzo della scheda video al fine di svolgere un elaborazione diversa da quella grafica. Come già
detto una scheda video può offrire capacità elaborative nell'ordine di grandezza dei TeraFLOP (migliaia di miliardi
di operazioni floating point al secondo) in singola precisione, laddove una buona CPU stenta oggi a superare la
soglia dei 100 GigaFLOP. Schede video come le ATI HD6970 raggiungono i 2,7TF in singola precisione e schede
video a doppia GPU possono raddoppiare questo valore.
Ovviamente ci sono delle condizioni allo sfruttamento di simili potenze di elaborazione: le GPU eccellono infatti
nei calcoli vettoriali e nelle elaborazioni parallele e in particolare laddove è necessario applicare le stesse istruzioni
ad un elevatissima mole di dati. In mancanza di queste condizioni una GPU non sarà in grado di esprimere il suo
potenziale. In secondo luogo, anche se le nuove architetture stanno via via migliorando questo aspetto, le schede
video eccellono nelle elaborazioni floating point in singola precisione, mentre spostandosi sulle elaborazioni in
doppia precisione le prestazioni sono più modeste. Questo perché l'operatività in doppia precisione non è una
caratteristica tradizionalmente richiesta ad una GPU. I chip di generazione NVIDIA G80 ad esempio non erano
ancora in grado di operare in doppia precisione, mentre GT200 ha introdotto una prima forma di compatibilità. La
capacità di elaborazione scende però ad un ottavo di quella originale passando dalla singola alla doppia precisione.
Il chip di nuova generazione GT300/GF100 offre un importante miglioramento da questo punto di vista, garantendo
il solo dimezzamento delle prestazioni passando alla DP. Le schede ATI basate su chip rv770 ed rv870 d'altro canto
riducono le loro prestazioni ad un quinto di quanto possibile in singola precisione passando alla DP, mentre le
schede basate su chip Cayman (rv970 - HD6950 e HD6970), le prestazioni di picco in doppia precisione sono pari
ad un quarto di quanto sviluppabile in singola precisione.
E' bene considerare come questi dati rappresentino solo i valori di picco della potenza elaborativa, desunti
teoricamente. Le prestazioni di una scheda video sono si molto elevate rispetto a quanto raggiungibile da una CPU,
ma il rendimento del processore è generalmente inferiore e non comparabile tra schede video di architetture
diverse. Le stesse HD6870 sono all'incirca ugualmente potenti delle HD5870, sebbene le prime siano in grado di
sviluppare solamente 2T Flop, contro i 2,72 TFlop delle seconde. Se si considerano architetture profondamente
diverse, mettendo a confronto schede video ATI ed NVIDIA, si nota come le GTX570 siano in grado di sviluppare
circa 2 TFlop, ma abbiano prestazioni superiori alle vecchie HD5870 da 2,7 TFlop, e simili a quelle delle nuove
HD6970, anche queste da 2,7 TFlop circa.
Per questo motivo, ad esempio, non sempre una scheda video è superiore ad una CPU anche in un'elaborazione che
tende ad avvantaggiarla, come il rendering. Test con Vray RT GPU e Iray hanno mostrato come siano necessarie
schede video di fascia media per superare le prestazioni delle attuali CPU a 4 e 6 core.
Infine lo sviluppo di software per GPU risulta più complesso rispetto a quanto è tradizionalmente richiesto per un
software adatto alle CPU, a causa dell'architettura non ancora completamente ottimizzata in questo senso e della
gioventù degli strumenti di programmazione.
La programmazione di una GPU richiede infine una specifica che sia il più possibile standardizzata fra i produttori
di schede video e i programmatori. Ad oggi si distinguono:
- OpenCL: progetto avviato da Apple a cui hanno aderito fra gli altri AMD, NVIDIA, IBM, Intel, ARM e messo a
punto dal consorzio Khronos Group. E' destinato a divenire uno standard nella programmazione parallel
computing, grazie alla sua natura open software, alla sua compatibilità con i maggiori sistemi operativi e alla sua
intercompatibilità con hardware di diversi produttori e di diverso tipo. OpenCL è infatti compatibile con schede
video ATI ed NVIDIA e consente di sfruttare parallelamente CPU e GPU a sua disposizione. Al momento sono

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


disponibili i driver per CPU proposti da AMD, che possono essere installati su sistemi con processore AMD o
Intel, in quest'ultimo caso qualora sia presente nel sistema una scheda video AMD (il driver si installa con i
driver della VGA).
- CUDA: è il pacchetto messo a punto da NVIDIA prima della nascita di OpenCL e attualmente il tool proposto e
suggerito da NVIDIA per le sue schede video. NVIDIA ha aderito al consorzio per la messa a punto di OpenCL
così da poterne garantire il supporto sulle sue schede video, ma spinge per l'adozione del suo prodotto,
compatibile con il solo Hardware proprietario. CUDA ha iniziato la sua diffusione precedentemente a OpenCL e
anche per questo gode di un discreto vantaggio.
Al fine di promuovere le proprie schede video il software prodotto da parte di NVIDIA o con la sua
partecipazione è sempre basato su CUDA.
Ad oggi CUDA è il sistema più utilizzato dalla maggior parte delle software house impegnate a scrivere software
destinato al GPU Computing, grazie anche al suo vantaggio temporale su OpenCL.
- Directx computing: costituisce la risposta di Microsoft alla necessità di sviluppare un software GP-GPU e la sua
integrazione all'interno di directx 11 ne consentirà probabilmente un adozione da parte degli sviluppatori che
fanno uso di tale libreria. In particolare potrebbe diffondersi in ambito videoludico, molto meno in ambito
professionale a causa della disponibilità per i soli sistemi operativi Microsoft.
Il supporto ai due principali standard attuali, OpenCL e CUDA, non è uniforme e adeguato su tutta l’offerta ATI ed
NVIDIA, sebbene queste reclamino il supporto a Stream (l’SDK offerto da AMD) e CUDA su una lunghissima
schiera di prodotti.
Per quanto riguarda le schede video NVIDIA infatti il supporto a OpenCL riguarda tutte le schede video dalla
generazione Geforce 8 in poi. Il supporto a CUDA è invece variabile a seconda della versione di quest’ultimo:
CUDA 2.1 e seguenti, le versioni oggi impiegate, sono supportati dai soli chip con architettura GT200 e successivi,
dunque Geforce GT220, GT240, GTX260, GTX275, GTX285, GTX295, GTX460, GTX465, GTX470 e GTX480,
nonché dalle schede video NVIDIA Quadro fx e Tesla che da queste derivano.. Si deve considerare infine che
l’elaborazione in doppia precisione in GT200 offre prestazioni molto limitate, mentre non è supportata dalle schede
video di generazione precedente (tutte le schede aventi chip derivato da G80/G92).
Circa le schede video ATI invece il supporto a OpenCL è fornito via driver a partire da Stream 2.0 e riguarda le
schede video ATI HD4000 e HD5000, ma per quanto riguarda le schede video HD4000 le prestazioni possono
essere limitate da problemi riguardanti la mappatura della memoria. Per girare correttamente su queste schede un
software OpenCL richiede ottimizzazioni specifiche.

Software
Attualmente i software che fanno uso della scheda video per calcoli differenti dall’elaborazione grafica sono pochi
e in via di messa a punto: nel settore grafico professionale distinguiamo comunque:
- la conversione e esportazione di contenuti multimediali, prevista in forma di software dedicati alla
conversione e codec e plug-in per la suite Adobe (premiere – After Effect).
- l’esecuzione del render real time in Adobe Premiere, tramite il Mercury playback engine, ottenuta mediante
CUDA e dunque disponibile per schede video Nvidia. In questo caso il supporto è previsto per le sole
schede video Nvidia Quadro e la sola Geforce GTX285, sebbene sia possibile aggiungere la propria scheda
video modificando un semplice TXT tramite blocco note.
- L’applicazione di alcuni filtri specifici di Photoshop CS4 e CS5
- L’elaborazione della fisica via NVIDIA Phys-X per software Autodesk (un approccio che non ha mai preso
piede, d’altra parte).
- L’elaborazione di rendering con motori particolari in grado di utilizzare la GPU.
Si distinguono motori di render basati su CUDA, che sono la maggir parte: Octane render, Arion, Iray, altri
meno diffusi, e motori di render basati su OpenCL; dei quali per ora è disponibile il solo Vray RT 2.0, ed è
in via di sviluppo Luxrender.
Quest’ultimo approccio al rendering, eseguito via scheda video rientra comunque a pieno titolo nel concetto di GP-
GPU computing, in quanto il render non è ottenuto direttamente sfruttando la pipeline prevista da una scheda video,
ma bensì eseguendo elaborazioni di tipo vettoriale con approccio ray tracing. Ricordiamo infatti come le schede
video attualmente renderizzino usando algoritmi di rastering, meno realistici nella resa, ma molto più veloci. La
grafica ray tracing è un elaborazione che va al di la di quanto previsto per una VGA.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Memoria RAM
Le prestazioni e la quantità di memoria video sono variabili secondarie nel considerare le prestazioni di una scheda
nella gestione di una viewport. Per contro acquistano di importanza quando si considera la capacità di calcolo della
scheda. In particolare la RAM video a disposizione della GPU impegnata nel calcolo deve essere sufficiente a
contenere l'intera elaborazione. Non è possibile, almeno con gli strumenti attuali, mappare sulla GPU la memoria di
sistema, e dunque impiegarla per le elaborazioni GP-GPU. Se si considera l'esecuzione di un render, prima che
questo abbia inizio tutti gli input vengono trasferiti nella RAM della scheda video (geometria, texture, mappe...) e
l'elaborazione procede facendo uso di questa sola memoria. Alla fine l'immagine elaborata viene ritrasferita in
memoria centrale.
I quantitativi di memoria oggi a disposizione delle schede video di fascia più alta non sono comparabili con le
dotazioni tipiche della RAM di sistema e con le richieste tipiche di un render di una certa complessità. Ciò limita
fortemente le possibilità di utilizzo degli attuali motori di render che fanno uso della scheda video.
Per questo motivo d’altra parte le ultime generazioni di schede video professionali hanno iniziato ad offrire
quantitativi di VRAM elevati: 6GB per le quadro 6000, 3GB per le quadro 5000, 2GB per le quadro 2000, 1GB per
le quadro 2000; per quanto riguarda le schede video ATI si hanno 4GB sulle FirePro v9800; 2GB sulle v8800 e
7800, 1GB sulle v5800.
E' importante notare come la presenza di più schede video non consenta di aumentare, sommando i quantitativi a
disposizione di ognuna, la RAM disponibile. Come per la RAM centrale, non sarà possibile mappare la VRAM di
altre schede video sulle GPU, e queste non scambieranno dati durante l'elaborazione. Nella RAM di ogni scheda
video che partecipa al calcolo verrà caricata una copia intera di tutti gli input necessari, dopodiché ogni scheda
svolgerà la parte di calcolo che le verrà assegnata dal software.
L'installazione di più schede, dunque, non migliora in nessun modo il limite di memoria. Non sarà possibile
raddoppiare le schede per raddoppiare la VRAM, o installare schede video con tanta RAM assieme ad altre per
eseguire render più pesanti.
Con le attuali dimensioni delle memorie RAM delle schede video gaming, lo svolgimento di elaborazioni su GPU è
in qualche modo limitato, soprattutto se si considera che in genere un'elaborazione che occupi poca RAM, e che
possa dunque essere svolta su scheda video, non è in realtà così onerosa neanche per una CPU.
Per quanto riguarda il rendering, ad esempio, la sua fattibilità su schede video è limitata ai soli impieghi dove la
RAM richiesta sia modesta, e nel contempo la velocità debba essere estremamente bassa. Ciò si riduce in pratica al
render di anteprime, che spesso costringe ad arrestare il lavoro, anche se per poco tempo, in attesa del risultato.

Schede video professionali dedicate al GPU-Computing


Sia ATI che NVIDIA sviluppano schede video destinate al solo uso come acceleratori e dedicate al settore
professionale: si tratta delle schede Firestream e Tesla, rispettivamente. Le caratteristiche che le distinguono sono
la mancanza dell’hardware dedicato all’output video, in genere l’elevata dotazione di memoria RAM, nonché, nelle
schede video NVIDIA Tesla, l'uso di memoria a controllo d'errore (ECC). L’ultima generazione di schede video
ATI (sia gaming che professionali), d’altra parte, prevede un memory controller che mette in atto algoritmi di
correzione d’errore.
NVIDIA sviluppa infine sistemi rack dotati di 4 schede di questo tipo, collegabili ad un nodo tradizionale
(tipicamente rack) via bus PCI-express esterno.
Il resto dell'hardware impiegato in queste schede è analogo a quanto disponibile sulle schede video professionali
(quadro e Firepro) e gaming (geforce e Radeon).

Scelta della scheda video dedicata al GPU-Computing


Come abbiamo già avuto modo di vedere, schede video professionali e schede video gaming fanno uso dello stesso
tipo di processori grafici e schede video simili hanno potenze elaborative paragonabili. Per contro il prezzo delle
soluzioni professionali è molto elevato a causa di una serie di differenze che per quanto riguarda le schede grafiche
(Quadro e FirePro) riguardano per lo più la qualità dei driver e del supporto tecnico, mentre per quanto riguarda le
schede Tesla e FireStream riguardano la qualità e la dimensione della memoria RAM, nonché in ogni caso le varie
certificazioni e garanzie che si accompagnano ad un prodotto di fascia professionale.
In assenza di differenze a livello driver le prestazioni di una scheda Gaming ed una scheda professionale che hanno
hardware simile sono le stesse.
Dato che non intercorrono differenze a livello di driver (CUDA e OpenCL) tra schede video Gaming e schede
video professionali, non ha in generale senso scegliere una scheda video Quadro o una Tesla per svolgere un
calcolo GP-GPU, che una Geforce può effettuare ugualmente.
In genere anzi, le schede video Geforce sono disponibili con un'offerta molto più ampia, tra cui:

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


- prodotti in assoluto più potenti di quanto disponibile in ambito professionale (le GTX580 ed anche le
precedenti 480 sono più potenti in assoluto delle quadro 6000 e delle Tesla 2050 e 2070, che corrispondono a
delle GTX470 con frequenze ridotte).
- prodotti di fascia medio - alta, che per rapporto prestazioni/prezzo appaiono ben più convenienti: le Geforce
GTX460 e 560, ad esempio, appaiono molto vantaggiose avendo prezzi contenuti nella fascia tra i 150 ed i 250
euro, considerando anche prodotti con 2GB di memoria RAM.
Al calcolo GP-GPU sarà dunque conveniente destinare schede video di classe gaming, caratterizzate da potenze
estremamente elevate, e nel contempo da prezzi contenuti.

Per quanto riguarda l’assemblaggio di macchine destinate alle elaborazioni GP-GPU il suggerimento dei produttori
è quello di prevedere una CPU per ogni scheda video installata, affinché la prima possa alimentare la seconda senza
interruzioni delle sequenze di dati da elaborare. La mia opinione è che sia sufficiente un core, o al limite due core,
per ogni scheda video installata, in particolar modo sulle architetture AMD e Intel Nehalem, nelle quali la CPU è
connessa al chipset, e dunque al controller PCI-express via bus Hyper transport di notevolissima ampiezza.
Nella configurazione di una macchina destinata all’esecuzione di elaborazioni importanti attraverso la scheda
video, è consigliabile che la scheda che si occupa dell’elaborazione sia indipendente dalla scheda adibita alla
grafica, e dunque destinata a pilotare il monitor. Ciò perché altrimenti parte della scheda video sarebbe impegnata
nell’output a video, con conseguente calo delle prestazioni, e nel contempo risulterebbe impossibile impiegare il
computer, giacché la scheda video, saturata dall’elaborazione in corso, non sarebbe in grado di gestire in modo
fluido il render a video.
Motori di render CUDA: sono per ora principalmente Iray, Octane Render, Arion. Essendo programmati in
CUDA richiedono una scheda video NVIDIA, ed affinché le prestazioni siano effettivamente superiori a quelle di
una CPU di fascia alta, la scheda deve avere un hardware sufficientemente potente. Sarà dunque conveniente
utilizzare una Geforce, in modo da poter disporre di un’elevata potenza elaborativa a basso costo. Le prestazioni di
una scheda video Quadro 600, ad esempio, sono in generale allineate a quelle di una CPU core i7 quad core.
D’altro canto anche la memoria video deve essere di dimensioni elevate, dato che solamente la RAM della scheda
video sarà impiegabile per il render.
Le schede più adatte sono dunque le GTX460, GTX560 e GTX570. Delle prime saranno usate le versioni con 2GB
di memoria. Non sono disponibili, al momento, GTX570 con più dei 1280MB di memoria standard. la maggiore
potenza a disposizione di queste schede è dunque in qualche modo vanificata dalla mancanza di un'adeguata
quantità di memoria. Quasi allo stesso prezzo di una GTX570 sarà spesso conveniente acquistare una coppia di
GTX460.
Le semplificazioni architetturali messe in atto da NVIDIA per ottenere il chip GF104 a partire da GF100 hanno
comportato una riduzione delle prestazioni in GP-GPU (dovuta ad esempio alla semplificazione dell'architettura
delle cache), che riduce leggermente le prestazioni di questi chip rispetto ad un ipotetico equivalente GF100/GF110
con eguale numero di ALU ed uguali frequenze.
Motori di render OpenCL: Si tratta per ora fondamentalmente di Vray RT 2.0: sono supportate tutte le schede
video moderne di ATI ed NVIDIA, dunque HD5000 e HD6000, nonché le geforce Fermi e le precedenti schede di
generazione GT200, nonché tutte le FirePro e Quadro che da queste derivano. Ciò nonostante, i driver delle schede
ATI, solo da poco tempo hanno consentito di impiegare Vray RT e le prestazioni sono ancora modeste. Conviene,
per ora, usare schede video NVIDIA.
Adobe creative suite: non richiede ovviamente una scheda video ad alte prestazioni, sebbene Photoshop a partire
dalla versione CS4 possa fare uso di un accelerazione OpenGL per le operazioni di zoom e PAN, con risultati
molto positive. Anche i pochi filtri che possono essere applicati via GPU non richiedono prestazioni elevate. E’
possibile fare uso di schede video di fascia medio - bassa quali le ATI HD5570, HD5670 o HD5750, a seconda
anche delle necessita degli altri software utilizzati.
Il Render real-time del video, in Adobe Premiere CS4 e seguenti, può essere eseguito su una opportuna scheda
video che supporti CUDA. Le schede video supportate sono le NVIDIA Quadro fx-3800, fx-4800, fx-5800, cx-
4800, e le Geforce GTX285. Come già visto è possibile usufruire di qualunque scheda video che supporti CUDA
aggiungendone il nome in un'opportuna lista (file txt).
Ovviamente queste raccomandazioni valgono quando si considera la sola prestazione della scheda video nell’uso
del singolo programma. Andando ad usare più software si potrebbe trovarsi a dover fare una scelta “di
compromesso”.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Configurazioni multi - GPU
La capacità di distribuire il calcolo su più schede video è in generale una caratteristica implementata su molti dei
software che impiegano le GPU per il calcolo ad alte prestazioni. Si distinguono comunque software in grado di
scalare linearmente o quasi col numero di GPU a disposizione e software incapaci di sfruttare molteplici GPU.
La distribuzione del calcolo sulle GPU disponibili è completamente a carico del software impiegato, che ripartirà
l'elaborazione in modi diversi a seconda delle sue caratteristiche. Considerando un'elaborazione GPU-GPU infatti,
questa può essere caratterizzata da calcoli di tipo profondamente variabile, che in nessun modo potrebbero essere
suddivisi dal driver delle schede video. E' il singolo software quindi, che come avviene per la programmazione
tradizionale di software destinati alle CPU, ad essere scritto per suddividere il calcolo tra più processori, in questo
caso GPU.
La suddivisione del calcolo tra le schede video non dipenderà dunque in alcun modo dalle configurazioni SLI e
Crossfire di queste ultime, che anzi, in molti casi, dovranno essere disattivate per consentire al software di
impiegare le molteplici schede video a disposizione.
Le schede video potranno dunque essere installate su schede madri che non supportano SLI o Crossfire (a seconda
che si tratti di prodotti NVIDIA o ATI) e non sarà necessario che siano collegate dal classico bridge. Potranno
inoltre essere impiegate schede video diverse, che non sarebbero collegabili tramite SLI o Crossfire, ed al limite
anche schede video di marca diversa.
Tutto ciò ha una serie di conseguenze:
1) Se le VGA saranno collegate in SLI o Crossfire, per usufruire di vantaggi nell'output grafico (cosa comunque
non ottenibile nelle viewport dei software professionali, come già visto) potrebbe non essere possibile ripartire
il calcolo GP-GPU su di esse. Per impiegarle in numero maggiore di una potrebbe essere necessario disattivare
dal pannello dei driver il Crossfire o lo SLI.
2) Non sarà necessario impiegare schede madri che supportino lo SLI e/o il Crossfire. Su configurazioni con
CPU AMD; ad esempio, si potrà tranquillamente usare una scheda madre con chipset AMD, che non supporta
SLI, e collegare più di una Geforce.
3) Schede video a più GPU potrebbero non essere vantaggiose perché, non riuscendo a disattivare lo SLI o il
Crossfire, si potrebbe non riuscire a sfruttare entrambe le GPU.
4) 4) Infine dato che non esiste traffico interscambiato tra le schede video durante l'elaborazione GP-GPU, non è
lecito pensare che chip quale nforce-200 o Hydra siano adatti a moltiplicare la banda disponibile ad ogni
scheda video. Essi infatti migliorano le prestazioni di SLI e crossfire dividendo il traffico che va da una scheda
all'altra con quello che va dalle schede alla CPU, e dunque traggono vantaggio dal connettersi alle schede
video con un bus di banda maggiore.
Dato che tutta la banda è impiegata per la comunicazione tra CPU e GPU, all'avvio del calcolo, la banda a
disposizione di due schede connesse alle stesse 16 linee, anche via bridge PCI-express come nf200, è pari alla
metà di quanto si potrebbe avere da ogni scheda, cioè connettendo ognuna ad un bus 16x.

Volendo installare più schede video sarà dunque bene usare un sistema che abbia controller PCI-express in grado di
fornire 16 linee ad ogni scheda, dunque usando CPU Intel core i7 9x0 oppure AMD, con schede madri con chipset
AMD 890FX. CPU socket 1155 e 1156, e chipset 890G e 880G per sistemi AMD possono fornire solo 8 linee per
due schede video.

Configurazioni ibride con schede video professionali e gaming


Per quanto si è visto nei capitoli precedenti, la gestione delle viewport 3D ed il render su GPU possono richiedere
la scelta di schede video dalle caratteristiche diverse. Le esigenze di questi due utilizzi possono divenire
inconciliabili, usando una unica scheda, qualora per la modellazione sia richiesta una scheda video professionale.
Inoltre usare la stessa scheda video per l'output a video e per il calcolo impedisce di continuare ad utilizzare il
computer durante l'elaborazione, un'opportunità che potrebbe risultare spesso conveniente.
Schede video diverse potranno allora essere installate con scopi differenti; è possibile pensare di installare una
scheda video, che potrebbe essere una scheda professionale Quadro o FirePro, da usare propriamente come scheda
grafica, ed una o più schede video (in genere delle Geforce, per quanto già visto) da usare per il calcolo GP-GPU.
Una simile configurazione richiede d'altro canto di tenere a mente alcune restrizioni, dovute in particolare alle
limitazioni imposte dai driver: In particolare, se si installano assieme una Geforce ed una Quadro, sarà possibile
installare un driver per ciascuna, ma non si potranno utilizzare i driver dedicati a 3DS Max ed Autocad. Di
conseguenza si perderanno molti dei vantaggi prestazionali che caratterizzano l'uso delle Quadro con questi due
software. Configurazioni Quadro + Geforce sono dunque vantaggiose qualora si usino software diversi. Usando
3DS Max o AutoCAD e volendo installare una scheda professionale assieme ad una Geforce, converrà che la prima
sia una FirePro.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


UNITÀ DI ARCHIVIAZIONE DI MASSA
Le unità di archiviazione di massa destinate ad ospitare il software e lo storage dei documenti. Fondamentale per
questi dispositivi è dunque la possibilità di mantenere la memoria dei dati per un tempo indefinito, anche in assenza
di alimentazione, la possibilità di riscrivere le locazioni di memoria senza che queste si usurino, la loro affidabilità,
le prestazioni e la capacità.
L’affidabilità delle unità di archiviazione ha ormai raggiunto standard molto elevati, ad ogni modo possiamo subito
affermare che la complessità delle unità a piatti rotanti costituisce da questo punto di vista un limite. Per quanto
riguarda le unità a stato solido la loro affidabilità è ovviamente superiore dal punto di vista teorico, anche se
tutt’ora mancano statistiche affidabili in merito, essendo questa tipologia di prodotto sostanzialmente nuova.
La possibilità di riscrivere i settori di memoria un numero estremamente elevato di volte è una caratteristica ormai
assodata delle unità di archiviazione standard; diverrà invece un argomento centrale per quanto riguarda le unità a
stato solido.
Circa le prestazioni di queste unità gli aspetti da valutare sono molteplici: una prima caratteristica a cui si può
pensare è la velocità con cui un file può essere trasferito (letto o scritto) attraverso la memoria. In realtà questo è
solo uno degli aspetti, e spesso nemmeno il più significativo, nella valutazione delle prestazioni di un unità. Per
dare un ordine di grandezza gli attuali hard disk standard attuali (desktop – 7200rpm – 3,5” di diametro) forniscono
velocità di trasferimento sequenziali massime dell’ordine di 100-150MB/s. Le unità a piatti rotanti più veloci,
prodotti destinati al mercato enterprise con bus SAS o a fibra ottica e velocità di rotazione di 15000rpm possono
superare tale limite, ma a causa dell’uso di piatti di diametro inferiore e con densità dei dati inferiore, la differenza
è più piccola di quanto ci si aspetterebbe considerando la sola velocità di rotazione. Unità di compromesso fra i
prodotti standard e i dispositivi a più elevate prestazioni sono i velociraptor, dischi da 10000rpm e che fanno uso di
piatti da 2,5” di diametro. Tali unità possono fornire all’incirca 120MB/s di transfer rate. La velocità inferiore
rispetto a quella di dischi tradizionali è dovuta all’inferiore densità dei dati e all’inferiore diametro del piatto.
Unità a stato solido possono raggiungere prestazioni molto più elevate, limitate ormai dalla banda fornita
dall’interfaccia sata2. In quest’ambito ad ogni modo le prestazioni sono molto variabili a seconda del tipo di
prodotto.
Un altro caso da valutare potrebbe essere quello in cui si volessero leggere (o scrivere) diversi dati dalla memoria.
Ora consideriamo un semplice hard disk, unità che immagazzina magneticamente i dati sulla superficie di piatti
rotanti: i dati sono lette da apposite testine magnetiche montate all’estremità di braccetti meccanici. Se i dati si
trovano in diverse posizioni sulla superficie dei piatti questi ultimi dovranno compiere diverse rotazioni prima che
tutti i dati possano essere letti e, nel modello più semplice, ad ogni giro le testine si sposteranno radialmente sul
piatto in modo da estrarre un dato.
Comprendiamo subito, dunque, il motivo per il quale la velocità di trasferimento sequenziale è in molti casi un
aspetto secondario nel valutare le prestazioni della memoria.
E’ chiaro che trascorre un certo tempo fra l’estrazione di un dato e l’altro, che dipenderà da molti fattori, fra i quali
la dimensione e la velocità di rotazione dei piatti, la posizione relativa dei dati, la modalità in cui viene ordinata la
coda dei dati da estrarre e la possibilità di estrarre più dati in un'unica rotazione dei piatti. Questi aspetti hanno
portato alla messa a punto di procedure di gestione delle code note come command queuing technology (CQT) fra
le prime implementazioni in ambito enterprise, e native command queuing (NCQ), ormai universalmente diffusa
nelle unità con interfaccia SATA2.
Il dato che riassume le capacità di un’unità di accedere a diverse locazioni di memoria, al fine di leggere o scrivere
dei dati è il numero di input/output che il dispositivo può eseguire nell’unità di tempo, che a sua volta dipende dal
tipo di dati (numero, dimensione, posizione relativa…) e dal tempo di accesso medio. E’ chiaro che il tempo di
accesso medio per una data posizione della memoria dipende dalle caratteristiche fisiche dell’unità e dalle
procedure di queuing.
Più grandi saranno i file da leggere, più diverranno importanti le prestazioni dell’unità nel trasferimento
sequenziale. E’ questo il caso di file di unità di grandezza nell’ordine delle decine di megabyte almeno.
Più grande sarà il numero di file a cui accedere, e meno le prestazioni dell’unità nell’accesso sequenziale saranno
importanti. Se i file si trovassero tutti uno di seguito all’altro nella superficie del piatto potremmo considerare
l’accesso sequenziale, ma in realtà è una situazione che si verifica raramente. Più grosso sarà il volume di file a cui
accedere e più diverrà importante il tempo di accesso ai dati. L’ordine di grandezza di questo parametro è di 12-
16ms per i dischi tradizionali da 3,5” e 7200 RPM, mentre scende a 7ms per i Velociraptor e a 5-6ms per le unità
da 15000 RPM. Più cresce la densità dei dati sui piatti e più è difficile mantenere un basso tempo di accesso. Le
unità a stato solido possono quasi annullare il tempo di accesso, che in genere risulta infatti dell’ordine di
grandezza del decimo di millisecondo.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Una terza caratteristica, che dipende sempre dal volume di input/output al secondo che il drive è in grado di
sviluppare, è la possibilità di accedere ai file in modo simultaneo, o per meglio dire quasi simultaneo, dato che
considerando ad esempio un unità a piatti rotanti risulta impossibile accedere contemporaneamente a due aree di
memoria.
Essa dipende molto dalla logica dell’unità di archiviazione, dalle procedure di queuing e ovviamente dal tempo di
accesso. Una unità può essere ottimizzata al fine di presentare un ridottissimo calo di prestazioni nel momento in
cui più domande di accesso pervenissero simultaneamente al suo controller. E’ il caso delle unità di tipo enterprise
ed in particolare delle unità destinate a sistemi server. Non sempre è una caratteristica che si apprezza in ambito
desktop/workstation.
Le unità a stato solido possono produrre volumi di input/output spaventosamente grandi, mentre le unità a piatti
rotanti, seppur distinguendosi in modo evidente a seconda della velocità di rotazione e della loro tipologia, non
sono più in grado di accrescere le loro prestazioni in modo evidente passando da una generazione all’altra.
Infine per quanto riguarda la capacità delle unità di archiviazione: le unità più capienti sono anche le più
economiche, i dischi rigidi da 7200rpm e in genere con interfaccia sata2; i dischi rigidi di classe enterprise e in
particolar modo quelli più orientati alle prestazioni hanno capacità più limitate. Per quanto riguarda le unità a stato
solido la loro capacità è molto limitata dal costo dei chip di memoria, che si mantiene su livelli ancora elevati a
causa della novità del settore e della mancanza di un’adeguata economia di scala, derivante da una diffusione
ancora modesta di questi prodotti.

Dischi rigidi tradizionali


Sono di gran lunga l’unità di archiviazione di massa più diffusa in particolare nei computer desktop e nelle
workstation di fascia medio - bassa.
Sono le unità che raggiungono dimensioni considerevoli (fino a 2TB di dimensioni per l’attuale generazione), pur
mantenendo un costo particolarmente contenuto.
L’interfaccia è l’ormai quasi onnipresente sata2. Le unità con interfaccia sata3 che si diffonderanno nel corso dei
prossimi anni non saranno comunque in grado di offrire sostanziali aumenti di prestazioni, dato che comunque il
transfer rate che questi dischi possono assicurare (150 MB/s) è molto inferiore a quello supportabile dall’attuale
standard SATA 2 (300MB/s).
In genere hanno velocità di rotazione di 7200rpm, ritenuta un buon compromesso fra costo dell’apparecchio e sue
prestazioni, e che consente a queste unità di non sovrapporsi ai prodotti di classe enterprise. Esistono comunque
unità a velocità di rotazione inferiore, che consentono di contenere il consumo energetico e la rumorosità
dell’apparecchio. Le velocità di rotazione sono in questo caso di 5400rpm e 5900rpm, mentre non è più in uso il
vecchio standard di velocità di 4200rpm. In realtà sono rari i casi in cui il consumo delle unità di archiviazione non
è ininfluente nel bilancio energetico di una casa o di un ufficio. In genere il consumo delle unità più veloci è
inferiore ai 10W, per scendere al di sotto dei 4W per le unità a basso consumo energetico. La rumorosità in genere
scende in conseguenza dell’inferiore velocità di rotazione, ma non si deve dimenticare che esistono unità a
7200rpm molto silenziose (Samsung è fra i produttori di hard disk più silenziosi) e unità a basso regime di
rotazione relativamente rumorose (alcuni modelli di Western digital caviar green ad esempio).
Fondamentale al fine di stimare le prestazioni di queste unità è la densità dei dati sui piatti. Più questa è elevata,
maggiori sono in genere le prestazioni, in conseguenza di una crescita sostanzialmente proporzionale della velocità
di transfer rate. Il passaggio da una generazione di prodotto ad una successiva si accompagna in genere ad un
aumento della densità di archiviazione. Densità standard sono state 160-166GB/piatto, 250GB/piatto 320-
333GB/piatto ed ora 500GB/piatto, con pochi nodi intermedi (alcuni produttori hanno fatto uso di piatti da 200 e
400GB).
L’aumento della densità è fondamentale anche ai fini dell’ottenimento di buone capacità di archiviazione con un
numero di piatti contenuto. Al momento un buon hard disk da 500GB può essere ottenuto con un solo piatto,
mentre in passato ne erano richiesti, ad esempio, 3 da 166GB, con ovvie conseguenze dal punto di vista del
consumo energetico del disco, della sua rumorosità, del calore dissipato e dell’affidabilità. Un disco con più piatti
infatti dovrà avere un gruppo testine più pesante (due testine per ogni piatto) e che dunque richiederà un attuatore
più potente per sviluppare le stesse accelerazioni e dunque consentire gli stessi spostamenti nel tempo. Ciò
comporterà maggiori consumi, maggiore rumore, maggiore stress meccanico. In genere inoltre ad un gruppo testine
più pesante si accompagnano prestazioni inferiori proprio perché la sua inerzia non consente le accelerazioni
imprimibili ad un gruppo di sole due o quattro testine.
Generalmente suggerisco di usare dischi a singolo piatto per il sistema operativo e dischi a due o massimo tre piatti
per lo storage.
Il costo delle unità SATA a 7200rpm è particolarmente contenuto e ciò suggerisce di investire da una parte in unità
più grandi del necessario, al fine di conservare un buon margine di spazio disponibile in caso di crescita imprevista

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


del volume di storage, e dall’altra di investire in volumi RAID, al fine di migliorare le prestazioni delle unità, ma
soprattutto la sicurezza del sistema di archiviazione.
Distinguiamo fondamentalmente quattro produttori per questo tipo di apparecchi: Seagate, Western digital,
Samsung, Hitachi. Non conosco bene quest'ultimo marchio, ed eviterò di parlarne.
Non apprezzo particolarmente i prodotti di Seagate per rumorosità spesso superiori alla norma, anche nelle versioni
a basso consumo che quindi sconsiglio, e per i tempi di accesso elevati mostrati dalle versioni standard. Le unità
7200.12 sono comunque utilizzabili come unità dedicate allo storage, essendo disponibili in tagli di grandi
dimensioni. Come unità dedicate al sistema operativo non sono invece consigliabili a causa dei tempi di accesso
molto alti, che ne inficiano le prestazioni negli accessi simultanei e ne riducono gli IOPS (Input/output per
secondo).
Per quanto riguarda Western digital, i dischi che produce si possono suddividere in tre grandi categorie: caviar
green (AACS, EADS, EARS), unità da 5400rpm a basso consumo e con rumorosità contenuta, i caviar blue (caviar
AAKS e AAKX), i dischi più diffusi: economici, veloci e affidabili. Sconsiglio di acquistare un vecchio AAKS,
essendo dotati di piatti con densità ridotta (320GB per piatto, o 250GB, per piatto nei modelli da 500GB). Infine i
caviar black (AALS) sono i prodotti della fascia più alta, che si distinguono per l’adozione di alcune soluzioni
tecniche d’avanguardia quali la doppia logica di gestione e, per ora solo nelle versioni da 2TB, il braccio di
supporto delle testine snodato. I modelli di dimensioni inferiori al terabyte, che si sovrappongono ai dischi caviar
blue, non sono all’atto pratico più veloci di questi ultimi, costando invece qualcosa in più e risultando più rumorosi.
Sul modello da due terabyte c’è invece da dire che è un prodotto piuttosto costoso e difficilmente le la differenza di
prestazioni, non sempre evidente, costituisce un fattore importante in unità di queste dimensioni, che verrà usata
per lo più per l'archiviazione.
Una serie di prodotti fisicamente identici ai caviar black sono i modelli RAID edition, che si distinguono dai primi
per una diversa implementazione dei firmware: più votato agli accessi multipli simultanei e all’operatività su file di
piccole dimensioni, il ché rende questi dischi molto adatti all’uso in stripe. Non è comunque necessario ricorrere a
questi dischi per costituire un buon RAID 0. Sono dischi abbastanza costosi. Le unità di fascia consumer (caviar
Blue) non sono disponibili in tagli di grandi dimensioni, per cui difficilmente si prestano all'uso come volumi di
archiviazione, e le unità disponibili fanno uso di piatti di densità inferiore a quanto la tecnologia odierna può
offrire, mostrando di conseguenza transfer rates inferiori a quanto reso possibile dalla concorrenza. Le unità da
320GB sono preferibili rispetto a quelle da 500GB, dato che queste ultime sono ottenute con due piatti da 250GB,
risultando più lente, ma anche più soggette a rotture e più calde.
Samsung produce dischi dalle buone caratteristiche complessive: le prestazioni dei modelli spinpoint f3, muniti di
piatti da 500GB, sono spesso superiori alla concorrenza, ma soffrono negli accessi simultanei. La rumorosità dei
dischi Samsung è spesso molto contenuta. Le versioni da 1TB e 1,5TB sono adatte come dischi di archiviazione,
più veloci delle unità a basso consumo.
I modelli eco green sono dischi dal ridottissimo consumo e dalla ridottissima rumorosità. Le prestazioni sono,
d’altra parte, di conseguenza modeste.

Dischi rigidi Western Digital Velociraptor


Sono hard disk con interfaccia SATA2, disponibili in tagli da 150GB, 300GB, 450GB, 600GB, aventi velocità di
rotazione di 10000 giri al minuto, il che si traduce in un tempo per l’accesso ai file di approssimativamente 7ms
contro i 12 ms minimi richiesti dai migliori dischi a 7200rpm. Il diametro dei piatti è di 2,5”, al fine di contenere la
rumorosità, il calore dissipato ed il consumo energetico. Sarebbero indicati per supportare sistema operativo e
programmi, ed eventuali partizioni di swap, tutti casi in cui è richiesta una buona operatività su volumi elevati di
file di piccole dimensioni. Il loro costo è tuttavia elevato: per le vecchie versioni si tratta di 100 euro circa per il
disco da 74GB, 130€ per un modello da 150Gb, 180 euro per la versione da 300GB. Le nuove versioni invece
hanno costi compresi tra i 200 ed i 300 euro per le unità da 450GB e 600GB.
Sono dischi di assoluta silenziosità e affidabilità, destinati ad essere impiegati oltre che in computer di fascia
elevata, su server di storage di fascia medio - bassa e sistemi NAS, dove l'adozione di unità a stato solido
comporterebbe prezzi elevatissimi legati alla necessità di utilizzare unità con memoria di tipo SLC.
Con l’avvento delle unità a stato solido, nei personal computer e nelle workstation di fascia più alta i dischi
meccanici ad alte prestazioni sono divenuti difficilmente consigliabili: sebbene le loro prestazioni siano superiori a
quelle di un normale disco meccanico a 7200rpm, il loro prezzo è elevato. Non hanno insomma ne l’economicità
dei dischi più comuni, ne le prestazioni degli SSD.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Dischi ad alte prestazioni: SCSI, SAS e Fiber channel
Sono i dischi meccanici dedicati alla fascia più alta del mercato, si distinguono per un’interfaccia di collegamento
più veloce e per velocità di rotazione maggiori: gli standard sono di 10000 RPM e di 15000 RPM.
A parte alcune schede madri dedicate al segmento server e workstation di fascia alta, richiedono un controller
addizionale che può rivelarsi molto costoso. In genere questo controller mette a disposizione una o due porte SCSI
(o più SAS o fibre ottiche), ed eventualmente uno SCSI esterno. Un cavo SCSI, al pari di una piattina IDE, può
supportare più di un disco (ma ne risentono le prestazioni): fino a 15.
I migliori controller integrano processore ed uno slot per un banco di RAM apposito, che deve essere di tipo ECC
registered. Le prestazioni ovviamente ci guadagnano, soprattutto in caso di configurazioni di più dischi in RAID.
Il controller usa ovviamente uno slot sulla scheda madre per collegarsi ad essa: i più economici hanno slot PCI e
PCI-X (i due standard sono generalmente entrambi supportati). Purtroppo sulle schede madri per desktop il PCI-X
(versione a 64bit del PCI) non si è mai diffuso se non in alcuni esemplari, mentre il semplice slot PCI costituisce un
collo di bottiglia non indifferente. I controller che consiglio hanno slot PCI-express che può essere 1x 4x o 8x o
anche 16x elettrico e meccanico; purtroppo sono abbastanza costosi. Il semplice PCI-X 1x elettrico potrebbe non
essere sufficiente nel caso di RAID di più di due dischi.
Ovviamente quanto detto in precedenza per i sistemi RAID di dischi SATA vale anche qui; il controller potrà
supportare varie configurazioni di dischi in RAID.
I prezzi dei dischi sono naturalmente elevati. Difficile trovargli una collocazione in una workstation,a meno che
non sia possibile sfruttare un controller SAS integrato nella scheda madre. Molto spesso è preferibile ricorrere ad
un sistema RAID di normali dischi SATA o meglio ad un’unità a stato solido.
I dischi SCSI/SAS/FB esistono in tagli piuttosto piccoli e comunque oltre una certa dimensione diventano molto
costosi: dovendo rivolgersi a questa tecnologia consiglio di prenderne un paio in RAID 0, di dimensione di 73Gb,
da destinare al sistema, ai programmi e alle cache. Chi necessitasse di grandi dimensioni per lavorare su grossi
video invece dovrebbe ricorrere a tre dischi più grandi (150Gb) in RAID 5. Ciò darebbe piena sicurezza al lavoro e
consentirebbe il suo salvataggio all’interno dei dischi.
Ricordo comunque che si tratta di dischi di fascia molto alta e la cui qualità costruttiva è nettamente superiore a
quella di un normale SATA; la perdita di un simile disco costituirebbe sicuramente un’eventualità eccezionale e
potrebbe essere collegata più che altro ad eventi esterni quali la caduta di un fulmine o la “morte” di un
alimentatore.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Solid State Drive
Rappresentano al momento la migliore tecnologia per l’archiviazione di massa dal punto di vista delle prestazioni e
molto probabilmente anche dell’affidabilità.
Le unità a stato solido sono costituite da celle di memoria flash gestite da un opportuno controller e offrono
prestazioni grosso modo dello stesso ordine di grandezza di quello della memoria centrale dei computer. Per questo
motivo consentono finalmente di aggirare il drastico calo di prestazioni che si verifica in un computer nel momento
in cui il sistema deve accedere ai dati su normali unità di archiviazione costituite da hard disk.
Le latenza dei solid state drive si misurano in nanosecondi, gli IO/sec sono estremamente elevati, le velocità di
trasferimento non calano drasticamente dovendo accedere a più file contemporaneamente.
Tutto ciò cambia sensibilmente l’esperienza dell’utente del computer.
Anche l’affidabilità è intrinsecamente superiore a quella di un disco meccanico, non essendoci parti in movimento
ad elevata velocità e con tolleranze ridottissime.
Al giorno d’oggi le unità di archiviazione a stato solido hanno un costo per Gigabyte decisamente elevato (a partire
da 1,5 euro per Gigabyte per un buon prodotto), ma il prezzo è destinato a scendere.
Si distinguono due tipologie di memoria utilizzate in questo tipo di prodotti:
Memoria Single level cell: archivia un bit per ogni cella di memoria. E’ la tipologia più veloce e più affidabile, ma
anche di gran lunga la più costosa.
Memoria Multi level cell: è la tipologia di memoria più diffusa e probabilmente è destinata ad affermarsi al di fuori
degli ambienti server e workstation di alto livello. Consente di archiviare fino a 4 bit per ogni cella, così da
migliorare la densità di archiviazione e ridurre il costo d’acquisto del prodotto finito. Le prestazioni in scrittura
sono inferiori ad una memoria SLC e la durabilità della cella è più limitata.
A differenza della memoria flash dinamica utilizzata per le RAM la memoria NAND flash usata nelle unità a stato
solido prevede un numero massimo di cicli di riscrittura, superato il quale una cella non risulterà ulteriormente
riscrivibile. Tale soglia è di circa 5000 cicli per un a memoria multi level cell prodotta a 34nm. Una memoria
prodotta a 25nm ha una vita stimata di 3000 cicli. Le memorie SLC raggiungono i 100000 cicli; di qui la maggiore
affidabilità della memoria SLC e la sua maggiore attitudine all’uso in sistemi server e data center. Per un sistema
desktop o workstation ad ogni modo si deve dire che 5000 cicli di riscrittura sono un numero elevatissimo, tenendo
conto anche della disponibilità di spazio sui dischi. Considerando un’unità della capacità di 120GB in essa saranno
scrivibili in tutto all’incirca 600 mila gigabyte (600TByte) di dati prima che essa perda la possibilità di acquisire
nuovi dati. Immaginando di scrivere 50GB al giorno (una quantità pressoché irraggiungibile da un utente comune)
corrispondono a 12000 giorni di vita del disco, pari a 33 anni di utilizzo ininterrotto... Ad ogni modo è importante
notare come un’unità più grande sia anche meno soggetta ad usura, potendo ripartire le scritture su più celle.
Un disco di tipo multi level cell è dunque in generale valido per l’professionale.
Infine si deve considerare che anche al termine della sua vita il disco non risulterebbe illeggibile; continuerebbe a
funzionare permettendo di leggere tranquillamente tutti i dati in esso contenuti. Solo non sarebbe più possibile
scrivervi dentro nuovi dati. Non sussiste quindi il rischio di perdita di dati ma bensì quello di non potervi scrivere
ulteriormente.
Vediamo ora quali sono le procedure per evitare un’eccessiva usura delle celle di memoria: se anche la vita utile è
così elevata non è infatti il caso di abusarne:
- wear leveling: gli algoritmi implementati a livello di controller dei dischi provvedono a ripartire il carico fra
tutte le celle del disco. I dati verranno dunque di volta in volta scritti sulle celle che hanno subito meno cicli di
riscrittura. Si potrebbe pensare che ciò porti ad un eccessivo disordine nell’unità, ma si deve considerare che la
frammentazione dei dati non ha impatto prestazionale su questo tipo di dispositivo. I tempi di accesso sono
infatti insignificanti e le prestazioni in lettura sequenziale non si discostano molto dalle prestazioni negli
accessi a dati frammentati e sparsi su tutto il disco. Anzi: un accesso a dati su celle diverse potrebbe consentire
di migliorare le prestazioni grazie proprio al parallelismo delle operazioni.
Proprio questa procedura ci permette di eseguire un calcolo come quello di qui sopra sulla durata delle celle: se
le celle usate fossero sempre le prime libere a partire da un estremo dell’unità (come avviene nei dischi
meccanici, dove si cerca di sfruttare la parte più esterna e veloce dello spazio di archiviazione), dovremmo
considerare come spazio utile solo quello effettivamente usato mediamente, e il risultato sarebbe molto diverso.
- Overprovisoning: la memoria di cui è equipaggiato un SSD è in realtà maggiore della sua capacità
nominale. In questo modo la parte di memoria non allocabile contribuisce ad aumentare la vita utile del
prodotto, oltre a costituire la spare area.
- Disattivazione della deframmentazione: come già detto la frammentazione dei dati è una caratteristica insita
nelle procedure di scrittura dei dati da parte dei controller degli SSD. Il sistema operativo troverebbe queste
unità sempre estremamente rammentate. La deframmentazione d’altra parte non apporterebbe benefici, mentre
causerebbe un inutile ed eccessivo spostamento di dati con conseguente consumo delle celle. Quando un
sistema operativo riconosce l’unità come SSD vi disattiva la deframmentazione automatica. L’utente non dovrà
Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com
provvedere manualmente ad alcuna procedura di questo tipo. Windows XP non p in grado di distinguere fra
SSD e dischi meccanici, ma in realtà non prevede neanche una procedura di defrag automatica.
- Spostamento dei file temporanei: questo è un’attenzione che suggerisco ma non è una procedura automatica: i
file temporanei di sistema e di internet causano un continuo riciclo di dati salvati sul disco: dato che non è
richiesta una particolare velocità conviene allontanare questo tipo di dati dall’unità a stato solido e spostare la
cartella dei temporanei su un disco meccanico, che sarà presente come disco per archiviare i documenti.
Ovviamente il drive a stato solido potrebbe essere dedicato anche ai file temporanei o al paging di software di
produttività. In quel caso si accetta che il disco si degradi progressivamente, ovviamente considerato quanto già
detto sulla vita media delle celle.
- Spostamento del file di paging: personalmente preferisco allocare il file di paging in un disco meccanico.
Questo perché in genere con le dimensioni elevate che hanno oggi le RAM installate sui computer per un uso
generico non è richiesta una grande velocità al paging. Esso viene usato dal sistema per allocarvi i dati ad
accesso random meno sensibili e dunque anche meno suscettibili di un calo di prestazioni.
Ovviamente è possibile usare l’unità SSD proprio come cache per i programmi nel caso in qui la RAM a
disposizione sia insufficiente, dunque per quelle applicazioni che richiedono quantitativi di memoria
estremamente elevati, e questo è un uso molto proficuo che si può fare di un unità di questo tipo.
Si accetterà che la vita utile del disco diminuisca nel tempo, sempre consapevoli del fatto che molto
probabilmente ci vorranno anni prima che il disco divenga inutilizzabili. A questo proposito non è sempre
consigliabile l’uso di un SLC: il costo è parecchio più elevato e probabilmente converrà acquistare un MLC più
grande (che ripartisce su più celle il carico), o accettare che dopo qualche anno l’unità sia da sostituire, con un
risparmio in denaro, una diluizione della spesa, e una contemporanea diminuzione del costo dei drive.

Una ulteriore differenza fra le unità a stato solido e i supporti meccanici magnetici sta nelle modalità di scrittura dei
dati: mentre al momento di riscrivere un dato il disco meccanico dovrà semplicemente sostituire loco per loco il
valore di ogni bit, la memoria flash deve procedere nel seguente modo: deve considerare il cluster dove si trova il
dato da sostituire: il cluster potrebbe contenere sia il dato da sostituire, sia altri dati da mantenere: in tal caso non è
possibile sostituire solo il dato voluto. Il cluster dovrà essere riscritto totalmente. Il controller dovrà dunque copiare
in cache l’intero cluster, rimuovere il dato da cancellare, inserire il dato da scrivere e infine re-inviare alla memoria
di archiviazione il cluster modificato. Ciò provoca un evidente calo di prestazioni, ed un incremento dell’usura
delle celle, perché ogni scrittura sarà accompagnata dalla riscrittura dell’intero cluster (write amplification).
Ovviamente il calo prestazionale risulta tanto maggiore quanto più lento è il controller a spostare il dato da e verso
la cache e ad operare la sostituzione.
Il problema della riscrittura si pone perché in un approccio tradizionale, quando un dato viene cancellato dalla
memoria esso non viene effettivamente rimosso dall’unità di archiviazione. Il sistema operativo semplicemente
rimuoverà il dato dalla File Allocation Table, cosicché le celle di memoria relative al dato cancellato appariranno al
sistema come libere, cioè riutilizzabili. Questo proprio perché per gli hard disk meccanici non c’è differenza fra
scrivere un dato in una cella vuota o scriverlo sostituendo il contenuto della cella; è inutile allora andare a
cancellare un dato, con un impatto negativo sulle prestazioni, aumentando il carico di lavoro per l’unità, quando
esso può rimanere li fino a nuova scrittura.
Applicando una pratica di questo tipo ad un SSD dopo che tutte le celle saranno state occupate almeno una volta sul
disco ci si ritroverà con un drive pieno di celle già scritte, anche se al sistema operativo esse appariranno come
vuote. Le celle saranno riscrivibili, ma per far ciò si dovrà procedere come già descritto, con il risultato che tutto il
disco apparirà molto più lento di quanto non fosse alla prima scrittura.
Per aggirare il problema è sufficiente che, al momento della rimozione di un dato da parte del sistema operativo,
esso sia effettivamente cancellato anche dal disco, sempre copiando e modificando il cluster intero; nessuno si
accorgerebbe mai del fatto che la cancellazione di un dato dall’unità comporta un buon numero di operazioni da
parte del controller; nessuno in sostanza si accorgerà mai di un impatto negativo sulle prestazioni del drive nel
cancellare i dati.
Al momento della scrittura del nuovo dato la cella risulterà vuota e si potrà accedervi alla velocità canonica
dell’SSD.
La procedura di effettiva cancellazione dei dati da parte del sistema operativo prende il nome di trim ed è
implementata a partire da windows Seven. Ovviamente l’SSD deve supportare il comando trim inviato dal sistema.
Le unità a stato solido sono oggi consigliate come unità principali dove installare il sistema operativo ed i
programmi nelle macchine di fascia più alta, dove il loro costo è accettabile e non richiede di scendere a
compromessi su altre componenti più importanti, o su macchine dove è importante la velocità delle unità di
archiviazione.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


I produttori di unità a stato solido sono oggi molti, ma solo alcuni prodotti sono veramente validi. I produttori di
memorie e di controller sono in oltre molto pochi e assieme ad una domanda elevata se rapportata all’offerta di
prodotti disponibile sul mercato, ciò comporta un incremento dei prezzi d’acquisto.
Il controller in particolare ci permette di distinguere subito un buon prodotto da un prodotto con caratteristiche
scadenti: al di fuori di Intel, che produce in casa sia il controller che i chip di memoria, i controller per SSD sono
prodotti da Sandforce, samsung, marvell, jmicron e Indilinx.
Sandforce produce oggi i controller SF-1200 ed SF-1500 (quest’ultimo dedicati ai prodotti di fascia enterprise), che
sono tra i migliori controller per SSD sia MLC che SLC, usati in moltissimi prodotti di fascia alta, tra i quali OCZ
vertex 2 (nelle molte versioni secondarie), OCZ Agility 2, Corsair Force, Patriot Inferno e altri.
Questi prodotti sono tuttavia in via di sostituzione con SSD di nuova generazione, dotati di controller SF-2200, di
prestazioni elevatissime. I nuovi prodotti di OCZ prenderanno il nome di Vertex 3, mentre i prodotti di corsair sono
stati annunciati con il nome di Corsair GT. I nuovi prodotti saranno disponibili nel Q2 2011.
Marvell produce i controller C300 usati negli SSD Crucial C300, nonché il nuovo controller C400, adoperato negli
SSD Intel 510, Crucial C400 e Corsair Performance 3 (P3). Gli SSD Crucial C300, ormai di passata generazione,
erano caratterizzati da buone prestazioni, e transfer rates sequenziali elevatissimi, grazie all’introduzione, per la
prima volta su un SSD prodotto in grande scala, dell’interfaccia SATA 3 a 6Gbit/s.
Gli SSD di nuova generazione mostrano nuovamente prestazioni adeguate, e decisamente superiori ai precedenti.
Saranno disponibili in Italia probabilmente a partire da Aprile 2011.
Indilinx ha prodotto in passato un ottimo controller (barefoot); purtroppo a questo prodotto, presentato
approssimativamente nel 2009, e che ha equipaggiato diversissimi prodotti di fascia elevata (OCZ vertex, Agility,
diversi supertalent, Gskill Falcon, corsair Nova) non ha fatto seguito un successore, che potesse competere con le
prestazioni delle unità presentate nel 2010 (controller sandforce SF-1200 e Marvell C300). Oggi un buon prodotto
con questo controller rimane il Corsair Nova nel taglio da 128GB, che però deve essere reperibile a prezzi
contenuti per risultare conveniente.
I controller prodotti da
Samsung ha prodotto in passato controller relativamente buoni; tuttavia, nonostante l’introduzione del comando
TRIM avesse colmato un grave difetto di queste unità (vistoso calo delle prestazioni nel tempo), le prestazioni non
sono competitive con quelle dei prodotti fin’ora esaminati.
Jmicron ha prodotto i primi controller per SSD, ma le prestazioni sono risultate scadenti o affette da gravi cali. Una
nuova versione di controller (612 in sostituzione del vecchio 602/602B) risolse il problema, ma non fu in grado di
competere con gli SSD concorrenti. Ad oggi è bene scartare i prodotti dotati di controller jmicron.
Le unità da 2,5”prodotte da Intel con controller proprietario e memorie MLC prendono il nome di X-25M. la
versione attualmente in vendita è la G2, presentata nel 2009, e sebbene sia stata un eccellente SSD per prestazioni
ed affidabilità, non risulta più in grado di competere con i nuovi prodotti concorrenti usciti nel 2010. Un SSD intel
X-25M G2 è conveniente se acquistato ad un prezzo ridotto, inferiore a quello di un prodotto con controller
Sandforce o Marvell di pari dimensioni.

La scelta dell’SSD è oggi ancora piuttosto delicata, soprattutto perché le alternative sul mercato sono numerose,
molte quelle buone, ma molte anche quelle da scartare. I prodotti oggi consigliati sono i seguenti: elenco tuttavia
solamente i più diffusi:
- OCZ Vertex 2E: Controller sandforce, memorie prodotte a 34 e recentemente a 25nm. Sarebbe meglio
evitare i prodotti con memorie da 25nm (prestazioni e durata inferiori ai precedenti), ma purtroppo sembra
difficile distinguerli.
- Corsair Fxxx: Controller sandforce e memorie a 34nm: sono analoghi dei precedenti, ed anche il prezzo
non si discosta molto. Possono però essere distinti facilmente dai prodotti con memorie a 25nm: questi
ultimi infatti prendono il nome di FxxxA. Il taglio inoltre, denotato dalle cifre qui sostituite con x, è, per
prodotti corrispondenti, lievemente inferiore, perché una parte maggiore della memoria è stata dedicata ad
overprovisoning, per compensare la minore durata delle celle prodotte a 25nm. Il successore del comune
Corsair F120 è dunque l’F115A, che usa lo stesso controller ma nuove memorie. Possibilmente converà
prendere il vecchio, a meno di differenze di prezzo sostanziose.
- Crucial C300: SSD con controller Marvell dagli elevatissimi transfer rates, soprattutto se scelto nella
dimensione di almeno 128GB (il 64GB ha prestazioni meno di spicco). E’un’unità conveniente soprattutto
quando sono ricercate velocità di trasferimento molto alte, cioè quando l’utilizzo tipico prevede l’accesso
ed il salvataggio di file di elevatissime dimensioni o di molti file in sequenza (Editing e compositing
video).

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Array di dischi: il RAID
Il RAID è una configurazione ottenuta a partire da più hard disk, al fine di aumentare le prestazioni e/o
l’affidabilità del volume risultante
I sistemi RAID più diffusi sono il RAID 0 ed il RAID 1.
Il primo permette di suddividere ogni elemento in ingresso fra due dischi di uguale capacità, in questo modo
raddoppia (potenzialmente) la velocità di trasferimento dei dati del volume. Ho parlato di un RAID 0 di due dischi,
ma un discorso analogo vale anche per un RAID di 3 o più unità. La dimensione del volume ottenuto è pari alla
dimensione di ogni unità impiegata moltiplicata per il numero di unità che fanno parte dell’array.
Per contro aumenta la possibilità di perdere i dati all’interno dell’unità, dato che basterà che si danneggi un solo
disco per perdere tutto il contenuto: gli altri dischi conterranno solo una parte di ogni file e non sarà possibile
recuperare alcunché.
Tuttavia questo non deve spaventare l’utente: un sistema RAID 0 non è certo adatto allo storage dei documenti, che
non richiede neanche grandi prestazioni. Mentre per installare il sistema, i programmi ed eventuali cache il RAID 0
è spesso una buona soluzione.
Il RAID 1 consiste invece nello scrivere ogni dato in ingresso in un volume su due/tre/quattro dischi separati: in
questo modo, se uno di essi andrà in contro a danneggiamento, l’altro, o gli altri conterranno una copia speculare di
tutti i dati e ne consentiranno il recupero. E’ questa una soluzione che consiglio fortemente per ogni volume
dedicato allo storage; i dischi non sono certo materiale costoso e sono dedicati a contenere tutto il lavoro svolto.
Spesso si spendono migliaia di euro in processore e scheda video per poi affidare tutto il lavoro ad un disco da 50
euro. Scegliere un RAID 1 permette di mettersi al sicuro quantomeno dai guasti tecnici più generici con una
modica spesa.
La dimensione del volume risultante è pari alla dimensione di una singola unità.
Meno usato a causa della maggiore complessità (e costo), il RAID 5 permette di aumentare sia le prestazioni che
l’affidabilità del sistema dischi, ma richiede almeno tre dischi per essere configurato. Le dimensioni del volume che
ne risulta sono pari a quelle di due delle tre unità impiegate, mentre le prestazioni possono essere elevate,
raggiungendo quasi quelle di un RAID 0 di due unità (di tre unità facendo riferimento ad un RAID 5 ottenuto a
partire da quattro dischi). Per sua natura il RAID 5 richiede però elevate prestazioni al suo controller. Il consiglio è
di usare controller con processore e memoria dedicata.
Inoltre la sicurezza che garantisce non è del tutto comparabile con quella di un semplice RAID 1: se il controller si
guastasse (o la scheda madre, se il controller è integrato) i dischi dovrebbero essere collegati ad un nuovo
controller. A questo punto si dovrebbe procedere con utility apposite al fine di ricostruire l’intero volume RAID.
Con un RAID 1 basterebbe collegare una qualunque delle unità che ne facevano parte ad un computer qualunque
per recuperare l’intero contenuto. La singola unità di un volume RAID 1 è, dunque, leggibile da qualunque sistema
come un normale hard disk con una partizione tradizionale.
Una configurazione più semplice da gestire, per il controller, e per certi versi più sicura rispetto al RAID 5 è il
RAID 10, detto anche RAID 1+0, ottenuto mettendo in RAID 0 due coppie di hard disk posti fra loro in RAID 1. In
questa configurazione (RAID 10 di quattro dischi) il volume ottenuto può sopportare la perdita di uno qualunque
degli hard disk partecipanti. Inoltre, una volta perso un hard disk, può ancora essere perso uno qualunque dei due
hard disk della coppia di dischi in RAID 1 rimasta integra, senza che il volume ed il suo contenuto risultino persi.
Il suo contrario, il RAID 0+1 è invece intrinsecamente leggermente meno sicuro: se un hard disk va perso, è ancora
possibile perdere solo l’hard disk che si trovava con questo in RAID 0, dato che una copia speculare di questo
volume RAID 0 si trova nell’altra coppia di hard disk in RAID 0. Le due coppie di hard disk in RAID 0 sono
infatti, in questa configurazione, poste in RAID 1.
Sono possibili anche RAID composti (0+1 e 1+0) a più di quattro dischi, anche se non mi addentro nella
descrizione. Allo stesso modo sono possibili RAID composti che prevedono RAID 5 e array di altri tipi che ho qui
trascurato.
Sono comunque casi al limite: se il controller si danneggia il recupero dei dati è possibile e agendo nel modo
corretto è certo. Ma non è semplice come spostare l’hard disk buono su un computer e copiare tutti i dati: questa
cosa è possibile solamente con un RAID 1.
Gli attuali southbridge AMD e Intel permettono di definire all’interno di uno stesso insieme di Hard disk più di un
volume RAID, anche di tipologie diverse: in questo modo ogni RAID occuperà negli hard disk uno spazio inferiore
alla dimensione massima e impostato dall’utente. Quando un insieme di unità contiene, su parte dello spazio di
ognuno, un certo array, sarà possibile sfruttare la rimanente parte di ogni disco con un qualunque altro tipo di array
compatibile con il numero di unità a disposizione, ma quest’ultimo dovrà coinvolgere tutti i drive qui sopra
considerati.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Vediamo alcuni esempi di configurazioni utili ad una workstation, in base al numero di dischi disponibili:
2 dischi: E’ possibile impostare all’inizio dei dischi un volume RAID 0 per installarvi il sistema operativo ed il
software, ed un volume RAID 1 sul rimanente spazio, da dedicare all’archiviazione di dati importanti. Possibile
anche usare i due dischi prevalentemente in RAID1, ma dedicare all’inizio dei dischi, dove la velocità di accesso è
maggiore, un piccolo spazio ad un RAID 0 da destinare a swap, scratch file e quant’altro.
In caso di danneggiamento del RAID 0 o di una delle due unità il volume RAID 1 sarà comunque accessibile. Allo
stesso modo spostando anche un unico hard disk su una scheda madre diversa (preferibilmente con lo stesso
southbridge) sarà possibile accedere al RAID 1. La sostituzione della scheda madre in seguito ad un guasto dunque
non comporta la perdita del contenuto del volume RAID 1, che sarà comunque riconosciuto una volta attivata la
modalità RAID o anche AHCI sulla nuova scheda madre.
Chi sentisse il bisogno di avere un sistema sicuro come un RAID 1 probabilmente preferirà dedicarvi due dischi ad
hoc, e non uno spazio su dischi che sono usati dal sistema e dunque più sfruttati e sollecitati.
3 dischi: Si può pensare di creare all’inizio dei tre dischi un RAID 0, usufruendo delle grandi doti di velocità, e
nello spazio rimanente un RAID 5, che consentirà una buona sicurezza dei dati ed una velocità comunque superiore
ad un singolo disco dedicato allo storage. Il problema della perdita di spazio dovuto al RAID 5 è inferiore e,
almeno in certi casi, compensato dal guadagno in termini di velocità. La soluzione sarebbe interessante per storage
in sistemi dedicati al video editing; anche qui si usa il RAID 0 iniziale come memoria virtuale.
Considerazioni simili si possono fare con 4 o più dischi.
Qualcuno in passato mi ha posto la seguente obiezione: avendo 3 dischi, meglio usarne due in RAID 0 ed uno per
lo storage (o eventualmente comprando altri dischi per un secondo volume RAID, ad esempio di tipo 1), che
crearvi sia un RAID 0 per il sistema, sia un RAID 5. Le argomentazioni, peraltro valide erano queste: mettendo due
volumi RAID all’interno degli stessi dischi si soffre di un limite nell’accesso simultaneo ai due volumi; questo è
vero perché se il sistema dovesse accedere simultaneamente a dati sul RAID 0 (ipotizziamo ci sia un RAID 0 ed un
RAID 5) e dati sul RAID 5, impegnerebbe gli stessi dischi, come se avessimo sullo stesso hard disk sistema e
documenti. D’altra parte però l’eventualità di accessi simultanei ai due volumi può essere considerata di minore
importanza rispetto ai vantaggi di un incremento di transfer rate (e diminuzione dell’access time, anche se
inferiore) ottenuti a costo zero tramite lo sfruttamento di questa tecnologia.
Come avrete notato, una volta deciso di utilizzare hard disk in raid propendo sempre per la creazione di un volume
RAID 0 all’inizio di tutti i dischi a disposizione. A meno che non si tratti di dischi destinati, per scelta di grande
prudenza, al solo salvataggio di dati ritenuti importanti.
La procedura di creazione di un volume RAID ridotto è molto semplice: si procede come per creare un RAID
normale, specificando solo, fra i parametri che sarà richiesto di impostare (tipologia di Array, etichetta, stripe,
dischi partecipanti), la dimensione definitiva del volume.
Si procederà dunque dapprima impostando il southbridge per funzionare in modalità RAID. A questo punto al
successivo riavvio si deve accedere al configuratore del southbridge premendo l’apposita combinazione di tasti
(riportata sul manuale della scheda madre) e da qui sarà sufficiente scegliere la voce “create new RAID volume”,
selezionare il tipo di volume RAID (fra 0,1,5,10, ma solo quelli possibili col numero di dischi connessi al
southbridge saranno disponibili), assegnare un’etichetta al volume, assegnare uno stripe (tranne nel caso di un
RAID 1), e la dimensione, che di default è impostata come la massima disponibile all’interno dei dischi. Si
sceglieranno dunque le unità (o i volumi RAID già creati, per soluzioni annidate) che dovranno partecipare al
volume, e si potrà confermare la creazione del volume.
Ricordo comunque a tutti di rifarsi al manuale della scheda madre per il supporto a queste operazioni.

SCELTA DELLE UNITÀ DI ARCHIVIAZIONE


Ciò che abbiamo imparato è che a seconda della destinazione d’uso dell’unità dovremo prendere in considerazione
caratteristiche diverse: la capacità, o meglio il costo rapportato alle dimensioni, il cosiddetto “costo al gigabyte”, le
prestazioni sotto i diversi aspetti, il numero di cicli di riscrittura utili...
Una regola importante è quella di non installare mai un unico disco destinato a tutte le funzioni di archiviazione: gli
hard disk in particolare costano molto poco e separare il sistema operativo dai documenti è un criterio importante.
Il volume dei documenti risulterà meno stressato e di conseguenza meno soggetto a guasti, mentre all’apertura dei
programmi e dei documenti il sistema potrà leggere i file dalle due sorgenti separate, in modo da evitare di accedere
simultaneamente a posizioni differenti dell’hard disk, con evidenti perdite di prestazioni. Inoltre potremo sempre
sostituire un disco di documenti senza dover spostare anche il sistema operativo, operazione che richiede parecchio
tempo, sia che si proceda con una nuova installazione, sia che si proceda spostando l’immagine del disco.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Data la vastità degli argomenti e la continua evoluzione che il mercato delle unità a stato solido subisce, consiglio
comunque di consultare il thread ufficiale nella sezione recensioni e test di treddi.com, prima di scegliere
definitivamente il prodotto da acquistare.

Unità destinate al sistema operativo e ai software installati


Le dimensioni del volume non sono in genere fondamentali per la scelta dell’unità, soprattutto nell’ambito degli
hard disk tradizionali, nei quali siamo vincolati dal voler cercare un disco a singolo piatto con elevata densità di
archiviazione. In sostanza per quanto riguarda i dischi tradizionali la più piccola unità che andremo a montare sarà
un generoso 500GB.
Dimensioni più piccole sono caratteristiche dei dischi da 10000 RPM, nella fattispecie dei Velociraptor, che per
quanto già visto non consiglio, o dei dischi a stato solido, dove essendo il costo per Gigabyte elevato e le
prestazioni in genere indipendenti dal taglio, sceglieremmo l’unità più piccola che garantisce lo spazio richiesto.
Per le unità di questo tipo sono di fondamentale importanza le prestazioni e in particolarmente l’operatività su file
di piccole dimensioni. Possiamo dunque considerare il tempo di accesso come un primo parametro da considerare.
Non è possibile comunque ottimizzare la scelta dell’unità unicamente in base a questo parametro.
La maggior parte dei dispositivi destinati a questo scopo è composta da dischi rigidi da 7200rpm e interfaccia
SATA2, un prodotto quindi molto convenzionale il cui costo si aggira sui 40-50 euro. I modelli suggeriti sono i
Western digital caviar AAKX da 500GB, i Samsung F3 500GB, ed eventualmente i Samsing F4 320GB (singolo
piatto da 640GB usato su un solo lato).
Un buon SSD costa parecchio di più, ma offre prestazioni ineguagliabili quando usato in quest’ambito. Se il budget
lo consente, un SSD permette di migliorare notevolmente la fluidità del sistema, nell’avviamento delle applicazioni
e nel passare da un programma aperto ad un altro.
I prodotti consigliati sono quelli già elencati al capitolo dedicato a queste unità.

Unità dedicate allo storage


In questo caso le prestazioni del dispositivo passano in un certo qual modo in secondo piano: possiamo comunque
prediligere unità dall’elevato transfer rate. Ciò è anche in accordo col principio di scegliere unità con la maggiore
densità di archiviazione, al fine di limitare al minimo il numero di piatti per disco. Si potranno allora scegliere i
Samsung F3 nei tagli da 500GB, 1TB e 1,5TB, dischi dalle buone prestazioni e silenziosi, oppure unità a più basso
regime di rotazione quali i Seagate Barracuda da 5900rpm e i Samsung eco green F2, sempre dotati di piatti da
500GB, in ordine decrescente di rumorosità e prestazioni.
I dischi Western digital caviar green nelle versioni eads sono muniti di piatti da 500GB e sono dischi silenziosi e
relativamente veloci. I modelli con piatti da 320-333GB erano invece più rumorosi, mentre la serie aacs è da
scartare per l’uso con sistemi linux a causa di una procedura di parcheggio delle testine dopo un certo lasso di
tempo (10 secondi) di inattività. Il kernel linux accede agli hard disk ogni 11-12 secondi per alcune funzioni di
controllo… Ciò porta l’hard disk a terminare nel giro di poco tempo il numero di cicli di progetto di load/upload
delle testine.
Vista l’economicità di queste unità e l’importanza, materiale, pratica o affettiva, dei dati che spesso contengono,
consiglio caldamente di migliorare la protezione dei dati ricorrendo a volumi RAID 1 (mirror), come vedremo nel
relativo capitolo.
Diverse persone hanno la tendenza a disporre i documenti in hard disk esterni, spesso fra l’altro in singola copia.
Ciò è pericolosissimo, dato che gli hard disk esterni sono per loro natura molto più soggetti a danneggiamento di
hard disk conservati internamente al case, per effetto di cadute accidentali spesso provocate da animali domestici o
persone inesperte che in qualche modo vengono in contatto con l’unità o disattenzione. Ad ogni modo non è il caso
di correre il rischio. Un hard disk contenuto all’interno del cabinet sarà sempre più al sicuro per quanto riguarda
cadute o impatti con altri oggetti. D’altra parte è più soggetto a danneggiamenti dovuti a scariche elettriche,
essendo sempre connesso al computer.
Si deve anche considerare che un hard disk esterno può offrire la stessa velocità di un interno solo quando è
connesso tramite bus e-SATA, standard poco diffuso. Un disco connesso via USB 2 sarà sempre limitato a 30-
35MB/s di transfer rate e a latenze elevatissime. Lo standard usb3 innalza la velocità di trasferimento al di sopra
delle capacità di ogni unità di archiviazione, ma rimangono i limiti per quanto riguarda la latenza.

Unità dedicate al backup


Qui il discorso è diverso: copia di backup di un volume, o di un gruppo di file, è una copia di tale volume/gruppo di
file che si esegue al fine di garantirne la sicurezza in caso di danneggiamento del sistema di storage principale.
Questa definizione, semplicissima, contiene un concetto fondamentale, importantissimo. La copia di backup non è
uno storage. E’ una copia di sicurezza di materiale che esiste ed è conservato in un sistema di storage diverso.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Ora, dato che per i motivi già descritti lo storage si troverà su unità interne al cabinet, la copia di backup dovrà
mettere i documenti al sicuro da un altro tipo di eventi: scariche elettriche, rottura degli hard disk, usura…
E dato che il backup consiste solo in una copia del materiale, il volume che lo contiene non avrà alcun bisogno di
essere utilizzato di frequente e potrà trovarsi al sicuro in un luogo al riparo dagli urti.
In questo caso il backup sta bene su un hard disk esterno. Da una parte ci mettiamo al sicuro dai pericoli di uno
storage interno al computer, dall’altra il disco non avrà bisogno di trovarsi a portata di mano e rimarrà al sicuro.
In questo modo il backup diviene un essenziale ed economico strumento di sicurezza per i propri documenti.
Non consiglio infine il backup su supporti ottici: non è pratico: occupa fisicamente più spazio di un hard disk per
grandi volumi di file e non può essere aggiornato facilmente. Se si dovesse ricercare un vecchio file si dovrebbe
passare in rassegna tutto l’armadio dei dischi in cerca di quello giusto. Il costo al gigabyte è inoltre maggiore e la
velocità di lettura/scrittura dei file è bassa.

Volumi destinati alla cache e ai file di lavoro


Premetto che questa destinazione è abbastanza fuori del comune per delle unità di storage anche su grosse
workstation grafiche. È comunque un tipo di volume che può divenire interessante qualora ci si trovasse a lavorare
su file molto pesanti, o a gestire cache molto gravose. E’ quindi il caso dei software che lavorano su file
multimediali (editing e compositing video) oppure su grandi immagini, i quali si richiede di accedere in modo
molto veloce ad un file che è troppo grande per essere conservato in memoria centrale.
Le caratteristiche che si richiedono ad un volume di questo tipo sono allora elevatissime prestazioni, ed in
particolar modo elevatissime velocità di trasferimento dei dati.
La sicurezza dell’unità passa in un certo qual modo in secondo piano, dato che il documento non sarà conservato
nel volume di lavoro, ma nell’unità di storage. In genere non sono richieste nemmeno grandi dimensioni, dato che
sul volume si troveranno volta per volta solamente i file in uso.
Possiamo allora ricorrere a diverse soluzioni:
- Semplice unità meccanica: è una via in genere non molto consigliata: se ci serve un volume per questo scopo
vuol dire che necessitiamo di prestazioni elevate; di conseguenza dovremmo prevedere qualcosa di
effettivamente più potente del volume già a nostra disposizione per il sistema ed i documenti.
Esistono però software che necessitano di un volume su cui swappare molti file: in questo caso diviene
interessante avere un unità che garantisce elevati IOPS. Già spostare questa attività su un hard disk diverso da
quello del sistema garantisce una maggiore fluidità, ma la cosa migliore è usare un SSD.
- volume RAID 0 creato su unità già a disposizione: se abbiamo a disposizione due hard disk sul computer, ad
esempio due unità in RAID 1 dedicati allo storage, possiamo fare uso dell’Intel matrix storage per creare sulla
prima parte di questi drive un RAID 0 molto veloce da dedicare ai file di lavoro. In questo modo però andiamo a
utilizzare hard disk che potrebbero essere impegnati contemporaneamente per altre funzioni. Ricordiamo che
quando un hard disk meccanico deve operare su più posizioni contemporaneamente le sue prestazioni ne
risentono drasticamente. Se ad esempio volessimo trasferire un file dall’ipotetico RAID 1 di storage al RAID 0
di lavoro, la velocità sarebbe bassissima, perché le testine degli hard disk dovrebbero continuamente saltare da
una posizione all’altra, per alternare lettura da un volume e scrittura sull’altro. Conviene valutare bene questo
aspetto prima di intraprendere questa via.
- RAID 0 di unità dedicate: è una soluzione non molto costosa, dato che si utilizzeranno normali hard disk da
7200rpm di piccole dimensioni (al solito il taglio più piccolo da considerare è 320GB o meglio 500GB per avere
una buona densità sul singolo piatto). Il transfer rate a disposizione è elevato (circa 250GB/s con due dischi,
350GB/s con tre dischi, 400-450GB/s con quattro dischi) e non andiamo a usare gli stessi dischi usati per altre
funzioni. L’unità da usare dovrà avere elevato transfer rate: la cosa migliore è allora ricorrere ad un disco con
singolo piatto da 500GB: ad esempio un Samsung F3 da 500GB.
- Solid State Drive: è un campo in cui si tende ad usare poco le unità a stato solido: un singolo SSD può garantire
il transfer rate di un RAID 0 di comuni dischi meccanici, ma in genere costa di più.
Si deve comunque considerare che in genere lo spazio necessario è limitato, di conseguenza si può permettersi
di acquistare uno o anche due SSD di piccole dimensioni, da configurare in RAID 0; ad esempio 64GB o
128GB. In quel caso può essere che non si spenda molto di più che per un RAID 0 di Hard disk da 500GB l’uno
con transfer rate simile, nei quali la maggior parte dello spazio sarebbe inutilizzato, e comunque i tempi di
accesso non sarebbero mai comparabili.
Necessitando di un elevato transfer rate probabilmente sia in lettura che in scrittura il prodotto da acquistare
potrebbe essere un unità con controller Marvell da 128GB, dunque un Crucial C300, da collegare ad un
controller SATA 3 a 6Gbit/s. Sono comunque validissimi gli altri prodotti elencati, soprattutto con controller
Sandforce: Corsair F60, F120, OCZ Vertex 2, e le molte altre unità similari.
Per applicazioni che richiedono IOPS elevati su una unità di swap l’SSD diviene un’ottima soluzione. Sono
comunque casi abbastanza particolari.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


L’ALIMENTATORE
Si tende a trascurarlo, e a non dedicargli più di una cinquantina di euro: tuttavia è un elemento della massima
importanza, che deve essere in grado di fornire tensione di alimentazione stabile al sistema, pena instabilità, riavvii
improvvisi e la perdita prematura dell’alimentatore stesso.
Per assicurarsi un buon alimentatore è importante controllare gli amperaggi sulla linea a 12v destinata in particolare
alla scheda video: nel caso di marche non molto note per qualità, è bene garantirsi un buon surplus di potenza su
questa linea.
In genere i produttori dichiarano richieste di circa 30 Ampere per schede video, ma i prodotti di fascia più alta
possono arrivare a 50A; questo non è comunque un valore minimo: si tratta di valori che i produttori dichiarano per
mettersi al sicuro anche nel caso gli utenti utilizzino alimentatori di scarsa qualità; se per una scheda video sono
necessari 15 ampère, può darsi che un alimentatore scarso ne dichiari 18 e sembri dunque idoneo; certe volte
purtroppo quei 18A dichiarati l’alimentatore li fornisce, ma non a 12 volt stabili; in tal caso basta una caduta di
potenziale anche leggera (magari l’alimentatore eroga a 11,8v invece che a 12 tondi) per rendere instabile tutto il
sistema.
Tenete inoltre conto del fatto che per gli apparecchi con doppia uscita 12v (per alimentare due schede video) è
possibile sfruttare la potenza di ambo le uscite su un singolo canale, ad esempio per alimentare un'unica scheda di
grande potenza e consumo. L’amperaggio che sarà possibile ottenere connettendo una sola presa sarà leggermente
inferiore alla somma delle correnti che l’alimentatore può erogare su ogni uscita.
Le attuali schede madri per sistemi Intel Xeon DP, a differenza delle schede madri della generazione precedente e
delle schede madri per sistemi Opteron richiedono che l’alimentatore fornisca due connettori EPS a 8 pin per
l’alimentazione della CPU. La maggior parte degli alimentatori, anche di alto livello, per contro, sono dotati di un
connettore a 8 pin ed uno a 4 pin, per adattarsi con quest’ultimo a schede madri del vecchio standard, che per
l’alimentazione del processore prevedevano un semplice 4 pin. Questi alimentatori possono alimentare sistemi
biprocessore Opteron e Xeon 5400, ma non sistemi dotati di due Xeon 5500 e 5600. Il funzionamento del sistema
in realtà non è in gioco, ma a quanto dichiarano i produttori di schede madri l’affidabilità e la durata del prodotto
potrebbero risultare compromesse, al punto che la garanzia non prevede la copertura di sistemi con alimentatore
privo di due EPS 8 pin.
Alimentatori forniti del doppio EPS 8 pin sono i modelli di potenza più elevata di Corsair (HX1000W), Enermax
(Serie Revolution, ottimi alimentatori ma molto costosi), Cooler master. Chieftec offre alimentatori della serie
A135, di potenze più contenute, dotati dei connettori richiesti. Si parte da un modello di 700W venduto ad un
prezzo inferiore ai 100 euro.
Per quanto riguarda le potenze, un buon 500W è più che sufficiente per mettersi al sicuro o alimentare computer
parecchio potenti dotati di singola scheda video; in caso di CPU in overclock in presenza di schede video molto
potenti si può ricorrere ad un 600-650W.
Computer dotati di più schede video, da dedicare al rendering, richiederanno alimentatori di grosso taglio: 850W ed
in alcuni casi oltre.
Ultima nota, ma non in ordine di importanza, verificate il tipo di circuito di correzione del fattore di potenza (PFC –
power factor corrector) implementato dall’alimentatore che andate ad acquistare: ne esistono di tipo attivo e
passivo: il primo si rivela più efficiente: l’alimentatore assorbe dunque meno corrente, consumando e scaldando di
meno. Il secondo è in genere usato solo su alimentatori economici. Il PFC attivo d’atro canto può costringere ad
usare UPS ad onda sinusoidale pura, macchine costose in assoluto (oltre i 200 euro). Tuttavia alimentatori di
qualità quali i Corsair funzionano bene sotto UPS ad onda approssimata pur avendo PFC attivo. Un PFC di tipo
passivo non pone questi limiti.
Fra le marche consigliate: Corsair, Seasonic, Antec, OCZ, Chieftec, Tagan. Un buon alimentatore prodotto da
queste ditte potrà costare fra i 70 e i 150 euro ma darà sicurezza totale e garanzia di stabilità. Attenzione a modelli
rumorosi da parte degli ultimi quattro produttori. I prodotti Corsair si distinguono sempre per ottima qualità e
affidabilità e rumorosità contentissime.
Ricordo Lc-Power, per la qualità costruttiva in relazione al prezzo modico: non sono alimentatori adatti alle
workstation o a chi volesse spingere con l’overclock, ma se usati in sistemi non troppo esigenti e con il giusto
sovradimensionamento se la cavano bene. Per il prezzo modesto sono consigliati per rendernode, piccole
workstation e desktop per uso generale. Sconsiglio quelli di tagli elevati: a quel punto è meglio prendere alla stessa
cifra un ottimo alimentatore da 550-650w.
Un ultimo consiglio di carattere pratico: gli alimentatori modulari hanno i cavi di alimentazione connessi
all’alimentatore tramite prese e dunque rimovibili: permettono dunque di togliere dal case i cavi inutili che creano
disordine ed ostacolano il regolare flusso dell’aria all’interno del case.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Prodotti consigliati
Corsair CX-500W: adatto sostanzialmente a qualunque computer a meno di grossi carichi quali schede video
molto potenti eventualmente in configurazione multipla; dunque non solo rendernode, PC per uso generale, ma
anche workstation non troppo esigenti.
Corsair GS-600W: alimentatore di buona potenza e relativamente economico: non ha cablaggi modulari ed ha
finiture un po’ inferiori ai migliori Corsair, non essendo prodotto da Seasonic. E’ adatto a workstation abbastanza
economiche.
Corsair HX-650W: Prodotto di elevata qualità e molto silenzioso, adatto per computer a singola CPU molto
avanzati, anche configurati con due schede video, a meno di prodotti dal consumo molto elevato.
Corsair TX-650W: Analogo al precedente, anche se ancor più silenzioso, ma sprovvisto di cablaggi modulari, e
dunque leggermente più economico.
Corsair HX-850W: alimentatore di potenza molto elevata, dedicato alle workstation con doppie schede video
Fermi di fascia alta.
Corsair AX-850W: Prodotto di fascia molto alta e qualità elevatissima, derivante dai Seasonic X-series, che in
italia sono spesso difficilmente reperibili. La ventola viene arrestata quando l’alimentatore scende al di sotto del
20% del carico. In questo modo si può usare un alimentatore di fascia così alta senza penalizzazioni di rumorosità,
anche quando si prevede di installare solo successivamente componenti dal consumo elevato. In tutto il campo di
funzionamento il rumore rimane comunque contenutissimo.
Chieftec A-135 700W: Alimentatore dotato di due connettori EPS 8 pin per l’alimentazione di workstation a
doppia CPU Intel Xeon 5500 e 5600.
Enermax Revolution 85+ 1050 – 1250W: Alimentatore di fascia molto alta, adatto a computer dai consumi
elevatissimi. E’ dotato dei due connettori EPS 8pin per alimentare sistemi dual Xeon. Può sostenere workstation a
due processori e diverse schede video.

CABINET E SUO RAFFREDDAMENTO


Un buon cabinet deve consentire un ottima circolazione dell’aria; per chi ne prevede il bisogno deve consentire di
installare un buon numero di hard disk (io farei anche sei, ma è un’idea personale, quattro in genere bastano ed
avanzano), consentire di svolgere le normali operazioni di upgrade e manutenzione del PC e pulizia della macchina
con facilità senza dover effettuare contorsioni col cacciavite in mano o bestemmiare infilando le dita in mezzo ai
cavi sparsi allo scopo di sfilare un connettore. Tutto ciò si traduce in un requisito fondamentale: deve essere grande
e deve essere tenuto in ordine.
Ricordate che un buon case durerà al lungo, molti anni e mentre cambierete il computer più volte per passare a
sistemi superiori, un buon cabinet potrà veder passare diversi PC senza essere sostituito.
Altra caratteristica essenziale al fine di garantire buone temperature di esercizio e di conseguenza stabilità e lunga
vita al sistema: il case deve essere dotato di un buon numero di ventole; un paio di ventole in immissione, meglio se
da 12cm di diametro, ed un paio in estrazione.
Le ventole in immissione saranno poste in basso sulla parte frontale del case, e dovrebbero venire a trovarsi davanti
agli hard disk, in modo che questi ultimi siano investiti dal flusso d’aria fredda.
Eventualmente anche una ventola sul pannello laterale del case può aiutare a raffreddare i chipset e le RAM più
bollenti, soprattutto in caso di overclock, ma è una scelta che si adatta più che altro a sistemi con dissipatore piano
(con direzione del flusso ortogonale alla scheda madre) e diviene quasi indispensabile su computer overcloccati
raffreddati a liquido.
Le ventole d’estrazione saranno disposte invece nella parte posteriore del case, dove si trovano le componenti più
calde, e in alto, dove l’aria calda tende ad accumularsi per via della sua densità inferiore a quella dell’aria fredda.
Sarà bene disporre anche una ventola al di sopra delle memorie RAM: è sufficiente una portata molto modesta. In
genere i banchi di RAM vengono a trovarsi in una zona in cui l’aria è stagnante e tendono a surriscaldarsi. In queste
condizioni la durata ne risulta compromessa.
Le dimensioni di una ventola ne influenzano pesantemente la rumorosità: una ventola più grande infatti necessiterà
di regimi di rotazione inferiori per garantire un buon afflusso d’aria, e dunque sarà più silenziosa. Notare che la
rumorosità cresce lentamente con le dimensioni della ventola e molto più velocemente al crescere della velocità
della ventola stessa.
A parità di dimensione comunque, esistono ventole più o meno rumorose, a seconda della forma della palettatura e
dunque della sua efficienza. Le migliori sono prodotte da noctua e scythe. Si tratta d’altra parte di ventole dal costo
elevato.
Suggerisco l’installazione di un numero elevato di ventole perché questo consentirà di farle funzionare a regime
ridotto, rendendo il sistema più silenzioso.
Non fate affidamento sui dati di rumorosità e portata dichiarati dal produttore. Non hanno alcun significato.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Esistono case con griglie per l’installazione di ventole di estrazione sul lato superiore: non la trovo una buona idea:
a computer spento, la polvere tenderà a depositarsi all’interno del case. Ad ogni modo una eventuale ventola
superiore non avrà bisogno di estrarre molta aria. All’interno del case si tenderà a spingere verso la parte posteriore
l’aria calda che esce dai dissipatori. La ventola in alto servirà solamente ed evitare la stratificazione di aria ferma.
I case più curati dispongono di filtri antipolvere sulle griglie delle ventole anteriori. Questo perché le ventole
anteriori sono destinate a portare aria all’interno del case, mentre le ventole posteriori e superiori sono destinate ad
estrarla. Sarebbe bene che anche le ventole superiori fossero dotate di filtro.
Alle ventole anteriori non è mai richiesta una grande portata e per questo la presenza di un filtro è accettabile.
Si potrebbe pensare che il computer non abbia grossi motivi per essere protetto dalla polvere… Il problema sta
nelle elevate portate d’aria che ne attraversano il case. Più elevate sono queste portate, più polvere entrerà nel case,
e questo è un altro valido motivo, oltre alla rumorosità, per non esagerare con la velocità delle ventole.
Ciò che succede è che le ventole aspirano all’interno del computer un’elevata quantità di polvere. Se la polvere
venisse poi anche espulsa dalla parte opposta del computer il problema non sussisterebbe. Purtroppo la polvere
incontrerà all’interno un volume d’aria relativamente in quiete e molte superfici su cui aderire e difficilmente verrà
aspirata ed espulsa dalle ventole di estrazione. Controllare periodicamente l’interno del pc e provvedere ad una
buona pulizia qualora la polvere cominciasse a depositari invadendo i dissipatori e le griglie. Si può usare un
pennello e un aspirapolvere ma i risultati migliori si ottengono con l’aria compressa. Senza spendere soldi in
bombolette chi dispone di un compressore è certamente avvantaggiato. Portare in garage il computer e sparargli
addosso con la pistola del compressore mentre un nuvolone nero oscura la luce elettrica è qualcosa di davvero
soddisfacente.
Le griglie che caratterizzano le aperture destinate alle ventole, sono spesso troppo grosse: creano turbolenza e
tolgono luce all’apertura. Ciò si traduce in una minore portata ed in una maggiore rumorosità. Fate alcune prove,
eventualmente facendo girare la ventola lontana dalla griglia, tenendola in mano, e poi avvicinandola al suo
alloggiamento. Se la griglia crea troppi problemi potete sostituirla con una tradizionale griglia in tondino a cerchi
concentrici; sono le più silenziose. Se la struttura non prevede la sostituzione delle griglie, potete al limite
provvedere per altre vie usando un tronchese. Un’altra soluzione per ovviare quantomeno alla rumorosità consiste
nell’allontanare di alcuni centimetri la ventola dalla griglia tramite dei convogliatori. Consentono al flusso d’aria di
uniformarsi e distribuirsi anche al centro della ventola prima di investire la griglia così da avere una velocità
inferiore alla velocità massima subito a valle della palettatura.
Per quanto riguarda la gestione della velocità di rotazione delle ventole del case io lo lascerei fare alla scheda
madre o eventualmente ad un controller opzionale: un rebus è un oggetto costoso che permette di eseguire
regolazioni molto accurate, ma nella maggior parte dei casi è ingiustificato. Soprattutto non lo userei per adattare le
ventole alle condizioni: una volta impostate le velocità corrette in seguito all’installazione preferirei non toccarlo
più. Eviterei per lo stesso motivo software dedicati. Meglio mantenere il sistema pulito e procedere via hardware
variando la tensione di alimentazione tramite potenziometri da lasciare interni al case (si trovano per pochissimi
soldi nei negozi di elettronica) o alimentazione via molex, che consente di scegliere fra i 12v, i 7v e i 5 volt.
La ventola della CPU è bene che sia gestita dalla scheda madre in funzione della temperatura del processore.
Eventualmente anche la ventola di estrazione posteriore potrebbe essere regolata automaticamente dalla scheda
madre.
Sempre dal punto di vista pratico, molti case presentano sistemi di fissaggio degli hard disk senza bisogno di
utensili, cosa che può rivelarsi utile; stessa cosa per i sistemi di chiusura del case. Possono essere utili a patto che
siano robusti e blocchino totalmente l’unità. A volte si vedono accrocchi che lasciano il disco libero di traballare
nel suo alloggiamento. A quel punto conviene toglierli e provvedere con quattro semplici, rozze ma robuste ed
affidabili viti. Quante volte vi succede di montare e smontare il computer nel corso della sua vita?
Infine, un case in alluminio è decisamente più leggero.
Attenzione solo che non entri in risonanza a causa delle vibrazioni dei dischi, delle unità ottiche, o di qualche
ventola non perfettamente bilanciata. Succede spesso purtroppo.
Fra le marche consigliate: Antec, Silverstone, Lian Li, Chieftec e Cooler master.
Alcuni modelli che consiglio:
- Cooler Master elite 535 ed Antec Two Hundred nella fascia più bassa, adatti a piccoli rendernode.
- Antec three hundred nella fascia dei 50-60 euro, adatti a workstation abbastanza economiche e alla maggior
parte dei rendernode.
- Antec P183: case esteticamente molto piacevole, estremamente silenzioso (a patto di sostituire le ventole
fornite in dotazione), molto ordinato e spazioso. Il suo prezzo è di circa 130 euro.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


RENDERFARM

Una soluzione spesso vantaggiosa ma poco considerata


Col progressivo abbattimento dei costi dei computer entry - level si sta diffondendo fra i treddisti con necessità di
renderizzare sequenze abbastanza complesse l’interesse verso le piccole renderfarm.
Lo scopo dovrebbe essere quello di disporre di un maggior numero di processori a basso costo da destinare
all’elaborazione del render (ma anche di qualsiasi altro processo su applicazioni parallelizzabili), e di liberare
almeno in parte la workstation dal lavoro stesso. Tutto ciò si traduce in un minore tempo di esecuzione dei render e
in una maggiore possibilità di sfruttare la workstation durante l’elaborazione degli stessi.
E’ bene sottolineare subito come in genere i contratti di licenza dei software di modellazione prevedano l’acquisto
di una sola licenza per utente del software, mentre per altre copie utilizzate al semplice fine di elaborazione non
dovranno essere acquistate nuove licenze. Le licenze dei motori di render invece sono in genere da acquistare in
numero pari al numero di computer sui quali il software è utilizzato, indipendentemente dal tipo di utilizzo.
Vediamo di seguito i più grossi vantaggi legati all’uso di una renderfarm:
- Disponibilità di potenze elevatissime a costi contenuti.
- Disponibilità di macchine da destinare a processi diversi da compiere simultaneamente (più render, render e
modellazione sulla workstation..).
- Disponibilità di macchine su cui far lavorare saltuariamente altre persone.
- Possibilità di rivendere o riutilizzare le macchine (ad esempio per segreteria, server di storage, muletti in
genere) quando non più utilizzate per la farm. Si ricordi che rivendere una workstation di grosso calibro è
spesso molto difficile.
- Ridondanza dei computer e dei componenti: in caso di guasto uno dei nodi può essere attrezzato per lavorarci
almeno saltuariamente. I guasto di un solo nodo della farm non compromette pesantemente il workflow
laddove il fermo di un'unica workstation può essere fatale. Le componenti sono inoltre per la maggior parte
intercambiabili consentendo sostituzioni veloci con componenti di altre macchine (in caso di guasto, ad
esempio, della workstation).
- Possibilità di aggiornamenti economici e dilazionati: una farm composta da più macchine può essere aggiornata
per gradi, ad esempio sostituendo o aggiornando solo una o poche macchine alla volta.
- Possibilità di dedicare i nodi di renderfarm anche ad altri usi: essendo le macchine semplici e dai consumi
ridotti una di esse potrebbe essere destinata anche alla funzione di server di storage per un ufficio di più
persone; altri usi potrebbero essere il web server (con eventualmente le eventuali precauzioni per quanto
riguarda l’affidabilità nel funzionamento 24/7), l’intrattenimento ed il supporto ad incontri con clienti,
eventualmente usando schermi di grandi dimensioni o proiettori.
- Migliore gestione dei consumi energetici: quando la potenza della farm non è necessaria è possibile tenere in
funzione un'unica macchina poco dispendiosa, realizzando un risparmio energetico ed un minor riscaldamento
dell’ambiente. Nella realizzazione di render semplici è possibile tenere in funzione una sola macchina oltre alla
workstation. Ovviamente ciò si scontra con il consumo a pieno carico della renderfarm, che sarà tanto
maggiore quanto maggiore sarà il numero di computer; in generale si deve considerare che più computer anche
poco potenti consumano di più di pochi computer più potenti. A parità di potenza installata pochi computer
molto potenti possono essere vantaggiosi da questo punto di vista. Certo tutto questo punto ha un’importanza
relativa se si considera il costo attuale dell’energia elettrica. L’ammortizzamento del costo d’acquisto di una
soluzione più costosa preferita ad un’altra i base ai minori consumi potrebbe richiedere anni di funzionamento
ininterrotto…
Certo la scelta non presenta solamente pregi; si dovranno infatti considerare i seguenti punti a sfavore
- Maggiore spazio impiegato, non solo dai computer, ma anche dai cavi di alimentazione, periferiche, rete,
switch (per gestire tutti i computer tramite una sola postazione).
- Maggior consumo energetico in idle con tutte le macchine accese.
- Il consumo energetico in full load a parità di potenza installata cresce col crescere del numero di macchine
installate, tenendo anche conto del fatto che una macchina più semplice consuma anche di meno. Questa
considerazione non ha tanto valore nel senso più classico del costo dell’energia al chilowatt; come detto prima
è generalmente molto difficile che una scelta più costosa possa ripagarsi in tempi utili attraverso il minor
consumo energetico. Il significato di questo punto diviene invece importante qualora si raggiungesse il limite
previsto dal contratto con la società distributrice dell’energia elettrica. L’installazione di molte macchine
potrebbe, ad esempio, costringere ad un indesiderato cambio di contratto.
- Maggiore potenza termica dissipata da smaltire in estate. Conviene che una farm importante abbia un locale
dedicato e nei casi più gravosi sarà richiesto il condizionamento dell’aria.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Il numero ottimale di macchine varia molto a seconda delle esigenze di potenza e di spazio e del contratto di
licenza del software da utilizzare; possiamo comunque affermare che è conveniente generalmente mantenersi entro
un massimo di 4-6 macchine inclusa la workstation, passando dunque a macchine più potenti per soddisfare
maggiori richieste di potenza. Ovviamente con l’aumentare delle potenze in gioco aumenta il numero di macchine
necessarie o comunque conveniente. Sarà ad esempio difficilmente giustificabile tenere 10 macchine dotate di
Phenom II X4 940, mentre sarà probabilmente corretto prevedere l’installazione di 10 macchine dotate di dual
Xeon, considerando il costo dell’hardware per computer a quattro processori; come potrebbe ancora esser
conveniente dotarsi di 7-8 macchine basate su core i7 920.

Configurazione dei rendernode


I nodi di una renderfarm dovranno essere computer altamente economici e possibilmente dalle richieste energetiche
moderate. Sarà conveniente avere più macchine meno potenti e più economici rispetto a pochi computer molto
potenti; infatti il rapporto prestazioni/prezzo decade con l’aumento della potenza dei processori.
Ovvio che non si dovrà esagerare con la scelta di processori troppo economici; ad un certo punto infatti comincia a
pesare il costo del resto dell’hardware da acquistare per ogni nodo. Allo stesso modo quando si renderà necessario
scegliere fra grandi numeri di PC semplici (ad esempio dotati di semplice quad core di fascia media) e un numero
inferiore di computer dotati di doppio processore o di processore più potente come un core i7 970. Anche se questa
soluzione potrebbe apparire più costosa potrebbe essere la più conveniente, una volta considerato lo spazio
impiegato, le licenze dei sistemi operativi, il calore prodotto ed il consumo energetico.
Vediamo dunque quali componenti potranno andare a costituire i nodi di una renderfarm non troppo complessa.
Scheda madre: dovrà essere semplice ed economica; per diminuire le dimensioni dei PC potrà essere scelta in
formato mini ATX, dovrebbe inoltre avere un chip video integrato, così da risparmiare sulla scheda video,
altrimenti costosa.
Scheda video: come già detto la cosa migliore sarebbe averla integrata; altrimenti conviene scegliere qualcosa di
molto economico.
In futuro sarà sempre possibile aggiungere schede video (una o più) da dedicare al render su GPU.
RAM: Dovrà essere in quantitativo sufficiente a sostenere il render; in genere si scelgono tagli di 8 o 16GB, 12GB
o anche 24GB per i computer con processore core i7 9x0. Spesso una renderfarm viene usata per renderizzare
animazioni, nelle quali dunque ogni macchina elabora un frame alla volta; in genere i singoli frame non sono
troppo complessi per necessità pratiche legate al tempo di computazione. Si usano DDR3 ovviamente economiche,
ad esempio 1333MHz c9.
Alimentatore: in generale non dovrà sostenere grossi carichi, i nodi consumeranno poco; conviene non spenderci
troppo; Oggi i 400-500W prodotti da Antec, Chieftec, Corsair, e pochi altri, sono i tagli più piccoli e convenienti
che si trovano in commercio. Privi di scheda video (che sarà integrata), i computer non assorbiranno più di 200W.
Un alimentatore di grosso taglio può essere usato se si prevede di installare, anche successivamente, schede video
da dedicare al render. In questo caso non è sbagliato scegliere un 650W se si pensa di installare fino a due schede
non eccessivamente potenti, mentre volendo installare due schede video di fascia molto alta si dovrà salire anche
sugli 850W e in casi particolari oltre.
Hard disk: dovrà contenere il sistema operativo, il software usato per l’elaborazione e praticamente null’altro. I
prodotti più piccoli che oggi conviene acquistare sono da 500GB. Si sceglierà tra i modelli esaminati al capitolo
dedicato alle unità di archiviazione.
Case: se non si prevede di installare schede video potrà essere scelto di piccole dimensioni. Al raffreddamento
della CPU basterà una unica ventola, installata posteriormente. Si dovrà verificare che sia possibile installarvi il
dissipatore che intendete acquistare, che potrebbe essere molto voluminoso

Come avrete notato non ho ancora parlato di processori in termini specifici. La configurazione di un rendernode
comporta la scelta delle CPU con il miglior rapporto prestazioni/prezzo. Le prestazioni da valutare sono
ovviamente quelle in render, che possono differire sostanzialmente da quanto valutato dalle varie testate
giornalistiche, che fanno uso di suite di software consumer, utility e giochi.
Si valuteranno ovviamente solo soluzioni a quattro o sei core, che attualmente hanno prezzi decisamente
convenienti in relazione alle prestazioni.
Considerato che il sottosistema video potrà essere integrato nelle soluzioni intel sandy bridge solo a patto di
rinunciare alla possibilità di overcloccare il processore e alla possibilità di aggiornare il sistema in futuro con più
schede video dedicate al render su GPU, appaiono nella maggior parte dei casi convenienti le soluzioni AMD a sei
core, Phenom II X6 1075T e 1090T/1100T. Tra l’altro questi processori mostrano in genere prestazioni non
dissimili dai nuovi core i7 2600 in render. Nella fascia più alta potrà essere valutato il core i7 970.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


SCEGLIERE IL SISTEMA OPERATIVO
Sebbene l’argomento sia estraneo alla scelta dei componenti hardware, la domanda “quale sistema ci metto” è
molto diffusa e, avendo appena acquistato il nuovo hardware, direi che è anche lecita.
La scelta non è molto ampia: per una workstation necessiteremo di un sistema operativo a 64 bit per supportare il
quantitativo di RAM installato.
Questo perché il quantitativo di indirizzi che un sistema operativo può gestire è direttamente collegato al numero di
bit utilizzati per esprimere questi indirizzi; faccio un esempio: all’interno di una via cittadina i numeri civici sono
espressi il sistema decimale usando due cifre. Quanti numeri civici possiamo assegnare al massimo nella via?
Abbiamo 2 cifre e 10 scelte possibili; il risultato sarà 10^2=100 indirizzi. L’esempio è molto semplice, è chiaro che
usando numeri a due cifre possiamo contare fino a 99 e, includendo lo zero, arriviamo a contare 100 oggetti distinti.
Lo stesso vale per un sistema operativo: lavoriamo con sistema binario, dunque due cifre (0 e 1); se abbiamo a
disposizione 32 bit (numeri a 32 cifre dunque) possiamo contare fino a 2^32=4GBytes. Se abbiamo 64 bit contiamo
fino a 2^64… Un numero evidentemente enorme. Qualcuno si chiederà come mai pur avendo a disposizione
numeri fino a 4GB in realtà la RAM “visibile” dal sistema è al massimo attorno ai 3GB e soprattutto come mai
questo tetto non è fisso ma varia da computer a computer. Si deve contare che in quei 4GB ci devono stare tutti gli
indirizzi che il sistema deve gestire, dunque anche memoria video, buffer vari, cache del processore, indirizzi delle
periferiche PCI e PCI-E, indirizzi degli hard disk e quant’altro. Chi ha più materiale finisce per allocare meno
RAM.
Sistema operativo a 64 bit dunque. Le scelte non sono poi molte: Windows XP 64 bit edition, Windows vista x64,
nelle varie versioni e Windows Seven x64.

Windows XP x64
Il vecchio Windows XP è sicuramente un sistema ancora apprezzato ed in grado di garantire affidabilità, sicurezza
e produttività. Per la versione a 64bit il supporto per quanto riguarda in particolare i driver delle periferiche non è
mai stato completo.. Il problema maggiore riguarda scanner, alcune stampanti, schede di acquisizione video, schede
wireless. Il software scritto per sistemi a 32bit invece generalmente gira tranquillamente sul corrispondente OS a 64
bit. Non ci sono dunque problemi neanche per i software comuni.
Microsoft ha ritirato questo sistema dal commercio all’inizio dell’estate 2008. In commercio se ne trovano
comunque ancora diverse copie, rimaste nei magazzini dei rivenditori.

Windows Vista
Vista non è certo stato capace di guadagnarsi la simpatia dei più, da una parte a causa di problemi iniziali ormai
risolti, riguardanti soprattutto la compatibilità driver e software, che è ora stata raggiunta dalla maggior parte dei
produttori di software, dall’altro ad una intrinseca pesantezza e ad una generale “semplificazione” del sistema, che
lo ha forse reso più accessibile agli utenti meno esperti (che non vi metterebbero comunque mano) ma più
difficoltoso nei suoi settaggi e così più ostico per utenti più avanzati.
I problemi iniziali non sono mancati, i software di grafica che potevano girarvi, ad esempio, erano davvero pochi
soprattutto per la mancanza di supporto adeguato alle librerie OpenGL (la cui integrazione è stata lasciata ai
produttori di schede video). Il sistema è effettivamente più pesante del suo predecessore, tant’è che è facile notare
un abbassamento delle prestazioni del computer con diversi applicativi processionali e non, passando da XP a
Vista. La difficoltà di alcune operazioni può forse dipendere più da abitudine al vecchio sistema e scarsa
dimestichezza col nuovo. Come al solito però sono molto diffusi i pregiudizi. Parlo spesso con persone che pur non
avendolo mai provato affermano con assoluta sicurezza che questo sistema non può avere niente di meglio del
vecchio XP.
Le vere innovazioni di windows Vista non sono molte, ma possiamo dire che si è trattato di un sistema sicuro sin
dal suo lancio. E’ notevole lo sforzo fatto in questa direzione. Anche l’affidabilità si può considerare buona. La
compatibilità è sostanzialmente risolta, fatto salvo alcuni software molto specifici per i quali sarà bene informarsi.
Il supporto driver per la versione a 64bit è migliore di quello accordato a XP 64.

Windows Seven
Deriva dal suo predecessore Windows Vista del quale conserva molte caratteristiche. Rispetto a Vista appare però
più leggero e si è ormai guadagnato l’approvazione degli utenti. Non si devono temere incompatibilità software e
problemi di driver in quanto è compatibile con questo sistema il software già scritto per windows Vista.
Le novità non sono molte rispetto a Windows Vista e riguardano prevalentemente il completo supporto agli SSD, ai
monitor touch screen, una migliore implementazione dello UAC, che risulta meno invasivo, una maggiore
leggerezza, per effetto della disattivazione di diversi servizi di sistema ormai inutili.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


Le versioni in cui Windows Seven è disponibile comprendono le edizioni Home, Professional ed Ultimate. In
particolare consiglio la versione Professional (a 64 bit), in grado di offrire tutte le feature necessarie in ambiente
lavorativo.

Stabilità e affidabilità del sistema


Ricordo a tutti gli utenti come sia possibile ottenere un sistema perfettamente stabile adottando le seguenti semplici
precauzioni
- Installando una copia originale e registrata del sistema operativo e dei software che si intende usare;
- Evitando con il massimo sdegno qualunque in - utility proposta dall’amico smanettone: in genere promettono
prestazioni superiori, magari disattivando servizi che non servono quasi a nessuno; ma che potrebbero essere
richiesti da quel software particolare che usate voi. Altre volte lavorano liberando RAM quando la memoria
libera si riduce, col risultato di appesantire ancor di più il sistema;
- Evitando tutti i programmi per alterare il layout del sistema e le mille patch per far andare giochi magari
vecchi di anni ed anni;
- Evitando i software ed i driver Beta e moddati;

Linux
Il sistema è nato a partire dai sistemi operativi UNIX usati nelle grandi reti informatiche delle università e degli
ospedali americani. Di per se il kernel ed il sistema stesso sono molto buoni; la stabilità dovrebbe essere uno dei
suoi punti di forza.
Tuttavia quello che dovrebbe essere uno dei suoi più grandi punti di forza, e cioè la sua licenza GPL, cioè free, si
tramuta, per chi col sistema ci deve lavorare, in un grosso problema: non esiste uno standard, non esistono due
linux uguali perché ogni partner ne produce una sua versione. E questo vuol dire che se anche in teoria dovrebbero
essere tutti perfettamente compatibili, si può andare incontro a problemi di compatibilità col software, e certe volte
è necessario scaricarsi il sorgente e compilarselo.
Non esistono inoltre, per linux, la maggior parte delle applicazioni alle quali siamo abituati, e questo è un problema
non da poco, certo qualche matematico o qualche informatico può dire che esistono però le alternative, ma molto
spesso non sono all’altezza dell’originale, mancano di adeguato supporto tecnico e della adeguata compatibilità.
Come se non bastasse si tratta in genere di prodotti free per i quali non è assicurata assolutamente la continuità
temporale ed il supporto futuro, la ditta che li produce (che nel caso di molti software minori si riassume in un
garage in cui lavorano alcuni appassionati) potrebbe sparire da un giorno all’altro per mancanza di fondi,
provocando la morte del software.
Ricordate che per quanto si scelga un’alternativa simile al software che si usava in windows, e che in linux manca,
sarà sempre e comunque un nuovo programma da imparare, cosa che richiede tempo ed applicazione.
Gli unici sono i software dedicati alle applicazioni di calcolo e di analisi numerica, di matematica e geometria pura,
ed i compilatori dedicati agli informatici, quelli ci sono tutti; d’altra parte sono più che altro queste le categorie di
lavoratori ed appassionati che compongono la grande famiglia degli utenti del pinguino.
Ultima cosa, la maggior parte delle operazioni che si scostano dal “taglia e incolla” e dal “nuova cartella” in linux
vanno eseguite da riga di comando.
In definitiva, il sistema è sicuro, è gratis, va bene per il mulo, se ci si smanetta un po’ per connetterlo. Sinceramente
non lo vedo produttivo in ambito grafico.
Qualcuno potrà obiettare che le grandi case cinematografiche usano solo sistemi linux: è vero, lo usano in virtù
della stabilità, della propensione ad essere gestito e a lavorare in rete, della sicurezza, del supporto a 64bits venuto
molto prima che in windows, ma bisogna tenere conto del fatto che queste ditte hanno a disposizione ben altri
mezzi per adattare il sistema alle loro esigenze, mezzi che passano attraverso ingegneri informatici che compilano
software e driver adatti all’impiego sulle specifiche workstation utilizzate, che approntano distribuzioni di linux
apposite, con già implementati i driver ed i software richiesti, ed ottimizzate proprio per questi (fra l’altro tutte cose
fattibili solo su un sistema open source), e tecnici che lavorano per mantenere in piena efficienza i computer e la
rete. Penso che queste realtà siano un po’ estranee ai nostri uffici.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


ALCUNI ESEMPI DI CONFIGURAZIONI
Si tratta di configurazioni esemplificative che possono essere intrecciate, tenendo conto delle considerazioni fatte
sulla necessità di adattare la configurazione al lavoro che la macchina sarà chiamata a svolgere.
Il costo del case e del sistema di dissipazione non è incluso nelle indicazioni, rappresentando un valore molto
variabile a seconda delle preferenze degli utenti. Allo stesso modo il costo dell’assemblaggio e delle eventuali
spedizioni non è incluso. I valori indicati includono solo il costo dell’hardware elencato IVA inclusa.

1) 500 – 600€
Scheda madre: AM3 Gigabyte GA-890XA-UD3.
Processore: AMD Athlon II X2 260 o 265.
RAM: 2x2GB DDR3 1333MHz cas9.
Scheda video: ATI FirePro v3800 o v4800 o NVIDIA Quadro 600.
Hard disk sistema: Western Digital caviar AAKX 500GB.
Hard disk documenti: Samsung F3 1TB.
Alimentatore: Corsair CX500W.
Destinazione d’uso: CAD.
2) 500 – 600€
Scheda madre: AM3 Gigabyte GA-890XA-UD3.
Processore: AMD Athlon II X2 265 o Athlon II X4 640.
RAM: 2x4GB DDR3 1333MHz cas9.
Scheda video: ATI HD5770.
Hard disk sistema: 2x Western Digital caviar AAKX 500GB RAID 0.
Hard disk documenti: Samsung F3 1TB o coppia in RAID 1.
Alimentatore: Corsair CX500W.
Destinazione d’uso: Grafica 2D: Photoshop.
3) 600 – 700€
Scheda madre: Asus M4A89TD PRO.
Processore: AMD Athlon II X4 645 o Phenom II X4 955.
RAM: 2x4GB DDR3 1333MHz cas9.
Scheda video: ATI HD5770 o NVIDIA Geforce GTS450.
Hard disk sistema: Western Digital caviar AAKX 500GB.
Hard disk documenti: Samsung F3 1TB o coppia in RAID 1.
Alimentatore: CX500W o GS600W.
Destinazione d’uso: software di grafica 3D in genere: modellazione e rendering.

Per le macchine fino a qui esposte il costo del materiale non compreso può riguardare il case ed eventuali ventole e
può variare dai 100 ai 150 euro.
Una scelta tipica può essere:
Case: Antec three hundred.
Ventole: 1 – 2 12cm (scythe slipstream, coolink swif2, noctua).

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


4) 600 – 800€
Scheda madre: Asus M4A89TD PRO.
Processore: AMD Phenom II X6 1055T.
RAM: 2x4GB DDR3 1333MHz cas9.
Scheda video: ATI HD 6850 o HD6950 o FirePro v4800 o NVIDIA Geforce GTX460 o Quadro 600.
Hard disk sistema: Samsung F3 500GB o Western Digital caviar AAKX 500GB.
Hard disk documenti: Samsung F3 1TB o coppia in RAID 1.
Alimentatore: GS600W.
Destinazione d’uso: software di grafica 3D in genere: modellazione e rendering.
5) 800 – 1100€
Scheda madre: Asus M4A89TD PRO.
Processore: AMD Phenom II X6 1090T o Phenom II X6 1100T.
RAM: 2x4GB o 4x4GB DDR3 1333MHz cas9.
Scheda video: ATI HD HD6950 o FirePro v4800 o NVIDIA Geforce GTX460 o Quadro 600.
Hard disk sistema: Samsung F3 500GB o Corsair Force F120, o Crucial C300 128GB
Hard disk documenti: Samsung F3 1TB o coppia in RAID 1.
Alimentatore: Corsair TX650 o HX650W.
Destinazione d’uso: software di grafica 3D in genere: modellazione e rendering.
6) 900 – 1300€
Scheda madre: AM3 Gigabyte GA-890FXA-UD5.
Processore: AMD Phenom II X6 Phenom II X6 1100T.
RAM: 4x4GB DDR3 1333MHz cas9.
Scheda video: FirePro v4800 o v5800 o Quadro 600 o Quadro 2000.
Hard disk sistema: Samsung F3 500GB o Corsair Force F120, o Crucial C300 128GB
Hard disk documenti: 2x Samsung F3 1.5TB in RAID 1.
Alimentatore: Corsair TX650 o HX650W o HX850W.
Destinazione d’uso: 3DS Max – Maya - XSI: modellazione e rendering.
Il costo del materiale non compreso per queste macchine riguarda il case, eventuali ventole ed eventualmente un
dissipatore per la CPU (necessario sulle configurazioni Intel), e può variare dai 100 ai 250 euro.
Case: Antec three hundred o Antec P183.
Ventole: 1 – 3 12cm (scythe slipstream, coolink swif2, noctua).
Dissipatore: Scythe Katana 3 o Scythe Yasya

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


7) 900 – 1100€
Scheda madre: AM3 Gigabyte GA-890FXA-UD5.
Processore: AMD Phenom II X6 1100T.
RAM: DDR3 4x4GB 1333MHz c9 o 1600MHz c9 –c7.
Scheda video: ATI HD6850 o HD6950 o Geforce GTX460 o Geforce GTX560.
Hard disk sistema e lavoro/swap: 2-3 Samsung F3 500GB in RAID 0.
Hard disk documenti: 2x Samsung F3 1.5TB in RAID 1.
Alimentatore: Corsair TX650 o HX650W.
Destinazione d’uso: Rendering di sequenze, editing/compositing video.
8) 1100 - 1500€
Scheda madre: AM3 Gigabyte GA-890FXA-UD5.
Processore: AMD Phenom II X6 110T.
RAM: DDR3 4x4GB 1600MHz c9 –c7.
Scheda video: ATI HD6850 o HD 6950 o Geforce GTX560 o GTX570.
Hard disk sistema: Samsung F3 500GB o Corsair Force F120, o Crucial C300 128GB
Hard disk lavoro: 2x Corsair Force F60 RAID 0
Hard disk documenti: 2x Samsung F3 1.5TB in RAID 1.
Alimentatore: Corsair TX650 o HX650W o HX850W.
Destinazione d’uso: Editing/compositing video.

9) 850 - 1200€
Scheda madre: gigabyte GA-X58A UD3R.
Processore: Intel Core i7 960.
RAM: DDR3 3x4GB 1333MHz c9.
Scheda video: ATI HD 6850 o HD6950 o FirePro v4800 o NVIDIA Geforce GTX460 o Quadro 600.
Hard disk sistema: Samsung F3 500GB o Corsair Force F120, o Crucial C300 128GB
Hard disk documenti: Samsung F3 1TB o coppia in RAID 1.
Alimentatore: Corsair TX650 o HX650W o HX850W.
Destinazione d’uso: software di grafica 3D in genere: modellazione e rendering.
10) 1500 - 2300€
Scheda madre: gigabyte GA-X58A UD5.
Processore: Core i7 970.
RAM: DDR3 6x4GB 1333MHz c9.
Scheda video: ATI FirePro v5800 o v7800 o v8800 o NVIDIA Quadro 2000.
Hard disk sistema: Samsung F3 500GB o Corsair Force F120, o Crucial C300 128GB
Hard disk documenti: 2x Samsung F3 1.5TB in RAID 1.
Alimentatore: Corsair TX650 o HX650W o HX850W.
Destinazione d’uso: software di grafica 3D in genere: modellazione e rendering.
Il costo del materiale non compreso per queste macchine riguarda il case, le ventole, ed un dissipatore per la CPU,
e può variare dai 200 ai 400 euro.
Case: Antec P183.
Ventole: 2 – 4 12cm (scythe slipstream, coolink swif2, noctua).
Dissipatore: Dissipatore: Scythe Yasya o Prolimatech Megahalems.

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com


11) Rendernode: 400€
Scheda madre: Gigabyte GA-890GPA-UD3H.
Processore: AMD Phenom II X6 1055T.
RAM: DDR3 2x4GB 1333Hz cas 9.
Hard disk: Western Digital caviar AAKS 250Gb o Samsung/Seagate equivalente.
Alimentatore: Corsair CX500W.
12) Rendernode: 500 - 600€
Scheda madre: Gigabyte GA-890GPA-UD3H.
Processore: AMD Phenom II X6 1090T o 1100T
RAM: DDR3 2x4 4x4GB 1333Hz cas 9.
Hard disk: Western Digital caviar AAKS 250Gb o Samsung/Seagate equivalente.
Alimentatore: Corsair CX500W o TX650W o HX850W.
Il costo del materiale non compreso per queste macchine riguarda il case, eventuali ventole accessorie ed
eventualmente un dissipatore per la CPU, e può variare dai 100 ai 250 euro.
Case: cooler master elite 535 o Antec three hundred.
Ventole: 1 – 3 12cm (scythe slipstream, coolink swif2, noctua).
Dissipatore: Scythe Katana 3 o Scythe Yasya o Prolimatech Megahalems.

CONCLUSIONI
Abbiamo parlato parecchio delle caratteristiche e dell’importanza dei vari dispositivi, di qualità, prezzi, velocità e
di utilità.
Ma restano due aspetti fondamentali che lascio da ultimi: penso che un utente che abbia letto la guida un po’ alla
volta sia arrivato a questa conclusione e ora la condividerà appieno.
Una workstation deve consentire di svolgere il lavoro dell’utente tutti i giorni da mattina a sera, deve camminare
insomma, e quel lavoro lo deve fare nel modo migliore e nel minor tempo possibile.
Esistono altre caratteristiche che distinguono una workstation da un computer potente:
La prima è l’ottimizzazione: una workstation deve svolgere uno o pochi compiti in modo eccellente, deve dunque
essere studiata in base ad un ragionamento sull’uso che se ne farà, dunque quali programmi, quanti e in quale
misura. L’ottimizzazione della macchina potrà allora comprometterne le prestazioni in ambiti meno interessanti per
l’utente.
Il secondo aspetto è l’affidabilità: una workstation deve consentire di dedicare il maggior tempo possibile durante il
quale viene usata, al lavoro per cui e nata, ne guadagna la produttività. E l’affidabilità dipende dalla stabilità del
sistema, che richiede materiale di prim’ordine testato con i programmi che si va ad usare, e con software installato
in modo corretto, e dalla sicurezza del sistema, cioè dalla sua capacità di far fronte a guasti: in questo senso, un
RAID 1 sui dischi dedicati allo storage, consente di ripartire a lavorare anche subito dopo che magari un fulmine ha
bruciato un hard disk, senza attendere i costosi eventuali tentativi di recupero; un buon UPS consente di continuare
a lavorare anche quando la corrente salta, ed un buon alimentatore, di far fronte ad eventuali cali o picchi di
tensione della rete, proteggendo il sistema.
Allo stesso modo, componenti come RAM molto diffusi e di facile reperimento, consentono di essere sostituiti con
altri uguali in poco tempo, nel caso ad esempio, sa richiesta la compatibilità con il materiale analogo rimasto buono
(è proprio il caso delle RAM: due banchi devono essere uguali per lavorare in dual channel).
Acquisiscono dunque particolare importanza scheda grafica e memoria per quanto riguarda l’ottimizzazione, oltre
che numero e tipo di hard disk e potenza del processore ovviamente; per quanto riguarda la sicurezza alimentatore,
UPS, configurazione dei dischi, backup dello storage…

Con queste note ritengo ormai conclusa la trattazione, spero che chi ha cercato qui delle informazioni sia stato
soddisfatto e possa apprestarsi all’acquisto con competenza e consapevolezza.

Piero Favero

Piero Favero: tutorial ad uso degli utenti del forum di Treddi.com

Potrebbero piacerti anche