Sei sulla pagina 1di 12

High Performance IT Insights

Costruire linfrastruttura
Big Data

Da anni le aziende stanno affrontando


la sfida posta dalla sempre crescente
mole di dati che devono essere
catturati, archiviati e utilizzati ai fini
di business. Lulteriore sfida posta
dalla natura stessa di questi dati che
sta cambiando, arricchendosi sempre
pi di dati di provenienza varia; social
media, sensori, stream di dati audio
e video rappresentano alcuni esempi
di queste nuove fonti di informazioni.
I dati non strutturati costituiscono
ora una parte molto consistente della
totalit delle informazioni disponibili
e le aziende stanno rapidamente
valutando tecnologie che permettano di
analizzarli per ottenerne un vantaggio
competitivo. (Vedere figura 1.)

Per molti, i dati non strutturati


rappresentano una potente risorsa
ancora tutta da sfruttare, una risorsa
capace di fornire una conoscenza pi
approfondita su clienti ed operazioni
che pu quindi trasformarsi in un
vantaggio competitivo. Ma questi dati
non possono essere facilmente gestiti
con database relazionali tradizionali o
con strumenti di business intelligence,
concepiti per gestire dati strutturati.
Il problema viene ulteriormente
complicato dalla rapidit con cui
crescono volume e velocit dei
dati strutturati e non strutturati.
Linsieme di questi elementi ha portato
allo sviluppo di nuovi modelli di
elaborazione distribuita - noti come
Big Data - e di tecnologie analitiche
quali Hadoop, NoSQL e altre adatte a
gestire i dati non strutturati nella loro
forma originaria.

Le tecnologie di gestione dei Big


Data hanno permesso alle aziende di
studiare soluzioni per diventare pi
efficienti, ridurre il TCO (Total Cost of
Ownership) e migliorare la flessibilit
dellinfrastruttura IT di supporto. La
crescita costante dei dati ha costretto
le aziende a cercare modi nuovi
per acquisire, organizzare, gestire e
analizzare questi dati.
Lavvento dei Big Data sta producendo
un carico di lavoro nuovo e senza
precedenti per i data center. La
gestione di un tale carico di lavoro
richieder uninfrastruttura a s e ben
distinta, e lIT dovr trovare un modo
per gestire contemporaneamente la
vecchia e la nuova infrastruttura,
arrivando poi a farle convergere.

Figura 1
D. La vostra organizzazione utilizza o ha intenzione di utilizzare le seguenti tecnologie?
Database relazionale
Search index
Rules engines
Database colonnare o orientato a colonne
Memorizzazione documentale
Motori di elaborazione di eventi complessi
Database in-memory
Appliance di data warehouse che combina software e
hardware preconfigurato in una singola unit
Aree di memorizzazione di tipo chiave/valore
Hadoop
0

10

20

Gi in uso

30

40

50

60

da adottare entro 12 mesi

70

80

90

100

Non in programma

Fonte: IDC and Computerworld BI and Analytics Survey Research Group IT Survey, 2012, n = 111

Capire i costi
Limplementazione delle capacit
di gestione dei Big Data pu avere
ripercussioni su molti aspetti
dellinfrastruttura IT. Prima di avviare
uniniziativa in questambito, unazienda
deve essere certa di avere le idee chiare
sui costi totali che essa comporta.
A questo scopo, deve prendere in
considerazione vari fattori, quali:
Costo dellhardware, inclusi server,
risorse di storage e networking.
Costo del software, inclusi software
di gestione dei Big Data (come
Hadoop e il suo ecosistema) e
connettori necessari per lintegrazione
con i database tradizionali e i tool di
business intelligence.
Costi di implementazione, per
esempio per ricerca, progettazione
e pianificazione, installazione e
configurazione, integrazione con le
applicazioni di business intelligence
esistenti; sviluppo e testing postinstallazione.

Costo del rischio e dei problemi


di qualit dovuto alla complessit
delle implementazioni di gestione
dei Big Data: tale complessit causa
infatti problematiche che possono
rallentare il processo e richiedere
costose rielaborazioni.
Costi di opportunit IT mancate: il
tempo dedicato allinstallazione e
allintegrazione dei Big Data viene
infatti sottratto al tempo che lIT
pu dedicare ad altre attivit che
potrebbero aggiungere valore al
business.
Costo di eventuale ritardo dei
benefici attesi dal business, dovuti
al fatto che lincremento della
produttivit previsto e lacquisizione
di una pi profonda conoscenza
del mercato non possono essere
realizzati finch limplementazione
non completa.

Capire la piattaforma
di Big Data
I benefici derivanti dalla capacit di
sfruttare i Big Data sono evidenti e
considerevoli. Ma evidenti e considerevoli
sono anche le sfide che i Big Data
rappresentano per il data center. Gli
addetti allinfrastruttura IT dovranno
gestire non solo gli enormi volumi di
dati, ma anche la complessit delle varie
tipologie e la sempre maggiore velocit
con cui quei dati devono muoversi. Inoltre,
non tutte queste informazioni hanno
un valore di business, di conseguenza
lIT deve supportare i data scientists
nel setacciare queste enormi masse di
dati per trovare il cosiddetto ago nel
pagliaio, ossia le informazioni utili per
aumentare il patrimonio informativo ai
fini di business.
Nel complesso i Big Data richiederanno
uninfrastruttura per archiviare, spostare
e combinare i dati con maggiore velocit
e pi agilmente - e le infrastrutture IT
tradizionali semplicemente non sono
progettate per soddisfare questa esigenza.
Naturalmente, tecnicamente possibile
convertire i dati non strutturati in una
forma strutturata e poi utilizzare sistemi
di gestione di database relazionali per
manipolarli. Il processo di conversione,
tuttavia, richiede una considerevole
quantit di tempo, incrementando i costi e
ritardando il raggiungimento del risultato
finale. In generale, il problema non
tanto tecnologico quanto finanziario:
lutilizzo dellinfrastruttura tradizionale
per gestire i Big Data semplicemente non
unopzione economicamente sostenibile.

Lapproccio decentralizzato ai Big Data


presenta numerosi vantaggi. Per esempio,
garantisce flessibilit in termini di costi
grazie alla potenzialit di rapida scalabilit
orizzontale che consente di introdurre
anche migliaia di server di fascia bassa,
anzich dover effettuare un costoso
aggiornamento di server enterprise e
apparecchiature di storage. E per quanto
riguarda la performance, il modello
shared-nothing elimina la necessit di
incanalare i dati attraverso un numero
limitato di dischi condivisi, eliminando il
rischio di potenziali colli di bottiglia che
potrebbero incidere significativamente
sulle performance in caso di ingenti
quantit di dati da elaborare.

evidente che i Big Data necessiteranno


di un approccio infrastrutturale ad hoc
pi efficiente in termini di costi e in
molti casi quellapproccio comporter un
cambiamento rispetto alle modalit del
passato. Per molti anni i data center si
sono focalizzati sulla virtualizzazione e
il consolidamento, passando a soluzioni
pi contenute basate sulla riduzione del
numero di server di fascia alta connessi a
grandi aree di storage condivise. Accenture
ritiene tuttavia che i Big Data in genere
richiedano un approccio sostanzialmente
opposto basato su un modello
decentralizzato. In molte situazioni, la
piattaforma pi idonea per i Big Data sar
basata sulla presenza di tanti commodity
server di dimensioni pi piccole, anzich di
piattaforme di classe enterprise. E le risorse
di storage verranno gestite localmente,
a livello di singolo server, anzich essere
centralizzate e condivise (di certo, come
vedremo pi avanti, esistono anche casi in
cui lapproccio pi appropriato sar basato
su sistemi ingegnerizzati per Big Data
preconfezionati.)

Tutto ci non vuol dire che questa


piattaforma per i Big Data sostituir
linfrastruttura esistente o che eliminer
la necessit di virtualizzazione e
consolidamento propria dellinfrastruttura
tradizionale. Nel considerare i Big Data
e le piattaforme esistenti, non si deve
pensare in termini disgiuntivi (o... o), bens
incrementali (e ). Per estrapolare valore

di business dallintero patrimonio di dati,


il team che gestisce linfrastruttura IT
dovr lavorare con entrambi i modelli
infrastrutturali e far funzionare due
piattaforme pi o meno distinte, per poi
sviluppare unarchitettura di dati che le
comprenda entrambe.
Sulla base di queste considerazioni,
Accenture prevede un ribilanciamento del
panorama dei database man mano che i
data architect si convincono del fatto che
i database relazionali non sono pi il solo
strumento a disposizione. Le architetture
ibride mescoleranno soluzioni di
gestione dei database vecchie e nuove,
e i progressi realizzati nellambito della
nuova infrastruttura verranno applicati
alla vecchia dandole rinnovato vigore.
(Vedere figura 2.) In breve, le discussioni
a venire sulle architetture di dati
saranno focalizzate sul ribilanciamento,
la coesistenza e linterazione fra le due
infrastrutture.

Figura 2: Verso larchitettura di dati convergente

Fonti di dati

Analisi BI

MPP Agile
Data Marts

Advanced Analytics

Non
strutturati

Hive

Data Ingestion

Esterni

ODS

HBase
HDFS
Rack
Node
Disk
CPU

Rack
Node
Disk
CPU

Rack
Node
Disk
CPU

Data Integration

Map/Reduce

RDBMS

Real time
Analytics engine
App di interazione
con il cliente
Low-latency Systems:
Cassandra/HBase

Compute/Storage
Hadoop/HDFS Based

2011 Accenture. Tutti i diritti riservati.

Big Data e Data


Center
Lavvento delle piattaforme per i Big
Data avr implicazioni importanti per il
data center e gli esperti di infrastrutture
dovranno affrontare una serie di nuove
sfide. Per esempio, il data center dovr
gestire piattaforme per Big Data su larga
scala, con centinaia o migliaia di nuovi
cluster di server aggiunti progressivamente
allinfrastruttura. Inoltre il data center
dovr gestire lapprovvigionamento e
lorganizzazione dei servizi per tutti questi
nodi e integrare la suite di gestione dei Big
Data con la suite di gestione tradizionale.
La gestione dei Big Data generer
inoltre un maggiore assorbimento delle
risorse dellinfrastruttura di rete che
dovr supportare il trasferimento di set
di dati di dimensioni anche di qualche
terabyte. Perfino gli elementi di base
dellinfrastruttura fisica non saranno
esenti dai cambiamenti in quanto
linstallazione di un gran numero di
commodity server render necessario un
adeguamento della rete di alimentazione
elettrica e dellimpianto di riscaldamento/
raffreddamento, oltre che il reperimento di
spazio fisico per ospitare i server.
Analogamente, linfrastruttura di storage
dei Big Data dovr avere una capacit
di molti petabyte ed essere in grado di
supportare, potenzialmente, miliardi di
oggetti. E poich i dati non strutturati
rappresentano una risorsa di business
sempre pi preziosa, le aziende dovranno

adottare delle misure adeguate per


proteggerli e garantirne la disponibilit.
Anche questo potrebbe richiedere nuove
modalit di approccio, perch i volumi da
gestire potrebbero avere dimensioni troppo
grandi per poterne eseguire il backup o
il ripristino con i metodi convenzionali.
Le funzionalit di sicurezza delle
tecnologie di gestione dei Big Data sono
in continua evoluzione e le organizzazioni
dovranno prendere in considerazione
limplementazione di adeguate misure di
controllo atte a garantire lintegrit e a
prevenire il furto dei dati.
Anche la governance dellIT dovr subire
degli adattamenti per poter supportare i
Big Data. Di norma, le aziende dovranno
fare in modo che vengano predisposti
processi di governance per qualunque
attivit, dalla gestione delle performance al
riaddebito del servizio, dalla gestione delle
problematiche al supporto service desk
anche per la piattaforma Big Data.
Infine, lIT dovr determinare come
integrare la piattaforma per i Big Data con
il resto dellinfrastruttura IT. Le aziende
vorranno utilizzare sia dati strutturati che
dati non strutturati, cos che, insieme, essi
possano fornire un quadro pi completo
del business e in modo che i Big Data
possano essere interpretati nel contesto di
altri dati in possesso dellazienda. Questa
integrazione consentir alle aziende di
sfruttare data warehouse e strumenti
analitici esistenti e permetter ai decision
maker lutilizzo in maniera diffusa dei Big
Data a tutti i livelli dellorganizzazione.

Pianificare
lInfrastruttura

Come indica la ricerca di Accenture,


ladozione di un approccio data-centrico
non mai stata cos importante.

LIT dovr adottare un approccio globale


e multidisciplinare per la creazione
di una piattaforma Big Data. Il team
responsabile dellinfrastruttura IT
dovr collaborare con altri esperti IT
che possano offrire il proprio punto di
vista su tecniche analitiche, rischio e
compliance, applicazioni di business e
governance dellIT. La risultante di tutti
questi punti di vista potr essere utile per
assicurarsi che i servizi del data center
vengano riprogettati in modo adeguato
per i volumi, la velocit e la complessit
dei Big Data, e che vi sia un percorso da
seguire per far convergere larchitettura
dei Big Data e quella tradizionale, senza
mai perdere di vista gli aspetti economici.

anche importante riconoscere che per la


piattaforma di gestione dei Big Data non
esiste un unico approccio che possa andar
bene per tutti. Ogni azienda ha una storia
a s, e per questa ragione estremamente
importante che la pianificazione iniziale
venga svolta con grande attenzione. Il
team responsabile dellinfrastruttura deve
capire appieno limpatto che i Big Data
avranno sul data center. Questo significa
analizzare i requisiti di capacit, storage
e networking del data center. Significa
identificare le potenziali fonti di dati e
fare una stima delle dimensioni dei set di
dati che dovranno essere gestiti. Significa
capire il carico di lavoro di tipo analitico
in termini di volume e velocit, oltre che il
carico di I/O e CPU. E significa determinare

il livello di integrazione che occorrer


raggiungere fra la piattaforma di gestione
dei Big Data e gli strumenti di business
intelligence tradizionali.
Come detto prima, probabilmente
alcune aziende riterranno pi adeguata
linfrastruttura decentralizzata, basata
su commodity hardware di tipo shared
nothing. Ma in molti casi potrebbe avere
pi senso adottare altri approcci. Per
esempio, potrebbe essere appropriato
utilizzare la piattaforma di tipo commodity
con risorse di storage condivise quando il
carico di lavoro limitato e se leventuale
degrado delle prestazioni dovuto a colli
di bottiglia dello storage non costituisce
motivo di grande preoccupazione. Questo
potrebbe essere il caso delle aziende che
hanno appena iniziato a esplorare il mondo
dei Big Data e i carichi di lavoro sono
quindi contenuti. (Vedere figura 3.)

Figura 3: Schemi di soluzioni infrastrutturali


Schemi di soluzioni

Casi d'uso

Dettagli

Piattaforma di tipo
commodity con risorse
di storage locali

1. Elevata flessibilit e forti esigenze di


scalabilit orizzontale
2. Competenze di implementazione di
Hadoop facilmente accessibili
3. Esigenze di sviluppo o di accesso a
un'architettura di riferimento per
l'implementazione di Hadoop

1. Server fisici di tipo commodity


2. Configurazione in POD comprendenti rack di commodity server
3. Risorse di storage collegate direttamente ~12x3TB per nodo
4. Backup e recovery per disaster recovery onsite
5. Automazione e organizzazione dell'infrastruttura
6. Pianificazione capacit del data center

Piattaforma di tipo
commodity con risorse
di storage condivise

1. Implementazione medio-piccola
2. Competenze di implementazione di
Hadoop facilmente accessibili
3. Esigenze di sviluppo o di accesso a
un'architettura di riferimento per
l'implementazione di Hadoop

1. Server virtuali che girano su hypervisor come VMWare ESXi


2. Configurazione in POD comprendenti nESXcluster con densit da n a 1
3. Risorse NAS condivise a scalabilit orizzontale
4. Condivisione delle risorse di storage pu creare un potenziale collo di
bottiglia
5. Backup e recovery onsite
6. Replica offsite per disaster recovery
7. Automazione e organizzazione dell'infrastruttura
8. Pianificazione capacit del data center

Big Data Appliance


(Teradata, DCA, Oracle)

1. Accelerazione del time to delivery


2. Stretta integrazione con piattaforme
analitiche di BI (Oracle, Greenplum,
Teradata)

1. Aggregazione di computer, risorse di storage, componenti


di rete e Big Data
2. Progettati per elevata disponibilit e fault tolerance
3. Gestione semplice e unificata
4. Strumenti di gestione Hadoop
5. Strumenti di gestione sistema
6. Supporto singolo

Implementazione in
cloud (single-tenant
o multi-tenant)

1. Accelerazione del time to delivery


2. Problemi di capacit del data center
3. Desiderio di sperimentare con i Big Data
4. Utilizza gi il cloud per l'infrastruttura

1. Difficile spostare i set di dati nel cloud all'inizio


(e possibile interruzione del servizio)
2. Attenzione a sicurezza dei dati e privacy
3. Propriet dei dati nel cloud

2011 Accenture. Tutti i diritti riservati.

In altri casi potrebbe essere opportuno


optare per sistemi ingegnerizzati
pacchettizzati, soprattutto se i tempi
di realizzazione hanno unimportanza
fondamentale. Queste soluzioni possono
comportare costi consistenti iniziali
superiori rispetto ai cluster di commodity
server, ma poich riuniscono software e
tecnologia, possibile renderle operative
molto pi rapidamente e inoltre evitare
le complessit (e i costi aggiuntivi)
dellimplementazione di Hadoop e del
collegamento dellhardware, che possono
essere rilevanti. Lapproccio della soluzione
ingegnerizzata pu essere utile anche nei
casi in cui pu agevolare lintegrazione
con linfrastruttura esistente. (Vedere
Semplificazione dellimplementazione dei
Big Data.) Big Data Appliance di Oracle,
per esempio, in grado di semplificare
tale integrazione per le aziende che
utilizzano database e strumenti di
business intelligence di Oracle per gestire i
dati strutturati.

Mantenere la
Focalizzazione sul
Business
Se vero che esistono molte differenze
fra infrastruttura per i Big Data e
infrastruttura tradizionale, anche vero
che esse sono accomunate da un aspetto
fondamentale: la necessit di garantire
che lIT supporti i risultati di business.
Questo impone alle aziende di valutare
attentamente e monitorare il TCO
dellinfrastruttura mentre si orientano
verso le piattaforme di gestione dei
Big Data.
Al tempo stesso, esse devono guardare
al di l dei costi e mirare ad acquisire
capacit infrastrutturali in grado di
supportare agilit e crescita del business.
La ricerca di Accenture mostra che le
aziende ad alte performance tendono
a porre laccento su una serie di fattori
importanti, quali la formulazione di
strategie operabili e adattive in un
ambiente in divenire e il raggiungimento

di vantaggio competitivo attraverso


linnovazione continua. Le tecnologie di
gestione dei Big Data rendono molto pi
flessibili nel movimentare pi rapidamente
i dati in modo da soddisfare le esigenze del
business. Linfrastruttura di supporto ai Big
Data pu essere fondamentale per rendere
attuabili gli approcci di cui abbiamo
parlato. A questo scopo, le aziende devono
fare in modo che linfrastruttura permetta
allIT di ottimizzare costantemente i costi
delle attivit operative, di potenziare o
depotenziare le risorse in base alle esigenze
del business e di dare dimostrazione
allazienda del valore creato.
Per realizzare uninfrastruttura Big Data,
che sia di successo sia per il Business
che per lIT, occorre un approccio ben
pianificato allinfrastruttura di supporto.
I modelli di elaborazione stanno
verosimilmente cambiando con lavvento
dei Big Data, ma le aspettative dellazienda
nei confronti dellIT, in qualit di
abilitatore di efficienza e innovazione non
cambieranno e questa sar in definitiva la
misura del successo della realizzazione di
una infrastruttura Big Data.

Semplificare
lImplementazione
dei Big Data
Unimplementazione di Big Data,
comprendente lintegrazione di vari
componenti infrastrutturali, pu
essere un compito complesso che
richiede competenze specialistiche.
Inoltre, a fronte della sempre
maggiore rilevanza dei Big Data
per le aziende, diventer anche
pi importante che la relativa
infrastruttura sia caratterizzata dal
livello di performance, sicurezza
e supporto proprio di altre
soluzioni aziendali di importanza
nevralgica. Tenendo presenti queste
considerazioni, le aziende potrebbero
valutare lipotesi di orientarsi verso

sistemi ingegnerizzati pacchettizzati


che forniscono piattaforme per Big
Data preconfezionate.

fornire elevati livelli di performance,


disponibilit e sicurezza necessari per i
sistemi enterprise.

Sostanzialmente, il valore potenziale


di queste soluzioni ingegnerizzate si
riassume in una riduzione dei tempi
di installazione e configurazione e in
una semplificazione della gestione
ordinaria, fattori che possono avere
unimportanza vitale in determinate
situazioni. Per esempio, lofferta di
Oracle in questo ambito Oracle Big
Data Appliance include 648 terabyte
di storage disponibile e 216 CPU cores
in un singolo rack, ottimizzato per
Big Data. Lappliance comprende una
suite completa di software di gestione
dei Big Data, quale Hadoop e NoSQL.
(Vedere figura 4.) Lintero pacchetto
preconfigurato progettato per

Questo approccio pu ridurre


significativamente i tempi di
implementazione. Per esempio, nel
corso di una valutazione per un
grande progetto di Big Data, Oracle
ha valutato che per un sistema da 10
rack con 144 nodi, la sola installazione
dellhardware avrebbe richiesto circa
1800 cavi e 1300 ore-uomo di lavoro.
Con lappliance pacchettizzata, la
stessa implementazione avrebbe
richiesto appena 48 cavi e 38 oreuomo. Considerando il lungo periodo,
lappliance Oracle offre un unico punto
di supporto per hardware e software
di gestione dei Big Data, riducendo la
complessit legata allinterazione con
molteplici fornitori.

Figura 4: Due Approcci: Creare un proprio Sistema Big Data versus Usare soluzione preconfigurata Oracle
Creare un proprio modello
Variet
dei dati

Approccio Oracle
Big Data Appliance
Cloudera CDH 3
Cloudera Manager
Big Data Connections
NoSQL Database CE

File system
distribuito
Soluzioni Map/Reduce

Nessuno
schema

Transazioni
(key/value)

oppure

Schema

DBMS
(OLTP)

Acquisizione

ETL

10

DBMS Data
Warehouse Advanced
Analytics

Organizzazione

Riproduzione autorizzata da Oracle Corporation.

Oracle Exadata
OTLP e DW
Data mining e Oracle
Semantics
Spatial

Analisi

Acquisizione

Organizzazione

Oracle
Exalytics
Analisi
alla
velocit
del
pensiero

Analisi

La scelta di unappliance pu
inoltre facilitare lintegrazione delle
piattaforme Big Data con il resto
dellinfrastruttura. Molte aziende, per
esempio, utilizzano database Oracle
e Oracle Big Data Appliance offre
speciali connettori software che
permettono di integrare lappliance
con i database Oracle, oltre che con
la soluzione Oracle Exadata. (Vedere
figura 5.) Oracle Big Data Appliance
utilizza collegamenti InfiniBand
ad alta velocit per connettersi
con questi altri sistemi Oracle,
permettendo alle aziende di creare un
ambiente di elaborazione di altissimo
profilo, anche in questo caso con
il beneficio di un unico fornitore a
supportare lintero ambiente. Nel
complesso, questo approccio pu

consentire alle imprese di inserire i Big


Data nellecosistema analitico globale,
aiutando a semplificare il processo di
acquisizione, organizzazione e analisi
di una vasta gamma di dati.
Ogni azienda deve soppesare una
serie di fattori, a partire dalle proprie
esigenze, per determinare quale sia
il giusto approccio in materia di
Big Data. Ma con levolversi degli
strumenti e delle tecnologie di
gestione dei Big Data, le soluzioni
ingegnerizzate preconfezionate
fornite dai vari vendor costituiranno
probabilmente unalternativa
interessante per molte di esse.

Figura 5: Oracle Analytics, powered by Engineered Systems


Fonti
di dati

Oracle
Big Data
Connectors
Oracle Big Data Appliance

Stream

Acquisizione

Organizzazione

Oracle Exadata

Oracle Exalytics

Analisi e Visualizzazione

Riproduzione autorizzata da Oracle Corporation.

11

Per ulteriori informazioni su


come i Big Data possono aiutare
la vostra organizzazione a
raggiungere alte performance,
potete contattare:
Vincenzo Aloisio
Accenture Analytics Lead for IGEM
and Cross Industries
vincenzo.aloisio@accenture.com

Accenture
Accenture unazienda globale di
consulenza direzionale, servizi tecnologici
e outsourcing che conta circa 259 mila
professionisti in oltre 120 paesi del
mondo. Combinando unesperienza unica,
competenze in tutti i settori di mercato
e nelle funzioni di business e grazie ad
unampia attivit di ricerca sulle aziende
di maggior successo al mondo, Accenture
collabora con i suoi clienti, aziende e
pubbliche amministrazioni, per aiutarli a
raggiungere alte performance. A livello
globale, i ricavi netti per lanno fiscale
2012 (settembre 2011 agosto 2012)
ammontano a 27,9 miliardi di dollari. In
Italia presente con circa 10.500 persone
e nellanno fiscale 2012 ha registrato ricavi
netti per 1 miliardo e 85 milioni di euro.
www.accenture.it - www.accenture.com

Copyright 2013 Accenture


All rights reserved.
Accenture, its logo, and
High Performance Delivered
are trademarks of Accenture.

mc411