Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
FORTALEZA - CEAR
2012
FORTALEZA - CEAR
2012
BANCA EXAMINADORA
AGRADECIMENTOS
minha famlia, por sempre acreditarem em mim. s mulheres da minha vida; minha me
Raimundinha, e minha irm Andreia. Ao meu pai Juarez, ao meu tio Jos Maria Melo (In
Memoriam). E minha prima Daila Melo. Sem vocs, os caminhos teriam sido bem mais
rduos.
Ao professores Jorge Luiz Castro e Sila e Marcial Fernandez, pelas orientaes e pela oportunidade de executar esse trabalho.
Ao professores Jerfesson Teixeira, Ricardo Rodrigues, Cidcley Teixeira, Gustavo Campos, Clecio Thomaz, Andr Santos e Joaquim Celestino, pelos ensinamentos, orientaes, fora, prontido e serenidade, em momentos crticos, que foram essenciais para continuar seguindo em
frente.
Aos amigos do MACC/InSeRT, que contriburam para o meu crescimento intelectual, minha
formao e minha vida, seja em uma aula, ou tomando um caf durante os intervalos. Saudaes
especiais ao Walisson Pereira (guru-mestre-doutor), grande amigo e orientador. Aos amigos de
trabalho e estudo, Alandson Mendona, Pablo Nbrega, Luanna Falco, Silas Santiago, Renan
Henry, Luis Ribeiro, Alisson Barbosa, Sergio Vieira, Sergio Luis, Thiago Gomes, Heitor Barros,
Anderson, Luiz Gonzaga, Edgar Tarton, Rodrigo Magalhes, Incio, Saulo Hachem, Leandro
Jales, Davi Teles, Fred Freitas, Klecia Pitombeira e Davi di Cavalcante.
Aos amigos e parentes, que nunca estiveram ausentes durante este perodo, sempre me dando
fora: Lila Licario (nenem), Vilson Nunes, Aldo Bessa, Leticie Bastos, Breno Cmara, Daila
Bertulis & Ed, Jack Anderson, Iane Rocha, Manuela Sales, Raquel Costa, Diego Lucena, Priscila Aranha, Flora Bezerra, Pedro Nogueira, Daniel Feitosa, Rafael Feitosa, Aline Honrio,
Ricardo Moreira, Davson Maia, Flora Bezerra, Pedro Nogueira, Fernando Pinheiro, Adriano
Menezes, Felipe Leito, Fabrcio Carvalho, Rinaldo Marx, e Vincius Zavam.
Aos parceiros de banda (A Trigger to Forget) por proporcionarem momentos de descontrao e
relaxamento: Lucas Nobre, Rafael Benevides, Leonardo Mamede, e Lucas Martins.
A todas as pessoas que passaram pela minha vida e contriburam para a construo de quem
sou hoje, e que no puderam estar nessa folha de papel, mas com certeza so sempre lembradas
pelo meu corao.
RESUMO
ABSTRACT
Cloud Computing is a distributed computing model based on the Internet, where computational
power, infrastructure, applications, and even collaborative content distribution are provided to
users through the Cloud as a service, anywhere, anytime. The adoption of Cloud Computing
systems in recent years is remarkable, and it is gradually gaining more visibility. Thus, critical
analysis inherent to clouds physical characteristics must be performed to ensure consistent
system running. Therefore, it is necessary to propose an approach to performance measurement
of Cloud Computing platforms taking into account the effective functioning of critical Hardware
and Network matters, such as: Processing rate, Memory Buffer refresh rate, Disk I/O transfer
rate, and the Network Latency. For this purpose, it uses the DEA metodology in tests from
two benchmark suites: HPCC and PTS. The results are analyzed, and a formulation is fitted
to analyze the required resources performance in cloud-standard applications, expressing the
usefulness of this research to Cloud Computing adopters.
LISTA DE FIGURAS
Figura 1
. . . . . . . . . . . . . . . . . . . 21
Figura 2
Figura 3
. . . . . . . . . . . . . . . . . . . . . 22
Figura 4
. . . . . . . . . . . . . . . . . . . . . . 23
Figura 5
Figura 6
Modelo dos Multiplicadores Orientados a Input (Fracionrio) (CCR/M/I) (CHARNES; COOPER; RHODES, 1978). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Figura 7
Figura 8
Figura 9
Figura 10
Modelo dos Multiplicadores Orientado a Output (CCR/M/O) (CHARNES; COOPER; RHODES, 1978). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Figura 11
Figura 12
Figura 13
Modelo dos Multiplicadores Orientado a Input (BCC/M/I) (BANKER; CHARNES; COOPER, 1984). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
. . . . . . . . . . . . . . . . 21
. . . . . . . . . . . . . 25
Figura 14
Modelo dos Multiplicadores Orientado a Output (BCC/M/O) (BANKER; CHARNES; COOPER, 1984). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Figura 15
Figura 16
Figura 17
Figura 18
Figura 19
Figura 20
Figura 21
Figura 22
. . . . . . . . . . . . . . . . . . . . . 41
. . . . . . . . . . . . . 52
. . . . . . . . . . . . . . . . . . . . . . . . 54
. . . . . . . . . . . . 56
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
. . . . . . . . . . . . . . . . . . . . . . . . 58
. . . . . . . . . . . . . . . . . 59
Figura 23 Phoronix Test Suite (Memria): RAM Speed SMP Integer x Float (MB/s)
Figura 24 Phoronix Test Suite (Storage): PostMark (Transaes/s)
. 60
. . . . . . . . . . . . . . . . . . 61
Figura 25
. . . . . . . . . . . . . . . . 62
Figura 26
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Figura 27
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Figura 28
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
LISTA DE TABELAS
Tabela 1
. . . . . . . . . . . 25
Tabela 2
Tabela 3
. . . . . . . . . . . . . . . . . . . . . . . 46
Tabela 4
. . . . . . . . . . . . . . . . . . . . . . 50
Tabela 5
Tabela 6
Tabela 7
Tabela 8
. . . . . 46
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
. . . . . . . . . 63
. . . . . . . . . . . . . . . . . . . . . . 64
LISTA DE SIGLAS
be f f
BLAS
CDN
CRS
DDR3
DEA
DFT
DGEMM
DMU
EC2
ECUs
FFT
GUPS
HPL
IaaS
InSeRT
ISP
MJMI
MPI
MTC
MV
PaaS
PPI
QoS
RAM
RMW
SaaS
SAS
SSH
TCP
TI
ToR
VRS
SUMRIO
INTRODUO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1
Contextualizao e Problemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.1
Objetivos Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.2
Objetivos Especficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2
Trabalho Realizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3
Resultados Obtidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4
Organizao da Dissertao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
CONCEITOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1
Fundamentao Terica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.1
Arquitetura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.2
Virtualizao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3
Benchmarks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.4
Metodologia DEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Trabalhos Relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.1
Iosup e Ostermann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.2
Cardoso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.3
Huber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.4
Comentrios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1
Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1
Sutes de Benchmark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.2
3.1.3
3.1.4
Recursos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.5
Aplicao do DEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.6
Formulao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
ESTUDO DE CASO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1
Ambiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2
4.2.1
Desempenho de CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2.2
Desempenho de Memria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3
Desempenho de Disco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.2.4
Desempenho de Rede . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3
4.4
ndices do DEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
RESULTADOS E DISCUSSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1
Contribuio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2
Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
APNDICE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
14
INTRODUO
15
Contextualizao e Problemtica
De acordo com a Lei de Moore (MOORE et al., 1998), os processos evolutivos das
arquiteturas computacionais so muito mais frequentes que o consumo destas tecnologias, fato
que torna o hardware obsoleto cada vez mais rpido. A constante evoluo da indstria de TI,
requer investimento para renovao de hardware, o que pode trazer instabilidades ao sistema,
devido s reposies sazonais. Compreendemos, ento, a necessidade em tornar o hardware
rentvel o mais rpido possvel. As plataformas de computao em nuvens utilizam a virtualizao para a abstrao do seu prprio hardware, aumentando sua base de usurios, porm
diminuindo potencialmente o desempenho alcanvel (IOSUP et al., 2011).
Outro fato para o qual devemos atentar que as reposies de equipamento, tendo
como objetivo a melhoria do desempenho, consequentemente levam a um maior consumo de
energia. Durante o tempo de vida de uma estrutura computacional, o gasto com recursos de
energia e refrigerao podem superar o valor do hardware. Os servios de computao em
nuvens foram projetados para substituir data centers empresariais de pequeno e mdio porte
subutilizados (10 a 20% de utilizao) (IOSUP et al., 2011).
16
A adoo de sistemas de computao em nuvens nos ltimos anos vem ganhando mais
visibilidade. A demanda crescente dos usurios por disponibilidade de recursos computacionais
aliada capacidade do sistema de entregar resultados em um tempo bastante razovel (temporeal), faz da infraestrutura deste modelo uma plataforma mais confivel, mais barata, e mais
escalvel que grids, clusters e supercomputadores (OSTERMANN et al., 2010). Com isso,
anlises crticas inerentes s caractersticas fsicas da nuvem devem ser executadas para garantir
um desempenho eficiente do sistema.
A computao em nuvens prov maior flexibilidade, maior explorao do potencial dos
recursos, e elasticidade. Esta abordagem de marketing computacional transformou grande parte
da indstria de TI, provendo softwares ainda mais atrativos como servios. a implementao
da computao como uma utilidade, vista como um servio de utilidade pblica como energia
eltrica, gua, etc. Cada servio procura atender s necessidades de seus clientes, cobrando-os
de acordo com a utilizao do servio (ARMBRUST et al., 2009).
Com a evoluo computacional, os dispositivos portteis microprocessados, como
computadores cada vez menores, tablets, smartphones, entre outros dispositivos mveis, vm
se popularizando. Assim, a evoluo das telecomunicaes, disponibiliza o acesso Internet
mvel proporcionalmente demanda computacional. Os aplicativos desenvolvidos para estes
dispositivos mveis, e at mesmo para mquinas tradicionais, so hospedados em servidores na
nuvem, tal como servios a serem disponibilizados sem necessidade de instalao local prvia.
Desta maneira, observamos a formao de ambientes de processamento distribudos, proporcionando ao usurio flexibilidade e disponibilidade no acesso ao contedo hospedado.
Toda esta facilidade sensvel aos usurios do sistema, que percebem quando a
entrega dos servios est degradada ou no. Por outro lado, os gestores e desenvolvedores
deste tipo de plataforma, necessitam entregar estes servios aos clientes de maneira confivel,
disponvel, e escalvel. Tal desempenho no transparente para a gerncia, mesmo utilizando
um software de gerenciamento, demandando uma maneira eficiente de quantiz-la, que ser
exposta mais adiante neste trabalho.
Tendo em vista o atendimento dos requisitos de disponibilidade, tais como zero downtime, que extremamente crtico e a alta latncia de rede, que pode interromper a comunicao
do sistema; verificamos a necessidade de avaliar os pontos crticos de hardware e rede das MVs
pertencentes ao sistemas de computao em nuvens, a fim de manter o sistema operante, excluindo riscos de mau funcionamento. Cada infraestrutura possui restries e diferenas entre
si, contudo possuem a mesma criticidade, a capacidade de entrega das requisies realizada
pelos recursos virtualizados na estrutura.
Por conta das criticidades de hardware e virtualizao, a operao eficiente do sistema depender do bom desempenho dos recursos da estrutura computacional. Caso contrrio,
permitir uma continuidade da subutilizao da estrutura computacional, como foi evidenciado
17
em Iosup et al. (2011). Assim, detectamos o potencial problema a ser resolvido atravs das
anlises de benchmarks e posterior formulao para a avaliao do desempenho de sistemas de
computao em nuvens, levando em considerao a ponderao dos resultados obtidos.
1.1.1
Objetivos Gerais
Objetivos Especficos
18
Trabalho Realizado
Neste trabalho, foram realizados experimentos para avaliao de desempenho dos sistemas de computao em nuvens, utilizando benchmarks e a metodologia DEA. Desta maneira,
foi possvel a aplicao da formulao proposta, e o alcance dos nveis de desempenho de cada
recurso. Levamos em considerao o desempenho mdio dos pontos crticos de hardware e
rede, tais como: processamento, taxa de atualizao do buffer de memria, E/S de armazenamento e latncia da rede. Duas sutes de benchmarks foram utilizadas na avaliao dos pontos
crticos do sistema, apresentadas a seguir.
O HPC Challenge benchmark (HPCC) utiliza kernels computacionais reais, permitindo
dados de entrada e tempos de execuo de tamanhos variveis, de acordo com a capacidade do
sistema utilizado (DONGARRA; LUSZCZEK, 2010). O HPCC consiste em sete benchmarks
responsveis pela anlise individual de cada componente crtico do sistema de computao em
nuvens apresentados na Seo 3.1.2.
O outro conjunto de testes utilizado na avaliao dos pontos crticos o Phoronix
Test-Suite, ou PTS (LARABEL; TIPPETT, 2008b), que mais respaldado em termos comerciais, sendo a ferramenta-base do site referncia para anlise de sistemas de nuvens pblicas
do mundo todo; o Cloud Harmony (READ, 2009). O PTS consiste em mais de 130 testes para
anlise de sistemas, porm apenas trs benchmarks sero utilizados nesta proposta. A escolha e
filtragem dos benchmarks para utilizao neste trabalho tomou como parmetro a manipulao
eficaz e compatibilidade do resultados obtidos. Os trs benchmarks selecionados apresentaram
maior estabilidade e verossimilhana quando comparado a benchmarks com o mesmo objetivo
(rede, memria, disco ou processamento), e sero apresentados na Seo 3.1.3.
A partir dos resultados obtidos em ambas as sutes de benchmark, analisamos os resultados, atribuindo pesos de acordo com a relevncia de cada recurso da plataforma, e transcrevemos uma formulao considerando o desempenho mdio de cada recurso em cada instncia
implementada no experimento. A formulao tambm leva em considerao o overhead atrelado a cada recurso avaliado, culminando na representao do desempenho real destes recursos.
Mais informaes sobre a metodologia utilizada nesta dissertao estaro nos Captulos 3 e 4.
1.3
Resultados Obtidos
A tecnologia de computao em nuvens representa a abstrao dos recursos computacionais disponibilizando servios sob demanda, mesmo que a virtualizao imponha certas
19
Organizao da Dissertao
Esta dissertao est dividida em seis captulos, onde o Captulo 2 expe os conceitos
fundamentais para a compreenso do problema abordado, o estado da arte da infraestrutura de
computao em nuvens, desde sua definio estrutural at as impresses do mercado com relao a esta nova tecnologia. Neste captulo ainda so apresentados os benchmarks utilizados,
bem como a metodologia DEA que propicia anlises de eficincia comparativas em organizaes complexas, retornando resultados dos sistemas com melhor desempenho. Ao final do
captulo, contamos com a justificativa sobre as pesquisas tomadas como base para a realizao
deste trabalho.
O Captulo 3 refere-se proposta da metodologia de anlise de desempenho em sistemas de computao em nuvens, tomando como referncia as principais aplicaes deste tipo de
estrutura computacional, e a apresentao dos benchmarks. Avaliamos os principais requisitos
das aplicaes, a anlise especfica dos benchmarks sobre cada mtrica, e ento propomos uma
formulao que contempla o desempenho eficaz das aplicaes de computao em nuvens.
No Captulo 4 apresentamos o cenrio utilizado para implementar a pesquisa, uma
descrio especfica dos benchmarks para anlise de desempenho do sistema de computao
em nuvens, a justificativa de cada resultado obtido, e a abordagem experimental adotada para
analisar o desempenho em sistemas de computao em nuvens.
O Captulo 5 apresenta a anlise dos resultados obtidos a partir das simulaes, aplicando a formulao proposta. Finalmente no Captulo 6 exporemos as concluses alcanadas,
a contribuio da pesquisa e as propostas de trabalhos futuros.
20
CONCEITOS
Fundamentao Terica
Arquitetura
21
22
23
24
2.1.2
Virtualizao
25
MVs
m1.small
c1.medium
m1.large
m1.xlarge
c1.xlarge
ECUs (Cores)
1 (1)
5 (2)
4 (2)
8 (4)
20 (8)
RAM [GB])
1,7
1,7
15
15
7
Archi [bit]
32
32
64
64
64
Disk [GB]
160
350
850
1690
1690
Benchmarks
Benchmarks so softwares ou operaes, a fim de avaliar o desempenho de um objeto
26
Metodologia DEA
27
utilizao dos recursos, que busca a mxima reduo equiproporcional de todos os insumos, ou
seja, obter o menor valor possvel de cada input mediante restries mencionadas anteriormente.
Pode ainda buscar a mxima expanso equiproporcional de todos os produtos, ou seja, conseguir
o maior valor possvel de cada output.
Conforme (LINS; MEZA; ANTUNES, 2000), Von Neumann utilizou modelos de programao matemtica para representar sua anlise de atividades e modelos de crescimento.
Outros autores no menos importantes tambm fizeram referncia programao linear como
instrumento de anlise essencial para o modelo DEA, porm tais referncias s foram amplamente aceitas aps a publicao de Charnes e Cooper, com a utilizao do modelo CCR
(CHARNES; COOPER; RHODES, 1978).
As principais caractersticas da metodologia DEA so:
No h necessidade de converter todos os inputs e outputs nas mesmas unidades de medida;
Os ndices de eficincia so baseados em dados reais, ou seja, nos valores de cada input e
output;
Tem como resultado un nico input virtual e um nico output virtual;
Considera que as observaes dspares dentro de uma srie no representam apenas grandes desvios em relao aos valores mdios das variveis, mas possveis benchmarks (modelos de referncia para outras unidades avaliadas);
A metodologia DEA otimiza cada observao individualmente tendo como objetivo determinar uma fronteira linear por partes, compreendendo o conjunto de unidades ParetoEficiente.
Tal metodologia propicia a anlise da eficincia comparativa de organizaes complexas obtida pela revelao do desempenho de outras unidades, de modo que a referncia no
obtida apenas terica ou conceitualmente, mas atravs da observao das melhores prticas.
As organizaes que estiverem sob anlise DEA so denominadas DMUs (Decision Making
Units), e devero utilizar recursos em comum e produzir os mesmos produtos. Com isto, sero definidas DMUs eficientes (mximo de outputs produzidos mediante os inputs utilizados) e
ineficientes; as primeiras ficaro situadas na fronteira de eficincia, enquanto as ltimas, abaixo
da mesma fronteira.
Assim, DEA (Data Envelopment Analysis) uma tcnica matemtica de programao linear que consiste em uma metodologia de apoio deciso de natureza multicritrio, que
analisa mltiplos insumos e produtos simultaneamente, sendo capaz de modelar problemas do
28
mundo real atendendo anlise de eficincias. Pode ser implementada por meio de programao linear desenvolvida para converter medidas de mltiplos insumos e produtos em uma nica
medida de eficincia (FOCHEZATTO, 2010).
Conforme Meireles (2012), existem vrias maneiras de determinar uma fronteira de
eficincia, porm existem dois modelos da metodologia DEA amplamente aceitos: o BCC e
o CCR. Ambos apresentam variaes quanto a sua orientao, tal como ser apresentado em
seguida.
2.1.4.1
O modelo CCR (CHARNES; COOPER; RHODES, 1978) constri uma superfcie linear por partes, a qual envolve os dados. Trabalha com retornos de escala constantes, ou seja,
crescimentos proporcionais de inputs produzindo crescimentos proporcionais de outputs. Existem dois modelos de programao matemtica para representar o modelo CCR: o dos multiplicadores e o do envelope.
Figura 6: Modelo dos Multiplicadores Orientados a Input (Fracionrio) (CCR/M/I) (CHARNES; COOPER; RHODES, 1978).
Tem como objetivo encontrar os valores das variveis u j e v j , que so seus respectivos
pesos, maximizando a soma ponderada dos outputs dividida pela soma ponderada dos inputs da
29
DMU em questo, como apresentado em (5) na Figura 6. Tal maximizao tem restrio que
o quociente em questo deve ser menor ou igual a um para cada DMU (6).
Desta maneira, o modelo permite que os pesos para cada varivel (input e output)
sejam escolhidos para cada DMU da forma que lhe for mais conveniente. O ndice de eficincia
encontrado o ndice apenas da DMU em questo (O), portanto esse procedimento deve ser
repetido para cada uma das k DMUs.
Este modelo permite que sejam atribudos pesos (multiplicadores) a todas as DMUs. A
fim de maximizar a eficncia, cada DMU define o seu prprio conjunto de pesos, uma vez que
possuem um sistema de valores particular. Para tal, todas as DMUs devem ter uma eficincia
inferior ou igual a 1.
Figura 7: CCR - Modelo dos Multiplicadores Orientados a Input (Linear) (CCR/M/I) (CHARNES; COOPER; RHODES, 1978).
O modelo apresentado um modelo de programao fracionria, e deve ser transformado em um modelo de programao linear. Deve-se linearizar tambm as restries do
problema conforme a Figura 7. Para tal, fixa-se o denominador da funo objetivo em um valor
constante (normalmente 1), como visto em (10). A partir deste modelo possvel calcular
alm da eficincia de cada DMU, os respectivos pesos de cada input e output.
30
O modelo CCR dos multiplicadores (M) orientado a input (I) tambm denominado
CRS/M/I por assumir retornos de escala constantes (CRS) (Constant Returns to Scale).
2.1.4.2
O modelo do envelope orientado a input tem como objetivo calcular a eficincia de uma
DMU observando as formulaes apresentadas na Figura 8, e tem como variveis de deciso
ho e k . A priori, ho deve multiplicar todos os inputs tentando colocar a DMU na fronteira de
eficincia.
31
formulado a partir do modelo do envelope (E) e por ser orientado a input (I).
2.1.4.3
Neste modelo os insumos so mantidos fixos, os produtos so maximizados, e as variveis de deciso so as mesmas do modelo orientado a input (ho e k ). Neste caso, ho ser o
valor necessrio para multiplicar os produtos mantendo constantes os insumos, possibilitando
que a DMU atinja a fronteira de eficincia. Portanto, ho ser um valor maior que 1 de acordo
com as restries da Figura 9.
Figura 9: Modelo do Envelope Orientado a Output (CCR/E/O) (CHARNES; COOPER; RHODES, 1978).
Similarmente s outras classificaes de modelos, sua denominao ser CRS/E/O por
assumir retornos de escala constantes (CRS), por ser formulado a partir do modelo do envelope
(E) e por ser orientado a output (O).
32
2.1.4.4
Figura 10: Modelo dos Multiplicadores Orientado a Output (CCR/M/O) (CHARNES; COOPER; RHODES, 1978).
Similarmente s outras classificaes de modelos, sua denominao ser CRS/M/O
por assumir retornos de escala constantes (CRS), por ser formulado a partir do modelo dos
multiplicadores (M) e por ser orientado a output (O). Podemos visualizar na Figura 10 o modelo
dos multiplicadores orientados a output.
2.1.4.5
O modelo BCC (BANKER; CHARNES; COOPER, 1984) difere do CCR quanto aos
retornos de escala; no BCC o retorno de escala varivel, enquanto que no CCR constante.
Com isso, o modelo tambm denominado VRS (Variable Returns to Scale). As DMUs que
trabalham com inputs de valores baixos tero retornos de escala crescentes, e as que trabalham
com inputs de valores altos tero retornos de escala descrescentes. Considera que um acrscimo no input poder promover um acrscimo no output, no necessariamente proporcional.
Sendo assim, este modelo relevante para o estudo da eficincia por admitir retornos de escala
33
variveis.
O modelo BCC surgiu como uma forma de eficincia resultante da diviso do modelo
CCR em duas componentes: eficincia tcnica e eficincia de escala. A eficincia tcnica
identifica a correta utilizao dos recursos escala de operao da DMU. A eficincia de escala
igual ao quociente da eficincia BCC com a eficincia CCR, e nos retorna a distncia da DMU
em anlise at uma DMU fictcia.
Na orientao a input, o modelo do envelope adiciona mais uma restrio s j existentes no modelo CCR. A nova restrio adicionada (30), garante que o somatrio dos k seja
igual a 1 tal como mostra a Figura 11.
Figura 11: Modelo do Envelope Orientado a Input (BCC/E/I) (BANKER; CHARNES; COOPER, 1984).
Tal como apresentado anteriormente, a denominao do modelo obedece o padro estabelecido; VRS/E/I por assumir retornos de escala variveis (VRS), ser formulado a partir do
modelo do envelope (E) e ser orientado a input (I).
34
2.1.4.6
Figura 12: Modelo do Envelope Orientado a Output (BCC/E/O) (BANKER; CHARNES; COOPER, 1984).
Tal como apresentado anteriormente, a denominao do modelo obedece o padro estabelecido; VRS/E/I por assumir retornos de escala variveis (VRS), ser formulado a partir do
modelo do envelope (E) e ser orientado a input (I).
2.1.4.7
Atravs dos modelos do envelope orientados a input e output possvel gerar os modelos dos multiplicadores orientados a input e output respectivamente. Em ambos, a restrio
do somatrio dos k transforma-se nas variveis duais u e v dos modelos dos multiplicadores
orientados a input e output respectivamente. Essas variveis so conhecidas como fatores de
escala, e podem ser variveis ou constantes.
35
Figura 13: Modelo dos Multiplicadores Orientado a Input (BCC/M/I) (BANKER; CHARNES;
COOPER, 1984).
Tal como apresentado anteriormente, a denominao do modelo obedece o padro estabelecido; VRS/E/I por assumir retornos de escala variveis (VRS), ser formulado a partir do
modelo dos multiplicadores (M) e ser orientado a input (I).
2.1.4.8
Tal como apresentado anteriormente, a denominao do modelo obedece o padro estabelecido; VRS/E/I por assumir retornos de escala variveis (VRS), ser formulado a partir do
modelo dos multiplicadores (M) e ser orientado a output (O).
36
Figura 14: Modelo dos Multiplicadores Orientado a Output (BCC/M/O) (BANKER; CHARNES; COOPER, 1984).
O modelo BCC/M/O (BANKER; CHARNES; COOPER, 1984) foi escolhido para este
trabalho por permitir retornos variveis de escala, podendo tais retornos crescerem, decrescerem
e permanecerem constantes medida em que a escala de produo aumentada ou reduzida.
A orientao a output foi escolhida por conta das variveis de input serem fixas, no havendo
controle sobre as variveis de input (instncias de MVs). Como o objetivo a obteno do
melhor desempenho dos benchmarks (outputs) executados nas MVs pretendido portanto, obter
a maior quantidade de produtos mediante os insumos disponveis.
37
2.2
Trabalhos Relacionados
Iosup e Ostermann
Ostermann et al. (2010) e Iosup et al. (2011), primeiramente criaram uma plataforma
virtual a partir dos recursos da nuvem, utilizando a plataforma comercial Amazon EC2 (AMAZON, 2008). Vrias instncias so criadas, especificando o tipo e a imagem da MV que vai ser
inicializada e instalada. No mximo 20 instncias podem ser utilizadas simultaneamente por
usurios normais, para no comprometer o desempenho do sistema. Assim, o recurso pode ser
utilizado como um n computacional via conexo SSH (LEHTINEN; LONVICK, 2006).
Um dos principais atrativos da computao em nuvens, a proviso de recursos sob
demanda sem tempo de espera adicional, diferentemente dos padres de submisso de outros
sistemas de larga-escala. O autor ainda estabelece perodos de tempo (longos ou curtos) para a
aquisio/liberao dos recursos. Para os perodos curtos, uma ou mais instncias so adquiridas
e liberadas repetidamente em poucos minutos, seguindo um processo de Poisson com taxa de
chegada menor que um segundo. Para os perodos longos, cada instncia adquirida e liberada
a cada 2 minutos no perodo de uma semana (IOSUP et al., 2011).
Neste cenrio a infraestrutura compartilhada por vrias tarefas independentes. Foram utilizados benchmarks tradicionais em conjuntos de tarefas para serem executadas isoladamente, reexecutando as amostras dos workloads MJMI. Para tal anlise, foi utilizado o HPCC
para todos os tipos de instncias possveis. Ao submeter o mesmo workload repetidamente para
cada tipo de instncia (MV), foram detectadas duas caractersticas de desempenho principais: A
estabilidade do makespan do workload, e o overhead tanto da aquisio/liberao de recursos,
como da execuo de tarefas, tornando possvel a anlise da proviso de recursos em tempo-real
(OSTERMANN et al., 2010).
Iosup et al. (2011) investiga e quantifica a presena de componentes proto-MTC (ManyTask Computing) em workloads de computao cientfica. Em seguida so validadas as performances de vrias plataformas de computao em nuvem (Amazon EC2, Mosso, ElasticHost e
GoGrid) utilizando os benchmarks da sute HPCC. Mais uma vez este benchmark utilizado,
agora somente para workloads de mltiplas instncias. Em seguida, o autor compara as performances (entre computao em nuvens e computao cientfica, grids e PPIs), baseando-se em
amostras de simulaes e em resultados de desempenho empricos.
38
Em ambos os trabalhos, foi verificado que a computao em nuvens uma alternativa vivel para aplicaes com deadlines curtos. Uma tarefa com tempo de resposta estvel
e baixo traz um atraso muito menor para qualquer modelo de nuvem, quando comparado ao
ambiente cientfico. A tecnologia de computao em nuvens responde eficazmente aos critrios
de estabilidade, escalabilidade, baixo overhead, e tempo de resposta. Alm disso, uma plataforma de computao em nuvens no deixa tanto a desejar, em termos de desempenho, quando
comparada a uma plataforma de computao cientfica. As estruturas de computao cientfica
foram implementadas para tratar de workloads de grande capacidade e fluxo, e portanto tem um
aproveitamento melhor nesta finalidade.
2.2.2
Cardoso
Cardoso (2011) referencia os benchmarks para a verificao do desempenho e das limitaes da infraestrutura de computao em nuvens. Os benchmarks foram divididos em:
Benchmarks de desempenho da implementao (que tem como propsito o entendimento do
momento de implementao dos clusters virtuais), benchmarks individuais, e benchmarks de
cluster. Todos trazem consigo uma noo das perdas introduzidas pela virtualizao em ambientes individuais ou multiprocessados.
O autor ainda realiza simulaes com o propsito de avaliar as mtricas de uso de
CPU/RAM, E/S de armazenamento, e de rede. Os benchmarks so divididos em trs categorias
de utilizao: CPU, E/S, e Misto. Foi verificado que os testes de utilizao de CPU possuem um
pequeno overhead introduzido pela virtualizao. Benchmarks de utilizao de E/S e Mistos,
apresentaram resultados no-consistentes onde as perdas de desempenho negativas mostram
que a virtualizao pode introduzir ganhos de desempenho.
Tal fato ocorre possivelmente pelo fato da virtualizao criar um novo nvel de cache,
gerando um grande impacto no desempenho de E/S. Por outro lado, tambm h componentes
que desempenham funes de E/S com grandes perdas de cache, deteriorando o desempenho e
tornando a cache intil. difcil, portanto, prever como uma tarefa especfica que utiliza uma
grande quantidade de execues de E/S vai se comportar.
2.2.3
Huber
Huber et al. (2011) destaca o aumento da complexidade e dinamicidade na implementao de servidores virtualizados. O aumento na complexidade causado pela introduo
paulatina de recursos virtuais, e pela lacuna deixada pela alocao de recursos lgicos e fsicos.
O aumento na dinamicidade causado pela falta de controle direto sobre o hardware fsico,
e pelas interaes complexas entre aplicaes e workloads, que compartilham a infraestrutura
fsica introduzindo novos desafios na gesto do sistema.
39
Resultados de experimentos utilizando benchmarks mostraram que o overhead de desempenho para virtualizao de CPU possui taxa em torno de 5%. Da mesma maneira, o
overhead de virtualizao de memria, E/S de rede, e de armazenamento, atingem 40%, 30%,
e 25% respectivamente. Alm da execuo dos testes, foram feitas comparaes com outros
modelos de hypervisor a fim de especificar o desempenho individual de cada um, considerando
taxas de erro de desempenho (HUBER et al., 2010).
2.2.4
Comentrios
Para atender aos requerimentos mnimos do objeto de pesquisa dos trabalhos de Iosup
et al. (2011) e Ostermann et al. (2010), relacionados na Seo 2.2.1, foi utilizada uma plataforma fsica de data center disponibilizada pelo grupo de pesquisa de segurana da informao
(InSeRT) na Universidade Estadual do Cear. Foram geradas cinco instncias de MVs baseadas no padro fornecido pela Amazon EC2 para a realizao das simulaes. A contribuio
destes trabalhos fica marcada pela metodologia e avaliao das mtricas envolvidas, alm do
pioneirismo relativo ideia de avaliar o desempenho de sistemas de computao em nuvem.
Neste trabalho submetemos vrios workloads para cinco tipos de instncias diferentes, interconectadas e replicadas para prover uma simulao mais real do ambiente de nuvem.
Alm do HPCC, o PTS tambm foi utilizado para possibilitar uma maior cobertura dos recursos
avaliados. O makespan manteve-se estvel (constante), e o overhead atribudo virtualizao
considerado pequeno, porm suficiente para alterar substancialmente os resultados de cada recurso em comparaes com outros sistemas no-virtualizados.
Tal qual a pesquisa de Cardoso (2011), utilizamos as sutes de benchmark HPCC e
PTS. Dividimos os benchmarks de acordo com os recursos, e os recursos em categorias de
utilizao. Consideramos tambm as perdas introduzidas pela virtualizao (overhead), e a
no-consistncia de alguns resultados, mostrando que a virtualizao pode introduzir ganhos de
desempenho.
Por ltimo, Huber et al. (2011) nos mostra as taxas de overhead introduzidas pela
virtualizao, e que estas devem ser levadas em considerao quando avaliamos o desempenho
dos recursos virtualizados. Assim, procedemos ao Captulo 3, onde ser proposta a metodologia
de avaliao de desempenho para sistemas de computao em nuvens. Mais detalhes sobre os
experimentos realizados sero disponibilizados na Seo 4.1.
40
Atravs das pesquisas realizadas para concepo deste trabalho, constatou-se que a
literatura estudada no trata da questo da avaliao do desempenho de sistemas de computao
em nuvens no contexto dos recursos de infraestrutura atravs de benchmarks. Mesmo com as
vantagens do sistema de computao em nuvens, a literatura normalmente referencia estruturas
de computao cientfica, as quais oferecem uma grande capacidade de armazenamento atravs
de tcnicas de processamento paralelo.
Neste captulo descrita a metodologia proposta para a anlise de desempenho de sistemas de computao em nuvens. Tal metodologia avaliar as mtricas obtidas nos benchmarks
executados em conjunto com a metodologia DEA, gerando pesos por meio de uma anlise da
eficincia inerente cada recurso em cada instncia. Com a obteno destas mtricas, formulada uma expresso matemtica que nos aponte os nveis de desempenho globais dos recursos
do sistema.
3.1
Metodologia
41
42
3.1.1
Sutes de Benchmark
43
2. DGEMM
a rotina principal do benchmark Linpack, sendo responsvel pela execuo de vrias
outras rotinas. Simula mltiplas execues de ponto flutuante sobrecarregando o processador atravs de multiplicaes entre matrizes de preciso dupla (DONGARRA et al.,
1989). Considera a participao expressiva do buffer de memria, a partir do posicionamento do ponteiro da mesma com relao distncia do incio de cada linha/coluna das
matrizes no desempenho da operao.
3. PTRANS
Normalmente chamado de Parkbench Suite, possui vrios kernels onde pares de processadores comunicam-se entre si simultaneamente, testando a capacidade de comunicao
total da rede. O PTRANS realiza multiplicao de matrizes densas e transposio de matrizes paralelas (HEY; DONGARRA; R., 1996) aplicando tcnicas de interleaving.
4. FFT
Realiza a medio da taxa de execuo de ponto flutuante atravs de transformadas de
Fourier discretas (DFT) unidimensionais de preciso dupla em arrays de nmeros complexos (FRIGO; JOHNSON, 2007).
5. STREAM
O STREAM (MCCALPIN, 2002) mede a largura de banda de memria que sustenta a
comunicao com o processador (em GB/s). Ainda mede o desempenho de quatro operaes estruturais de vetor longo. O tamanho do array definido para que seja maior do
que o tamanho da cache da mquina onde est sendo realizado o teste. Toma como parmetro a memria de comunicao direta com o processador, privilegiando a atualizao
do buffer de memria atravs da interdependncia entre memria e processador.
6. Random Acess
O benchmark Random Acess (KOESTER; LUCAS, 2008) mede o desempenho de atualizaes do buffer da memria aleatria (principal), e da memria de acesso (cache) em
sistemas multiprocessados. Ambas sustentam a comunicao entre os processadores do
sistema, direcionando esforos para o desempenho das aplicaes em execuo. O processador bastante decisivo para o desempenho do benchmark, controlando o fluxo e
favorecendo a utilizao de maiores linhas de memria.
Retorna o resultado em GUPS (Giga Updates Per Second), calculado atravs da identificao das locaes de memria atualizadas em um segundo. Obtivemos a quantidade
de GUPS identificando o nmero de locais de memria que podem ser atualizados aleatoriamente em um segundo, onde uma atualizao consiste em uma operao RMW
(leitura-modificao-escrita) controlada pelo buffer de memria e pelo processador.
44
7. be f f
O Bandwidth Efficiency mede a eficincia da largura de banda (efetiva) de comunicao atravs do tempo de latncia estimado para que se processe, transmita e receba uma
mensagem padro, em sistemas computacionais paralelos ou distribudos (RABENSEIFNER; SCHULZ, 1999). So utilizadas mensagens de vrios tamanhos, padres e mtodos de comunicao diferentes, levando em considerao uma aplicao real. O tamanho
da mensagem enviada pelo benchmark vai depender da relao memria-processador de
cada instncia testada, sendo representado pelo resultado desta relao dividido por 128.
3.1.3
Alm do HPCC, utilizamos outra sute de benchmarks, o PTS. Esta sute tambm foi
utilizada para possibilitar uma maior cobertura dos recursos avaliados e a fim de reforar a
anlise de desempenho dos recursos previamente apresentados na Seo 1.1. Compreende mais
de 130 testes para anlise de um sistema, o que motivou a escolha inicial de um escopo maior
de benchmarks da sute PTS para a avaliao do sistema. A fim de otimizar a utilizao dos
benchmarks, avaliamos a relevncia dos resultados obtidos a partir da execuo da metodologia
DEA.
Cada resultado gerado pelos benchmarks foi disposto como output no solver de programao linear referenciado na Seo 4.4. Este solver foi utilizado para obter os ndices de
eficincia e os pesos atribudos a cada um dos benchmarks avaliados. De acordo com estes
resultados, selecionamos os testes de acordo com a sua importncia dentro do conjunto de benchmarks, minimizando as possveis inconsistncias quanto s unidades de medida de cada teste.
Finalmente, os benchmarks selecionados para este trabalho foram: Loopback TCP, RAMspeed
SMP, e PostMark apresentados na Seo 3.1.3.
1. Loopback TCP Network Performance
uma simulao simples de conectividade ponto-a-ponto que mede o desempenho do
adaptador de rede em um teste de loopback atravs do desempenho do pacote TCP (LARABEL; TIPPETT, 2008a). Este teste aperfeioado neste benchmark para transmitir
10GB via loopback. O dispositivo de loopback uma interface virtual de rede implementada por software completamente integrada infraestrutura de rede do sistema. Qualquer
trfego que um programa envie para a interface de loopback recebido imediatamente na
mesma interface.
45
2. RAMspeed SMP
Mede o desempenho da interao entre as memrias cache e principal de um sistema multiprocessado (HOLLANDER; BOLOTOFF, 2002). O benchmark aloca um determinado
espao de memria, e inicia um processo de escrita ou leitura utilizando blocos de dados
de 1Kb at o limite do array, verificando a velocidade das execues dos subsistemas de
memria principal e cache. Assim como as outras simulaes de memria citadas anteriormente, tambm depende do processamento atrelado memria, controlando o fluxo
das execues repassadas ao buffer. A medio feita pela quantidade de blocos de dados
processados pela memria em GB/s.
3. PostMark
Este benchmark cria um grande pool de arquivos pequenos em constantes alteraes, a
fim de medir a taxa de transaes dos workloads, simulando um grande servidor de email para Internet. O pool de arquivos de texto configurvel e compatvel com qualquer
sistema de arquivos. As transaes de criao, deleo, leitura, e anexao possuem
tamanhos mnimo e mximo fixados entre 5Kb e 512Kb. Quando um arquivo criado,
o tamanho inicial do arquivo e do texto contido nele so selecionados aleatoriamente. A
deleo de arquivos simplesmente escolhe aleatoriamente um arquivo do pool, e o deleta.
O mesmo procedimento vlido para ao de leitura.
Por fim, para anexar dados a um arquivo abre-se um arquivo do pool aleatoriamente,
procura-se pela parte final deste, escrevendo uma quantidade aleatria de dados que no
ultrapasse o limite superior do arquivo. O Postmark (KATCHER, 1997) executa 25.000
transaes com 500 arquivos simultaneamente, e aps o trmino das transaes os arquivos remanescentes so deletados tambm, produzindo estatstica referente a deleo
contnua destes arquivos.
Listados na Tabela 2, os benchmarks apresentados acima foram escolhidos para serem utilizados no experimento aps simulaes locais, na estrutura de nuvem, e simulaes de
eficincia relativa atravs da metodologia DEA. Nenhum teste da sute HPCC foi descartado,
sendo todos de fundamental importncia para a anlise de desempenho quantitativo e qualitativo
deste trabalho. Os resultados sempre foram coesos, de fcil manipulao, e com terminologias
compatveis.
A sute PTS apresentou alguns problemas de terminologia, impossibilitando sua utilizao por falta de uma referncia no hardware analisado. Outros problemas surgiram quanto
similaridade dos resultados das simulaes realizadas na sute HPCC, o que apresentaria duplicao destes. E por ltimo, observamos atravs da metodologia DEA que alguns benchmarks
no possuam eficincia relevante em alguns resultados, que no foram to satisfatrios no sistema de computao em nuvens quanto quando executados localmente.
46
RECURSO
CPU
MEM
STO
NET
BENCHMARK
HPL
DGEMM
PTRANS
FFT
STREAM
RAM Speed SMP
Random Access
PostMark
be f f
Loopback TCP
UNIDADE DE MEDIDA
GFLOPs
GB/s
GB/s
GUPS
Transaes/s
s
s
3.1.4
Recursos
Para simplificar a organizao da anlise do desempenho dos recursos de uma estrutura de computao em nuvens, podemos divid-los em dois grupos de requisitos: recursos de
CPU e de E/S. Estudos de desempenho utilizando benchmarks gerais, mostram que o overhead
devido virtualizao de recursos de CPU tem taxa em torno de 5% conforme mencionado
na Seo 2.2.3. Dentre os recursos bsicos de uma infraestrutura de computao em nuvens o
processamento representa um consumo menor do que o esperado, pois hospeda o hypervisor
diretamente controlando o hardware e gerenciando os sistemas operacionais vigentes, consequentemente apresenta um overhead menor. A virtualizao tambm impe overheads aos
recursos de E/S (memria, Internet, e armazenamento) (HUBER et al., 2011) conforme mostra
a Tabela 3.
Aplicaes de nuvem possuem requerimentos especficos, de acordo com o seu objetivo principal. Presente de forma crtica em todas estas aplicaes, a rede determina a velocidade com a qual o restante dos recursos de E/S vo trabalhar. Em outras palavras, a rede deve
prover capacidade, disponibilidade, e eficincia suficiente para alocar recursos sem maiores
atrasos. Como foi explicado no Seo 2.1, computao em nuvens um sistema de computao
de Internet, portanto, criticamente dependente do funcionamento da rede, servio que deve ser
mantido operante (zero downtime) e transparente ao usurio. Os recursos de E/S representam a
maior parcela do consumo total da infraestrutura.
47
Uma das aplicaes mais populares hoje em dia o armazenamento de contedo online, onde o usurio pode acessar contedo de qualquer lugar do mundo com conexo Internet.
Alm deste servio, blogs, e-mails, servios de compartilhamento de fotos e vdeo, e aplicativos
de edio de textos, planilhas, e apresentaes, so servios em que o armazenamento em disco
(storage) afetado, e tem um consumo significativo com relao ao sistema como um todo.
O desempenho dos recursos de armazenamento so to dependentes da taxa de atualizao do
buffer de memria, quanto da taxa de processamento que alimenta o buffer.
Por ltimo, ainda com relao aos recursos de E/S, a memria o recurso mais requerido pelos servios providos pela nuvem. Em sistemas distribudos, considerada uma questo
crtica, pois trabalha juntamente com o processamento na atualizao da execuo dos aplicativos, das requisies do usurio, na gravao e leitura de dados que chegam atravs do adaptador
de rede ou do componente de armazenamento. Tantas funes concentradas, muitas vezes sobrecarregam o recurso, que representa o maior gargalo de toda a infraestrutura de nuvem.
De acordo com o que foi exposto, infere-se que cada recurso de hardware disponvel
dentro da infraestrutura de computao em nuvens possui uma parcela nica referente sua
utilizao, porm apresentando interdependncias entre si. Atribumos ento, pesos baseados
na importncia de cada recurso para o funcionamento eficaz da estrutura atravs da metodologia
DEA, aps a execuo de benchmarks especficos.
3.1.5
Aplicao do DEA
A metodologia DEA foi aplicada neste trabalho a fim de parametrizar os valores gerados pelos benchmarks para cada recurso em cada instncia. Os termos principais para a ponderao requerida na formulao proposta, so gerados a partir da execuo desta metodologia,
sendo possvel parametrizar a eficincia de cada experimento executado. Para a aplicao da
metodologia DEA utilizamos o modelo BCC-O, que permite que a metodologia seja orientada a
output, j que neste trabalho as variveis de input (recursos das MVs) so fixas, conforme visto
na Seo 2.1.4.
O modelo matemtico BCC-O consiste no clculo dos pesos das variveis de input
(recursos de cada MV), e output (resultados dos benchmarks). Na funo objetivo do modelo
BCC, minimiza-se a soma ponderada dos inputs (produto do valor do input pelo seu respectivo
peso), sujeito a quatro restries, apresentadas na Figura 16 e explicadas a seguir:
1. A soma ponderada dos outputs seja igual a 1 (Equao 1).
2. A subtrao entre a soma ponderada dos outputs, a soma ponderada dos inputs, e o fator
de escala (v), deve ser menor ou igual a zero (Inequao 2).
3. O peso dos outputs deve ser maior ou igual a zero (Inequao 3).
48
4. O peso dos inputs deve ser maior ou igual a zero (Inequao 4).
Figura 16: Modelo Matemtico da Metodologia DEA (BCC-O) (BANKER; CHARNES; COOPER, 1984).
Ao executar o modelo visto acima em um solver de programao linear, obtem-se os
valores dos pesos. A restrio da inequao 2 ser executada para cada uma das 150 iteraes
das instncias executadas. O fator de escala (v) vai determinar apenas se os retornos de produo
sero crescentes, decrescentes ou constantes para um conjunto de insumos e produtos. Como
os pesos foram as nicas variveis utilizadas na formulao proposta no Captulo 3.1.6, tal fator
no ser considerado neste trabalho (v = 0).
O modelo permite que os pesos sejam escolhidos para cada DMU (iteraes de MVs)
da forma que lhe for mais conveniente. Os pesos calculados devem ser maiores ou iguais a zero,
conforme as inequaes 3 e 4. Os ndices de eficincia de cada DMU tambm so calculados
pela funo objetivo. Assim, em DEA, o nmero de modelos a ser resolvido igual ao nmero
de DMUs do problema.
49
Formulao
(3.1)
Temos que IDRR o ndice de Desempenho Real por recurso, que resulta no percentual
de funcionamento real do recurso avaliado. O termo IDRR calculado pela diferena entre
o desempenho terico mximo do recurso (100%), e os overheads (OvR ) associados para cada
50
(3.2)
(3.3)
(3.4)
UiR o peso do benchmark (i) atribudo ao recurso (R). E XiR o valor obtido atravs do benchmark (i) atribudo ao recurso (R). O termo n a quantidade de MVs em que os
benchmarks executados foram hospedados para cada recurso (R), ou seja, as cinco MVs implementadas com base no modelo da Amazon EC2, apresentadas na Tabela 5 no prximo captulo.
Procuramos reunir os experimentos que simulassem mais fielmente as tarefas processadas por
um sistema de computao em nuvens de maneira geral, atendendo s demandas do sistema.
Conjuntos
j = {m1.small, c1.medium, m1.large, m1.xlarge, c1.xlarge}
R = {CPU, MEM, STO, NET}
CPUi = {HPL, DGEM, FFT, PTRANS}
MEMi = {STREAM, Random Access, RAM Speed SMP}
ST Oi = {PostMark}
NETi = {be f f , Loopback TCP}
Descrio
Instncias (MVs)
Recursos
Benchmarks de Processamento
Benchmarks de Memria
Benchmarks de Armazenamento
Benchmarks de Rede
51
Aps calculado o IADiR j , calcula-se a mdia dos resultados encontrados para os recursos (R) em cada instncia (j), onde n o nmero de instncias (MVs) utilizadas no experimento. A formulao representada pela Equao 3.3, e desenvolvida a seguir:
IADCPU j = IADiCPU j n j
IADMEM j = IADiMEM j n j
IADST O j = IADiST O j n j
IADNET j = IADiNET j n j
De posse dos resultados obtidos a partir das execues dos benchmarks e da execuo
da metodologia DEA, foi possvel calcular o ndice de Avaliao de Desempenho dos benchmarks (i) para cada recurso (R) em cada instncia (j) (IADiR j ). Consequentemente tambm foi
possvel calcular o ndice de Avaliao de Desempenho mdio de cada recurso (R) em cada
instncia (j) (IADR j ). Com base nas notaes apresentadas neste captulo, o prximo passo
consiste na resoluo da notao de desempenho global, dada pela Equao 3.1, e desenvolvida
a seguir:
IADGCPU = (IDRCPU ) x IADCPU
IADGMEM = (IDRMEM ) x IADMEM
IADGST O = (IDRST O ) x IADST O
IADGNET = (IDRNET ) x IADNET
52
ESTUDO DE CASO
Ambiente
53
MV
m1.small
c1.medium
m1.large
m1.xlarge
c1.xlarge
(CPU x Core) = UC
(1 x 1) = 1
(2 x 3) = 6
(2 x 2) = 4
(4 x 2) = 8
(7 x 3) = 21
RAM
1,7
1,7
15
15
7
ARQ.[Bits]
32
32
64
64
64
DISCO [GB]
160
350
850
1690
1690
Para o nosso experimento, criamos ambientes homogneos de 1 a 21 cores (ECUs) baseados em cinco instncias Amazon EC2. A partir da implementao destas MVs apresentadas
na Tabela 5, optamos pela utilizao do sistema operacional de cdigo-aberto Linux Ubuntu
11.10 em cada uma das cinco instncias criadas. Para possibilitar a execuo dos experimentos
propostos, foram instaladas as sutes de benchmark referenciadas na Seo 3.1.1, as quais tem
como requisito fundamental, a instalao das bibliotecas matemticas BLAS e OpenMPI para
que possam trabalhar em um ambiente de Computao Distribuda.
4.2
54
total. O workload cria uma matriz de tamanho representado por N 2 8 em bytes, onde
N equivale capacidade de cada n. Considerando os dois ns, temos 32 milhes de
elementos (de 8 bytes) de dupla preciso. Como temos 6 processadores por n, mltiplos
processos vo se espalhar pelos ns, e a memria alocada disponvel para cada processo
vai ser determinante. Consciente destes fatores, foram atribudos dois valores a N: 2000
e 4000.
2. TAMANHO DO BLOCO DE DADOS (NB)
O valor do parmetro NB o tamanho do bloco de dados que o sistema vai trabalhar,
tanto quanto distribuio dos dados na rede como para a granularidade computacional.
Quanto menor o seu valor, melhor o balanceamento de carga. Por outro lado, um valor
muito pequeno de NB limita o desempenho computacional, pois quase no haver reutilizao de dados em uma alta utilizao de memria. O melhor valor atribudo a este
parmetro varivel, dentro do intervalo de 32 a 256. Foi prefervel deixar o valor padro
(80), para que no houvesse problemas de desempenho.
3. GRADES DE PROCESSOS (P x Q)
De acordo com as especificaes definidas anteriormente, atribui-se valores a P e Q, que
trabalharo como linha e coluna da matriz (N) e do bloco de dados (NB) dimensionados.
Definido o nmero de grades de processamento (4), temos que P e Q devem ser valores
aproximados, portanto atribumos 1x3, 2x1, 3x2, e 2x2.
55
4.2.1
Desempenho de CPU
Para este recurso teremos apenas os benchmarks HPL, DGEMM, FFT, e PTRANS
representando o HPCC. A sute PTS apresentou problemas de terminologia, e eficincia relativa; impossibilitando a parametrizao dos resultados obtidos, e produzindo resultados no to
relevantes no sistema de computao em nuvens quanto aqueles executados localmente.
Dentre as MVs utilizadas, temos que a c1.xlarge possui mais unidades computacionais
(21), o que nos leva a crer que esta dever obter melhor desempenho em meio s outras MVs.
Porm, cada benchmark tem sua peculiaridade, e no somente analisa o desempenho do processamento, como tambm analisa a sua interdependncia e equilbrio para com os recursos de
memria.
Cada um dos experimentos tem como objetivo a execuo de instrues complexas,
afim de sobrecarregar a CPU, simulando uma grande demanda de processos. Os resultados
destes experimentos so dados em GFLOPs e GB/s, tendo como referncia o desempenho de
pico para este processador em ambos os casos. De acordo com (INTEL, 2010) estes valores so
de 67.2 GFLOPs e 6.4 GB/s respectivamente. Portanto, quanto maiores os resultados obtidos,
melhor. O valor em GFLOPs ainda pode ser calculado levando em considerao trs parmetros
principais:
1. Nmero de FLOPS/ciclo.
Para o processador utilizado no experimento, este valor igual a 4 (SUGREE, 2007).
2. Frequncia de Clock em GHz.
Conforme exposto na Seo 4.1, este valor igual a 2,8GHz.
3. Nmero de Cores por Processador.
Este valor igual a 6.
O benchmark HPL vai executar mltiplas operaes de ponto flutuante atravs de um
sistema de equaes lineares. Conforme executada a simulao, foi verificado que este seguiu
a lgica de concentrao de processamento (melhor desempenho para uma quantidade maior
de processamento proprietrio da MV). Como podemos visualizar no grfico da Figura 19, o
melhor resultado foi obtido na MV c1.xlarge que possui maior poder de processamento. Foram
alcanados 18,48 GFLOPs, que equivale a 27,5% do desempenho de pico terico.
Consequentemente, as outras MVs tiveram desempenho relativo quantidade de unidades processamento atreladas. A nica ressalva da anlise do HPL diz respeito MV m1.large
(4UC), que apresenta desempenho no consistente ligeiramente maior que a VM c1.medium
(6UC). Tal fato no pode ser determinado de maneira exata, pois a virtualizao pode introduzir
ganhos de desempenho criando um novo nvel de cache sobre o hypervisor.
56
CPU
20
18
HPL
DGEMM
FFT
16
14
GFLOPs
12
10
8
6
4
2
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
57
CPU
3
PTRANS
2.5
GB/s
1.5
0.5
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
Desempenho de Memria
58
GB/s
11
10
9
8
7
6
5
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
59
Random Access
0.014
0.012
GUPs
0.01
0.008
0.006
0.004
0.002
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
60
10000
MB/s
8000
6000
4000
2000
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
Figura 23: Phoronix Test Suite (Memria): RAM Speed SMP Integer x Float (MB/s)
Novamente, a questo do equilbrio de recursos fazendo a diferena nos resultados,
mesmo que mnima, pode ser justificada pelo equilbrio proporcionado pela estrutura virtualizada das MVs. Mesmo que algumas possuam pouca concentrao de memria, so compensadas pelo controle de fluxo proporcionado pelo processador e vice-versa, justificando assim, o
equilbrio dos resultados.
4.2.3
Desempenho de Disco
A sute de benchmarks HPCC no possui nenhum experimento voltado para o desempenho e interdependncia de disco. Utilizamos ento, a sute PTS para expor as impresses
sobre tal recurso. O benchmark que obteve os melhores resultados durante a fase de simulaes
locais foi o PostMark, que cria um grande pool de arquivos em constantes alteraes a fim de
medir as taxas de transaes dos workloads, simulando um grande servidor de e-mail para Internet. Temos que o desempenho de pico terico de 6 TB/s (DELL, 2011c), e o teste divide
o bloco de transferncia em 500 arquivos de at 512 Kb; o que resulta em um valor de pico em
61
3500
PostMark
3000
Transaes/s
2500
2000
1500
1000
500
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
Desempenho de Rede
62
e/ou distribudos.
Calculando os tamanhos das mensagens para cada MV, observa-se no grfico da Figura
25 que as instncias m1 carregaro as mensagens de tamanho maior. Como o fator rede
bastante aleatrio devido s diversas configuraes possveis de implantao, atribuiremos um
percentual relativo a cada resultado obtido com relao a um padro, onde foi estabelecido que
o desempenho timo gira em torno de 0,7s, e o pior em torno de 100ms.
Rede
Rede
35
BEff
120
Loopback TCP
30
100
5
25
4
3
1
0
c1.medium
15
m1.large
c1.xlarge
m1.xlarge
Segundos
80
20
60
40
10
20
0
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
m1.small
c1.medium
m1.large
c1.xlarge
m1.xlarge
63
ficiente para manipular os 10GB gerados pela interface de loopback, levando mais tempo para
tranfer-los atravs da rede. Assim, podemos inferir que o desempenho da rede tambm est
ligado relao memria-processador, que vai funcionar como um controlador do fluxo dos
pacotes provenientes da rede.
4.3
m1.small
4,64%
1,15%
0,94%
6,83%
22,01%
c1.medium
11,27%
13,27%
3,62%
27,86%
28,38%
m1.large
14,84%
4,30%
2,49%
14,71%
25,7%
m1.xlarge
24,81%
8,54%
4,52%
39,63%
30,4%
c1.xlarge
27,51%
11,08%
4,59%
38,52%
30,77%
24,46%
28,96%
26,30%
27,13%
31,36%
19,53%
0,41%
98,2%
0,58%
3,75%
28,27%
9,82%
99,9%
62,07%
4,42%
44,02%
3,73%
98,8%
92,65%
13,99%
37,53%
17,3%
99,5%
94,34%
13,00%
41,36%
17,6%
99,4%
96,02%
14,26%
4.4
ndices do DEA
64
solver, considerando cada instncia de acordo com sua influncia nos resultados obtidos pelos
benchmarks apresentados na Tabela 6.
A Tabela 7 mostra os pesos obtidos atravs da metodologia DEA, que parametrizaro o
desempenho de cada recurso atrelado a cada benchmark em cada MV. Neste estudo de caso foi
apresentada a infraestrutura utilizada no trabalho, o cenrio proposto, os experimentos realizados, as discusses de avaliao sobre os resultados obtidos pelos benchmarks, e a utilizao de
um mtodo matemtico para qualificar os resultados de acordo com sua eficincia. No prximo
Captulo, os resultados obtidos atravs da aplicao da metodologia de formulao proposta
sero apresentados e discutidos.
BENCHMARKS
HPL
DGEMM
CPU
FFT
PTRANS
RAMSpeed
SMP/Integer
MEM
RAMSpeed
SMP/Float
STREAM
RandomAccess
b
NET e f f
Loopback TCP
STO PostMark
m1.small
0,77
0,88
0,003
0,15
0,38
c1.medium
0,13
0,42
0,58
0,32
0,78
m1.large
0,66
0,23
0,25
0,07
0,17
m1.xlarge
0,28
0,29
0,5
0,33
0,42
c1.xlarge
0,51
0,20
0,58
0,43
0,37
0,46
0,96
0,3
0,68
0,65
0,14
0,91
0,42
0,24
0,57
0,18
0,93
0,59
0,43
0,24
0,67
0,37
0,48
0,33
0,19
0,33
0,73
0,55
0,28
0,42
0,61
0,56
0,43
0,48
0,62
65
RESULTADOS E DISCUSSO
66
O clculo representado o exemplo da metodologia para calcular os ndices de desempenho dos benchmarks (i) por recursos para a instncia m1.small (IADiR j ). Calcula-se os
resultados apenas para a MV m1.small como exemplo, pois o procedimento se repete para as
demais instncias. A seguir os resultados obtidos a partir do desenvolvimento das expresses
(IADR j ) so dispostos na Tabela 8.
MV
m1.small
c1.medium
m1.large
m1.xlarge
c1.xlarge
CPU
5,6
18,03
12,41
24,74
35,46
MEM
22,71
67,14
43,12
56,2
66,83
STO
2,13
1,06
2,65
5,46
8,84
NET
41,37
85,63
77,99
81,13
88,82
Tabela 8: ndices de Avaliao de Desempenho dos Benchmarks por Recurso em cada MVs
(IADiR j ).
m1.small
c1.medium
m1.large
m1.xlarge
c1.xlarge
70
60
50
40
30
20
10
0
CPU
MEM
STO
NET
67
CPU
MEM
STO
NET
70
60
50
40
30
20
10
0
m1.small
c1.medium
m1.large
m1.xlarge
c1.xlarge
68
69
ndice de Desempenho dos Recursos
100
80
60
40
20
CPU
MEM
STO
NET
Recursos
70
utilizao deste recurso ter um crescimento bastante considervel. Porm, no ter a mesma
relevncia dos outros recursos que so a base de qualquer sistema computacional.
Deduz-se, assim, que os resultados foram consistentes em relao ao trabalho de Huber
et al. (2010), ratificando a condio dos recursos de rede e memria como gargalos do sistema.
71
Com a realizao deste trabalho, pudemos concluir que as infraestruturas de computao em nuvens so ferramentas imprescindveis dentro do novo paradigma tecnolgico atual.
Com acesso mobilidade, presenciamos o boom da Internet distribuda, com contedo disponibilizado em tempo-real, e uma demanda progressiva por este contedo. Tendo em vista
o crescimento da base de usurios, e consequentemente da demanda pelos recursos da estrutura, fez-se necessrio o questionamento deste trabalho quanto avaliao do desempenho dos
recursos dos sistemas de computao em nuvens.
Foi possvel verificar que os benchmarks atenderam bem s necessidades de simulao
em rede, sobrecarregando os recursos interconectados de maneira eficiente, retornando resultados reais. A metodologia DEA nos ajudou a analisar a eficincia de cada experimento utilizado,
provendo ndices de eficincia (pesos) para os benchmarks em cada instncia implementada, e
para cada recurso avaliado. E por fim, a formulao proposta evidenciou o poder de deciso do
overhead de funcionamento de cada recurso na avaliao do desempenho global, no obstante,
as ponderaes relativas eficincia dos experimentos nortearam a avaliao das simulaes.
Conclumos, finalmente, que o desempenho dos recursos de memria e rede so os
mais importantes para uma estrutura de computao em nuvens, e por este motivo so considerados gargalos do sistema. Verificamos que o desempenho da grande maioria dos recursos
aqui avaliados diretamente proporcional taxa de overhead de funcionamento, atribuda conforme Huber et al. (2011). Mostra-se portanto, que tanto a memria quanto a rede, alavancam
o sistema fornecendo a disponibilidade e capacidade, to importantes para os sistemas de computao em nuvens.
6.1
Contribuio
72
rao dos benchmarks, para cada recurso em cada MV. Outra contribuio observada quanto
ratificao dos recursos de memria e rede como gargalos do sistema, o que torna este trabalho
bem sucedido.
6.2
Trabalhos futuros
73
BIBLIOGRAFIA
AMAZON. Amazon Elastic Compute Cloud EC2. 2008. Website. ltimo acesso em 25 de
junho de 2011. Disponvel em: <http://aws.amazon.com/ec2>.
ARMBRUST, M. et al. Above the clouds: A berkeley view of cloud computing. [S.l.], 2009.
BANERJEE, P. et al. Everything as a Service: Powering the New Information Economy.
Computer, IEEE, v. 44, n. 3, p. 3643, 2011.
BANKER, R.D.; CHARNES, A.; COOPER, W.W. Some Models for Estimating Technical
and Scale Ineffciencies in Data Envelopment Analysis. Management Science, JSTOR, p.
10781092, 1984.
CARDOSO, N. Virtual Clusters Sustained by Cloud Computing Infrastructures. For Jury
Evaluation, 2011.
CHARNES, A.; COOPER, W.W.; RHODES, E. Measuring the Efficiency of Decision Making Units. European Journal of Operational Research, Elsevier, v. 2, n. 6, p. 429444, 1978.
DEBREU, G. The Coefficient of Resource Utilization. Econometrica: Journal of Econometric
Society, JSTOR, p. 273292, 1951.
DELL. Dell Compellent Storage Center: Self-Optimized, Powerful. 2011. Website. ltimo
acesso em 06 de fevereiro de 2012. Disponvel em: <http://i.dell.com/sites/content/sharedcontent/data-sheets/en/Documents/Family-Brochure_Final.pdf>.
DELL. Power Edge M1000e. 2011. Website. ltimo acesso em 06 de fevereiro
de 2012. Disponvel em: <http://i.dell.com/sites/content/business/solutions/engineeringdocs/en/Documents/server-poweredge-m1000e-tech-guidebook.pdf>.
DELL. Power Edge M710HD. 2011. Website. ltimo acesso em 06 de fevereiro
de 2012. Disponvel em: <http://i.dell.com/sites/content/business/solutions/engineeringdocs/en/Documents/M710HD-TechGuide-10012010-final.pdf>.
DONGARRA, J. et al. Subroutine DGEMM. 1989. Website. ltimo acesso em 19 de janeiro
de 2012. Disponvel em: <http://www.netlib.org/blas/dgemm.f>.
DONGARRA, J. et al. The Message Passing Interface (MPI) Standard.
1992. Website. ltimo acesso em 19 de janeiro de 2012. Disponvel em:
<https://mcs.anl.gov/research/projects/mpi>.
DONGARRA, J.J.; LUSZCZEK, P. Overview of the HPC Challenge Benchmark Suite. In:
CITESEER. Proceeding of SPEC Benchmark Workshop. [S.l.], 2006.
DONGARRA, J.; LUSZCZEK, P. HPCC High Performance Computing Challenge. 2010. Website. ltimo acesso em 11 de janeiro de 2012. Disponvel em:
<http://icl.eecs.utk.edu/hpcc>.
FOCHEZATTO, A. Anlise da Eficincia Relativa dos Tribunais da Justia Estadual Brasileira Utilizando o Mtodo DEA. Reunin de Estudios Regionales, Badajoz, 2010.
74
FOSTER, I. et al. Cloud computing and grid computing 360-degree compared. In: IEEE.
Grid Computing Environments Workshop, 2008. GCE08. [S.l.], 2008. p. 110.
FRIGO, M.; JOHNSON, S.G. benchFFT. 2007. Website. ltimo acesso em 9 de fevereiro de
2012. Disponvel em: <http://www.fftw.org/benchfft/>.
GONCALVES,
D.B.;
JUNIOR,
J.C.V.
White
Paper
Virtualizao.
2010. Website. ltimo acesso em 14 de Abril de 2012. Disponvel em:
<http://www.sensedia.com/br/anexos/wp_virtualizacao.pdf>.
HEY, T.; DONGARRA, J.; R., Hockney. Parkbench Matrix Kernel Benchmarks. 1996. Website. ltimo acesso em 9 de fevereiro de 2012. Disponvel em:
<http://www.netlib.org/parkbench/html/matrix-kernels.html>.
HOLLANDER, R.M.; BOLOTOFF, P.V. RAMspeed. 2002. Website. ltimo acesso em 09 de
fevereiro de 2012. Disponvel em: <http://alasir.com/software/ramspeed/>.
HUBER, N. et al. Analysis of the Performance-Influencing Factors of Virtualization Platforms. On the Move to Meaningful Internet Systems, OTM 2010, Springer, p. 811828, 2010.
HUBER, N. et al. Evaluating and Modeling Virtualization Performance Overhead for
Cloud Environments. In: 1st International Conference on Cloud Computing and Services Science. [S.l.: s.n.], 2011. p. 79.
INFORMA, Adm. Cloud Computing. Exemplos e Aplicaes Prticas. 2011.
Website. ltimo acesso em 24 de maro de 2012. Disponvel em: <http://adminforma.blogspot.com.br/2012/04/5-facam-uma-descricao-sucinta-de-cloud.html>.
INSERT. Information Security Research Team. 2007. Website. ltimo acesso em 24 de Julho
de 2012. Disponvel em: <http://insert.uece.br>.
INTEL. Intel Xeon Processor 5600. 2010. Website. ltimo acesso em 06 de fevereiro de 2012.
Disponvel em: <http://www.intel.com/content/www/us/en/processors/xeon/xeon-5600-vol-1datasheet.html>.
IOSUP, A. et al. Performance analysis of cloud computing services for many-tasks scientific
computing. Parallel and Distributed Systems, IEEE Transactions on, IEEE, v. 22, n. 6, p. 931
945, 2011.
JAIN, R. The Art of Computer Systems Performance Analysis. [S.l.]: John Wiley & Sons,
2008. 206 p.
KATCHER, J. PostMark:
A New File System Benchmark. 1997.
Website. ltimo acesso em 09 de fevereiro de 2012. Disponvel em:
<http://www.netapp.com/technology/level3/3022.html>.
KOESTER, D.; LUCAS, B. Random Acess. 2008. Website. ltimo acesso em 19 de janeiro de
2012. Disponvel em: <http://icl.cs.utk.edu/projectsfiles/hpcc/RandomAccess/>.
LAM, C. et al. Fiber optic communication technologies: Whats needed for datacenter
network operations. Communications Magazine, IEEE, IEEE, v. 48, n. 7, p. 3239, 2010.
75
LARABEL, M.;
TIPPETT, M. Loopback TCP Network Performance.
2008. Website. ltimo acesso em 09 de fevereiro de 2012. Disponvel em:
<http://openbenchmarking.org/test/pts/network-loopback>.
LARABEL, M.; TIPPETT, M. Phoronix Test Suite. 2008. Website. ltimo acesso em 11 de
janeiro de 2012. Disponvel em: <http://www.phoronix-test-suite.com>.
LAWNSON, C.L. et al. Basic Linear Algebra Subprograms for FORTRAN Usage. ACM
Transactions on Mathematical Software (TOMS), ACM, v. 5, n. 3, p. 308323, 1979.
LEHTINEN, S.; LONVICK, C. The Secure Shell (SSH) Protocol Architecture. IETF, jan 2006. RFC 4251. (Request for Comments, 4251). Disponvel em:
<http://www.ietf.org/rfc/rfc4251.txt>.
LINS, M.P.E.; MEZA, L.A.; ANTUNES, C.H. Anlise Envoltria de Dados e Perspectivas
de Interao no Ambiente de Apoio Deciso. [S.l.]: COPPE/UFRJ, 2000.
MCCALPIN, J.D. STREAM: Sustainable Memory Bandwidth in High Performance
Computers. 2002. Website. ltimo acesso em 19 de janeiro de 2012. Disponvel em:
<http://www.cs.virginia.edu/stream/>.
MEIRELES, A.M.R. Uma proposta de SAD para avaliao de eficincia do poder judicirio
do estado do Cear utilizando AED. Dissertao (Mestrado) Universidade Estadual do
Cear - UECE, Fortaleza, 2012.
MOORE, G.E. et al. Cramming more components onto integrated circuits. Proceedings of
the IEEE, Institute of Electrical and Electronics Engineering, 1963, v. 86, n. 1, p. 8285, 1998.
NARASIMHAN, B.; NICHOLS, R. State of Cloud Applications and Platforms: The Cloud
Adopters View. IEEE Computer, v. 44, n. 3, p. 2428, 2011.
OPTICOMM. Fiber-Optics.Info. 2008. Website. ltimo acesso em 23 de janeiro
de 2012. Disponvel em:
<http://www.fiber-optics.info/fiber_optic_glossary/longhaul_telecommunications>.
OSTERMANN, S. et al. A performance analysis of EC2 cloud computing services for scientific computing. Cloud Computing, Springer, p. 115131, 2010.
PARKHILL, D.F. The challenge of the computer utility. [S.l.]: Addison-Wesley Reading,
MA, 1966.
PETITET, A. et al. HPL - A Portable Implementation of the High-Performance Linpack
Benchmark for Distributed-Memory Computers. 2008. Website. ltimo acesso em 19 de
janeiro de 2012. Disponvel em: <http://netlib.org/benchmark/hpl/>.
RABENSEIFNER,
R.;
SCHULZ,
G.
Effective
Bandwidth
Benchmark.
1999. Website. ltimo acesso em 9 de fevereiro de 2012. Disponvel em:
<https://fs.hlrs.de/projects/par/mpi//b_eff/>.
READ, J. Cloud Harmony: Benchmarking the Cloud. 2009. Website. ltimo acesso em 16
de novembro de 2011. Disponvel em: <http://www.cloudharmony.com>.
SOSINSKY, B. Cloud computing bible. [S.l.]: Wiley Publishing, 2011.
76
APNDICE