Sei sulla pagina 1di 7

JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 

HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       95 

Pre-Requisites for Implementing Energy


Efficient & Cost Effective Data Centers
Using Virtualization
Mueen Uddin, Azizah Abdul Rahman

Abstract: Data centers are the building blocks of IT business enterprises providing the capabilities of centralized repository for
storage, management, networking and dissemination of data. With the rapid increase in the capacity and size of data centers, there
is a continuous increase in the demand for energy consumption. These data centers not only consume a tremendous amount of
energy but are riddled with IT inefficiencies. Data center are plagued with thousands of servers as major components. These
servers consume huge energy without performing useful work. In an average server environment, 30% of the servers are “dead”
only consuming energy, without being properly utilized. This paper proposes a five step model using an emerging technology called
virtualization to achieve energy efficient data centers. This process helps to make data centers green and energy efficient so as to
ensure that IT infrastructure contributes as little as possible to the emission of green house gases, and helps to regain power and
cooling capacity, recapture resilience and dramatically reducing energy costs and total cost of ownership.

Keywords: Data center, Carbon Footprints, Green Technology, Live Migration & Virtualization.

—————— —  ————————
 
1. INTRODUCTION
 
Data  center  IT  equipment  consists  of  many  individual 
devices  like  Storage  devices,  Servers,  chillers,  generators, 

D ata  centers  are  the  building  blocks  of  any  IT  business 
organization,  providing  capabilities  of  centralized 
cooling  towers  and  many  more.  Servers  are  the  main 
consumers of energy because they are in huge number and 
their size continuously increases with the increase in the size 
storage,  backups,  management,  networking  and 
dissemination  of  data  in  which  the  mechanical,  lighting,  of  data  centers.  This  increased  consumption  of  energy 
electrical  and  computing  systems  are  designed  for  causes  an  increase  in  the  production  of  green  house  gases 
maximum  energy  efficiency  and  minimum  environmental  which are hazardous for environmental health. 
impact [1]. Data centers are found in nearly every sector of 
the  economy,  ranging  from  financial  services,  media,  high‐ Virtualization  technology  is  now  becoming  an 
tech,  universities,  government  institutions,  and  many  important  advancement  in  IT  especially  for  business 
others.  They  use  and  operate  data  centers  to  aid  business  organizations  and  has  become  a  top  to  bottom  overhaul  of 
processes,  information  management  and  communication  the computing industry. Virtualization combines or divides 
functions  [2].  Due  to  rapid  growth  in  the  size  of  the  data  the  computing  resources  of  a  server  based  environment  to 
centers  there  is  a  continuous  increase  in  the  demand  for  provide  different  operating  environments  using  different 
both  the  physical  infrastructure  and  IT  equipments,  methodologies  and  techniques  like  hardware  and  software 
resulting in continuous increase in energy consumption.  partitioning  or  aggregation,  partial  or  complete  machine 
simulation, emulation and time sharing [3]. 
————————————————
It  enables  running  two  or  more  operating  systems 
 Mueen Uddin PHD student at Department of Information
System, Universiti Teknologi Malaysia, Skudai 81310, Johor
simultaneously  on  a  single  machine.  Virtual  machine 
Malaysia. monitor  (VMM)  or  hypervisor  is  a  software  that  provides 
platform  to  host  multiple  operating  systems  running 
 Azizah .Abdul Rahman Assoc Prof. Department of Information
Systems, Universiti Teknologi Malaysia, Skudai 81310, Johor concurrently  and  sharing  different  resources  among  each 
Malaysia. other to provide services to the end users depending on the 
service levels defined before the processes [4]. 

© 2010 Journal of Computing Press, NY, USA, ISSN 2151-9617


http://sites.google.com/site/journalofcomputing/
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       96 
Virtualization  and  server  consolidation  techniques  are  sheer  magnitude  of  today’s  data,  data  centers  have  grown 
proposed to increase the utilization of underutilized servers  themselves  significantly  by  continuous  addition  of 
so  as  to  decrease  the  energy  consumption  by  data  centers  thousands  of  servers.  These  servers  are  consuming  much 
and hence reducing the carbon footprints [4]. 
more  power,  and  have  become  larger,  denser,  hotter,  and 
This  paper  will  explain  some  of  the  necessary  significantly  more  costly  to  operate  [6].  An  EPA  Report  to 
requirements  to  be  fulfilled  before  implementing  Congress  on  Server  and  Data  Center  Energy  Efficiency 
virtualization in any firm.       completed  in  2007  estimates  that  data  centers  in  USA 
consume  1.5  percent  of  the  total  USA  electricity 
Section  2  emphasizes  the  need  for  implementing 
virtualization  technology  in  a  data  center  and  provides  a  consumption for a cost of $4.5 billion [7]. From the year 2000 
five  step  process  of  implementing  it.  Section  3  discusses  to  2006,  data  center  electricity  consumption  has  doubled  in 
some  of  the  advantages  of  virtualization  after  being  the USA and is currently on a pace to double again by 2011 
implemented. In the end conclusions and recommendations  to more than 100 billion kWh, equal to $7.4 billion in annual 
are given. electricity costs [8]. 
 
 

  Gartner  group  emphasizes  on  the  rising  cost  of  energy 


2. PROBLEM STAEMENT by  pointing  out  that,  there  is  a  continuous  increase  in  IT 
Data  Centers  are  the  main  culprits  of  consuming  huge  budget from 10% to over 50% in the next few years. Energy 
energy  and  emitting  huge  amount  of  CO2,  which  is  very  increase  will  be  doubled  in  next  two  years  in  data  centers 
hazardous  for  global  warming.  Virtualization  technology  [9]. The statistics Cleary shows that the yearly cost of power 
provides the solution but it has many overheads, like single  and  cooling  bill  for  servers  in  data  centers  are  around 
point  of  failure,  total  cost  of  ownership,  energy  and  $14billion and if this trend persists, it will rise to $50billion 
efficiency calculations and return of investment.       by the end of decade [10].  
 
 

  With  the  increase  in  infrastructure  and  IT  equipment, 


3. RELATED WORK there  is  a  considerable  increase  in  the  energy  consumption 
In recent years the commercial, organizational and political  by  the  data  centers,  and  this  energy  consumption  is 
landscape  has  changed  fundamentally  for  data  centre  doubling  after  every  five  years.  [11].  Today’s  data  centers 
operators  due  to  a  confluence  of  apparently  incompatible  are big consumer of energy and are filled with high density, 
demands  and  constraints.  The  energy  use  and  power  hungry  equipment.  If  data  center  managers  remain 
environmental impact of data centers has recently become a 
unaware of these energy problems then the energy costs will 
significant  issue  for  both  operators  and  policy  makers. 
Global  warming  forecasts  that  rising  temperatures,  melting  be doubled between 2005 and 2011. If these costs continue to 
ice  and  population  dislocations  due  to  the  accumulation  of  double  every  five  years,  then  data  center  energy  costs  will 
greenhouse  gases  in  our  atmosphere  from  use  of  carbon‐ increase  to  1600  %  between  2005  and  2025  [12].  Currently 
based  energy.  Unfortunately,  data  centers  represent  a  USA  and  Europe  have  largest  data  center  power  usage  but 
relatively easy target due to the very high density of energy  Asia pacific region is rapidly catching up. [13].
consumption  and  ease  of  measurement  in  comparison  to 
other,  possibly  more  significant  areas  of  IT  energy  use. 
Policy makers have identified IT and specifically data centre  4. PROPOSED WORK
energy  use  as  one  of  the  fastest  rising  sectors.  At  the  same  Servers  are  the  leading  consumers  of  IT  power  in  any  data 
time  the  commodity  price  of  energy  has  risen  faster  than  center.  Data  centers  are  plagued  with  thousands  of  the 
many  expectations.  This  rapid  rise  in  energy  cost  has  server’s  mostly  underutilized,  having  utilization  ratio  of 
substantially  impacted  the  business  models  for  many  data 
only 5 to 10%, consuming huge energy and generating huge 
centers. Energy security and availability is also becoming an 
amount of green house gases. 
issue for data centre operators as the combined pressures of 
fossil  fuel  availability,  generation  and  distribution 
This paper focuses on the use of virtualization to overcome 
infrastructure  capacity  and  environmental  energy  policy 
energy problems in data centers. In this paper we proposed 
make prediction of energy availability and cost difficult [5]. 
  a  five  step  model  that  defines  different  pre‐requisites  need 
  As  corporations  look  to  become  more  energy  efficient,  to  be  made  before  implementing  virtualization  technology 
they  are  examining  their  operations  more  closely.  Data  in  data  centers  so  as  to  avoid  any  ambiguities  that  occur 
centers  are  found  a  major  culprit  in  consuming  a  lot  of  during the implementation process of virtualization. It save 
energy  in  their  overall  operations.  In  order  to  handle  the  a  lot  of  energy  and  at  the  same  time  increases  the 
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       97 
productivity  of  servers  with  little  or  no  additional  energy  4.2.1 Discovery Process
consumption.   The process of virtualization starts by creating an inventory 
of all servers, resources they require, available resources and 
4.1 Planning For Virtualization their  associated  workloads,  this  process  is  called  discovery 
Before implementing server virtualization in any data center 
process.  The  inventory  process  includes  both  utilized  and 
it is important to seriously plan and consider virtualization 
idle servers. It also includes information related to 
risks  associated  with  it.  It  is  also  important  for  the  data   

center  managers  to  check  whether  the  available   Make and Model of the Processor 


infrastructure  is  enough  to  handle  virtualization  loads  or   Types of processors (socket, Core, Threads, Cache) 
they need to install new hardware’s to handle the increased   Memory size and speed 
power  and  cooling  densities  may  arise  due  to  the   Network type (Number of ports, speed of each port) 
implementation of virtualization.   Local storage (number of disk drives, capacity, RAID) 
  It  is  also  important  to  consider  the  failure  of  single   Operating system and their patch levels (service levels) 
consolidated  server,  because  it  is  handling  the  workload  of   Applications installed 
multiple  applications.  In  order  to  properly  implement   Running services 
 

virtualization there is a need to consider few things like:  The  discovery  process  identifies  and  analyzes  an 


 What is virtualization?  organizations  network  before  it  is  being  virtualized.  It 
 Why we need it?  consists of following phases: 
 

 How it can improve our businesses? 
 Types of virtualization technologies exist?  4.2.1.1 Inventory
It is very important for an organization to know in advance 
 What is cost/benefit ratio of virtualization? 
the  total  content  of  its  infrastructure  before  implementing 
 What new challenges it will bring to the business firm? 
virtualization.  This  is  the  most  important  step  in  any 
 Structure  of  the  virtualization  solution  being 
virtualization  project.  There  are  many  tools  available  from 
implemented? 
different  vendors  for  performing  initial  analysis  of  an 
 Which  applications  or  services  are  good  virtualization 
organization. 
candidates? 
Microsoft  Baseline  Security  Analyzer  (MBSA)  tool 
  Which  server  platform  best  suited  to  support 
provides different information like IP addressing, Operating 
virtualization in the given data center? 
 
System,  installed  applications  and  most  importantly 

4.2 Five Step Virtualization Process vulnerabilities of every scanned system. After analyzing, all 


Like  any  other  IT  project,  virtualization  projects  must  also  generated values are linked to MS Visio, which generates a 
be  structured  and  designed  in  such  a  way  that  they  must  complete  inventory  diagram  of  all  components  and  also 
fulfill the necessary requirements and should be within the  provides details about each component being analyzed [14]. 
infrastructure  domain  already  installed.  It  is  much  more  Microsoft  Assessment  and  Planning  toolkit  (MAP)  is 
than simply loading a virtualization technology on a server  another  tool  for  the  assessment  of  network  resources.  It 
and  transforming  one  or  two  workloads  into  virtual  works  with  windows  management  instrumentation  (WMI), 
machines.  the  remote  registry  service  or  with  simple  network 
management protocol to identify systems on network [15]. 
Virtualization  process  involves  five  key  steps  to  be  VMware,  the founder  of  X‐86  virtualization,  also  offers 
followed while implementing virtualization. These steps are  different  tools  for  the  assessment  of  servers  that  could  be 
important because they provide a detailed description about  transformed into virtual machines. 
the requirements to be fulfilled before implementation.  VMware  Guided  Consolidation  (VGC)  a  powerful  tool 
assesses network with fewer than 100 physical servers. Since 
1. Discovery Process 
VGC is an agent less tool it doesn’t add any overhead over 
2. Type of Virtualization 
production server’s workload [16]. 
3. Hardware Maximization 
4. Architecture   4.2.1.2 Categorize Server Resources
5. Virtualization Management  After creating server inventory information, the next step is 
to categorize the servers and their associated resources and 
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       98 
workloads into resource pools. This process is performed to  CPU,  Memory,  and  network  and  disk  utilization  on  server 
avoid  any  technical  political,  security,  privacy  and  by server basis and finally identifies potential virtualization 
regulatory  concern  between  servers,  which  prevent  them  candidates. Other tools like CIRBA’s Power Recon and Plate 
from sharing resources. Once analysis is performed, we can  Spin’s are also very useful tools which analyze technical and 
categorize  each  server  roles  into  groups.  Server  roles  are  non‐technical factors in data centers and generate reports for 
categorized into following service types:  the consolidation of servers [17]. 
 
It  should  be  noted  that  all  these  analysis  should  be  run 
 Network infrastructure servers 
on time for a period of at least one month; this will generate 
 Identity Management servers 
high and low utilization ratios for each server. 
 Terminal servers 
 File and print servers  4.2.3 Hardware Maximization
 Application servers  This  is  the  most  important  step  of  virtualization  process. 
 Dedicated web servers  Since  servers  are  now  going  to  run  multiple  virtual 
 Collaboration servers  workloads,  it  is  important  to  consider  hardware  issues 
 Web servers  because  already  available  hardware  is  not  enough  and 
 Database servers  suitable for providing high availability of virtual workloads. 
 

A change is required to install new hardware that supports 
4.2.1.3 Categorizing Application Resources
and  delivers  the  best  price  and  performance.  This  process 
After categorizing servers into different resource pools, 
ensures  high  availability  of  virtual  workloads  and  also 
applications will also be categorized as: 
 
provides  leaner  and  meaner  resource  pool  of  resources  for 
 Commercial versus in‐house 
these virtual workloads. 
 Custom applications 
 Legacy versus updated applications  4.2.3.1 Move to 64-Bit Architecture 
 Infrastructure applications  One  of  the  major  issues  in  hardware  maximization  is  the 
 Support to business applications  proper  utilization  and  availability  of  RAM  for  each  virtual 
 Line of business applications  machine.  For  this  reason  it  is  important  to  consider  64  bit 
 Mission critical applications  architecture,  which  provides  more  utilization  and 
 

availability of RAM for all virtual and physical systems. 
 

4.2.1.4 Allocation of Resources


After creating the workloads, the next process is to allocate  4.2.3.1 Rely On Shared Storage 
computing resources required by these different workloads  It  is  also  important  to  consider  single  point  of  failure 
and  then  arranging  them  in  normalized  form,  but  for  because  one  server  is  now  running  the  workloads  of 
normalization  the  processor  utilization  should  be  at  least  multiple servers. If this server goes down the whole process 
50%.  It  is  very  important  to  normalize  workloads  so  as  to  of  virtualization  becomes  fail.  To  remove  the  chances  of 
achieve  maximum  efficiency  in  terms  of  energy,  cost  and  single point of failure at any stage can be achieved by using 
utilization.   redundancy  and  clustering  services  to  protect  virtual 
  The formula proposed in this paper for normalization is  workloads. These services are mostly provided by Microsoft 
to multiply utilization ratio of each server by total processor  and  Citrix.  While  VMware  on  the  other  hand  uses  custom 
capacity that is (maximum processor efficiency * number of  configuration approach called High availability (HA). 
 

processors * number of cores). 
4.2.4 Architecture
4.2.2 Type of Virtualization The  architecture  of  a  machine  consists  of  set  of  different 
After  analyzing  and  categorizing  servers,  second  step  instructions  that  allow  inspecting  or  modifying  machine 
defines  virtualization  in  detail,  its  advantages,  its  types,  state  trapped  when  executed  in  any  or  most  probably  the 
layers  and  most  importantly  vendor  identification  whose  privileged  mode  [18].  To  support  proper  hardware 
product  most  suits  and  fulfills  all  criteria  for  data  gathered  utilization,  it  is  important  to  update  and  revise  whole 
in  first  step.  VMware  Capacity  Planner  (VCP)  tool  can  be  datacenter  architecture.  To  protect  virtual  workloads,  x‐64 
used  when  network  size  extends  over  100  physical  servers.  systems  should  be  linked  to  shared  storage  and  arranged 
It generates reports on server processor utilization including 
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       99 
into  some  form  of  high  availability  clusters  so  as  to  computers  to  perform  different  simulations  and 
minimize the single point of failure.  experiments. 
 

5.3 Running Multiple Operating Systems


4.2.5 Virtualization Management  

Virtualization  enables  to  run  multiple  operating  systems 


Virtualized  data  centers  are  managed  by  dividing  the 
simultaneously  having  different  versions  and  vendors 
functionalities of data center into two layers. 
  independently  on  a  single  Power  Edge  Server,  to  provide 
1) Resource Pool (RP)  different services and make proper utilization of underlying 
2) Virtual service offering (VSO)  hardware. 
 

5.4 Debugging and Performance


It  is  important  to  note  that  conversion  should  always  be   

Virtual  machines  allow  powerful  debugging  and 


preferred  when  servers  are  offline  to  protect  existing 
performance  monitoring  tools,  installed  in  the  virtual 
services  and  maintain  service  level  agreements  (SLA)  with 
machine monitor or hypervisor to debug operating systems 
end users. 
without losing productivity. Virtual machines provide fault 
and error containment by isolating applications and services 
5. BENEFITS OF VIRTUALIZATION they  run.  They  also  provide  behavior  of  these  different 
Virtualization  promises  to  radically  transform  computing 
faults. 
for  the  better  utilization  of  resources  available  in  the  data   

5.5 Software Migration & Abstraction


center  reducing  overall  costs  and  increasing  agility.  It   

Virtual  machines  aid  application  and  system  mobility  by 


reduces  operational  complexity,  maintains  flexibility  in 
making  software  easier  to  migrate,  thus  large  application 
selecting  software  and  hardware  platforms  and  product 
suites  can  be  treated  as  appliances  by  ʺpackagingʺ  and 
vendors. It also increases agility in managing heterogeneous 
running  each  in  a  virtual  machine.  Virtual  machines  are 
virtual environments. Some of the benefits of virtualization 
great  tools  for  research  and  academic  experiments.  They 
are: 
 
provide  isolation,  and  encapsulate  the  entire  state  of  a 

5.1 Server & Application Consolidation running system. We can save the state, examine, modify and 


reload running systems. Hence it provides an abstraction of 
 

Virtual  machines  consolidate  the  workloads  of  several 


the workload being run. 
under‐utilized  servers  to  fewer  machines,  perhaps  a  single   

machine.  The  benefits  include  savings  on  hardware  and  5.6 Resource Sharing & Testing/QA
 

software,  environmental  costs,  management,  and  Virtualization enables the existing operating systems to run 


administration of the server infrastructure. The execution of  on shared memory multiprocessors. Virtual machines can be 
legacy  applications  is  well  served  by  virtual  machines.  A  used to create arbitrary test scenarios, and thus leads to very 
legacy  application  may  not  run  on  newer  hardware  or  imaginative  and  effective  quality  assurance  of  different 
operating  systems,  even  if  it  does,  it  may  under‐utilize  the  applications and processes. 
 

server,  hence  virtualization  consolidates  several  such  5.7 Reusability & Manageability
 
 

applications,  which  are  usually  not  written  to  co‐exist  Virtualization  can  be  used  to  retrofit  new  features  in 
within  a  single  execution  environment.  Virtual  machines  existing  operating  systems  without  much  overhead  and 
also  provide  secure,  isolated  sandboxes  for  running  enables  the  tasks  such  as  system  migration,  backup,  and 
entrusted  applications,  such  as  address  obfuscation.  Hence  recovery  easier  and  more  manageable.  It  also  provides  an 
Virtualization provides a secure and reliable mechanism for  effective  means  of  binary  compatibility  across  all  hardware 
building secure computing platforms.  and  software  platforms  to  enhance  manageability  among 
 

5.2 Multiple Execution Environments


 
different components of virtualization process.
Virtual machines can be used to create operating systems or 
execution  environments  that  guarantee  resource  6. PHYSICAL TO VIRTUAL LIVE MIGRATION
management  by  using  resource  management  schedulers  This  is  the  most  critical  time‐consuming  and  painful 
with  resource  limitations.  Virtual  machines  provide  the  operation  when  performed  manually,  since  it  includes 
illusion  of  hardware  configuration  such  as  SCSI  devices.  It  cloning  existing  operating  system  and  restoring  it  on  an 
can  also  be  used  to  simulate  networks  of  independent  identical machine, but at the same time changing the whole 
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG      
  100 
underlying hardware, which can lead to driver reinstallation 
REFERENCES 
or possibly the dreadful blue screen of death.  
 

  To  avoid  these  ambiguities,  virtualization  vendors  [1] Data Center Journal (n.d.), “What is a data center”, Data 


started to offer different physical to virtual (P2V) migration  Center  Journal,  available  at: 
utilities.  This  utility  software  speeds  up  the  movement  of  http://datacenterjournal.com/index.php?option=com_co
operation  and  solves  on  the  fly  driver  incompatibilities,  by  ntent&task=view&id=63&Itemid=  147  (accessed  March 
removing  physical  hardware  dependencies  from  server  16, 2009). 
operating  systems  and  allowing  them  to  be  moved  and 
 

[2] T.  Daim,  J.  Justice,  M.  Krampits,  M.  Letts,  G. 
recovered.  Instead  of  having  to  perform  scheduled  Subramanian,  M.  Thirumalai,  “Data  center  metrics  An 
hardware  maintenance  at  some  obscure  hour  over  the  energy  efficiency  model  for  information  technologu 
weekend, server administrators can now live migrate a VM  managers”,  Management  of  Environmental  Quuality, 
to  another  physical  resource  and  perform  physical  server  Vol.20 No.6, 2009. 
hardware maintenance in the middle of the business day.    

[3] Amit  singh,,  “An  introduction  to 


Virtuozzo for Windows 3.5.1 SWsoft itself introduced a 
virtualization”,http://www.kernelthread.com/publicatio
physical to virtual (P2V) migration tool called VZP2V. This 
ns/virtualization, 2004. 
tool  can  remotely  install  P2V  knowing  machine   

[4] Green  Grid,  “Using  virtualization  to  improve  data 


administrative username and password.        
center  efficiency”,  available  at:  www.thegreengrid.org/ 
(accessed February 2009). 
7. CONCLUSION  

[5] L.  Newcombe,  “Data  centre  energy  efficiency  metrics”, 


This  paper  highlights  the  importance  of  virtualization 
2009. 
technology  being  implemented  in  data  centers  to  save  the   

[6] W. McNamara, G. Seimetz, K. A. Vales, “Best Practices 
cost  and  maximize  the  efficiency  of  different  resources 
for Creating The Green Data Center”, 2008. 
available.  We  proposed  a  five  step  model  to  properly   

implement  virtualization.  It  starts  by  categorizing  servers  [7] EPA  Report  to  Congress  on  Server  and  Data  Center 

and  their  associated  applications  and  resources  into  Energy  Efficiency  –  Public  Law109‐431,  Environmental 

different resource pools.   Protection Agency, Washington, DC, 2007. 
 

  It  is  important  to  consider  that  virtualization  not  only  [8] Tung,  T.  Data  Center  Energy  Forecast,  Silicon  Valley 
needs  to  characterize  the  workloads  that  are  planned  to  be  Leadership Group, San Jose, CA, 2008. 
 

virtualized, but also target the environments into which the  [9] Gartner,  “Cost  Optimization  and  Beyond:  Enabling 


workloads are to be applied. It is important to determine the  Business  Change  and  the  Path  to  Growth”,  A  Gartner 
type  of  servers,  their  current  status  whether  idle  or  busy,  Briefing, Gartner, London, 2009. 
 

how  much  it  will  cost  to  implement  server  virtualization,  [10] EPA  Report  to  Congress  on  Server  and  Data  Center 
the  type  of  technology  needed  to  achieve  the  service  levels  Energy  Efficiency  –  Public  Law109‐431,  Environmental 
required  and  finally  meet  the  security/privacy  objectives.  It  Protection Agency, Washington, DC, 2009. 
 

is also important for the data center to check whether it has  [11] Gartner,  “Sustainable  IT”,  A  Gartner  Briefing,  Gartner, 


the  necessary  infrastructure  to  handle  the  increased  power  Dublin, 2008. 
 

and  cooling  densities  arise  due  to  the  implementation  of  [12]  Caldow,  J.  “The  greening  of  Government:  a  study  of 
virtualization.  how  governments  define  the  green  agenda”,  p.  8, 
  It  is  also  important  to  consider  the  failure  of  single  available 
consolidated  server,  because  it  is  handling  the  workload  of  at:www01.ibm.com/industries/government/ieg/pdf/gree
multiple applications. Virtualization poses many challenges  n_gov_agenda.pdf, 2008. 
to the data center physical infrastructure like dynamic high 
 

[13] Kumar,  R.  Media  Relations,  Gartner,  available 


density,  under‐loading  of  power/cooling  systems,  and  the 
at:www.gartner.com/it/page.jsp?id¼781012, 2008. 
need for real‐time rack‐level management. These challenges   

[14]  www.technet.microsoft.com/en‐
can  be  met  by  row‐based  cooling,  scalable  power  and 
us/security/cc184925.aspx 
predictive  management  tools.  These  solutions  are  based  on   

[15] www.microsoft.com/downloads/detail.aspx?familyID=6
design  principles  that  simultaneously  resolve  functional 
7240676‐3148‐4e49‐943d‐4d9ea7f77730&displaylang=en 
challenges and increase efficiency.   
JOURNAL OF COMPUTING, VOLUME 2, ISSUE 11, NOVEMBER 2010, ISSN 2151‐9617 
HTTPS://SITES.GOOGLE.COM/SITE/JOURNALOFCOMPUTING/  
WWW.JOURNALOFCOMPUTING.ORG       101 
[16] www.vmware.com/downloads/ 
 

[17] www.platesspin.com/products/powerrecon/ 
 

[18] www.reso‐
net.com/articles.asp?m=8#funder”Architectures

Author Biographies

Mueen Uddin is a PhD student at University


Technology Malaysia UTM. His research interests
include digital content protection and deep packet
inspection, intrusion detection and prevention
systems, analysis of MANET routing protocols,
green IT, energy efficient data centers and
Virtualization. Mr. Mueen has BS & MS in
Computer Science from Isra University Pakistan with specialty in
Information networks. Mr Uddin has seven international Journal &
Conference publications.

Azizah Abdul Rehman is an Associate


Professor at University Technology Malaysia. His
research interests include designing and
implementing techniques for information systems
in an organizational perspective, knowledge
management, designing networking systems in
reconfigurable hardware and software, and
implementing security protocols needed for E-
businesses. Azizah has BS and MS from USA, and PhD in information
systems from University Technology Malaysia. She is a member of the
IEEE, AIS, ACM, and JIS. Azizah is a renowned researcher with over
40 publications in journals and conferences.

Potrebbero piacerti anche