Sei sulla pagina 1di 72

Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite

Red Hat Cluster Suite per Red Hat Enterprise Linux 5

Panoramica sul Cluster Suite

Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Red Hat Cluster Suite per Red Hat Enterprise Linux 5 Edizione 3

Copyright 2009 Red Hat, Inc. The text of and illustrations in this document are licensed by Red Hat under a Creative Commons AttributionShare Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version. Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries. Linux is the registered trademark of Linus Torvalds in the United States and other countries. Java is a registered trademark of Oracle and/or its affiliates. XFS is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. MySQL is a registered trademark of MySQL AB in the United States, the European Union and other countries. All other trademarks are the property of their respective owners. 1801 Varsity Drive Raleigh, NC 27606-2072 USA Phone: +1 919 754 3700 Phone: 888 733 4281 Fax: +1 919 754 3701

La Panoramica su Red Hat Cluster Suite fornisce una panoramica del Red Hat Cluster Suite per Red Hat Enterprise Linux 5.

Introduzione v 1. Convenzioni del documento ............................................................................................. v 1.1. Convenzioni tipografiche ...................................................................................... vi 1.2. Convenzioni del documento ................................................................................. vii 1.3. Note ed avvertimenti .......................................................................................... viii 2. Commenti ..................................................................................................................... viii 1. Panoramica su Red Hat Cluster Suite 1 1.1. Concetti di base del cluster .......................................................................................... 1 1.2. Red Hat Cluster Suite Introduction ................................................................................ 2 1.3. Cluster Infrastructure .................................................................................................... 4 1.3.1. Cluster Management .......................................................................................... 4 1.3.2. Lock Management ............................................................................................. 5 1.3.3. Fencing ............................................................................................................. 5 1.3.4. Il Cluster Configuration System .......................................................................... 9 1.4. Gestione dei servizi High-availability ............................................................................ 11 1.5. Red Hat GFS ............................................................................................................. 14 1.5.1. Prestazione e scalabilit superiori ..................................................................... 16 1.5.2. Prestazione, scalabilit e prezzo moderato ........................................................ 16 1.5.3. Risparmio e prestazione .................................................................................. 17 1.6. Cluster Logical Volume Manager ................................................................................. 18 1.7. Global Network Block Device ...................................................................................... 21 1.8. Linux Virtual Server .................................................................................................... 22 1.8.1. Two-Tier LVS Topology .................................................................................... 24 1.8.2. Three-Tier LVS Topology .................................................................................. 26 1.8.3. Metodi di instradamento ................................................................................... 27 1.8.4. Persistenza e Firewall Mark ............................................................................. 30 1.9. Tool di amministrazione del cluster .............................................................................. 31 1.9.1. Conga ............................................................................................................. 31 1.9.2. GUI di amministrazione del cluster ................................................................... 34 1.9.3. Tool di amministrazione della linea di comando ................................................. 37 1.10. GUI di amministrazione del server virtuale di Linux ..................................................... 38 1.10.1. CONTROL/MONITORING .............................................................................. 39 1.10.2. GLOBAL SETTINGS ..................................................................................... 40 1.10.3. REDUNDANCY ............................................................................................. 42 1.10.4. VIRTUAL SERVERS ...................................................................................... 43 2. Sommario dei componenti di Red Hat Cluster Suite 2.1. Componenti del cluster ............................................................................................... 2.2. Pagine man ............................................................................................................... 2.3. Hardware compatibile ................................................................................................. A. Cronologia della revisione Indice analitico 51 51 56 58 59 61

iii

iv

Introduzione
Questo documento fornisce una buona panoramica sul Red Hat Cluster Suite per Red Hat Enterprise Linux 5, ed organizzato nel modo seguente: Capitolo 1, Panoramica su Red Hat Cluster Suite Capitolo 2, Sommario dei componenti di Red Hat Cluster Suite Anche se le informazioni presenti in questo documento sono generali, l'utente dovrebbe essere in possesso di una conoscenza pratica avanzata con Red Hat Enterprise Linux, e capire i concetti di computazione del server, in modo da comprendere correttamente le informazioni presenti. Per maggiori informazioni su come utilizzare Red Hat Enterprise Linux, consultate le seguenti risorse: Red Hat Enterprise Linux Installation Guide Fornisce tutte le informazioni necessarie per l'installazione di Red Hat Enterprise Linux 5. Red Hat Enterprise Linux Deployment Guide Fornisce tutte le informazioni necessarie per l'impiego, la configurazione e l'amministrazione di Red Hat Enterprise Linux 5. Per maggiori informazioni su Red Hat Cluster Suite per Red Hat Enterprise Linux 5, consultate le seguenti risorse: Configurazione e gestione di un Red Hat Cluster Contiene informazioni sull'installazione, configurazione e gestione dei componenti del Red Hat Cluster. LVM Administrator's Guide: Configuration and Administration Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment. Global File System: Configurazione e Amministrazione Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System). Global File System 2: Configurazione e Amministrazione Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System 2). Utilizzo del Device-Mapper Multipath Fornisce tutte le informazioni necessarie per l'impiego del Device-Mapper Multipath di Red Hat Enterprise Linux 5. Utilizzo di GNBD con il Global File System Fornisce una panoramica su come usare il Global Network Block Device (GNBD) con Red Hat GFS. Amministrazione del server virtuale di Linux Fornisce le informazioni su come configurare i servizi ed i sistemi ad alte prestazioni con il Linux Virtual Server (LVS). Note di rilascio di Red Hat Cluster Suite Fornisce informazioni sulla release corrente del Red Hat Cluster Suite. La documentazione di Red Hat Cluster Suite ed altri documenti di Red Hat sono disponibili nelle versioni HTML, PDF, e RPM sul CD di documentazione di Red Hat Enterprise Linux, e online su http:// www.redhat.com/docs/.

1. Convenzioni del documento


Questo manuale utilizza numerose convenzioni per evidenziare parole e frasi, ponendo attenzione su informazioni specifiche.

Introduzione Nelle edizioni PDF e cartacea questo manuale utilizza caratteri presenti nel set Font Liberation . Il set Font Liberation viene anche utilizzato nelle edizioni HTML se il set stesso stato installato sul vostro sistema. In caso contrario, verranno mostrati caratteri alternativi ma equivalenti. Da notare: Red Hat Enterprise Linux 5 e versioni pi recenti, includono per default il set Font Liberation.
1

1.1. Convenzioni tipografiche


Vengono utilizzate quattro convenzioni tipografiche per richiamare l'attenzione su parole e frasi specifiche. Queste convenzioni, e le circostanze alle quali vengono applicate, sono le seguenti. Neretto monospazio Usato per evidenziare l'input del sistema, incluso i comandi della shell, i nomi dei file ed i percorsi. Utilizzato anche per evidenziare tasti e combinazione di tasti. Per esempio: Per visualizzare i contenuti del file my_next_bestselling_novel nella vostra directory di lavoro corrente, inserire il comando cat my_next_bestselling_novel al prompt della shell e premere Invio per eseguire il comando. Quanto sopra riportato include il nome del file, un comando della shell ed un tasto, il tutto riportato in neretto monospazio e distinguibile grazie al contesto. Le combinazioni di tasti possono essere distinte dai tasti tramite il trattino che collega ogni parte della combinazione. Per esempio: Premere Invio per eseguire il comando. Premere Ctrl+Alt+F2 per smistarsi sul primo virtual terminal. Premere Ctrl+Alt+F1 per ritornare alla sessione X-Windows. Il primo paragrafo evidenzia il tasto specifico singolo da premere. Il secondo riporta due combinazioni di tasti, (ognuno dei quali un set di tre tasti premuti contemporaneamente). Se si discute del codice sorgente, i nomi della classe, i metodi, le funzioni i nomi della variabile ed i valori ritornati indicati all'interno di un paragrafo, essi verranno indicati come sopra, e cio in neretto monospazio. Per esempio: Le classi relative ad un file includono filesystem per file system, file per file, e dir per directory. Ogni classe possiede il proprio set associato di permessi. Proportional Bold Ci denota le parole e le frasi incontrate su di un sistema, incluso i nomi delle applicazioni; il testo delle caselle di dialogo; i pulsanti etichettati; le caselle e le etichette per pulsanti di selezione, titoli del menu e dei sottomenu. Per esempio: Selezionare Sistema Preferenze Mouse dalla barra del menu principale per lanciare Preferenze del Mouse. Nella scheda Pulsanti, fate clic sulla casella di dialogo mouse per mancini, e successivamente fate clic su Chiudi per cambiare il pulsante primario del mouse da sinistra a destra (rendendo cos il mouse idoneo per un utilizzo con la mano sinistra).

https://fedorahosted.org/liberation-fonts/

vi

Convenzioni del documento Per inserire un carattere speciale in un file gedit, selezionare Applicazioni Accessori Mappa carattere dalla barra menu principale. Successivamente, selezionare Cerca Trova dalla barra del menu Mappa carattere, inserire il nome del carattere nel campo Cerca e cliccare Successivo. Il carattere ricercato verr evidenziato nella Tabella caratteri. Fare un doppio clic sul carattere evidenziato per posizionarlo nel campo Testo da copiare, e successivamente fare clic sul pulsante Copia. Ritornare ora al documento e selezionare Modifica Incolla dalla barra del menu di gedit. Il testo sopra riportato include i nomi delle applicazioni; nomi ed oggetti del menu per l'intero sistema; nomi del menu specifici alle applicazioni; e pulsanti e testo trovati all'interno di una interfaccia GUI, tutti presentati in neretto proporzionale e distinguibili dal contesto. Corsivo neretto monospazio o Corsivo neretto proporzionale Sia se si tratta di neretto monospazio o neretto proporzionale, l'aggiunta del carattere corsivo indica un testo variabile o sostituibile . Il carattere corsivo denota un testo che non viene inserito letteralmente, o visualizzato che varia a seconda delle circostanze. Per esempio: Per collegarsi ad una macchina remota utilizzando ssh, digitare ssh username@domain.name al prompt della shell. Se la macchina remota example.com ed il nome utente sulla macchina interessata john, digitare ssh john@example.com. Il comando mount -o remount file-system rimonta il file system indicato. Per esempio, per rimontare il file system /home, il comando mount -o remount / home. Per visualizzare la versione di un pacchetto attualmente installato, utilizzare il comando rpm -q package. Esso ritorner il seguente risultato: packageversion-release. Da notare la parola in Corsivo neretto nome utente, domain.name, file-system, pacchetto, versione e release. Ogni parola racchiude il testo da voi inserito durante l'emissione di un comando o per il testo mostrato dal sistema. Oltre all'utilizzo normale per la presentazione di un titolo, il carattere Corsivo denota il primo utilizzo di un termine nuovo ed importante. Per esempio: Publican un sistema di pubblicazione per DocBook.

1.2. Convenzioni del documento


Gli elenchi originati dal codice sorgente e l'output del terminale vengono evidenziati rispetto al testo circostante. L'output inviato ad un terminale impostato su tondo monospazio e cos presentato:
books books_tests Desktop Desktop1 documentation downloads drafts images mss notes photos scripts stuff svgs svn

Gli elenchi del codice sorgente sono impostati in tondo monospazio ma vengono presentati ed evidenziati nel modo seguente:
package org.jboss.book.jca.ex1;

vii

Introduzione
import javax.naming.InitialContext; public class ExClient { public static void main(String args[]) throws Exception { InitialContext iniCtx = new InitialContext(); Object ref = iniCtx.lookup("EchoBean"); EchoHome home = (EchoHome) ref; Echo echo = home.create(); System.out.println("Created Echo"); System.out.println("Echo.echo('Hello') = " + echo.echo("Hello")); } }

1.3. Note ed avvertimenti


E per finire, tre stili vengono usati per richiamare l'attenzione su informazioni che in caso contrario potrebbero essere ignorate.

Nota Bene
Una nota un suggerimento o un approccio alternativo per il compito da svolgere. Non dovrebbe verificarsi alcuna conseguenza negativa se la nota viene ignorata, ma al tempo stesso potreste non usufruire di qualche trucco in grado di facilitarvi il compito.

Importante
Le caselle 'importante' riportano informazioni che potrebbero passare facilmente inosservate: modifiche alla configurazione applicabili solo alla sessione corrente, o servizi i quali necessitano di un riavvio prima di applicare un aggiornamento. Ignorare queste caselle non causa alcuna perdita di dati ma potrebbe causare irritazione e frustrazione da parte dell'utente.

Avvertenza
Un Avvertimento non dovrebbe essere ignorato. Se ignorato, potrebbe verificarsi una perdita di dati.

2. Commenti
Se individuate degli errori, o pensate di poter contribuire al miglioramento di questa guida, contattateci subito! Vi preghiamo di inviare un report in Bugzilla (http://bugzilla.redhat.com/bugzilla/) contro il componente Documentazione-cluster. viii

Commenti Be sure to mention the document's identifier:

Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)

By mentioning this document's identifier, we know exactly which version of the guide you have. Se avete dei suggerimenti per migliorare la documentazione, cercate di essere il pi specifici possibile. Se avete trovato un errore, vi preghiamo di includere il numero della sezione, e alcune righe di testo, in modo da agevolare le ricerca dell'errore stesso.

ix

Capitolo 1.

Panoramica su Red Hat Cluster Suite


I sistemi clusterizzati forniscono affidabilit, scalabilit e disponibilit ai i servizi critici di produzione. Utilizzando Red Hat Cluster Suite, possibile creare un cluster in grado di far fronte alle vostre esigenze di prestazione, high availability, di bilanciamento del carico, scalabilit, file sharing e di risparmio. Questo capitolo fornisce una panoramica sui componenti di Red Hat Cluster Suite e le sue funzioni, e consiste nelle seguenti sezioni: Sezione 1.1, Concetti di base del cluster Sezione 1.2, Red Hat Cluster Suite Introduction Sezione 1.3, Cluster Infrastructure Sezione 1.4, Gestione dei servizi High-availability Sezione 1.5, Red Hat GFS Sezione 1.6, Cluster Logical Volume Manager Sezione 1.7, Global Network Block Device Sezione 1.8, Linux Virtual Server Sezione 1.9, Tool di amministrazione del cluster Sezione 1.10, GUI di amministrazione del server virtuale di Linux

1.1. Concetti di base del cluster


Un cluster costituito da due i pi computer (chiamati nodi o membri), che operano insieme per eseguire un compito. Sono presenti quattro tipi principali di cluster: Storage High availability Bilanciamento del carico Elevate prestazioni I cluster storage forniscono una immagine coerente del file system sui server presenti in un cluster, permettendo ai server stessi di leggere e scrivere simultaneamente su di un file system condiviso singolo. Un cluster storage semplifica l'amministrazione dello storage, limitando l'installazione ed il patching di applicazioni su di un file system. Altres, con un file system cluster-wide, un cluster storage elimina la necessit di copie ridondanti di dati dell'applicazione, semplificando il processo di backup e di disaster recovery. Red Hat Cluster Suite fornisce uno storage clustering attraverso Red Hat GFS. I cluster High-availability forniscono una disponibilit continua dei servizi tramite l'eliminazione dei cos detti single points of failure, e tramite l'esecuzione del failover dei servizi da un nodo del cluster ad un altro nel caso in cui il nodo diventi non operativo. Generalmente i servizi presenti in un cluster highavailability leggono e scrivono i dati (tramite un file system montato in modalit di lettura-scrittura). Per questo motivo un cluster high-availability deve essere in grado di garantire l'integrit dei dati, poich un nodo del cluster pu assumere il controllo di un servizio da un altro nodo. La presenza di errori in un cluster high-availability non risulta essere visibile da parte di client esterni al cluster. (I cluster highavailability sono talvolta indicati come cluster di failover.) Red Hat Cluster Suite fornisce un clustering high-availability attraverso il proprio componente High-availability Service Management. 1

Capitolo 1. Panoramica su Red Hat Cluster Suite I cluster a bilanciamento del carico 'cluster load-balancing' inviano le richieste del servizio di rete a nodi multipli del cluster, in modo da bilanciare il carico richiesto tra i nodi del cluster. Il bilanciamento del carico fornisce una scalabilit molto economica, poich possibile corrispondere il numero di nodi in base ai requisiti del carico. Se un nodo all'interno del cluster risulta essere non operativo, il software per il bilanciamento del carico rileva l'errore e ridireziona le richieste ad altri nodi del cluster. Il fallimento di un nodo nel cluster load-balancing non risulta essere visibile da parte dei client esterni al cluster. Red Hat Cluster Suite fornisce un bilanciamento del carico attraverso LVS (Linux Virtual Server). I cluster High-performance utilizzano i nodi del cluster per eseguire processi di calcolo simultanei. Un cluster high-performance permette alle applicazioni di lavorare in parallelo aumentando cos la prestazione delle applicazioni. (I cluster High performance vengono anche identificati come cluster computational o grid computing.)

Nota Bene
I cluster sopra citati rappresentano le configurazioni di base; in base alle vostre esigenze potreste aver bisogno di una combinazione dei tipi di cluster appena descritti.

1.2. Red Hat Cluster Suite Introduction


Il Red Hat Cluster Suite (RHCS) un set integrato di componenti software il quale pu essere impiegato in una variet di configurazioni idonee per far fronte alle vostre esigenze di prestazione, high-availability, di bilanciamento del carico, scalabilit, file sharing e di risparmio. RHCS consists of the following major components (refer to Figura 1.1, Red Hat Cluster Suite Introduction): Infrastruttura del cluster Fornisce le funzioni fondamentali per i nodi in modo che gli stessi possano operare insieme come un cluster: gestione della configurazione-file, gestione appartenenza, lock management, e fencing. High-availability Service Management Fornisce il failover dei servizi da un nodo del cluster ad un altro, in caso in cui il nodo non pi operativo. Tool di amministrazione del cluster Tool di gestione e configurazione per l'impostazione, la configurazione e la gestione di un cluster di Red Hat. possibile utilizzare i suddetti tool con i componenti dell'infrastruttura del cluster, e con componenti per la Gestione del servizio, High availability e storage. Linux Virtual Server (LVS) Software di instradamento che fornisce l'IP-Load-balancing. LVM viene eseguito su di una coppia di server ridondanti, che distribuisce le richieste del client in modo omogeneo ai real server dietro i server LVS. possibile integrare con Red Hat Cluster Suite i seguenti componenti facenti parte di un pacchetto opzionale (e non parte di Red Hat Cluster Suite): Red Hat GFS (Global File System) Fornisce il file system del cluster per un utilizzo con Red Hat Cluster Suite. GFS permette ai nodi multipli di condividere lo storage ad un livello del blocco, come se lo storage fosse collegato localmente ad ogni nodo del cluster. Cluster Logical Volume Manager (CLVM) Fornisce la gestione del volume del cluster storage. 2

Red Hat Cluster Suite Introduction

Nota
When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvmd daemon. For further information, refer to Sezione 1.6, Cluster Logical Volume Manager.

Global Network Block Device (GNBD) Un componente ausiliario di GFS in grado di esportare uno storage del livello del blocco su Ethernet. Esso rappresenta un modo molto economico per rendere disponibile il suddetto storage a Red Hat GFS. For a lower level summary of Red Hat Cluster Suite components and optional software, refer to Capitolo 2, Sommario dei componenti di Red Hat Cluster Suite.

Figura 1.1. Red Hat Cluster Suite Introduction

Nota Bene
Figura 1.1, Red Hat Cluster Suite Introduction includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite.

Capitolo 1. Panoramica su Red Hat Cluster Suite

1.3. Cluster Infrastructure


L'infrastruttura del cluster di Red Hat Cluster Suite fornisce le funzioni di base per un gruppo di computer (chiamati nodi o membri), in modo da poter operare insieme come un cluster. Una volta formato il cluster utilizzando l'infrastruttura del cluster stesso, possibile utilizzare altri componenti del Red Hat Cluster Suite, in modo da far fronte alle esigenze del proprio cluster (per esempio per l'impostazione di un cluster per la condivisione dei file su di un file system GFS, oppure per l'impostazione del servizio di failover). L'infrastruttura del cluster esegue le seguenti funzioni: Cluster management Lock management Fencing Gestione configurazione del cluster

1.3.1. Cluster Management


Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5. CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed across all nodes in the cluster (refer to Figura 1.2, CMAN/DLM Overview). CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "splitbrain" condition a condition where two instances of the same cluster are running. A split-brain condition would allow each cluster instance to access cluster resources without knowledge of the other cluster instance, resulting in corrupted cluster integrity. Il quorum viene determinato tramite la presenza di messaggi inviati tra i nodi del cluster via Ethernet. Facoltativamente il quorum pu essere anche determinato da una combinazione di messaggi via Ethernet e attraverso un quorum disk. Per il quorum via Ethernet, esso consiste nel 50 per cento dei voti del nodo pi 1. Invece per un quorum tramite il quorum disk, esso consiste nelle condizioni specificate dall'utente.

Nota Bene
Per default ogni nodo possiede un voto. Facoltativamente possibile configurare ogni nodo in modo da avere pi di un voto.

CMAN controlla l'appartenenza tramite il monitoraggio dei messaggi provenienti da altri nodi del cluster. Quando l'appartenenza del cluster cambia, il cluster manager invia una notifica agli altri componenti dell'infrastruttura, i quali a loro volta intraprendono l'azione appropriata. Per esempio, se il nodo A si unisce al cluster e monta un file system GFS gi montato sui nodi B e C, allora sar necessario per il nodo A un journal ed un lock management aggiuntivi per poter utilizzare il file system GFS in questione. Se il nodo non trasmette alcun messaggio entro un ammontare di tempo prestabilito il cluster manager rimuove il nodo dal cluster, e comunica agli altri componenti dell'infrastruttura del cluster che il nodo in questione non risulta pi essere un membro. Ancora, altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere, previa notifica, poich il nodo non pi un membro del cluster. Per esempio, il fencing potrebbe isolare il nodo non pi membro. 4

Lock Management

Figura 1.2. CMAN/DLM Overview

1.3.2. Lock Management


Lock management is a common cluster-infrastructure service that provides a mechanism for other cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster, DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock manager and runs in each cluster node; lock management is distributed across all nodes in the cluster (refer to Figura 1.2, CMAN/DLM Overview). GFS and CLVM use locks from the lock manager. GFS uses locks from the lock manager to synchronize access to file system metadata (on shared storage). CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups (also on shared storage).

1.3.3. Fencing
Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. The cluster infrastructure performs fencing through the fence daemon, fenced. Quando CMAN determina la presenza di un nodo fallito, esso lo comunica agli altri componenti dell'infrastruttura del cluster. fenced, una volta notificata la presenza di un errore, isola il nodo in questione. Successivamente gli altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere essi eseguiranno qualsiasi processo necessario per il ripristino. Per esempio, subito dopo la notificata di un errore a DLM e GFS, essi sospendono l'attivit fino a quando non accerteranno il completamento del processo di fencing da parte di fenced. Previa conferma del completamento di tale operazione, DLM e GFS eseguono l'azione di ripristino. A questo punto DLM rilascia i blocchi del nodo fallito e GFS ripristina il jounal del suddetto nodo. Fencing determina dal file di configurazione del cluster il metodo da utilizzare. Per la definizione del suddetto metodo necessario prendere in considerazione due elementi principali: il dispositivo fencing ed il fencing agent. Questo programma esegue una chiamata nei confronti di un fencing agent specificato nel file di configurazione del cluster. Il fencing agent a sua volta, isola il nodo tramite un dispositivo di fencing. Una volta completato, il programma esegue la notifica al cluster manager. Red Hat Cluster Suite fornisce una variet di metodi usati per il fencing:

Capitolo 1. Panoramica su Red Hat Cluster Suite Power fencing Esso il metodo utilizzato da un controllore di alimentazione per disalimentare il nodo non utilizzabile. Fibre Channel switch fencing Rappresenta il metodo attraverso il quale viene disabilitata la porta del Fibre Channel la quale collega lo storage ad un nodo non utilizzabile. GNBD fencing A fencing method that disables an inoperable node's access to a GNBD server. Altri tipi di fencing Diversi metodi per il fencing che disabilitano l'I/O o l'alimentazione di un nodo non utilizzabile, incluso gli IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II, ed altro ancora. Figura 1.3, Power Fencing Example shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. Figura 1.4, Fibre Channel Switch Fencing Example shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage.

Figura 1.3. Power Fencing Example

Fencing

Figura 1.4. Fibre Channel Switch Fencing Example Specificare un metodo significa modificare il file di configurazione del cluster in modo da assegnare un nome per il metodo di fencing desiderato, il fencing agent, ed il dispositivo di fencing per ogni nodo nel cluster. The way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices one fencing device for each power supply (refer to Figura 1.5, Fencing a Node with Dual Power Supplies). Similarly, if a node has multiple paths to Fibre Channel storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices one for each path to Fibre Channel storage (refer to Figura 1.6, Fencing a Node with Dual Fibre Channel Connections).

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.5. Fencing a Node with Dual Power Supplies

Il Cluster Configuration System

Figura 1.6. Fencing a Node with Dual Fibre Channel Connections possibile configurare un nodo con uno o pi metodi di fencing. Quando configurate un nodo per un determinato metodo di fencing, tale metodo risulter l'unico perseguibile per eseguire il fencing del nodo in questione. Se configurate invece un nodo con metodi di fencing multipli, i suddetti metodi seguiranno una determinata sequenza, da un metodo ad un altro seguendo l'ordine riportato nel file di configurazione del cluster. Se un nodo fallisce, esso viene isolato utilizzando il primo metodo specificato nel file di configurazione del cluster. Se il primo metodo fallisce, verr utilizzato il metodo successivo per quel nodo. Se nessun metodo riuscito ad isolare il nodo, allora il processo di fencing inizier nuovamente seguendo l'ordine appena descritto e specificato nel file di configurazione del cluster, fino a quando il nodo non verr isolato con successo.

1.3.4. Il Cluster Configuration System


The Cluster Configuration System (CCS) manages the cluster configuration and provides configuration information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to Figura 1.7, CCS Overview).

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.7. CCS Overview Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to Figura 1.7, CCS Overview).

10

Gestione dei servizi High-availability

Figura 1.8. Accessing Configuration Information Il file di configurazione del cluster (/etc/cluster/cluster.conf) un file XML che descrive le seguenti caratteristiche: Nome del cluster Mostra il nome del cluster, il livello della revisione del file di configurazione, e le propriet di base sul tempo necessario per l'esecuzione del fencing, usate quando un nodo si unisce al cluster o viene isolato. Cluster Mostra ogni nodo del cluster, specificandone il nome, l'ID ed il numero di voti del quorum del cluster insieme al metodo per il fencing corrispondente. Fence Device Mostra i dispositivi per il fencing nel cluster. I parametri variano a seconda del tipo di dispositivo. Per esempio, per un controllore dell'alimentazione usato come un dispositivo per il fencing, la configurazione del cluster definisce il nome del controllore dell'alimentazione, l'indirizzo IP relativo, il login e la password. Risorse gestite Mostrano le risorse necessarie per creare i servizi del cluster. Le risorse gestite includono la definizione dei domini di failover, delle risorse (per esempio un indirizzo IP), e dei servizi. Insieme, le risorse gestite definiscono i servizi del cluster ed il comportamento del failover dei servizi del cluster.

1.4. Gestione dei servizi High-availability


La gestione del servizio High-availability fornisce la possibilit di creare e gestire servizi cluster high-availability in un cluster Red Hat. Il componente principale per la gestione di un servizio high-availability in un cluster Red Hat, rgmanager, implementa un cold failover per applicazioni commerciali. In un cluster di Red Hat un'applicazione viene configurata con altre risorse del cluster in modo da formare un servizio high-availability. possibile eseguire un failover nei confronti di tale 11

Capitolo 1. Panoramica su Red Hat Cluster Suite servizio da un nodo del cluster ad un altro, senza interruzione apparente per i client. Il failover del servizio pu verificarsi se un nodo fallisce o se un amministratore di sistema del cluster muove il servizio da un nodo ad un altro (per esempio, per una interruzione pianificata di un nodo). Per creare un servizio high-availability, necessario prima configurarlo all'interno del file di configurazione del cluster. Un servizio composto da svariate risorse. Le suddette risorse sono costituite da blocchi di costruzione da voi creati e gestiti nel file di configurazione del cluster per esempio, un indirizzo IP, uno script di inizializzazione dell'applicazione, o una partizione condivisa di Red Hat GFS. You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to Figura 1.9, Domini di failover).

Nota Bene
I domini di failover non sono necessari per questa operazione.

Il servizio pu essere eseguito su di un nodo per volta in modo da garantire l'integrit dei dati. possibile specificare la priorit di failover in un dominio di failover. Tale priorit consiste in una assegnazione di un livello di priorit ad ogni nodo in un dominio di failover. Il suddetto livello determina l'ordine di failover determinando cos il nodo sul quale un servizio del cluster deve essere eseguito in presenza di un failover. Se non specificate alcuna priorit, allora sar possibile eseguire il failover del servizio su qualsiasi nodo presente nel proprio dominio di failover. Altres, possibile specificare se un servizio sia limitato durante la sua esecuzione, e quindi eseguibile solo su nodi presenti nel dominio di failover associato. (Quando associato con un dominio di failover non limitato, il servizio del cluster pu essere eseguito su qualsiasi nodo, nel caso in cui nessun membro del dominio di failover risulti disponibile.) In Figura 1.9, Domini di failover, Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster.

12

Gestione dei servizi High-availability

Figura 1.9. Domini di failover Figura 1.10, Web Server Cluster Service Example shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. The cluster service comprises these cluster resources: Risorsa indirizzo IP Indirizzo IP 10.10.10.201. An application resource named "httpd-content" a web server application init script /etc/ init.d/httpd (specifying httpd). A file system resource Red Hat GFS named "gfs-content-webserver".

13

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.10. Web Server Cluster Service Example I client sono in grado di accedere al servizio del cluster tramite l'indirizzo IP 10.10.10.201, permettendo una interazione con l'applicazione del web server, httpd-content. L'applicazione httpdcontent utilizza il file system gfs-content-webserver. Se il nodo B fallisce, il servizio del cluster contentwebserver eseguir il failover sul nodo D. Se il nodo D non risulta disponibile o se fallito, possibile eseguire il failover sul nodo A. Il processo di failover si verificher con nesuna interruzione apparente al client del cluster. Il servizio del cluster sar accessibile da un altro nodo tramite lo stesso indirizzo IP prima del verificarsi del processo di failover.

1.5. Red Hat GFS


Red Hat GFS un file system del cluster che permette ad un cluster di nodi di accedere simultaneamente ad un dispositivo a blocchi condiviso tra i nodi. GFS un file system nativo che interfaccia con il livello VFS dell'interfaccia del file system del kernel di Linux. GFS impiega i metadata distribuiti e journal multipli, per operare in maniera ottimale all'interno di un cluster. Per mantenere l'integrit del file system, GFS utilizza un lock manager per coordinare l'I/O. Quando un nodo modifica i dati su di un file system GFS, tale modifica sar visibile immediatamente da parte di altri nodi del cluster che utilizzano quel file system. Utilizzando Red Hat GFS, possibile ottenere l'uptime massimo dell'applicazione attraverso i seguenti benefici: 14

Red Hat GFS Semplificazione della vostra infrastruttura dei dati Installazione e aggiornamenti eseguiti una sola volta per l'intero cluster. Elimina la necessit di copie ridondanti dei dati (duplicazione). Abilita un accesso lettura /scrittura simultaneo dei dati da parte di numerosi client. Semplifica il backup ed il disaster recovery (backup o ripristino di un solo file system) Massimizza l'utilizzo delle risorse dello storage, e minimizza i costi di amministrazione. Gestisce lo storage nella sua totalit invece di gestirlo tramite ogni singola partizione. Diminuisce le necessit di spazio, eliminando la necessita di replicare i dati. Varia la dimensione del cluster aggiungendo server o storage, durante il suo normale funzionamento. Non pi necessario il partizionamento dello storage con tecniche complicate. Aggiunge il server al cluster semplicemente montandoli al file system comune I nodi che eseguono il Red Hat GFS sono configurati e gestiti tramite i tool di configurazione e gestione del Red Hat Cluster Suite. Il Volume management viene gestito attraverso il CLVM (Cluster Logical Volume Manager). Red Hat GFS permette una condivisione dei dati tra i nodi del GFS all'interno di un cluster di Red Hat. GFS fornisce una panoramica singola ed uniforme sullo spazio del nome del file system, attraverso i nodi del GFS in un cluster di Red Hat. GFS permette l'installazione e l'esecuzione delle applicazioni senza avere una conoscenza dettagliata dell'infrastruttura dello storage. Altres, GFS fornisce alcune caratteristiche spesso necessarie in ambienti enterprise, come ad esempio i quota, journal multipli ed il supporto multipath. GFS fornisce un metodo versatile per lo storage networking basato sulle prestazioni, sulla scalabilit e sulle esigenze economiche del vostro ambiente storage. Questo capitolo fornisce alcune informazioni di base abbreviate come background, per aiutarvi a comprendere il GFS.

You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to Sezione 1.7, Global Network Block Device.) Le seguenti sezioni forniscono alcuni esempi su come implementare GFS in modo da soddisfare le vostre esigenze di prestazione, scalabilit e di risparmio: Sezione 1.5.1, Prestazione e scalabilit superiori Sezione 1.5.2, Prestazione, scalabilit e prezzo moderato Sezione 1.5.3, Risparmio e prestazione

15

Capitolo 1. Panoramica su Red Hat Cluster Suite

Nota Bene
Gli esempi relativi all'implementazione del GFS riflettono le configurazioni di base; nel vostro caso potreste richiedere una combinazione di configurazioni riportate con i seguenti esempi.

1.5.1. Prestazione e scalabilit superiori


You can obtain the highest shared-file performance when applications access storage directly. The GFS SAN configuration in Figura 1.11, GFS with a SAN provides superior file performance for shared files and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or storage servers to slow data access, performance is similar to individual Linux servers with directly connected storage; yet, each GFS application node has equal access to all data files. GFS supports over 300 GFS nodes.

Figura 1.11. GFS with a SAN

1.5.2. Prestazione, scalabilit e prezzo moderato


Multiple Linux client applications on a LAN can share the same SAN-based data as shown in Figura 1.12, GFS and GNBD with a SAN. SAN block storage is presented to network clients as block storage devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were directly attached to the server in which the application is running. Stored data is actually on the SAN. Storage devices and data can be equally shared by network client applications. File locking and sharing functions are handled by GFS for each network client.

16

Risparmio e prestazione

Figura 1.12. GFS and GNBD with a SAN

1.5.3. Risparmio e prestazione


Figura 1.13, GFS e GNBD con uno storage collegato direttamente shows how Linux client applications can take advantage of an existing Ethernet topology to gain shared access to all block storage devices. Client data files and file systems can be shared with GFS on each client. Application failover can be fully automated with Red Hat Cluster Suite.

Figura 1.13. GFS e GNBD con uno storage collegato direttamente

17

Capitolo 1. Panoramica su Red Hat Cluster Suite

1.6. Cluster Logical Volume Manager


Il Cluster Logical Volume Manager (CLVM) fornisce una versione cluster-wide di LVM2. CLVM fornisce le stesse caratteristiche di LVM2 su di un nodo singolo, rendendo i volumi disponibili su tutti i nodi in un cluster di Red Hat. I volumi logici creati con CLVM, rende gli stessi disponibili a tutti i nodi presenti in un cluster. The key component in CLVM is clvmd. clvmd is a daemon that provides clustering extensions to the standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvmd runs in each cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node with the same view of the logical volumes (refer to Figura 1.14, CLVM Overview). Logical volumes created with CLVM on shared storage are visible to all nodes that have access to the shared storage. CLVM allows a user to configure logical volumes on shared storage by locking access to physical storage while a logical volume is being configured. CLVM uses the lock-management service provided by the cluster infrastructure (refer to Sezione 1.3, Cluster Infrastructure).

Nota Bene
Lo storage condiviso con Red Hat Cluster Suite necessita di una esecuzione del cluster logical volume manager daemon (clvmd) o degli High Availability Logical Volume Management agent (HA-LVM). Se non siete in grado di utilizzare il demone clvmd o HA-LVM per ragioni operative, o perch non siete in possesso degli entitlement corretti, consigliato non usare il single-instance LVM sul disco condiviso, poich tale utilizzo potrebbe risultare in una corruzione dei dati. Per qualsiasi problema si prega di consultare un rappresentante per la gestione dei servizi di Red Hat.

Nota Bene
L'utilizzo di CLVM richiede piccole modifiche di /etc/lvm/lvm.conf per il cluster-wide locking.

18

Cluster Logical Volume Manager

Figura 1.14. CLVM Overview You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to Figura 1.15, LVM Graphical User Interface), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to Figura 1.16, Conga LVM Graphical User Interface) . Figura 1.17, Creating Logical Volumes shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes.

Figura 1.15. LVM Graphical User Interface

19

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.16. Conga LVM Graphical User Interface

20

Global Network Block Device

Figura 1.17. Creating Logical Volumes

1.7. Global Network Block Device


Il Global Network Block Device (GNBD) fornisce un accesso ai dispositivi a blocchi per Red Hat GFS attraverso TCP/IP. GNBD simile nel concetto a NBD; tuttavia GNBD specifico al GFS, e viene regolato solo per un suo utilizzo con il GFS. GNBD utile se necessario utilizzare tecnologie pi robuste, il Fibre Channel o lo SCSI single-initiator non sono necessari o presentano costi proibitivi. GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another node and exports block-level storage from its local storage (either directly attached storage or SAN storage). Refer to Figura 1.18, Panoramica di GNBD. Multiple GNBD clients can access a device exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS.

21

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.18. Panoramica di GNBD

1.8. Linux Virtual Server


Il Linux Virtual Server (LVS) un insieme di componenti software integrati per il bilanciamento del carico IP attraverso un set di real server. LVS viene eseguito su di una coppia di computer configurati in modo simile: un router LVS attivo ed un router LVS di backup. Il router LVS attivo viene utilizzato per: Bilanciare il carico attraverso i real server. Controllare l'integrit dei servizi su ogni real server. Il router LVS di backup monitorizza il router LVS attivo, sostituendolo nel caso in cui il router LVS attivo fallisce. Figura 1.19, Components of a Running LVS Cluster provides an overview of the LVS components and their interrelationship.

22

Linux Virtual Server

Figura 1.19. Components of a Running LVS Cluster Il demone pulse viene eseguito sia sul router LVS attivo che su quello passivo. Sul router LVS di backup, pulse invia un heartbeat all'interfaccia pubblica del router attivo, in modo da assicurarsi che il router LVS attivo funzioni correttamente. Sul router LVS attivo, pulse avvia il demone lvs, e risponde alle interrogazioni heartbeat provenienti dal router LVS di backup. Una volta avviato, il demone lvs chiama l'utilit ipvsadm per configurare e gestire la tabella d'instradamento IPVS (IP Virtual Server) nel kernel, e successivamente avvia un processo nanny per ogni server virtuale configurato su ogni real server. Ogni processo nanny controlla lo stato di un servizio configurato su di un real server, ed indica al demone lvs se presente un malfunzionamento del servizio su quel real server. Se tale malfunzionamento viene rilevato, il demone lvs indica a ipvsadm di rimuovere il real server in questione dalla tabella d'instradamento di IPVS. Se il router LVS di backup non riceve alcuna risposta dal router LVS attivo, esso inizia un processo di failover attraverso la chiamata send_arp, riassegnando tutti gli indirizzi IP virtuali agli indirizzi hardware NIC (indirizzo MAC) del router LVS di backup, ed inviando un comando al router LVS attivo tramite l'interfaccia di rete privata e quella pubblica in modo da interrompere il demone lvs sul router LVS attivo. A questo punto verr avviato il demone lvs sul router LVS di backup ed accettate tutte le richieste per i server virtuali configurati. Per un utente esterno che accede ad un servizio hosted (come ad esempio le applicazioni databese o website), LVS pu apparire come un unico server. Tuttavia l'utente accede ai real server situati oltre i router LVS. Poich non presente alcun componente interno a LVS per condividere i dati tra i server reali, sono disponibili due opzioni di base: 23

Capitolo 1. Panoramica su Red Hat Cluster Suite La sincronizzazione dei dati attraverso i real server. L'aggiunta di un terzo livello alla topologia per l'accesso dei dati condivisi. Verr utilizzata la prima opzione per i server che non permettono un numero di utenti molto grande per caricare o modificare i dati sui real server. Se i real server permettono un numero esteso di utenti per la modifica dei dati, come ad esempio un sito web e-commerce, allora sar preferita l'aggiunta di un terzo livello. Sono disponibili diverse modalit per la sincronizzazione dei dati tra i real server. Per esempio possibile utilizzare gli script della shell per postare simultaneamente le pagine web aggiornate sui real server. Altres possibile utilizzare programmi come rsync, per replicare i dati modificati attraverso tutti i nodi in un intervallo di tempo determinato. Tuttavia in ambienti dove gli utenti caricano spesso file o emettono transazioni del database, l'utilizzo di script o del comando rsync per la sincronizzazione dei dati, non funzioner in maniera ottimale. Per questo motivo per real server con un numero di upload molto elevato, e per transazioni del database o di traffico simile, una topologia three-tiered risulta essere pi appropriata se desiderate sincronizzare i dati.

1.8.1. Two-Tier LVS Topology


Figura 1.20, Two-Tier LVS Topology shows a simple LVS configuration consisting of two tiers: LVS routers and real servers. The LVS-router tier consists of one active LVS router and one backup LVS router. The real-server tier consists of real servers connected to the private network. Each LVS router has two network interfaces: one connected to a public network (Internet) and one connected to a private network. A network interface connected to each network allows the LVS routers to regulate traffic between clients on the public network and the real servers on the private network. In Figura 1.20, Two-Tier LVS Topology, the active LVS router uses Network Address Translation (NAT) to direct traffic from the public network to real servers on the private network, which in turn provide services as requested. The real servers pass all public traffic through the active LVS router. From the perspective of clients on the public network, the LVS router appears as one entity.

Figura 1.20. Two-Tier LVS Topology 24

Two-Tier LVS Topology Le richieste del servizio che arrivano ad un router LVS vengono indirizzate ad un indirizzo IP virtuale o VIP. Esso rappresenta un indirizzo instradabile pubblicamente che l'amministratore del sito associa con un fully-qualified domain name, come ad esempio www.example.com, e assegnato ad uno o pi 1 server virtuali . Nota bene che un indirizzo IP migra da un router LVS ad un altro durante un failover, mantenendo cos una presenza in quel indirizzo IP, conosciuto anche come Indirizzi IP floating. possibile eseguire l'alias degli indirizzi VIP, sullo stesso dispositivo che esegue il collegamento del router LVS con la rete pubblica. Per esempio, se eth0 collegato ad internet, allora sar possibile eseguire l'alias dei server virtuali multipli su eth0:1. Alternativamente ogni server virtuale pu essere associato con un dispositivo separato per servizio. Per esempio, il traffico HTTP pu essere gestito su eth0:1, ed il traffico FTP gestito su eth0:2. Solo un router LVS alla volta pu essere attivo. Il ruolo del router LVS attivo quello di ridirezionare le richieste di servizio dagli indirizzi IP virtuali ai real server. Questo processo si basa su uno degli otto algoritmi per il bilanciamento del carico: Round-Robin Scheduling Distribuisce ogni richiesta in successione all'interno di un gruppo di real server. Utilizzando questo algoritmo, tutti i real server vengono trattati allo stesso modo, senza considerare la loro capacit o il loro carico. Weighted Round-Robin Scheduling Distribuisce ogni richiesta in successione all'interno di un gruppo di real server, dando un carico di lavoro maggiore ai server con maggiore capacit. La capacit viene indicata da un fattore di peso assegnato dall'utente, e viene modificata in base alle informazioni sul carico dinamico. Essa rappresenta la scelta preferita se sono presenti differenze sostanziali di capacit dei real server all'interno di un gruppo di server. Tuttavia se la richiesta di carico varia sensibilmente, un server con un carico di lavoro molto elevato potrebbe operare oltre ai propri limiti. Least-Connection Distribuisce un numero maggiore di richieste ai real server con un numero minore di collegamenti attivi. Questo un tipo di algoritmo di programmazione dinamico, il quale rappresenta la scelta migliore se siete in presenza di una elevata variazione nelle richieste di carico. Offre il meglio di se per un gruppo di real server dove ogni nodo del server presenta una capacit simile. Se i real server in questione hanno una gamma varia di capacit, allora il weighted leastconnection scheduling rappresenta la scelta migliore. Weighted Least-Connections (default) Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base alle proprie capacit. La capacit viene indicata da un peso assegnato dall'utente, e viene modificata in base alle informazioni relative al carico dinamico. L'aggiunta di peso rende questo algoritmo ideale quando il gruppo del real server contiene un hardware di varia capacit. Locality-Based Least-Connection Scheduling Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene utilizzato in un cluster di server proxy-cache. Esso indirizza i pacchetti per un indirizzo IP al server per quel indirizzo, a meno che il server in questione non abbia superato la sua capacit e sia presente al tempo stesso un server che utilizzi met della propria capacit. In questo caso l'indirizzo IP verr assegnato al real server con un carico minore. Locality-Based Least-Connection Scheduling con Replication Scheduling Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene usato anche in un cluster di server proxy-cache. Esso differisce da Locality-Based Least-Connection Scheduling a causa della mappatura dell'indirizzo IP target su di un sottoinsieme di nodi del real server. Le richieste vengono indirizzate ad un server

Un server virtuale un servizio configurato in ascolto su di un IP virtuale specifico.

25

Capitolo 1. Panoramica su Red Hat Cluster Suite presente in questo sottoinsieme con il numero pi basso di collegamenti. Se tutti i nodi per l'IP di destinazione sono al di sopra della propria capacit, esso sar in grado di replicare un nuovo server per quel indirizzo IP di destinazione, aggiungendo il real server con un numero minore di collegamenti del gruppo di real server, al sottoinsieme di real server per quel IP di destinazione. Il nodo maggiormente carico verr rilasciato dal sottoinsieme di real server in modo da evitare un processo di riproduzione non corretto. Source Hash Scheduling Distribuisce le richieste al gruppo di real server, cercando l'IP sorgente in una tabella hash statica. Questo algoritmo viene usato per i router LVS con firewall multipli. Altres, il router LVS attivo monitorizza dinamicamente lo stato generale dei servizi specifici sui real server, attraverso semplici script send/expect. Per assistervi nella rilevazione dello stato dei servizi che richiedono dati dinamici, come ad esempio HTTPS o SSL, possibile richiamare gli eseguibili esterni. Se un servizio non funziona correttamente su di un real server, il router LVS attivo interrompe l'invio di lavori al server interessato, fino a quando non vengono ripristinate le normali funzioni. Il router LVS di backup esegue il ruolo di un sistema in standby 'attesa'. I router LVS scambiano periodicamente messaggi heartbeat attraverso l'interfaccia pubblica esterna primaria e, in una situazione di failover, attraverso l'interfaccia privata. Se il router LVS di backup non riceve un messaggio heartbeat entro un intervallo di tempo determinato, esso inizier un processo di failover assumendo cos il ruolo di router LVS attivo. Durante il processo di failover, il router LVS di backup prende a carico gli indirizzi VIP serviti dal router fallito utilizzando una tecnica conosciuta come ARP spoofing con questa tecnica il router LVS di backup si presenta come destinazione per i pacchetti IP indirizzati al nodo fallito. Quando il nodo in questione ritorna in uno stato di servizio attivo, il router LVS di backup assume il proprio ruolo di backup. The simple, two-tier configuration in Figura 1.20, Two-Tier LVS Topology is suited best for clusters serving data that does not change very frequently such as static web pages because the individual real servers do not automatically synchronize data among themselves.

1.8.2. Three-Tier LVS Topology


Figura 1.21, Three-Tier LVS Topology shows a typical three-tier LVS configuration. In the example, the active LVS router routes the requests from the public network (Internet) to the second tier real servers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier over the private network.

26

Metodi di instradamento

Figura 1.21. Three-Tier LVS Topology Questa topologia ideale per server FTP molto occupati, dove i dati accessibili vengono conservati in un server highly available centrale, accessibili da ogni real server tramite una directory NFS esportata o una condivisione Samba. Questa topologia anche consigliata per siti web in grado di accedere ad un database high-availability centrale per le loro transazioni. In aggiunta, utilizzando una configurazione attiva-attiva con un cluster Red Hat, possibile configurare un cluster high-availability, in modo da servire simultaneamente entrambi i ruoli.

1.8.3. Metodi di instradamento


possibile utilizzare con LVS il Network Address Translation (NAT) routing oppure l'instradamento diretto. Le seguenti sezioni descrivono brevemente il NAT routing e quello diretto con LVS.

1.8.3.1. NAT Routing


Figura 1.22, LVS Implemented with NAT Routing, illustrates LVS using NAT routing to move requests between the Internet and a private network.

27

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.22. LVS Implemented with NAT Routing In questo esempio sono presenti due NIC all'interno del router LVS attivo. Il NIC per Internet presenta un indirizzo IP reale su eth0, con un indirizzo IP floating come alias su eth0:1. Il NIC per l'interfaccia di rete privata possiede un indirizzo IP reale su eth1 ed un indirizzo IP floating come alias su eth1:1. Nell'evento di un failover, l'interfaccia virtuale che interessa internet e quella privata che interessa l'interfaccia virtuale, vengono controllate simultaneamente dal router LVS di backup. Tutti i real server presenti sulla rete privata, utilizzano l'IP floating per il router NAT come rotta predefinita per comunicare con il router LVS attivo, in modo tale da non limitare le proprie capacit di rispondere alle richieste provenienti da internet. In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are aliased to two physical NICs. While it is possible to associate each floating IP address to its physical device on the LVS router nodes, having more than two NICs is not a requirement. Utilizzando questa topologia il router LVS attivo riceve la richiesta e la direziona al server appropriato. Successivamente, il real server processa la richiesta e ritorna i pacchetti al router LVS. Il router LVS utilizza la traduzione dell'indirizzo di rete per sostituire l'indirizzo del real server nei pacchetti, con l'indirizzo VIP pubblico dei router LVS. Questo processo viene chiamato IP masquerading poich gli indirizzi IP correnti dei real server vengono nascosti ai client richiedenti. Utilizzando il NAT routing i real server possono essere rappresentati da ogni tipo di computer sui quali viene eseguito una veriet di sistemi operativi. Il router LVS pu rappresentare lo svantaggio del NAT routing, infatti con implementazioni molto grandi esso deve processare richieste sia in entrata che in uscita.

1.8.3.2. Instradamento diretto


L'instradamento diretto fornisce maggiori benefici per quanto riguarda le prestazioni rispetto al NAT routing. Esso permette ai real server di processare e direzionare i pacchetti direttamente ad un richiedente, invece di passare i pacchetti in uscita attraverso il router LVS. L'instradamento diretto 28

Metodi di instradamento riduce i problemi di prestazione della rete, relegando il compito del router LVS alla sola processazione dei pacchetti in entrata.

Figura 1.23. LVS Implemented with Direct Routing In una configurazione LVS direct-routing tipica, un router LVS riceve le richieste in entrata del server attraverso un IP virtuale (VIP), ed utilizza un algoritmo di programmazione per direzionare la richiesta al real server. Ogni real server processa le richieste ed invia le risposte direttamente ai client, bypassando i router LVS. L'instradamento diretto permette di avere una certa scalabilit, e quindi aggiungere real server senza aver bisogno che il router LVS direzioni i pacchetti in uscita dal real server al client, evitando un potenziale problema in presenza di carichi di rete maggiori. Anche se sono presenti numerosi vantaggi nell'utilizzo dell'instradamento diretto in LVS, sono presenti alcune limitazioni. Il problema pi comune tra l'instradamento diretto e LVS rappresentato dall'Address Resolution Protocol (ARP). In typical situations, a client on the Internet sends a request to an IP address. Network routers typically send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP requests are broadcast to all connected machines on a network, and the machine with the correct IP/MAC address combination receives the packet. The IP/MAC associations are stored in an ARP cache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations. Il problema esistente con le richieste ARP in una configurazione LVS con instradamento diretto, dovuto alla necessit di associare una richiesta del client fatta ad un indirizzo IP, con l'indirizzo MAC per la richiesta da gestire, l'indirizzo IP virtuale del router LVS deve anch'esso essere associato ad 29

Capitolo 1. Panoramica su Red Hat Cluster Suite un MAC. Tuttavia, poich sia il router LVS che i real server possiedono lo stesso VIP, la richiesta ARP viene trasmessa a tutti i nodi associati con il VIP. Tale operazione potrebbe causare diversi problemi come ad esempio la possibilit di associare il VIP direttamente ad uno dei real server, e processare la richiesta direttamente bypassando completamente il router LVS, ed annullando lo scopo della configurazione LVS. L'utilizzo di un router LVS con una CPU molto potente in grado di rispondere rapidamente alle richieste del client, porebbe non risolvere questo problema. Se il router LVS presenta un carico molto elevato, esso potrebbe rispondere alle richieste ARP molto pi lentamente di un real server con un carico di lavoro normale, il quale sar in grado di rispondere pi velocemente e al quale verr assegnato il VIP nella cache ARP del client richiedente. Per risolvere questo problema le richieste in entrata dovrebbero solo associare il VIP al router LVS, il quale processer correttamente le richieste, inviandole al gruppo di real server. possibile eseguire questo processo utilizzando il tool arptables di filtraggio del pacchetto.

1.8.4. Persistenza e Firewall Mark


In alcune situazioni potrebbe essere pi semplice per un client ricollegarsi ripetutamente allo stesso real server, invece di avere un algoritmo di bilanciamento del carico di LVS per l'invio della richiesta al server migliore disponibile. Esempi di quanto detto includono forme web multi-screen, cookies, SSL, e collegamenti FTP. In questi casi un client potrebbe non funzionare correttamente a meno che le transazioni non vengono gestite dallo stesso server che ne mantiene il contesto. LVS fornisce due diverse funzioni in grado di gestire quanto detto: persistenza e firewall mark.

1.8.4.1. Persistence
Quando abilitata, la persistenza funziona come un timer. Quando un client esegue il collegamento ad un servizio, LVS ricorda l'ultimo collegamento effettuato dal client stesso per un periodo di tempo specificato. Se lo stesso indirizzo IP del client si collega entro un determinato periodo, esso verr inviato allo stesso server al quale si precedentemente collegato bypassando cos i meccanismi di bilanciamento del carico. Se si verifica invece al di fuori del suddetto periodo, tale processo viene gestito in base alle regole in corso. La persistenza vi permette altres di specificare una maschera di sottorete da applicare al test dell'indirizzo IP del client, come tool per il controllo degli indirizzi che possiedono un elevato livello di persistenza, e quindi raggruppando i collegamenti a quella sottorete. Il raggruppamento dei collegamenti destinati a porte diverse, pu essere importante per protocolli che utilizzano pi di una porta per le loro comunicazioni, come ad esempio FTP. Tuttavia la persistenza non rappresenta il metodo pi efficace per affrontare il problema del raggruppamento dei collegamenti destinati a porte diverse. Per queste situazioni, consigliato utilizzare firewall mark.

1.8.4.2. Firewall Mark


I firewall mark rappresentano un modo semplice ed efficiente per le porte di un gruppo, usate per un protocollo o gruppo di protocolli relativi. Per esempio, se LVS viene implementato su di un sito e-commerce, i firewall mark possono essere usati per raggruppare i collegamenti HTTP sulla porta 80, e rendere i collegamenti HTTPS sicuri sulla porta 443. Assegnando lo stesso firewall mark al server virtuale per ogni protocollo, le informazioni sullo stato per ogni transazione possono essere preservate, poich il router LVS inoltra tutte le richieste allo stesso real server dopo aver aperto un collegamento. A causa della sua efficienza e facilit d'uso, consigliato agli amministratori di LVS l'utilizzo, quando possibile, dei firewall mark invece della persistenza per raggruppare i collegamenti. Tuttavia consigliato aggiungere la persistenza sui server virtuali insieme ai firewall mark, in modo da assicurarsi che i client possono essere ricollegati allo stesso server per un periodo di tempo adeguato. 30

Tool di amministrazione del cluster

1.9. Tool di amministrazione del cluster


Red Hat Cluster Suite fornisce una variet di tool per configurare e gestire il vostro cluster di Red Hat. Qusta sezione fornisce una panoramica dei tool di amministrazione disponibili con Red Hat Cluster Suite: Sezione 1.9.1, Conga Sezione 1.9.2, GUI di amministrazione del cluster Sezione 1.9.3, Tool di amministrazione della linea di comando

1.9.1. Conga
Conga un set di componenti software in grado di fornire una gestione ed una configurazione centralizzata dello storage e dei cluster di Red Hat. Conga fornisce le seguenti funzioni: Una interfaccia web per la gestione dello storage e del cluster Implementazione automatizzata dei dati del cluster e pacchetti di supporto Integrazione semplice con i cluster esistenti Nessuna necessit di eseguire la riautenticazione Integrazione dello stato del cluster e dei log Controllo pi meticoloso sui permessi dell'utente I componenti primari di Conga sono luci e ricci, i quali non possono essere installati separatamente. luci un server eseguito su di un computer in grado di comunicare con cluster multipli e computer tramite ricci. ricci un agent eseguito su ogni computer (un membro del cluster o un computer standalone) gestito da Conga. luci accessibile tramite un web browser e fornisce le tre funzioni pi importanti accessibili attraverso le seguenti schede: homebase Fornisce i tool usati per aggiungere e cancellare i computer, gli utenti e per la configurazione dei privilegi dell'utente. Solo un amministratore di sistema in grado di accedere a questa scheda. cluster Fornisce i tool usati per la creazione e la configurazione dei cluster. Ogni istanza di luci elenca i cluster impostati con quel luci. Un amministratore del sistema pu gestire tutti i cluster presenti su questa scheda. Altri utenti potranno amministrare solo i cluster verso i quali l'utente avr i permessi per la gestione (conferiti da un amministratore). storage Fornisce i tool per l'amministrazione remota dello storage. Con i tool presenti su questa scheda, sarete in grado di gestire lo storage sui computer, senza considerare se essi appartengono o meno ad un cluster. Per amministrare un cluster o uno storage, un amministratore deve aggiungere (o registrare) un cluster o un computer su di un server luci. Quando un cluster o un computer risultano registrati con luci, l'hostname FQDN o indirizzo IP di ogni computer, viene conservato in un database luci. Potete popolare il database di una istanza luci tramite un'altra istanza luci. Questa capacit fornisce un mezzo per la replica di una istanza del server luci, e fornisce un aggiornamento efficiente insieme ad un percorso di prova. Quando installate una istanza di luci, il suo database risulta vuoto. Tuttavia 31

Capitolo 1. Panoramica su Red Hat Cluster Suite possibile importare parte o tutto il database luci da un server luci esistente, quando implementate un nuovo server luci. Ogni istanza di luci presenta un utente al momento dell'installazione iniziale admin. Solo l'utente admin in grado di aggiungere i sistemi ad un server luci. Altres il suddetto utente pu creare account aggiuntivi e determinare quali utenti sono in grado di accedere ai cluster ed ai computer registrati nel database di luci. possibile importare gli utenti a gruppi in un nuovo server di luci, in modo simile al processo d'importazione dei cluster e dei computer. Quando un computer viene aggiunto ad un server luci per essere amministrato, l'autenticazione viene eseguita solo una volta. Per questo motivo non necessario alcun processo di autenticazione supplementare (a meno che il certificato usato non venga annullato da un CA). Successivamente possibile configurare e gestire in modo remoto i cluster e lo storage attraverso l'interfaccia utente di luci. luci e ricci comunicano tra loro attraverso XML. Le seguenti figure mostrano esempi delle tre schede pi importanti di luci: homebase, cluster, e storage. Per maggiori informazioni su Conga, consultate la Configurazione e gestione di un Red Hat Cluster, e l'aiuto disponibile online con il server di luci.

Figura 1.24. Scheda homebase di luci

32

Conga

Figura 1.25. Scheda cluster di luci

33

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.26. Scheda storage di luci

1.9.2. GUI di amministrazione del cluster


This section provides an overview of the system-config-cluster cluster administration graphical user interface (GUI) available with Red Hat Cluster Suite. The GUI is for use with the cluster infrastructure and the high-availability service management components (refer to Sezione 1.3, Cluster Infrastructure and Sezione 1.4, Gestione dei servizi High-availability). The GUI consists of two major functions: the Cluster Configuration Tool and the Cluster Status Tool. The Cluster Configuration Tool provides the capability to create, edit, and propagate the cluster configuration file (/etc/cluster/cluster.conf). The Cluster Status Tool provides the capability to manage highavailability services. The following sections summarize those functions. Sezione 1.9.2.1, Cluster Configuration Tool Sezione 1.9.2.2, Cluster Status Tool

1.9.2.1. Cluster Configuration Tool


You can access the Cluster Configuration Tool (Figura 1.27, Cluster Configuration Tool) through the Cluster Configuration tab in the Cluster Administration GUI.

34

GUI di amministrazione del cluster

Figura 1.27. Cluster Configuration Tool Il Cluster Configuration Tool rappresenta i componenti di configurazione del cluster nel file di configurazione (/etc/cluster/cluster.conf), con un display grafico gerarchico nel pannello di sinistra. Una icona triangolare a sinistra del nome del componente, indica che il componente stesso possiede uno o due componenti subordinati assegnati. Facendo clic sull'icona triangolare sarete in grado di espandere o comprimere la porzione d'albero situata sotto un componente. I componenti visualizzati nella GUI vengono riassunti nel seguente modo: Nodi del Cluster Visualizza i nodi del cluster. I nodi vengono rappresentati per nome come elementi subordinati sotto Nodi del Cluster. Utilizzando i pulsanti per la configurazione della struttura (sotto Propriet), sar possibile aggiungere, cancellare i nodi e modificare le loro propriet, configurando anche i metodi di fencing per ogni nodo. Dispositivi Fence Mostra i dispositivi Fence. I suddetti dispositivi vengono rappresentati come elementi subordinati sotto Dispositivi Fence. Utilizzando i pulsanti di configurazione nella parte inferiore della struttura (sotto Propriet), sar possibile aggiungere e cancellare i dispositivi Fence,

35

Capitolo 1. Panoramica su Red Hat Cluster Suite e modificarne le loro propriet. necessario definire questi dispositivi prima di configurare il processo di fencing (tramite il pulsante Gestisci il fencing per questo nodo) per ogni nodo. Risorse gestite Visualizza i domini di failover, le risorse ed i servizi. Domini di Failover Per la configurazione di uno o pi sottoinsiemi dei nodi del cluster usati per eseguire un servizio high-availability nell'evento del fallimento di un nodo. I domini di failover sono rappresentati come elementi subordinati sotto i Domini di Failover. Utilizzando i pulsanti per la configurazione nella parte bassa della struttura (sotto Propriet), possibile creare i domini di failover (quando viene selezionato Domini di Failover, oppure modificare le propriet del dominio di failover (quando stato selezionato un dominio di failover). Risorse Per la configurazione delle risorse condivise utilizzate dai servizi high-availability. Le risorse condivise consistono in file system, indirizzi IP, esportazioni e montaggi NFS e script creati dall'utente disponibili per qualsiasi servizio high-availability nel cluster. Le risorse vengono rappresentate come elementi subordinati sotto Risorse. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Propriet), possibile creare le risorse (se Risorse stato selezionato), oppure modificare la propriet di una risorsa (se avete selezionato una risorsa).

Nota Bene
Il Cluster Configuration Tool fornisce la capacit di configurare le risorse private. Una risorsa privata una risorsa configurata per l'utilizzo con un solo servizio. possibile configurare una risorsa privata all'interno di un componente di Service tramite la GUI.

Servizi Per la creazione e la configurazione di servizi high-availability. Un servizio viene configurato attraverso l'assegnazione delle risorse (condivise o private), assegnando un dominio di failover, e definendo una policy di ripristino per il servizio. I servizi vengono rappresentati come elementi subordinati sotto Servizi. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Propriet), possibile creare i servizi (se Servizi stato selezionato), oppure modificare le propriet di un servizio (se avete selezionato un servizio).

1.9.2.2. Cluster Status Tool


You can access the Cluster Status Tool (Figura 1.28, Cluster Status Tool) through the Cluster Management tab in Cluster Administration GUI.

36

Tool di amministrazione della linea di comando

Figura 1.28. Cluster Status Tool I nodi ed i servizi visualizzati nel Cluster Status Tool vengono determinati dal file di configurazione del cluster (/etc/cluster/cluster.conf). possibile utilizzare il Cluster Status Tool per abilitare, disabilitare, riavviare o riposizionare un servizio high-availability.

1.9.3. Tool di amministrazione della linea di comando


In addition to Conga and the system-config-cluster Cluster Administration GUI, command line tools are available for administering the cluster infrastructure and the high-availability service management components. The command line tools are used by the Cluster Administration GUI and init scripts supplied by Red Hat. Tabella 1.1, Tool della linea di comando summarizes the command line tools.

37

Capitolo 1. Panoramica su Red Hat Cluster Suite Tabella 1.1. Tool della linea di comando Tool della linea di comando Usato con Scopo ccs_tool un programma usato per creare aggiornamenti online per il file di configurazione del cluster. Esso conferisce la capacit di creare e modificare i componenti dell'infrastruttura del cluster (per esempio creare un cluster, o aggiungere e rimuovere un nodo). Per maggiori informazioni su questo tool, consultate la pagina man di ccs_tool(8). cman_tool un programma che gestisce il CMAN cluster manager. Esso fornisce la possibilit di unirsi o abbandonare un cluster, di terminare un nodo, o di modificare i voti del quorum previsti di un nodo in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di cman_tool(8). fence_tool un programma usato per unirsi o abbandonare il dominio predefinito di fence. In modo specifico, avviare il demone di fence (fenced), unirsi al dominio, terminare fenced, e per abbandonare il dominio in questione. Per maggiori informazioni su questo tool consultate la pagina man di fence_tool(8). Il comando clustat visualizza lo status del cluster. Esso mostra le informazioni sull'appartenenza, la vista sul quorum e lo stato di tutti i servizi utente configurati. Per maggiori informazioni su questo tool, consultate la pagina man di clustat(8). Il comando clusvcadm vi permette di abilitare, disabilitare, riposizionare e riavviare i servizi high-availability in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di clusvcadm(8).

ccs_tool Tool Cluster del sistema di Infrastructure configurazione del cluster

cman_tool Tool di gestione del cluster

Cluster Infrastructure

fence_tool Tool di Fence

Cluster Infrastructure

clustat Utilit dello stato del cluster

Componenti di gestione del servizio Highavailability Componenti di gestione del servizio Highavailability

clusvcadm Utilit di amministrazione del servizio utente del cluster

1.10. GUI di amministrazione del server virtuale di Linux


Questa sezione fornisce una panoramica del tool di configurazione LVS disponibile con il Red Hat Cluster Suite il Piranha Configuration Tool. Il Piranha Configuration Tool una interfaccia utente grafica GUI del web browser, in grado di fornire un approccio strutturato per la creazione del file di configurazione per LVS /etc/sysconfig/ha/lvs.cf. Per poter accedere al Piranha Configuration Tool necessario eseguire il servizio piranhagui sul router LVS attivo. possibile accedere al Piranha Configuration Tool in modo locale o remoto tramite un web browser. Per l'accesso locale possibile utilizzare il seguente URL: http:// localhost:3636. Per un accesso remoto possibile utilizzare un hostname o l'indirizzo IP reale seguito da :3636. Se state per accedere al Piranha Configuration Tool in modo remoto, allora avrete bisogno di un collegamento ssh per il router LVS attivo come utente root. Starting the Piranha Configuration Tool causes the Piranha Configuration Tool welcome page to be displayed (refer to Figura 1.29, The Welcome Panel). Logging in to the welcome page provides access to the four main screens or panels: CONTROL/MONITORING, GLOBAL SETTINGS, 38

CONTROL/MONITORING REDUNDANCY, and VIRTUAL SERVERS. In addition, the VIRTUAL SERVERS panel contains four subsections. The CONTROL/MONITORING panel is the first panel displayed after you log in at the welcome screen.

Figura 1.29. The Welcome Panel Le seguenti sezioni forniscono una breve descrizione sulle pagine di configurazione del Piranha Configuration Tool.

1.10.1. CONTROL/MONITORING
Il pannello CONTROLLO/MONITORAGGIO visualizza lo stato del runtime. Inoltre, in grado di visualizzare lo stato del demone di pulse, la tabella d'instradamento LVS, ed i processi nanny generati da LVS.

39

Capitolo 1. Panoramica su Red Hat Cluster Suite

Figura 1.30. The CONTROL/MONITORING Panel Auto update Permette l'aggiornamento automatico del display dello stato, ad un intervallo configurato dall'utente all'interno della casella Frequenza di aggiornamento in secondi (il valore predefinito 10 secondi). Non consigliato impostare l'aggiornamento automatico ad un intervallo di tempo inferiore a 10 secondi, poich cos facendo sar difficile riconfigurare l'intervallo di Aggiornamento automatico poich la pagina verr aggiornata troppo frequentemente. Se incontrate questo problema fate clic su di un altro pannello e successivamente su CONTROLLO/MONITORAGGIO. Update information now Fornisce l'aggiornamento manuale delle informazioni sullo stato. CHANGE PASSWORD Facendo clic su questo pulsante verrete direzionati su di una schermata d'aiuto, contenente le informazioni su come modificare la password amministrativa per il Piranha Configuration Tool.

1.10.2. GLOBAL SETTINGS


The GLOBAL SETTINGS panel is where the LVS administrator defines the networking details for the primary LVS router's public and private network interfaces.

40

GLOBAL SETTINGS

Figura 1.31. The GLOBAL SETTINGS Panel The top half of this panel sets up the primary LVS router's public and private network interfaces. Primary server public IP Indirizzo IP reale pubblicamente instradabile per il nodo LVS primario. Primary server private IP L'indirizzo IP reale per una interfaccia di rete alternativa sul nodo LVS primario. Questo indirizzo viene utilizzato solo come canale heartbeat alternativo per il router di backup. Use network type Seleziona scegli NAT routing. The next three fields are specifically for the NAT router's virtual network interface connected the private network with the real servers. NAT Router IP L'IP floating privato in questo campo di testo. Il suddetto IP floating deve essere usato come gateway per i real server. NAT Router netmask If the NAT router's floating IP needs a particular netmask, select it from drop-down list.

41

Capitolo 1. Panoramica su Red Hat Cluster Suite NAT Router device Definisce il nome del dispositivo dell'interfaccia di rete per l'indirizzo IP floating, come ad esempio eth1:1.

1.10.3. REDUNDANCY
Il pannello RIDONDANZA vi permette di configurare il nodo del router LVS di backup, ed impostare le varie opzioni per il monitoraggio dell' heartbeat.

Figura 1.32. The REDUNDANCY Panel Redundant server public IP Indirizzo IP reale pubblico per il router LVS di backup. Redundant server private IP The backup router's private real IP address. Il resto del pannello viene utilizzato per la configurazione del canale heartbeat, il quale a sua volta viene usato dal nodo di backup per monitorare la presenza di errori nel nodo primario. Heartbeat Interval (seconds) Imposta il numero di secondi tra gli heartbeat l'intervallo entro il quale il nodo di backup controller la funzionalit dello stato del nodo LVS primario. 42

VIRTUAL SERVERS Assume dead after (seconds) Se il nodo LVS primario non risponde dopo il suddetto numero di secondi, allora il nodo del router LVS di backup inizier un processo di failover. Heartbeat runs on port Imposta la porta sulla quale l'heartbeat comunica con il nodo LVS primario. Il default viene impostato su 539 se questo campo viene lasciato vuoto.

1.10.4. VIRTUAL SERVERS


Il pannello SERVER VIRTUALI visualizza le informazioni relative ad ogni server virtuale corrente definito. Ogni voce presente nella tabella mostra lo stato del server virtuale, il nome del server, l'IP virtuale assegnato al server, la maschera di rete dell'IP virtuale, il numero della porta usata dal servizio per comunicare, il protocollo usato e l'interfaccia del dispositivo virtuale.

Figura 1.33. The VIRTUAL SERVERS Panel Ogni server presente nel pannello SERVER VIRTUALI pu essere configurato sulle schermate successive o sulle sottosezioni. Per aggiungere un dispositivo fate clic sul pulsante AGGIUNGI. Per rimuovere un servizio, selezionatelo tramite il pulsante situato accanto al server virtuale, e successivamente sul pulsante CANCELLA. 43

Capitolo 1. Panoramica su Red Hat Cluster Suite Per abilitare o disabilitare un server virtuale nella tabella, fate clic sul pulsante corrispondente e successivamente sul pulsante (DIS.)ABILITA. Dopo aver aggiunto un server virtuale, sar possibile configurarlo facendo clic sul pulsante corrispondente sulla sinistra, e successivamente il pulsante MODIFICA per visualizzare la sottosezione SERVER VIRTUALE.

1.10.4.1. Sottosezione SERVER VIRTUALE


The VIRTUAL SERVER subsection panel shown in Figura 1.34, The VIRTUAL SERVERS Subsection allows you to configure an individual virtual server. Links to subsections related specifically to this virtual server are located along the top of the page. But before configuring any of the subsections related to this virtual server, complete this page and click on the ACCEPT button.

Figura 1.34. The VIRTUAL SERVERS Subsection Name Un nome descrittivo per identificare il server virtuale. Questo nome non l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile. Potrete altres riferirvi al protocollo usato dal server virtuale, come ad esempio HTTP. Application port Il numero della porta attraverso la quale il service application sar in ascolto. 44

VIRTUAL SERVERS Protocol Fornisce una scelta di UDP o TCP, in un menu a tendina. Virtual IP Address The virtual server's floating IP address. Virtual IP Network Mask La maschera di rete per questo server virtuale nel menu a tendina. Firewall Mark Usato per inserire un valore intero di un firewall mark durante l'unione di protocolli multi-port, o per la creazione di un server virtuale multi-port per protocolli relativi ma separati. Device Il nome del dispositivo di rete al quale desiderate unire l'indirizzo IP floating definito nel campo Indirizzo IP virtuale. consigliato l'alias dell'indirizzo IP floating pubblico sull'interfaccia Ethernet collegata alla rete pubblica. Re-entry Time Un valore intero che definisce il numero di secondi prima che il router LVS attivo possa cercare di utilizzare un real server dopo il suo fallimento. Service Timeout Un valore intero che definisce il numero di secondi prima che un real server venga considerato morto e quindi non disponibile. Quiesce server Quando un nodo del real server online, dopo aver selezionato il pulsante radio server Quiesce la tabella delle least-connection viene azzerata. Cos facendo il router LVS attivo indirizza le richieste come se i real server fossero stati appena aggiunti al cluster. Questa opzione impedisce ad un nuovo server di saturarsi a causa di un numero elevato di collegamenti al momento dell'ingresso nel cluster. Load monitoring tool Il router LVS in grado di monitorare il carico sui vari real server tramite l'utilizzo sia di rup che di ruptime. Se selezionate rup dal menu a tendina, ogni real server deve eseguire il servizio rstatd. Se invece selezionate ruptime, ogni real server deve eseguire il servizio rwhod. Scheduling L'algoritmo preferito per la programmazione dal menu a tendina. Il default Weighted leastconnection. Persistenza Utilizzato se avete bisogno di collegamenti persistenti per il server virtuale durante le transazioni del client. Specifica in questo campo il numero di secondi di inattivit prima che un collegamento possa scadere.

45

Capitolo 1. Panoramica su Red Hat Cluster Suite Persistence Network Mask Per poter limitare la persistenza di una particolare sottorete, selezionate la maschera di rete appropriata dal menu a tendina.

1.10.4.2. Sottosezione REAL SERVER


Facendo clic sul link della sottosezione REAL SERVER nella parte alta del pannello, sarete in grado di visualizzare la sottosezione MODIFICA REAL SERVER. Essa mostra lo stato degli host del server fisico per un servizio virtuale specifico.

Figura 1.35. The REAL SERVER Subsection Click the ADD button to add a new server. To delete an existing server, select the radio button beside it and click the DELETE button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in Figura 1.36, The REAL SERVER Configuration Panel.

46

VIRTUAL SERVERS

Figura 1.36. The REAL SERVER Configuration Panel Questo pannello consiste in tre campi: Name Un nome descrittivo per il real server.

Nota Bene
Questo nome non l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile.

Address The real server's IP address. Since the listening port is already specified for the associated virtual server, do not add a port number. Weight An integer value indicating this host's capacity relative to that of other hosts in the pool. The value can be arbitrary, but treat it as a ratio in relation to other real servers.

47

Capitolo 1. Panoramica su Red Hat Cluster Suite

1.10.4.3. EDIT MONITORING SCRIPTS Subsection


Fate clic sul link SCRIPT DI MONITORAGGIO nella parte alta della pagina. La sottosezione MODIFICA SCRIPT DI MONITORAGGIO permette all'amministratore di specificare una sequenza della stringa del tipo send/expect, per verificare che il servizio per il server virtuale funzioni correttamente su ogni real server. Esso rappresenta anche il luogo dove l'amministratore pu specificare script personalizzati per il controllo dei servizi che richiedono una modifica dinamica dei dati.

Figura 1.37. The EDIT MONITORING SCRIPTS Subsection Sending Program Per una verifica dei servizi molto pi avanzata possibile utilizzare questo campo per specificare il percorso per uno script di controllo del servizio. Questa funzione particolarmente utile per servizi che richiedono una modifica dinamica dei dati, come ad esempio HTTPS o SSL. Per utilizzare questa funzione necessario scrivere uno script il quale ritorna una risposta testuale, impostatela in modo da essere eseguibile e digitate il percorso relativo nel campo Programma mittente.

48

VIRTUAL SERVERS

Nota Bene
Se viene inserito nel campo Programma mittente un programma esterno, allora il campo Invio viene ignorato.

Send Una stringa per il demone nanny da inviare ad ogni real server in questo campo. Per default il campo relativo a HTTP stato completato. possibile alterare questo valore a seconda delle vostre esigenze. Se lasciate questo campo vuoto, il demone nanny cerca di aprire la porta, e se ha successo assume che il servizio in esecuzione. In questo campo permesso solo una sola sequenza d'invio, e pu contenere solo caratteri ASCII stampabili insieme ai seguenti caratteri: \n per una nuova riga. \r per il ritorno a capo del cursore. \t per tab. \ escape del carattere successivo che lo segue. Expect La risposta testuale che il server dovrebbe ritornare se funziona correttamente. Se avete scritto il vostro programma mittente, inserite la risposta da inviare in caso di successo.

49

50

Capitolo 2.

Sommario dei componenti di Red Hat Cluster Suite


Questo capitolo fornisce un sommario dei componenti di Red Hat Cluster Suite e consiste nelle seguenti sezioni: Sezione 2.1, Componenti del cluster Sezione 2.2, Pagine man Sezione 2.3, Hardware compatibile

2.1. Componenti del cluster


Tabella 2.1, Componenti del sottosistema software di Red Hat Cluster Suite summarizes Red Hat Cluster Suite components.

Tabella 2.1. Componenti del sottosistema software di Red Hat Cluster Suite Funzione Conga Componenti luci ricci Cluster Configuration Tool Cluster Logical Volume Manager (CLVM) system-config-cluster Descrizione Sistema di gestione remoto - Stazione di gestione. Sistema di gestione remoto - Stazione gestita. Comando usato per gestire la configurazione del cluster in una impostazione grafica. Il demone che distribuisce gli aggiornamenti dei metadata LVM in un cluster. Esso deve essere in esecuzione su tutti i nodi nel cluster, ed emetter un errore se presente un nodo in un cluster il quale non possieder un demone in esecuzione. Tool LVM2. Fornisce i tool della linea di comando per LVM2. Fornisce l'interfaccia utente grafica per LVM2. Il file di configurazione LVM. Il percorso completo /etc/lvm/lvm.conf. ccs_tool f parte di un Cluster Configuration System (CCS). Viene utilizzato per creare aggiornamenti online dei file di configurazione CCS. possibile usarlo anche per aggiornare i file di configurazione del cluster dagli archivi CCS creati con GFS 6.0 (e versioni precedenti) al formato della 51

clvmd

lvm system-config-lvm lvm.conf Cluster Configuration System (CCS) ccs_tool

Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite Funzione Componenti Descrizione configurazione del formato XML usato con questa release di Red Hat Cluster Suite. ccs_test Comando diagnostico e di prova usato per ripristinare le informazioni dai file di configurazione attraverso ccsd. Demone CCS eseguito su tutti i nodi del cluster, che fornisce i dati del file di configurazione al software del cluster. Questo il file di configurazione del cluster. Il percorso completo /etc/ cluster/cluster.conf. Il modulo del kernel per CMAN. Rappresenta il front end amministrativo per CMAN. Esso in grado di avviare ed arrestare CMAN e modificare alcuni parametri interni come ad esempio i voti. Demone avviato dallo script init cman per gestire dlm nel kernel; non usato dall'utente. Demone avviato dallo script init cman per gestire gfs nel kernel; non usato dall'utente. Usato per ottenere un elenco di gruppi relativi al fencing, DLM, GFS, e per ottenere le informazioni di debug; include ci che viene fornito da cman_tool services in RHEL 4. Demone avviato dallo script init cman per interfacciare openais/cman e dlm_controld/gfs_controld/ fenced; non usato dall'utente. Librerie per programmi che devono interagire con cman.ko. Comando usato per abilitare, disabilitare, riposizionare e riavviare manualmente i servizi dell'utente in un cluster. Comando usato per visualizzare lo stato del cluster, inclusa l'appartenenza del nodo ed i servizi in esecuzione. Demone usato per gestire le richieste del servizio dell'utente incluso service start, service disable, service relocate, e service restart. Demone usato per gestire le tabelle NFS mount clusterizzate.

ccsd

cluster.conf

Cluster Manager (CMAN)

cman.ko cman_tool

dlm_controld

gfs_controld

group_tool

groupd

libcman.so.<version number> Resource Group Manager (rgmanager) clusvcadm

clustat

clurgmgrd

clurmtabd

52

Componenti del cluster Funzione Fence Componenti fence_apc fence_bladecenter fence_bullpap Descrizione Fence agent per l'interrutore di alimentazione APC. Fence agent per IBM Bladecenters con interfacia Telnet. Fence agent per l'interfaccia Bull Novascale Platform Administration Processor (PAP). Fencing agent per la scheda d'accesso remoto Dell. Fence agent per macchine controllate da IPMI (Intelligent Platform Management Interface) attraverso la LAN. Fence agent per l'interruttore di alimentazione WTI. Fence agent per l'interruttore del Brocade Fibre Channel. Fence agent per l'interruttore del McData Fibre Channel. Fence agent per l'interruttore del Vixel Fibre Channel. Fence agent per l'interruttore del SANBox2 Fibre Channel. Fence agent per le interfacce ILO di HP (chiamate precedentemente fence_rib). I/O Fencing agent per IBM RSA II. Fence agent usato con lo storage GNBD. I/O fencing agent per le prenotazioni persistenti di SCSI. Fence agent usato con il sistema Egenera BladeFrame. Fence agent per una interazione manuale. NOTA BENE Questo componente non supportato per ambienti di produzione. Interfaccia utente per fence_manual agent. Un programma che esegue I/O fencing su di un nodo singolo. I/O Fencing agent per macchine virtuali Xen. I/O Fencing agent host per macchine virtuali Xen. Un programma utilizzato per entrare ed uscire dal dominio fence.

fence_drac fence_ipmilan

fence_wti fence_brocade fence_mcdata fence_vixel fence_sanbox2 fence_ilo fence_rsa fence_gnbd fence_scsi fence_egenera fence_manual

fence_ack_manual fence_node fence_xvm fence_xvmd fence_tool

53

Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite Funzione DLM GFS Componenti fenced libdlm.so.<version number> gfs.ko Descrizione Il demone Fencing I/O. Libreria per il supporto del Distributed Lock Manager (DLM). Modulo del kernel che implementa il file system GFS caricato sui nodi del cluster GFS. Comando che ripara un file system GFS non montato. Comando usato per espandere un file system GFS montato. Comando che aggiunge i journal ad un file system GFS montato. Comando che crea un file system GFS su di un dispositivo di storage. Comando che gestisce i quota su di un file system GFS montato. Comando che configura o regola un file system GFS. Questo comando in grado di raccogliere una variet di informazioni sul file system. Icona d'aiuto di mount chiamata da mount(8); non usato dall'utente. Modulo del kernel che implementa il driver del dispositivo GNBD sui client. Comando usato per creare, esportare e gestire GNBD, su di un server GNBD. Comando usato per importare e gestire GNBD su di un client GNBD. Un demone del server che permette ad un nodo di esportare lo storage locale attraverso la rete. This is the controlling process which starts all other daemons related to LVS routers. At boot time, the daemon is started by the /etc/rc.d/ init.d/pulse script. It then reads the configuration file /etc/sysconfig/ ha/lvs.cf. On the active LVS router, pulse starts the LVS daemon. On the backup router, pulse determines the health of the active router by executing a simple heartbeat at a user-configurable interval. If the active LVS router fails to respond after a user-configurable interval, it initiates failover. During failover, pulse on the backup LVS router instructs the pulse daemon on

gfs_fsck gfs_grow gfs_jadd gfs_mkfs gfs_quota gfs_tool

mount.gfs GNBD gnbd.ko gnbd_export gnbd_import gnbd_serv

LVS

pulse

54

Componenti del cluster Funzione Componenti Descrizione the active LVS router to shut down all LVS services, starts the send_arp program to reassign the floating IP addresses to the backup LVS router's MAC address, and starts the lvs daemon. lvsd Il demone lvs viene eseguito sul router LVS attivo una volta chiamato da pulse. Esso legge il file di configurazione / etc/sysconfig/ha/lvs.cf, chiama l'utilit ipvsadm per compilare e gestire la tabella di routing IPVS, e assegna un processo nanny per ogni servizio LVS configurato. Se nanny riporta la presenza di un real server inattivo, lvs indica alla utilit ipvsadm di rimuovere il real server in questione dalla tabella di routing IPVS. Questo servizio aggiorna la tabella del routing IPVS nel kernel. Il demone lvs imposta e gestisce LVS, chiamando ipvsadm in modo da aggiungere, modificare o cancellare le voci presenti nella tabella del routing IPVS. Il demone di controllo nanny viene eseguito sul router LVS attivo. Attraverso questo demone, il router LVS attivo determina lo stato di ogni real server, e facoltativamente, controlla il carico di lavoro relativo. Viene eseguito un processo separato per ogni servizio definito su ogni real server. Questo il file di configurazione di LVS. Il percorso completo per il file /etc/sysconfig/ha/lvs.cf. Direttamente o indirettamente tutti i demoni ottengono le proprie informazioni sulla configurazione da questo file. Questo il tool basato sul web per il monitoraggio, configurazione e gestione di LVS. Esso rappresenta il tool predefinito per gestire il file di configurazione di LVS /etc/ sysconfig/ha/lvs.cf. Questo programma invia i broadcast ARP quando l'indirizzo IP floating cambia da un nodo ad un altro durante un failover. Un demone del quorum basato sul disco per CMAN / Linux-Cluster.

ipvsadm

nanny

lvs.cf

Piranha Configuration Tool

send_arp

Quorum Disk

qdisk

55

Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite Funzione Componenti mkqdisk qdiskd Descrizione Utilit disco quorum del cluster. Demone disco quorum del cluster.

2.2. Pagine man


Questa sezione elenca le pagine man pertinenti al Red Hat Cluster Suite, come risorsa aggiuntiva. Infrastruttura del cluster ccs_tool (8) - Il tool usato per creare aggiornamenti online dei file di configurazione CCS ccs_test (8) - Il tool diagnostico per un Cluster Configuration System ccsd (8) - Il demone usato per accedere al file di configurazione del cluster di CCS ccs (7) - Cluster Configuration System cman_tool (8) - Cluster Management Tool cluster.conf [cluster] (5) - Il file di configurazione per i prodotti del cluster qdisk (5) - un demone del quorum basato sul disco per CMAN / Linux-Cluster mkqdisk (8) - Cluster Quorum Disk Utility qdiskd (8) - Cluster Quorum Disk Daemon fence_ack_manual (8) - programma eseguito da un operatore come parte di un I/O Fencing manuale fence_apc (8) - I/O Fencing agent per APC MasterSwitch fence_bladecenter (8) - I/O Fencing agent per IBM Bladecenter fence_brocade (8) - I/O Fencing agent per interruttori Brocade FC fence_bullpap (8) - I/O Fencing agent per l'architettura Bull FAME controllata da una console di gestione PAP fence_drac (8) - fencing agent per il Dell Remote Access Card fence_egenera (8) - I/O Fencing agent per Egenera BladeFrame fence_gnbd (8) - I/O Fencing agent per cluster GFS basati su GNBD fence_ilo (8) - I/O Fencing agent per HP Integrated Lights Out card fence_ipmilan (8) - I/O Fencing agent per macchine controllate da IPMI tramite LAN fence_manual (8) - programma eseguita da fenced come parte del manuale I/O Fencing fence_mcdata (8) - I/O Fencing agent per interruttori McData FC fence_node (8) - Un programma che esegue I/O fencing su di un nodo singolo fence_rib (8) - I/O Fencing agent per Compaq Remote Insight Lights Out card 56

Pagine man fence_rsa (8) - I/O Fencing agent per IBM RSA II fence_sanbox2 (8) - I/O Fencing agent per interruttori QLogic SANBox2 FC fence_scsi (8) - I/O fencing agent per SCSI persistent reservations fence_tool (8) - Un programma utilizzato per entrare ed uscire dal dominio fence fence_vixel (8) - I/O Fencing agent per interruttori Vixel FC fence_wti (8) - I/O Fencing agent per WTI Network Power Switch fence_xvm (8) - I/O Fencing agent per macchine virtuali Xen fence_xvmd (8) - I/O Fencing agent host per macchine virtuali Xen fenced (8) - Il demone I/O Fencing High-availability Service Management clusvcadm (8) - Utilit Cluster User Service Administration clustat (8) - Utilit Cluster Status Clurgmgrd [clurgmgrd] (8) - Resource Group (Cluster Service) Manager Daemon clurmtabd (8) - Cluster NFS Remote Mount Table Daemon GFS gfs_fsck (8) - Controllore file system GFS Offline gfs_grow (8) - Espande un file system GFS gfs_jadd (8) - Aggiunge i journal ad un file system GFS gfs_mount (8) - opzioni di montaggio GFS gfs_quota (8) - Manipola i disk quotas del GFS gfs_tool (8) - interfaccia per le chiamate gfs ioctl Cluster Logical Volume Manager clvmd (8) - Demone LVM del cluster lvm (8) - Tool LVM2 lvm.conf [lvm] (5) - File di configurazione per LVM2 lvmchange (8) - modifica gli attributi del logical volume manager pvcreate (8) - inizializza un disco o una partizione per un utilizzo da parte di LVM lvs (8) - riporta informazioni sui volumi logici Global Network Block Device gnbd_export (8) - l'interfaccia per esportare GNBD

57

Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite gnbd_import (8) - manipola i dispositivi a blocchi GNBD su di un client gnbd_serv (8) - demone del server gnbd LVS pulse (8) - demone heartbeating per il monitoraggio della salute dei nodi del cluster lvs.cf [lvs] (5) - file di configurazione per lvs lvscan (8) - esegue la scansione (su tutti i dischi) per la presenza di volumi logici lvsd (8) - demone per controllare i Red Hat clustering service ipvsadm (8) - Amministrazione del server virtuale di Linux ipvsadm-restore (8) - ripristina la tabella IPVS da stdin ipvsadm-save (8) - salva la tabella IPVS su stdout nanny (8) - tool per il monitoraggio dello stato dei servizi in un cluster send_arp (8) - tool usato per notificare ad una rete la presenza di una nuova mappatura dell'indirizzo IP / MAC

2.3. Hardware compatibile


Per informazioni sull'hardware compatibile con i componenti Red Hat Cluster Suite (per esempio, dispositivi di fence supportati, dispositivi storage e switch del Fibre Channel), consultate le linee guida sulla configurazione hardware su http://www.redhat.com/cluster_suite/hardware/.

58

Appendice A. Cronologia della revisione


Revisione 1.0-0 Tue Jan 20 2008 Paul Kennedy pkennedy@redhat.com Consolidamento delle versioni

59

60

Indice analitico
C
cluster displaying status, 37 cluster administration displaying cluster and service status, 37 cluster component compatible hardware, 58 cluster component man pages, 56 cluster components table, 51 Cluster Configuration Tool accessing, 36 cluster service displaying status, 37 command line tools table, 37 compatible hardware cluster components, 58 Conga overview, 31 Conga overview, 31

performance, 15 scalability, 15

P
Piranha Configuration Tool CONTROL/MONITORING, 39 EDIT MONITORING SCRIPTS Subsection, 48 GLOBAL SETTINGS, 40 login panel, 38 necessary software, 38 REAL SERVER subsection, 46 REDUNDANCY, 42 VIRTUAL SERVER subsection, 44 Firewall Mark , 45 Persistence , 45 Scheduling , 45 Virtual IP Address , 45 VIRTUAL SERVERS, 43

R
Red Hat Cluster Suite components, 51

F
feedback, viii

T
table cluster components, 51 command line tools, 37

I
introduction, other Red Hat Enterprise Linux documents,

L
LVS direct routing requirements, hardware, 28 requirements, network, 28 requirements, software, 28 routing methods NAT, 27 three tiered high-availability cluster, 26

M
man pages cluster components, 56

N
NAT routing methods, LVS, 27 network address translation (vedi NAT)

O
overview economy, 15 61

62

Potrebbero piacerti anche