Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Quando sei in seriale (connessione nella porta con 10101 a 9600)per la prima
configurazione o digiti 'setup' da cli queste sono le risposte alle varie domande:
- Please enter the new hostname:
nome che ricordi quale testa � es FASa-FASb
- Do you want to enable IPv6? [n]
di solito l'ipv6 non c'� mai quindi no
- Do you want to configure interface groups?
qui devi rispondere si per configurare le e0a,e0b,e0c,e0d. Almeno la prima
deve essere configurata perch� � l'ip di rete che avr� la macchina,sia come NAS che
come interfaccia di gestione
- Number of interface groups to configure? [0]:
Qui metti 0 o invio e poi te le chiede tutte, se fai skip nell'indirizzo ip
delle interfacce salti la configuraione di quell'interfaccia
Inserisci ip e subnet
- Should interface e0a take over a partner IP address during failover? [n]:
Qui devi rispondere si per mettere in piedi il failover
- Please enter the IPv4 address or interface name to be taken over by e0a []:
Qui bisogna inserire la stessa interfaccia che stiamo configurando(es e0a)in
modo che in caso di problemi si finisca nell'interfaccia dell'altra testa. In caso
di failover uno switch interno permette alla stessa interfaccia di gestire due ip
differenti in modo che gli utenti non si accorgano di nulla.
- Please enter media type for e0a {100tx-fd, tp-fd, 100tx, tp, auto (10/100/1000)}
[auto]:
Qui vai con auto
- Please enter flow control for e0a {none, receive, send, full} [full]:
Qui vai con full
- Do you want e0a to support jumbo frames? [n]:
I jumbo frames sono pacchetti che viaggiano nella rete e sono pi� grossi di
un normale pacchetto ethernet.Per esistere il protocollo deve essere usato dalla
rete del cliente. Di solito � no.
- Poi le domande sono le medesime per le successive interfacce. Se non ci interessa
dargli un ip l'importante � creare comunque la catena di failover che punti alle
interfacce corrispondenti
- Poi devi inserire l'ip dell'intefaccia e0m che � l'interfaccia di gestione remota
sempre attiva e super cazzuta. Di solito meglio in una subnet diversa se possibile.
Mettere anche questa in failover con e0M esattamente come le altre interfacce
- Would you like to continue setup through the web interface? [n]:
Qui meglio rispondere no e finire l'installazione tramite CLI
- Poi inserire il gateway
- Poi inserire il nome e la password dell'amministratore della testa(se vuole si
pu� anche inserire l'ip del root in modo che sia sempre lo stesso ip ad avere
l'accesso, altrimenti invio)
- Please enter the name or IP address of the administration host [root]:
- Please enter the IP address for root []:
- GMT=Europe/Rome
- Where is the filer located? []: ?
- Enter the root directory for HTTP files [/vol/vol0/home/http]:
- Do you want to run DNS resolver? [n]:
- Do you want to run NIS client? [n]:
Se poi vuoi rendere effettivi i cambiamenti e non sei al primo setup devi fare
'reboot'
ASSEGNARE UN DISCO A UNA TESTA
-ovviamente per assegnare un disco alla testa deve essere in condizione di spare e
non deve essere l'ultimo disco spare senn� si inchioda tutto
-per vedere i dischi associati alla testa fai
'disk show'
mostra i dischi associati alla testa
'disk show -v'
mostra tutti i dischi e le associazioni
per vedere i dischi.Se sono in HA entrambe i comandi sono identici altrimenti devi
fare 'disk show -v' per vedere i dischi di entrambe le teste.
-Visti i dischi associati alla testa bisogna fare
'aggr status -s'
mostra quali dischi spare sono associati a questa testa
in questo modo riesco a capire quali dischi specifici sono quelli spare
utilizzabili, cio� che posso aggiungere al nostro aggregato
-quindi per aggiungere il disco assegnato alla testa ad un aggregato faccio
'aggr add aggr0 -d <nome disco>'
in cui <nome disco> � nel formato 0a.00.6
COME FARE IL RESIZE DEL VOL0 CONTENENTE DATAONTAP PER RIDURRE AL MINIMO L'UTILIZZO
DELLO SPAZIO PER QUESTO VOLUME
-Nella testa viene creato un vol di default nell'aggr0 che contiene dataontap. Per
ridurre al minimo questo volume devo dare il comando
'vol size vol0 10g'
quando d� questo comando mi dice che cos� pochi g di spazio non li posso
assegnare al volume ma mi consiglia il quantitativo minimo.
Quindi rid� il comando sopra invece che con 10g con i g minimi suggeriti
CARICARE LE LICENZE
- Prima di far partire i servizi controllare cosa � possibile far partire in base
alle licenze con
'license'
- Poi dare i comandi che di solito sono
'<nome licenza> start
Nello specifico non � sempre vero.Per esempio � vero per
'iscsi start'
mentre non � vero per il CIFS.Seguono capitoli per ogni protocollo.
- Importante, abilitare il cf(failover) e soprattutto abilitare il protocollo in
entrambe le teste,altrimenti in caso di failover i servizi non fatti partire non
vengono replicati sull'altra testa
- Prima di tutto si controlla lo stato del servizio perch� potrebbe essere gi�
attivo
'cf status'
- Se � disattivo si usa
'cf enable'
Molto semplice
'iscsi start'
CIFS requires local /etc/passwd and /etc/group files and default files
will be created. The default passwd file contains entries for 'root',
'pcuser', and 'nobody'.
Enter the password for the root user []:
Qui bisogna inserire la password di root,in teoria proprio quella che si usa
per accedere alla testa quindi occhio a cambiarla
Per� bisogna riscriverla, se premi invio si smerda e non si sa pi� quale sia
-Normalmente per cambiare la password dei vari utenti (tra cui anche root) basta
digitare
'passwd'
poi ti chiede quale utente e la nuova password.Per� si lamenta se la password � la
stessa usata nelle ultime 6 volte. Per evitare questo bisogna fare
'options security.passwd.rules.enable off'
cos� si pu� reinserire la stessa password senza seghe
-Bisogna prima di tutto andare in seriale a velocit� 9600 ed entrare nella testa
-bisogna dare il comando 'halt'
-una volta finito l'halt' e si � di nuovo al prompt del loader(diverso da quello di
gestione normale del filer)bisogna digitare 'boot_ontap'
- quando viene richiesto premere 4 e poi aspettare
-non bisogna fare pi� nulla se non confermare due volte il reset del sistema. fatto
questo si aspetta 4-5-10 ore e alla fine tutto sar� come nuovo
AGGIORNAMENTO SYS OP
-tramite seriale e cli configuro una porta non usata e fuori dalla rete
"ifconfig e0b 10.0.0.2 netmask 255.255.255.0 up"
-poi mi connetto alla porta e0b che ho cambiato e metto su il cifs in workgroup
"cifs setup"
e poi seguo tutto quanto fino a quando non ho concluso il tutto
-accedo allo share della cifs con \\ip\c$ da windows inserendo password
-vado nella dir \etc\software e ci copio l'immagine di dataontap(� un .tgz)
se non esiste la directory in CLI devo fare "software list" e mi crea gi� la
directory lui
l'immagine si chiama 812_q_image.tgz(insomma la versione non netboot)
-prima di procedere per evitare problemi disabilito il failover
"cf disable"
-in netapp con "software list" devo vedere l'immagine copiata nella lista
-poi lancio l'update del SO
"software update 812_q_image.tgz -r" per lanciare l'update
-poi controllo che abbia preso in carico la nuova versione con
"version -b"
image1 indica l'immagine attuale, image2 indica l'immagine che andr� a caricare nel
prossimo reboot
-faccio il reboot della macchina
"reboot"
"0"
-controllo il risulatato e vedo se il SO � aggiornato
"version"
"fcp start"
"fcp show initiator" per vedere quello che � collegato e li aggiungi agli
initatiator dell LUN
Per vedere gli host devo fare lo zoning tra le fibre initiator(esx) e quello di
target(netapp), cos� il comando sopra ti fa vedere cose
igroup della fc(dove metto wwnn che possono accedere a netapp) se si setta come
ALUA bisogna mettere in VMWARE roundrobin
"igroup show"
PER ESSERE SICURI CHE LA MACCHINA ACCETTI LE CONNESSIONI DEL SYSTEM MANAGER
"secureadmin setup ssh" per abilitare la porta sicuramente per il system manager
-Nel momento in cui si ha un fail over ci possono essere alcuni secondi in cui
storage e server non si vedono.
gli host utility kit(presenti per ogni sistema operativo) vanno installati sul
server che usano la SAN di netapp come storage e servono a gestire il timeout in
modo che la SAN non entri in crisi.
Per gestire quello di vmWare bisogna installare VSC(virtual storage controller)su
vcenter server
ZONING
-Lo zoning funziona che su ogni switch bisogna creare 2 alias, uno per ogni testa.
Il che significa che se ha due teste creer� due alias nel primo switch(netapp1_1a e
netapp2_1a)e due nel secondo switch(netapp1_1b e netapp2_1b).La connessione fisica
�:"nel primo switch metto i primi fc adapter di ogni testa(1a), mentre nel secondo
switch metto i secondi fc adapter di ogni testa(1b)"
-Per prima cosa bisogna andare in netapp e prendere gi� il wwnn dei singoli fc
adapter.Quindi ci si collega in CLI e si fa
"fcp show adapter"
e qui bisogna leggere non il node name ma l'adapter name(� facile capire quale �
perch� il node name � unico per entrambe gli adattatori mentre l'adapter name �
diverso per ogni adattatore) e segnare sia il wwnn di 1a che 1b.Ripetere per la
seconda testa
-Vai dentro al primo brocade(switch FC)e scegli "zone admin".
-Il primo passo � creare gli alias andando nel tab alias
Nel primo saranno connessi(se la connessione fisica � stata fatta correttamente)1a
di entrambe le teste(netapp1_1a & netapp2_1a).Creare due nuovi alias e inserirci i
wwnn corretti
-Il secondo passo � creare le zone andando nel tab zone
Bisogna creare tante zone quanti host ESX esistono.Si creano le nuove zone e dentro
ci si mettono i due alias di netapp pi� quello di ESX(il secondo alias di ESX �
ovviamente nel secondo switch).Quindi, per esempio ho 3 ESX, alla fine avr� creato
3 nuove zone con dentro ognuno entrambe i netapp + i wwnn dei rispettivi ESX
-Il terzo � andare in zone config e creare una nuova configurazione delle zone.
In questa nuova configurazione delle zone devo aggiungere le mie nuove zone, poi
fare save config e poi enable config
-Lo zoning lato switch � fatto, ripetere nell'altro switch con gli fc adapter b sia
di netapp che di ESX
-Poi si deve andare nell'OnCommand System Manager, andare in LUN e creare gli
initiator group(igroup).
Si crea un nuovo initiator group di tipo SAN fcp con SO vmWare e dentro si mettono
entrambe gli adapter di ESX(1a & 1b).Quindi se ho 3 ESX si avranno 3 initiator
group con dentro due wwnn in ognuno.
Ripetere in entrambe le teste(nell'altra � utile solamente in caso di failover) e
per abilitarle mappare nelle LUN i vari igroup creati lasciando vuoto il campo LUN
id in modo che inserisca lui un numero univoco.
-Per vedere se tutto � corretto tornare nella CLI e fare:
"fcp show initiator"
e si devono vedere che sono loggate.Riprovare questo anche nell'altra testa.
"fcp show initiator -v"
mi fa vedere anche i wwnn degli host che sono connessi
Se il risultato � positivo ora riesco a vedere le LUN da ESX