Salve a tutti, riprendo questo giro per aggiornavi su dove sono rimasto, vi dico gli step che ho eseguito: 1) Configurazione Storage e relative Lun 2) Configurazione multipath root@sfarm-timkvm1 ~ # more /etc/multipath.conf defaults { udev_dir /dev polling_interval 10 selector "round-robin 0" path_grouping_policy failover prio_callout "/bin/true" path_checker tur rr_min_io 100 rr_weight uniform failback immediate no_path_retry 12 user_friendly_names yes } devnode_blacklist { devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^hd[a-z]" devnode "^cciss!c[0-9]d[0-9]*" } devices { device { vendor "HP" product "P2000 G3 FC" path_grouping_policy group_by_prio path_checker tur path_selector "round-robin 0" prio_callout "/sbin/mpath_prio_alua /dev/%n" rr_weight uniform failback immediate hardware_handler "0" no_path_retry 18 rr_min_io 100 } } 3) Configurazione LVM 4) Configuazione Storage LVM su ogni nodo attivato l'opzione condiviso 5) Configurazione Cluster ed aggiunta dei nodi 6) Configurazione Fencing: <?xml version="1.0"?> <cluster name="sfarm-timkvm" config_version="9"> <cman keyfile="/var/lib/pve-cluster/corosync.authkey" expected_votes="1"/> <clusternodes> <clusternode name="sfarm-timkvm1" nodeid="1" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm1" action="reboot"/> </method> </fence> </clusternode> <clusternode name="sfarm-timkvm2" nodeid="2" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm2" action="reboot"/> </method> </fence> </clusternode> <clusternode name="sfarm-timkvm3" nodeid="3" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm3" action="reboot"/> </method> </fence> </clusternode> <clusternode name="sfarm-timkvm4" nodeid="4" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm4" action="reboot"/> </method> </fence> </clusternode> <clusternode name="sfarm-timkvm5" nodeid="5" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm5" action="reboot"/> </method> </fence> </clusternode> <clusternode name="sfarm-timkvm6" nodeid="6" votes="1"> <fence> <method name="1"> <device name="sfarm-timkvm6" action="reboot"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_ilo" ipaddr="10.104.26.82" login="Administrator" name="sfarm-timkvm1" passwd="pass4sure"/> <fencedevice agent="fence_ilo" ipaddr="10.104.26.83" login="Administrator" name="sfarm-timkvm2" passwd="pass4sure"/> <fencedevice agent="fence_ilo" ipaddr="10.104.26.84" login="Administrator" name="sfarm-timkvm3" passwd="pass4sure"/> <fencedevice agent="fence_ilo" ipaddr="10.104.26.85" login="Administrator" name="sfarm-timkvm4" passwd="pass4sure"/> <fencedevice agent="fence_ilo" ipaddr="10.104.26.86" login="Administrator" name="sfarm-timkvm5" passwd="pass4sure"/> <fencedevice agent="fence_ilo" ipaddr="10.104.26.87" login="Administrator" name="sfarm-timkvm6" passwd="pass4sure"/> </fencedevices> </cluster> Sono fermo qui, nonostante la config sembra corretta e viene duplicata su tutti i nodi, facendo una test delle fencing mi da questo errore: root@sfarm-timkvm1 ~ # fence_ilo -l Administrator -p pass4sure -a 10.104.26.82 -o status -v Unable to connect/login to fencing device root@sfarm-timkvm1 ~ # fence_tool ls fence domain member count 1 victim count 5 victim now 2 master nodeid 1 wait state fencing members Secondo voi dove sto sbagliando? Grazie ---- Francesco Gabriele Blog - www.ubuntuserver.it Linux users #5484 Frank (IT) Asterisk users #852 Frankies (IT) Il giorno 22 aprile 2012 09:12, Gianni Caldonazzi < gianni.caldonazzi@xxxxxxxxx> ha scritto: > Ciao Gabriele, > > Il 20 aprile 2012 14:53, Francesco Gabriele > <francesco.gabriele@xxxxxxxxx> ha scritto: > [...] > > Volevo fare un riassunto delle operazioni da fare: > > 1 Fa vedere i volumi tramite WWN > > 2 Configurare la ILO di ogni server e controllare la corretta > interrogazione > > tramite TCP/IP > > 3 Configurare LVM e controllare la corretta visualizzazione da tutti i > nodi > > 4 Configurare il fencing dicendogli di utilizzare la ILO > > 5 Configurare L'HA > > hai evidenziato due lavori diversi: > 1. la costruzione-configurazione del cluster + fencing di pve 2.0, che > non ho mai visto e quindi taccio. > 2. la configurazione-uso di un disco condiviso per le vm del cluster, > su questo posso darti una traccia. > > Posto che si abbia una SAN da usare con PVE, questi sono i passi in breve: > > 1. Apro la gestione SAN e creo un Volume Logico da usare nel cluster PVE > 2. Presento questo VL a tutti i nodi del cluster, segnarsi il WWID del > disco > 3. Passo alla configurazione del disco tramite multipath, assegnando > un nome simbolico al WWID detto ALIAS. Attenzione che per EVA viene > premesso un 3 al WWID del disco ... se vuoi prima rileggi la catena > scsi (passo successivo) vedi come viene presentato il disco e poi lo > configuri nel multipath assegnandogli l'alias. > 4. Rileggo la catena scsi su tutti i nodi del cluster > 5. Mi sposto sul nodo master e creo il PV sul disco SAN, PVCREATE > DiscoSAN1 /dev/mapper/DiscoSAN1 > 6. Creo il Volume Group su DiscoSAN1 > 7. Apro la console web di proxmox (sempre nodo master) e aggiungo un > nuovo storage LVM indicando che conterrà i Logical Volume delle VM. > > ora posso creare le vm. > Spero di non essermi dimenticato qualche passo. > > > > > La cosa che non mi p chiara, io se creo una Volume Group dal primo nodo, > se > > faccio un vgscan dagli altri nodi vedrò quello appena creato? > > Non serve, su proxmox una volta completati i passi sopra citati vedrai > che con vgs ti ritrovi il nuovo VG anche sugli altri nodi. > > Per il resto (fencing) rimango in attesa delle tue spiegazioni. > > Jan > -- > Per iscriversi (o disiscriversi), basta spedire un messaggio con OGGETTO > "subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxx > > >