« LINUX:Pacemaker - deux routers en failover - trois serveurs WEB en Loadbalancing, Galera et GlusterFs » : différence entre les versions

aucun résumé des modifications
Aucun résumé des modifications
Aucun résumé des modifications
Ligne 279 : Ligne 279 :
   sv4.home.dom addr=192.168.2.74 sv5.home.dom addr=192.168.2.75 \
   sv4.home.dom addr=192.168.2.74 sv5.home.dom addr=192.168.2.75 \
   transport knet ip_version=ipv4 link transport=udp mcastport=5420
   transport knet ip_version=ipv4 link transport=udp mcastport=5420
==Quorum==
Pour la suite:
* Si nous ignorons la contrainte du "quorum" avec la commande:
pcs property set no-quorum-policy=ignore
le système continuera à tourner mais sans fonctionner si le router est arrêté ou si tous les serveurs Web le sont.
* Si nous maintenons la contrainte du "quorum" avec la commande:
pcs property set no-quorum-policy=stop
on désire que si aucun router ne tourne, le système Pacemaker s'arrête et de même, si aucun serveur Web ne tourne, le système Pacemaker s'arrête aussi. Notons qu'il est conseillé qu'au moins trois serveurs GlusterFs soient utilisés pour des volumes en réplication. Si un seul serveur GlusterFs s'exécute, le montage pose problème.
Nous n'avons pas trouvé se solution satisfaisante via les votes.
Nous avons opté pour l'utilisation de l'option "auto_tie_breaker" en action son action sur les routers. Cette option activée nécessite qu'au moins un de ces routers soit actif sinon le  système Pacemaker s'arrête. Pour la suite, le quorum classique est pris en compte mais avec des conséquences différentes en fonction des machines en action.
Le quorum par défaut est de 3. Donc on peut avoir deux situations:
* un router et deux serveurs Web
* deux routers et un serveur Web
pour que le système continue à fonctionner; en dessous le système s'arrête:
* un router et un serveur Web
* deux routers
Notons que pour cette fonctionnalité s'active complétement, il faut qu'au moins une ressource des routers soit impliquée dans l'ensemble de la chaîne doit être impliquée. Dans notre cas, c'est l'ordre qui est utilisé.
==Modification de la configuration de Corosync==
Il faut adapter sur chaque machine du cluster, le fichier "/etc/corosync/corosync.conf". La dernière commande a créé ce fichier.
Ce fichier devient pour la section "quorum":
----
quorum {
    provider: corosync_votequorum
    '''auto_tie_breaker: 1'''
    '''auto_tie_breaker_node: sv5.home.dom sv4.home.dom'''
}
----
Notons que pour que cette modification soit effective, il faut arrêter puis redémarrer le cluster:
pcs cluster stop --all
pcs cluster start --all
==Fin de la configuration==
Par la même occasion exécutez la fin de la configuration de base:
pcs property set stonith-enabled=false
pcs property set no-quorum-policy='''stop'''
La dernière spécifie que si le quorum n'est pas atteint, les ressources de Pacemaker sont arrêtées.