MEDIA-WIKI, MEDIA-WIKI_T, Bureaucrates, Administrateurs d’interface, Administrateurs (MediaWiki Sémantique), Conservateurs (MediaWiki Sémantique), Modificateurs (MediaWiki Sémantique), Masqueurs de modifications, Administrateurs
8 342
modifications
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 279 : | Ligne 279 : | ||
sv4.home.dom addr=192.168.2.74 sv5.home.dom addr=192.168.2.75 \ | sv4.home.dom addr=192.168.2.74 sv5.home.dom addr=192.168.2.75 \ | ||
transport knet ip_version=ipv4 link transport=udp mcastport=5420 | transport knet ip_version=ipv4 link transport=udp mcastport=5420 | ||
==Quorum== | |||
Pour la suite: | |||
* Si nous ignorons la contrainte du "quorum" avec la commande: | |||
pcs property set no-quorum-policy=ignore | |||
le système continuera à tourner mais sans fonctionner si le router est arrêté ou si tous les serveurs Web le sont. | |||
* Si nous maintenons la contrainte du "quorum" avec la commande: | |||
pcs property set no-quorum-policy=stop | |||
on désire que si aucun router ne tourne, le système Pacemaker s'arrête et de même, si aucun serveur Web ne tourne, le système Pacemaker s'arrête aussi. Notons qu'il est conseillé qu'au moins trois serveurs GlusterFs soient utilisés pour des volumes en réplication. Si un seul serveur GlusterFs s'exécute, le montage pose problème. | |||
Nous n'avons pas trouvé se solution satisfaisante via les votes. | |||
Nous avons opté pour l'utilisation de l'option "auto_tie_breaker" en action son action sur les routers. Cette option activée nécessite qu'au moins un de ces routers soit actif sinon le système Pacemaker s'arrête. Pour la suite, le quorum classique est pris en compte mais avec des conséquences différentes en fonction des machines en action. | |||
Le quorum par défaut est de 3. Donc on peut avoir deux situations: | |||
* un router et deux serveurs Web | |||
* deux routers et un serveur Web | |||
pour que le système continue à fonctionner; en dessous le système s'arrête: | |||
* un router et un serveur Web | |||
* deux routers | |||
Notons que pour cette fonctionnalité s'active complétement, il faut qu'au moins une ressource des routers soit impliquée dans l'ensemble de la chaîne doit être impliquée. Dans notre cas, c'est l'ordre qui est utilisé. | |||
==Modification de la configuration de Corosync== | |||
Il faut adapter sur chaque machine du cluster, le fichier "/etc/corosync/corosync.conf". La dernière commande a créé ce fichier. | |||
Ce fichier devient pour la section "quorum": | |||
---- | |||
quorum { | |||
provider: corosync_votequorum | |||
'''auto_tie_breaker: 1''' | |||
'''auto_tie_breaker_node: sv5.home.dom sv4.home.dom''' | |||
} | |||
---- | |||
Notons que pour que cette modification soit effective, il faut arrêter puis redémarrer le cluster: | |||
pcs cluster stop --all | |||
pcs cluster start --all | |||
==Fin de la configuration== | |||
Par la même occasion exécutez la fin de la configuration de base: | |||
pcs property set stonith-enabled=false | |||
pcs property set no-quorum-policy='''stop''' | |||
La dernière spécifie que si le quorum n'est pas atteint, les ressources de Pacemaker sont arrêtées. | |||
modifications