Bonjour,
A noter qu'avec un backend Ceph, il se peut que l'algo attende qu'un OSD
soit réellement HS (pas juste une (micro-)coupure) pour commencer à
rebalancer les données sur les noeuds restant. Il se peut donc que ça
soit la cause de ce délais, en particulier si vous avez beaucoup de
conte
> un sacré réseau et je peux te dire qu'en gigabit, il faut oublier. Je
> pense même qu'en dessous de 40Gbps par noeud, c'est mort.
En fonction de la charge de réplication, ça peut être beaucoup moins.
On a monté une maquette Xen/Remus il y a 10 ans avec du hard pourri (CM
Intel à 40€, CPU quad c
Le 29/06/2020 à 03:44, Clément Gineste a écrit :
> Il me semble que Xen supporte depuis longtemp le live migration d'une VM
> avec sa mémoire
On avait fait ça il y a 10 ans avec Xen, Remus (de mémoire), DRDB... Et
ça marchait nickel. À l'époque c'était un peu de la R&D (psa mal de
compils de noyau
Hello Clément et la liste,
Sous RHEL 5, virsh couplé à un hyperviseur Xen avait déjà le support
du live migration:
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/virtualization/chap-virtualization-xen_live_migration#:~:text=Xen%20live%20migration,-The%20Xen%20hypervi
Il me semble que Xen supporte depuis longtemp le live migration d'une VM
avec sa mémoire
Le mer. 17 juin 2020 à 20:02, Benoit MOREAU via FRsAG a
écrit :
> Salut,
>
> Je ne comprends pas trop le problème. Normalement, au moment où tu isoles
> le nœud en débranchant ses rings, il faut compter envi
Salut,
Je ne comprends pas trop le problème. Normalement, au moment où tu
isoles le nœud en débranchant ses rings, il faut compter environ 2
minutes avant que le cluster lance sa procédure de failover.
Le nœud isolé va stopper les VM pour éviter le "split-brain", et le
reste du cluster va relancer
Le 16/06/2020 à 22:55, Racamier Stéphane a écrit :
> Bonsoir le groupe,
Bonjour !
> Je test actuellement un cluster Proxmox 6.4 avec un stockage hyper
> convergé ceph composé de 3x6 osd (HDD) avec deux carte gigabit en
> protocole LACP actif, 1 carte sur le ring0 et 1 sur le ring1.
>
> La platef
Bonjour,
as-tu bien configuré le quorum du cluster ?
Richard
De : FRsAG De la part de Racamier Stéphane
Envoyé : mardi 16 juin 2020 22:55
À : French SysAdmin Group
Objet : [FRsAG] [TECH] Cluster proxmox hyper convergé
Bonsoir le groupe,
Je test actuellement un cluster Proxmox
e en cas de flap réseau.
De: "Racamier Stéphane"
À: "French SysAdmin Group"
Envoyé: Mardi 16 Juin 2020 22:55:11
Objet: [FRsAG] [TECH] Cluster proxmox hyper convergé
Bonsoir le groupe,
Je test actuellement un cluster Proxmox 6.4 avec un stockage hyper convergé
ceph c
Bonsoir le groupe,
Je test actuellement un cluster Proxmox 6.4 avec un stockage hyper convergé
ceph composé de 3x6 osd (HDD) avec deux carte gigabit en protocole LACP
actif, 1 carte sur le ring0 et 1 sur le ring1.
La plateforme de test utilisé des HP proliant dl380 g7.
Ma préoccupation principal
10 matches
Mail list logo