Intéressé par le retour sur ce crash aussi. On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters proxmox. Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts de node a la bourrin ( via drac => hors tension ).
Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable. Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV < quentin.leco...@shpv.fr> a écrit : > Je laisse Guillaume te répondre, il sera plus à même de te donner des > détails, il était en première ligne. > > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de > To en prod. ;) > > > Le 24 juil. 2019 à 22:14, Kevin Decherf <ke...@kdecherf.com> a écrit : > > > > Hello, > > > >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote: > >> Salut ! > >> > >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent. > >> > >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster > proxmox, avec pertes des données, c'est déjà arrivé. #vécu > > > > Je suis curieux, tu peux en dire plus ? > > > > -- > > Kevin Decherf - @Kdecherf > > GPG 0x108ABD75A81E6E2F > > https://kdecherf.com > > > > > > --------------------------- > > Liste de diffusion du FRnOG > > http://www.frnog.org/ > > > --------------------------- > Liste de diffusion du FRnOG > http://www.frnog.org/ > --------------------------- Liste de diffusion du FRnOG http://www.frnog.org/