Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
de node a la bourrin ( via drac => hors tension ).

Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.

Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
quentin.leco...@shpv.fr> a écrit :

> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
>
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de
> To en prod. ;)
>
> > Le 24 juil. 2019 à 22:14, Kevin Decherf <ke...@kdecherf.com> a écrit :
> >
> > Hello,
> >
> >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> >> Salut !
> >>
> >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
> >>
> >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster
> proxmox, avec pertes des données, c'est déjà arrivé. #vécu
> >
> > Je suis curieux, tu peux en dire plus ?
> >
> > --
> > Kevin Decherf - @Kdecherf
> > GPG 0x108ABD75A81E6E2F
> > https://kdecherf.com
> >
> >
> > ---------------------------
> > Liste de diffusion du FRnOG
> > http://www.frnog.org/
>
>
> ---------------------------
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à