Le 02/12/2020 à 11:33, Stéphane Rivière a écrit :
>> Pour ma part, je suis encore en mono-server sans HA et j'ai cru
>> comprendre que Ceph sous Proxmox répondait également à ce besoin. Je
> 
> CEPH c'est le top mais pour les riches (smile), il parait qu'il faut 4
> bécanes pour être vraiment tranquille (j'ai gardé une thread au chaud
> sur ça par "les gens qui savent" : 3 ne seraient pas assez...
> 
> Nous, on est pauvre et c'est du DRBD... Et vu notre use-case, c'est très
> bien en plus. Mais CEPH est à un autre niveau :)

Alors, justement. J'ai fais un bout de lab ces derniers jours et Ceph en
single node, pourquoi pas ?

Je me suis inspiré de la doc ici pour construire une crushmap adéquate :
https://linoxide.com/linux-how-to/hwto-configure-single-node-ceph-cluster/

Et ça fonctionne.

Maintenant, on peut s'interroger sur l'intérêt. Mon use-case était de
pouvoir mettre en place une réplication asynchrone avec rbd-mirror. Pas
grand chose de plus que ce qu'offrirait un zfs send/receive finalement.

Mais on peut trouver beaucoup d'autres avantages : accès à cephfs, rados
gateway (S3), rbd-diff pour le backup, le dashboard/export prometheus de
ceph-mgr, etc ...
Et il reste toujours la possibilité d'évoluer vers plus cossu dans le
futur (en évitant soigneusement d'avoir un cluster à deux nœuds, il faut
passer tout de suite à 3).

En réalité, on est dans un cas de RAID en userspace avec une tonne de
fonctionnalités additionnelles. Le système survivra sans problème à la
perte d'un disque et le fonctionnement de Ceph intègre nativement la
notion de hot-spare, pas toujours trivial à faire avec mdadm.

Bref, on est pas dans un scénario de haute-dispo mais l'apport en
fonctionnalités de Ceph est quand même un gros plus par rapport à mdadm
ou ZFS.

Maintenant, est-ce que d'après vous j'ai loupé un truc dans le setup ou
est-ce que c'est réellement viable ? (en dehors du fait que c'est un
gros hack par rapport à ce pourquoi Ceph est prévu).

Merci,
Julien
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à