Hello,

Si tu veux faire vraiment faire du Ceph sur un seul serveur, je te conseille 
d'avoir 3 OSD (sur 3 disques différents) et la triple réplication.
Ca permettra d'assurer la consistance des données et de ne pas en perdre.

D'un point de vue technique ça fonctionnera sans problème, ceph se moque de 
savoir si tu as 1 ou 50 racks, 1 ou 300 serveurs.
Mais c'est forcément une utilisation peu courante et ca n'a pas été pensé pour.

Au passage, je ne vois pas pourquoi 4 serveurs seraient forcément nécessaires, 
ni une bonne idée.

Étienne

‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐

On Wednesday, December 2nd, 2020 at 3:10 PM, Julien Escario 
<julien.esca...@altinea.fr> wrote:

> Le 02/12/2020 à 11:33, Stéphane Rivière a écrit :
>
> > > Pour ma part, je suis encore en mono-server sans HA et j'ai cru
> > >
> > > comprendre que Ceph sous Proxmox répondait également à ce besoin. Je
> >
> > CEPH c'est le top mais pour les riches (smile), il parait qu'il faut 4
> >
> > bécanes pour être vraiment tranquille (j'ai gardé une thread au chaud
> >
> > sur ça par "les gens qui savent" : 3 ne seraient pas assez...
> >
> > Nous, on est pauvre et c'est du DRBD... Et vu notre use-case, c'est très
> >
> > bien en plus. Mais CEPH est à un autre niveau :)
>
> Alors, justement. J'ai fais un bout de lab ces derniers jours et Ceph en
>
> single node, pourquoi pas ?
>
> Je me suis inspiré de la doc ici pour construire une crushmap adéquate :
>
> https://linoxide.com/linux-how-to/hwto-configure-single-node-ceph-cluster/
>
> Et ça fonctionne.
>
> Maintenant, on peut s'interroger sur l'intérêt. Mon use-case était de
>
> pouvoir mettre en place une réplication asynchrone avec rbd-mirror. Pas
>
> grand chose de plus que ce qu'offrirait un zfs send/receive finalement.
>
> Mais on peut trouver beaucoup d'autres avantages : accès à cephfs, rados
>
> gateway (S3), rbd-diff pour le backup, le dashboard/export prometheus de
>
> ceph-mgr, etc ...
>
> Et il reste toujours la possibilité d'évoluer vers plus cossu dans le
>
> futur (en évitant soigneusement d'avoir un cluster à deux nœuds, il faut
>
> passer tout de suite à 3).
>
> En réalité, on est dans un cas de RAID en userspace avec une tonne de
>
> fonctionnalités additionnelles. Le système survivra sans problème à la
>
> perte d'un disque et le fonctionnement de Ceph intègre nativement la
>
> notion de hot-spare, pas toujours trivial à faire avec mdadm.
>
> Bref, on est pas dans un scénario de haute-dispo mais l'apport en
>
> fonctionnalités de Ceph est quand même un gros plus par rapport à mdadm
>
> ou ZFS.
>
> Maintenant, est-ce que d'après vous j'ai loupé un truc dans le setup ou
>
> est-ce que c'est réellement viable ? (en dehors du fait que c'est un
>
> gros hack par rapport à ce pourquoi Ceph est prévu).
>
> Merci,
>
> Julien
>
> Liste de diffusion du FRsAG
>
> http://www.frsag.org/
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à