Bonjour,

> Alors, personnellement, je dirais Ceph parce que c'est quand même le plus 
> polyvalent et avec la nouvelle release de Red Hat Storage, on aura le
> nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains 
> dessus.

Sans forcément attendre la release de RedHat, on peut déjà jouer avec la 
dernière mouture Luminous (12.2.1) de Ceph, j'ai commencé un peu à
tester et même si la peinture n'est pas fraiche, ça permet de prendre en main 
les nouvelles fonctionnalités.

Je n’ai par contre pas encore tout regardé coté NFS (ils utilisent Ganesha), 
mais les 1èrs tests de passerelle entre la radosgw et NFS ne m'ont
pas semblé concluant (erreur d'écriture par exemple), mais je ne sais pas si le 
problème vient de ma config ou de ceph lui-même

J'ai par contre testé un peu plus CephFS (filesystem POSIX distribué) et ça me 
semble plus prometteur que faire du NFS.

Pour mes tests, j'utilise le playbook ceph-ansible[1] pour déployer mon 
cluster. Il me faut moins de 2h pour avoir un cluster fonctionnel from
scratch sur des serveurs barmetals (incluant application de script de reset 
bios/ipmi/config raid, installation ubuntu pxe kickstart, exécution
du playbook ceph-ansible). J'utilise une Ubuntu 16.04 LTS.

1. https://github.com/ceph/ceph-ansible

La communauté est assez réactive tant sur IRC (#ceph sur oftc) que sur la 
mailing-list d'ailleurs.

Enfin, de l'expérience que j'ai de ceph, pour du block device (rados bloc 
device), ceph n'est pas le plus approprié si besoin de faible latence
ou de beaucoup d'I/O en mono thread (ie un seul client) pour des workloads 
globales avec de la virtu, ça rend un bon service et c'est plutôt
résilient.

Bonne journée à tous

-- 
Yoann Moulin
linkedin.com/in/yoannmoulin
twitter.com/ymoulin
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à