Oui, le NFS est vraiment une solution "bancale" (c'est du NFS hein ...)
: c'est probablement fonctionnel, mais vraiment dédié aux gens qui sont
"bloqués" sur le NFS (pour des raisons d'OS propriétaire, de connecteur
hardware ou que sais-je)

Si tu as le choix, n'utilise pas NFS :)

Par rapport à Ceph, je trouve que le projet est globalement conservateur
Ils font du stockage, et sont sérieux en conséquence, contrairement à
certains systèmes de fichier (zapperfs par exemple !)

Ceph te permet également de faire des choses très charmante, telle
qu'une redondance inter-dc sans coût (au niveau latence etc), permettant
l'implémentation d'un PRA facilement
J'aime également la méthode permettant, toujours sans impacter la
production, de mixer disque dur et SSD (les clients utilisent les SSD,
les disques dur ne sont utilisés qu'en arrière plan, pour la redondance,
donc sans impact sur les performances)

Bref, c'est vraiment un projet à tester et à retester, à mon avis !

On 10/10/2017 10:30, Yoann Moulin wrote:
> Bonjour,
> 
>> Alors, personnellement, je dirais Ceph parce que c'est quand même le plus 
>> polyvalent et avec la nouvelle release de Red Hat Storage, on aura le
>> nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains 
>> dessus.
> 
> Sans forcément attendre la release de RedHat, on peut déjà jouer avec la 
> dernière mouture Luminous (12.2.1) de Ceph, j'ai commencé un peu à
> tester et même si la peinture n'est pas fraiche, ça permet de prendre en main 
> les nouvelles fonctionnalités.
> 
> Je n’ai par contre pas encore tout regardé coté NFS (ils utilisent Ganesha), 
> mais les 1èrs tests de passerelle entre la radosgw et NFS ne m'ont
> pas semblé concluant (erreur d'écriture par exemple), mais je ne sais pas si 
> le problème vient de ma config ou de ceph lui-même
> 
> J'ai par contre testé un peu plus CephFS (filesystem POSIX distribué) et ça 
> me semble plus prometteur que faire du NFS.
> 
> Pour mes tests, j'utilise le playbook ceph-ansible[1] pour déployer mon 
> cluster. Il me faut moins de 2h pour avoir un cluster fonctionnel from
> scratch sur des serveurs barmetals (incluant application de script de reset 
> bios/ipmi/config raid, installation ubuntu pxe kickstart, exécution
> du playbook ceph-ansible). J'utilise une Ubuntu 16.04 LTS.
> 
> 1. https://github.com/ceph/ceph-ansible
> 
> La communauté est assez réactive tant sur IRC (#ceph sur oftc) que sur la 
> mailing-list d'ailleurs.
> 
> Enfin, de l'expérience que j'ai de ceph, pour du block device (rados bloc 
> device), ceph n'est pas le plus approprié si besoin de faible latence
> ou de beaucoup d'I/O en mono thread (ie un seul client) pour des workloads 
> globales avec de la virtu, ça rend un bon service et c'est plutôt
> résilient.
> 
> Bonne journée à tous
> 


-- 
"UNIX was not designed to stop its users from doing stupid things, as
that would also stop them from doing clever things." – Doug Gwyn
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à