Salut, intéressant le calcul dovecot, mais là c'est surtout approprié pour
du cyrus, notamment via le cyrus murder (patch openio si je ne m'abuse)
pour monter le stockage objet directement via le mda.
Le ven. 13 oct. 2017 23:03, Paul Rolland (ポール・ロラン) a
écrit :
> Bonjour,
>
> On Fri, 13 Oct 2017
Bonjour,
On Fri, 13 Oct 2017 22:41:40 +0200
fr...@jack.fr.eu.org wrote:
> (et en étant moins noob et en excluant les repertoires, j'arrive à 13.39
> MB)
1005 [23:01] r...@riri.def:~/Mail> find -ls -type f | awk '{sum += $7; n++;}
END {printf "%lu -> %f\n", n, sum/n;}'
586511 -> 69246.761362
C'
(et en étant moins noob et en excluant les repertoires, j'arrive à 13.39 MB)
On 13/10/2017 22:40, Jack wrote:
> Bof, sur ma boite mail, en moyenne, les fichiers ont la même taille que
> des chunks HLS d'un flux HD: de l'ordre de quelques MB
>
> root@jack:/data/mail/jack# find -ls -type f | awk '
:)
Et pour préciser ce qu'évoque Fabien, Openio provient d'un dev interne
chez Atos Worldline qui a été opensourcé ensuite.
Et Atos est connu pour gérer (ou avoir géré, j'ai pas suivi récemment
si c'est toujours le cas) toute la plateforme email de Wanadoo/Orange.
Donc oui, ils avaient "quelque
2017-10-12 21:26 GMT+02:00 Fabien Germain :
> On 12/10/2017 21:20, Olivier Duquesne (DaffyDuke) wrote:
>> Ah oui, du coup j'ai lu au moins le tiens. Pareil, totale confiance dans
>> les admins d'openio, mais je suis pas objectif, on a passé pas mal de temps
>> ensemble il y a quelques années su
On 12/10/2017 21:20, Olivier Duquesne (DaffyDuke) wrote:
Ah oui, du coup j'ai lu au moins le tiens. Pareil, totale confiance
dans les admins d'openio, mais je suis pas objectif, on a passé pas mal
de temps ensemble il y a quelques années sur un petit hébergeur de
mails (50 millions de boîtes
Ah oui, du coup j'ai lu au moins le tiens. Pareil, totale confiance dans
les admins d'openio, mais je suis pas objectif, on a passé pas mal de
temps ensemble il y a quelques années sur un petit hébergeur de mails (50
millions de boîtes mails en 2010). C'est de là qu'est venu le projet
d'ailleurs.
Eh je l'ai évoqué en prems =)
et les deux réference sont bien Daily et Online, dont les ops sont des
gens à qui je confierais mon infra, c'est dire que je les truste.
--
Raphael Mazelier
On 11/10/2017 21:57, Olivier Duquesne (DaffyDuke) wrote:
Hello,
J'avoue je n'ai pas pris le temps de
Hello,
J'avoue je n'ai pas pris le temps de lire le thread mais j'ai retenu
"baisser le coût du stockage" et "CEPH".
Je vous propose de regarder la solution développée par des copains :
http://www.openio.io/
C'est opensource, il y a des options soumises à licence comme la GUI.
Il y a eu un summit
Au temps pour moi, je pensais que c'était plus subtil mais en fait non
Merci pour la précision, je vais pouvoir arrêter de penser (et raconter)
de la derm à ce sujet :p
/me est un peu déçu néanmoins
On 10/10/2017 23:58, Francois Lafont wrote:
> On 10/10/2017 11:36 PM, Yoann Moulin wrote:
>
>> s
mercredi 11 octobre 2017, 13:30:30 CEST Bruno LEAL DE SOUSA wrote:
> C'est toutes des bonnes solutions mais nous sommes dans un industrie qui a
> besoin de tourner H24.
Je ne vois pas pourquoi vous mettez un « mais ». Le libre fait tourner plus de
la moitié des serveurs web des sites les plus vus
Bonsoir à tous!
Je suis épaté par les nombreuses réponses reçues.
Cela prouve bien que le sujet est une vraie problèmatique de nos jours.
Si je résume vaguement les réponses, beaucoup tendent vers des solutions
open-source et notamment Ceph, Gluster et Openio.
C'est toutes des bonnes solutions m
On 10/10/2017 11:36 PM, Yoann Moulin wrote:
> si on a size=3 min_size=2 si on perd un replica, la donnée est disponible, si
> on en perd 2, on ne peut plus accéder aux données, le cluster bloque les I/O
> jusqu'a ce qu'un autre replica revienne online.
J'aurais tendance à penser que, dans ce ca
On 10/10/2017 10:34 PM, fr...@jack.fr.eu.org wrote:
> Si tu as 3 disques dur, et 2 SSD, un size = 3 et min_size = 2, et une
> map cohérente, l'écriture va se faire sur les 2 SSD et sur un disque dur
On peut en effet cibler les OSDs (les disques) pour un pool donné avec
la CRUSH map, ça on est d'a
Hello,
>>> Pas vraiment, je pense plutôt à min_size pour l'écriture, et affinity
>>> pour la lecture
>>
>> Ok pour la priority affinity par rapport à la lecture uniquement en
>> effet.
>>
>> Mais par contre je suis pas d'accord pour le min_size qui, pour ce
>> que j'ai compris de Ceph, n'a pas de r
Oui
Si tu as 3 disques dur, et 2 SSD, un size = 3 et min_size = 2, et une
map cohérente, l'écriture va se faire sur les 2 SSD et sur un disque dur
Lorsque deux écritures seront validés, l'IO sera valider
Une timeline:
t: début de l'IO
t + 1: écriture sous-jacente sur SSD1, SSD2 et HDD1
t + 2: SSD
Hello,
> Est-ce que vous vous êtes penché du coté de la déduplication? Je sais que ZFS
> le
> fait, Windows Server également. Mais coté constructeur je ne sais pas s'il
> existe des solutions. Sont-elles fiables? Qu'en est-il des performances?
Netapp et Isilon le fait... Après les perfs elles s
Est-ce que vous vous êtes penché du coté de la déduplication? Je sais que
ZFS le fait, Windows Server également. Mais coté constructeur je ne sais
pas s'il existe des solutions. Sont-elles fiables? Qu'en est-il des
performances?
___
Liste de diffusion du
On 10/10/2017 11:28 AM, fr...@jack.fr.eu.org wrote:
> Pas vraiment, je pense plutôt à min_size pour l'écriture, et affinity
> pour la lecture
Ok pour la priority affinity par rapport à la lecture uniquement en
effet.
Mais par contre je suis pas d'accord pour le min_size qui, pour ce
que j'ai com
Très vaste sujet que le stockage de nos jours.
Un des vrais points de départ qu'il faut trancher c'est a t'on besoin
d'un accès type fs, ou un accès type s3/objet suffit.
Cela oriente réellement le choix, sachant que de nos jours "l'interface"
s3 est le nouveau standard de facto.
Quelques
Bonjour,
> Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
> apollo, Mars200 ?
Home made, déploiement avec ceph-ansible sur commodity hardware (18 nodes, 180
OSDs et 36 SSDs pour les journaux)
je fais principalement du S3 mais j'ai un peu de rbd, et je teste cephfs s
Hello,
On 10 Oct 2017 16:29, "professor geek" wrote:
Bonjour,
Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
apollo, Mars200 ?
Ici on a deux clusters Ceph 'homemade' avec du R730 et 96 OSD mécaniques
sur chaque cluster, journaux SSD.
Sent from my phone
__
Bonjour,
Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
apollo, Mars200 ?
Merci,
On 10 October 2017 at 16:00:42, Armanet Stephane (arman...@ill.fr) wrote:
Bonjour a tous
Nous utilisons beaucoup ZFS sur notre infra de stockage dans divers mode
(block -> Zvol +FC ou
Bonjour a tous
Nous utilisons beaucoup ZFS sur notre infra de stockage dans divers mode
(block -> Zvol +FC ou iscsi) ou filesystem.
Notre base est un/des serveur Dell R720 et baie de stockage Dell MD1200
ou MD3060e en jbod le tout sous solaris
Notre plus grosse machine heberge environ 500TB
résilience, de la sécurité, l'évolutivité, le stockage objet c'est
super, mais si votre besoin est différent, il y a des alternatives.
A+
Message d'origine
De : Fabrice Vincent
Date : 10/10/2017 15:37 (GMT+01:00)
À : frsag@frsag.org
Objet : Re: [FRsAG] Ba
Bonjour,
A job-1, sur des volumétrie inférieures, on était parti sur des NAS
Synology.
Avec les options cache rw SSD ou full SSD, le iSCSI Target, la HA, etc.
on obtiens des fonctionnalité assez proches des baies de stockage de
grand constructeurs pour une fractions du cout !
D'autant plus qu'
nc voilà, ça prend n'importe quel type de
> techno de stockage, tant qu'on lui présente un truc qu'il supporte (blocs et
> NFS à l'époque), et il se débrouille et fait sa tambouille pour te fournir un
> LUN, un partage NFS/CIFS, ou autre.
>
> Merci.
>
&g
LEAL DE SOUSA"
To: "French SysAdmin Group"
Sent: Monday, 9 October, 2017 23:48:35
Subject: [FRsAG] Baisser le cout du stockage - grosse volumétries
Bonjour à tous,
Je suis face à une problématique, que beaucoup aujourd’hui doivent rencontrer.
Dans ce monde hyperconnecté, on
On 10/10/2017 11:09, Francois Lafont wrote:
> Bonjour,
>
> On 10/10/2017 10:37 AM, fr...@jack.fr.eu.org wrote:
>
>> Ceph te permet également de faire des choses très charmante, telle
>> qu'une redondance inter-dc sans coût (au niveau latence etc), permettant
>> l'implémentation d'un PRA facilemen
Bonjour,
On 10/10/2017 10:37 AM, fr...@jack.fr.eu.org wrote:
> Ceph te permet également de faire des choses très charmante, telle
> qu'une redondance inter-dc sans coût (au niveau latence etc), permettant
> l'implémentation d'un PRA facilement
Tu penses à la fonctionnalité ajoutée « récemment »
Oui, le NFS est vraiment une solution "bancale" (c'est du NFS hein ...)
: c'est probablement fonctionnel, mais vraiment dédié aux gens qui sont
"bloqués" sur le NFS (pour des raisons d'OS propriétaire, de connecteur
hardware ou que sais-je)
Si tu as le choix, n'utilise pas NFS :)
Par rapport à Ce
Bonjour,
> Alors, personnellement, je dirais Ceph parce que c'est quand même le plus
> polyvalent et avec la nouvelle release de Red Hat Storage, on aura le
> nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains
> dessus.
Sans forcément attendre la release de RedHat, on peut
Bonjour tout le monde,
Alors, personnellement, je dirais Ceph parce que c'est quand même le plus
polyvalent et avec la nouvelle release de Red Hat Storage, on aura le nfs et
bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains dessus.
Sinon, en vendor dans l'ère du temps, je partir
ent.
Bonne journée, (et bonne grève pour les concernés...)
[Bruno Cortès]
ü
Pour la planète : échangez par courriel et n'imprimez que si nécessaire.
De : FRsAG [mailto:frsag-boun...@frsag.org] De la part de Bruno LEAL DE SOUSA
Envoyé : lundi 9 octobre 2017 23:49
À : frsag@frsag.org
Ob
bonjour,
peut être que gluster correspond plus à l'aspect stockage/coûts
http://technologyadvice.com/blog/information-technology/ceph-vs-gluster/
Le 9 octobre 2017 23:48:35 GMT+02:00, Bruno LEAL DE SOUSA
a écrit :
>Bonjour à tous,
>
>
>
>Je suis face à une problématique, que beaucoup aujou
Ceph
On 09/10/2017 23:48, Bruno LEAL DE SOUSA wrote:
> Bonjour à tous,
>
>
>
> Je suis face à une problématique, que beaucoup aujourd’hui doivent
> rencontrer.
>
> Dans ce monde hyperconnecté, on se retrouve souvent à gérer des grosses
> volumétries.
>
>
>
> Aujourd’hui, nous sommes équip
Bonjour à tous,
Je suis face à une problématique, que beaucoup aujourdhui doivent
rencontrer.
Dans ce monde hyperconnecté, on se retrouve souvent à gérer des grosses
volumétries.
Aujourdhui, nous sommes équipés avec des baies HPE 3PAR 7200 (SSD/FC/NL) et
8400 (Full SSD).
Ces baies sont
37 matches
Mail list logo