Salut
Pour le suivi je m'appuie sur redmine et glpi.
Pour les actions groupées ansible.
Km
___
Liste de diffusion du FRsAG
http://www.frsag.org/
On 10/10/2017 11:36 PM, Yoann Moulin wrote:
> si on a size=3 min_size=2 si on perd un replica, la donnée est disponible, si
> on en perd 2, on ne peut plus accéder aux données, le cluster bloque les I/O
> jusqu'a ce qu'un autre replica revienne online.
J'aurais tendance à penser que, dans ce ca
On 10/10/2017 10:34 PM, fr...@jack.fr.eu.org wrote:
> Si tu as 3 disques dur, et 2 SSD, un size = 3 et min_size = 2, et une
> map cohérente, l'écriture va se faire sur les 2 SSD et sur un disque dur
On peut en effet cibler les OSDs (les disques) pour un pool donné avec
la CRUSH map, ça on est d'a
Hello,
>>> Pas vraiment, je pense plutôt à min_size pour l'écriture, et affinity
>>> pour la lecture
>>
>> Ok pour la priority affinity par rapport à la lecture uniquement en
>> effet.
>>
>> Mais par contre je suis pas d'accord pour le min_size qui, pour ce
>> que j'ai compris de Ceph, n'a pas de r
Oui
Si tu as 3 disques dur, et 2 SSD, un size = 3 et min_size = 2, et une
map cohérente, l'écriture va se faire sur les 2 SSD et sur un disque dur
Lorsque deux écritures seront validés, l'IO sera valider
Une timeline:
t: début de l'IO
t + 1: écriture sous-jacente sur SSD1, SSD2 et HDD1
t + 2: SSD
Hello,
> Est-ce que vous vous êtes penché du coté de la déduplication? Je sais que ZFS
> le
> fait, Windows Server également. Mais coté constructeur je ne sais pas s'il
> existe des solutions. Sont-elles fiables? Qu'en est-il des performances?
Netapp et Isilon le fait... Après les perfs elles s
Est-ce que vous vous êtes penché du coté de la déduplication? Je sais que
ZFS le fait, Windows Server également. Mais coté constructeur je ne sais
pas s'il existe des solutions. Sont-elles fiables? Qu'en est-il des
performances?
___
Liste de diffusion du
On 10/10/2017 11:28 AM, fr...@jack.fr.eu.org wrote:
> Pas vraiment, je pense plutôt à min_size pour l'écriture, et affinity
> pour la lecture
Ok pour la priority affinity par rapport à la lecture uniquement en
effet.
Mais par contre je suis pas d'accord pour le min_size qui, pour ce
que j'ai com
Très vaste sujet que le stockage de nos jours.
Un des vrais points de départ qu'il faut trancher c'est a t'on besoin
d'un accès type fs, ou un accès type s3/objet suffit.
Cela oriente réellement le choix, sachant que de nos jours "l'interface"
s3 est le nouveau standard de facto.
Quelques
Bonjour,
Slack ?
Cdt,
Le 10 oct. 2017 14:44, "Fabrice Vincent" a écrit :
> Bonjour,
> Le 10/10/2017 à 11:35, Cyril Lavier a écrit :
>
> Salut.
>
> J'me demande si un outil comme iTop ne pourrait pas faire l'affaire.
>
> Il ,e semble aussi:
> iTop te permet de documenter tes "Configuration Item
Bonjour,
> Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
> apollo, Mars200 ?
Home made, déploiement avec ceph-ansible sur commodity hardware (18 nodes, 180
OSDs et 36 SSDs pour les journaux)
je fais principalement du S3 mais j'ai un peu de rbd, et je teste cephfs s
Hello,
On 10 Oct 2017 16:29, "professor geek" wrote:
Bonjour,
Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
apollo, Mars200 ?
Ici on a deux clusters Ceph 'homemade' avec du R730 et 96 OSD mécaniques
sur chaque cluster, journaux SSD.
Sent from my phone
__
Bonjour,
Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP
apollo, Mars200 ?
Merci,
On 10 October 2017 at 16:00:42, Armanet Stephane (arman...@ill.fr) wrote:
Bonjour a tous
Nous utilisons beaucoup ZFS sur notre infra de stockage dans divers mode
(block -> Zvol +FC ou
Bonjour a tous
Nous utilisons beaucoup ZFS sur notre infra de stockage dans divers mode
(block -> Zvol +FC ou iscsi) ou filesystem.
Notre base est un/des serveur Dell R720 et baie de stockage Dell MD1200
ou MD3060e en jbod le tout sous solaris
Notre plus grosse machine heberge environ 500TB
Bonjour,
Pour parler purement matériel, on commence à voir apparaitre des baies ou
serveurs (nas) 4 ou 5U où tu stockes ~90 disques (ex : baie Dell Md1280 à 84
disques sur 5U, Supermicro et chassis serveur 90 disques, serveurs ou baies
zstor...). Avant, on était plutôt sur du 60 disques (b
Bonjour,
A job-1, sur des volumétrie inférieures, on était parti sur des NAS
Synology.
Avec les options cache rw SSD ou full SSD, le iSCSI Target, la HA, etc.
on obtiens des fonctionnalité assez proches des baies de stockage de
grand constructeurs pour une fractions du cout !
D'autant plus qu'
Je ne sais pas si ça répond au besoin ou aux performances demandées par Bruno
mais je n'ai jamais eu à me plaindre de FreeNAS.
Il me semble qu'il y a de nombreuses archis déployées de plusieurs dizaines de
TB utilisant FreeNAS et des baies HBA/JBOD.
Je vais peut-être me faire atomiser, mais on m
Salut.
Vu que tout le monde parle de CEPH, GlusterFS et autres joyeuseries, je pars
sur un autre axe.
Ayant bossé sur du HP pendant assez longtemps pour savoir qu'au niveau
stockage, leur rapport qualité/prix n'est pas le meilleur existant (sauf si les
disques sont en or massif livrés dans u
Bonjour,
Le 10/10/2017 à 11:35, Cyril Lavier a écrit :
Salut.
J'me demande si un outil comme iTop ne pourrait pas faire l'affaire.
Il ,e semble aussi:
iTop te permet de documenter tes "Configuration Items" (Serveurs, VM,
OS, Logiciels, routeurs, etc.) et leurs attributs (constructeur,
garanti
On Tue, Oct 10, 2017 at 11:30:29AM +0200, Jonathan Leroy wrote:
> Le 10 octobre 2017 à 11:26, Michael FROMENT
> a écrit :
> > je pense que racktables doit repondre a ton besoin.
>
> J'ai regardé rapidement, mais ça m'a l'air plus orienté réseau que système.
> Et je ne vois pas de notion de client
Salut.
J'me demande si un outil comme iTop ne pourrait pas faire l'affaire.
Par contre, il est très costaud et tu ne te lances pas dedans en 30 secondes.
Merci.
- Original Message -
From: "Jonathan Leroy"
To: "Michael FROMENT" , "French SysAdmin Group"
Sent: Tuesday, 10 October, 2017
Le 10 octobre 2017 à 11:26, Michael FROMENT
a écrit :
> je pense que racktables doit repondre a ton besoin.
J'ai regardé rapidement, mais ça m'a l'air plus orienté réseau que système.
Et je ne vois pas de notion de client.
--
Jonathan Leroy.
___
Liste
On 10/10/2017 11:09, Francois Lafont wrote:
> Bonjour,
>
> On 10/10/2017 10:37 AM, fr...@jack.fr.eu.org wrote:
>
>> Ceph te permet également de faire des choses très charmante, telle
>> qu'une redondance inter-dc sans coût (au niveau latence etc), permettant
>> l'implémentation d'un PRA facilemen
Bonjour à tous,
Comme beaucoup ici je pense, j'administre des serveurs pour le compte
de mes clients.
Je suis à la recherche d'un outil qui permette de gérer les
interventions effectués sur ces serveurs, mais qui soit orienté
infogérance.
Exemple : une faille d'OpenSSL est publiée, je dois donc m
Bonjour,
On 10/10/2017 10:37 AM, fr...@jack.fr.eu.org wrote:
> Ceph te permet également de faire des choses très charmante, telle
> qu'une redondance inter-dc sans coût (au niveau latence etc), permettant
> l'implémentation d'un PRA facilement
Tu penses à la fonctionnalité ajoutée « récemment »
Oui, le NFS est vraiment une solution "bancale" (c'est du NFS hein ...)
: c'est probablement fonctionnel, mais vraiment dédié aux gens qui sont
"bloqués" sur le NFS (pour des raisons d'OS propriétaire, de connecteur
hardware ou que sais-je)
Si tu as le choix, n'utilise pas NFS :)
Par rapport à Ce
Bonjour,
> Alors, personnellement, je dirais Ceph parce que c'est quand même le plus
> polyvalent et avec la nouvelle release de Red Hat Storage, on aura le
> nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains
> dessus.
Sans forcément attendre la release de RedHat, on peut
Bonjour à tous,
Mon entreprise souhaite bénéficier rapidement d'une solution
d'hébergement web pour tous ses actions extérieures (sites divers, API
publique, etc). Nous aimerions mettre en oeuvre une infra résiliente
basée sur des solutions libres. Ayant assez peu de temps, nous
cherchons un prest
Bonjour tout le monde,
Alors, personnellement, je dirais Ceph parce que c'est quand même le plus
polyvalent et avec la nouvelle release de Red Hat Storage, on aura le nfs et
bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains dessus.
Sinon, en vendor dans l'ère du temps, je partir
29 matches
Mail list logo