Bonjour Pierre,
Ton client n'utiliserait-il pas une Unifi Security Gateway par hasard ?? 😌
[image: image.png]
Le mer. 24 juil. 2019 à 15:51, Radu-Adrian Feurdean <
fr...@radu-adrian.feurdean.net> a écrit :
>
>
> On Wed, Jul 24, 2019, at 00:24, Pierre Colombier wrote:
>
> > Ensuite il se trouv
Michel Py (michel) writes:
> > Quentin Leconte a écrit :
> > Je laisse Guillaume te répondre, il sera plus à même de te donner des
> > détails, il était en première ligne.
> > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> > en prod. ;)
>
> Je lirai avec intérêt la
> Quentin Leconte a écrit :
> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> en prod. ;)
Je lirai avec intérêt la suite. J'étais justement en train de reg
Je laisse Guillaume te répondre, il sera plus à même de te donner des détails,
il était en première ligne.
Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To en
prod. ;)
> Le 24 juil. 2019 à 22:14, Kevin Decherf a écrit :
>
> Hello,
>
>> On Wed, Jul 24, 2019 at 06:57
Hello,
On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> Salut !
>
> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
>
> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
> avec pertes des données, c'est déjà arrivé. #vécu
Je sui
Au prix du SSD, je te conseille du full SSD. Je viens de monter un cluster
de 5 machine (AMD epyc 16/32, 128go RAM extensible a 512) avec 4ssd 2to et
un nvme pour le système/log, par machine. Le tout en sfp+ 10g dédié pour la
synchro et le wan.
Ça dépote !
Olivier
Le mer. 24 juil. 2019 à 19:13,
Hello,
Je te conseil d'ajouter des nodes, mais avec un certain nombre de disque, si tu
peux avoir un cluster homogène c'est encore mieux.
Genre si tu peux coupler le SSD avec le HD c'est mieux. SSD pour les logs, car
ça gratte à mort, et HD pour de la donnée brute.
L'idéal c'est de faire du 2x24
Salut !
Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
avec pertes des données, c'est déjà arrivé. #vécu
Bon courage !
Le 24/07/2019 18:49, « David Ponzone » a écrit :
Et côté équilibre en
Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un
Oui et c'est même conseiller. Dans les deux cas :)
Kevin LABECOT
Responsable Infrastructure
Service Informatique
Le 24 juil. 2019 à 18:29 +0200, David Ponzone , a
écrit :
> Utilisateurs/Maitres de Ceph,
>
> 2 petites questions avant que je commence à jouer:
> -dans un cluster Proxmox/Ceph, on
Utilisateurs/Maitres de Ceph,
2 petites questions avant que je commence à jouer:
-dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès à
Internet, et un second port pour uniquement les échanges de Ceph, ou c’est tout
sur le même ?
-si on peut séparer, je suppose qu’il est quas
On Wed, Jul 24, 2019, at 00:24, Pierre Colombier wrote:
> Ensuite il se trouve qu'en théorie, je ne vends pas plus de 100M mais
> qu'en pratique je ne bride pas et même si ce n'est pas dans le contrat,
> je le dis et c'est un argument. => là c'est abuser de ma gentillesse
> donc ça me gonfle
Merci pour les retours.
Je pense bien que le CCR1009-7G-1C-1S+ va correspondre à ce que je cherche. Je
vais lui faire une place dans une de nos baies 🙂
Pour l'IPv6 j'ai tourné un peu en rond sur les CPE Mikrotik, donc je n’oublie
pas d'activer le package IPv6.
Je pense que cela sera la même cho
13 matches
Mail list logo