'Phil Regnauld'; frnog-tech
Objet : RE: [FRnOG] [TECH] Questions sur Proxmox/Ceph
> Phil Regnauld a écrit :
> Si c'est pour faire du vmware, regarder du côté de
> http://www.petasan.org/,qui est
> une distro de CEPH orientée iSCSI et plus simple à déployer qu'un C
On Thu, Jul 25, 2019 at 3:26 PM David Ponzone
wrote:
>
> > Le 25 juil. 2019 à 12:15, BASSAGET Cédric
> a écrit :
> >
> > Intéressé par le retour sur ce crash aussi.
> > On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de
> 7To
> > par serveur + 1 SSD pour les journaux) et rése
> Phil Regnauld a écrit :
> Si c'est pour faire du vmware, regarder du côté de
> http://www.petasan.org/,qui est
> une distro de CEPH orientée iSCSI et plus simple à déployer qu'un CEPH
> traditionnel.
Justement j'avais demandé un retour d'expérience il y a quelque temps, des
preneurs ?
Michel
Ce n'est pas une idée de fou, c'est une idée de pauvre (dans le sens :
très petite infrastructure)
Si tu as même une volumétrie moyenne (suffisament de storage device pour
nécessiter plusieurs VM), et plus de 2 hyperviseurs, tu as tout intérêt
à avoir du matériel dédié
On 7/25/19 3:24 PM, David
Bonjour,
$client-1 on avait plusieurs cluster proxmox hyperconvergés (ceph + kvm
sur les mêmes hôtes).
4x1G pour les VM, 2x10G pour le CEPH. Max : 16 SSD par nodes.
$client a deux cluster proxmox hyperconvergés. (en plus, sur du 1G, mais
peu de VM).
Dans les deux cas ça fait le job.
chez $
> Le 25 juil. 2019 à 12:15, BASSAGET Cédric a
> écrit :
>
> Intéressé par le retour sur ce crash aussi.
> On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
> par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
> proxmox.
> Jusque là jamais eu de pro
Hello,
Ça remonte à quelques années, nous n'étions pas encore en indépendant et
travaillions avec OVH.
Tout fonctionnait bien, en effet, jusqu'au jour à la connectivité réseau liée à
CEPH à lâchée sur l'ensemble des nodes ( une quizaine ) pendant près de 10
heures.
Toutes les machines ont vu le
Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
de node a la bourrin ( vi
Michel Py (michel) writes:
> > Quentin Leconte a écrit :
> > Je laisse Guillaume te répondre, il sera plus à même de te donner des
> > détails, il était en première ligne.
> > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> > en prod. ;)
>
> Je lirai avec intérêt la
> Quentin Leconte a écrit :
> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> en prod. ;)
Je lirai avec intérêt la suite. J'étais justement en train de reg
Je laisse Guillaume te répondre, il sera plus à même de te donner des détails,
il était en première ligne.
Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To en
prod. ;)
> Le 24 juil. 2019 à 22:14, Kevin Decherf a écrit :
>
> Hello,
>
>> On Wed, Jul 24, 2019 at 06:57
Hello,
On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> Salut !
>
> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
>
> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
> avec pertes des données, c'est déjà arrivé. #vécu
Je sui
Au prix du SSD, je te conseille du full SSD. Je viens de monter un cluster
de 5 machine (AMD epyc 16/32, 128go RAM extensible a 512) avec 4ssd 2to et
un nvme pour le système/log, par machine. Le tout en sfp+ 10g dédié pour la
synchro et le wan.
Ça dépote !
Olivier
Le mer. 24 juil. 2019 à 19:13,
Hello,
Je te conseil d'ajouter des nodes, mais avec un certain nombre de disque, si tu
peux avoir un cluster homogène c'est encore mieux.
Genre si tu peux coupler le SSD avec le HD c'est mieux. SSD pour les logs, car
ça gratte à mort, et HD pour de la donnée brute.
L'idéal c'est de faire du 2x24
Salut !
Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
avec pertes des données, c'est déjà arrivé. #vécu
Bon courage !
Le 24/07/2019 18:49, « David Ponzone » a écrit :
Et côté équilibre en
Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un
Oui et c'est même conseiller. Dans les deux cas :)
Kevin LABECOT
Responsable Infrastructure
Service Informatique
Le 24 juil. 2019 à 18:29 +0200, David Ponzone , a
écrit :
> Utilisateurs/Maitres de Ceph,
>
> 2 petites questions avant que je commence à jouer:
> -dans un cluster Proxmox/Ceph, on
Utilisateurs/Maitres de Ceph,
2 petites questions avant que je commence à jouer:
-dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès à
Internet, et un second port pour uniquement les échanges de Ceph, ou c’est tout
sur le même ?
-si on peut séparer, je suppose qu’il est quas
18 matches
Mail list logo