Le 19/10/2012 02:29, Wallace a écrit :
> Ce soir j'ai procédé au déplacement des vms sur un autre noeud avec
> les ip alias, tout marche. Par contre le noeud qui pose souci, j'ai
> validé la configuration hyperviseur identique, réseau pareil, après un
> reboot (dans le doute je me suis dit que le s
Le 19/10/2012 02:03, Cyril Bouthors a écrit :
> On 18 Oct 2012, wall...@morkitu.org wrote:
>
>> Depuis, un certains nombre de client sur Freebox n'arrivent plus à
>> joindre les ip flottantes présentes sur les serveurs. Mais phénomène
>> étrange d'autres depuis le réseau Freebox y arrivent comme to
Le 18/10/2012 23:34, Bégault Luc a écrit :Bonsoir,
> es-tu certain que ces ips privées sont bien celles de ton client ? Il
> parrait étrange qu'il ait changé de /24 en 32 secondes.
Il y a plusieurs ip flottantes et les services vont du mail au web, si
je fais le calcul depuis lundi soir j'ai plusie
On 18 Oct 2012, wall...@morkitu.org wrote:
> Depuis, un certains nombre de client sur Freebox n'arrivent plus à
> joindre les ip flottantes présentes sur les serveurs. Mais phénomène
> étrange d'autres depuis le réseau Freebox y arrivent comme tout le reste
> d'internet.
>
> J'ai bien sur tenté, d
On 18/10/2012 18:32, Wallace wrote:
Bonjour,
../..
Étonné de voir des ip privées arriver sur les interfaces publiques des
serveurs, je me suis rendu compte que les ip privées étaient en fait les
ip privées présentes sur ces différents postes informatiques, comme si
le nat sortant de la Freebox
On Thu, 18 Oct 2012 20:51:42 +0200
Greg wrote:
>
> A interpréter !
>
> # sur CephFS :
> perceval-01:/var/local/data# dd if=/dev/zero of=t count=1024000
> 1024000+0 records in
> 1024000+0 records out
> 524288000 bytes (524 MB) copied, 1.62767 s, 322 MB/s
> perceval-01:/var/local/data# dd if=/dev
> > qu'avec un stop propre.
>
> cool :) Et ça se remonte tout seul ?
>
tant qu'il y a au moins 2 mon et 1 ods et 1 mds, oui, c'est transparent ;)
>
> > > - des tests de perfs ?
> >
> > non, je n'ai pas eu le temps et ce n'est pas un besoin primordiale pour
> > l'utilisation que je vais en faire
Bonsoir,
Le 18 octobre 2012 18:19, Méhdi Denou a écrit :
> Ne pas oublier LUSTRE dans le lot.
>
> Il est utilisé dans pas mal de clusters HPC et est connu pour ses débits
> élevés (plusieurs centaines de Go/s sur de gros clusters).
> L'idée de lustre est de découper les fichiers et de les répar
Bonjour,
Lundi soir nos serveurs ont été redémarré sauvagement pour raison
indéterminée. Si vous avez été concerné, je veux bien votre retour.
Depuis, un certains nombre de client sur Freebox n'arrivent plus à
joindre les ip flottantes présentes sur les serveurs. Mais phénomène
étrange d'autres d
Ne pas oublier LUSTRE dans le lot.
Il est utilisé dans pas mal de clusters HPC et est connu pour ses débits
élevés (plusieurs centaines de Go/s sur de gros clusters).
L'idée de lustre est de découper les fichiers et de les répartir (un raid 0
via le réseau en gros).
Un serveur gère les métadonnée
> >> http://www.duchatelet.net/blog/?post/2012/09/21/Ceph-et-CephFS
> > tu as fait :
> > - planter des mds/ods (pas juste un stop propre) ?
>
> oui avec des reboot électrique par PDU notamment : même comportement
> qu'avec un stop propre.
cool :) Et ça se remonte tout seul ?
> > - des tests d
Le 18/10/2012 16:55, Maxence Dunnewind a écrit :
> Yop,
>
>> http://www.duchatelet.net/blog/?post/2012/09/21/Ceph-et-CephFS
> tu as fait :
> - planter des mds/ods (pas juste un stop propre) ?
oui avec des reboot électrique par PDU notamment : même comportement
qu'avec un stop propre.
> - des te
Yop,
> http://www.duchatelet.net/blog/?post/2012/09/21/Ceph-et-CephFS
tu as fait :
- planter des mds/ods (pas juste un stop propre) ?
- des tests de perfs ?
ça m'intéresserait ;)
--
Maxence DUNNEWIND
Contact : maxe...@dunnewind.net
Site : http://www.dunnewind.net
+ 33 6 32 39 39 93
GPG : 18A
On 18/10/2012 16:40, Gregory Duchatelet wrote:
Le 18/10/2012 16:33, Olivier Bonvalet a écrit :
On 18/10/2012 16:23, Jonathan SCHNEIDER wrote:
Au niveau de cette infra, c'est du full debian : il y a 3 serveurs
physiques pour l'applicatif qui sont des conteneurs de VZ (les VZ
contiennent soit un
Le 18/10/2012 16:33, Olivier Bonvalet a écrit :
> On 18/10/2012 16:23, Jonathan SCHNEIDER wrote:
>> Au niveau de cette infra, c'est du full debian : il y a 3 serveurs
>> physiques pour l'applicatif qui sont des conteneurs de VZ (les VZ
>> contiennent soit un serveur nginx/PHP soit un MySQL) et 2 se
Le 18/10/2012 14:05, Jonathan SCHNEIDER a écrit :
> Salut la liste,
>
>
> J'aurai besoin de vos lumières pour mettre en place un volume de 12To
> sur un système de fichier distribué, pour augmenter les temps de
> réponse et la disponibilité des fichiers. Il s'agit de fichiers pesant
> entre 10kio e
On 18/10/2012 16:23, Jonathan SCHNEIDER wrote:
Au niveau de cette infra, c'est du full debian : il y a 3 serveurs
physiques pour l'applicatif qui sont des conteneurs de VZ (les VZ
contiennent soit un serveur nginx/PHP soit un MySQL) et 2 serveurs NFS
en synchro drbd. Les serveurs hébergent des mé
Au niveau de cette infra, c'est du full debian : il y a 3 serveurs
physiques pour l'applicatif qui sont des conteneurs de VZ (les VZ
contiennent soit un serveur nginx/PHP soit un MySQL) et 2 serveurs NFS
en synchro drbd. Les serveurs hébergent des médiathèques qui sont par
définition pompeuses
Une autre piste moins bonne que celles données ici c'est pNFS qui une
extension de NFS...
Sinon je pense que tu peux regarder le doc ici :
http://fr.slideshare.net/schubertzhang/distributed-filesystems-review
Cordialement,
JYL
___
Liste de diffusi
Tu peux regarder du coté de tahoe lafs.
Julien.
___
Liste de diffusion du FRsAG
http://www.frsag.org/
Le Thu, 18 Oct 2012 15:23:28 +0200,
Pour ma part, j'ai eu la même problématique et j'ai testé de manière
assez approfondie MooseFS et GlusterFS (dans la version sortie il y a
quelques mois).
Je trouve MooseFS particulièrement intéressant, l'ajout de disque ou de
serveur se fait très simplement. P
On Thu, Oct 18 2012, Jonathan SCHNEIDER wrote:
> J'aurai besoin de vos lumières pour mettre en place un volume de 12To sur un
> système de fichier distribué, pour augmenter les temps de réponse et la
> disponibilité des fichiers. Il s'agit de fichiers pesant entre 10kio et
> 30Gio, pour un volume
Le 18 oct. 2012 à 15:11, "Pierre Chapuis" a écrit :
> J'ai vu passer GlusterFS, Ceph et MooseFS. Je n'ai de vraie expérience de
> prod avec aucun et je n'ai juste jamais testé Moose et Ceph, mais en gros
> :
>
> - Moose ressemble pas mal à GFS donc *s'il marche bien* ça devrait être un
> bon ch
Tiens, d'ailleurs ça me rappelait quelque chose...
http://comments.gmane.org/gmane.org.user-groups.frsag/2106
--
Pierre 'catwell' Chapuis
___
Liste de diffusion du FRsAG
http://www.frsag.org/
J'ai vu passer GlusterFS, Ceph et MooseFS. Je n'ai de vraie expérience de
prod avec aucun et je n'ai juste jamais testé Moose et Ceph, mais en gros
:
- Moose ressemble pas mal à GFS donc *s'il marche bien* ça devrait être un
bon choix (encore une fois, jamais testé). Il est censé être fiable et
sc
Le 18/10/2012 14:51, Méhdi Denou a écrit :
> Bonjour,
>
> Il faudrait plus d'info sur les débits et la latence que tu souhaites
> atteindre, le matériel (réseau et stockage) dispo, etc...
>
> Sinon LUSTRE peut faire l'affaire.
Je rajoute aussi un autre critère, veux tu y accéder par un filesystem
Le 18 octobre 2012 14:05, Jonathan SCHNEIDER a écrit :
> Salut la liste,
>
>
> J'aurai besoin de vos lumières pour mettre en place un volume de 12To sur
> un système de fichier distribué, pour augmenter les temps de réponse et la
> disponibilité des fichiers. Il s'agit de fichiers pesant entre 10
Salut la liste,
J'aurai besoin de vos lumières pour mettre en place un volume de 12To
sur un système de fichier distribué, pour augmenter les temps de réponse
et la disponibilité des fichiers. Il s'agit de fichiers pesant entre
10kio et 30Gio, pour un volume total actuel de 6.5Tio.
Est ce q
28 matches
Mail list logo