Hello,
>> Il y a déjà un ou deux fils sur le sujet sur FRnog.
>> A voir pour synthétiser cette liste si ça intéresse du monde.
>>
>> La réponse globale, : "Faut trouver un assureur que tu connais et qui
>> est capable de se bouger les fesses."
>>
>> De mon coté je suis chez Generali, la seule ass
Hello,
>> On 31/01/2013 13:26, [WHD-RS] Benjamin SCHILZ wrote:
>>>
>>> On rentre dans un nouveau DC prochainement (Equinix pour ne pas le
>>> citer), et une clause du contrat demande une assurance pour les
>>> dommages pouvant être causés da
Bonjour à tous,
On rentre dans un nouveau DC prochainement (Equinix pour ne pas le citer),
et une clause du contrat demande une assurance pour les dommages pouvant
être causés dans le DC. Cest un montant assez important.
Notre assureur actuel bloque sur les garanties et clauses demandées.
>> Allez, câdo, drop in /etc/network/if-up.d et chmod +x, et ifdown/ifup
Merci ;)
___
Liste de diffusion du FRsAG
http://www.frsag.org/
>> Problème que j'ai aussi pu rencontrer de mon coté (même sur des kernels 3.2
>> de squeeze-backports, que je recommande en passant par rapport à un kernel
>> 2.6.32 pour des machines à forte charge réseau ou avec matériel récent)
Effectivement monter en version sur le kernel serait intéressant.
>> C'est lié au nombre de coeurs et à l'architecture physique de la carte mère.
>> J'ai constaté qu'au delà de 4 coeurs, les interruptions sont wirées sur un
>> coeur et plus distribuées (pour les fans, lire ce qui concerne l'io-apic
>> dans le noyau)
Effectivement, sur une machine 2 cœurs c'est
>>APIC est configuré de la même façon ?
>>Cela peut-être très BIOS spécifique...
Effectivement j'avais pas pensé à ça. Faut que je teste ça cette nuit en KVM ;)
___
Liste de diffusion du FRsAG
http://www.frsag.org/
Salut Florian,
>> Est-ce la même distribution entre les 2 serveurs (Debian 6.0.6) ?
Oui exactement la même avec le même kernel.
___
Liste de diffusion du FRsAG
http://www.frsag.org/
Bonjour à tous,
Je m’interroge sur la distribution des I/O réseaux sur un serveur Linux
(Debian 6.0.6 ; 2.6.32-5-amd64) :
#cat /proc/interrupts
CPU0 CPU1 CPU2 CPU3 CPU4 CPU5
CPU6 CPU7
[..]
29: 3083577549 0 0 0 0
Salut,
> As-tu essayé la solution Memcached ?
Je suis entrain de tester memcached/repcached et effectivement la réplication
croisée est pas mal du tout. D'autant que la partie cliente dans PHP semble
très fiable.
Je continue mes tests ;)
A+
___
Lis
Bonjour,
J’ai testé la solution et ce n’est pas très concluant ;)
Côté REDIS Server :
- La réplication est effectivement très simple à mettre en place
(master/slave), par contre en cas de panne du master passer le slave en master
puis gérer la remise en ligne de l’ancien master n’est pas éviden
> mais c'est deja une surcouche!:p
C'est pas faux ;)
> Tu devrais aussi tester Redis qui inclut du master/slaves.
Effectivement ça semble pas mal du tout, d'autant plus que c'est un projet
plutôt actif.
Je vais tester également.
___
Liste de diffusion
> Personnellement : tous nos clusters fonctionnent à base de Memcache avec
> Repcached pour répliquer les données, si y a un soucis, bascule sur
> l'autre Memcache qui est en passif.
Je vais faire un test de cette solution, le mécanisme failover de repcached
a l'air très efficace et ça évite la
> Salut Benjamin,
Salut
Je répond aux autres remarques en même temps ça évitera de vous spammer ;)
Pour redéfinir un peu le contexte on ne maitrise pas du tout les applicatifs
déployés, ça va du PHP maison au gros framework en passant par les CMS ...
Les sessions sont relativement critiques et je
>j'ai créé un billet concernant Sharedance, après avoir testé plusieurs
solutions :
>http://www.duchatelet.net/blog/?post/2008/06/19/Session-PHP%3A-Le-choix
>ou je le test avec du trafic de prod et des sessions de 1.2Mo au lieu des
3ko habituels.
Javais déjà consulté, très instructif dailleurs.
Bonjour à tous,
Je suis entrain de revoir le partage de sessions sur un cluster web
Debian/Apache/PHP qui actuellement fonctionne de la façon suivante :
Filer1 (master) : « Tmpfs de 2 Go » > NFS (vip) > Nodes
(Keepalived)
Filer2 (slave) : « Tmpfs de 2 Go » > NFS (vip) > Nodes
Suite à
16 matches
Mail list logo