Bonjour, je vous tiens au courant des différents tests que j'ai fait :
Config d'origine : Debian 10, Carte réseau E1000, 16 vCPU, pas d'IRQBalance : en pleine charge, load 15min à 5 en moyenne avec des pics à 8 à 5min. - Carte réseau E1000 avec Pining des 8 premiers CPU sur l'hôte : en pleine charge, load 15min à 4,5 avec des pics à 8 à 5min. (peu de changement) - Passage du kernel 4.19 à 5.10 => peu de changement remarqué mais je l'ai laissé - Passage de E1000 à VMXNET3 sans pining CPU : en pleine charge, load 15min à 2,5-3, pas de gros pics (on bénéficie du multiqueue 8 queues pour chaque carte VMXNET3 !) - VMXNET3 sans pining CPU avec CPU affinity de chacune des IRQ des 8 queues des 2 cartes réseaux sur chacun des 16 CPU : en pleine charge, load 15min à 2-2,5, pas de gros pics Configuration finale : - Debian 10 avec noyau 5.10 - 2 cartes VMXNET3 - 16 vCPU - Pining de 8 CPU physiques sur 8 CPU virtuels (les 8 autres virtuels ne bénéficient pas de pining car ça commence à faire beaucoup de CPU reservés sur l'hôte..!) - CPU affinity des IRQ des 8 queues de chaque carte VMXNET3 ens sur les 8 CPU virtuels avec Pining (donc chaque CPU virtuel (ou physique) accueille 2 IRQ des queues rxtx VMXNET3) Résultat : en pleine charge, load 15min à 1,5 environ, pas de gros pics Je suis assez content du résultat! La config idéale je pense serai d'avoir 16 CPU physiques en pining => 16 CPU virtuels correspondants et de faire l'affinité des IRQ des 8 queues x 2 cartes VMXNET3 sur les 16 CPU. Si jamais dans quelques mois ou années, la charge ne tient pas, je ferai ça : (A noter que j'ai été obligé de faire un script de CPU affinity au boot pour que les IRQ ens*-rxtx ne se recouvrent sur un même CPU pas car en fait, il y'a les IRQ ens*-event qui décalent la répartition) # cat /proc/interrupts | grep ens 65: 36603230 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 9961472-edge ens224-rxtx-0 66: 0 38123550 0 0 1 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 9961473-edge ens224-rxtx-1 67: 0 0 10871871 0 0 1 0 0 0 0 0 0 0 0 0 0 PCI-MSI 9961474-edge ens224-rxtx-2 68: 0 0 0 10148151 0 0 2 0 0 0 0 0 0 0 0 0 PCI-MSI 9961475-edge ens224-rxtx-3 69: 0 0 0 0 24397483 0 0 1 0 0 0 0 0 0 0 0 PCI-MSI 9961476-edge ens224-rxtx-4 70: 0 0 0 0 0 23471080 0 0 1 0 0 0 0 0 0 0 PCI-MSI 9961477-edge ens224-rxtx-5 71: 0 0 0 0 0 0 25145320 0 0 1 0 0 0 0 0 0 PCI-MSI 9961478-edge ens224-rxtx-6 72: 0 0 0 0 0 0 0 22992945 0 0 1 0 0 0 0 0 PCI-MSI 9961479-edge ens224-rxtx-7 73: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 9961480-edge ens224-event-8 74: 0 0 0 0 0 0 0 0 10838656 0 0 0 2 0 0 0 PCI-MSI 14155776-edge ens256-rxtx-0 75: 0 0 0 0 0 0 0 0 0 10384015 0 0 0 1 0 0 PCI-MSI 14155777-edge ens256-rxtx-1 76: 0 0 0 0 0 0 0 0 0 0 16895371 0 0 0 1 0 PCI-MSI 14155778-edge ens256-rxtx-2 77: 0 0 0 0 0 0 0 0 0 0 0 10538689 0 0 0 2 PCI-MSI 14155779-edge ens256-rxtx-3 78: 2 0 0 0 0 0 0 0 0 0 0 0 10074542 0 0 0 PCI-MSI 14155780-edge ens256-rxtx-4 79: 0 1 0 0 0 0 0 0 0 0 0 0 0 40401515 0 0 PCI-MSI 14155781-edge ens256-rxtx-5 80: 0 0 1 0 0 0 0 0 0 0 0 0 0 0 27866098 0 PCI-MSI 14155782-edge ens256-rxtx-6 81: 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 42105767 PCI-MSI 14155783-edge ens256-rxtx-7 82: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI 14155784-edge ens256-event-8 Il fallait donc bien distribuer les soft-IRQ sur tous les CPU comme vous me l'aviez dit ! (je confondais IRQBalance et CPU affinity des IRQ. Je n'avais pas compris non plus que VMXNET3 est multiqueue depuis très longtemps sur le guest alors que E1000 est mono-queue donc 1 CPU pour l'IRQ E1000...). Je ne sais pas si le noyau 5.10 apporte quelque chose.. Merci à tous, Fabien Le ven. 10 sept. 2021 à 20:30, Fabien H <frnog.fab...@gmail.com> a écrit : > Bonsoir Gurvan, > Merci > oui la réponse de Rémy m'a mis sur la piste, je vais désactiver tout ce > que je peux désactiver et je testerai sur un samedi ou dimanche.. J'essaye > de tenir au courant la liste dès qu'il y'a du nouveau.. > > > Le ven. 10 sept. 2021 à 19:38, Inulogic - Gurvan Rottier-Ripoche < > inulo...@gmail.com> a écrit : > >> Hello, >> >> J'avais bench debian sur du web dans les 600/700mbits en désactivant >> toutes les mitig/microcode (et en m'arrêtant au patch vmware juste >> avant l'intégration), il y avait une sacrée différence avec un truc >> tout à jour. >> Il est fort possible que le load bouge pas mal à cause des différentes >> mitigations, à tester avec spectre-meltdown-checker. >> Il faut désactiver via le grub et aussi vérifier la version de l'esxi. >> GRUB_CMDLINE_LINUX_DEFAULT="quiet noibrs noibpb nopti nospectre_v2 >> nospectre_v1 l1tf=off nospec_store_bypass_disable no_stf_barrier >> mds=off tsx=on tsx_async_abort=off mitigations=off" >> (Il y a des doublons je crois mais je me souviens jamais lesquels). >> >> >> Gurvan. >> >> Le ven. 10 sept. 2021 à 16:44, Fabien H <frnog.fab...@gmail.com> a écrit >> : >> > >> > Bonjour Remi, >> > Intéressant mitigations=off je vais essayer >> > Merci >> > >> > Le ven. 10 sept. 2021 à 16:36, Rémy Duchet <r...@duchet.eu> a écrit : >> >> >> >> Bonjour, >> >> >> >> >> >> >> >> Pour chaque nouvel ajout (hardware / Guest / etc ) on fait des tests >> de perfs. Ça aide à voir les perfs des OS et parfois les perfs hard réel. >> >> >> >> J’ai aussi expérimenté mitigations=off sur /boot/grub/grub.cfg sur >> une config de routage (VyOS) qui ramait en perf UDP.. >> >> >> >> >> >> >> >> Rémy >> >> >> >> >> >> >> >> From: FRsAG <frsag-boun...@frsag.org> On Behalf Of Fabien H >> >> Sent: Friday, 10 September 2021 16:15 >> >> To: frsag <frsag@frsag.org> >> >> Subject: Re: [FRsAG] VMWARE / Debian 10 / Problème interruptions sur >> cartes réseau >> >> >> >> >> >> >> >> Bonjour Frederic, >> >> >> >> >> >> >> >> les nouvelles VM sont sur le même vSwitch que les anciennes sur le >> même cluster d'hôtes qui sont sensiblement identiques.. Tests croisés faits >> déjà.. >> >> >> >> >> >> >> >> Le ven. 10 sept. 2021 à 16:05, Frederic Hermann <fhe-fr...@neptune.fr> >> a écrit : >> >> >> >> Citation maison : >> >> >> >> >> >> >> >> "90% des problèmes réseaux sont des problèmes de cablage. " >> >> >> >> " ... le reste, c'est des problèmes de MTU" >> >> >> >> >> >> >> >> Il faudrait vérifier s'il n'y a pas une rupture de MTU quelque part. >> >> >> >> La charge CPU pourrait être lié a de la fragmentation : est-ce qu'un >> ping -M do 1472 <ip de la VM> passe sans problème ? >> >> >> >> >> >> >> >> >> >> >> >> >> >> >> >> ________________________________ >> >> >> >> De: "Fabien H" <frnog.fab...@gmail.com> >> >> À: "frsag" <frsag@frsag.org> >> >> Envoyé: Vendredi 10 Septembre 2021 14:01:35 >> >> Objet: Re: [FRsAG] VMWARE / Debian 10 / Problème interruptions >> sur cartes réseau >> >> >> >> Bonjour Nicolas, >> >> >> >> >> >> >> >> c'est de la Voip.. Non justement ce qui diffère entre les 2 : l'OS >> debian est différent, et l'applicatif est différent également (sauf de 2 >> versions). Remettre le noyau de la debian 8 sur la debian 10 ? intéressant >> :-) >> >> >> >> >> >> >> >> On est loin des 1 Gbps ! Par contre on a pas mal de petits paquets car >> c'est de la VOIP >> >> >> >> >> >> >> >> >> > >> > _______________________________________________ >> > Liste de diffusion du FRsAG >> > http://www.frsag.org/ >> _______________________________________________ >> Liste de diffusion du FRsAG >> http://www.frsag.org/ >> >
_______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/