Re: [FRsAG] Problème SPF orange.fr
Le 04/04/2016 15:04, Samuel a écrit : > Bonjour la liste ! > > J'ai une petite question concernant l'enregistrement SPF d'Orange : > > J'ai eu quelques clients qui ont eu des mails bloqués par notre module > SPF/anti-spams. A chaque fois, les mails venaient d'expéditeurs en > "@orange.fr", et provenaient bien des serveurs SMTP d'Orange. > > Exemple (logs) : > Received-SPF: fail (orange.fr: 80.12.242.XXX has been checked); > identity=mfrom; envelope-from="x...@orange.fr"; > helo=smtp.smtpout.orange.fr; client-ip=80.12.242.XXX > > L'exemple ci-dessus a été bloqué le 21 mars. > > Pourtant le domaine "orange.fr" n'as pas d'enregistrement SPF (ou en > tout cas, plus maintenant)... > > Suis-je le seul à avoir constaté ce genre de problème ? Le 21 mars dans la matinée on a eu le même problème : policyd-spf: Fail; identity=mailfrom; client-ip=80.12.242.xxx; helo=smtp.smtpout.orange.fr; envelope-from=x...@orange.fr; receiver=xxx uniquement avec les emails venant d'Orange, c'est revenu au bout de quelques heures. -- == | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] Filtrage mail free
Le 07/06/2016 à 19:21, Alexandre a écrit : > Bonjour à tous, > > je me permets de vous solliciter car il y a des choses que je ne > comprends dans le filtrage des mails chez free. Bonjour, Tu peux avoir des infos sur le traitement des mails par Free à cette adresse : http://postmaster.free.fr Il y a aussi un paragraphe sur comment les contacter. -- == | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] Manque des modules dans mon initrd après upgrade
Le 16/08/2016 à 16:56, Julien Escario a écrit : > Bonjour, > Une debian me fait un truc assez bizarre : je suis en train de la monter > gentillement de 7 vers 8. > On profite de l'été pour faire ça vu que le serveur est un peu touchy. > > Et là, au moment de monter le kernel en 3.16, l'initrd ne me contient plus les > modules virtio_pci (pour le disque) et ext3 (pour le fs). > Bref, je suis tombé sur une belle console busybox et démerde toi. Le module ext4 prends maintenant en charge les systèmes de fichier ext2, ext3 et ext4. Les anciens modules ont été supprimés au profit d'ext4 dont le code est plus propre. > J'ai fini par réussir à remettre les modules dans les initrd en les rajoutant > dans /etc/initramfs-tools/modules et en les chargeant à la main dans le > busybox. > > Mais c'est moche et mon serveur ne boote toujours pas tout seul proprement. > > Je n'arrive pas bien à comprendre ce qui conditionne les modules ajoutés dans > l'initrd et ce qu'il charge automatiquement pour la détection du hardware. > > Pourtant j'ai bien : > # cat /etc/initramfs-tools/initramfs.conf |grep MODULES > # MODULES: [ most | netboot | dep | list ] > MODULES=most > > Donc normalement, tout ce qui touche au drivers hardware est mis non ? > > Je pensais que les modules chargés au moment de faire mon dpkg-reconfigure > linux-image-3.16.0-4-686-pae seraient automatiquement chargés mais à priori, > non. Tu as la commande update-initramfs -u -k all ou -k le_nom_de_ton_image pour reconstruire l'initrd. Tu as aussi la commande lsinitramfs pour voir le contenu de ton initrd. L'année dernière lors de migration j'ai eu des problèmes de construction d'initrd à cause des paquets firmware. Je les ai supprimé et reconstruit l'initrd. -- == | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] ISCSI vs NFS
Le 26/06/2017 à 08:43, Laurent Cligny a écrit : > > Le 25/06/2017 à 14:44, Raphael Mazelier a écrit : >> Si tu arrives à me sortir le FS magique distribué, auto-scalable qui >> fait la même chose j’achète. Mais à part si j'ai loupé un truc, cela >> n'existe pas. >> Tout les tricks qui présentent du S3 en FS peuvent aider en transition. >> > Sur une infra Ceph, CephFS semble se rapprocher pas mal de ça il me > semble. A voir, je n'utilise que le stockage bloc pour ma part. > > http://docs.ceph.com/docs/master/cephfs/ Est-ce que quelqu'un a déjà testé ou utiliser en prod Sheepdog ? https://github.com/sheepdog/sheepdog http://sheepdog.github.io/sheepdog/ C'est sensé être un système distribué, auto-scalable pour les VM QEMU. -- == | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] Test disques SAS
Le 23/11/2020 à 19:03, Wallace a écrit : Bonsoir, J'ai eu besoin de tester des disques SAS qui ont été stockés et pas utilisé pendant plusieurs mois. J'ai procédé en faisant des tests dans un serveur Dell disponible mais ce n'est pas pratique il faut dévisser et revisser dans le caddie le disque à tester, la carte raid hurle dessus, obligé de faire un raid0 d'un disque pour tester, vraiment pas pratique. Je regardais s'il n'existait pas un dock USB ou un banc de test pour disque SAS et à ma grande surprise il n'y a qu'un modèle capable de faire cela, un dock usb3 https://www.ebay.fr/itm/SAS-Drive-to-USB-3-0-Adapter-Converter-Cable-Universal-Reader-Writer-SSD-CXRT-US/193633529269?_trkparms=aid%3D1110006%26algo%3DHOMESPLICE.SIM%26ao%3D1%26asc%3D20160323102634%26meid%3D41ee8358f1444cc8848ca4fd1068eb30%26pid%3D100623%26rk%3D1%26rkt%3D5%26sd%3D153335645041%26itm%3D193633529269%26pmt%3D0%26noa%3D1%26pg%3D2047675%26algv%3DDefaultOrganic&_trksid=p2047675.c100623.m-1 mais à un prix de 500€ je suis tombé de haut. Du coup je regarde à dédié un vieux pc et lui mettre une carte SAS d'occasion ou même neuf c'est moins cher. Et vous comment vous testez vos disques SAS quand ils sont pas dans un serveur? J'utilise une baie sans caddie de ce type : https://www.amazon.fr/dp/B00GXYKFVG/ref=cm_sw_em_r_mt_dp_kQ.UFb06KNXFA -- ====== | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] alternative à phpMyAdmin ?
Le 07/10/2021 à 18:50, Wallace a écrit : Mets PMA à jour tu verras que ça a bien évolué, nos clients adorent. Et i y a plein de thème s'il faut un look and feel moderne. Sinon MySQL Workbench ça fait le taf. Dommage qu'il n'y ait pas pareil pour PostgreSQL en libre, clairement les clients ne veulent pas s'embêter pour si peu. Pour PostGreSQL, il y a phpPgAdmin : https://github.com/phppgadmin/phppgadmin -- == | FRÉDÉRIC MASSOT | | http://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du FRsAG http://www.frsag.org/
[FRsAG] Re: perte raid 10 après reboot
Le 29/08/2024 à 12:28, p2s...@gmail.com a écrit : Bonjour, Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d] J'ai semble-t-il perdu mon raid après un reboot. # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: # mdadm --detail --scan ne retourne rien # mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory # mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file. # cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 + by mkconf Qu'est ce que j'ai loupé ? La configuration de ton RAID n'a pas été enregistrée, dans le fichier "/etc/mdadm/mdadm.conf", tu devrais avoir une ligne : ARRAY /dev/md/0 metadata=1.2 UUID=... Utilises les options --query et/ou --examine sur tes disques pour voir si les superbloc ont bien été enregistrés. Dans ce cas tu pourras récupérer ton RAID. Par avance merci de votre aide. Etienne ___ Liste de diffusion du %(real_name)s http://www.frsag.org/ -- ====== | FRÉDÉRIC MASSOT | |https://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du %(real_name)s http://www.frsag.org/
[FRsAG] Re: perte raid 10 après reboot
Le 29/08/2024 à 12:28, p2s...@gmail.com a écrit : Bonjour, Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d] Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque. J'ai semble-t-il perdu mon raid après un reboot. # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: # mdadm --detail --scan ne retourne rien # mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory # mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file. # cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 + by mkconf Qu'est ce que j'ai loupé ? Par avance merci de votre aide. Etienne ___ Liste de diffusion du %(real_name)s http://www.frsag.org/ -- == | FRÉDÉRIC MASSOT | |https://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du %(real_name)s http://www.frsag.org/
[FRsAG] Re: perte raid 10 après reboot
Le 29/08/2024 à 14:32, Kevin Decherf a écrit : Hello, On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote: Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque. Tu peux développer ? Quand on change un disque, ce n'est pas nécessairement par le même modèle, ni par la même marque. La taille ne sera pas exactement la même. Avec une partition, tu définie explicitement la taille du nouvel élément que tu vas ajouter. La partition ajoutée aura la même taille que les autres de la grappe RAID. Avec les SSD, la partition permet de faire de l'overprovisioning. Il y a un fil de discussion assez ancien qui parle de certain problème d'utiliser un disque entier, dont des cartes mères qui font sauter les superbloc s'il n'y a pas de partition : https://unix.stackexchange.com/questions/320103/whats-the-difference-between-creating-mdadm-array-using-partitions-or-the-whole -- == | FRÉDÉRIC MASSOT | |https://www.juliana-multimedia.com | | mailto:frede...@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===Debian=GNU/Linux=== ___ Liste de diffusion du %(real_name)s http://www.frsag.org/