Le 12 janvier 2013 10:24, Nolwenn <donolw...@gmail.com> a écrit : > Le vendredi 11 janvier 2013 23:42:27 Philippe Verdy a écrit : >> Non je suis en train de naviguer sur une machine toute neuve, 30 To en RAID >> 5, système sur 2 SSD 256 Go, Windows 7, j'ai juste installé Chrome avec unows >> des pilotes fournis (dont celui de la carte audio proposé par Microsoft > > Pourquoi ne pas installer la version de Chrome depuis le site de l'éditeur > enla tienne > vérifiant la somme de contrôle. Ta version, dont l'origine est surprenante, > est > possiblement foireuse.
C'est la version officielle de Chrome actuelle, elle n'a rien de surprenant ! Et en tout cas pas foireuse du tout ! 24.0.1312.52 m (c'est bien une version pour Windows 7). Chromium est lui aussi en version 24.0.1312.52 (dans ses deux versions "stable" et "beta", sinon 25.0.1364.29 en version "dev", cf. http://www.chromium.org/developers/calendar) A mon avis c'est ta version qui n'est pas à jour ! La mise à jour se fait automatiquement oui, mais pas en permanence, regarde le menu "A propos de Google Chrome" pour voir si TA version est à jour ou pas. > H. S. : Pour ton système, je te conseille de bruler de nombreux cierges pour > qu'un des disques de ta grappe ne tombe pas en rade car le temps de > reconstruction risque d'être interminable avec en plus un risque de panne d'un > autre disque lors de celle-ci. Pffff... La construction totale du RAID n'a pris que 3 heures en tout (ce n'était pas "interminable"), et la grappe était utilisable moins de 10 minutes après le début de l'opération (c'est un RAID5 matériel, pas logiciel). C'est une grappe à 2 x 5 disques (en fait du RAID 5 + 0, équivalente à deux grappes RAID5 montées en parallèle en stripes). Sinon les 2 SSD sont montés en RAID aussi (avec redondance). Le backup système après install a pu se faire en moins de 10 minutes alors que le RAID n'était pas encore fini (le contrôleur RAID sait travailler en parallèle et gérer les priorités pour répondre aux premières requêtes d'écriture n'importe où avant même d'avoir fini le reste : c'est pendant les 10 premières minutes qu'il prépare une série de secteurs pour mémoriser où il en est dans sa (re)construction. J'ai aussi testé la reconstruction en débranchant un des disques à chaud (juste après l'installation de l'OS et la génération de son premier backup image système + fichiers) alors même que la construction initiale n'était pas finie. Aucun problème, toutes les données déjà écrites ont été gardées, le système ne s'est même pas bloqué et n'a pas planté, et quand j'ai rebranché le disque une heure après (le temps de naviguer sur Internet), la reconstruction a pris et 20 minutes après était vérifiée et complète. Le principal risque est plutôt sur les processeurs et la RAM (je suis en train de le tester surtout pour tester ses caches L1 à L3, car pour la RAM elle est déjà testée aussi, en pleine charge sur les 2 CPU x 8 cores x 2 threads à 100% le processeur monte à 48 degrés environ et se stabilise, mais en utilisation normale avec tous les states idle activés, il ne dépasse pas les 36 degrés). Sur les PC actuels les principales pannes ne sont d'ailleurs pas sur la RAM mais sur les caches internes des processeurs, sur les disques durs au niveau de leurs contrôleurs, sur les alims sous-dimensionnées et sur les systèmes de refroidissement "passifs" (souvent mal montés et qui ne tiennent pas la route, particulièrement sur les PC portables même des marques réputées). Ainsi que sur les SSD de certaines marques (très instables par exemple chez Samsung, tous ceux que je connais qui ont acheté chez Samsung ont eu des pannes rapidement alors qu'ils sont sensés être garantis "à vie" par Samsung: leur problème est dans le firmware pour le contrôle d'erreur et dans leur bitmap d'association qui n'a pas de système de correction, chez Samsung seule la partie stockage a de la redondance, pas la table d'association). J'ai pris des SSD Intel (un peu plus chers) qui ont des algos plus performants dans leur firmware et qui inclue le même niveau de redondance sur la partie stockage et sur la table d'association et les secteurs de correction (un SSD Intel est déjà en interne un système RAID à lui tout seul). Chez de nombreux constructeurs de SSD "bon marchés" la taille annoncée est la taille totale des mémoires flash, mais on doit retirer la taille des secteurs de la table d'association et il n'y a pas (ou trop peu) de RAM cache pour optimiser et répartir les accès entre les circuits (de fait leur MTBF est largement surestimé, et il n'y a pourtant pas de redondance et de correction d'errreur sur la table d'association). Chez Intel la capacité réelle utilisable est bien celle annoncée. La RAM sinon est de la DDR3 Corsair supportant les profils "XTREM" à 1,6GHz mais là je la laisse à 1 GHz (en profil standard, aucun overclock non plus sur les CPUs, je ne veux pas griller prématurément les caches), les barrettes sont toutes montées chacune dans leur radiateur, ce n'est pas de la RAM nue). Le boitier inclut 8 ventilos larges ultrasilencieux, et des capteurs de température et une régulation active. Il y a des heatpipes partout (CPU, north bridge, contrôleur RAID, et même sur un radiateur supplémentaire monté à cheval au dessus des barettes mémoire. Du côté alim elle est largement surdimensionnée. Les disques sont aussi tous ventilés, et chacun montée dans une baie tiroir avec son propre radiateur et un ventilo au dessus de chaque, plus un radiateur arrière connecté en contact avec un autre heatpipe vers un plus gros radiateur près de la face avant. Devant cette face il y a là encore 3 larges ventilos silencieux. Et j'ai ajouté des filtres à poussière facilement démontables et nettoyables. La carte graphique est elle aussi surventilée (en config standard il n'y a qu'un ventilo sur une face et un petit heatpipe, mais là c'est remplacé par deux heatpipes de chaque côté, qui conduisent sur la face arrière vers deux autres radiateurs extérieurs avec encore un petit ventiopl sur chacun. En conso totale, la gestion d'alim est bien faite (4 fois 8 phases, chacune régulée de façon autonome). J'ai pris un modèle avec des condos japonais de bonne qualité, pas les condos classiques chinois qui lâchent et fuient presque tous en moins de 2 ans. La carte mère est aussi gravée en cuivre 2 onces (pas la gravure fine classique) recouverte d'or sur les conducteurs de puissance vers le CPU, les bridges et les contrôleurs RAID. Et je n'ai pas payé le tout une fortune pourtant (moins de 2000 euros l'ensemble, tour, alim, cartes, RAM et processeur inclus, mais hors l'écran et le clavier/souris sans fil, sur lesquels je n'accorde pas beaucoup d'importance). Je finis les tests pour voir si je reste en 2 grappes RAID 5 parallèles ou si je passe en RAID 6 (avec un disque supplémentaire de redondance en perdant un peu de capacité totale). Sinon j'ai encore des contrôleurs SATA2 et SATA3 dispo pour ajouter des disques (et le controleur RAID sait aussi migrer les données d'une grappe, sans reformater le tout, pour ajouter un disque de redondance, même à chaud ,mais je ne prendrai pas le risque d'essayer, j'utiliserai un backup réseau vers une autre grappe RAID que j'ai à dispo). Je me suis posé la question sur le fait d'utilise Windows ou Linux comme hôte de l'hyperviseur (le but est en fait d'y monter des machines virtuelles sous plusieurs OS). En ce moment, je fais des tests de performance sur un guest OS Windows et un autre en Linux, mais je n'ai pas encore décidé quel OS garder en en hôte ni quel hyperviseur utiliser (si j'utilise Windows Serveur 2008 R2 ou une install Linux ou un autre hyperviseur sous Windows, je me méfie beaucoup des pilotes Microsoft, notamment de son "ntfs.sys" qui a des bogues sérieux connus sur les grandes capacités de volumes de plus de 3 To notamment sur les opérations de backup et ses images shadow VSS : ces pilotes ont des problèmes de timing interdépendants et supportent assez mal la régulation active de vitesse des processeurs et certains états d'alimentation nécessaires à la gestion efficace de l'énergie et la température). J'aurais pu prendre une config plus classique sous forme de baies serveur mais là il y avait des questions de coût, et il m'aurait fallu en plus une armoire. Ce n'est pas pour une installation dans une colocation, et là ça doit encore tenir sous le bureau. A côté de ça j'ai encore d'autres solutions de backup, mais le but n'est pas non plus de monter un serveur pour beaucoup de monde. Ce sont des trucs persos (que je tiens à garder longtemps), et des données d'évaluation et de développement (le plus gros des données mais la durée de conservation de ces données est de moins d'un an, souvent pas plus de quelques semaines, essentiellement sur des VM que je veux ajouter ou retirer et facilement pouvoir réinstaller en peu de temps par une simple copie de fichier VHD pour chaque guest). Il n'y aura pas de serveur permanent dessus (et assez souvent aussi la machine sera éteinte si je n'en ai pas besoin, car j'utilise beaucoup plus souvent mon portable qui pourra s'y connecter et y faire de l'archivage à la demande). Pour certains travaux (rien à voir avec OSM) j'ai besoin de beaucoup de place et je voulais un système performant pour ne pas perdre autant de temps que jusqu'à présent pour les installations d'OS ou pour repartitionner les disques (d'où le choix de passer à un hyperviseur avec des VM à la demande). Je veux aussi m'en servir pour dépanner rapidement des PC individuels ou tablettes classiques (backups rapides de leurs données, réinstallation rapide de leur OS à partir d'une image VM déjà prête et à jour, il me fallait pour ça un hyperviseur assez polyvalent, et je pense rester sur Oracle VBox tout simple à utiliser, et plus rapide à paramétrer qu'une VM sous Windows Server : les questions de performance brute de l'OS ne m'intéressent pas beaucoup, je ne me lance pas dans l'overclocking juste pour battre des records de FPS sous un jeux de combat en cramant le PC en moins de 2 semaines). _______________________________________________ Talk-fr mailing list Talk-fr@openstreetmap.org http://lists.openstreetmap.org/listinfo/talk-fr