On mercredi 3 octobre 2012, Christian Quest wrote: > Je préfère une source claire à l'aide de tags sur les objets, plutôt > que sur les changeset car l'accès est immédiat.
Je suis de cet avis dans l'état actuel des éditeurs et exports de la base, toutefois, mon avis changerais si les informations du changeset (tags, dont source=* et comment=*) étaient accessible de manière plus simple à l'utilisateur. Il avait été évoqué que, si les tags de tous les changesets, par ordre chronologiques, ayant changé un objet apparaissaient de manière clair dans les éditeurs, genre juste à coté des tags propres à l'objet, Et que des exports disons "étendus" entre les full historique et les "juste maintenant" pouvaient exister, fournissant cette information accompagnant les données. Et qu'un format "simili osm" puise exister dans lequel on puisse indiquer des tags aux changesets de sorte qu'ils ne soient pas oubliés (comme on le fait dans les fichiers bâtis et le tag source redondant) Alors oui, là, le changeset serait le bon endroit, tant en terme de place que de logique pour mettre les infos de sources tout en étant pas une contrainte de plus. Mais pour l'heure, je suis contre. > Le principe de l'id pour raccourcir la valeur est intéressant mais je > pense qu'on devrait plutôt mieux gérer le stockage des tags/valeur > dans les différentes bases de données et formats de fichiers (je pense > par exemple aux formats .o5m/.o5c qui sont une forme binaire des > formats .osm/osc qui gère très bien la redondance d'info mais > malheureusement peu utilisé bien qu'aussi compact que le pbf et plus > simple à manipuler). +1 On ne devrait pas perturber la ressource la plus importante (les contributeurs) pour résoudre un problème qui peut l'être de manière technique et complètement transparente pour l'utilisateur. <techos avis="le mien"> L'argument de la taille, récurent est à mon avis un argument de mauvaise foi, ou, tout du moins, majoritairement de mauvaise foi. Je n'ai pas fait de tests, mais les exports en .osm.bz2 dispose d'un algo de compression (bz2) qui sait réduire la taille d'une redondance, idem pour le reste. Donc le dowload "plus long" n'est à mon avis que minime. En ce qui concerne les bases type osm2pgsql, la place sur disque est sans objet car le tag source est exclue dans la majorité des cas. Seul cette histoire de passage en id 64bit au lieu de 32bit est vrai, mais les conjectures données disent que à 18mois prêt, il aurait de toute façon fallu y passer. Il reste donc le temps de traitement du xml qui peut, peut-être prendre quelques % de plus, mais comme ce traitement n'est lui même que 10% du total, c'est à mon avis peanuts au final. Pour ce qui est du reste, on parle, pour le planète, de taille de l'ordre de 300Go sur disque, et de temps d'import de dizaines d'heures sur de gros serveur. Quand on se prépare à faire ça, les à 3Go pour le cadastre, c'est de la nioniotte et il faudra de toute façon des gros disques et des gros serveur. Celui qui veut vraiment optimiser la taille, pourra toujours factoriser les tags (id relationnel) et puisqu'il le fera, il économisera autant sur les 40 Millions de fois ou les mots "residential", "unclassified", "service", "track" et "footway", ... apparaissent dans la base que pour le source cadastre </techos> -- sly qui suis-je : http://sly.letuffe.org email perso : sylvain chez letuffe un point org _______________________________________________ Talk-fr mailing list Talk-fr@openstreetmap.org http://lists.openstreetmap.org/listinfo/talk-fr