Bonsoir,

Pieren a écrit :
> Il me demandait si la grande quantité de données et leur mauvaise
> qualité ne nuisait pas au final au projet et ne rebutait pas de
> nouveaux contributeurs potentiels comme lui l'a été sur cette commune.
> Qu'en pensez-vous ? Que peut-on faire pour réduire cette mauvaise
> impression ?

Pour ce qui est de la quantité de données, ce n'est pas vraiment un
problème en tant que tel. Sur ma machine, JOSM commence à ramer lorsque
je dépasse les 40 à 50 000 points selon le nombre d'objets associés
à ces points, ce qui représente un joli quartier en ville. Certes, au
fur et à mesure que l'information se densifie, les zones éditables se
réduisent mais cela me semble inévitable et je ne vais pas me plaindre
de la densification de l'information tant que celle-ci reste pertinente.

Par contre, il m'arrive de travailler de manière « thématique » : je me
concentre sur les bâtiments ou sur les routes ou sur l'occupation des
sols. À chaque fois, je télécharge une foule de données qui ne
m'intéressent pas, que je n'ai pas l'intention de modifier sur l'instant
mais qui alourdissent considérablement les traitements (à commencer par
l'affichage). Que la densité d'information limite ma capacité d'édition
d'un quartier à un quart de kilomètre carré, ce n'est pas un problème
lorsque je travaille sur le bâti. Par contre, c'est un vrai problème si
je travaille sur l'occupation des sols, surtout lorsque je tombe sur un
méga-polygone dont l'aire représente des dizaines, voire des centaines
de kilomètres carrés...

Si je prends un peu de recul, je constate que le problème vient du fait
que je manipule pêle-mêle des objets géographiques qui ne sont
absolument pas de même nature et, surtout, pas du même ordre de
grandeur : un point remarquable, un bâtiment, une rue, une forêt et un
département ne couvrent pas du tout la même surface. Mais pour faire
simple, tous les objets d'un même type sont du même ordre de grandeur et
sont décrits par des données de densité équivalente. Si je pouvais
choisir de ne télécharger que le bâti, que les axes routiers, que les
polygones d'occupation du sol, je pourrais éditer une zone dont la
surface est compatible avec la taille de l'objet manipulé et je pense
que la plupart de mes problèmes seraient résolus. Je considère donc
qu'il y a un travail à faire sur l'API OSM qui devrait permettre la
sélection des données téléchargées par mon application. Sans cette
sélection, la manipulation de certaines données (notamment les polygone
d'occupation du sol) devient un vrai calvaire et j'ai jeté l'éponge plus
d'une fois.

Mais pour en revenir à la qualité des données, les problèmes sont à mes
yeux très différents selon que l'on parle du cadastre ou des polygones
issus de CLC.

* Cadastre

  Du point de vue de l'occupation réelle des sols, la description des
  cours d'eau fournie par le cadastre est des plus farfelues (mais je
  suppose que cette description répond à des critères précis pour le
  cadastre). J'ai donc tendance à ne jamais traiter les extractions
  décrivant les cours d'eau et je n'hésite pas à effacer l'existant
  quand je constate qu'il ne cadre pas du tout avec la réalité.

  Concernant le bâti comme les cours d'eau, j'ai plus d'une fois pesté
  ici et ailleurs contre les contributeurs qui ne veulent faire que du
  chiffre et ne prennent même la peine ni de fusionner leur import avec
  l'existant ni de recaler les routes (sans parler de nettoyer et de
  simplifier les données avant injection). J'essaie de temps à autres de
  faire preuve de pédagogie mais, en réalité, je ne sais comment
  remédier à cette ridicule course à l'échalote. Les propositions
  séduisantes de Guilhem Bonnefille me semblent difficiles à mettre en
  pratique. Ne nous reste que l'espoir d'outils capables de détecter
  toujours plus d'anomalies et d'attirer notre attention sur les zones
  calamiteuses afin que les contributeurs de bonne volonté remédient aux
  problèmes les plus grossiers qui desservent OSM et discréditent notre
  travail.

* CLC

  Je ne suis pas choqué par l'imprécision native des polygones issus de
  CLC. D'une part, sauf erreur de ma part, ces polygones résultent du
  traitement d'images radar dont la résolution est de l'ordre de
  plusieurs dizaines de mètres. D'autre part, l'occupation du sol est
  parfois très mouvante, notamment à proximité de villes, et les données
  de CLC ont déjà 5 ans.

  Ce qui me chagrine par contre ce sont les méga-polygones dont le
  contour est décrit par plusieurs milliers de points et qui comportent
  parfois des dizaines de trous. Je trouve ces polygones très difficiles
  à éditer, surtout lorsqu'il s'agit de les scinder en plusieurs
  polygones parce que la continuité annoncée n'existe pas. J'aimerais
  les voir fractionnés en polygones plus petits. Cela n'alourdirait pas
  beaucoup la base et tout le monde y gagnerait. Je pense qu'une
  personne sachant adresser ce type de problème pourrait nous faire un
  outil des plus utiles.

Sébastien


-- 
Sébastien Dinot, sebastien.di...@free.fr
http://sebastien.dinot.free.fr/
Ne goûtez pas au logiciel libre, vous ne pourriez plus vous en passer !

_______________________________________________
Talk-fr mailing list
Talk-fr@openstreetmap.org
http://lists.openstreetmap.org/listinfo/talk-fr

Répondre à