Ciao Giacomo
capisco l’idea e ho visto anch’io esempi di queste tecniche di “data
poisoning” pensate per confondere gli scraper che ignorano robots.txt.
Ho però qualche dubbio che un approccio del genere sia compatibile con
un progetto come OpenStreetMap.
Il valore principale di OSM è proprio l’affidabilità dei dati e l’idea
di servire intenzionalmente informazioni false, anche solo a una parte
delle richieste, rischierebbe di creare effetti collaterali difficili
da controllare (cache, mirror, downstream users, ecc.).
Inoltre - come già detto - OSM offre già meccanismi pensati per usi
intensivi (planet dump e replication diff), quindi il problema non è
tanto l’accesso ai dati quanto l’uso scorretto dei servizi live.
Per questo tenderei a vedere con più favore soluzioni che lavorino su
accesso, incentivi e buone pratiche piuttosto che sull’alterazione dei
dati.

-- 
--
Le informazioni contenute nella presente comunicazione sono di natura 
privata e come tali sono da considerarsi riservate ed indirizzate 
esclusivamente ai destinatari indicati e per le finalità strettamente 
legate al relativo contenuto. Se avete ricevuto questo messaggio per 
errore, vi preghiamo di eliminarlo e di inviare una comunicazione 
all’indirizzo e-mail del mittente.

--
The information transmitted is 
intended only for the person or entity to which it is addressed and may 
contain confidential and/or privileged material. If you received this in 
error, please contact the sender and delete the material.

Reply via email to