Benutzer bugsymelone hat viele Adress-Daten produziert

(Diese Nachricht habe ich schon an Oli-Wan geschrieben und auch schon eine Antwort von ihm erhalten.)

Schaut Euch bitte mal kurz das hier an. Ich habe versucht ein paar Datensätze von Hand zu korrigieren, bis ich den letzten entdeckt habe: http://www.openstreetmap.org/user/bugsymelone/edits

Und zwar den hier: Mittwoch, 18. September 2013, 14:51 Uhr (Testdatensatz Kunden mit Fahrzeug GPS Verknüpft), dieser enthält 11000 Datensätze!

Leider alle in dieser fehlerhaften Form

:postcode 12345
:street Straßestr. 12

eingestellt.

Es müsste aber

addr:postcode 12345
addr:street Straßestraße
addr:housenumber 12

heißen.

Oli-Wans Bot könnte das reparieren.

Die Frage ist aber: Woher kommen die Daten? Muss wohl ein Import sein, wohl kaum alle von Hand eingetragen.

Kennt jemand den Benutzer? Habe ihn natürlich gleich angeschrieben, aber keine Antwort erhalten.

Das klingt so als ob die Daten von dem Unternehmen sein könnten welches für Polen gespendet hat. Weißt du mehr darüber Marek?

Beziehst Du Dich hierauf? http://forum.openstreetmap.org/viewtopic.php?pid=359492#p359492
Da geht es um GPS-Spuren, nicht um Adressen. Ich weiß auch nicht, ob die Kunden irgendeiner Firma glücklich darüber wären, wenn ihre bzw. von ihnen eingegebene/angesteuerte Adressen in einer Datenbank (OSM) landen (so lese ich den Änderungssatzkommentar “Testdatensatz Kunden mit Fahrzeug GPS Verknüpft”). Im Profil des Users stehen (nur) die zwei Worte “Telematik Erprobung”.

Davon abgesehen wurden hier offensichtlich die Regeln für Importe verletzt (denn so ein Murks hätte keiner Diskussion standgehalten). Vielleicht auch wieder jemand, der nicht kapiert hat, daß er die Datenbank und nicht eine private Kopie bearbeitet? Warten wir ab, ob wicking eine Antwort erhält.

Ich hab mal 3-4 Nodes geprüft. Die sehen von der Lage her ganz gut aus. Konnte man sehen, wenn man diese mit den Hausnummern der Umgebung verglich.

WENN die Daten sauber (legal) wären UND der Import geklärt wäre UND das Tagging ok wäre UND Dubletten vermieden würden, DANN wäre es wohl eine Bereicherung für OSM. Allein 11600 Adressen in Berlin, das hätte schon was!
Warten wir mal ab.

Gruss
walter

Meine Vermutung: Irgend ein Zusteller, der bis zur Haustür liefert.

Um das mal zusammenzufassen:

Im obigen Beispiel ist die Lagegenauigkeit nicht so prickelnd (vermutlich GPS-Position wörtlich genommen), und ein Duplikat ist es auch noch.

Wie viele mögen wohl nach Duplikatbereinigung übrig bleiben? Und was nützen dann eine oder zwei Hausnummern pro Straße?

naja, die, die ich überprüft hatte um mal einen Eindruck zu bekommen, lagen gut und waren keine Dubletten.
Was machen wir jetzt mit dem Schrott? Gleich raus, damit der “Kollege” aufwacht? Ihn das durch einen eventuellen Update fixen zu lassen, wird wohl noch mehr Schrott erzeugen.

Gruss
walter

p.s ich mach das gerne, aber ein Revert von der DWG gibt der Sache wohl einen seriöseren Anstrich.

Ich würde es drin lassen. Die Infos sind doch wertvoll und werden sicherlich durch andere Mapper nach und nach in die richtige Form gebracht.

nee, schrott ist schrott und es ist viel zu viel ungeklärt. Hast du überhaupt mal reingeblickt? Da ist alles falsch, was nur falsch sein kann.

Gruss
walter

Bei der Menge an Daten muss geklärt werden, was die Quelle ist.

Wie informiert ist die DWG schon? Nur über hier oder auch per Mail?

Für die Geocodierung der Adressen wurde Google Geocoding API verwendet. Ich habe mir ein paar Adressen herausgesucht und die Abweichung incl. systematischer Fehler (Punkt im Nachbarhaus, Punkt außerhalb des Hausumringes) beträgt jewils weniger als 10 cm.

Ich schreibe gleich eine Mail an Frederik.

Nachtrag: Es kam gerade die Rückmeldung. Der Fall wird von der DWG bearbeitet und die Adressen demnächst gelöscht.

Der OSM-Benutzer, der die Daten eingetragen hat, hat sich gemeldet.

Also bitte löschen.

Werde ihn gleich auf dieses Forum verweisen.

PS: Dass die Daten mit Googles Daten übereinstimmen, ist natürlich sehr seltsam. Ich meine wegen „gesammelte GPS-Daten“ aus dem Zitat.

ein Fehler? :roll_eyes: Löschung läuft, ausgenommen bereits weiter bearbeitete Objekte.

… ist durch, und die 19 zwischenzeitlich bearbeiteten Knoten gleich hinterher. wicking hatte bei einigen die Tags korrigiert, ansonsten waren Tags wie note=obsolet dazugekommen, oder die Frage als FIXME, was der Knoten soll. An der Quellenproblematik ändert sich durch solche Bearbeitungen natürlich nichts, daher sind auch diese Knoten nun weg.

Danke Oli-Wan.