Wall·E räumt auf: Leerraum in Tags und Rollen

Moins,

damit sich jeder ohne Aufwand ein eigenes Bild machen kann, hab ich die Objekte mit unnormalisierten Blanks in Tags bereitgestellt, rund 1.2 Millionen Einträge (~90Mb) als Bzip2 (gut 6Mb) und als Gzip (knapp 8Mb).

Die meisten Mehrfachblanks sind wohl zufällig entstanden; sie werden aber auch benutzt zum Formatieren (from/to bei Bus-Relation) oder als Ersatz für “;” bei einem automatischen Import. Die sinnvollen(?) wird man kaum von den sinnfreien automatisiert unterscheiden können. Ein Normalisieren “\s+”→“\040” wird also Mitarbeiter verärgern.

Irgendwas ist ja immer. :confused:

Gruß Wolf

Finde ich löblich, dass du dich nur um problematische Dinge kümmern willst und es sollte natürlich immer darauf geachtet werden, dass es möglichst nicht zu Fehlkorrekturen kommt. Wenn allerdings, wie in diesem Fall, keine Fehlkorrekturen zu erwarten sind, sondern die zusätzlichen Korrekturen bestenfalls überflüssig, aber trotzdem an sich richtig sind, würde ich mir hier an deiner Stelle nicht den zusätzlichen Aufwand machen. Ein zusätzliches Argument hätte ich noch: Wenn du eine Liste von Festwert-Tags führst, wird diese nur die häufigsten solchen Tags beinhalten. Die sind natürlich am problematischsten, aber sie dürften auch am ehesten auffallen. Seltene Tags mit versehentlichem Whitespace findet dagegen möglicherweise nie jemand manuell, also wäre gerade hier ein Bot hilfreich. Alternativ könnte man natürlich eine Liste von Freitext-Tags führen, aber das scheint mir auch nicht wesentlich sinnvoller.

Btw.: Hast du eigentlich vor, das hier auch bei Gelegenheit zu übernehmen? Ich denke, praktisch alle dieser Korrekturen sind gerechtfertigt und waren ja bei Xybot schon soweit anerkannt und betreffen sehr häufige Fehler. Wenn es wirklich einzelne fragwürdige Verbesserungen gibt, dann muss man die ja nicht übernehmen, aber der größte Teil wäre es denke ich wert.

Hi,

Eventuell habe ich den Aspekt in diesem Faden übersehen, aber was ist mit solchen Tags:

In OSMI findet man sie sehr einfach. Gibt es für diese Art von Tags Regeln, vor allem beüglich der Leerzeichen?

Grüsse

mdk

Danke, die Liste ist in der Tat aufschlußreich. Ich habe es zwar erst einmal nur auf Deutschland abgesehen, aber man kann ja auch mal etwas über den Horizont gucken.

Leerraum mittendrin kommt z.B. aus Importen wie diesem: da ist aber nicht nur der Leerraum falsch, sondern auch die GROSSBUCHSTABEN.
Manchmal ist er vermutlich sogar beabsichtigt - zwei Leerzeichen nach einem Punkt als Satztrenner, etwa hier in einer note. Hier kommt mir addr:street auch ohne die Leerzeichen mittendrin spanisch vor. Auch dieser Import läßt eine Vorverarbeitung (hier von name:ko_rm) vermissen, der hier analog (name sowie naptan:CommonName). Und auch die Kann-Weg-Importeure mögen Leerzeichen (zufällig ausgewähltes Beispiel), ebenso die Freunde von Cadastre (source-Tag “… mise à jour : 2010”). Beim Tiger-Import sind Leerzeichen wie hier in name ohnehin das kleinste Problem. Und bei einem Weg aus diesem schnuckeligen Import sind ebenfalls weniger die Leerzeichen in “massgis:COMMENTS”=“BARNSTABLE-ID# 1000028” (Ausgabe mit fester Breite) störend als generell die Schwemme überflüssiger Tags.

Und so weiter, die manuell verbauten mehrfachen Leerzeichen fallen weltweit gegenüber denen aus Importen kaum ins Gewicht.

Der Findvej-Adressimport hat wohl auch einige leere addr:housename generiert, aber besonders hübsch finde ich die Formatierung von - per se schon völlig überflüssigen - Gleitkommazahlen in diesem Import, die u.a. auch führenden Leerraum generiert hat.

Ein Glück, daß bei OSM keine Goldene Himbeere als Publikumspreis für den am meisten vermurksten Import vergeben wird - ich könnte mich gar nicht zwischen den Kandidaten entscheiden. Aber zurück zum Thema. Die Situation hierzulande ist völlig anders als im Rest der Welt (bzw. planet.osm in Summe); kannst Du mal eine gleichartige Tabelle für DE erstellen? Mehr möchte ich ohnehin nicht anfassen (vielleicht später einzelne weitere nicht importverseuchte Länder, falls dort Interesse besteht - aber nach Durchsicht Deiner Liste kommt ein weltweiter Einsatz eher nicht in Frage).

Du hast nichts übersehen. OSMI meckert generell über Leerzeichen im Schlüssel - und hat damit ja auch nicht ganz Unrecht. Tags wie die obigen stammen aus der Zeit vor *:conditional (ich habe selbst einige davon fabriziert) und können jetzt entsprechend umgetaggt werden. Das ließe sich eventuell auch teilweise automatisieren (umtaggen, falls gültig - sonst nicht anfassen), aber angesichts der Zahl solcher Tags lohnt der Aufwand m.E. nicht.

Nahmd,

Bittschön: 146665 Zeilen als Gzip (1.7Mb) oder Bzip2 (1.4Mb).

Gruß Wolf

Dankschön für die 146665 Zeilen, von denen nach Ausfiltern von /[Cc]adastre|eea:cdda:sitecode|area:ha/ (Cadastre FR, Naturschutzgebiete CZ) noch 23170 übrig bleiben. Dann noch tschechische is_in-Tags weg: /[Cc]adastre|eea:cdda:sitecode|area:ha| kraj, CZ/ und es sind noch 13236 Zeilen, mal eben ein Faktor 10 weniger als im Original.

… und noch ein Beispiel für hübsch formatierte, aber sinnlose Gleitkommazahlen: http://www.openstreetmap.org/browse/way/190063651
Man beachte hierbei die Rundungsfehler durch die begrenzte Auflösung von IEEE 754 double. Hätte der Ersteller wohl lieber ein double extended genommen :wink:
Derselbe Import ist auch mit leeren Tags ganz gut dabei.

Nahmd,

Ja sorry, ich hab mit dem DE einhüllenden Rechteck geschnitten, das ergibt viel Beifang. Mehr war auf die Schnelle nicht drin. Deshalb hab ich die Koordinaten zugegeben, um ein sauberes Schneiden zu ermöglichen. Vorgefiltert habe ich nichts; die Daten sollen ja dazu dienen, der Diskussion eine Grundlage zu geben.

Gruß Wolf

Ach so - ich dachte, Du hättest germany.osm genommen, und hatte mich schon gewundert, daß der Beifang so groß ist. Kannst ja mal (eilt nicht) nur germany.osm durchzählen.

Meine Datenbank sagt 237 Schlüssel, davon 16 (new tags) und dann kommen die conditional-Werte (natürlich in alter Schreibweise). Und nein meine DB ist nicht Defekt, die Tagtabelle beinhaltet 62.146.667 Datensätze (Stand Germay-Extrakt vom 28.2.2013)

Bei den Werten sind es dann 5.598.419 davon 2.616 Werte mit ein führenden und/oder schließenden Leerzeichen. Als Schlüssel sind hier führend: name, addr:street, ref und addr:city.

Nochmal zur Diskussionsgrundlage: Unter http://toolserver.org/~mapjedi/leading_trailing_whitespace_de.txt habe ich die aktuellen Vorkommen von führendem/folgendem Leerraum abgelegt. Im Gegensatz zu Netzwolfs früherer Auswertung sind mehrfache Leerzeichen im Inneren sowie Tabs usw. nicht berücksichtigt - abgesehen von geringem Beifang durch mehrzeilige Tags, wo vor oder nach \n zu allem Überfluß auch noch ein Leerzeichen steht, etwa:

n956383142	value	"inscription"	"Den 28. October 1868
begrub hier der hiesige
Rittergutspächter R. 
Rossberg sein 31 Jahre 
altes Reitpferd nachdem
es ihm 21 Jahre viel gute
Dienste geleistet hatte"

:roll_eyes:

Von Leerraum im Wert betroffene Schlüssel (ab 10 Stück)

   1144 "name"
    319 "addr:street"
    116 "phone"
     92 "building"
     88 "note"
     63 "wheelchair:description"
     62 "eea:cdda:sitecode"
     62 "area:ha"
     57 "addr:housenumber"
     48 "source"
     48 "addr:housename"
     42 "operator"
     35 "description"
     34 "landuse"
     31 "addr:city"
     29 "designation"
     25 "surface"
     24 "website"
     24 "contact:phone"
     23 "shop"
     23 "opening_hours"
     17 "amenity"
     16 "ref"
     14 "reservoir_type"
     12 "roof:material"
     12 "email"
     11 "fax"
     11 "contact:email"
     10 "man_made"
     10 "fixme"

Hier mal der aktuelle Stand meiner Überlegungen zum Thema, nachdem ich mir die obigen Wortmeldungen noch einmal durchgelesen habe.
Grundidee ist immer noch, Leerraum nur dann zu entfernen, wenn hierdurch eine nennenswerte Verbesserung erzielt wird. Die von mir ursprünglich angedachte Unterscheidung zwischen Festwert- und Freitext-Tags vermutlich nicht das beste Kriterium, denn auch in Freitext-Werten kann Leerraum störend sein (Sortierreihenfolge, Suchabfragen). Auch der Ansatz mit einer Positivliste von Schlüsselnamen, bei denen Leerraum im Wert geputzt wird, ist spätestens dann nicht mehr praktikabel, wenn man sich von der Trennung Festwert/Freitext löst.
Inzwischen denke ich daher eher in die Richtung, Leerraum grundsätzlich überall zu beseitigen und nur endlich viele Ausnahmen zu definieren. Diese Ausnahmen senken zugegebenermaßen die Zahl der Bearbeitungen nur unwesentlich und bei einer Größenordnung von insgesamt 2500 Bearbeitungen (plus zukünftig fortlaufend weitere; 2500 entspricht grob dem Aufkommen innerhalb eines Jahres) könnte man das Argument “Aufblähen des Datenbestandes” wohl noch übergehen, aber es widerstrebt mir einfach, bei Tags, die per se völlig unsinnig sind (Stichwort area:ha), Leerraum-Kosmetik zu betreiben, wenn eigentlich ein viel gründlicheres Aufräumen angebracht wäre.

Konkret hieße das, folgende Tags zu sperren:

  • note, fixme, FIXME - nur für interne Zwecke gedacht, schadet also niemandem

  • eea:cdda:sitecode, area:ha - liegen ohnehin in Tschechien und resultieren wie üblich aus einem Import; area:ha ist per se unsinnig, ebenso Tags wie dummy=JOSM und ein aufs OSM-Wiki zeigendes website-Tag, was sich alles in demselben Import findet.

  • source - wird das irgendwo genutzt?

  • designation - de facto ist das Tag in DE unbrauchbar, da schadet etwas Leerraum auch nicht

Vielleicht noch eine Handvoll weitere, wenn ich die Liste noch einmal gründlicher durchgesehen habe.

Die Sperre soll dabei im Filter erfolgen, d.h. das Filterprogramm spricht nur an auf Leerraum in Schlüsseln sowie Leerraum in Tags außer den gesperrten. Ein Objekt mit designation=“Wohnhaus˽” wird also nicht ausgefiltert, eines mit designation=“Wohnhaus˽” und building=“˽yes” dagegen schon (eines nur mit building=“˽yes” natürlich auch). Das Korrekturprogramm entfernt anschließend sämtlichen Leerraum, den es in den Tags der Kandidaten findet (wenn das genannte building=“˽yes” schon angefaßt wird, dann auch designation=“Wohnhaus˽”).
Tags mit leerem (“”) oder nur aus Leerraum bestehendem Wert sollen im gleichen Zuge komplett entfernt werden.
Bei Konflikten zwischen Tags, deren Schlüssel sich nur um Leerraum unterscheiden (“ref”=1, “ref˽”=2) keine Änderung; falls kein Konflikt vorliegt (“ref”=1, “ref˽”=1), Löschung desjenigen mit dem Leerraum (“ref˽”).
Das Korrekturprogramm werde ich noch so erweitern, daß es nur Tags bearbeitet, die auch in allen Vorgängerversionen genau so vorhanden waren. Damit will ich Fälle ausschließen, wo bei einem Bearbeitungsversuch z.B. versehentlich vorhandener Text überschrieben wurde (“Bahnhof Kleinkleckersdorf” → “Bahnhof˽”). Streichen oder abschwächen kann man diese Vorsichtsmaßnahme später immer noch, wenn sie sich als nicht notwendig erweist.

Soweit meine aktuellen Überlegungen. Was haltet ihr davon?

Der weitere Fahrplan bei Wall·E sieht wie folgt aus: Wenn bis dahin keine neuen Probleme mehr auftauchen, werde ich bei der Marke von insgesamt 6000 Bearbeitungen den Probebetrieb der Adresskorrekturen für beendet erklären (d.h. nicht mehr jedes Objekt einzeln im Brauser kontrollieren, sondern nur noch die Logfiles durchschauen, auch das nach und nach nur noch stichprobenartig) und auch den Korrekturprozeß als cronjob laufen lassen. Eigentlich ändert sich nur für mich selbst etwas (weniger Arbeit), außer daß Wall·E zukünftig immer zu festen Zeiten loslegt.
Die Leerraum-Korrektur wird in jedem Fall erst danach starten: voraussichtlich zuerst in einem Aufwasch nur die Schlüssel mit Leerraum, dann weiter in Paketen von z.B. 200 Objekten pro Änderungssatz (nach ein paar Tests mit weniger Objekten).

Ich würde “ohne Rücksicht auf Ansehen” bei allen Tags einen generellen Trim sowohl bei Key als auch Value machen weil am Anfang und am Ende dort keine Spaces (bedeutet das nicht Zwischenraum?) stehen sollten. Danach kannst du die Besonderheiten und Eigenheiten spezieller Tags berücksichtigen.

Das ganze natürlich iterativ: wenn bei Splitten von Tags neue zur trimmende Spaces auftauchen → weg damit.
Und wenn dabei leere Keys oder Values entstehen sollten → weg damit. Obwohl ich derzeit mir dieses nicht vorstellen kann - aber wer weiß?

Gruss
walter

@wambacher: +1

Hast du vor, das hier auf Deutschland beschränkt laufen zu lassen? Das ist bei den Straßennamen ja sinnvoll, aber Leerraumentfernung braucht es weltweit und es hilft auch nicht, wenn jede nationale Community jetzt da ihren eigenen Bot für entwickelt. Insofern hoffe ich doch, dass du das, wenn das deine Ressourcen zulassen, weltweit anwenden wirst.

Das kann ich natürlich machen. Ich gebe zu, daß mein Unbehagen kein zwingendes Argument ist - aber wie gesagt mißfällt es mir, mit etwas Schleifpapier-Kosmetik in die Objekthistorie einzugehen, wenn eigentlich der große Winkelschleifer mit Trennscheibe angesagt wäre.

Jetzt hast Du mich abgehängt. Was meinst Du mit Splitten?

Erst einmal ja, allerdings auf Geofabrik-Deutschland (das Nachschneiden ist unnötig, da die Korrektur als solche nicht landesspezifisch ist).
Für DE (oder andere nicht importverseuchte Länder) lasse ich mich evtl. noch von euch überzeugen, alle Tags zu bearbeiten; aber vor einer möglichen weltweiten Anwendung würde ich definitiv bestimmte Tags sperren. Wie ich anhand der von Netzwolf aufbereiteten Liste festgestellt habe, stammt weltweit der Großteil des überschüssigen Leerraums aus Importen und steht oft in (häufig völlig sinnbefreiten) Spezialtags, wo er niemanden stört. Da ginge es dann tatsächlich um Hunderttausende Bearbeitungen ohne jeden Nutzen.

Mach doch der xybot weltweit, wenn er mal wieder rennt. Oder täusche ich mich da? Ich hätte da auf jeden Fall keinerlei Bedenken.

Wenn du z.B. Straße und Hausnummer in zwei Tags aufteilst. Ist aber wohl deine andere Baustelle.

Wie kriegst du eigentlich den Zeitunterschied in den Griff?
Das Objekt, daß du gerade korrigieren willst, kann ja in den Live-Daten schon total anders aussehen? Da kannst du ja wohl nur was mit der Live-Api (http://api.openstreetmap.org/) machen. So machen es zumindest die mir bekannten Bots und auch von mir erstellte Programme (*)

Gruß
walter

*) Keine Angst, die laufen nur read-only; mich hat die Materie nur interessiert.

Die würden dann aber auch nur einmal bearbeitet werden. Nach dem Import ändern die Tags sich ja meist nicht mehr. Neue Imports haben dann auch wieder neue Spezialtags, die du dann immer wieder extra filtern müsstest. Ich bin auch für ein bearbeiten von allen Tags ohne Außnahmen.

Genau so isses. Die übergeordnete Funktion liest die Kandidatendatei ein und schleift dann durch die Liste, verwirft uninteressante Objekte (z.B. taglose Knoten, die nur als Element des eigentlich interessierenden Wegs in der Datei sind) und teilt der Handlangerfunktion nur Objekttyp und ID mit. Diese holt sich das Objekt vom Server, bearbeitet es und lädt es im Erfolgsfall wieder hoch, arbeitet also stets nur mit ganz frischen Versionen.
Im Grunde könnte man auf das Nachladen vom Server aber sogar verzichten. Wenn das Objekt zwischendurch verändert wurde, funktioniert mit der Version aus dem Extrakt das Hochladen nicht, weil der Server das Objekt nicht annimmt - es besteht also keine Gefahr. Entweder holt man sich dann die aktuelle Version und versucht die Korrektur erneut, oder man ignoriert das Problem bis zum nächsten Programmlauf. Falls dann der Fehler immer noch vorliegt, landet das Objekt dann ja auch wieder im Filter.

sauber!

Danke
walter

Tags mit leerem Key oder Value können noch nützliche Informationen beinhalten! Beispiel: " "=“asphalt” Ob das in den Daten auch so vorkommt, kann ich allerdings nicht beurteilen.
Tags mit leerem Key und Value können mMn gelöscht werden.

Das mit der Vorgängerversion find ich ne gute Idee. Bei solchen Fällen kann man dann schauen, obs hilfreich ist.
Der Rest gut so.