Wall·E räumt auf: Leerraum in Tags und Rollen

+1, ich finds auch komisch wenn keine Resonanz kommt, aber mittlerweile denk ich, entweder interessiert es niemanden, oder keiner hat eine gegenteilige Meinung :slight_smile:

Aber ich schreib auch gerne meinen Senf noch dazu:
generell +1, auch für die sehr gute Informationspolitik!

Jedoch würde ich die Korrektur nicht nur I. & II.a, sondern auch II.b einsetzten, denn:
Wie willst du die “(Mehr oder weniger) echte Festwert-Tags” herraussuchen? Oder willst du jedes mal alle neuen Werte prüfen und ggf. im Wiki nachschlagen, ob es nun ein Festwert ist oder nicht?
Mir fällt kein Grund ein, ein führendes bzw. abschließendes Leerzeichen, Tab o.ä. in einem Tag zu verbauen.
Jedoch würde ich vorher erstmal einen Blick auf die Liste mit den nicht-Festwert-Tags zu werfen, bevor man dort die Zeichen löscht, vielleicht fällt dort direkt was auf.

P.S.: Leere Tags würde ich nicht löschen, sondern per Hand (ggf. fixme setzten) bearbeiten, da sie wohl nicht so viele sind(?). Denk es ist vieeel aufwändiger, die verschiedenen Korrekturmöglichkeiten dem Programm beizubringenden, als den Tag eben per Hand zu untersuchen. (Dies gilt nur, wenn es nicht viele solcher Einträge sind.)

Nein, nicht jedes Mal - initial eine Liste erstellen und diese in größeren Abständen (Monate) ergänzen. Für mich wäre es in der Tat weniger Arbeit, die Leerraumkorrektur ohne Rücksicht auf die Art des Tags durchzuführen (der Code dafür ist im Prinzip fertig). Meine Zurückhaltung bei II.b liegt darin begründet, daß ich eine Korrektur (Eingriff in den Datenbestand, neue Version usw.) nur dann vornehmen will, wenn der Fehler tatsächlich ein Problem darstellt - und nach meiner Wahrnehmung sollten Anwendungen mit überschüssigem Leerraum in Freitext-Tags (daß er dort in aller Regel nicht hingehört, stelle ich nicht in Abrede) keine großen Schwierigkeiten haben. Ich lasse mich aber nur allzu gern vom Gegenteil überzeugen. Das Stichwort Sortierreihenfolge war schon mal ein interessantes Argument.

Auch ich denke, dass I und II.a (Schlüssel und Festwerte) problemlos sind.
Deine Bedenken zu II.b (Freitextwerte) teile ich, der Nutzen ist ggfs. nur begrenzt. Anders sähe es aus, wenn Wall÷E mehrere WhiteSpace auch innerhalb des Wertes zu einem Blank zusammenfassen würde.

Eine Anregung (für jetzt oder für die Zukunft) wäre auf Blank oder Strich statt Unterstrich in Schlüssel oder Festwert zu prüfen. Das dürften neben falscher Großschreibung (z.B. Yes) die häufigsten Ursachen für ‘seltsame’ Taggs sein.

Edbert (EvanE)

Weißzeichen am Anfang und Ende sollte man auch bei Freitext-Werten entfernen, da diese vermutlich Suchabfragen z.B. mit der Overpass-API beeinträchtigen würden.
Wenn man möchte, könnte man eine Liste von Schlüsseln (wie z.B. note) aufstellen, für die die Korrektur entbehrlich erscheint, aber ich halte den Aufwand für übertrieben.

Einfache und mehrfache Weißzeichen jeglicher Art in Schlüssel und Wert sollten zu einem einzelnen Leerzeichen konvertiert werden.
Beim Wert müßte man aber anhand der müßte man anhand der vorhandenen Fälle im Datenbestandes prüfen, ob es nicht vielleicht doch unglücklich definierte Schlüssel gibt, bei denen jedes Zeichen im Wert eine kodierte Bedeutung hat.
Beispielweise könne es bei abweichender Definition zum Beispiel ein turn:lanes=“L R” statt turn:lanes=left|||right geben.

Bezüglich Entfernen von Tags ohne Wert sollte man eine Whitelist von Schlüsseln aufstellen, für die dies ohne Informationsverlust möglich ist. Beispiele wären “name=”, “lit=” und “maxspeed=”.

Ein Gegenbeispiel wäre “maxweight=”, da dieses ein Hinweis darauf sein könnte, dass eine der vergleichsweise seltenen Beschränkungen an diese Stelle vorliegt und noch erkundet werden muss.

Moins,

damit sich jeder ohne Aufwand ein eigenes Bild machen kann, hab ich die Objekte mit unnormalisierten Blanks in Tags bereitgestellt, rund 1.2 Millionen Einträge (~90Mb) als Bzip2 (gut 6Mb) und als Gzip (knapp 8Mb).

Die meisten Mehrfachblanks sind wohl zufällig entstanden; sie werden aber auch benutzt zum Formatieren (from/to bei Bus-Relation) oder als Ersatz für “;” bei einem automatischen Import. Die sinnvollen(?) wird man kaum von den sinnfreien automatisiert unterscheiden können. Ein Normalisieren “\s+”→“\040” wird also Mitarbeiter verärgern.

Irgendwas ist ja immer. :confused:

Gruß Wolf

Finde ich löblich, dass du dich nur um problematische Dinge kümmern willst und es sollte natürlich immer darauf geachtet werden, dass es möglichst nicht zu Fehlkorrekturen kommt. Wenn allerdings, wie in diesem Fall, keine Fehlkorrekturen zu erwarten sind, sondern die zusätzlichen Korrekturen bestenfalls überflüssig, aber trotzdem an sich richtig sind, würde ich mir hier an deiner Stelle nicht den zusätzlichen Aufwand machen. Ein zusätzliches Argument hätte ich noch: Wenn du eine Liste von Festwert-Tags führst, wird diese nur die häufigsten solchen Tags beinhalten. Die sind natürlich am problematischsten, aber sie dürften auch am ehesten auffallen. Seltene Tags mit versehentlichem Whitespace findet dagegen möglicherweise nie jemand manuell, also wäre gerade hier ein Bot hilfreich. Alternativ könnte man natürlich eine Liste von Freitext-Tags führen, aber das scheint mir auch nicht wesentlich sinnvoller.

Btw.: Hast du eigentlich vor, das hier auch bei Gelegenheit zu übernehmen? Ich denke, praktisch alle dieser Korrekturen sind gerechtfertigt und waren ja bei Xybot schon soweit anerkannt und betreffen sehr häufige Fehler. Wenn es wirklich einzelne fragwürdige Verbesserungen gibt, dann muss man die ja nicht übernehmen, aber der größte Teil wäre es denke ich wert.

Hi,

Eventuell habe ich den Aspekt in diesem Faden übersehen, aber was ist mit solchen Tags:

In OSMI findet man sie sehr einfach. Gibt es für diese Art von Tags Regeln, vor allem beüglich der Leerzeichen?

Grüsse

mdk

Danke, die Liste ist in der Tat aufschlußreich. Ich habe es zwar erst einmal nur auf Deutschland abgesehen, aber man kann ja auch mal etwas über den Horizont gucken.

Leerraum mittendrin kommt z.B. aus Importen wie diesem: da ist aber nicht nur der Leerraum falsch, sondern auch die GROSSBUCHSTABEN.
Manchmal ist er vermutlich sogar beabsichtigt - zwei Leerzeichen nach einem Punkt als Satztrenner, etwa hier in einer note. Hier kommt mir addr:street auch ohne die Leerzeichen mittendrin spanisch vor. Auch dieser Import läßt eine Vorverarbeitung (hier von name:ko_rm) vermissen, der hier analog (name sowie naptan:CommonName). Und auch die Kann-Weg-Importeure mögen Leerzeichen (zufällig ausgewähltes Beispiel), ebenso die Freunde von Cadastre (source-Tag “… mise à jour : 2010”). Beim Tiger-Import sind Leerzeichen wie hier in name ohnehin das kleinste Problem. Und bei einem Weg aus diesem schnuckeligen Import sind ebenfalls weniger die Leerzeichen in “massgis:COMMENTS”=“BARNSTABLE-ID# 1000028” (Ausgabe mit fester Breite) störend als generell die Schwemme überflüssiger Tags.

Und so weiter, die manuell verbauten mehrfachen Leerzeichen fallen weltweit gegenüber denen aus Importen kaum ins Gewicht.

Der Findvej-Adressimport hat wohl auch einige leere addr:housename generiert, aber besonders hübsch finde ich die Formatierung von - per se schon völlig überflüssigen - Gleitkommazahlen in diesem Import, die u.a. auch führenden Leerraum generiert hat.

Ein Glück, daß bei OSM keine Goldene Himbeere als Publikumspreis für den am meisten vermurksten Import vergeben wird - ich könnte mich gar nicht zwischen den Kandidaten entscheiden. Aber zurück zum Thema. Die Situation hierzulande ist völlig anders als im Rest der Welt (bzw. planet.osm in Summe); kannst Du mal eine gleichartige Tabelle für DE erstellen? Mehr möchte ich ohnehin nicht anfassen (vielleicht später einzelne weitere nicht importverseuchte Länder, falls dort Interesse besteht - aber nach Durchsicht Deiner Liste kommt ein weltweiter Einsatz eher nicht in Frage).

Du hast nichts übersehen. OSMI meckert generell über Leerzeichen im Schlüssel - und hat damit ja auch nicht ganz Unrecht. Tags wie die obigen stammen aus der Zeit vor *:conditional (ich habe selbst einige davon fabriziert) und können jetzt entsprechend umgetaggt werden. Das ließe sich eventuell auch teilweise automatisieren (umtaggen, falls gültig - sonst nicht anfassen), aber angesichts der Zahl solcher Tags lohnt der Aufwand m.E. nicht.

Nahmd,

Bittschön: 146665 Zeilen als Gzip (1.7Mb) oder Bzip2 (1.4Mb).

Gruß Wolf

Dankschön für die 146665 Zeilen, von denen nach Ausfiltern von /[Cc]adastre|eea:cdda:sitecode|area:ha/ (Cadastre FR, Naturschutzgebiete CZ) noch 23170 übrig bleiben. Dann noch tschechische is_in-Tags weg: /[Cc]adastre|eea:cdda:sitecode|area:ha| kraj, CZ/ und es sind noch 13236 Zeilen, mal eben ein Faktor 10 weniger als im Original.

… und noch ein Beispiel für hübsch formatierte, aber sinnlose Gleitkommazahlen: http://www.openstreetmap.org/browse/way/190063651
Man beachte hierbei die Rundungsfehler durch die begrenzte Auflösung von IEEE 754 double. Hätte der Ersteller wohl lieber ein double extended genommen :wink:
Derselbe Import ist auch mit leeren Tags ganz gut dabei.

Nahmd,

Ja sorry, ich hab mit dem DE einhüllenden Rechteck geschnitten, das ergibt viel Beifang. Mehr war auf die Schnelle nicht drin. Deshalb hab ich die Koordinaten zugegeben, um ein sauberes Schneiden zu ermöglichen. Vorgefiltert habe ich nichts; die Daten sollen ja dazu dienen, der Diskussion eine Grundlage zu geben.

Gruß Wolf

Ach so - ich dachte, Du hättest germany.osm genommen, und hatte mich schon gewundert, daß der Beifang so groß ist. Kannst ja mal (eilt nicht) nur germany.osm durchzählen.

Meine Datenbank sagt 237 Schlüssel, davon 16 (new tags) und dann kommen die conditional-Werte (natürlich in alter Schreibweise). Und nein meine DB ist nicht Defekt, die Tagtabelle beinhaltet 62.146.667 Datensätze (Stand Germay-Extrakt vom 28.2.2013)

Bei den Werten sind es dann 5.598.419 davon 2.616 Werte mit ein führenden und/oder schließenden Leerzeichen. Als Schlüssel sind hier führend: name, addr:street, ref und addr:city.

Nochmal zur Diskussionsgrundlage: Unter http://toolserver.org/~mapjedi/leading_trailing_whitespace_de.txt habe ich die aktuellen Vorkommen von führendem/folgendem Leerraum abgelegt. Im Gegensatz zu Netzwolfs früherer Auswertung sind mehrfache Leerzeichen im Inneren sowie Tabs usw. nicht berücksichtigt - abgesehen von geringem Beifang durch mehrzeilige Tags, wo vor oder nach \n zu allem Überfluß auch noch ein Leerzeichen steht, etwa:

n956383142	value	"inscription"	"Den 28. October 1868
begrub hier der hiesige
Rittergutspächter R. 
Rossberg sein 31 Jahre 
altes Reitpferd nachdem
es ihm 21 Jahre viel gute
Dienste geleistet hatte"

:roll_eyes:

Von Leerraum im Wert betroffene Schlüssel (ab 10 Stück)

   1144 "name"
    319 "addr:street"
    116 "phone"
     92 "building"
     88 "note"
     63 "wheelchair:description"
     62 "eea:cdda:sitecode"
     62 "area:ha"
     57 "addr:housenumber"
     48 "source"
     48 "addr:housename"
     42 "operator"
     35 "description"
     34 "landuse"
     31 "addr:city"
     29 "designation"
     25 "surface"
     24 "website"
     24 "contact:phone"
     23 "shop"
     23 "opening_hours"
     17 "amenity"
     16 "ref"
     14 "reservoir_type"
     12 "roof:material"
     12 "email"
     11 "fax"
     11 "contact:email"
     10 "man_made"
     10 "fixme"

Hier mal der aktuelle Stand meiner Überlegungen zum Thema, nachdem ich mir die obigen Wortmeldungen noch einmal durchgelesen habe.
Grundidee ist immer noch, Leerraum nur dann zu entfernen, wenn hierdurch eine nennenswerte Verbesserung erzielt wird. Die von mir ursprünglich angedachte Unterscheidung zwischen Festwert- und Freitext-Tags vermutlich nicht das beste Kriterium, denn auch in Freitext-Werten kann Leerraum störend sein (Sortierreihenfolge, Suchabfragen). Auch der Ansatz mit einer Positivliste von Schlüsselnamen, bei denen Leerraum im Wert geputzt wird, ist spätestens dann nicht mehr praktikabel, wenn man sich von der Trennung Festwert/Freitext löst.
Inzwischen denke ich daher eher in die Richtung, Leerraum grundsätzlich überall zu beseitigen und nur endlich viele Ausnahmen zu definieren. Diese Ausnahmen senken zugegebenermaßen die Zahl der Bearbeitungen nur unwesentlich und bei einer Größenordnung von insgesamt 2500 Bearbeitungen (plus zukünftig fortlaufend weitere; 2500 entspricht grob dem Aufkommen innerhalb eines Jahres) könnte man das Argument “Aufblähen des Datenbestandes” wohl noch übergehen, aber es widerstrebt mir einfach, bei Tags, die per se völlig unsinnig sind (Stichwort area:ha), Leerraum-Kosmetik zu betreiben, wenn eigentlich ein viel gründlicheres Aufräumen angebracht wäre.

Konkret hieße das, folgende Tags zu sperren:

  • note, fixme, FIXME - nur für interne Zwecke gedacht, schadet also niemandem

  • eea:cdda:sitecode, area:ha - liegen ohnehin in Tschechien und resultieren wie üblich aus einem Import; area:ha ist per se unsinnig, ebenso Tags wie dummy=JOSM und ein aufs OSM-Wiki zeigendes website-Tag, was sich alles in demselben Import findet.

  • source - wird das irgendwo genutzt?

  • designation - de facto ist das Tag in DE unbrauchbar, da schadet etwas Leerraum auch nicht

Vielleicht noch eine Handvoll weitere, wenn ich die Liste noch einmal gründlicher durchgesehen habe.

Die Sperre soll dabei im Filter erfolgen, d.h. das Filterprogramm spricht nur an auf Leerraum in Schlüsseln sowie Leerraum in Tags außer den gesperrten. Ein Objekt mit designation=“Wohnhaus˽” wird also nicht ausgefiltert, eines mit designation=“Wohnhaus˽” und building=“˽yes” dagegen schon (eines nur mit building=“˽yes” natürlich auch). Das Korrekturprogramm entfernt anschließend sämtlichen Leerraum, den es in den Tags der Kandidaten findet (wenn das genannte building=“˽yes” schon angefaßt wird, dann auch designation=“Wohnhaus˽”).
Tags mit leerem (“”) oder nur aus Leerraum bestehendem Wert sollen im gleichen Zuge komplett entfernt werden.
Bei Konflikten zwischen Tags, deren Schlüssel sich nur um Leerraum unterscheiden (“ref”=1, “ref˽”=2) keine Änderung; falls kein Konflikt vorliegt (“ref”=1, “ref˽”=1), Löschung desjenigen mit dem Leerraum (“ref˽”).
Das Korrekturprogramm werde ich noch so erweitern, daß es nur Tags bearbeitet, die auch in allen Vorgängerversionen genau so vorhanden waren. Damit will ich Fälle ausschließen, wo bei einem Bearbeitungsversuch z.B. versehentlich vorhandener Text überschrieben wurde (“Bahnhof Kleinkleckersdorf” → “Bahnhof˽”). Streichen oder abschwächen kann man diese Vorsichtsmaßnahme später immer noch, wenn sie sich als nicht notwendig erweist.

Soweit meine aktuellen Überlegungen. Was haltet ihr davon?

Der weitere Fahrplan bei Wall·E sieht wie folgt aus: Wenn bis dahin keine neuen Probleme mehr auftauchen, werde ich bei der Marke von insgesamt 6000 Bearbeitungen den Probebetrieb der Adresskorrekturen für beendet erklären (d.h. nicht mehr jedes Objekt einzeln im Brauser kontrollieren, sondern nur noch die Logfiles durchschauen, auch das nach und nach nur noch stichprobenartig) und auch den Korrekturprozeß als cronjob laufen lassen. Eigentlich ändert sich nur für mich selbst etwas (weniger Arbeit), außer daß Wall·E zukünftig immer zu festen Zeiten loslegt.
Die Leerraum-Korrektur wird in jedem Fall erst danach starten: voraussichtlich zuerst in einem Aufwasch nur die Schlüssel mit Leerraum, dann weiter in Paketen von z.B. 200 Objekten pro Änderungssatz (nach ein paar Tests mit weniger Objekten).

Ich würde “ohne Rücksicht auf Ansehen” bei allen Tags einen generellen Trim sowohl bei Key als auch Value machen weil am Anfang und am Ende dort keine Spaces (bedeutet das nicht Zwischenraum?) stehen sollten. Danach kannst du die Besonderheiten und Eigenheiten spezieller Tags berücksichtigen.

Das ganze natürlich iterativ: wenn bei Splitten von Tags neue zur trimmende Spaces auftauchen → weg damit.
Und wenn dabei leere Keys oder Values entstehen sollten → weg damit. Obwohl ich derzeit mir dieses nicht vorstellen kann - aber wer weiß?

Gruss
walter

@wambacher: +1

Hast du vor, das hier auf Deutschland beschränkt laufen zu lassen? Das ist bei den Straßennamen ja sinnvoll, aber Leerraumentfernung braucht es weltweit und es hilft auch nicht, wenn jede nationale Community jetzt da ihren eigenen Bot für entwickelt. Insofern hoffe ich doch, dass du das, wenn das deine Ressourcen zulassen, weltweit anwenden wirst.

Das kann ich natürlich machen. Ich gebe zu, daß mein Unbehagen kein zwingendes Argument ist - aber wie gesagt mißfällt es mir, mit etwas Schleifpapier-Kosmetik in die Objekthistorie einzugehen, wenn eigentlich der große Winkelschleifer mit Trennscheibe angesagt wäre.

Jetzt hast Du mich abgehängt. Was meinst Du mit Splitten?

Erst einmal ja, allerdings auf Geofabrik-Deutschland (das Nachschneiden ist unnötig, da die Korrektur als solche nicht landesspezifisch ist).
Für DE (oder andere nicht importverseuchte Länder) lasse ich mich evtl. noch von euch überzeugen, alle Tags zu bearbeiten; aber vor einer möglichen weltweiten Anwendung würde ich definitiv bestimmte Tags sperren. Wie ich anhand der von Netzwolf aufbereiteten Liste festgestellt habe, stammt weltweit der Großteil des überschüssigen Leerraums aus Importen und steht oft in (häufig völlig sinnbefreiten) Spezialtags, wo er niemanden stört. Da ginge es dann tatsächlich um Hunderttausende Bearbeitungen ohne jeden Nutzen.

Mach doch der xybot weltweit, wenn er mal wieder rennt. Oder täusche ich mich da? Ich hätte da auf jeden Fall keinerlei Bedenken.

Wenn du z.B. Straße und Hausnummer in zwei Tags aufteilst. Ist aber wohl deine andere Baustelle.

Wie kriegst du eigentlich den Zeitunterschied in den Griff?
Das Objekt, daß du gerade korrigieren willst, kann ja in den Live-Daten schon total anders aussehen? Da kannst du ja wohl nur was mit der Live-Api (http://api.openstreetmap.org/) machen. So machen es zumindest die mir bekannten Bots und auch von mir erstellte Programme (*)

Gruß
walter

*) Keine Angst, die laufen nur read-only; mich hat die Materie nur interessiert.