Wall·E räumt auf: Leerraum in Tags und Rollen

Ich bin dafür.

Hmm. So ein Key ist falsch, aber er könnte wertvolle Informationen enthalten…

Man könnte solche kaputten Tags ergänzen: “" durch "BADKEY:” ersetzen (aber nur einmal).

  • es würden keine Informationen verloren gehen
  • Mapper könnten leicht nach den Fällen suchen, um sie einzeln zu bearbeiten.
  • Wenn Mapper das Objekt aus anderen Gründen bearbeiten, dann kennen sie die Lage vor Ort vielleicht und könnten es leicht lösen. Dazu muss ihnen aber das Problem aber erstmal auffallen

Weide

PS: Denn Fall der Key-Verdopplung durch Entfernen von Zeichen (“name” und "name " vorhanden) muss man auch noch passend lösen. Evtl. wie bei den Freitext-Werten vorgeschlagen.

Weißzeichen (space, newline, tab, …) am Anfang/Ende gehören sich IMO immer getrimmt, sowohl in key als auch in value. Mitten im key/value wäre ich konserativ und würde mit einer Art whitelist arbeiten, z.B. key=“social facility” → key=“social_facility” oder key=“highway”, value=“primary link” → value=“primary_link”. Die whitelist kann ja nach und nach erweitert werden.

Ich finde es grundsätzlich schon gut, vor Massenedits kurz um Feedback zu bitten, allerdings wäre hier sicher ein technisches Unterforum sinnvoll, in dem dann nicht lange grundsätzlich diskutiert wird. Am besten sogar in englisch und international bezogen.

Hier konkret z.B. könnte man darauf hinweisen, dass evtl. Freitextfelder in Markdown-Syntax geschrieben sind, was dann heißt, dass Leerzeichen an Zeilenende sehr wohl eine Bedeutung haben, wenn auch ein einzelnes Leerzeichen jeweils ausreicht.

Ich glaube nicht, dass es da irgendwelche Probleme geben wird sollte: als der Xybot noch stabil lief, hatte dieser das auch in der Aufgabenliste. Das hat nie Ärger gegeben.

Gruss
walter

p.s. zum Punkt “Löschen leerer Tags” hat sich leider noch niemand geäußert.

Welche Leerzeichen denkst du könnte man da entfernen? Bei Hausnummern (aktuelle Diskussion auf ML), Straßennamen, Ortschaftsnamen sind sie ja meist Absicht und automatisiert kaum zu korrigieren.

Ansonsten finde ich die Idee sehr gut!

Seh ich auch so

Hast du ein Beispiel? Ich hab das grad mal überflogen. Das einzige was ich finden kann, ist dass ein Leerzeichen am Zeilenende ein Zeilenumbruch erzeugt. Ein Zeilenumbruch am Ende der Value wär aber ebenfalls ein Whitespace der getrimmt gehört.

Wer bei OSM Whitespace-Programme hinterlegt, dem ist eh nicht zu helfen… :smiley:

Danke, an die Möglichkeit hatte ich gar nicht gedacht. Eine solche Trennung von Diskussion/Entwicklung und Abstimmung werde ich für zukünftige Korrekturprozesse mal im Hinterkopf behalten. Das bisherige Vorgehen hat andererseits den Vorteil, daß jemand, der “dagegen” ist, in der Diskussion entsprechende Argumente anführen kann (bzw. muß, wenn er ernstgenommen werden will), statt nur “hinterher” {{Vote|no}} zu sagen.

Ich habe offenbar im Eingangsposting nicht hinreichend deutlich geschrieben, daß es mir nur um Extra-Leerraum am Anfang und/oder am Ende von Tags geht. Wie oben schon einmal geschrieben, kann man diesen im Prinzip behandeln, ohne sich den Rest des Tags näher anzusehen. Das von Dir angeführte Beispiel würde ich in eine eigene Korrekturklasse “häufige Tippfehler in Tags” packen und dort, genau wie Du vorschlägst, nur einen endlichen Katalog bekannter falscher Schreibweisen berücksichtigen.

Das scheint mir keine glückliche Lösung zu sein. Wenn ich den Leerraum direkt lösche, erzeuge ich eine neue Version. Ersetze ich das Tag wie von Dir vorgeschlagen und ein Mapper korrigiert es später ordentlich, entstehen zwei neue Versionen. Also wenn überhaupt, doch lieber gleich löschen. Die Suche nach Tags mit Leerraum ist im übrigen auch nicht schwieriger als die Suche nach einer gesonderten Schlüsselklasse wie “BADKEY:*”.

Hier wäre mein Ansatz, zu prüfen, ob die Werte zu “name” und "name " identisch sind: “name”=“Buxtehude” und "name "=“Buxtehude” - in diesem Fall kann "name " ersatzlos entfallen; andernfalls nicht anfassen, sondern die Korrektur Menschen überlassen.

Ich führe die Diskussion schon lieber hier, wo ich einen breiten Querschnitt der deutschen Mapper erreiche: erfahrene und weniger erfahrene; solche mit mehr oder weniger technischem Hintergrund; Mapper, die z.T. überraschendes, aber durchaus hilfreiches Spezialwissen aus ganz anderen Bereichen einbringen; Mapper aus allen Teilen des Landes (wichtig für regionale Besonderheiten); vor-der-eigenen-Haustür-Mapper und Weltreisende; reine Mapper, Kartenersteller, Auswerter, …; Anhänger und Gegner von automatischen Bearbeitungen :wink: usw. In einem kleinen Spezialforum sammeln sich oft “Experten”, die alle einen ähnlichen Hintergrund haben und folglich alle auf dem gleichen Auge blind sind (vgl. die “tagging”-Mailingliste).

Danke für den Hinweis, darauf wäre ich z.B. nicht gekommen. Aber ein Beispiel würde mich auch interessieren.

Hatte ich ursprünglich als eine separate Aufgabe angesehen, aber eigentlich hast Du Recht: die lassen sich mit der Leerraum-Beseitigung zusammenfassen und können aus meiner Sicht ersatzlos weg. Allerdings nur leere Werte, nicht leere Schlüssel (es sei denn, der Wert ist ebenfalls “” oder enthält nur Leerraum).

Ich würde aber (auch bei der Beseitigung von Leerraum) noch eine Sicherung vorsehen wollen und vor einer automatischen Korrektur überprüfen, ob das beanstandete Tag in allen Versionen des Objekts vorhanden war, also key=“” in Version 1 bis N. Gab es in Version N-K noch key=“non-nil”, könnte key=“” in Version N auf eine unbeabsichtigte Löschung zurückgehen. Genauso war es bei dem eingangs erwähnten Weg, wo “addr:city”=“Neuss” zu " "=“Neuss” wurde. Daher eine automatische Korrektur nur bei Übereinstimmung des problematischen Tags in allen Versionen vornehmen und sonst Menschen die Arbeit überlassen (oder den Algorithmus später erweitern, wenn sich ein Fehlermuster z.B. durch einen bestimmten Editor erkennen läßt).

Wie gesagt: es geht nur um Leerraum an Anfang und Ende. Von einer Vereinheitlichung von “10a” und “10 a” lasse ich die Finger.
Mir war nur der hohe Anteil von addr:street aufgefallen. Ich weiß noch nicht, ob vielleicht ein Muster (kaputter Editor) dahinter steckt oder es bloß die Gewohnheit ist, Straße und Hausnummer nacheinander einzutippen: Fehler bemerkt, Hausnummer gelöscht und in addr:housenumber geschrieben, Leerzeichen vergessen. Dafür spricht, daß nur in einem von 298 Werten das überzählige Leerzeichen am Anfang steht. Die häufigsten Werte sind (leider hexified):

     15 "Augustastraße "
     13 "Schulstraße "
     10 "Lilienthalstraße "
     10 "Jägerstraße "
      9 "Selmshof "
      9 "Heinrich-Heine-Straße "
      9 "Am Kessner Berg "
      5 "Niemtscher Weg "
      5 "Lübecker Straße "
      4 "Hauptstraße "
      4 "Breiter Weg "
      4 "Branderheide "
      4 "Alsterdorfer Straße "

Aus addr:postcode wird überzähliger Leerraum ja bereits im Zuge der Adresskorrekturen entfernt, um die Form “[1]{5}$” einzuhalten.

Endlich eine Erklärung für die 91 führenden Leerzeichen in " Dr. Konrad Adenauer Str."! Von “esoterischen Programmiersprachen” hatte ich auch noch nie gehört - wieder was gelernt.


  1. [:digit:] ↩︎

Ich denke das liegt daran, dass niemand Lust hat für jede Hausnummer die Straße extra einzutippen, und daher der Wert einfach kopiert wird. Dabei kann es schonmal passieren, dass man versehendlich ein Leerzeichen mitkopiert.

Das war ja nur als Beispiel gemeint, warum ich es für sinnvoll halte, in einem technischen Kontext bei Massenedits um Feedback zu bitten.

Bei Markdown kann man einen Zeilenumbruch (line feed) im Unterschied zu einem Absatzumbruch eben durch das Anhängen von einem oder mehreren Leerzeichen am Zeilenende generieren. Es wäre ja nun möglich, dass es z.B. im “description”-Feld längere Texte stehen, die mit Markdown formatiert sind, und dort könnte eben durch eine “multiple to single whitespace”-Aufräumaktion die Formatierung verlorengehen. Klar, am Textende ist das irrelevant, weil dort so und so kein Umbruch stehen sollte.

Ich habe mich mit OSM noch nicht auf der API/Datenbankebene beschäftigt, kann deshalb nicht mal schnell herausfinden, ob irgendwo überhaupt Mardown verwendet wird. Sollte eh nicht, wenn es nicht eine definierte Formatangabe dazu gibt, als “description:markup_type” etwa.

Ich bin auf jeden Fall für I. und II.a. Ich würde ebenfalls das trimmen von Leerzeichen in Freitextvalues unterstützen (da haben sie genausowenig zu suchen, der Code dürfte einfacher werden und verschiedene Probleme, wie Sortierung wurden ja schon angesprochen). Ich würde sogar soweit gehen, und mehrfache Leerzeichen in der Mitte (nicht nur) von Freitextvalues zu einem zusammenfassen: Manche nutzen das nämlich leider, um Namen in Mapnik an ihnen genehmeren Stellen rendern zu lassen. Würde das durch einen Bot gefixt, würden die entsprechenden Mapper schnell darauf hingewiesen, dass das keine gute Praxis ist und es sich in Zukunft wohl anders überlegen. Eventuell könnte man ja, wie bei den anderen Korrekturen durch Wall·E für solche Korrekturen eine Liste führen, damit ein Objekt nicht zweimal angefasst wird, für die seltenen Fälle, wo das vielleicht doch mal sinnvoll sein sollte.

Btw., wenn ich’s gerade schon von der Liste habe: Speichert die eigentlich nur das Objekt oder auch, welcher Fehler korrigiert wurde - sprich, wenn jemand das ganze nicht auf den Stand von vorher zurücksetzt, sondern einen neuen, potentiellen Fehler einbaut, greift Wall·E dann nochmal ein, oder nicht?

Es gibt eine Sperrliste pro Korrekturgruppe, also bisher eine für Straßennamen (highways) und eine für Adressen. Heißt: wenn Wall·E addr:street korrigiert und jemand später z.B. eine zwölfstellige Postleitzahl einträgt, landet das Objekt im Filter, wird aber vom Programm für Adresskorrekturen ignoriert. Der Whitespace-Killer würde aber ggf. zuschlagen, weil er nur auf seine eigene Sperrliste schaut.

Ersteres ist zugegebenermaßen unschön, aber die Details der Korrektur zu speichern wäre mir zu aufwendig. Im Normalfall wird ein Objekt nur einmal angefaßt und die Information zu den Details der Korrektur wird nie wieder benötigt (falls doch, ist sie immer noch in der OSM-DB vorhanden), zumal die Wahrscheinlichkeit relativ gering ist, daß erneut ein Fehler aus derselben Gruppe eingebaut wird. Die Straßennamenkorrektur schreibt aber bei einem Wiedersehen mit einem früher bearbeiteten Objekt bereits jetzt einen Vermerk ins Log, sodaß Mensch nachsehen kann, was da los ist: [1]

note: way #159489799 is listed in exclusion list - skipping

Für die Adresskorrekturen ist diese Ausgabe derzeit noch deaktiviert, weil der Prozess wegen des eingebauten Limits häufig mehrmals am Tag läuft und dann beim Durchsuchen der Kandidatenliste erneut auf die Objekte trifft, die er im vorigen Durchgang bereits korrigiert hat. (So erklären sich auch vereinzelte Vermerke bei der Straßennamen-Korrektur.)

Am Rande: Der Umzug auf den Toolserver ist vollzogen. Ein cronjob ist nun - hoffentlich - so eingerichtet, daß jeweils am 07., 17. und 27. eines jeden Monats die Korrektur der Straßennamen durchläuft. Die bislang fehlerfrei arbeitenden Adresskorrekturen werde ich ebenfalls bald automatisiert starten (im Moment geschieht nur die Kandidatensuche automatisch, die Korrektur starte ich noch manuell); voraussichtlich täglich oder 2-täglich.

[1] Wenn jemand nachsehen will, bitte nicht nur auf die aktuelle Version, sondern auch in die History schauen. Inzwischen wird die Meldung nicht mehr ausgegeben.

PS. Die spartanische Sperrliste sieht so aus:

((node 308058715 559422772 622142742 669135677 ...)
 (way 23478981 25475868 28416789 46258880 46271268 ...)
 (relation 1617599 2181504))

Nur Objektnummern, keine Details.

+1, ich finds auch komisch wenn keine Resonanz kommt, aber mittlerweile denk ich, entweder interessiert es niemanden, oder keiner hat eine gegenteilige Meinung :slight_smile:

Aber ich schreib auch gerne meinen Senf noch dazu:
generell +1, auch für die sehr gute Informationspolitik!

Jedoch würde ich die Korrektur nicht nur I. & II.a, sondern auch II.b einsetzten, denn:
Wie willst du die “(Mehr oder weniger) echte Festwert-Tags” herraussuchen? Oder willst du jedes mal alle neuen Werte prüfen und ggf. im Wiki nachschlagen, ob es nun ein Festwert ist oder nicht?
Mir fällt kein Grund ein, ein führendes bzw. abschließendes Leerzeichen, Tab o.ä. in einem Tag zu verbauen.
Jedoch würde ich vorher erstmal einen Blick auf die Liste mit den nicht-Festwert-Tags zu werfen, bevor man dort die Zeichen löscht, vielleicht fällt dort direkt was auf.

P.S.: Leere Tags würde ich nicht löschen, sondern per Hand (ggf. fixme setzten) bearbeiten, da sie wohl nicht so viele sind(?). Denk es ist vieeel aufwändiger, die verschiedenen Korrekturmöglichkeiten dem Programm beizubringenden, als den Tag eben per Hand zu untersuchen. (Dies gilt nur, wenn es nicht viele solcher Einträge sind.)

Nein, nicht jedes Mal - initial eine Liste erstellen und diese in größeren Abständen (Monate) ergänzen. Für mich wäre es in der Tat weniger Arbeit, die Leerraumkorrektur ohne Rücksicht auf die Art des Tags durchzuführen (der Code dafür ist im Prinzip fertig). Meine Zurückhaltung bei II.b liegt darin begründet, daß ich eine Korrektur (Eingriff in den Datenbestand, neue Version usw.) nur dann vornehmen will, wenn der Fehler tatsächlich ein Problem darstellt - und nach meiner Wahrnehmung sollten Anwendungen mit überschüssigem Leerraum in Freitext-Tags (daß er dort in aller Regel nicht hingehört, stelle ich nicht in Abrede) keine großen Schwierigkeiten haben. Ich lasse mich aber nur allzu gern vom Gegenteil überzeugen. Das Stichwort Sortierreihenfolge war schon mal ein interessantes Argument.

Auch ich denke, dass I und II.a (Schlüssel und Festwerte) problemlos sind.
Deine Bedenken zu II.b (Freitextwerte) teile ich, der Nutzen ist ggfs. nur begrenzt. Anders sähe es aus, wenn Wall÷E mehrere WhiteSpace auch innerhalb des Wertes zu einem Blank zusammenfassen würde.

Eine Anregung (für jetzt oder für die Zukunft) wäre auf Blank oder Strich statt Unterstrich in Schlüssel oder Festwert zu prüfen. Das dürften neben falscher Großschreibung (z.B. Yes) die häufigsten Ursachen für ‘seltsame’ Taggs sein.

Edbert (EvanE)

Weißzeichen am Anfang und Ende sollte man auch bei Freitext-Werten entfernen, da diese vermutlich Suchabfragen z.B. mit der Overpass-API beeinträchtigen würden.
Wenn man möchte, könnte man eine Liste von Schlüsseln (wie z.B. note) aufstellen, für die die Korrektur entbehrlich erscheint, aber ich halte den Aufwand für übertrieben.

Einfache und mehrfache Weißzeichen jeglicher Art in Schlüssel und Wert sollten zu einem einzelnen Leerzeichen konvertiert werden.
Beim Wert müßte man aber anhand der müßte man anhand der vorhandenen Fälle im Datenbestandes prüfen, ob es nicht vielleicht doch unglücklich definierte Schlüssel gibt, bei denen jedes Zeichen im Wert eine kodierte Bedeutung hat.
Beispielweise könne es bei abweichender Definition zum Beispiel ein turn:lanes=“L R” statt turn:lanes=left|||right geben.

Bezüglich Entfernen von Tags ohne Wert sollte man eine Whitelist von Schlüsseln aufstellen, für die dies ohne Informationsverlust möglich ist. Beispiele wären “name=”, “lit=” und “maxspeed=”.

Ein Gegenbeispiel wäre “maxweight=”, da dieses ein Hinweis darauf sein könnte, dass eine der vergleichsweise seltenen Beschränkungen an diese Stelle vorliegt und noch erkundet werden muss.

Moins,

damit sich jeder ohne Aufwand ein eigenes Bild machen kann, hab ich die Objekte mit unnormalisierten Blanks in Tags bereitgestellt, rund 1.2 Millionen Einträge (~90Mb) als Bzip2 (gut 6Mb) und als Gzip (knapp 8Mb).

Die meisten Mehrfachblanks sind wohl zufällig entstanden; sie werden aber auch benutzt zum Formatieren (from/to bei Bus-Relation) oder als Ersatz für “;” bei einem automatischen Import. Die sinnvollen(?) wird man kaum von den sinnfreien automatisiert unterscheiden können. Ein Normalisieren “\s+”→“\040” wird also Mitarbeiter verärgern.

Irgendwas ist ja immer. :confused:

Gruß Wolf

Finde ich löblich, dass du dich nur um problematische Dinge kümmern willst und es sollte natürlich immer darauf geachtet werden, dass es möglichst nicht zu Fehlkorrekturen kommt. Wenn allerdings, wie in diesem Fall, keine Fehlkorrekturen zu erwarten sind, sondern die zusätzlichen Korrekturen bestenfalls überflüssig, aber trotzdem an sich richtig sind, würde ich mir hier an deiner Stelle nicht den zusätzlichen Aufwand machen. Ein zusätzliches Argument hätte ich noch: Wenn du eine Liste von Festwert-Tags führst, wird diese nur die häufigsten solchen Tags beinhalten. Die sind natürlich am problematischsten, aber sie dürften auch am ehesten auffallen. Seltene Tags mit versehentlichem Whitespace findet dagegen möglicherweise nie jemand manuell, also wäre gerade hier ein Bot hilfreich. Alternativ könnte man natürlich eine Liste von Freitext-Tags führen, aber das scheint mir auch nicht wesentlich sinnvoller.

Btw.: Hast du eigentlich vor, das hier auch bei Gelegenheit zu übernehmen? Ich denke, praktisch alle dieser Korrekturen sind gerechtfertigt und waren ja bei Xybot schon soweit anerkannt und betreffen sehr häufige Fehler. Wenn es wirklich einzelne fragwürdige Verbesserungen gibt, dann muss man die ja nicht übernehmen, aber der größte Teil wäre es denke ich wert.

Hi,

Eventuell habe ich den Aspekt in diesem Faden übersehen, aber was ist mit solchen Tags:

In OSMI findet man sie sehr einfach. Gibt es für diese Art von Tags Regeln, vor allem beüglich der Leerzeichen?

Grüsse

mdk

Danke, die Liste ist in der Tat aufschlußreich. Ich habe es zwar erst einmal nur auf Deutschland abgesehen, aber man kann ja auch mal etwas über den Horizont gucken.

Leerraum mittendrin kommt z.B. aus Importen wie diesem: da ist aber nicht nur der Leerraum falsch, sondern auch die GROSSBUCHSTABEN.
Manchmal ist er vermutlich sogar beabsichtigt - zwei Leerzeichen nach einem Punkt als Satztrenner, etwa hier in einer note. Hier kommt mir addr:street auch ohne die Leerzeichen mittendrin spanisch vor. Auch dieser Import läßt eine Vorverarbeitung (hier von name:ko_rm) vermissen, der hier analog (name sowie naptan:CommonName). Und auch die Kann-Weg-Importeure mögen Leerzeichen (zufällig ausgewähltes Beispiel), ebenso die Freunde von Cadastre (source-Tag “… mise à jour : 2010”). Beim Tiger-Import sind Leerzeichen wie hier in name ohnehin das kleinste Problem. Und bei einem Weg aus diesem schnuckeligen Import sind ebenfalls weniger die Leerzeichen in “massgis:COMMENTS”=“BARNSTABLE-ID# 1000028” (Ausgabe mit fester Breite) störend als generell die Schwemme überflüssiger Tags.

Und so weiter, die manuell verbauten mehrfachen Leerzeichen fallen weltweit gegenüber denen aus Importen kaum ins Gewicht.

Der Findvej-Adressimport hat wohl auch einige leere addr:housename generiert, aber besonders hübsch finde ich die Formatierung von - per se schon völlig überflüssigen - Gleitkommazahlen in diesem Import, die u.a. auch führenden Leerraum generiert hat.

Ein Glück, daß bei OSM keine Goldene Himbeere als Publikumspreis für den am meisten vermurksten Import vergeben wird - ich könnte mich gar nicht zwischen den Kandidaten entscheiden. Aber zurück zum Thema. Die Situation hierzulande ist völlig anders als im Rest der Welt (bzw. planet.osm in Summe); kannst Du mal eine gleichartige Tabelle für DE erstellen? Mehr möchte ich ohnehin nicht anfassen (vielleicht später einzelne weitere nicht importverseuchte Länder, falls dort Interesse besteht - aber nach Durchsicht Deiner Liste kommt ein weltweiter Einsatz eher nicht in Frage).