Hausnummern um Leerzeichen Bereinigen

Kennt Irgendjemand eine Anleitung, mit der ich Hausnummern mit Leerzeichen in Hausnummern ohne Leerzeichen verwandeln kann.

Die Variante ich Klick mich über Regio-OSM Link zu JOSM durch und mach das von Hand funktioniert zwar, da mein Vormapper aber Leerzeichen gut fand, ist die etwas aufwendig.

Warum?

  • für einen Auswerter ist es eine Kleinigkeit, das vor der Ausgabe schnell umzuformen. (Leerzeichen raus, Groß → klein, feddich)
  • einer vernünftigen Suche ist das auch schnurzegal
  • du kannst nie und nimmer verhindern, dass 10 Sekunden nach deinem Lauf nicht jemand irgendwo die Hausnummern so eingibt, wie es dir nicht gefällt.

Lass es einfach

Gruss
walter

\set hn '''  4 7   A '''

select :hn orig,lower(replace(:hn,' ','')) new;

    orig    | new 
------------+-----
   4 7   A  | 47a

Hallo TheFive,

wenn es um eine größere Anzahl Hausnummern geht, würde ich alle im Gemeindegebiet über Overpass holen und direkt im OSM-File per regulären Ausdrücken suchen und ersetzen, das dürfte schnell gehen und Du kannst relativ sicher sein, nicht falsche Daten zu bearbeiten.

Du kannst mir eine Mail schreiben mit den Details, dann kann ich das nebenbei machen, ich würde eigentlich sowieso nur sotm stream schauen, wenn denn der Vortragende käme (aktuelle Mapillary) ;(

viele Grüße

Dietmar

Hi Dietmar,

geht um http://www.openstreetmap.org/relation/162724.

Walter:

Wir mappen doch für irgendwas, in diesem Fall für regio-osm.
(just to please this statistic: http://www.regio-osm.de/hausnummerauswertung/historischeentwicklung/grafik?job_id=2530)) :slight_smile:

Christoph

Hallo Christoph,

fertig, es waren 58 Adressen.

Dann möge diese Anpassung gefälligst in der Auswertung gemacht werden. Ansonsten bessert ihr immer nach.

Gruss
walter

Und Morgen? Und nächste Woche? Und nächsten Monat? und nächstes Jahr? tbc

walter

Hallo Walter,

Ich mache das nicht in meiner Auswertung, damit wir eine möglichst einheitliche Schreibweise und damit gute Datenqualität in der OSM-DB haben.

Natürlich ist es eigentlich die Sache der Auswertungen, die heterogenen Daten, soweit möglich, für sich zu homogenisieren. Aber da wo es möglich ist, sollte es aus meiner Sicht bereits an der Quelle korrigiert werden, wenn es nicht unseren Ansprüchen oder Kriterien widerspricht.

Fakt ist, das nicht jede Auswertung z.B. die associatedStreet Relationen auswertet und so etliche Adressen dort gefunden werden, obwohl wir sie haben. Ich hätte es gerne, wenn die nicht für die Adressen verwendet würden, weil die Relation in dem Fall nicht notwendig ist. Ich akzeptiere aber den Standpunkt Anderer, die die wollen.

Wir sollten nicht aus Prinzip die Hetereogenität gutheißen, sondern sie in den Fällen belassen, wo es uns Vorteile bringt oder Sachen nur dann umsetzbar sind.

Zurück zu den 58 Adressen: wenn die jemand nächste Woche zurücksetzt oder neue wieder so erfasst, dann korrigeren wir das oder wir lassen es sein. Das ist dann halt die vertane Zeit von einigen wenigen.

Warum haben wir in einer Wochenaufgabe in diesem Jahr die Hausnummern um Straßennamen ergänzt und so etwa 100.000 brachliegende Adressen nutzbar gemacht? Weil wir darin einen Nutzen sahen und wenn die sich jetzt wieder langsam anhäufen, werden wir die halt vielleicht mal wieder in kleiner oder großer Personenzahl korrigieren, damit sie vernünftig nutzbar sind.

viele Grüße

Dietmar

Danke Dietmar.

Wäre das nicht eine Aufgabe für Wall-E? Der kann ja durchaus regelmäßig drüber laufen, das ist ja das schöne an einem Skript / einem automatischen Vorgang: Einmal schreiben, immer wieder nutzen und saubere Daten bekommen bzw. unsaubere Daten rauswerfen, bevor sie sich immer mehr anhäufen. Die Idee ist auf jeden Fall gut, in so einem Fall sollte man einfach die Initiative ergreifen, die Sache angehen und sich nicht von Meckerern aufhalten lassen.

…da könnten dann Großbuchstaben gleich mit angepackt werden (vorausgesetzt daß Kleinbuchstaben und Zusammenschreibung normgerecht sind).
lg
vademecum