Gedenktafel gelöscht

Mach ich! Bzw. mach ich nicht. Aber fragen, wie er auf den Trichter kommt, solchen Unsinn zu machen, werde ich wohl.
Köln mache ich eigentlich nur in Kleinprojekten ( Nischenmapping - kreativ,n.w? ). Aber es werden versch. Stadtteile überhaupt nicht bedient. Kölner Mapper muss es wohl genug geben. Die verteilen oder (verstecken) sich aber in der Stadt. Kenne keinen linksrhn. per Kontakt. Daher schätze ich, obige Frage verläuft im Sand. Das heutige Problem war ja auch nur ein Zufallsfund. Ok. Du erhälst noch Info von mir.

Hase und Igel … Stolpersteine und Gedenktafeln … die allzu prominente Darstellung ist mehr als einem Kartennutzer “ein Dorn im Auge”. Das Problem als solches wird sich auf Dauer wohl nur durch Anpassung der Renderingregeln beheben lassen. Das wurde von den Verantwortlichen aber als technisch schwierig bzw. derzeit unmöglich dargestellt. Schade.

Gruß Klaus

Ich habe mich gerade folgenden Service erinnert http://osm.mapki.com/history/relation.php?id=533305, anscheinend hatte zumindest diese
Relation nicht mehr Member.

Also, es gibt noch einen Menge einzutragen

Bernd

Stimmt. Da hat jemand zwischendurch ziemlich aufgeräumt.

Overpass hilft da weiter: http://overpass-turbo.eu/s/5w3

Nö, siehe Link oben.

Werden durch diese Abfrage gelöschte Stolpersteine angezeigt? Weil für meine sehr nahe Umgebeung werden ein paar angezeigt.

Bei Option 2, ja. Im Moment ist die Darstellung noch nicht optimal, es fehlt noch eine Verbindung von achavi und turbo.
(Links zum Ticket und Achavi).

Als “Entdecker” der Löschungen etc. melde ich mich nun wieder.
Am meisten hatte mich gewurmt, dass ich nur per Zufall gesehen habe, dass mein Mapping gelöscht war. Ich hatte versucht mal ein Tool zu finden, welches mich über nachträgliche Changes informiert und das nun nicht nur aus einer kleineren Region. Daraufhin habe ich mir mal ein Script gebaut, welches mir nun alles meldet was meine bisherigen und folgen Changes von Objekten betrifft.
So habe ich nun auch gelistet bekommen, dass Bernd die gelöschte Gedenktafel reverted hat. Erstmal Dank an Bernd für die Fleißarbeit!
Die nun doppelt vorhandene Gedenktafel, ich hatte inzwischen diese wieder gemappt, habe ich gerade gelöscht - also hier alles wieder bestens.
Passt nicht zum Thema, aber ich denke mal so:
Es ist schon interessant, wie sich die Objekte so entwickeln. Und da freut es mich schon, wenn andere neue Properties einfügen oder vorhandene ändern. Oder man muss mal sehen, warum das anders sein soll und kann sich dann austauschen. Man ist sowohl als Newbie aber auch als alter Hase nie vor Fehlern oder Irrtümern gefeit.
Nun kann ich mal alle von mir bearbeiteten und anderen modifizierten Objekte anschauen.

Wäre das Tool nicht etwas , was zur Qualitätssicherung beitragen könnte?

Die Frage ist, wie geht so ein Script mit vielen, sagen wir mal 200000, erstellten Objekten um?
Macht eigentlich nur Sinn, wenn man das auf einen lokalen Dump der Datenbank ansetzt.

Da genügen mir ansonsten der RSS von WHODIDIT, die Seiten von Pascal Neis und ITO.

Das gibt genügend Möglichkeiten, seine Zeit zu verbringen, hält mich manchmal doch
vom Mappen ab :wink:

Ich sehe es mittlerweile lockerer, OSM ist wie eine Pflanze, es wächst, kriegt Austriebe,
dann fault was weg…

Bernd

Das könnte sicher auch andere interessieren und würde Vandalismus vielleicht mal eingrenzen sowie die Diskussionen um Mapping / Tagging beflügeln.
Das Script ist eine bash und ich könnte das als TAR-File einstellen - nur bitte wo? Tip gewünscht. Wenn ich wieder Zeit habe schaue ich mal ins Forum deswegen.
Das TAR-File legt in $HOME (~) ein Verzeichnis an mit einigen Dateien.
Dann werde ich vorher noch an der Sache herumfeilen und eine README schreiben.

Da liegt schon ein Problem. Eine bash ist nicht die schnellste. Es ist nicht weniger die lange Dauer auf dem “heimischen” Rechner, sondern es sind die vielen Zugriffe auf die OSM-Datenbank. Wenn das Script dann noch häufig gestartet wird, ists dann aus mit der Performance.

Am besten im Wiki auf deiner Userseite.

Für die Formatierung bietet sich an:

...

dann sieht’s wie hier aus: http://wiki.openstreetmap.org/wiki/Mercator#bash-script_.28bc.29

Das ist schlecht. Da wird garantiert in kürzester Zeit deine IP geblockt. Also eher keine Option.

Das Wiki halte ich ebenfalls für den geeigneten Ort. Den Quellcode kann man dort hinterlegen und eine Kurzbeschreibung (README) ebenfalls unterbringen. Da ich nicht weiß wie es mit Dateianhängen im Wiki aussieht könnte man - sofern es nicht geht - schauen ob man entweder bei einem Cloudanbieter die Datei hostet oder auf github, sourceforge… dein Skript hinterlegt. Das Wiki halte ich aber für die sinnvollste Alternative. Jedoch würde ich nicht auf Anhieb darauf kommen in Benutzerseiten zu suchen. Gibt es eine Sektion für Skripte? Könnte man diese ggf. anlegen?

Eigentlich schreit sowas nach einer Auswertung der Planet-History- da steht ja jeder Pups drin.

“Uneigentlich” ist der verfügbare Dump 20 (zwanzig) Monate alt :frowning:

Gruss
walter

Gibt nen experimentellen history Dump, der ist nur 3 Tage alt: http://planet.openstreetmap.org/planet/experimental/

Viel spass beim download der 40gb. :roll_eyes:

57! Download läuft schon.

Danke und Gruss
walter

schade: die senden nur mit ~500KB/s. ansonsten wäre der in 3 Stunden hier :frowning:

Meinte das File im PBF-Format. Ist 17GB kleiner…

Puh, Glück gehabt, da kann ich noch mithalten…

Man könnte sich das ja mal antun (Platz und CPU hab ich massenhaft), aber wie sieht es mit Software aus?

a) gibt es was zum Auswerten oder fängt man mit SQL bei Null an?
b) viel wichtiger: Kann man den Dump mit Diffs aktuell halten?

wenn b gegeben wäre, könnte man mal drüber nachdenken, daraus was zu machen.

Aber wir schweifen ab.

Gruss
walter

Ohne jetzt strunzen zu wollen, Du hast wirklich ein Problem mit Deinem Zugang.

Ich habe gerade mal vom Laptop über WLAN versuchsweise mit wget versucht den Planet zu ziehen.

Ich komme auf rund 6 MB/sec, also etwa 50 Mbit, bei einer 100 Mbit-Leitung.
Es sind kaum Schwankungen zu beobachten.

BTW:
Ich hänge am Ende einer Line mit etwa 20 Hausanschlüssen, die aufgrund von Problemen vor zwei Jahren
alle erneuert wurden, die T-Muffen waren abgesoffen.

Bernd

Nö, die Leitung ist es nicht:


wget http://planet.openstreetmap.org/planet/experimental/history-2014-10-13.osm.pbf
--2014-10-19 17:26:31--  http://planet.openstreetmap.org/planet/experimental/history-2014-10-13.osm.pbf
Auflösen des Hostnamen »planet.openstreetmap.org (planet.openstreetmap.org)«... 2001:630:12:500:225:90ff:fec4:f6ef, 193.63.75.107
Verbindungsaufbau zu planet.openstreetmap.org (planet.openstreetmap.org)|2001:630:12:500:225:90ff:fec4:f6ef|:80... verbunden.
HTTP-Anforderung gesendet, warte auf Antwort... 200 OK
Länge: 42993763741 (40G)
In »»history-2014-10-13.osm.pbf.1«« speichern.

 0% [                                                                                             ] 15.426.402  4,86MB/s  ETA 2h 20m ^C
wambacher@wno-server:/data/planet$

5-6 MB/s

Hatte halt FF genommen.

Danke für den Hinweis. 2h:20m sind schon was anstelle von 30 Stunden :slight_smile: Nur lass ich das dennoch erst mal, da ich keine Zeit für die weitere Verarbeitung habe.

Gruss
walter

ps: Mein IP4/IP6-Problem scheint an meinem Server zu liegen; auf meinem neuen Server2 ist alles ok.