Massenedit "-website (DNS does not resolve)"

(ich erwähne es hier mal, damit nicht zu viele Leute dem User unnötig schreiben)

… beispielsweise http://www.openstreetmap.org/changeset/20508389 (den Username nenne ich hier absichtlich erstmal noch nicht, bis das geklärt ist). Ich habe ihn um 19:19 (UTC) angeschrieben (um Erklärung und keine weiteren Edits gebeten), da mir die Edits nicht sinnvoll erscheinen und ich keine Erwähnung einer Diskussion in den Changesettags sah. Websiteprobleme sind oft ein gutes Zeichen dafür, dass ein Feature nicht mehr existiert oder umbenannt wurde (Teilweise ist auch einfach nur ein Tippfehler in der Adresse). Somit eine sehr wertvolle Information, die hier anscheinend einfach nur automatisch weggeworfen wurde.

Update: der betreffende Benutzer hat sich hier im Thread gemeldet, danke!

Ja, manchmal hätte ein “http” mehr oder weniger gereicht als Korrektur.

Moin,

die Domains die es nicht mehr gibt sind also eine wertvolle Information? Es geht hier nicht um Webseiten die 404er bringen oder so, davon sind noch reichlich mehr in der Datenbank, sondern nur wo der DNS schon nicht mehr klappt. Hätte hier eine Liste die YAPIS mir erzeugt falls die jemand haben will.

Ich wäre im Traum nicht drauf gekommen, dass nicht mehr erreichbare Domains in der OSM weiter gehortet werden sollen. Hatte immer so die Auffassung, dass der aktuelle Stand der Welt wiedergegeben werden soll. Wenn das so ist, dann müssen diese bösen Changesets natürlich sofort reverted werden!

Wenn mich jemand fragt: Ich find das peinlich für OSM wenn da Website-Einträge drin sind die einfach nicht mehr funktionieren. Von 87000 Website-Tags in Deutschland sind knapp 2000 von Domains die es gar nicht mehr gibt.

Macht doch was ihr wollt,

-moenk

Man sollte vielleicht eher sagen, dass die nicht mehr vorhandene / erreichbare Webseite keine Information ist, sondern eher ein Anhaltspunkt dafür, dass es dieses POI vielleicht gar nicht mehr gibt und man ihn deshalb überprüfen sollte. Eine nicht mehr vorhandene Webseite gehört natürlich ganz klar nicht mehr in OSM hinein, das dürfte völlig klar sein. Aber wenn man eine solche findet, dann sollte man das am besten zum Anlass nehmen, um zuerst zu überprüfen, ob es denn den POI überhaupt noch gibt, und diesen gegebenenfalls ebenfalls löschen. Wenn man nur die Webseite löscht, dauert es vielleicht länger, bis jemand auf diese mögliche POI-Leiche aufmerksam wird. Von daher ist es schon grundsätzlich gut, nach solchen nicht mehr vorhandenen Webseiten zu suchen und diese als Anlass für einen Edit zu nehmen, aber der sollte nötigenfalls tiefer gehen als nur das Tag zu löschen.

Von den nun gelöschten hätte aber schonmal bei den zwei hier genannten eine Korrektur automatisch erfolgen können. Bei einem weiteren zufällig ausgewählten POI war eine Websuche erfolgreich. Bei weiteren müsste vermutlich nicht nur die Website gelöscht werden, was ohne die “defekte” URI übersehen wird.

Gegen eine systematsiche Überprüfung habe ich nichts, aber einfach ohne Prüfung löschen ist offensichtlich keine gute Idee. Eine solche Prüfung müsste imo in diesem Fall mindestens umfassen: Erreichbarkeitsprüfung nach manueller Syntaxkorrektur (z.B. “http://” oder “www.” ergänzt/entfernt), Websuche nach dem POI. Also das, was ein anderer Mapper (hoffentlich) machen würde, wenn er anhand der Website prüfen will ob z.B. die Öffnungszeiten noch aktuell sind.

Hallo moenk!

Dann ist vermutlich dein DNS defekt, denn ich kann z.B. diese von dir entfernten Internetseiten problemlos erreichen:
https://www.openstreetmap.org/node/2211040311/history
https://www.openstreetmap.org/node/2209560854/history
https://www.openstreetmap.org/node/2551334526/history
https://www.openstreetmap.org/node/364138475/history
https://www.openstreetmap.org/node/2088627369/history
https://www.openstreetmap.org/node/2210500216/history

Außerdem sind z.B. diese Adressen sehr einfach zu korrigieren und existieren noch:
https://www.openstreetmap.org/node/1594508335/history
https://www.openstreetmap.org/node/2228280821/history
https://www.openstreetmap.org/node/1868510140/history
https://www.openstreetmap.org/node/1813074734/history
https://www.openstreetmap.org/node/2242348627/history

Nicht ohne Grund wird vor einer automatischen Massenbearbeitung gefordert, diese zu diskutieren und auch die technische Seite zu erläutern.

Viele Grüße,
whb

Danke alle eure Kommentare hier!

Ich finde, wir sollten wir die Edits einfach nur reverten (evtl. optional mit automatischer Korrektur, aber vielleicht ist das separat sinnvoller). Nichtfunktionierende Websites werden schon durch beispielsweise keepright entdeckt und können so von Ortskundigen bearbeitet werden (in welcher Weise auch immer). (das ist, was ich moenk auch per Mail schrieb). Ich sehe, dass meine Meinung hier unterstützt wird.

Optional kann man die Liste fehlerhafter Websites z.B. zum Abarbeiten ins Wiki stellen, aber, wie gesagt, das macht keepright auch schon. Ortskundigkeit ist beim Überprüfen der Existenz eines POIs sehr sinnvoll. Ich habe die 404-Hinweise von Keepright schon öfters zu diesem Zweck genutzt. Wenn man, in Einzelfällen - nicht als Massenedit, die nichtfunktionierende Website nicht beheben kann, und sich nicht gleich vor die Haustür machen mag (oder per Telefonnummer ausm Webarchiv anrufen mag), dann könnte man auch ein fixme dranhängen. Bei keepright mache ich es meist so, dass wenn ich keinen offensichtlichen Fehler finden kann, ich erstmal auf “temporär gelöst” klicke und als Kommentar “warten wir mal noch ne Woche” dranhänge. Websiteumzug, technische Probleme (bei kleinen Geschäften gern auch mal mehrere Monate lang), …

Noch einmal zur Fehleranzeige (auch bei keep_rigth):

Mir ist aufgefallen das einige Websites als Fehler angezeigt werden, die bem Aufruf aber funktionieren (auch bei keep_rigth).
Könnte es sein, dass bei der Abfrage vielleicht die Website (kurzzeitig) nicht erreichbar ist und dann schon der Fehlerstatus gesetzt wird?

EDIT:
Hier als Beispiel.

Das ist mir auch aufgefallen… Trotz KeepRight-Fehlermeldung sind die angemeckerten Webseiten erreichbar…

Sven

Tatsächlich hat KeepRight hier Recht, wenn man sich die Response-Header ansieht:

Content-Language: de
Last-Modified: Wed, 12 Feb 2014 09:01:02 +0000
Vary: Cookie,Accept-Encoding
Content-Type: text/html; charset=utf-8
Cache-Control: public, max-age=1209600
Content-Length: 41431
Accept-Ranges: bytes
Date: Wed, 12 Feb 2014 09:35:02 GMT
Connection: keep-alive
X-VCache: MISS
X-Age: 0
Proxy-Connection: keep-alive
404 Not Found

Die Webseite liefert also tatsächlich einen Fehler in Form des HTTP-Statuscodes 404, obwohl sie aufgerufen werden kann… Das würde ich eher als einen Bug bei der entsprechenden Webseite ansehen.

Ihr redet über vitalis-senioren.de? Jo, eine dämliche Form der Weiterleitung, die aber recht beliebt ist… Machen auch manche Shops und andere CMSe so: Man liefert bei Aufruf einer nicht vorhandenen Unterseite eine 404 und danach (also da wo in einer korrekt funktionierenden Seite eine hilfreiche Fehlermeldung kommt) die Startseite. Das soll Suchmaschinen und Crawler vom Aufruf der gelöschten Seite abhalten, ohne den Besucher mit Fehlermeldungen zu behelligen.

Die Senioren haben ihre Seite umgebaut, das Haus in Dresden findet man nicht mehr unter “Home - Vitalis Senioren-Zentren”, sondern unter dresden.vitalis-senioren.de

Hier übrigens als Beispiel für die Detektion durch Keepright eines der obengenannten Probleme mit einmal http zu viel: http://keepright.at/report_map.php?schema=4&error=27218941 Entdeckt von keepright (“The URL (http://http://www.schurk-markelsheim.de) cannot be opened (HTTP status code 504)”).

Gut, also? Weiteres Vorgehen? Ewig sollten wir mit einem möglichen Revert nicht warten – je eher desto problemloser. Spricht etwas dagegen? Andere Vorgehen? Ansonsten würde ich mich heute Abend vom aktuellsten zum ältesten Changeset per JOSM reverter durcharbeiten (nur Revertieren, keine Korrekturen).

Was mir eingefallen ist: der Fall mit “http://http://…” wäre evtl. auch eine passende Aufgabe für den Korrekturbot Wall·E.

IMHO sollte das erstmal revertet werden. Anschließend doppeltes Protokoll o.ä. von einem Bot korrigieren lassen. Alle anderen Fehler per Hand über KeepRight o.ä.

aseerel4c26,

nur zu, das Revert war ja von Anfang an Dein Wunsch, soll ja alles seine Ordnung haben. Dann sind die ganzen nicht funktionierenden URLs wieder drin. Wäre noch schön wenn die anderen Korrekturen die ich dabei gleich mit gemacht habe (sonst will JOSM nicht so gern hochladen) irgendwie nicht noch mal gemacht werden müssen.

Nachdem sich nun einige Erbsenzähler tatsächlich die Mühe gemacht haben die URLs durchzugucken, ob nicht doch welche dabei waren die man hätte retten können, wäre es nun ja auch gut die übrigen website-Tags anzugehen. Wie auch immer wir mit solchen Fällen umgehen - vielleicht sowas wie “fixme=website”, natürlich nur da wo noch kein Fixme steht. Aber das können wir ja erstmal hier diskutieren.

LG,

-moenk

Warum ein fixme Tag? Dafür gibt es Tools wie KeepRight. Und ansonsten behebt man es direkt.

Ja, die Sympathie empfinde ich ebenso. Es geht mir nicht um Ordnung (im übertriebenen Sinne), sondern um das bessere Ergebnis für unseren Datenbestand.

Die anderen Korrekturen beim Revert herauszufummeln halte ich für zu kompliziert und Fehleranfällig. Um es KISS zu halten übrigens auch das schrittweise Vorgehen: Revert, anschließend evtl. koordiniertes automatisches Verbessern und der Rest bleibt für keepright (wo das Problem ja schon bestens bearbeitbar ist).

Wenn du eine bessere Idee hast, dann lass sie uns wissen. Du kannst auch sehr gern selbst revertieren. Schade, dass du aber anscheinend immer noch nicht verstanden hast, dass deine Aktion kontraproduktiv war.

Achja, ich bitte, dass das Revertieren jemand anderes übernimmt. Das scheint mir ob der Uneinsichtigkeit von moenk und meiner Rolle als Quasi-Ankläger angebrachter.

done.

Gruss
walter

Danke Wambacher!

Verbesserungsvorschläge für’s nächste Mal:

  1. hier ankündigen, wenn du anfängst und dann anschließend einfach den Beitrag editieren und hinzufügen dass du fertig damit bist. Das vermeidet, dass jemand anderes zur gleichen Zeit damit auch anfängt.
  2. Im Änderungskommentar sollte nicht nur “dns-revert”, sondern auch diese Diskussion angegeben sein, damit jeder, der die Änderung sieht, sie nachvollziehen kann und weiß, dass diskutiert wurde.

Gut, was hätten wir für Fehler, die evtl. vollautomatisch durch einen Bot behebbar sind?

jeweils nur am Anfang des Value-Strings zu ersetzen:

Ob das Anfügen von “http://” im Falle der Schreibweise ohne Protokoll sinnvoll ist, bezweifle ich. Es dürfte sehr viele solcher Values ohne Protokoll geben und man könnte auch meinen, dass http:// implizit ist, wenn es nicht angegeben ist. Das ist wohl nichts für eine automatische Korrektur. keepright beispielsweise scheint http:// automatisch anzufügen (hier scheint es aber zusätzlich ein Problem für keepright – nicht für Firefox – mit der Umleitung zu geben).

Optimal wäre es natürlich, wenn die Korrektur nur dann gemacht würde, wenn die Website mit dem alten Value nicht erreichbar war, sie es aber mit dem korrigierten Value ist. Vielleicht aber auch eine unnötige Absicherung.

Bei automatischen Korrekturen sollte man natürlich immer bedenken, dass ein Fehler auf eine gewisse Schlampigkeit des Fehlerproduzierers hinweist und man manuell so vielleicht noch mehr Fehler in anderen Tags oder Edits finden könnte. Das ist Abwägungssache, die genauso bei der Adresskorrektur besetzt.

Ich habe Obi-Wan mal gefragt, ob er sich hier melden kann. Der Bot Wall·E kann aber evtl. nicht die Websites checken, könnte ich mir vorstellen.

war mehrere Stunden nix passiert und dann auch spät genug. Ein “Ich mach das jetzt”-Locking erschien mir nicht unbedingt notwendig. Ich kenne meine Pappenheimer schon - entweder passiert sowas sofort oder garnicht :wink:

jo, hattu recht.

Gruss
walter