User Tracking auf Openstreetmap.org

Es setzt auf Cookies, um Nutzer langfristig zu tracken. Das ist eben der Unterschied zwischen Tracking und einem einfachen Server-Log. Neben Session-IDs (kann man auch über Cookies machen) wären dann noch User-IDs möglich. Hab mir aber die Funktion nicht angeschaut. Mein Ghostery hält mir die lästigen Plagegeister vom Hals. Um sich von Google moralisch abzusetzen würde ich bei OSM einfach auf solchen Tracking-Kram verzichten. Einen großen Nutzen hat OSM davon ohnehin nicht, wenn OSM nicht in Richtung Googles Geschäftsmodell gehen will. Die Verbindung von User-Tracking mit GPS-Daten kann man ziemlich fies missbrauchen, siehe Googles Android. Da sollte man einfach von vorneherein einen klaren Riegel vorschieben.

  1. Noch nicht
  2. Nicht absichtlich

“Die Anderen sind viel schlimmer” ist kein gutes Argument.

Wofür will man das wissen? Ich sehe keinen Nutzen und potenziell viel Schaden. Erklär mir den konkreten Nutzen für OSM/OSM.org/die OSMF/uns, und ich bin gerne bereit drüber nachzudenken. Aber einfach so “weil es geht”/“weil andere das auch machen”/“weil ich die Grafiken so schön finde”? Nee.

Vielleicht einfach mal bei den Admins anfragen, was damit bezweckt wird und warum nicht darauf hingewiesen wird. Andere Frage wäre, wer sind die Admins, auf der Seite selbst steht außer der Foundation keine Ansprechpartner.

Die meisten Fragen wurden schon im Thread den der OP verlinkt hatte beantwortet https://lists.openstreetmap.org/pipermail/talk/2013-January/065743.html

Die wenige Leute die Zugang haben sind die System Admins (die auch Zugang zu den Webserver Logs haben), und den Grund Piwik einzusetzen ist einfach gewisse Fragen zur Benutzung des GUIs (nicht so sehr der Karte an sich) beantworten zu können.

Bezüglich der Privacy Policy hat sich die LWG eine Überarbeitung/Prüfung als eine Arbeit für dieses Jahr (2013/2014) vorgemerkt, das auch schon seit längerem.

Ist ein Herausstellungsmerkmal dieses OpenSource-Tools.

Das mag sein, aber ich denke es hilft die Diskussion ein wenig zu erden, worüber wir hier reden.

Das will man wissen, um etwa herauszukriegen:

  • was wird häufig abgerufen
  • wie gelangen Nutzer auf diese Seite
  • wie lange verweilen sie dort
  • wohin gehen sie danach auf dieser Seite
    Das hilft dann insgesamt das Nutzerinterface und die Präsentation von Informationen zu überarbeiten. Stichwort hier etwa A/B Tests.

@Joachim Moskalewski
Das stimmt, etwas mehr Infos wären hier schön. Allerdings muss ich zugeben nur noch sporadisch in die Listen reinzuschauen, von daher will ich da keinem Admin nen Vorwurf machen, da offensichtlich darüber informiert wurde.

Ich finde eine kritische Haltung immer sinnvoll, aber geht das hier nicht zu weit? Wer den Admins unterstellt, dass die aus Spass mal die Nutzer “beobachten”, der sollte sich klar sein, dass diese auch den Zugang zu allen persönlichen Daten haben, die ihr bei OSM hinterlegt. Und nach außen wird nichts weitergeleitet, das ist in meinen Augen doch perfekt?

Die gab es vor der Adress-Umstellung auch schon :wink:

Ich habe nichts gegen den Einsatz von Piwik auf dem eigenen Server, etwa zur Optimierung der Webseite, wenn die Logs nicht an Dritte weitergegeben werden.

Wenn da nicht der Einsatz von Gravatar wäre.
An diesem Punkt hört der Spaß für mich auf, da hier der ungesalzene MD5-Hash meiner E-Mail-Adresse weitergegeben wird.
So lässt sich z.B. in einigen Fällen herausfinden, bei welchen Projekten ich ebenfalls aktiv bin, auch die Zuordnung von Beiträgen in Mailinglisten ist somit möglich.
Des weiteren erfährt Gravatar über den HTTP-Referrer meinen Benutzernamen bei OSM, wenn ich z.B. mein Postfach bei OSM abrufe.
Zusätzlich kann mich Gravatar durch die Einbindung bei OSM über OSM hinaus verfolgen.

Aus gutem Grund binden viele Gemeinden den Facebook-Knopf nicht mehr direkt ein, sondern legen diesen auf dem eigenen Server ab.

Viele Grüße,
whb

Und dafür reicht das normale Server-Log nicht? Kann Piwik nicht so konfiguriert werden, dass es einfach nur das access.log auswertet wird, ohne eigene Cookies? Im access.log kann man die Referer doch auch sehen, d.h. das Wanderungsverhalten innerhalb der eigenen Seite zu verfolgen. Was nur im access.log nicht geht, die Nutzer eindeutige Kennungen zu geben, um sie auch außerhalb der Session zu verfolgen, z.B. langfristig, weil alles hinter anonymen dynamischen IP sich verliert. Aber ich finde das geht ja auch keinen etwas an. Dafür nehme ich Ghostery und lösche Cookies sowieso beim Schließen des Firefox.

https://github.com/openstreetmap/openstreetmap-website/blob/be7cc77397ac22e4914ab6ea3416644c46bfa1b3/app/helpers/user_helper.rb

Wenn es bei dir eingeschaltet ist, einfach ausschalten.

Eine solche Unterstellung finde ich weder in meinen Sätzen, noch in meinen Gedanken. Den mir bekannten Admins, Entscheidungsträgern und Webseitenbetreibern würde ich beim Einsatz von Tracking eher schlichte Gedankenlosigkeit unterstellen.

Und ja, ein Admin, der seine Aufgabe auch tatsächlich nachkommt (nach meiner Beobachtung werden Firmen erst aktiv wenn der Kunde anruft und sagt “Server steht” - die Kohle für die tagtägliche Administration nimmt man dennoch gerne), sieht und erfährt zwangsläufig mehr als den verblendeten Gesetzgebern & Datenschützern lieb ist. Doch: Das ist für mich kein Problem.

Und ja, wird nichts nach außen gegeben, bleiben alle Requests einer Seite auf den eigenen Maschinen, ist alles okay. Ich selbst fordere meine Schäflein (so sie denn Tracking wollen) auf selbst so etwas in einer Datenschutzerklärung zu erwähnen. Denn nach meinem Kenntnisstand muss man dies innerhalb Europas tun. Eben weil Tracking Bewegungsprofile versucht zu bilden, und nicht nur eine Statistik erstellt. Völlig egal ob das auf der eigenen Seite bleibt oder nicht - es ist ein Profil. Ob Piwik wirklich ein Profil bildet (oder nur versucht mit dem Wort “Tracking” Anwender zu ködern) - keine Ahnung.

Und letztlich sind nach meiner Erfahrung alle solche Tools für die Tonne - noch habe ich keines gsehen, das heutzutage wirklich User von Bots unterscheiden kann. Piwik wird es z.B. eher nicht schaffen jene Besucher zu identifizieren, die zuerst eine robots.txt abrufen, um noch in der gleichen Sekunde mit einem Firefox nach dem Impressum zu crawlen. Die Firmen lieben ihre Zahlen - doch aussagen tun sie genau nichts. Nur der Admin, der noch Serverlogs liest, hat eine Ahnung von dem was los ist. Den fragt man aber nicht, man braucht ja belastbare Zahlen…

Erledigt.
Geht über “Bild löschen”.
Das ist wenig intuitiv, da ich nie ein Bild hochgeladen habe.

Warum ist Gravatar nicht Opt-in?
Denn realistisch gesehen lässt sich eine Information, sobald diese einmal öffentlich war, nie mehr zurückholen.
Ich kann den Hash nachträglich nicht mehr (z.B. von den Google-Such-Servern) löschen und die von mir genannten Verknüpfungen sind schon erfolgt.

Viele Grüße,
whb

Piwik verfolgt standardmäßig nur Benutzer mit eingeschaltetem JavaScript.
Da Bots üblicherweise keine JavaScript ausführen, sollten diese weitgehend nicht verfolgt werden.

Wird die Verfolgung auch bei ausgeschaltetem JavaScript aktiviert und gewährt man Piwik Zugriff auf die Server Logs, dann sollte auch die Erkennung von Suchmaschinen-Bots möglich sein:

http://piwik.org/faq/new-to-piwik/#faq_63

Viele Grüße,
whb

Ich finde es auch ein wenig bedenklich, daß hier im Prinzip das Facebook-Standardverhalten von OSM adaptiert wird, diskussionswürdige Features stillschweigend defaultmäßig einzuschalten.

Grade in einem OS-Projekt, wo sich viele Leute mit der Materie auskennen und man am deutlichsten mit Empfindsamkeiten und prinzipiellem Widerspruch gegen Tracking und Datenverquickung rechnen muß.

Allerdings wieder mal das gleiche Fazit: Das deutsche Forum ist der falsche Ort für die Frage, die Frage müßte man schon auf der talk ML auf Englisch stellen.

bye, Nop

+1

Es ist auch nicht einzusehen, warum die OSMF für die interne Verwaltung Google-Dienste nutzt.

Außerdem finde ich es schade, daß momentan alle zu Github (inkl. OSM-Entwickler) laufen. Lokale SVN-Server werden nicht mehr genutzt, dafür wird ein Dienst benutzt, der von kommerziellen Unternehmen betrieben wird. => github kann den Dienst jederzeit einstellen oder komplett kostenpflichtig machen.

Christian

Hm, habe mich nochmal ein wenig umgesehen was Gravatar angeht. Die Bedenken scheinen nicht nur prinzipiell zu sein.

http://arstechnica.com/security/2013/07/got-an-account-on-a-site-like-github-hackers-may-know-your-e-mail-address/
http://meta.stackoverflow.com/questions/44717/is-gravatar-a-privacy-risk

bye, Nop

Keine Ahnung, vermutlich historisch gewachsen, aber es hindert dich niemand dran ein pull-request zu machen der dies ändert.

Korrekt ist es hier dokumentiert http://wiki.openstreetmap.org/wiki/Getting_The_Source

Abgesehen davon, dass ich aufgrund der Größe und Anzahl der Nutzer nicht glaube, dass GitHub abgeschaltet oder für öffentliche Repositories kostenpflichtig wird, wäre es völlig egal. Der Vorteil bei git ist, dass jeder Entwickler eine Kopie des gesamten Repositories besitzt. Dieses kann auf beliebig viele Server hochgeladen werden (sogenannte Remotes). Es gibt also nicht das Problem von SVN, dass man auf den zentralen Server angewiesen ist.

Mit Deiner Denkweise bekommst Du nicht einmal Facebooks Bot in den Griff - der ruft auch Dein Javascript auf. Und nein, das ist kein Ausnahmefall. Die Entwickler von manchen Bots haben die letzten Jahre nicht geschlafen, die kommen mit 3, 4 echten Renderengines gleichzeitig daher und machen vermutlich sogar Screenshots. Die Unterscheidung mittels JS (und/oder simpler Browserkennung) kann man nehmen, reicht heute aber nirgend wo hin. Vorheriges Abrufen von robots.txt, die Anzahl und Kontinuität der Requests pro Sekunde, die Reihenfolge der abgerufenen Seiten, Links die nur Bots sehen usw. - es gibt viele Betrachtungen, anhand derer Du massiv mehr Bots erkennen wirst als es derzeitige Tools können. Dazu muss man aber Serverlogs lesen, robots.txt ggf. via mod_rewrite scriptseitig generieren usw. Automatisch erstellte Statistiken und/oder Tracking ist seit etlichen Jahren für die Tonne (oder für ein Management, das Zahlen geil findet). Hören will das freilich niemand.

Da ich die automatische Verwendung von gravatar als ebenfals sehr problematsich empfinde, habe ich das nun gemacht: https://github.com/openstreetmap/openstreetmap-website/pull/519

Der patch schalte Gravatar standardmaessig bei neu registrierten Usern ab und man muss gravatar in den Settings explicit aktivieren wenn man das will.

Fuer bestehende Accounts aendert sich nichts, da dort nicht zu bestimmen ist ob, der User per automatic opt-in gravatar bekommen hat, oder ob er dies explicit wuenscht.

Bezueglich Piwiki sehe ich die Bedenken auch weniger. Piwiki wurde, wenn ich mich richtig erinnere explicit deshalb eingerichtet um die Datenschutzbedenken bei der Verwendung von dritt Seiten wie google-analytics zu begegnen. Soweit ich weis werden die Daten nur sehr begrenzt wenn ueberhaupt ausgewertet. Der Grund fuer die Einrichtung wurde bereits erwaehnt. Es soll dazu dienen die Usability der Seite zu verbessern um z.B. zu sehen wo im Prozess der Registrierung Leute abspringen und ob man diese Stellen Userfreundlicher gestalten kann. Ausserdem kann man moeglicherweise z.B. sehen ob User nach der Registrierung einen editor aufrufen, oder eine Hilfe Seite besuchen, welches moeglicherweise hilft herauszufinden wieso nur ca 1/3 der Leute die sich bei OSM registrieren auch einen erfolgreichen changeset hochladen.

Dieses Verstaendnis kann durchaus dafuer genutzt werden die Seiten benutzergerechter zu gestalten und somit Neueinsteigern zu helfen, welches wiederum allen zu Gute kaeme. Soweit ich weis wird damit kein Langzeit tracking betrieben, wobei ich das nicht sicher sagen kann.

Eine weitere Verwendung, die vielleicht umstrittener ist, waere die Motivation der Entwickler. Wenn man nachdem man viel Muehe in ein neues Feature hineingesteck die Bestaetigung bekommt das es gut angenommen wird, ist das man das naechste mal vermutlich deutlich bereitwilliger wieder Muehe in das naechste Feature zu stecken.