Mapping mit Dashcams

Hier ein ein paar Zitate zu aktuellen rechtlichen Sicht der Benutzung von Dashcams:

Quelle

Sieht super aus - schön, dass das Projekt so vorangeht! Die Fisheye-Verzerrung ist wirklich erheblich, das Problem hat man bei der Raspberry Pi Kamera nicht in diesem Umfang (dafür aber auch einen kleineren Blickwinkel). Ansonsten ist die Bildqualität aber wirklich gut, damit kann man schon recht gut arbeiten und mappen.

Die Schildererkennung würde ich gerne auch einmal auf meine während der Fahrt aufgenommen Bilder loslassen, wenn sie denn so weit “im vorzeigbaren Zustand” ist. Ich schätze mal, du hast die deutschen Verkehrsschilder als Training für die Software benutzt? In dem Fall muss ich sie wohl zuerst auf die estnischen Schilder trainieren, aber das sollte ja kein Problem sein. Einige davon sind ohnehin mit den deutschen identisch, aber es gibt auch Unterschiede.

Der Datenumfang von 8GB pro Stunde ist etwa der gleiche wie beim Raspberry Pi. Deshalb habe ich meine Bilder auch (derzeit) nur auf der lokalen Festplatte, weil ich nicht die nötigen Kapazitäten habe, sie online anzubieten. Mapillary ist sicher eine gute Idee, allerdings holpert das Geotagging bei mir noch ein wenig (GPS-Koordinaten und Bilder laufen während der Fahrt auseinander, scheinbar werden Bilder bzw. Koordinatenpunkte übersprungen, wenn die Kamera am Limit arbeitet).

Das kann und darf nicht für vernünftig verpixeltete Bilder gelten. Wenn niemand zu erkennen ist und auch die Autoschilder verpixelt sind, möchte ich mal deren Argument dazu hören.

Gruss
walter

bei den meisten Kameras ist doch sowie so nichts zu erkennen, selbst bei der GoPro sieht man nicht mehr viel wenn man schnell genug ist.
Ich habe mal versucht die Straßennummern an den Begrenzungspfählen zu erkennen :frowning: .
Autoschilder kann man auch nur erkennen wenn man hinterherfährt. Da müsst ihr eben immer zu zweit unterwegs sein :stuck_out_tongue: , macht sowieso mehr Spaß :roll_eyes: :sunglasses:

Würde ich so nicht sagen. Wenn du Mapillary an siehst hat man da öfters mal gutlesbare Nummernschilder ( und mein Handy hat nicht mal Autofocus).

MHohmann, ich habe gestern mal die Schildererkennung auf dieses Video losgelassen, das war das einzige HD-Video was ich auf die Schnelle finden konnte. Es wurden ca. 1800 Frames mit Schildern erkannt, die FP-Rate liegt bei unter 5%. Wie viele Schilder nicht erkannt wurden kann ich nicht sagen, ich habe gerade keine Lust mir die 6 Stunden selbst anzugucken. Würdest du mir so ein Video von mal zukommen lassen?

Wegen der Verzerrung werde ich meine Kamera wohl mit OpenCV kalibrieren.

Ich werde mit den Leuten von Mapilliary mal reden in welchem Umfang sie da Interesse haben. An der Extraktion von Metadaten aus ihren Bildern haben sie bestimmt ebenfalls Interesse.

Ein Video habe ich derzeit nicht da, da ich bisher eher mit Fotos arbeite - die Raspberry Pi Cam schafft bei 2592*1944 Pixeln ein Bild pro Sekunde. Das sind natürlich deutlich weniger Bilder, aber bei der Auflösung kann man mehr Details erkennen, so ist jedenfalls meine Erfahrung. Auf diese Weise lässt sich oft auch die etwas kleinere Schrift z.B. bei den Namen von Bushaltestellen lesen. Ich werde mal eine Testfahrt an Bildern zusammenpacken und dir zukommen lassen. Wenn ich mal wieder mit dem Auto unterwegs bin, kann ich auch mal ein Video aufnehmen, dann lässt es sich besser vergleichen.

Was die Probleme mit der Fishaugen-Verzerrung bei der Schilderkennung der PanoramaII anbetrifft: Die hat auch nur eine normales M12-Optik dran wie jede andere Dashcam, einfache CCTV-Überwachungskamera, Lan-Kamera oder GoPro(!).
Wenn man da in der Klasse der “Megapixel”-Objektive bleibt und und statt 2,8mm oder 3,6mm Brennweige auf z.B. 4mm oder 5mm geht (ali-express und amazon haben da viel…)
Dann wird das mit dem Bildausschnitt schon deutlich schöner. (ich habe bei mir im Auto sogar eine zweite Kamera mit 8mm Brennweite, weil ich schlicht auch ein wenig in die Ferne schauen möchte zum Fishauge der UUC.)
Ach ja, Videos kann ich auch jede Menge spenden, wenn Bedarf besteht.

BTW: Es gibt auch Software, die Objektivverzerrungen von Action-Cams entzerrt. Gibt natürlich Schärfeverlust, aber wenigstens wird dann die Geometrie für Erkennung einfacher. Vielleicht gibt’s ja was scriptbares in Open-Source.

Nur mal zum Vergleich, welche ARbeit man sich “bei längerer Brennweite” vielleicht ersparen kann:
8mm zu 2,4mm Brennweite (auf den üblichen 1/4" Sensor wie in Gopro&Co verbaut)

8mm Brennweite, Uhrzeiten stimmen alle nicht…

gleiche Position mit der Standardoptik der PanoramaII (leicher Fokus-Fehler, gebe ich zu, muss ich justieren)

Oder ähnlicher Bildbeschnitt, also näher drangefahren:

Ich habe mal zur Abschätzung, was in Wohngebieten, in Kerngebieten, Gewerbegebieten und auf Schnellstraßen geht jeweils ca 15min-Segmente zu Youtube gebeamt. Und Aufnahmen simultan in 2,4mm (Weitwinkel) und 8mm(Tele) Brennweite.
Youtube rekodiert die Video und sorgt dabei für reichlich Artefakte. Originale (jeweils rund 1,5GB) kann ich gern per FTP/http zur Verfügung stellen.

Bei Tag, sonnig, teilweise Gegenlicht und schnelle Lichtwechsel.
Weitwinkel: http://youtu.be/dRh4FP7NR8I
Tele: http://youtu.be/OMiiujjgHw4

Bei Nacht, teils unbeleuchtete Straßen
Weitwinkel: http://youtu.be/vB1LC_ZAbN8
Tele: http://youtu.be/xqORBChWEHA

bei zunehmender Dämmerung inkl. gut beleuchteter Tiefgarage
Weitwinkel: http://youtu.be/fPViz6YPVTk
Tele: http://youtu.be/RtDT1YfSFzg

Hallo jha, was die Vorzüge von Normal- oder Teleobjektiven betrifft würde ich dir inzwischen völlig zustimmen. Fällt dir spontan ein Gerät mit integriertem GPS-Empfänger ein? Ich befürchte, dass beim händischen Zusammenführen von GPS- und Videodaten der Kreis an Menschen deutlich schrumpft, die zu Datenerhebung in Frage kommen. Eine Kalibrierung mit OpenCV habe ich mal probiert, aber bis jetzt keine brauchbaren Ergebnisse bekommen. Ich denke aber dass sich da noch etwas ergibt.

Ich lade zur Zeit ca. 80 GB / 10 h Videomaterial auf Amazon S3 hoch, um anschließend die Auswertung mit CUDA beschleunigt auf den GPU-Instanzen von AWS durchzuführen. Der Haken an der Sache ist derzeit, dass ich bis jetzt in Python entwickelt habe, die CUDA-beschleunigten Funktionen aber in der API fehlen. Wir versuchen das gerade zu ergänzen.

Es gibt inzwischen alle brauchbaren Kameras sowohl mit wie auch ohne GPS-Empfänger.

Was ärgerlich ist: Jeder Hersteller braut da derzeit noch einen eigenen Standard, wo sich die Koordinateninfos verstecken.
Also abgesehen davon, dass man die Koordinaten bei einem Teil der Kameras ins Videobild “einstempeln” lassen kann:
Die Koordinaten landen entweder als separates NMEA oder GPX im Verzeichnis, oder in einem anderen.
Oder als Textdatei in einem CSV-Derivat.
Gern auch mal mit Dateienamen ohne erkennbaren Zusammenhang zur Videodatei (Matching muss dann anhand des Dateidatum/Uhrzeit der Dateien gemacht werden. Was bie der Videodatei ja sowieso fällig ist, weil dort ja nur sonst keine Zeitinfo vorhanden ist.)
Ach ja, manche Dashcam setzen den Timestamp des Videofiles auf “Aufnahmebeginn”, andere auf “Ende”. Und natürlich immer mit 1-3 Sekunden Offset.
Und dann gibt es die Kameras, die die Koordinaten direkt ins Videofile (hinter das “Video-Dateiende”) schreiben, mehr oder minder Binary.

A propos Offset: Den gibt es natürlich zusätzlich auch selbst bei “GPS im Videobild”. Wahlweise ist der Empfänger langsamer. Teilweise ist der Videocodec “langsamer” dank diverser Fifo-Buffer…
Sprich: Wenn man nicht auf den “RegistratorViewer” von Datakam zurückgreift (der das alles mundfein in GPX/NMEA und .SRT(Video-Untertiteldateien für Youtube&Co)) wandelt: Man muss es für jede Kamera erstmal austüfteln. Und dann hoffen dass sich bei einer neuen Firmware nichts allzuviel ändert (was auch passiert, gerade bei den besseren Kameras, bei denen dann noch deutliche Verbesserungen erfolgen. Aber leider eben auch mit Seiteneffekten wie “jetzt nur noch 1s Offset”)

jha, nenn doch mal konkrete Beispiele mit Endlosaufnahme, Full-HD, GPS, und Unterstützung 128-GB-SD-Karten. (und kein Gebastel)

Die Situation mit den GPS-Daten ist unschön. Der RegistratorViewer für Automatisierung nicht brauchbar. Wir haben die GPS-Daten aber den Aufnahmen der Panorama II extrahieren können, ich denke wir werden das auch für andere Modelle hinbekommen.

Ich habe in den letzten Tagen die Auswertung zu Amazon Web Services portiert. Ich hatte ja oben schon erwähnt, dass die Auswertung auf meinem Notebook sehr langsam ist, ca. 5 Frames/s. Mit CUDA dauert die Auswertung eines 30-Minuten-Clips jetzt 15 Minuten, also 60 Frames/s. Dazu kommt, dass man mehrere Instanzen parallel starten kann. Das ist für’s erste akzeptabel.

Ich werde jetzt eine kleine Web-Anwendung schreiben, mit der man Videos hochladen und die Ergebnisse der Auswertung anschauen kann.

Psst…Datenschutz! Macht wenigstens die Autokennzeichen unkenntlich.

gormo: Jajaja.

Der Code liegt übrigens bei Github. Zur Zeit ist das eine ungeordnete Ansammlung an Dateien, bei denen selbst ich den Überblick verliere. Ich werde ihn aber vereinheitlichen, dokumentieren und unter der Apache License 2.0 veröffentlichen, die Aufnahmen voraussichtlich als CC BY 4.0.

https://github.com/christophe-de/osm-dashcam

Den Code würde ich gerne mal ausprobieren und auf meine Raspberry Pi Bilder loslassen. Was braucht man denn, um den zum laufen zu bringen? Hat der schon CUDA drin?

An Hardware könnte ich einen etwas älteren Laptop mit Intel Core i7 Q720 und Geforce GT240M und einen Rechner mit Xeon E31220 und Tesla C2075 nutzen, beide haben Ubuntu (ersterer 14.04, zweiterer noch 12.04) und CUDA.

Ach ja, ich schätze, man muss den Code auch trainieren, wenn man Verkehrsschilder finden möchte, auf die er noch nicht trainiert ist? Die Geschwindigkeitsbegrenzungen sehen ja in Estland genau so aus wie in Deutschland, aber jetzt habe ich z.B. auch Bilder in Finnland geschossen und da ist der “weiße” Teil gelb. Ein paar Höhenbeschränkungen sind auch dabei (gleiche Farbe), außerdem z.B. Straßennummern.

„Das BayLDA wird in Zukunft, wenn bekannt wird, dass Autofahrer die mit ihrer Dashcam aufgenommenen Videofilme an Polizei, Versicherung oder ähnliche weitergeben oder im Internet veröffentlichten, prüfen, ob im jeweils konkreten Fall der Erlass eines Bußgeldbescheides angezeigt ist. Der gesetzlich festgelegte Bußgeldrahmen für derartige Verstöße beläuft sich auf bis zu 300.000 EUR.“ Quelle

Ich habe hier auch einen echten Brief von 2009 von einem Forstamt in dem man mir mit “Prüfung” gedroht wurde.
http://i.imgur.com/EpwDj0K.png

GEO-Catching :smiley:

Das muß so ein neuer Trend sein - muß ich unbedingt auch mal versuchen.