inspiriert durch den Austausch auf der letztjährigen State Of The Map-Konferenz und einigen Vorträgen von der FOSSGIS 2021 haben wir nach langer Betaphase nun unseren Augmented Editor veröffentlicht. Wer ihn noch nicht kennt: Er funktioniert im Prinzip ganz einfach; vorstellen lässt sich das Ganze wie JOSM als Ebene im realen Raum. Während man sich durch die Straßen bewegt (in der Realität, also „draußen“), werden die Nodes, Ways und Polygons der OSM-Datenbank ins Sichtfeld projiziert. Objekte können mit Handgesten verschoben oder einfach nur ausgewählt werden, um Eigenschaften zu verändern. So lassen sich z.B. Gebäudeumrisse oder Node-Standorte nebenbei auf dem Weg nach Hause ganz bequem zentimentergenau anpassen.
Endlich mal eine konsequente Weiterentwicklung. Insbesondere die zentimetergenaue Positionierung im Bild anstatt dieser leidigen GPS-Toleranzen wird sehr nützlich sein.
Funktioniert er auch in der Vertikalen? GPS-Höhen sind ja besonders ungenau. Mit dem Augmented Editor können dann endlich Wandermarkierungen in der korrekten Höhe am Baum gemappt werden.
Genau heute also, wo ja Ostersonntag ist - und einem vom Osterstriezel ohnehin schon schlecht ist, frage ich mich, ob die Entwickler auch an die oft in der AR-Visualisierung auftretende Übelkeit gedacht haben.
Ans Zupfen statt Klicken werde ich mich noch gewöhnen müssen…
Wie wird die Körpergröße ausgeglichen? Leute mit Display in der Brille sind einen halben Meter größer als Handy-vor-den-Bauch-Halter. Das kann bei einer 2m entfernten Linie auf dem Boden schon zu einem Meter Abweichung führen.
Na, der Ansatz ist ja technisch schon fast veraltert. Auf den FarörInseln entwickelt die dortige Community gerade interaktive Handschuhe, mit denen man das zu mappende Objekt nur noch anfassen muss, um es Einzutragen. Ein intelligente Kombination von Kameras, Berühungssensoren und KI erkennt dabei automatisch um was für ein Objekt es sich handelt. Vielleicht ist der Mappinghandschuh bis nächstes Jahr um diese Zeit schon zur Serienreife entwickelt.