Ausgestattet mit zwei Fischaugenkameras wird ein Roboter in der Lage sein, 360 Grad zu sehen, ohne den Speicherverbrauch und die Rechenleistung, die für die Bildverarbeitung erforderlich sind, in die Höhe zu treiben.
Kompakte duale Fischaugenkameras gibt es seit fast zehn Jahren und bieten ein grenzenloses 360-Grad-Sichtfeld. Ihre Auflösung, die ständig steigt, erreicht heute bis zu 70 Millionen Pixel und bietet verschiedenen Robotertypen ein hervorragendes Sichtfeld.
Da diese 360-Grad-Bilder jedoch auf eine Ebene projiziert werden, um verarbeitet zu werden, verursachen sie viele Verzerrungen, ähnlich wie wenn man eine Weltkarte aus einem Globus abflachen möchte. Die Verarbeitung dieser Verzerrungen kann für Echtzeitanwendungen besonders aufwändig sein.
Die Unterteilung der Kugel in Zellen sowie ihre Projektionen im Bild.
© Antoine André
Forscher des Joint Robotics Laboratory (
JRL, AIST/CNRS) und des Labors Modélisation, information & systèmes (
MIS, Université de Picardie Jules Verne) haben eine neue Art der sphärischen Darstellung vorgeschlagen, genannt
Uniform spherical mapping of omnidirectional images (UniphorM), bei der sie die aufgenommenen Bilder in eine Art regelmäßiges sphärisches Netz umwandeln, dessen Geometrie im Stand der Technik bisher kaum genutzt wurde.
Sie zeigten damit, dass eine signifikante Reduzierung der Auflösung auf weniger als 1000 Pixel es einem Roboter ermöglicht, seine Orientierung im Raum zu schätzen und Orte genauso gut zu erkennen wie bei weit höheren Auflösungen, bei minimalem algorithmischem Aufwand und Speicherbedarf.
Die Wissenschaftler erzielten dieses Ergebnis, indem sie ihre Berechnungen direkt auf der Kugel anwendeten, sie unterteilten und jedem Pixel einen ihrer Scheitelpunkte zuwiesen. Dafür wird die Kugel durch einen Ikosaeder, einen Körper mit zwanzig Flächen, angenähert. Dieser Ansatz wurde an mehreren Robotertypen validiert, darunter zwei Flugdrohnen, ein Hexacopter und ein Flügelflugzeug, ein Roboterarm mit sechs Freiheitsgraden sowie mobile Roboter.
Diese verschiedenen Maschinen waren in der Lage, zwei wichtige Aufgaben in der Robotik zu bewältigen: ihre Orientierung im Raum zu schätzen und Orte zu erkennen. Die erste besteht darin, ihre beiden sphärischen Bilder neu auszurichten, um eine korrekte Ausrichtung wiederherzustellen, was hier mit 95 % Erfolg gelang. Die Ortserkennung besteht darin, in der Lage zu sein, Bilder einer Route unter verschiedenen Licht-, Tageszeit- und Wetterbedingungen wiederzuerkennen. Eine Aufgabe, bei der sich der neue Algorithmus als 40 % effizienter erwies als der Stand der Technik. Die verwendete niedrige Auflösung ist zudem mit dem Schutz der Privatsphäre vereinbar, da sie keine Gesichtserkennung ermöglicht.
Die Forscher interessieren sich nun für eine weitere wichtige Aufgabe in der Robotik: die visuelle Regelung. Dabei wird ein Bild an einer gewünschten Position aufgenommen und die Bewegung des Roboters so gesteuert, dass er diese Position von einer anderen aus erreicht.
Quelle: CNRS INSIS