Visuelle Odometrie für TXT und TXT4
Verfasst: 30 Okt 2024, 21:57
Hallo zusammen,
bei Modellen, die sich selbständig im Raum bewegen sollen, ist immer die Frage, wie man die Position nachverfolgt. Impulszähler funktionieren wegen des Schlupfes schlecht und Sensoren wie akustische und Laser-Entfernungsmessung sind leider auch relativ dumm und unflexibel. Das Maximum an Flexibilität wäre, eine oder mehrere Kameras zu verwenden. Dies gab es ja bei den Fußball-Robotern mit sehr einfachen Banden-Markern. Ich habe durch Zufall bemerkt, dass bestimmte Kalibriermarker (Aruco) von der FT-Kamera sehr gut gefunden werden können. Ich würde gerne daraus eine Bibliothek so wie ftrobopy bauen, so dass man auch ohne 3D-Fachwissen im Raum navigieren kann.
Hier sind meine ersten Ergebnisse mit dem TXT und der TXT-Kamera:
- Rechenzeit für die Detektion: ca. 600ms (aktueller Laptop: 5ms)
- Zuferlässige Reichweite für Detektionen: 20cm bis 2m für 10cm große Marker
- Bis zu 100 verschiedene Marker sind eindeutig identifizierbar
- Wiederholgenauigkeit ist bei ca. +-1cm und ca. 2%
- Die absolute Genauigkeit der Entfernungsschätzung ist nicht allzu hoch (ca. 10%), aber ich habe die Kamera noch nicht allzu aufwändig kalibriert
Was nun als nächstes käme wäre die Kalibrierung der Motorbewegungen zur Kamera, so dass man metrische Positionen anfahren kann. Und das automatische erstellen einer Marker-Karte. Ich würde mich freuen, wenn sich Mitstreiter finden würden.
Ich selber arbeite mit dem TXT. Die Basis ist OpenCV 4, ist das auf dem TXT4 auch verfügbar? Wenn ja, dann würde ich mich freuen, wenn jemand mit einem oder mehreren TXT4 zu dem Projekt dazustößt. Da wäre die Rechenzeit wohl auch besser.
Wenn es jemand mal ausprobieren will: FT community firmware Release 1.1.0, Kamera an den TXT und die Navigator-App installieren.
lg,
Ralf
bei Modellen, die sich selbständig im Raum bewegen sollen, ist immer die Frage, wie man die Position nachverfolgt. Impulszähler funktionieren wegen des Schlupfes schlecht und Sensoren wie akustische und Laser-Entfernungsmessung sind leider auch relativ dumm und unflexibel. Das Maximum an Flexibilität wäre, eine oder mehrere Kameras zu verwenden. Dies gab es ja bei den Fußball-Robotern mit sehr einfachen Banden-Markern. Ich habe durch Zufall bemerkt, dass bestimmte Kalibriermarker (Aruco) von der FT-Kamera sehr gut gefunden werden können. Ich würde gerne daraus eine Bibliothek so wie ftrobopy bauen, so dass man auch ohne 3D-Fachwissen im Raum navigieren kann.
Hier sind meine ersten Ergebnisse mit dem TXT und der TXT-Kamera:
- Rechenzeit für die Detektion: ca. 600ms (aktueller Laptop: 5ms)
- Zuferlässige Reichweite für Detektionen: 20cm bis 2m für 10cm große Marker
- Bis zu 100 verschiedene Marker sind eindeutig identifizierbar
- Wiederholgenauigkeit ist bei ca. +-1cm und ca. 2%
- Die absolute Genauigkeit der Entfernungsschätzung ist nicht allzu hoch (ca. 10%), aber ich habe die Kamera noch nicht allzu aufwändig kalibriert
Was nun als nächstes käme wäre die Kalibrierung der Motorbewegungen zur Kamera, so dass man metrische Positionen anfahren kann. Und das automatische erstellen einer Marker-Karte. Ich würde mich freuen, wenn sich Mitstreiter finden würden.
Ich selber arbeite mit dem TXT. Die Basis ist OpenCV 4, ist das auf dem TXT4 auch verfügbar? Wenn ja, dann würde ich mich freuen, wenn jemand mit einem oder mehreren TXT4 zu dem Projekt dazustößt. Da wäre die Rechenzeit wohl auch besser.
Wenn es jemand mal ausprobieren will: FT community firmware Release 1.1.0, Kamera an den TXT und die Navigator-App installieren.
lg,
Ralf