fishfriend hat geschrieben: ↑07 Mai 2025, 21:55
OK, du bist da schon eine ganze Ecke weiter wie ich.
Auf keinen Fall, Holger.
Ich habe es bisher wegen der ganzen Abhängigkeiten der AI Komponentenversionen vermieden, überhaupt KI direkt auf dem TXT4.0 zu versuchen.
Bitte auf jeden Fall die Ergebnisse Deiner Bemühungen posten!
Was etwas nervt, selbst bei winzigen KI Modellen dauert es einfach eine Zeit, bis sie geladen sind und man überprüfen kann, ob das Maschinchen jetzt das macht, was man will - oder eben noch nicht.
Um das Yolo5n Modell auf auf meinem betagten Raspberry 3b+ zu initialisien (es ist lokal gespeichert), und die beiden Videothreads zu starten -
1) Kamerabild ohne Erkennung
2) Kamerabild mit Erkennung
braucht es ca. 1:20 Minuten. Das wird einem schon lang.
Die Erkennung läuft aber zuverlässig:

- yolo5n debug view
- yolo5n_raspberry3b+.JPG (24.71 KiB) 2672 mal betrachtet
Das Ergebnis der Erkennung ist etwas gefaked. Das Standardmodell, das ich verwende, erkennt wahlweise eine Frisbee, eine Uhr oder einen Apfel

- ist aber für die Aufgabe total egal.
Ich weiß ja, dass ich dem kleinen Roboter keine Äpfel, Uhren oder Frisbees anbieten werde, das würde ihn glatt umbringen...
Ergänzung: jetzt schaut er nicht nur, er greift er auch zu:
https://www.youtube.com/shorts/S7mzDK_bs1w
Fischertechnik verwendet, wenn ich es richtig sehe, ein TFlight model. Das bekommst Du m.E. wunderbar aus TeachableMachine. Je nachdem wie viele unterschiedliche Objekte Du erkennen willst und je ähnlicher sich diese sind, um so mehr Bilder wirst Du taggen müssen. Ich würde mich aber etwa an dem orientieren, was FT selbst anbietet: das KI Modell für Qualitätskontrolle kennt 11.
"BLANK, BOHOELMIPO2, BOHOEL, BOHOMIPO1, BOHOMIPO2, BOHOSHMIPO2, BOHOSH, BOHO, CRACK, MIPO1, MIPO2"
Die sehen sich mitunter "sehr ähnlich". Dafür unterstützt das Modell aber nur eine einzige Lage - bedenke, dass ein Ritzel10 sehr unterschiedlich aussieht, je nachdem, ob es auf der Seite liegt, auf dem Zahnkranz steht oder auf dem Schaft.
Um 10 Objekte in verschiedener Lage kurz zu filmen, tracken und das TFlight Modell zu machen, würde ich nichts bauen. Einfach ft-cam an einen Rechner mit ordentlicher Grafikkarte anschließen, die Teile auf den Hintergrund werfen, den Du verwenden willst Kamera um das Objekt drehen (veränderte Lage simulieren) und gut.
Frage ist viel eher, ob das aktuelle TFlight, was Du dann exportierst, auf dem TXT4.0 läuft.
Auf dem TXT4.0 selbst zu trainieren halte ich für wenig zielführend, wenngleich vielleicht pädagogisch wertvoll.
Schönes Wochenende
Frank