Automatische, Multikopter-basierte Indoor-Inspektion von großen Oberflächen - AMIIGO
Steckbrief
Eckdaten
- Laufzeit:
- 01.05.2017 bis 31.08.2019
- Organisationseinheit:
- Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement, Model-based Systems
- Fördergeber:
- Arbeitsgemeinschaft industrieller Forschungsvereinigungen AiF
- Status:
- Abgeschlossen
Forschungspartner
-
Institut für Regelungstechnik (IRT)
Jedes Verkehrsflugzeug wird durchschnittlich einmal im Jahr vom Blitz getroffen. Um mögliche Defekte auszuschließen, ist eine zeitaufwändige Sichtprüfung der Außenhaut des Flugzeugs durch Wartungspersonal erforderlich. In dem Forschungsvorhaben "Automatische Multikopter-basierte Indoor-Inspektion von großen Oberflächen (AMIIGO)" wird ein automatisierter Multikopter für die Inspektion eingesetzt. Durch die automatisierte, zerstörungsfreie Defekterkennung der stecknadelgroßen Schäden auf den bis zu 4.400 m² großen Rumpfoberflächen (bspw. Airbus A380) sollen die Instandhaltungskosten und die AOG-Zeit (Aircraft on Ground) drastisch reduziert werden.
Am IRT werden hierfür aus einem CAD-Modell des zu inspizierenden Flugzeugs ein Flugpfad sowie eine abfliegbare Trajektorie für den Multikopter generiert. Während dem Flug erfolgt eine Kollisionsvermeidung in Echtzeit, basierend auf den ausgewerteten Messdaten eines mitgeführten LIDARs. In dem Projekt realisiert der Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement des WZL die automatisierte Aufnahme der ortsindexierten Bilder sowie die automatisierte Identifikation wartungsrelevanter Oberflächendefekte.
Zentrale Herausforderungen liegen in der automatisierten Defekterkennung und der präzisen Indoor-Lokalisierung des hochdynamischen Multikopters bei der Bilderfassung. Auf dem Multikopter angebrachte industrielle Kameratechnik wird durch eine kardanische Aufhängung in Abhängigkeit der aktuellen Pose senkrecht auf die Flugzeugoberfläche ausgerichtet. Für die Rückführbarkeit der nachgelagert zu identifizierenden Defekte der autonomen Offline-Defekterkennung auf die reale Position an der Rumpfoberfläche werden die Bilddaten zum Zeitpunkt der Datenerfassung mit Positionsdaten aus einer Sensorfusion referenziert. Die Bilddaten werden durch einen Hybrid aus klassischer Bildverarbeitung mit maschinellen Lernalgorithmen erst reduziert und anschließend auf potentielle Defekte hin untersucht. Aus den gefundenen und rückführbar verorteten Defekten wird eine sogenannte Defect-Map extrahiert, in welcher dem Wartungspersonal interaktiv die identifizierten Defekte auf dem Flugzeugmodell präsentiert werden.