OEM & Lieferant Ausgabe 2/2019 - OEM & Supplier 2/2019 by VEK Publishing

17 stammt und deren volle Funktionalität sowohl bei Tag als auch bei Nacht gewährleistet ist.“ Außerdem vermied die Blockade des sicht- baren Tageslichts mögliche Schatteneffekte in der Fahrerkabine, die sonst zu Fehlern bei der Gesichtserkennung führen können. Damit die Bilder auf beiden Seiten zur gleichen Zeit aufgenommen wurden, wurde ein Raspberry Pi 3Model B+ verwendet, das ein Triggersignal an beide Kameras im Moment der Aufnahme sendet. Mit diesem Aufbau wurden die Bilder der Körperhaltungen von 16 Probanden in einem stehenden Auto aufgenommen. Ummöglichst vielfältige Daten zu erzeugen, unterschieden sich die Probanden in Geschlecht, Alter oder Kopfbedeckung, aber auch verschiedene Mo- biltelefonmodelle, Lebensmittel und Getränke wurden genutzt. „Für die jeweiligen Ablen- kungsarten erstellten wir fünf Kategorien, in die später die Körperhaltungen einsortiert werden konnten. Dabei handelte es sich um: ‚keine sichtbare Ablenkung‘, ‚Telefonieren am Smartphone‘, ‚manuelle Bedienung des Smart- phones‘, ‚Essen und Trinken‘, sowie das ‚Halten von Lebensmitteln oder Getränken‘“, erläutert Wagner. „Für die Versuchsreihe instruierten wir unsere Probanden, zwischen diesen Tä- tigkeiten bei simuliertem Fahrverhalten zu wechseln.“ Nach der Aufnahme wurden die Bilder der beiden Kameras entsprechend ka- tegorisiert und für das maschinelle Anlernen des Systems genutzt. Training und Test der Bilderkennungssysteme Zur Erkennung der Körperhaltungen wurden vier modifizierte CNN-Modelle verwendet: ResNeXt-34, ResNeXt-50, VGG-16 und VGG- 19. Die beiden letztgenannten repräsentieren in der Praxis gängige Modelle wohingegen ResNeXt-34 und ResNeXt-50 eine dedizierte Struktur zur Verarbeitung von parallelen Pfaden enthalten. Für das Training der Sys- teme führte ARRK 50 Durchgänge mit dem Adam-Optimizer durch – einem Optimierungs- algorithmus mit adaptiver Lernrate. Dabei musste das CNN-Modell in jedem Durchgang die Körperhaltungen der Probanden in die vor- her erstellten Kategorien einordnen. Mit jedem weiteren Schritt wurde diese Kategorisierung über ein Gradientenverfahren so angepasst, dass die Fehlerrate kontinuierlich sinkt. Ab- schließend wurde ein dedizierter Testdaten- satz für die Berechnung der Wahrheitsmatrix verwendet, um die Fehlerquote pro Fahrer- haltung für jedes CNN-Modell zu analysie- ren. „Die Verwendung von zwei Kameras mit jeweils separat geschultem CNN-Modell er- möglicht eine optimierte Fallunterscheidung für die linke und die rechte Gesichtshälfte“, führt Wagner aus. „So konnten wir das Sys- tem mit der besten Performance ermitteln, umden Gebrauch vonMobiltelefonen und den Verzehr von Lebensmitteln für einen großen Bereich von Kopfwinkeln zu erkennen.“ Die Gesamtauswertung ergab, dass die CNN-Mo- delle ResNeXt-34 und ResNeXt-50 die höchste Testgenauigkeit von 92,88 Prozent für die linke Kamera und 90,36 Prozent für die rechte Kamera erreichten. Mit den Informationen aus diesem Versuch erweiterte ARRK seine Trainingsdatenbank und kann bereits auf etwa 20.000 gelabelte Augendatensätze zugreifen. Darauf aufbau- end ist die Entwicklung eines automatisierten, kamerabasierten Systems zur Validierung von Fahrerbeobachtungssystemen möglich. Bilder: © ARRK Engineering ARRK Engineering www.arrk-engineering.com Webseite ARRK Engineering info@arrk-engineering.com eMail Für den Versuchsaufbau wurden in einem Testwagen zwei Kameras mit aktiver Infrarotbeleuchtung jeweils links und rechts des Fahrers installiert. Beide Kameras verfügten über eine Frequenz von 30 Hz und lieferten 8-Bit-Graustufenbilder mit einer Auflösung von 1280 x 1024 Pixeln. Für das Experiment wurden die Probanden instruiert, zwischen fünf unterschiedlichen Tätigkeiten bei simuliertem Fahrverhalten zu wechseln. Nach der Aufnahme wurden die Bilder der beiden Kameras kategorisiert und danach für das maschinelle Anlernen des Systems genutzt.

RkJQdWJsaXNoZXIy MjUzMzQ=