Ein tiefes neuronales Netzwerk kann Infrarot-Gesichtsbilder mit natürlich aufgenommenen Bildern abgleichen

Deep Perceptual Mapping (DPM): Dicht berechnete Merkmale aus dem sichtbaren Bereich werden durch das gelernte DPM-Netzwerk auf den entsprechenden thermischen Bereich abgebildet. Bildnachweis: arXiv:1507.02879 [cs.CV]

Ein Forscherpaar des Karlsruher Instituts für Technologie und des Instituts für Anthropomatik und Robotik hat eine Anwendung für ein tiefes neuronales Netzwerk entwickelt, die in der Lage ist, Gesichter, die mit Infrarotlicht aufgenommen wurden, erfolgreich mit solchen zu vergleichen, die mit natürlichem Licht aufgenommen wurden. M. Saquib Sarfraz und Rainer Stiefelhagen haben ihre Forschungen und Ergebnisse in einem Paper beschrieben und auf dem Preprint-Server veröffentlicht arXiv.

Infrarotfotografie ermöglicht es Menschen, im Dunkeln Dinge zu sehen, die sie sonst nicht sehen könnten – sie ist zu einem wichtigen Werkzeug sowohl für die Polizeiarbeit als auch für die Kriegsführung geworden. Eine gravierende Einschränkung ist jedoch seine Auflösung. Wer sich ein Bild einer Person ansieht, das mit einer Infrarotkamera erstellt wurde, kann normalerweise nicht erkennen, wer diese Person ist natürliches Licht. Um den Sprung zu schaffen, wandten sich die Forscher einem tiefen neuronalen Netzwerk zu.

Tiefe neuronale Netze sind Software-/Hardwaresysteme, die entwickelt wurden, um auf der Grundlage großer Datensätze über bestimmte Dinge zu lernen und dann basierend auf dem Gelernten Vorhersagen über aktuelle oder zukünftige Dinge zu treffen – natürlich ähnlich wie das menschliche Gehirn funktioniert. Die Verwendung eines solchen Systems zum Korrelieren von Infrarotbildern mit Gegenstücken aus natürlichem Licht würde dann einen großen Datensatz beider Arten von Bildern derselben Personen erfordern. Das Duo entdeckte, dass ein solcher Datensatz im Rahmen anderer Forschungen an der Universität Notre Dame existierte. Nachdem sie Zugang dazu erhalten hatten, “lehrten” sie ihr System, natürliche Lichtbilder von Menschen basierend auf der Hälfte der Infrarotbilder in dem ihnen zur Verfügung gestellten Datensatz auszuwählen. Die andere Hälfte wurde verwendet, um zu testen, wie gut das System funktioniert.

Die Ergebnisse waren keineswegs perfekt – das System war in 80 Prozent der Fälle in der Lage, korrekte Übereinstimmungen zu erstellen (was bei nur einem Foto auf nur 55 Prozent sank), markiert jedoch eine dramatische Verbesserung der Technologie Sarfraz und Stiefelhagen glaubt, dass sie die Genauigkeit dramatisch verbessern könnten, wenn sie einen viel größeren Datensatz in die Hände bekommen könnten.


Leave a Comment