Forscher entwickeln Plattform für skalierbares Testen der Sicherheit autonomer Fahrzeuge

Wie die Fahrzeugsimulationen aussehen. Bildnachweis: University of Illinois at Urbana-Champaign Coordinated Science Laboratory

Im Rennen um die Herstellung autonomer Fahrzeuge (AVs) ist Sicherheit entscheidend, wird aber manchmal übersehen, wie die jüngsten Schlagzeilen zeigenden Unfälle zeigen. Forscher an der University of Illinois in Urbana-Champaign nutzen künstliche Intelligenz (KI) und maschinelles Lernen, um die Sicherheit autonomer Technologien durch Software- und Hardwarefortschritte zu verbessern.

„Der Einsatz von KI zur Verbesserung autonomer Fahrzeuge ist aufgrund der Komplexität der elektrischen und mechanischen Komponenten des Fahrzeugs sowie der Variabilität der äußeren Bedingungen wie Wetter, Straßenzustand, Topografie, Verkehrsmuster und Beleuchtung äußerst schwierig“, sagte Ravi Iyer

“Es werden Fortschritte erzielt, aber die Sicherheit ist weiterhin ein wichtiges Anliegen.”

Die Gruppe hat eine Plattform entwickelt, die es Unternehmen ermöglicht, das Thema Sicherheit im komplexen und sich ständig verändernden Umfeld der autonomen Technologie schneller und kostengünstiger anzugehen. Sie arbeiten mit vielen Unternehmen in der Bay Area zusammen, darunter Samsung, NVIDIA und eine Reihe von Start-ups.

„Wir sehen branchen- und universitätsübergreifende Bemühungen von Interessengruppen mit Hunderten von Start-ups und Forschungsteams und gehen einige Herausforderungen in unserer Gruppe an“, sagte Saurabh Jha, ein Doktorand in Informatik, der die studentischen Bemühungen in diesem Projekt leitet . „Die Lösung dieser Herausforderung erfordert eine multidisziplinäre Anstrengung aus Wissenschaft, Technologie und Fertigung.“

Ein Grund, warum diese Arbeit so herausfordernd ist, ist, dass AVs komplexe Systeme sind, die KI und maschinelles Lernen verwenden, um mechanische, elektronische und Computertechnologien zu integrieren, um Fahrentscheidungen in Echtzeit zu treffen. Ein typisches AV ist ein Mini-Supercomputer auf Rädern; Sie verfügen über mehr als 50 Prozessoren und Beschleuniger, die mehr als 100 Millionen Codezeilen ausführen, um Computer Vision, Planung und andere Aufgaben des maschinellen Lernens zu unterstützen.

Wie erwartet gibt es Bedenken hinsichtlich der Sensoren und des Stacks für autonomes Fahren (Computersoftware und -hardware) dieser Fahrzeuge. Wenn ein Auto mit 110 km/h auf einer Autobahn fährt, können Ausfälle ein erhebliches Sicherheitsrisiko für die Fahrer darstellen.

„Wenn ein Fahrer eines typischen Autos ein Problem wie Abdriften oder Ziehen des Fahrzeugs wahrnimmt, kann der Fahrer sein Verhalten anpassen und das Auto zu einem sicheren Haltepunkt führen“, erklärte Jha. „Allerdings kann das Verhalten des autonomen Fahrzeugs in einem solchen Szenario unvorhersehbar sein, es sei denn, das autonome Fahrzeug wird explizit für solche Probleme trainiert. In der realen Welt gibt es unendlich viele solcher Fälle.“

Wenn eine Person Probleme mit Software auf einem Computer oder Smartphone hat, besteht die häufigste IT-Reaktion traditionell darin, das Gerät aus- und wieder einzuschalten. Diese Art der Korrektur ist jedoch für AVs nicht ratsam, da jede Millisekunde das Ergebnis beeinflusst und eine langsame Reaktion zum Tod führen kann. Die Sicherheitsbedenken solcher KI-basierten Systeme haben in den letzten Jahren unter den Interessengruppen aufgrund verschiedener Unfälle, die durch AVs verursacht wurden, zugenommen.

„Aktuelle Vorschriften verlangen von Unternehmen wie Uber und Waymo, die ihre Fahrzeuge auf öffentlichen Straßen testen, dass sie der kalifornischen DMV jährlich darüber berichten, wie sicher ihre Fahrzeuge sind“, sagte Subho Banerjee, ein CSL- und Informatik-Student. “Wir wollten allgemeine Sicherheitsbedenken verstehen, wie sich die Autos verhalten haben und was die ideale Sicherheitsmetrik ist, um zu verstehen, wie gut sie konstruiert sind.”

Die Gruppe analysierte alle von 2014 bis 2017 eingereichten Sicherheitsberichte, die 144 AVs abdeckten, die insgesamt 1.116.605 autonome Meilen zurückgelegt haben. Sie fanden heraus, dass bei der gleichen Anzahl von gefahrenen Kilometern von Menschen gefahrene Autos bis zu 4000-mal weniger wahrscheinlich einen Unfall haben als AVs. Dies bedeutet, dass die autonome Technologie mit einer alarmierenden Geschwindigkeit versagt hat, um eine Situation angemessen zu bewältigen, und die Technologie deaktiviert hat, wobei sie sich oft darauf verlassen hat, dass der menschliche Fahrer übernimmt.

Das Problem, das Forscher und Unternehmen haben, wenn es darum geht, diese Zahlen zu verbessern, besteht darin, dass es schwierig ist, die Software zu trainieren, um es zu überwinden, bis ein autonomes Fahrzeugsystem ein bestimmtes Problem hat.

Außerdem manifestieren sich Fehler in den Software- und Hardware-Stacks nur unter bestimmten Fahrszenarien als sicherheitskritische Probleme. Mit anderen Worten, Tests, die an AVs auf Autobahnen oder leeren/weniger überfüllten Straßen durchgeführt werden, sind möglicherweise nicht ausreichend, da Sicherheitsverletzungen aufgrund von Software-/Hardwarefehlern selten sind.

Wenn Fehler auftreten, treten sie auf, nachdem Hunderttausende von Kilometern gefahren wurden. Die Arbeit, die zum Testen dieser AVs über Hunderttausende von Kilometern erforderlich ist, kostet viel Zeit, Geld und Energie, was den Prozess äußerst ineffizient macht. Das Team nutzt Computersimulationen und künstliche Intelligenz, um diesen Prozess zu beschleunigen.

„Wir injizieren Fehler in den Software- und Hardware-Stack der autonomen Fahrzeuge in Computersimulationen und sammeln dann Daten über die Reaktionen der autonomen Fahrzeuge auf diese Probleme“, sagte Jha. „Im Gegensatz zum Menschen kann die KI-Technologie heute nicht über Fehler nachdenken, die in verschiedenen Fahrszenarien auftreten können. Daher werden riesige Datenmengen benötigt, um der Software beizubringen, angesichts von Software- oder Hardwareproblemen die richtigen Maßnahmen zu ergreifen.“

Die Forschungsgruppe entwickelt derzeit Techniken und Werkzeuge, um Fahrbedingungen und Probleme zu erzeugen, die sich maximal auf die AV-Sicherheit auswirken. Mit ihrer Technik können sie eine große Anzahl sicherheitskritischer Szenarien finden, in denen Fehler zu Unfällen führen können, ohne alle Möglichkeiten auf der Straße aufzählen zu müssen – eine enorme Zeit- und Kostenersparnis.

Beim Testen einer offen verfügbaren AV-Technologie, Apollo von Baidu, fand das Team mehr als 500 Beispiele dafür, dass die Software ein Problem nicht bewältigte und der Fehler zu einem Unfall führte. Ergebnisse wie diese sorgen dafür, dass die Arbeit der Gruppe in der Branche wahrgenommen wird. Sie arbeiten derzeit an einem Patent für ihre Testtechnologie und planen, sie bald einzusetzen. Idealerweise hoffen die Forscher, dass Unternehmen diese neue Technologie nutzen, um das identifizierte Problem zu simulieren und die Probleme zu beheben, bevor die Autos eingesetzt werden.

„Die Sicherheit autonomer Fahrzeuge ist entscheidend für ihren Erfolg auf dem Markt und in der Gesellschaft“, sagte Steve Keckler, Vice President of Architecture Research bei NVIDIA. „Wir gehen davon aus, dass die vom Forschungsteam aus Illinois entwickelten Technologien es Ingenieuren erleichtern werden, sicherere Fahrzeugsysteme zu geringeren Kosten zu entwickeln. NVIDIA freut sich über unsere Zusammenarbeit mit Illinois und freut sich, ihre Arbeit zu unterstützen.“

Diese Forschung wurde mehrfach von IEEE veröffentlicht (Artikel 1, Artikel 2, Artikel 3).


Leave a Comment