Was nehmen selbstfahrende Autos von ihrer Umgebung wahr und wie interpretieren sie die empfangenen Informationen? Diese Fragen sind entscheidend für die weitere Entwicklung von autonomen Fahrzeugen, aber auch von intelligenten mobilen Robotern.
Informatiker haben jetzt einen wichtigen Entwicklungsschritt für eine verbesserte, menschenähnliche Wahrnehmung komplexer urbaner Umgebung geschafft.
Mit Hilfe Künstlicher Intelligenz (KI) können sich Roboter zwar heute schon selbstständig in ihrer Umgebung zurechtfinden und durch sie navigieren, wenn sie gelernt haben, wie diese Umgebung aussieht. Allerdings ist die Wahrnehmung und korrekte Einschätzung von unbekannten, teilweise verdeckten Dingen und beweglichen Objekten oder Menschen bislang eine große Herausforderung, wie der Roboterforscher Prof. Dr. Abhinav Valada von der Freiburger Albert-Ludwigs-Universität erläutert. Ihm gelang jetzt mit seinem Team vom Robot Learning Lab der Uni ein maßgeblicher Schritt zur Lösung des Problems.
Die Antwort der Freiburger Wissenschaftler auf die Aufgabestellung, die Umgebungswahrnehmung autonomer Fahrzeuge zu verbessern und so zu mehr Sicherheit beizutragen, lautet „amodale panoptische Segmentierung mit Hilfe von KI-Ansätzen“.
Bislang können autonome Fahrzeuge ihre Umgebung mittels panoptischer Segmentierung erfassen. Das bedeutet, dass sie bisher nur vorhersagen können, welche Pixel eines Bildes zu welchen „sichtbaren“ Regionen eines Objekts wie einer Person oder eines Autos gehören, wie die Freiburger Forscher erklären. Dagegen sind die Fahrzeuge nicht in der Lage, auch die gesamte Form von Objekten vorherzusagen, insbesondere wenn diese teilweise von anderen Objekten verdeckt werden. Der Mensch wiederum kann sich die vollständige physische Struktur von Objekten vorstellen, selbst wenn diese teilweise verdeckt sind. An dieser Fähigkeit mangelt es den bisherigen Algorithmen, die es Robotern und selbstfahrenden Fahrzeugen ermöglichen, ihre Umgebung wahrzunehmen, noch.
Das soll sich durch die Wahrnehmung mit amodaler panoptischer Segmentierung ändern, da diese ein ganzheitliches Verständnis der Umgebung ermöglicht – ähnlich wie beim Menschen. Amodal bedeutet in diesem Fall nach Auskunft der Freiburger Forscher, „dass von einer teilweisen Verdeckung von Objekten abstrahiert werden muss – statt sie als Fragmente zu betrachten, sollten sie in ihrer Ganzheit gesehen werden.“ So werde eine neue Qualität der visuellen Umgebungserfassung möglich, die für die Verkehrssicherheit autonom fahrender Autos einen enormen Fortschritt bedeuten würde, heißt es. Neue KI-Algorithmen für diese Aufgabe könnten Roboter – und autonome Fahrzeuge – in die Lage versetzen, die visuelle Erfahrung nachzuahmen, die Menschen haben, indem sie die vollständige physische Struktur von Objekten wahrnehmen, erklärt Prof. Valada.
Das wäre eine elementare Voraussetzung für die weitere Entwicklung autonomen Fahrens, da die Sensoren der Autos der Zukunft ihre Umgebung im Straßenverkehr klar erkennen und auch klassifizieren können müssen: Dies ist ein anderes Auto, das ist ein Radfahrer, jenes ist ein Fußgänger usw. Dafür kommen verschiedene Sensoren zum Einsatz, da man sich aus Sicherheitsgründen nicht auf einen Sensortypen verlassen kann. Zudem ist es unterschiedlichen Sensoren möglich, etwaige Defizite der anderen Messfühler zu kompensieren. So kommen viele Daten zusammen, die mit Hilfe Künstlicher Intelligenz ausgewertet werden. Auf diese Weise werden die Fahrzeuge darauf trainiert, andere Verkehrsteilnehmer und Umgebungsobjekte immer besser zu identifizieren.
Künstliche Intelligenz werde den Verkehr voraussichtlich sicherer machen, ist sich Prof. Alfred Höß, Leiter des Forschungsprojekts KI-ASIC (KI-Prozessorarchitekturen für Radarmodule im autonomen Fahrzeug) an der Ostbayerischen Technischen Hochschule (OTH) Amberg-Weiden, sicher. Er verweist dazu gegenüber dem Bayerischen Rundfunk auf die Ethik-Kommission, die sich schon mit dem Thema beschäftigte. Der Tenor war, dass mit Systemen, die zuverlässig funktionieren, werden mehr Unfälle vermieden als man auf der anderen Seite durch fehlerhaftes Verhalten der Systeme produziert, wie die Hamburger Academic Society for Artificial Intelligence, Studiengesellschaft für Künstliche Intelligenz, berichtet.
Das Projekt KI-ASIC dient der Erforschung einer neuartigen Prozessorarchitektur, so genannten neuromorphen Prozessoren, die es erlauben sollen, KI-Methoden speziell für Mustererkennung und -analyse beim autonomen Fahren einzusetzen. Mit ihnen könne eine deutlich verbesserte Verarbeitung der Radardaten bereits im Sensor erfolgen, erläutert das Bundesforschungsministerium. Durch KI-ASIC soll demnach die neuromorphe Elektronik aus der akademischen Grundlagenforschung in die automobile Anwendung überführt werden. Die Verbindung von Methoden der Künstlichen Intelligenz mit hochentwickelten Elektronikkomponenten schafft so die technologische Grundlage dafür, dass autonome Fahrzeuge angemessen auf alle Fahrsituationen reagieren können.
An dem Vorhaben sind neben der OTH Amberg-Weiden die Infineon Technologies Dresden als Verbundkoordinator, BMW, die Technische Universität München und die Technische Universität Dresden beteiligt. (aum)
Foto: Autoren-Union Mobilität/ZF