Professor Dr. Andreas Geiger ist Leiter der Forschungsgruppe Autonomes Maschinelles Sehen am Max-Planck-Institut für Intelligente Systeme (MPI-IS) und Professor für Learning-based Computer Vision and Autonomous Vision an der Universität Tübingen. Im Interview spricht er über die Herausforderungen bei der Entwicklung selbstfahrender Autos, erklärt, wie attraktiv deutsche Universitäten im internationalen Vergleich sind und sagt, was passieren muss, um Talente im Land zu halten.

Sie haben 2018 den IEEE PAMI Young Researcher Award für Ihren herausragenden Beitrag zur Überwindung der Kluft zwischen Computer Vision, Machine Learning und Robotik erhalten. Können Sie kurz beschreiben, was Ihnen die Auszeichnung bedeutet?

Der Preis bedeutet mir sehr viel, weil er die internationale Bedeutung meiner Arbeit anerkennt und zeigt, dass wir auf Augenhöhe mit den besten Computer-Vision-Forschungslabors der Welt sind. Ich habe ihn als erster Wissenschaftler aus Deutschland und als dritter Forscher in Europa erhalten. Der Award ist die renommierteste Auszeichnung im Bereich Computer Vision für einen jungen Forscher. 

Was genau wurde mit dem Award ausgezeichnet?

Ich wurde für meine Forschungen rund um selbstfahrende Autos ausgezeichnet. Zunächst habe ich im Rahmen meiner Dissertation am Karlsruhe Institute of Technology Algorithmen und Ansätze entwickelt, mit denen ein Szenenverständnis generiert werden konnte. Weil ich mit echten Daten arbeiten wollte, habe ich einen Versuchsträger mit umfassender Sensorik – mehreren Kameras, Lidars, GPS – ausgestattet. Irgendwann haben wir uns entschlossen, die aufwendig eingefahrenen Daten der Allgemeinheit zur Verfügung zu stellen. Als Nebenprodukt zu meiner Dissertation ist so 2012 der KITTI Benchmark entstanden, der sich zu einem der einflussreichsten Datensätze im Bereich des autonomen Fahrens entwickelt hat. Der KITTI Benchmark ist heute der Standard im Bereich Computer Vision, um Algorithmen zu evaluieren.

Wie grenzen sich Regelungstechnik und maschinelles Lernen aus Ihrer Sicht voneinander ab?

Wo maschinelles Lernen aufhört und Regelungstechnik anfängt, ist abhängig von der Perspektive. Aus der Sicht eines Regelungstechnikers ist die Perzeption Beiwerk, für Computerwissenschaftler ist die Regelungstechnik Beiwerk. Ich persönlich sehe die größeren Herausforderungen bezogen auf das autonome Fahren in der Perzeption und der KI-gestützten Entscheidungsfindung. Verglichen mit der Regelungstechnik für einen humanoiden Roboter mit 50 Aktoren und taktilen Sensoren, ist die Regelung eines Fahrzeugs vergleichsweise einfach. Im Grunde erfolgt die Steuerung eines Autos lediglich über Lenkung, Gas und Bremse. Dazu kommt, dass sich die Industrie ja seit Langem mit der Fahrzeugsteuerung beschäftigt und entsprechend viel Know-how entwickelt hat.

Sind Sie heute bereit, sich in ein autonomes Fahrzeug zu setzen?

Warum nicht? In einem Level-4-Fahrzeug würde ich mitfahren, wenn sich die Gelegenheit bietet – meistens sitzt ja auch noch ein Service-Mitarbeiter im Wagen, der notfalls eingreifen kann.

Und wann, glauben Sie, werden die ersten autonomen Fahrzeuge unterwegs sein, in denen kein Service-Mitarbeiter mehr mitfährt?

Viele Industrievertreter hatten ja versprochen, dass es 2021 soweit sein soll; zwischenzeitlich sind viele zurückgerudert und es kehrt Realismus ein. Fahren auf Level 5 sehe ich in den nächsten zehn Jahren nicht, weil im Bereich der künstlichen Intelligenz fundamentale Fragen nicht geklärt sind. Ob Fahren auf Level 4 gelingt, das hängt von der Definition der Rahmenbedingungen ab. In definierten Bereichen, bei definierten Wetterbedingungen – wie von Waymo gezeigt – kann das in den nächsten Jahren möglich sein. Ich vermute, dass man anfangs mit Remote-Operatoren und Geschwindigkeitsbegrenzungen arbeitet. Tesla ist heute schon sehr weit. Mich würde es aber überraschen, wenn ich ein autonomes Tesla-Fahrzeug mit Level-5-Funktionen in den nächsten fünf Jahren kaufen könnte.

Was sind die größten Hürden?

Zurzeit zählen wir einen Verkehrstoten auf 100 Millionen Meilen – das zeigt, dass wir Menschen das Autofahren recht sicher beherrschen. Ein autonomes Fahrzeug soll am Ende weniger Fehler machen als der menschliche Fahrer und bestenfalls noch um den Faktor zehn oder 100 besser sein. Es muss also in einer ganzen Reihe unterschiedlicher Situationen sicher unterwegs sein: Zum Beispiel müssen die Autos ihre Umgebung bei Nacht, Regen und Schnee wahrnehmen. Auch wenn Kameras noch bei Weitem nicht so gut sind wie das menschliche Auge, sind wir im Bereich der Sensorik in den letzten Jahren ein gutes Stück vorangekommen. Dann müssen autonome Fahrzeuge auf unübersichtlichen oder auf zugeparkten Straßen zurechtkommen. Und sie müssen mit unberechenbarem Verhalten von Fußgängern, mit Reflektionen und unvorhersehbaren und seltenen Ereignissen umgehen können. Um Algorithmen auf die so genannten „rare events“ zu trainieren, benötigen wir also unglaublich viele Daten. Eine weitere Hürde ist, dass Algorithmen keine „kausale Inferenz“ betreiben können – will heißen, sie sind nicht in der Lage, Schlussfolgerungen anzustellen. Deshalb wird viel manuell in die Systeme nachprogrammiert. Darüber hinaus sind ethische und rechtliche Fragen zu klären. Es ist also noch einiges zu tun.

Auf welche Bereiche konzentrieren Sie sich dabei?

Unsere Arbeitsgruppe konzentriert sich auf klassische Computer-Vision-Themen. Wir gehen zum Beispiel der Frage nach, wie wir besser und robuster Tiefe wahrnehmen können. Dann beschäftigen wir uns damit, wie Algorithmen mit weniger Daten lernen können. Und wir arbeiten daran, Simu-lation effizienter zu machen, denn ich bin sicher, dass in der Zukunft möglichst realistische Simulationen immer wichtiger für die Validierung und das Training werden. Schließlich beschäftigen wir uns mit dem Training von Algorithmen zum Selbstfahren. Dabei verfolgen wir anders als die Automobilindustrie, die heute nach dem klassischen modularen Ansatz arbeitet, den Ansatz der ganzheitlich trainierbaren Systeme.

Wie funktioniert End-to-End-Training und was sind die Vorteile?

Man versucht, das ganze System von der Beobachtung bis zur Steuerung als einen Prozess zu betrachten und durch ein neuronales Netzwerk abzubilden. Dabei werden Perzeptionsdaten und Steuerungsdaten – beim Auto sind das Lenken, Gas geben und Bremsen – gesammelt. Der Vorteil ist, dass wir das System direkt auf ein Ziel hin trainieren und nicht einzelne Module auf Teilaufgaben, zum Beispiel die Erkennung von Objekten. Wir glauben, dass solche Modelle die Lösung sind, um das autonome Fahren besser skalieren zu können. Noch funktionieren diese Modelle schlechter und sind weniger robust als die modularen Konzepte, die zurzeit in der Industrie angewendet werden und für die sehr viele Ingenieure an einzelnen Modulen arbeiten. Wenn wir die Datenkomplexität in den Griff bekommen, können wir mit maschinellem Lernen unser System viel schneller in eine neue Stadt, in neue Umgebungen bringen.

Wie nah sind Sie an der Industrie?

Auch wenn die Industrie den modularen Ansatz verfolgt, kooperieren wir in vielen Teilprojekten mit Zulieferern und Automobilherstellern in der Region. Für die Industrie ist unsere Fokussierung auf den End-to-End-Ansatz interessant, auch wenn er nicht unmittelbar anwendbar ist. Aktuell sind wir im Projekt KI-DeltaLearning involviert, das im Kontext des automatisierten Fahrens selbstlernende Methoden zur automatisierten Verarbeitung von Umgebungssensordaten betrachtet. Auftraggeber des Projekts ist das BMWi, beteiligt sind neben führenden Industrieunternehmen der Autoindustrie auch einige Universitäten, darunter die Uni Tübingen.

KI-DeltaLearning

KI-DeltaLearning

Das Forschungsziel von KI-DeltaLearning ist, die wesentlichen Unterschiede zu evaluieren und Methoden zu entwerfen, wie eine Künstliche Intelligenz mit bereits vorhandenem Wissen nur die konkreten „Deltas” neu lernen muss. Dies reduziert somit den Bedarf an Testdaten und beschleunigt den Lernprozess, wenn neues Wissen hinzugefügt werden soll.

 

Was hält Sie im Cyber Valley in Tübingen, und wie attraktiv sind deutsche Unis im internationalen Vergleich?

In Europa sind wir in der akademischen Forschung sehr gut, und die Automobilwirtschaft hat ein großes Interesse an der KI. Mit der Uni Tübingen und dem Max-Planck-Institut sind wir eingebettet in ein großes Netzwerk von Forschern, die nicht nur an Computer-Vision-Themen arbeiten, sondern KI auch in verwandten Disziplinen wie den Neurowissenschaften anwenden. In diesem Netzwerk können wir interdisziplinär voneinander lernen. Das macht das Arbeiten hier sehr attraktiv. Auch auf europäischer Ebene vernetzen wir uns weiter in verschiedenen Initiativen. Eine davon ist ELLIS – das European Lab for Learning and Intelligent Systems –, das den Austausch der Fakultäten und Doktoranden zu den Themen maschinelles Lernen und KI fördert. Man muss nicht unbedingt im Silicon Valley sein, um mit den großen Unternehmen von dort zu arbeiten. Amazon erweitert gerade seinen Standort hier, Bosch baut in unserer Nachbarschaft, NVIDIA sponsert uns, und ich arbeite eng mit Intel zusammen. Aufholbedarf haben wir allerdings bei dem Thema Start-ups.

Was muss da passieren?

Wir brauchen zum einen eine Veränderung des Mindsets und zum anderen mehr Förderung. Die Gründermentalität ändert sich gerade, aber wir brauchen mehr Inkubatoren und weniger Bürokratie, damit die guten jungen Leute ihre Ideen hier verwirklichen und nicht von den großen Tech-Konzernen in den USA abgeworben werden. Wer einmal weg ist, kommt vielleicht nie wieder. Die Talente hier zu halten, ist wichtig.

Vielen Dank für das Interview. 

Über den Interviewten

Professor Dr. Andreas Geiger

Professor Dr. Andreas Geiger

leitet die Forschungsgruppe Autonomes Maschinelles Sehen am Max-Planck-Institut für Intelligente Systeme (MPI-IS) und ist Professor für Learning-based Computer Vision and Autonomous Vision an der Universität Tübingen.

dSPACE MAGAZIN, VERÖFFENTLICHT November 2020

Weiterführende Informationen

  • Künstliche Intelligenz
    Künstliche Intelligenz

    dSPACE ist Ihr Partner für die Entwicklung und das Testen von künstlicher Intelligenz (KI). Wir unterstützen Sie dabei, die Qualität und Quantität Ihrer Daten zu steigern.

Treiben Sie Innovationen voran. Immer am Puls der Technologieentwicklung.

Abonnieren Sie unser Expertenwissen. Lernen Sie von erfolgreichen Projektbeispielen. Bleiben Sie auf dem neuesten Stand der Simulation und Validierung. Jetzt dSPACE direct und dSPACE direct aeropace & defense abonnieren.

Formularaufruf freigeben

An dieser Stelle ist ein Eingabeformular von Click Dimensions eingebunden. Dieses ermöglicht es uns Ihr Newsletter-Abonnement zu verarbeiten. Aktuell ist das Formular ausgeblendet aufgrund Ihrer Privatsphäre-Einstellung für unsere Website.

Externes Eingabeformular

Mit dem Aktivieren des Eingabeformulars erklären Sie sich damit einverstanden, dass personenbezogene Daten an Click Dimensions innerhalb der EU, in den USA, Kanada oder Australien übermittelt werden. Mehr dazu in unserer Datenschutzbestimmung.