Bevor selbstfahrende Autos auf die Straßen kommen, gilt es nicht nur technische Herausforderungen zu lösen. Die Entwicklung autonomer Fahrzeuge wirft auch ethische Fragen auf. Im Interview spricht Prof. Christoph Lütge, Inhaber des Lehrstuhls für Wirtschaftsethik an der TU München, über Chancen und Risiken der KI und des autonomen Fahrens und erklärt, wie er Studierenden ethisches Handeln näherbringt.

Die Fragen, die Ethikern gestellt werden, haben eine enorme Spannbreite. Und oft klingen die Antworten von Ethikern auf Alltagsfragen erstaunlich pragmatisch. In der Pandemie haben Sie als Mitglied des bayrischen Ethikrates harte Lockdowns kritisiert und erklärt, die Kollateralschäden seien zu hoch. Das klingt auf den ersten Blick hart. Wie einfach ist es, Chancen und Risiken abzuwägen und daraus eine Anleitung zum moralischen Handeln zu machen?

Die Fragen, die Ethikern gestellt werden, haben eine enorme Spannbreite. Und oft klingen die Antworten von Ethikern auf Alltagsfragen erstaunlich pragmatisch. In der Pandemie haben Sie als Mitglied des bayrischen Ethikrates harte Lockdowns kritisiert und erklärt, die Kollateralschäden seien zu hoch. Das klingt auf den ersten Blick hart. Wie einfach ist es, Chancen und Risiken abzuwägen und daraus eine Anleitung zum moralischen Handeln zu machen?

Vielleicht klären wir zu Beginn, was Ethik eigentlich ist: Risikomanagement auf vielen Ebenen. Und was Ethik nicht ist – nämlich das Einhalten von Prinzipien, koste es, was es wolle. Das gilt besonders im Bereich der angewandten Ethik, mit der wir Themen wie die künstliche Intelligenz, das autonome Fahren und auch die Wirtschaftsethik abdecken. Uns Ethikern geht es darum, Risiken gegeneinander abzuwägen und ein gesamtheitliches Bild von einer Situation zu erhalten. Es reicht nicht, nur einen Aspekt herauszugreifen, wie das in der Coronakrise doch sehr stark der Fall ist und war. Dabei werden die medizi-nischen Aspekte in den Vordergrund gestellt. Es gibt aber noch viele andere wissenschaftliche Disziplinen jenseits der Medizin, wie Sozialwissenschaften, Ökonomen und auch die Ethiker, die sich mit den Maßnahmen, der Verhältnismäßigkeit und den Kollateralschäden beschäftigen. In der Theorie klingt das vielleicht etwas abgehoben. Wenn es konkreter wird, wird es häufig einfacher.

Sie leiten das Institute for Ethics in Artificial Intelligence (IEAI). Dort arbeiten Forscher aus Medizin, Natur- und Ingenieurwissenschaften gemeinsam mit den Sozial- und Ethikwissenschaften in interdisziplinären Teams. In welchen Bereichen wird am IEAI geforscht?

Die Projekte gliedern sich in verschiedene Research-Cluster. Eines davon beinhaltet das Thema „Künstliche Intelligenz, Mobilität und Sicherheit“ – dazu zählt der Bereich des autonomen Fahrens. Ein anderer Bereich beschäftigt sich mit KI-basierten Entscheidungshilfen bei ethischen Fragen im Klinikalltag. In einem großen Bereich untersuchen wir den Themenkomplex KI und Nachhaltigkeit – zum Beispiel in der Landwirtschaft, der Wasserwirtschaft oder Bio-Diversität. Aktuell bauen wir einen Bereich auf, in dem wir untersuchen, wie wir KI am Arbeitsplatz in verantwortungsbewusster Weise gestalten müssen, damit sie Akzeptanz findet.

Wo liegen die Risiken, die KI mit sich bringt?

Es gibt eine ganze Reihe Risiken, die in der öffentlichen Diskussion immer wieder betont werden. Wir betrachten Risiken in verschiedenen Komplexen: Ein Komplex betrachtet die rein technischen Risiken bei Sicherheit, Datenschutz und Robustheit von Algorithmen. Ein weiterer betrifft die Fairness von Algorithmen, die Erklärbarkeit und Transparenz, denn viele Menschen sind besorgt, dass KI eine Blackbox ist, von der nicht nachvollziehbar ist, wie Entscheidungen zustande kommen. Und einige befürchten den Verlust von Autonomie. Bei allen Risiken sollten wir aber die ethischen und ökonomischen Chancen von KI nicht außer Acht lassen.

Nähern wir uns dem Thema autonomes Fahren: Ist es aus ethischer Sicht eigentlich sinnvoll, Autos autonom fahren zu lassen?

Schon vor rund fünf Jahren haben wir in der weltweit ersten Ethik-Kommission für autonomes Fahren einen Punkt betont: Die ethischen Chancen bestehen darin, dass viele Unfälle vermieden und Menschenleben gerettet werden können. Das ist ein klarer ethischer Vorteil, der auch schon anfällt, wenn wir noch nicht zu 100 Prozent autonom unterwegs sind, sondern mit hochautomatisierten Systemen.

Was wird am IEAI im Projekt zur Ethik des autonomen Fahrens beforscht?

In diesem Projekt arbeiten wir direkt mit dem Lehrstuhl für Fahrzeugtechnik zusammen und arbeiten an konkreten Aufgaben, zum Beispiel der Trajektorienplanung der Systeme. Dabei haben wir es häufig mit ganz konkreten Detailentscheidungen zu tun, zum Beispiel mit der Frage, wie viel Abstand ein Lkw zu anderen Fahrzeugen oder Radfahrern halten sollte. Um Abstandswerte zu erhalten, führen wir Studien durch, die dann für eine verantwortungsvolle Programmierung genutzt werden können.

Seit 2017 existieren Regeln der deutschen Ethikkommission zum automatisierten Fahren: Gibt es wesentliche Abweichungen in anderen Ländern der Welt?

Überall auf der Welt sind in den letzten Jahren verschiedene ethische Prinzipien für KI veröffentlicht worden. Die Varianz bei den abstrakten Prinzipien ist nicht sehr groß; ich schätze 80 bis 85 Prozent dürften gleich sein. Dennoch können sich im Detail Unterschiede ergeben. Betrachten wir noch einmal das Thema Abstände im Verkehr: Vor einiger Zeit war ich in Delhi.  Die Abstände im Verkehr dort waren viel kleiner als in Deutschland. Das kann auch Auswirkungen auf die Programmierung haben. Interessant wird es, wenn wir eine Ländergrenze überfahren – eine Situation, die in einem Land wie Japan nie, in China wahrscheinlich selten, in Europa aber schon häufiger auftritt. Deshalb bin ich überzeugt davon, dass wir für Europa einheitliche Richtlinien brauchen – Richtlinien, auf die wir seit Jahren vergeblich warten.  

Neben der Forschung sind Sie auch in der Lehre tätig: Wie bekommt man ethisches Handeln in die Köpfe der Studierenden? Oder anders gefragt: Wie bringt man Studierenden bei, ethische Algorithmen zu entwickeln?

Dazu hole ich ein bisschen aus. Als Inhaber des Lehrstuhls für Wirtschaftsethik ist es mir vor acht Jahren gelungen, die Wirtschaftsethik als Pflichtfach für Studierende der Betriebswirtschaft einzuführen. Meine Erfahrungen daraus sind, dass es nicht geht, Moral zu predigen und zu erklären „Hier ist der Katalog von Ethik, den müsst Ihr jetzt so umsetzen“. Ich weise immer darauf hin, dass man sich auch der Schwierigkeiten bewusst sein muss, die einer Umsetzung von Ethik entgegenstehen. In der BWL können das zum Beispiel Sachzwänge oder Kostendruck sein. Bei Digitalthemen und im Umgang mit KI haben wir noch keine Pflichtveranstaltungen. Der Präsident der TU München hat aber „Human-centered Engineering“ zu seiner Vision gemacht und damit eine Basis für die Einführung von Ethik in die Technikdisziplinen gelegt. Beim Human-centered Engineering geht es darum, Anteile von Geistes- und Sozialwissenschaften in die technischen Disziplinen einzubringen. Ein Ziel ist es, mehr Kompetenz durch Sensibilisierung für ethische Fragen zu vermitteln. Ingenieuren und Computerwissenschaftlern sollte bewusst sein, dass ihr Tun eine ethische Dimension hat.

Wann werden voll autonome Fahrzeuge auf den Straßen unterwegs sein und wie gut und moralisch werden sie dann entscheiden?

Wenn wir vom selbstfahrenden Auto sprechen, das strikt nach den derzeitigen Spezifikationen der Level 4 oder 5 unterwegs ist, kann das schon noch länger dauern. Aber wir haben ja heute schon recht weitgehende Anwendungen für bestimmte Einsatzzwecke, die sehr gut funktionieren. Bei der Frage, wie solche Systeme in der Breite auf die Straßen kommen können, geht es meiner Meinung nach mehr um die Beantwortung ethischer und rechtlicher Fragen und weniger um die Technik, denn technisch ist bereits vieles machbar. Fortschritte in der Gesetzgebung hat man in den letzten ein, zwei Jahren in den USA gemacht – mit der Konsequenz, dass zum Beispiel erste Lieferfahrzeuge ohne Fahrer unterwegs sein dürfen. Wir sollten die Fortschritte nicht unterschätzen, leider passieren sie oft außerhalb von Deutschland. Ich halte es für einen Fehler, dass deutsche Autohersteller ihre Forschung zum autonomen Fahren zurückgestellt haben. Ich glaube, in zehn Jahren werden wir deutlich mehr Automatisierung im Verkehr sehen. Gerade wir Deutschen legen uns die Latte ja immer sehr hoch und meinen, solange nicht alle Situationen zu 100 Prozent abgedeckt sind, können wir nicht vom autonomen Fahren sprechen. Diese digitale Null-und-eins-Vor-stellung sollten wir aufgeben.

Vielen Dank für das Interview.

  

Das Governance Lab (The GovLab), die New York University Tandon School of Engineering, das Global AI Ethics Consortium (GAIEC), das Center for Responsible AI @ NYU (R/AI) und das Institut für Ethik in der Künstlichen Intelligenz (IEAI) der Technischen Universität München (TUM) haben gemeinsam einen kostenlosen Online-Kurs “AI Ethics” gestartet: Global Perspectives, der sich an ein weltweites Publikum richtet. Der Kurs vermittelt die komplette Breite und Tiefe der laufenden interdisziplinären Konversation über Ethik der KI und versucht, verschiedene Perspektiven zu beleuchten, um das Bewusstsein zu schärfen und Institutionen dabei zu helfen, auf eine verantwortungs-vollere Nutzung hinzuarbeiten.
AI Ethics: Global Perspectives (aiethicscourse.org) (https://aiethicscourse.org/)

Über den Interviewten:

Prof. Christoph Lütge

Prof. Christoph Lütge

Prof. Christoph Lütge forscht auf dem Gebiet der Wirtschafts- und Unternehmensethik. Er vertritt den Ansatz einer Ordnungsethik, der ethisches Handeln unter den ökonomischen und sozialen Rahmenbedingungen der Globalisierung erforscht. Die Rolle des Wettbewerbs und der von Ordnungen ausgehenden Anreize stehen dabei ebenso im Vordergrund wie die Prüfung ethischer Kategorien auf Angemessenheit. Seit 2010 hat er den Peter Löscher-Stiftungslehrstuhl für Wirtschaftsethik an der TU München inne.

dSPACE MAGAZINE, PUBLISHED MAY 2021

Treiben Sie Innovationen voran. Immer am Puls der Technologieentwicklung.

Abonnieren Sie unser Expertenwissen. Lernen Sie von erfolgreichen Projektbeispielen. Bleiben Sie auf dem neuesten Stand der Simulation und Validierung. Jetzt dSPACE direct und dSPACE direct aeropace & defense abonnieren.

Formularaufruf freigeben

An dieser Stelle ist ein Eingabeformular von Click Dimensions eingebunden. Dieses ermöglicht es uns Ihr Newsletter-Abonnement zu verarbeiten. Aktuell ist das Formular ausgeblendet aufgrund Ihrer Privatsphäre-Einstellung für unsere Website.

Externes Eingabeformular

Mit dem Aktivieren des Eingabeformulars erklären Sie sich damit einverstanden, dass personenbezogene Daten an Click Dimensions innerhalb der EU, in den USA, Kanada oder Australien übermittelt werden. Mehr dazu in unserer Datenschutzbestimmung.