Ethik : Künstliche Intelligenz wird in der Interaktion stattfinden
An der TU München gibt es neben dem Lehrstuhl für Wirtschaftsethik seit heuer auch ein „Institut für Ethik in der Künstlichen Intelligenz“. Beides wird von Prof. Dr. Christoph Lütge geleitet, einem der führenden Wissenschaftler auf diesem Gebiet. Lütge ist unter anderem Mitglied der Ethikkommission für automatisiertes und vernetztes Fahren, in dem das Deutsche Verkehrsministerium mit den Autobauern Regeln für die Straßenbenutzung von morgen entwickelt, und Mitglied der europäischen KI-Ethikinitiative „AI4People“. Doch während es bei Endverbraucher-nahen Anwendungen sehr klar ist, dass zum Beispiel bei der Pflege von alten Menschen durch Pflegeroboter oder beim Einsatz von automatischen Waffensystemen ethische Fragen auftauchen, wird das Thema bei industriellen Anwendungen kaum je berührt. Ist es also keine Frage der Ethik, ob und wie Künstliche Intelligenz in einen Produktionsprozess integriert wird – oder eben doch?
Ein bescheidener Ansatz
Was ist für Sie Ethik?
Lütge: Ich vertrete einen bescheidenen Ansatz: Bei Ethik geht es darum, dass ein System nicht auf Kosten anderer Erfolg hat, zu Lasten davon betroffener Gruppen eingesetzt wird. Ethik wird gerne als rein abstraktes Theoriegebilde verstanden, das sehe ich nicht so. Ethik muss sich auf konkrete Technologien einlassen und klären, wie man diese so einsetzen kann, dass eine Win-Win-Situation für alle Beteiligten entsteht.
Die Technologie ist da, Künstliche Intelligenz gilt als das Herzstück der kommenden Industrie 4.0. Warum reicht für den Einsatz dieser Technologien nicht einfach betriebswirtschaftliches Kalkül?
Lütge: KI wird in der Interaktion stattfinden. Die Frage ist, wie man diese Interaktion, diese Mensch-Maschine-Schnittstelle gestaltet. Das hat eine starke ethische Komponente, auch in der Industrie: Wie nutze ich KI so, dass es für die Mitarbeiter akzeptabel ist? Am wichtigsten dabei ist die Erklärbarkeit der Technologie.
Was verstehen Sie unter Erklärbarkeit?
Lütge: Es muss verständlich gemacht werden können, warum eine KI-Anwendung zu bestimmten Ergebnissen kommt. Ein Beispiel, das jedem in seinem Privatbereich passieren kann: Bei der Beurteilung von Kreditwürdigkeit kommen jetzt schon KI-Funktionalitäten zum Einsatz. Wenn nicht nachvollziehbar ist, warum jemand einen Kredit nicht bekommt, dann wird es dafür keine Akzeptanz geben. Dafür muss ein Interface geschaffen werden, dass das erklärbar macht. So ähnlich ist es auch in der industriellen Produktion.
Das Verhalten von Mitarbeitern beim Einsatz von KI
Sie haben ein Forschungsprojekt am Institut, bei dem es um „KI für am Menschen orientierte Industrie 4.0“ geht. Mit welchen Themen beschäftigen Sie sich dabei?
Lütge: Dieses Projekt wird gemeinsam mit dem Institut für Maschinenbau durchgeführt, so wie wir in allen unseren Projekten gemeinsam mit technischen oder juristischen Disziplinen arbeiten. Hier beobachten wir konkret das Verhalten von Mitarbeitern in der Interaktion mit KI-Systemen, um herauszufinden wie man dieses System so gestalten kann, dass es von den unterschiedlichen Nutzern und Nutzergruppen akzeptiert wird.
Das heißt, für Sie geht es bei der Ehtik nicht darum, ob eine Technologie einsgetzt wird, sondern wie sie eingesetzt wird?
Lütge: Genau! Wir beschäftigen uns nicht mit der Grundsatzfrage, ob KI eingesetzt werden soll oder nicht. Das ist beantwortet, die Technologie ist da und wird genutzt. Gegen technische Megatrends noch Grundsatzopposition zu betreiben ist illusorisch.
Die einfachsten industriellen KI-Anwendungen, die jetzt schon zum Einsatz kommen, sind etwa in der Qualitätssicherung oder in der Instandhaltung. Was kann es beispielsweise für ethische Fragen bei Condition Monitoring geben?
Lütge: Zum Beispiel, was für Grenzwerte man wo ansetzt. Das ist keine rein technische oder juristische Frage, sondern eine ethische. Ein anderer Punkt ist, dass immer ein Restrisiko bleibt, hundertprozentige Sicherheit wird es auch bei KI nie geben. Wie man damit umgeht, das ist ebenfalls eine ethische Frage. Mir geht es darum, Ethik nicht als Bremse für den Fortschritt zu sehen, sondern als etwas dass die Innovation fördern kann – indem es die Vertrauenswürdigkeit erhöht.
Die Vermeidung von Diskriminierung schafft Vertrauen
Eine klassische ethische Frage im Zusammenhang mit KI kommt aus dem autonomen Fahren: Soll das selbststeuernde Auto in einer unvermeidbaren Unfallsituation lieber in eine Gruppe von Kindern fahren oder ältere Menschen niedermähen?
Lütge: Genau das ist ein Beispiel für eine abstrakte Frage, die sich in der Praxis so nicht stellt. Niemand wird in ein System eine Diskriminierung der einen oder der anderen Gruppe einprogrammieren, weil das nirgendwo akzeptiert werden würde. Das entspricht überall auf der Welt sämtlichen Verfassungsprinzipien. Wenn eine Anwendung Vertrauen schaffen will, muss sie jegliche Diskriminierung gegenüber einzelnen Gruppen ausschließen, sonst wird es nicht funktionieren.
Das klingt sehr optmistisch, was die Rolle von Ethik in der Wirtschaft anbelangt.
Lütge: Ja! Dieselgate hat man schließlich auch gefunden, und den Schadenersatz den die Autohersteller hier leisten müssen, den hätte sich auch ein Konzern wie VW gerne erspart. Das ist ein wichtiger Punkt: KI wird von Unternehmen eingesetzt. Diese Unternehmen haben es mit Risiken zu tun, wobei ethische Risiken sehr schnell zu ökonomischen Risiken werden können – neben Strafzahlungen geht es auch um Reputationsverlust oder um Haftungsfragen. In diesem Sinne ist Ethik so etwas wie angewandtes Risikomanagement für die Unternehmen. Und als Wirtschaftsethiker weiß ich: Skandale werden von Unternehmen auch als Chance genutzt, sich in ethischen Fragen umzuorientieren.
6,5 Mio. Euro von Facebook
Das bringt mich zu einer letzten Frage zu ihrem Institut für Ethik in der Künstlichen Intelligenz an der TU München, dessen Gründung von Facebook mit 6,5 Mio. Euro gesponsert wurde. Facebook gilt als Konzern, der bei KI zwar die Nase vorne, aber mit Ethik im Gegenteil nicht so viel am Hut hat. Wie passt das zusammen?
Lütge: Wir haben an der TU München damit keinerlei Verpflichtung gegenüber Facebook, das angesprochene Sponsoring ist lediglich ein „Research Gift“. Abgesehen davon bemühen wir uns auch um Partnerschaften mit anderen. Ich denke, dass es eben auch für ein Unternehmen wie Facebook interessant ist, objektive Forschung beispielsweise zur Fairness von Algorithmen zu ermöglichen. Vom Austausch mit unabhängigen Wissenschaftlern erwarten sich Unternehmen interessanten Input von außen: Das ist auch nötig, denn Ethik geht nicht alleine Inhouse. Ich verstehe uns in diesem Sinne als Partner der Wirtschaft.