Roboter in der Altenpflege © Besnik Spahijaj
Die Bremsen versagen, die Zeit drängt. Soll das selbstfahrende Auto die zwei Wanderer auf der Straße überfahren? Oder sich selbst im letzten Moment über die Klippe steuern? Dieses Dilemma taucht in den letzten Jahren immer wieder in der öffentlichen Diskussion auf – und viele dürften seiner bereits überdrüssig sein.
Die Auseinandersetzung mit der Situation führt zu vielfältigen Reaktionen. Manch einer weist die Frage zurück: Das Auto dürfe nie so schnell fahren, als dass sich derartige Entscheidungen überhaupt aufdrängten. Andere beharren auf der Position, das Problem werde so selten auftreten, dass sich jede Diskussion des hypothetischen Szenarios erübrige. Keine dieser Dilemma-Vermeidungsstrategien ist letztlich befriedigend, denn das Dilemma steht nur stellvertretend für eine allgemeinere Herausforderung: Je größer die Tragweite der Entscheidungen wird, die Algorithmen treffen sollen, und je enger wir mit ‚autonomen‘ technischen Systemen in unserem Alltag interagieren, desto drängender und diffiziler wird die Frage nach dem, was die Maschine tun soll und darf – und zwar jenseits reiner Sicherheitsanforderungen.
Ethische Anforderungen an Maschinen und Software
Nehmen wir die in manchen ostasiatischen Ländern wie Japan und Südkorea bereits eingesetzten Pflegeroboter. Sie erinnern Ältere und Pflegebedürftige beispielsweise daran, Wasser zu trinken und Medikamente zu nehmen. Was aber, wenn ein an sich zurechnungsfähigerer Patient ablehnt, etwas zu trinken? Oder er seine Medikamente entsorgt? Angenommen, der Roboter könnte dies erkennen. Sollte er die autonome Entscheidung des Patienten akzeptieren? Oder einen menschlichen Entscheider kontaktieren?
Und was ist mit Fragen der Diskriminierung und Gerechtigkeit? Darf ein System, das Gesichter erkennt, von Sicherheitsbehörden zur automatischen Auswertung von Videodaten genutzt werden, wenn es Angehörige ethnischer Minderheiten häufiger als vermeintliche Kriminelle identifiziert als, sagen wir, Westeuropäer? Tatsächlich kann man beweisen, dass eine allgemeine Gleichbehandlung in vielen Fällen schon mathematisch unmöglich ist. Aber heißt das, dass gar keine Softwaresysteme genutzt werden können – letztlich, weil sie einfach zu systematisch in ihren Urteilen sind? Oder gibt es so etwas wie gerechtfertigte Diskriminierung?
Das alles – das Auto an der Klippe, der potentiell petzende Roboter und die Kamerabilder auswertende künstliche Intelligenz – sind Beispiele für Fragen, welche Anforderungen zur Moral an Maschinen gestellt werden können, der Moral, deren Beantwortung nach einer Moral in der Maschine verlangt. Und das derzeit erblühende Feld der Maschinenethik widmet sich diesen Fragen.
Aber welche Antwort ist jeweils die richtige? Darüber streiten Philosophen seit Jahrtausenden. Denn die Fragen, die sich jetzt stellen, sind alt. Aber mit Blick auf die moderne technische Entwicklung werden sie immer drängender. Menschen sind von Natur aus Wesen mit moralischer Grundausstattung. Über Bildung und Erziehung werden wir mit Fragen der Moral konfrontiert und lernen fortwährend, unsere Urteilsfähigkeit zu schärfen. Wir müssen uns Kritik stellen und erfahren Druck zur Rechtfertigung. Ethik, als die kritische Reflexion und das methodische Nachdenken über die Moral, hat daher hinsichtlich der konkreten Ausprägung der Moral nur begrenzte, und zeitlich oft stark verzögerte Wirkung auf das, was in einer Gesellschaft als gut und richtig oder schlecht und falsch akzeptiert wird.
Anders wirkt Moral für Maschinen. Was ihnen einprogrammiert wird, setzen sie möglichst präzise um. Der Code bleibt insoweit hart und endgültig. Fügen wir formal formulierte moralische Normen zu etablierten Sicherheitsanforderungen – und genau dahin geht der Trend –, so wirkt diese ethische Entscheidung unmittelbar. Die Fähigkeiten zu moralischem Urteilen und zur Rechtfertigung fehlen der Maschine; die Entscheidungen der Entwickler entziehen sich der Kritik. Die Maschine ist eben – bis auf Weiteres – kein Akteur, sondern gesteuerte Technik.
Angriffsfläche für rationalen Diskurs einer mündigen Gesellschaft erhalten
Was folgt daraus? Die Gemeinde der Ethiker ist sich in vielerlei Hinsicht uneins, nicht nur hinsichtlich rein theoretischer Fragen, sondern auch hinsichtlich eben derjenigen Herausforderungen, die sich jetzt ganz konkret in Bezug auf künstliche Intelligenz und ihre Anwendungen stellen. Solange finale, allgemein akzeptierte und abschließende Antworten fehlen, solange müssen wir uns nicht nur fragen: Was befehlen wir den Maschinen? Sondern auch: Warum dies und nichts anderes? Und würden wir jenes befehlen, was wären dann die Auswirkung in anderen Situationen?
Ich halte es daher für offenkundig, dass es für eine aufgeklärte und humanistisch geprägte Gesellschaft bis auf Weiteres nur sekundär darauf ankommen darf, welche Normen wir konkret in die Maschinen hineinkodieren. Primär muss viel mehr die Frage sein, wie wir die Entscheidungen zu technischen Erfindungen und Potenzialen transparent und derart verständlich machen, dass wir einen zielführenden Dialog über das Für und Wider dieser Entscheidungen ermöglichen.
Was auch immer das Auto an der Klippe tun wird, darf und soll: Ein Auto, dass uns im Unklaren darüber lässt, warum es getan hat, was es getan hat, darf es nicht geben. Das Warum ist mindestens so wichtig, wie die Entscheidung über die Handlung selbst. Zugleich müssen die angegebenen Gründe überprüfbar sein. Denn auch lügende Autos sind inakzeptabel.
Paternalistische Vorgaben sind nicht zu tolerieren. Hinterfragbarkeit ist das Gebot. Wir müssen diskutieren und kritisieren können. Wir brauchen den rationalen Diskurs. Wir brauchen Technologie, die sich einer kritischen Betrachtung durch eine aufgeklärte und mündige Gesellschaft nicht entzieht.
Moral in die Maschine? Ja. Aber wir brauchen mehr. Wir brauchen Begründungen.
Kevin Baum* im OPUS Kulturmagazin Nr. 85 (Mai/Juni 2021)
* ist Informatiker und Philosoph an der Universität des Saarlandes. Er lehrt und forscht zu Computerethik, fairer und erklärbarer KI. Mit der von ihm mitgegründeten gemeinnützigen Denkfabrik Algoright trägt er die Erkenntnisse aus der Forschung in die breite Öffentlichkeit.