• Skip to main content
  • Skip to secondary menu
  • Skip to footer
OPUS Kulturmagazin

OPUS Kulturmagazin

Das Kulturmagazin der Großregion

  • News
  • Kulturleben
  • Kritiken
  • Veranstaltungskalender
  • Shop
  • abo
  • OPUS-Card

Moral für Maschinen?

Jetzt teilen

Roboter in der Altenpflege © Besnik Spahijaj

Die Bremsen versagen, die Zeit drängt. Soll das selbstfahrende Auto die zwei Wanderer auf der Straße überfahren? Oder sich selbst im letzten Moment über die Klippe steuern? Dieses Dilemma taucht in den letzten Jahren immer wieder in der öffentlichen Diskussion auf – und viele dürften seiner bereits überdrüssig sein.

Autonomes Fahren © Eschenzweig, wikimedia commons

 

Die Auseinandersetzung mit der Situation führt zu vielfältigen Reaktionen. Manch einer weist die Frage zurück: Das Auto dürfe nie so schnell fahren, als dass sich derartige Entscheidungen überhaupt aufdrängten. Andere beharren auf der Position, das Problem werde so selten auftreten, dass sich jede Diskussion des hypothetischen Szenarios erübrige. Keine dieser Dilemma-Vermeidungsstrategien ist letztlich befriedigend, denn das Dilemma steht nur stellvertretend für eine allgemeinere Herausforderung: Je größer die Tragweite der Entscheidungen wird, die Algorithmen treffen sollen, und je enger wir mit ‚autonomen‘ technischen Systemen in unserem Alltag interagieren, desto drängender und diffiziler wird die Frage nach dem, was die Maschine tun soll und darf – und zwar jenseits reiner Sicherheitsanforderungen.

 

 

Ethische Anforderungen an Maschinen und Software

Nehmen wir die in manchen ostasiatischen Ländern wie Japan und Südkorea bereits eingesetzten Pflegeroboter. Sie erinnern Ältere und Pflegebedürftige beispielsweise daran, Wasser zu trinken und Medikamente zu nehmen. Was aber, wenn ein an sich zurechnungsfähigerer Patient ablehnt, etwas zu trinken? Oder er seine Medikamente entsorgt? Angenommen, der Roboter könnte dies erkennen. Sollte er die autonome Entscheidung des Patienten akzeptieren? Oder einen menschlichen Entscheider kontaktieren?

Und was ist mit Fragen der Diskriminierung und Gerechtigkeit? Darf ein System, das Gesichter erkennt, von Sicherheitsbehörden zur automatischen Auswertung von Videodaten genutzt werden, wenn es Angehörige ethnischer Minderheiten häufiger als vermeintliche Kriminelle identifiziert als, sagen wir, Westeuropäer? Tatsächlich kann man beweisen, dass eine allgemeine Gleichbehandlung in vielen Fällen schon mathematisch unmöglich ist. Aber heißt das, dass gar keine Softwaresysteme genutzt werden können – letztlich, weil sie einfach zu systematisch in ihren Urteilen sind? Oder gibt es so etwas wie gerechtfertigte Diskriminierung?

Das alles – das Auto an der Klippe, der potentiell petzende Roboter und die Kamerabilder auswertende künstliche Intelligenz – sind Beispiele für Fragen, welche Anforderungen zur Moral an Maschinen gestellt werden können, der Moral, deren Beantwortung nach einer Moral in der Maschine verlangt. Und das derzeit erblühende Feld der Maschinenethik widmet sich diesen Fragen.

Aber welche Antwort ist jeweils die richtige? Darüber streiten Philosophen seit Jahrtausenden. Denn die Fragen, die sich jetzt stellen, sind alt. Aber mit Blick auf die moderne technische Entwicklung werden sie immer drängender. Menschen sind von Natur aus Wesen mit moralischer Grundausstattung. Über Bildung und Erziehung werden wir mit Fragen der Moral konfrontiert und lernen fortwährend, unsere Urteilsfähigkeit zu schärfen. Wir müssen uns Kritik stellen und erfahren Druck zur Rechtfertigung. Ethik, als die kritische Reflexion und das methodische Nachdenken über die Moral, hat daher hinsichtlich der konkreten Ausprägung der Moral nur begrenzte, und zeitlich oft stark verzögerte Wirkung auf das, was in einer Gesellschaft als gut und richtig oder schlecht und falsch akzeptiert wird. 

Anders wirkt Moral für Maschinen. Was ihnen einprogrammiert wird, setzen sie möglichst präzise um. Der Code bleibt insoweit hart und endgültig. Fügen wir formal formulierte moralische Normen zu etablierten Sicherheitsanforderungen – und genau dahin geht der Trend –, so wirkt diese ethische Entscheidung unmittelbar. Die Fähigkeiten zu moralischem Urteilen und zur Rechtfertigung fehlen der Maschine; die Entscheidungen der Entwickler entziehen sich der Kritik. Die Maschine ist eben – bis auf Weiteres – kein Akteur, sondern gesteuerte Technik.

 

Angriffsfläche für rationalen Diskurs einer mündigen Gesellschaft erhalten

Was folgt daraus? Die Gemeinde der Ethiker ist sich in vielerlei Hinsicht uneins, nicht nur hinsichtlich rein theoretischer Fragen, sondern auch hinsichtlich eben derjenigen Herausforderungen, die sich jetzt ganz konkret in Bezug auf künstliche Intelligenz und ihre Anwendungen stellen. Solange finale, allgemein akzeptierte und abschließende Antworten fehlen, solange müssen wir uns nicht nur fragen: Was befehlen wir den Maschinen? Sondern auch: Warum dies und nichts anderes? Und würden wir jenes befehlen, was wären dann die Auswirkung in anderen Situationen?

Ich halte es daher für offenkundig, dass es für eine aufgeklärte und humanistisch geprägte Gesellschaft bis auf Weiteres nur sekundär darauf ankommen darf, welche Normen wir konkret in die Maschinen hineinkodieren. Primär muss viel mehr die Frage sein, wie wir die Entscheidungen zu technischen Erfindungen und Potenzialen transparent und derart verständlich machen, dass wir einen zielführenden Dialog über das Für und Wider dieser Entscheidungen ermöglichen.   

Was auch immer das Auto an der Klippe tun wird, darf und soll: Ein Auto, dass uns im Unklaren darüber lässt, warum es getan hat, was es getan hat, darf es nicht geben. Das Warum ist mindestens so wichtig, wie die Entscheidung über die Handlung selbst. Zugleich müssen die angegebenen Gründe überprüfbar sein. Denn auch lügende Autos sind inakzeptabel.

Paternalistische Vorgaben sind nicht zu tolerieren. Hinterfragbarkeit ist das Gebot. Wir müssen diskutieren und kritisieren können. Wir brauchen den rationalen Diskurs. Wir brauchen Technologie, die sich einer kritischen Betrachtung durch eine aufgeklärte und mündige Gesellschaft nicht entzieht.

Moral in die Maschine? Ja. Aber wir brauchen mehr. Wir brauchen Begründungen.

 

Kevin Baum* im OPUS Kulturmagazin Nr. 85 (Mai/Juni 2021)

 

* ist Informatiker und Philosoph an der Universität des Saarlandes. Er lehrt und forscht zu Computerethik, fairer und erklärbarer KI. Mit der von ihm mitgegründeten gemeinnützigen Denkfabrik Algoright trägt er die Erkenntnisse aus der Forschung in die breite Öffentlichkeit.

Filed Under: Archiv

Footer

Was ist OPUS?

OPUS ist das spartenübergreifende Kulturmagazin für die Großregion Saar-Lor-Lux, Rheinland-Pfalz, Rhein-Main und Rhein-Neckar.
Sie möchten vor Abschluss Ihres Abonnements einen Blick in das OPUS Kulturmagazin werfen? Hier finden Sie wechselnde Beiträge als kostenfreie Leseprobe.
Leseprobe #1
Leseprobe #2

 

OPUS abonnieren

Jede Ausgabe „druckfrisch“ in Ihrem Briefkasten.
6 Ausgaben für 45 € im Jahr.
Studenten-Abo nur 25 € im Jahr.
Jetzt mehr erfahren

 

Leserbriefe

Leserbriefe zum OPUS Kulturmagazin
können Sie direkt auf unserer Leserbrief-Seite einsenden.

Gerne auch per E-Mail an
info@opus-kulturmagazin.de

oder postalisch an

Verlag Saarkultur GmbH
Stengelstr. 8
66117 Saarbrücken

Bitte beachten Sie unsere Richtlinie für Leserbriefe!

 

Spendenaufruf

Aufgrund der enormen Kostensteigerungen bei Druck, Energie und Vertrieb sowie Einbußen bei Anzeigen im gewerblichen Bereich ist OPUS Kulturmagazin in eine wirtschaftliche Schieflage geraten. Deswegen geht unsere Bitte an alle, die unser Magazin mögen und schätzen, uns mit einer Spende an unseren gemeinnützigen Verein zur Förderung der Kultur zu unterstützen. Auf diese Weise tragen Sie dazu bei, unsere Existenz zu sichern, die in hohem Maße gefährdet ist.
Bitte überweisen Sie Ihre Spende an:
Verein zur Förderung der Kultur im Saarland e.V.
Sparkasse Saarbrücken
IBAN: DE78 5905 0101 0067 0951 66
BIC: SAKSDE55XXX
Selbstverständlich erhalten Sie vom Verein eine steuerabzugsfähige Spendenquittung. Bitte teilen Sie uns zu diesem Zweck Ihre Anschrift mit.
Wir danken Ihnen sehr herzlich,
Ihr hoch engagiertes OPUS-Team
Dr. Kurt Bohr, Johann Emilian Horras,
Mario Kühn-Dach

 

  • News selbst einstellen
  • Neu: Veranstaltungskalender – Userregistrierung
  • Leserbriefe
  • Impressum
  • Datenschutz
  • AGB
  • Kontakt
  • Mediadaten
  • Zugang

Suche

  • E-Mail
  • Facebook
  • Instagram
  • LinkedIn

Copyright © 2025

Cookies
Damit dieses Internetportal ordnungsgemäß funktioniert, legen wir manchmal kleine Dateien – sogenannte Cookies – auf Ihrem Gerät ab. Das ist bei den meisten großen Websites üblich.
Akzeptieren