| Zukunft Kundenkommunikation

Ethische Leitlinien für die Interaktion zwischen Mensch und Maschine: Sind autonome Roboter haftbar?

Ethische Leitlinien für die Interaktion zwischen Mensch und Maschine: Sind autonome Roboter haftbar?

Roboter und künstliche Intelligenz (KI) sind längst Teil unseres Alltags. Die Interaktion zwischen Mensch und Maschine wirft deswegen viele neue ethische Fragen auf: Was dürfen Roboter und KI – und was nicht? Wie weit dürfen sie autonom handeln? Eine Kommission im Auftrag der Bundesregierung hat sich damit beschäftigt, was das zum Beispiel für das autonome Fahren bedeutet.

Bereits vor mehr als 70 Jahren formulierte der russisch-amerikanische Sachbuchautor Issac Asimov drei Grundgesetze der Robotik, die bis heute immer wieder in Romanen und Filmen aufgegriffen werden:

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.

So einleuchtend diese Regeln auf den ersten Blick erscheinen, so problematisch sind sie bei näherer Betrachtung. Zum einen ist das erste Gesetz relativ schwammig formuliert. Was genau bedeutet „Schaden“ – geht es zum Beispiel nur um körperliche, oder auch um seelische und wirtschaftliche Schäden? Zum anderen geben diese Gesetze keine Handlungsempfehlung für Konfliktsituationen. Etwa, wenn ein Roboter einen Menschen nur vor dem Tod bewahren kann, indem er in Kauf nimmt, dass ein anderer Mensch Verletzungen erleidet.

Nur ein rhetorisches Gedankenspiel? Angesichts der aktuellen Forschungen rund um selbstfahrende Autos definitiv nicht, handelt es sich dabei doch, wie es Wissenschaftsjournalist Ulrich Eberl ausdrückt, um nichts anderes als autonome Roboter auf Rädern. „Die Interaktion von Mensch und Maschine wirft in der Zeit der Digitalisierung und der selbstlernenden Systeme neue ethische Fragen auf“, sagt Bundesverkehrsminister Alexander Dobrindt. „Das automatisierte und vernetzte Fahren ist die aktuelle Innovation, bei der diese Interaktion in voller Breite Anwendung findet.“ Deswegen hat sich eine Ethik-Kommission um den ehemaligen Bundesverfassungsrichter Udo Di Fabio damit beschäftigt, Antworten zu finden. Mitte des Jahres stellte die Kommission die weltweit ersten ethischen Leitlinien für automatisiertes Fahren vor.

Ethische Kernpunkte des autonomen Fahrens

Insgesamt 20 Thesen hat die Ethik-Kommission formuliert. Die Kernpunkte sind:

  • Das automatisierte und vernetzte Fahren ist ethisch geboten, wenn die Systeme weniger Unfälle verursachen als menschliche Fahrer.
  • In Gefahrensituationen hat der Schutz menschlichen Lebens immer höchste Priorität.
  • Bei Unfällen, die nicht vermieden werden können, ist jede Qualifizierung von Menschen nach persönlichen Merkmalen unzulässig.
  • In jeder Situation muss klar geregelt und erkennbar sein, wer fährt: Mensch oder Computer.
  • Es muss dokumentiert und gespeichert werden, wer fährt, unter anderem, um mögliche Haftungsfragen klären zu können.
  • Der Fahrer muss grundsätzlich selbst über Weitergabe und Verwendung seiner Fahrzeugdaten entscheiden können.

Auch über Situationen, in denen ein ethisches Dilemma entsteht, hat die Kommission nachgedacht – ohne wirklich eine Lösung zu finden: „Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen.“ Fälle also, in denen ein automatisiertes Fahrzeug „entscheiden“ muss, welches von zwei nicht abwägungsfähigen Übeln in Kauf genommen wird.

Weitergehende Regelungen hat die Kommission hierzu nicht getroffen. Aktuell geht es also darum, gefährliche Situationen möglichst zu vermeiden, wodurch automatisch auch ethische Konfliktsituationen vermieden werden. Ist ein Unfall nicht mehr abzuwenden, liegt die Priorität der Autohersteller darauf, durch sichere Ausweichmanöver oder Bremsungen Schaden zu minimieren.

Das fahrerlose Alltagsauto

Wobei es wohl noch einige Zeit dauern wird, bis Autos wirklich autonom durch den Alltag fahren. Der Verband der Automobilindustrie hat sechs Abstufungen für das automatisierte Fahren festgelegt, von Stufe 0 – der Fahrer fährt, kein Assistenzsystem greift ein – bis Stufe 5, bei der kein Fahrer mehr nötig ist. Ein Tesla ermöglicht aktuell Fahren der Stufe 3: Der Fahrer muss das System nicht dauerhaft überwachen, aber potenziell in der Lage sein, die Kontrolle zu übernehmen. Ein Gesetz, dass das in Deutschland erlaubt, wurde im Frühjahr von Bundestag und Bundesrat verabschiedet.

In Tests und Pilotprojekten sind bereits die ersten fahrerlosen Fahrzeuge unterwegs, zum Beispiel das E-Shuttle Olli, das auf dem Campus des Innovationszentrums für Mobilität und gesellschaftlichen Wandel in Berlin fährt. Der amerikanische Autozulieferer Delphi möchte schon 2019 die ersten serienreifen Stufe-4-Fahrzeuge anbieten. Auf dieser Stufe kann die Technik in spezifischen Anwendungsfällen komplett übernehmen. Von da ist es nur ein kleiner Schritt bis zum völlig autonomen Fahren.

Das wird sich nach Schätzungen von Deutsche Bank Research aber frühestens 2040 durchsetzen. Dafür nennen die Analysten mehrere Gründe, unter anderem die langen Entwicklungszeiten in der Branche, die Langlebigkeit des Produkts Auto sowie seit Jahrzehnten gewachsene Konsumpräferenzen. Auch seien enorme technologische Hürden zu überwinden, um ein hochkomplexes System wie den Straßenverkehr zu automatisieren.

Natürlich sind die Leitlinien der Ethik-Kommission nicht eins zu eins auf andere Bereiche anwendbar, die zunehmend automatisiert werden. Zum Beispiel, weil es in vielen Fällen nicht zu existenziellen Dilemmas kommen dürfte. Aber sie können wertvolle Denkanstöße geben: zur Gestaltung der Rolle von künstlichen Wesen in unserer Gesellschaft, zur Frage der Haftung im Fall von denkenden Systemen, zur Frage der Datenhoheit etc. – und zum Miteinander von Menschen. Was, wenn es in Zukunft im Konfigurationsmenü des Autos eine Auswahlmöglichkeit dafür gibt, welcher Insasse bei einem nicht mehr zu verhindernden Unfall mit Priorität geschützt werden soll?

Der Bericht der Ethik-Kommission ist hier verfügbar: https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf?__blob=publicationFile

Autor: Redaktion Zukunft. Kunde.
Bild:

Tags for this article Digitalisierung (157) Künstliche Intelligenz (52) Robotics (9)

>53000

Mitarbeiter

29

Länder

>60

Sprachen

>12

Jahre dauern unsere Kundenbeziehungen durchschnittlich

500+

Auftraggeber weltweit

Wir sind global und immer nah bei Ihnen

Wir sind global

Wir glauben an Innovation. Hier finden Sie unsere neuesten Innovationen.

Neuigkeiten

25. September 2020

Majorel feiert zehnjähriges Jubiläum in Rumänien

Seit der Eröffnung des ersten Servicecenters in Brasov vor zehn Jahren, ist unser Team in Rumänien auf mehr als 1.300 Mitarbeiterinnen und Mitarbeiter gewachsen. Unser Standortnetzwerk vor Ort umfasst heute neben Brasov auch Standorte in Sibiu, Cluj-Napoca und Bukarest.

Weiterlesen

    Wir sprechen Ihre Sprache und freuen uns, von Ihnen zu hören. Nehmen Sie Kontakt mit uns auf.