| Wissenschaft & Forschung

Was darf künstliche Intelligenz?

Was darf künstliche Intelligenz?

Kaum eine andere technische Entwicklung bringt so viele ethische Fragen mit sich wie die künstliche Intelligenz (KI). Und je mehr sie sich beispielsweise im Kundendialog dem Menschen annähert, desto konkreter werden die Forderungen nach klaren Regeln für ihren Einsatz. Die EU-Kommission reagierte darauf und präsentierte im Dezember 2018 ihren Entwurf zu „Ethikrichtlinien für eine vertrauenswürdige künstliche Intelligenz“.

Der russisch-amerikanische Science-Fiction-Autor Isaac Asimov entwickelte 1942 in seiner Kurzgeschichte „Astounding“ drei fiktive Gesetze für den Umgang von Robotern mit Menschen. In seinen Erzählungen bilden diese drei Regeln den Grundstock für das Zusammenleben von Maschinen und ihren menschlichen Herren in einer Vision der Zukunft, in der die künstliche Intelligenz längst eigenständig denkt und handelt. Heute sind algorithmenbasierte, lernende Systeme längst noch nicht so weit. Und dennoch werden sie auf gewisse Weise immer menschlicher.

Fragen der Ethik

So nützlich und zukunftsweisend diese Systeme auch sind: Die Forderung nach Regeln für ihren Gebrauch ist keine Science Fiction mehr. KI bietet nicht nur das Potenzial, unser aller Leben nachhaltig zu verbessern, sondern auch in den falschen Händen eine Gefahr für die Gesellschaft zu werden. Zahlreiche Fragen bestimmen die Ethik-Diskussion: Darf eine intelligente Maschine (etwa in Form eines Chat-Bots) den Menschen über ihre Natur täuschen? Inwieweit kann ein Algorithmus gesammelte Daten nutzen, um die Kreditwürdigkeit eines Menschen zu bewerten? Sollte ein KI-System einen medizinischen Eingriff eigenmächtig vornehmen, ohne den menschlichen Arzt zu involvieren?

Um Fragen wie diese nachhaltig zu beantworten und Regeln für den verantwortungsvollen Umgang mit KI aufzustellen, entwarf eine Expertengruppe der Europäischen Kommission Leitlinien einer zukünftigen Ethik der künstlichen Intelligenz. Am 18. Dezember wurde der Entwurf der Öffentlichkeit vorgestellt. Die offene Debatte war und ist dabei ausdrücklich erwünscht; auf der Website der Kommission heißt es: „Sagen Sie Ihre Meinung: Die europäische Expertengruppe bittet um Feedback.“

Das Wohl des Menschen

In ihrem Bezug auf das Wohl des Menschen („Ensure that AI is human-centric“) sind diese Leitlinien gar nicht so weit entfernt von Asimovs fast achtzig Jahre alten Robotergesetzen. Aspekte wie „Accountability“, „Data Governance“, „Non-Discrimination“ oder „Freedom of the individual“ werden im Hinblick auf ihre Verbindung mit künstlicher Intelligenz abgeklopft und in einen breiten gesellschaftlichen Kontext gestellt, der zur Diskussion einladen soll. Tatsächlich hat sich seit Dezember vergangenen Jahres ein reger Austausch darüber entwickelt.

Ein wichtiger Schritt in Richtung Zukunft, wie auch Sara Stalder, Geschäftsleiterin der Schweizer Stiftung für Konsumentenschutz, bestätigt: „Die Informationsethik und Ethik generell ist letztlich eine Unternehmeraufgabe. Ich bin überzeugt, dass die Informationsethik ein wichtiger Aspekt wird in den nächsten Jahren. Je nach Maß der Anwendung und der Datenverwendung wird die Glaubwürdigkeit und Attraktivität der Unternehmen daran mitgemessen.“ Eine Perspektive, die sich auf den gesamteuropäischen Raum übertragen lässt und den Vorstoß der EU-Kommission in Richtung größerer Verbindlichkeit bei der Corporate Responsibility mehr als rechtfertigt.

Europa und die USA

Und dennoch hat das Dokument auch Zweifler auf den Plan gerufen. So kritisiert der Wissenschaftsjournalist Ranga Yogeshwar etwa in der Frankfurter Allgemeinen Zeitung die Zusammensetzung der Expertengruppe. Denn darin sind neben Vertretern europäischer Unternehmen wie Airbus, Orange, Bayer oder Zalando auch Abgesandte amerikanischer Konzerne wie Google oder Amazon vertreten. Yogeshwar sieht darin den (zumindest teilweisen) Versuch, unter dem Deckmantel einer allgemeinen Ethik-Diskussion ein Klima zu schaffen, das es den großen US-Konzernen ermöglichen soll, ihre Position in Europa zu festigen: „Spätestens seit der Anwendung der europäischen Datenschutz-Grundverordnung (DSGVO) im Mai 2018 haben es Player wie Google, Facebook und andere weit schwieriger mit ihren Geschäften auf dem europäischen Markt. Vielleicht hat man im Silicon Valley daraus gelernt und versucht nun, eine mögliche europäische KI-Barriere schon im Vorfeld einzureißen.“

Doch egal, ob visionäre Debatte oder interessengesteuerte Einflussnahme: Das Thema des ethischen Umgangs mit immer intelligenter werdenden Systemen wird sich aus der gesellschaftlichen Diskussion nicht so schnell verabschieden. Zwar sind KIs heute noch „Inselbegabungen“, wie der deutsche Wissenschaftler Jürgen Schmidhuber sie nennt – doch sie lernen ständig dazu und Vorschläge wie die Leitlinien der EU-Kommission sind ein Schritt in die richtige Richtung. Auch wenn sich daraus zumindest heute noch keine neuen Robotergesetze ableiten lassen.

 

Autor: Redaktion Zukunft. Kunde.
Bild: © sdecoret – AdobeStock

Tags for this article Digitalisierung (157) Künstliche Intelligenz (52)

>53000

Mitarbeiter

29

Länder

>60

Sprachen

>12

Jahre dauern unsere Kundenbeziehungen durchschnittlich

500+

Auftraggeber weltweit

Wir sind global und immer nah bei Ihnen

Wir sind global

Wir glauben an Innovation. Hier finden Sie unsere neuesten Innovationen.

Neuigkeiten

25. September 2020

Majorel feiert zehnjähriges Jubiläum in Rumänien

Seit der Eröffnung des ersten Servicecenters in Brasov vor zehn Jahren, ist unser Team in Rumänien auf mehr als 1.300 Mitarbeiterinnen und Mitarbeiter gewachsen. Unser Standortnetzwerk vor Ort umfasst heute neben Brasov auch Standorte in Sibiu, Cluj-Napoca und Bukarest.

Weiterlesen

    Wir sprechen Ihre Sprache und freuen uns, von Ihnen zu hören. Nehmen Sie Kontakt mit uns auf.