Start Software und Technologie Künstlicher Intelligenz fehlt bisher oft die Ethik

Künstlicher Intelligenz fehlt bisher oft die Ethik

Das ethische Bewusstsein beim Einsatz Künstlicher Intelligenz ist gestiegen. Die Erfolgsbilanz fällt aber gemischt aus: Laut einer Studie von Capgemini verfügen lediglich 53 Prozent der Betriebe über eine Führungskraft, die für vertrauenswürdige intelligente IT-Systeme verantwortlich ist.

Den Handlungsbedarf hinsichtlich Ethik in der Künstlichen Intelligenz sehen viele Unternehmen. Zwei Drittel der Führungskräfte (65 Prozent) sind sich bewusst, dass intelligente IT-Systeme potenziell zu diskriminierenden Entscheidungen führen können, und 45 Prozent haben 2020 eine Charta definiert (2019: 5 Prozent). 58 Prozent haben ihre Mitarbeiter über die möglichen Auswirkungen dieser Technologie aufgeklärt. Fortschritte gegenüber 2019 verzeichnen die IT-Systeme in diesem Jahr allerdings in der ethischen Dimension ‚Erklärbarkeit‘. Lediglich 40 Prozent der Entwickler sowie 27 Prozent der Anwender aus Marketing und Vertrieb können nach eigener Aussage nachvollziehen, wie intelligente IT-Systeme Entscheidungen treffen. Andererseits erwarten 71 Prozent der Verbraucher, dass Unternehmen solche Entscheidungen genau herleiten können. 66 Prozent setzen voraus, dass die Algorithmen fair und vorurteilsfrei agieren und Interaktionen transparent ablaufen.

Die Ergebnisse entstammen der Capgemini-Studie AI and the ethical Conundrum: How Organizations can build ethically robust AI Systems and gain Trust. Das Capgemini Research Institute befragte dafür von April bis Mai dieses Jahres insgesamt 2.900 Konsumenten in sechs Ländern sowie knapp 900 Führungskräfte in zehn Ländern, jeweils einschließlich Deutschland. Als Vergleichmaßstab dienen die Ergebnisse von mehreren Studien des Vorjahres.

Corona lässt Algorithmen weniger transparent arbeiten

Die Capgemini-Studie untersucht Systeme für Künstliche Intelligenz anhand der vier ethischen Dimensionen Erklärbarkeit, Fairness, Überprüfbarkeit und Transparenz. Demnach hat sich 2020 ausschließlich die Erklärbarkeit verbessert. Mit 64 Prozent können nun doppelt so viele Organisationen wie 2019 die Funktionsweise ihrer IT-Systeme in einfacher Sprache erklären. Eine Überprüfung der Datensätze und Systeme zwecks einer fairen Gleichbehandlung aller Gruppen nehmen 65 Prozent (2019: 66 Prozent) vor. Die Zahl der Unternehmen, die unabhängige Audits bei ihren Systemen gemäß der Überprüfbarkeit ethischer Aspekte durchführen, ist gegenüber dem Vorjahr um ein Prozent auf 45 Prozent gesunken. Die Anzahl an Unternehmen, die Anwender über die möglichen Auswirkungen von IT-Entscheidungen informieren, sank von 73 auf 59 Prozent (Deutschland: von 63 auf 52 Prozent). Dies spiegelt sich im gesunkenen Vertrauen der Verbraucher: Lediglich 62 Prozent (2019: 76 Prozent) attestieren den Unternehmen, transparent zu agieren.

Als mögliche Ursachen für die rückläufige Transparenz nennt die Studie mehrere Faktoren: die gestiegene Komplexität intelligenter IT-Anwendungen, den Versuch, Geschäftspraktiken zu schützen sowie die Auswirkungen der Corona-Pandemie auf den Algorithmus.

Fabian Schladitz, Leiter des AI Center of Excellence bei Capgemini in Deutschland

„Ein verändertes Konsumentenverhalten, der Mangel an historischen Daten für vergleichbare Situationen sowie die geänderte Gewichtung von Sicherheitsaspekten haben dazu geführt, dass Systeme an eine neue Normalität angepasst werden mussten. Dabei ist die Transparenz gesunken.“

Kunden und staatliche Regulierungen schaffen Handlungsdruck

Viele öffentliche und private Institutionen haben zusätzliche IT-Systeme eingeführt, um der Corona-Pandemie zu begegnen. Das Vertrauen der Verbraucher in die Interaktionen mit diesen Systemen wird daher künftig wichtiger. Zugleich erhöhen gesetzliche Rahmenbedingungen den Druck auf Unternehmen. Die Europäischen Kommission und die US-Handelskommission FTC haben ethische Leitlinien für eine transparente Künstliche Intelligenz aufgestellt. Diese sehen vor, dass bei negativen Entscheidungen – beispielsweise einem abgelehnten Kredit – die zur Entscheidungsfindung genutzten Datenpunkte offengelegt werden. So sollen Verbraucher falsche oder irreführende Angaben korrigieren können. Von den Unternehmen geben 62 Prozent (Deutschland: 67 Prozent) an, die in ihrer Region geltenden Datenschutzbestimmungen zu erfüllen. Im Vergleich zu 2019 entspricht das einer Steigerung um 13 Prozentpunkte.

Wie die Studie zeigt, weisen Datensätze mitunter soziale und kulturelle Vorurteile auf den sogenannten Bias. 65 Prozent der Führungskräfte sind sich dieser Verzerrungen bewusst. Einer rechtlichen Prüfung wurden bereits 60 Prozent der Unternehmen (Deutschland: 54 Prozent) unterzogen. Insgesamt 22 Prozent (Deutschland: 21 Prozent) der Betriebe wurden in den vergangenen drei Jahren damit konfrontiert, dass Kunden die Entscheidungen intelligenter IT-Systeme anzweifeln oder die Entscheidungsfindung nachvollziehen wollen. Hierin liegt ein Erfolgsrisiko: 45 Prozent der Kunden teilen negative Erfahrungen mit Freunden und Verwandten und halten sie dazu an, mit den entsprechenden Unternehmen nicht weiter in Kontakt zu treten. Jeweils 39 Prozent würden nach eigener Aussage bei fragwürdigen Entscheidungen eine Erklärung verlangen, beziehungsweise auch höhere Kosten in Kauf nehmen, um zu einem menschlichen Ansprechpartner zu wechseln. Über ein Viertel (27 Prozent) würde den Kontakt zur entsprechenden Organisation abbrechen.

Rechenschaft für Führungskräfte in ethischen Belangen

Um derartige Probleme zumindest abzumildern, sollten Unternehmen laut Capgemini einen Chief Ethics Officer, etablieren, der für ethisch robuste IT-Systeme verantwortlich ist. Momentan ist diese Funktion lediglich in 53 Prozent der Unternehmen vorhanden. Über einen Ombudsmann, an die sich Kunden und Mitarbeiter bezüglich ethischer Fragen beim Einsatz intelligenter IT-Systeme wenden können, verfügt nur jedes zweite Unternehmen. Zudem sollten Führungskräfte gewährleisten können, dass die in ihrem Bereich eingesetzten IT-Systeme ethisch korrekt arbeitende Ergebnisse liefern.

Zusammenfassend hebt die Studie sieben zentrale Maßnahmen hervor, die beim Einsatz intelligenter IT-Systeme die Ethik sicherstellen. Nötig ist demnach ein belastbares Fundament aus Führung, Steuerung (‚Governance‘) und internen Prozessen. Um dies zu erreichen, sollten Organisationen:

  • den beabsichtigen Zweck intelligenter Systeme präzise beschreiben und die potenzielle Gesamtwirkung ermitteln;
  • Künstliche Intelligenz aktiv zum Nutzen von Gesellschaft und Umwelt einsetzen;
  • die Prinzipien von Vielfalt und Inklusion im gesamten Lebenszyklus der IT-Systeme verankern;
  • die Transparenz mit Hilfe geeigneter Technologie optimieren;
  • sicherstellen, dass Künstliche Intelligenz auf den Menschen ausgerichtet ist und die dazugehörigen Systeme unter menschlicher Aufsicht stehen;
  • gewährleisten, dass intelligente IT-Systeme technisch robust arbeiten und
  • die Privatsphäre schützen, indem sie Anwendern die Kontrolle über ihre Interaktionen geben.

„In Deutschland betrachten wir die ethischen Dimensionen von Künstlicher Intelligenz häufig recht eindimensional und stark auf die Risikominimierung fokussiert“ erläutert Technologieexperte Schladitz. „Die hierzulande eingesetzten intelligenten Anwendungen für die Stauvorhersage bei der Navigation oder für die als Gesichtserkennung kommen bislang meist aus dem Ausland. Deutsche Unternehmer sollten die Chance ergreifen und das transformative Potential intelligenter Technologie nutzen, um gesellschaftlichen Nutzen zu stiften.“ Jürgen Frisch


Anzeige

Trovarit-Kampagne Clever digitalisieren – Mit Bordmitteln mehr erreichen!

  • Ihre Prozesse effizient analysieren und bewerten,
  • den aktuellen Software-Einsatz überprüfen,
  • Schwachstellen und Potenziale erkennen,
  • Optimierungsmaßnahmen ableiten,

ohne große Summen zu investieren!

Unsere Downloads & Webinare zum Thema