Startseite Software und Technologie Künstliche Intelligenz braucht volle Transparenz

Künstliche Intelligenz braucht volle Transparenz

Bei wichtigen Entscheidungen ist eine zweite Meinung hilfreich. Geht es um Künstliche Intelligenz, müssen Anwender und Verbraucher wissen, wie genau Algorithmen ihre Entscheidungen treffen. Ohne diese Offenheit droht ein Vertrauensverlust.

Quelle: Zapp2Photo | www.istockphoto.com

Seit dem Aufkommen künstlicher Intelligenz fragen sich viele Anwender, inwieweit sie Maschinen vertrauen können. Geht es um die Produktempfehlung im Online-Shop eines Händlers, mag die Antwort darauf noch egal sein. Versicherungen oder Banken hingegen sollten detaillierte Erklärungen liefern, wenn ein intelligenter Algorithmus einem Kunden eine Leistung verweigert oder einen Kreditantrag ablehnt. Nicht viel anders sieht es bei Unternehmen aus, die mit Algorithmen Bewerber in einer Vorauswahl sortieren. Geht es um Gleichbehandlung oder ganz allgemein um ethische Fragen, dürfen wir uns nicht hinter Computerentscheidungen verstecken. Algorithmen brauchen vielmehr Ziele und Grenzen, die Menschen nachvollziehbar und transparent definieren. Ansonsten droht ein Vertrauensverlust auf Seiten der Verbraucher.

Vorbei sind die Zeiten, in denen künstliche Intelligenz abwechselnd zur Wunderwaffe verklärt und dann wieder zur Gefahr für den Menschen aufgebauscht wurde. Realismus und Sachlichkeit haben die Angst vor der Technik abgelöst. Laut der jüngsten Studie von adesso zur künstlichen Intelligenz haben auch die Entscheider in Unternehmen diesen Eindruck: 61 Prozent sind davon überzeugt, dass Verbraucher künstliche Intelligenz als vertrauenswürdig einstufen. Dieses grundlegende Vertrauen darf aber nicht dadurch verspielt werden, dass die Algorithmen eigenmächtig handeln. Es spielt dabei keine Rolle, ob dies bewusst oder unbewusst geschieht. Denn auch das belegt die Untersuchung: 80 Prozent der Entscheider sind der Meinung, dass Anwendungen auf Basis künstlicher Intelligenz nicht ohne menschliche Kontrolle eingesetzt werden dürfen. 54 Prozent glauben zudem, dass intelligente Technologien stärker reguliert werden sollten, um Manipulationen jeder Art zu verhindern.

Unternehmen tun deshalb gut daran, die Arbeitsweise künstlicher Intelligenz transparent zu machen. ‚Explainable AI‘ lautet der Fachbegriff dafür. Er bezeichnet spezielle Anwendungen, welche die Black Box öffnen, indem sie transparent arbeiten und Erklärungen für eine getroffene Entscheidung liefern. Diese Offenheit reicht von der Herkunft und Charakteristika der Trainingsdaten über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten ethischer Grundwerte.


Anzeige | Trovarit-Academy

KI-WebinarWebinarreihe „KI konkret“ – Praxisnahe Use Cases

In vielen Unternehmen herrscht immer noch große Unsicherheit bei der Frage, ob und wie KI nutzbringend für die eigenen Prozesse eingesetzt werden kann.

Die Webinarreihe „KI konkret“ stellt in mehreren Terminen Use Cases vor, bei denen reale Herausforderungen in unterschiedlichen Unternehmensbereichen durch den Einsatz von KI gelöst werden konnten.

KI konkret | zur Webinar-Reihe


In die gleiche Richtung geht aktuell die Diskussion auf Seiten des Gesetzgebers. Mit dem Artificial Intelligence Act der EU steht eine Verordnung vor der Tür, die weitreichende Folgen haben dürfte, sobald sie in nationale Gesetze gegossen ist. Die EU will mit diesem Gesetz ein Rahmenwerk schaffen, das die Entscheidungen von intelligenten Algorithmen kategorisiert und den Einsatz gegebenenfalls streng kontrolliert. Dies soll negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen verhindern.

Ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO) dürfte das geplante Gesetzeswerk auch über die Grenzen der EU hinaus Wirkung zeigen. Denn alle Anbieter, die innerhalb des europäischen Wirtschaftsraums Produkte und Dienste mit künstlicher Intelligenz verkaufen wollen, müssen sich an den Artificial Intelligence Act halten. Das Regelwerk sieht zudem ähnlich drastische Strafen vor wie der die DSVGO: Wer die Vorgaben verletzt, muss laut Entwurf mit einem Bußgeld von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes rechnen. Wie die Erfahrungen zeigen, sind die zuständigen Behörden keine zahnlosen Tiger, sondern sie ahnden Verstöße konsequent.

Einige Punkte rund um die Umsetzung des Artificial Intelligence Act sind noch zu klären. Dennoch sollten Unternehmen schon jetzt die Weichen stellen und das Risiko ihrer intelligenten IT-Systeme bewerten. Wer sich nun zurücklehnt und davon ausgeht, dass das Gesetzespaket nicht vor 2024 in Kraft tritt, der läuft Gefahr, unter Zeitdruck zu geraten. Verbraucherinnen und Verbraucher haben nämlich schon heute ein Recht auf eine Explainable AI – auch wenn die Gesetze erst kommen. jf


Der Autor

Quelle: adesso

Benedikt Bonnmann ist Leiter Line of Business Data & Analytics bei adesso SE.