Startseite Software und Technologie Künstliche Intelligenz bekommt Haftungsregeln

Künstliche Intelligenz bekommt Haftungsregeln

Mit der AI Liability Directive hat die EU-Kommission einen Entwurf zur Anpassung der Haftungsregeln für Systeme mit Künstlicher Intelligenz vorgelegt. Der Vorschlag verbessert den Verbraucherschutz, fördert aber auch die Innovation und die Einführung vertrauenswürdiger intelligenter Systeme, argumentiert Pegasystems.

Quelle: ©mixmagic – stock.adobe.com

Man stelle sich einen Bewerber vor, der glaubt, dass ihn in einem Einstellungsprozess Künstliche Intelligenz diskriminiert hat. Der tatsächliche Schaden ist klar: Nicht nur hat er den Job nicht bekommen, er vermutet auch noch, dass eine ungerechte Behandlung der Grund dafür ist. Nicht nachvollziehbar ist für ihn als Opfer, wie das System zu seiner Entscheidung gekommen ist und inwieweit diese Entscheidung voreingenommen war.

Der Entwurf der EU zur Anpassung der Haftungsregeln für intelligente Systeme hilft in solchen Situationen in zweierlei Hinsicht: Organisationen, die intelligente Systeme einsetzen, müssen Zugang zu Beweisen gewähren. Beispielsweise Daten und Erklärungen dazu liefern, wie die automatisierten Entscheidungen oder Empfehlungen zustande gekommen sind. Außerdem wird die Beweislast dafür, dass der Schaden nicht durch einen relevanten Fehler oder eine schlechte Leistung des IT-Systems verursacht wurde, stärker in Richtung der einsetzenden Organisation verlagert. Das ist sinnvoll, da die Beziehung zwischen Daten und Entscheidungen komplex und hochgradig personalisiert ausfallen kann.


Anzeige | Kostenlose Webinar-Aufzeichnung aus der Webinarreihe „KI konkret“

Quelle: Melpomenem | www.istockphoto.com
Präsentation
Geschäftsprozesse mit KI clever digitalisieren (Webinaraufzeichnung)
Webinarreihe "KI konkret" (Teil 1)
Autor: Marc Gehring, Tobias Hetfleisch, Weconnect AI
Erschienen: 2022-04-07
Dateigröße: 742 MB
Schlagworte: Digitalisierung, Fallbeispiele, KI-Lösungen, Künstliche Intelligenz, Unternehmensprozesse
Immer wieder ist zu lesen und zu hören, dass der Einsatz von Künstlicher Intelligenz (KI) zur Optimierung von Unternehmensprozessen beitragen kann. Trotzdem bleibt der Begriff KI für viele abstrakt und es fällt den Verantwortlichen schwer, sich ein Anwendungsszenario für ihr Unternehmen und ihre Prozesse vorzustellen. Das Webinar gibt zunächst einen Überblick über die Grundbegriffe von KI und erläutert die Anwendungsmöglichkeiten dieser Technologie. Aber auch die Praxis kommt nicht zu kurz: Die Referenten stellen zwei von ihnen umgesetzte KI-Projekte aus den Bereichen CRM und Produktion/Instandhaltung vor und beschreiben, mit welchen KI-Ansätzen hier jeweils konkrete Lösungen erarbeitet werden konnten. (1. Teil der Webinarreihe "KI konkret")
Download

Nun fragt sich, ob und wie die vorgeschlagenen Haftungsregeln nicht nur die Opfer stärken, sondern auch die Unternehmen, die Künstliche Intelligenz in einer vertrauenswürdigen Weise einsetzen. Da es noch keine harmonisierten Haftungsregeln für intelligente Systeme gibt und auch der EU AI Act noch verhandelt wird, füllt der aktuelle, mit den allgemeinen Produkthaftungsregeln in der EU abgestimmte Vorschlag eine Lücke.

Die Perspektive der EU ist richtungsweisend. In einigen Regionen der Welt sind die Möglichkeiten, Organisationen auf Haftung zu verklagen, sehr weit gefasst – etwa in den USA. Dort kann ein Kunde, der eine heiße Tasse Kaffee verschüttet und über ausreichende Mittel verfügt, ein Restaurant verklagen. Für solche Fälle stehen eine ganze Prozessindustrie und Anwälte bereit, die versuchen, daraus Kapital zu schlagen.

Der EU-Entwurf zielt darauf ab, einen realistischen und gerechten Rahmen zu schaffen – auch für Unternehmen, die Künstliche Intelligenz verwenden: Der Schaden und die Beeinträchtigung müssen eindeutig und der konkrete Anwendungsfall maßgeblich sein. Zudem muss der Schaden durch ein fehlerhaftes Verhalten oder eine unrechtmäßige Nutzung der Technologie verursacht worden sein. Nur wenn die Schuld oder der Schaden nachgewiesen ist und ein Kausalzusammenhang mit der Künstlichen Intelligenz hinreichend wahrscheinlich erscheint, tritt die „Kausalitätsvermutung“ in Kraft. Erst dann muss das Unternehmen, das intelligente IT-Systeme einsetzt, Daten und Beweise dafür vorlegen, dass alles mit rechten Dingen zuging.

Die Richtlinie setzt einige klare Grenzen. Unternehmen, die Künstliche Intelligenz für gute Zwecke und auf faire und rechtmäßige Art und Weise einsetzen, haben nicht viel zu befürchten. Gemeint sind Organisationen, die ihre intelligenten IT-Systeme beispielsweise auf Voreingenommenheit prüfen, vollständige Prüfpfade für wesentliche Entscheidungen aufbewahren und automatische Erklärungsmöglichkeiten für IT-gesteuerte Entscheidungen nutzen. Zudem dürfte die neue Richtlinie für gleiche Wettbewerbsbedingungen sorgen: Der vertrauenswürdige Einsatz Künstlicher Intelligenz wird belohnt, während der Einsatz dieser Technologie für schlechte Zwecke oder auf unrechtmäßige Art und Weise bestraft wird. Darüber hinaus dürfte die Haftungsrichtlinie dafür sorgen, dass jede in der EU tätige Organisation die Vorschriften einhalten muss.

Wird dieser Vorschlag angenommen, schützt er sowohl Kunden und Bürger als auch Organisationen, die Künstliche Intelligenz vernünftig einsetzen. Dieser Fortschritt ist ein Zeichen dafür, dass die vertrauenswürdige Nutzung von dieser Technologie reift – sowohl auf technischer als auch auf regulatorischer Ebene. jf


Der Autor

Quelle: Pegasystems

Peter van der Putten ist Director AI Lab bei Pegasystems und Assistant Professor AI an der Universität Leiden.