Mit der AI Liability Directive hat die EU-Kommission einen Entwurf zur Anpassung der Haftungsregeln für Systeme mit Künstlicher Intelligenz vorgelegt. Der Vorschlag verbessert den Verbraucherschutz, fördert aber auch die Innovation und die Einführung vertrauenswürdiger intelligenter Systeme, argumentiert Pegasystems.
Man stelle sich einen Bewerber vor, der glaubt, dass ihn in einem Einstellungsprozess Künstliche Intelligenz diskriminiert hat. Der tatsächliche Schaden ist klar: Nicht nur hat er den Job nicht bekommen, er vermutet auch noch, dass eine ungerechte Behandlung der Grund dafür ist. Nicht nachvollziehbar ist für ihn als Opfer, wie das System zu seiner Entscheidung gekommen ist und inwieweit diese Entscheidung voreingenommen war.
Der Entwurf der EU zur Anpassung der Haftungsregeln für intelligente Systeme hilft in solchen Situationen in zweierlei Hinsicht: Organisationen, die intelligente Systeme einsetzen, müssen Zugang zu Beweisen gewähren. Beispielsweise Daten und Erklärungen dazu liefern, wie die automatisierten Entscheidungen oder Empfehlungen zustande gekommen sind. Außerdem wird die Beweislast dafür, dass der Schaden nicht durch einen relevanten Fehler oder eine schlechte Leistung des IT-Systems verursacht wurde, stärker in Richtung der einsetzenden Organisation verlagert. Das ist sinnvoll, da die Beziehung zwischen Daten und Entscheidungen komplex und hochgradig personalisiert ausfallen kann.
Anzeige | Kostenlose Webinar-Aufzeichnung aus der Webinarreihe „KI konkret“
|
Nun fragt sich, ob und wie die vorgeschlagenen Haftungsregeln nicht nur die Opfer stärken, sondern auch die Unternehmen, die Künstliche Intelligenz in einer vertrauenswürdigen Weise einsetzen. Da es noch keine harmonisierten Haftungsregeln für intelligente Systeme gibt und auch der EU AI Act noch verhandelt wird, füllt der aktuelle, mit den allgemeinen Produkthaftungsregeln in der EU abgestimmte Vorschlag eine Lücke.
Die Perspektive der EU ist richtungsweisend. In einigen Regionen der Welt sind die Möglichkeiten, Organisationen auf Haftung zu verklagen, sehr weit gefasst – etwa in den USA. Dort kann ein Kunde, der eine heiße Tasse Kaffee verschüttet und über ausreichende Mittel verfügt, ein Restaurant verklagen. Für solche Fälle stehen eine ganze Prozessindustrie und Anwälte bereit, die versuchen, daraus Kapital zu schlagen.
Der EU-Entwurf zielt darauf ab, einen realistischen und gerechten Rahmen zu schaffen – auch für Unternehmen, die Künstliche Intelligenz verwenden: Der Schaden und die Beeinträchtigung müssen eindeutig und der konkrete Anwendungsfall maßgeblich sein. Zudem muss der Schaden durch ein fehlerhaftes Verhalten oder eine unrechtmäßige Nutzung der Technologie verursacht worden sein. Nur wenn die Schuld oder der Schaden nachgewiesen ist und ein Kausalzusammenhang mit der Künstlichen Intelligenz hinreichend wahrscheinlich erscheint, tritt die „Kausalitätsvermutung“ in Kraft. Erst dann muss das Unternehmen, das intelligente IT-Systeme einsetzt, Daten und Beweise dafür vorlegen, dass alles mit rechten Dingen zuging.
Die Richtlinie setzt einige klare Grenzen. Unternehmen, die Künstliche Intelligenz für gute Zwecke und auf faire und rechtmäßige Art und Weise einsetzen, haben nicht viel zu befürchten. Gemeint sind Organisationen, die ihre intelligenten IT-Systeme beispielsweise auf Voreingenommenheit prüfen, vollständige Prüfpfade für wesentliche Entscheidungen aufbewahren und automatische Erklärungsmöglichkeiten für IT-gesteuerte Entscheidungen nutzen. Zudem dürfte die neue Richtlinie für gleiche Wettbewerbsbedingungen sorgen: Der vertrauenswürdige Einsatz Künstlicher Intelligenz wird belohnt, während der Einsatz dieser Technologie für schlechte Zwecke oder auf unrechtmäßige Art und Weise bestraft wird. Darüber hinaus dürfte die Haftungsrichtlinie dafür sorgen, dass jede in der EU tätige Organisation die Vorschriften einhalten muss.
Wird dieser Vorschlag angenommen, schützt er sowohl Kunden und Bürger als auch Organisationen, die Künstliche Intelligenz vernünftig einsetzen. Dieser Fortschritt ist ein Zeichen dafür, dass die vertrauenswürdige Nutzung von dieser Technologie reift – sowohl auf technischer als auch auf regulatorischer Ebene. jf
Der Autor
Peter van der Putten ist Director AI Lab bei Pegasystems und Assistant Professor AI an der Universität Leiden.