Der Rechtsrahmen der EU für den Einsatz Künstlicher Intelligenz ist dringend nötig. Die Kriterien zur Klassifikation von Risiken sind aber recht schwammig und müssen präzisiert werden, argumentiert Andreas Riepen, Head Central Europe bei Vectra AI.
Die Kombination aus dem ersten Rechtsrahmen für Künstliche Intelligenz und einem neuen koordinierten Plan mit den Mitgliedstaaten soll nach Angaben der EU die Sicherheit und die Grundrechte der Menschen und Unternehmen in Europa gewährleisten. Ziel ist es, gleichzeitig die Einführung von Künstlicher Intelligenz, Investitionen und Innovationen in der gesamten EU zu fördern. Die neue Verordnung soll dafür sorgen, dass die Europäer dieser Technologie vertrauen können. Angemessene und flexible Regeln werden demnach den spezifischen Risiken intelligenter IT-Systeme Rechnung tragen und den weltweit höchsten Standard setzen.
Der koordinierte Plan der EU skizziert die notwendigen politischen Änderungen und Investitionen auf Ebene der Mitgliedstaaten, um Europas Position bei der Entwicklung einer auf den Menschen ausgerichteten, nachhaltigen, sicheren, integrativen und vertrauenswürdigen Künstlichen Intelligenz zu stärken. Andreas Riepen, Head Central Europe bei Vectra AI, einem Anbieter von Cybersicherheit auf Basis Künstlicher Intelligenz, erörtert drei Fragen zu den Plänen der EU in Sachen Künstliche Intelligenz.
Anzeige | Trovarit-Academy
Webinarreihe „KI konkret“ – Praxisnahe Use Cases
In vielen Unternehmen herrscht immer noch große Unsicherheit bei der Frage, ob und wie KI nutzbringend für die eigenen Prozesse eingesetzt werden kann.
Die Webinarreihe „KI konkret“ stellt in mehreren Terminen Use Cases vor, bei denen reale Herausforderungen in unterschiedlichen Unternehmensbereichen durch den Einsatz von KI gelöst werden konnten.
Zur Webinarreihe KI konkret
1. Warum ist ein solches Gesetz notwendig?
Das EU-Gesetz ist ein ehrgeiziger Versuch, einen Rechtsrahmen für Künstliche Intelligenz zu schaffen. Das ist dringend nötig. Intelligente IT-Systeme werden rasch in Produkte und Dienstleistungen auf zahlreichen Märkten integriert. Die Vertrauenswürdigkeit und Interpretierbarkeit dieser Systeme kann ziemlich undurchsichtig sein, mit schlecht verstandenen Risiken für die Nutzer und die Gesellschaft im weiteren Sinne. Auch wenn einige der bestehenden rechtlichen Rahmenbedingungen und der Verbraucherschutz relevant sein mögen, unterscheiden sich Anwendungen, die Künstliche Intelligenz nutzen, so sehr von herkömmlichen Verbraucherprodukten, dass sie grundlegend neue rechtliche Mechanismen erfordern.
Das übergeordnete Ziel des Gesetzentwurfs besteht darin, die kritischsten Risiken, die sich aus der Nutzung und dem Versagen von Künstlicher Intelligenz ergeben, zu antizipieren und abzumildern. Dies reicht von einem vollständigen Verbot von Systemen, die als „inakzeptabel risikobehaftet“ eingestuft werden, bis hin zu einer strengen Regulierung von Systemen mit „hohem Risiko“. Eine weitere, weniger beachtete Folge des Rahmens besteht darin, dass er den Märkten Klarheit und Gewissheit darüber verschaffen kann, welche Vorschriften bestehen und wie sie angewendet werden. So könnte der Rechtsrahmen tatsächlich zu mehr Investitionen und Marktbeteiligung im Sektor der Künstlichen Intelligenz führen.
Seit der Verabschiedung der EU-Datenschutzgrundverordnung (DSGVO) ist nun mehr als ein halbes Jahrzehnt vergangen, ohne dass in den USA ein ähnliches Bundesgesetz in Erwägung gezogen wird. Dennoch hat die DSGVO zweifellos das Verhalten multinationaler Unternehmen beeinflusst, die entweder ihre Datenschutzrichtlinien für EU- und Nicht-EU-Umgebungen aufspalten oder einfach eine einzige Richtlinie auf der Grundlage der DSGVO weltweit anwenden mussten. Sollten die USA beschließen, eine Gesetzgebung zur Regulierung von Künstlicher Intelligenz vorzuschlagen, werden sie zumindest von dem EU-Gesetz beeinflusst.
2. Wie kann die Kommission bestimmen, welche Arten von Künstlicher Intelligenz als „hohes Risiko“ eingestuft werden?
Der KI-Rechtsakt nennt eine Reihe von Anwendungsbereichen, in denen der Einsatz Künstlicher Intelligenz als risikoreich gilt, ohne notwendigerweise die risikobasierten Kriterien zu erörtern, die zur Bestimmung des Status künftiger Anwendungen von Künstlicher Intelligenz verwendet werden könnten. Die scheinbar ad hoc getroffenen Entscheidungen darüber, welche Anwendungsbereiche als „risikoreich“ gelten, scheinen daher gleichzeitig zu spezifisch und zu vage zu sein.
Zu den aktuellen Hochrisikobereichen gehören bestimmte Arten der biometrischen Identifizierung, der Betrieb kritischer Infrastrukturen, Beschäftigungsentscheidungen und einige Strafverfolgungsaktivitäten. Es ist jedoch nicht klar, warum nur diese Bereiche als risikoreich eingestuft wurden. Ebenso ist nicht beschrieben, welche Anwendungen von statistischen Modellen und maschinellen Lernsystemen in diesen Bereichen einer strengen Regulierungsaufsicht unterliegen sollten.
Schließlich ist es wahrscheinlich, dass in Zukunft Präzisierungen und rechtliche Präzedenzfälle erforderlich sein werden, um klare Grenzen zwischen den Risikokategorien zu ziehen. So sieht das Gesetz beispielsweise „Praktiken, die ein erhebliches Potenzial zur Manipulation von Personen durch unterschwellige Techniken außerhalb ihres Bewusstseins haben“, als inakzeptables Risiko an. Es ist jedoch nicht unbedingt klar, ob dies auch die bereits weit verbreitete Nutzung Künstlicher Intelligenz einschließt, die Inhalte für Nutzer auswählt, um deren Verweildauer auf einer Website zu maximieren. Unklarheiten wie diese müssen zweifellos beseitigt werden. Mit einem bestehenden Rechtsrahmen dürfte dies viel einfacher sein als ohne.
3. Warum ist es wichtig, dass der Gesetzentwurf vorschreibt, dass die Menschen benachrichtigt werden, wenn sie auf Deepfakes, biometrische Erkennungssysteme oder Künstliche Intelligenz stoßen, die behaupten, ihre Gefühle lesen zu können?
Auch wenn es gut ist, dass der Gesetzentwurf vorschreibt, dass Menschen benachrichtigt werden müssen, wenn sie auf Deepfakes, biometrische Erkennungssysteme usw. stoßen, gibt es einige potenzielle Probleme zu beachten. Erstens könnten die von Deep Fakes und Sprachmodellen wie GPT-3 erzeugten Inhalte so allgegenwärtig und mit jedem Aspekt unseres Lebens verwoben werden, dass die Kennzeichnung aller Fälle der Verwendung dieser Modelle zu einer allgemeinen Alarmmüdigkeit führen könnte. Darüber hinaus wird es eine Reihe von schwer zu beantwortenden Fragen zu Systemen geben, die in den unscharfen Grenzen dieser Anwendungen leben. Dennoch ist es zweifellos ein guter Anfang, von den Verbrauchern zu verlangen, dass sie besser erkennen können, wann sie durch biometrische Daten klassifiziert werden und wann sie mit Inhalten interagieren, die Künstliche Intelligenz und nicht echte Menschen ausgewählt haben. jf
Der Autor
Andreas Riepen ist Head Central Europe bei Vectra AI, einem Anbieter von Bedrohungserkennung und -abwehr für Hybrid- und Multi-Cloud-Unternehmen.