Start Nachrichten TÜV AI.Lab prüft Compliance intelligenter Systeme

TÜV AI.Lab prüft Compliance intelligenter Systeme

Der europäische AI Act legt Regeln für Systeme mit Künstlicher Intelligenz fest, die Unternehmen einhalten müssen. Der TÜV-Verband bietet mit dem AI Act Risk Navigator ein kostenloses Online-Tool zur Risikoklassifizierung von Systemen und Modellen für intelligente IT.

TÜV AI.Lab
©demaerre, istockphoto.com

Schützenhilfe: Der gerade in Kraft getretene  europäische AI Act legt verbindliche Regeln für Künstliche Intelligenz (KI) fest. Es handelt sich um den ersten globalen Rechtsrahmen für sichere und vertrauenswürdige KI. „Der AI Act bietet die Chance, vor negativen Auswirkungen von Künstlicher Intelligenz zu schützen und gleichzeitig Innovationen zu fördern“, berichtet Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Das Gesetz kann dazu beitragen, einen globalen Leitmarkt für sichere ‚KI Made in Europe‘ zu etablieren.“ Es sei wichtig, die Umsetzung effizient und unbürokratisch zu gestalten. Unabhängige Stellen spielten eine wichtige Rolle im Hinblick auf die verbindlichen Anforderungen und die freiwilligen Prüfungen.“

Übergangsfristen sind gestaffelt

Der EU AI Act ist Anfang August mit gestaffelten Übergangsfristen in Kraft getreten. Anfang 2025, sollen zunächst intelligente IT-Systeme verboten werden, die manipulative oder täuschende Techniken einsetzen. Ab dem 1. August 2025 treten Verhaltenskodizes für bestimmte Allzweck-KI-Modelle in Kraft. Zudem müssen die EU-Mitgliedstaaten nationale Behörden für die Marktüberwachung benennen. Verpflichtende Prüfungen für Hochrisiko-KI in Bereichen wie Kreditvergabe, Personalwesen oder Strafverfolgung sind ab August 2026 vorgesehen. Sie betreffen nicht nur Entwickler, sondern auch Anbieter und Betreiber derartiger Systeme. Ab 2027 treten die Anforderungen in drittprüfpflichtigen Produkten in Kraft. „Prüfungen von KI-Systemen schaffen Vertrauen und sind schon heute ein Wettbewerbsvorteil“, erläutert Bühler. „Unternehmen sind gut beraten, sich jetzt mit den Anforderungen vertraut zu machen und abzuschätzen, wie und wo der AI Act ihre Aktivitäten betrifft.“


Anzeige | Trovarit-Academy

KI-WebinarWebinarreihe „KI konkret“ – Praxisnahe Use Cases

In vielen Unternehmen herrscht immer noch große Unsicherheit bei der Frage, ob und wie KI nutzbringend für die eigenen Prozesse eingesetzt werden kann.

Die Webinarreihe „KI konkret“ stellt in mehreren Terminen Use Cases vor, bei denen reale Herausforderungen in unterschiedlichen Unternehmensbereichen durch den Einsatz von KI gelöst werden konnten.

Zur Webinarreihe KI konkret


Die einheitliche Interpretation steht aus

Eine einheitliche Interpretation und konsequente Anwendung des risikobasierten Ansatzes sind laut Bühler wichtig, damit der AI Act in der Praxis seine Wirkung entfaltet. Gefordert seien hier die EU-Mitgliedsstaaten. Aus Sicht des TÜV-Verbands sollten sie besonderes Augenmerk auf eine effiziente und unbürokratische Umsetzung legen. Klare Zuständigkeiten und verantwortliche Stellen seien notwendig, um die Regelungen praktisch umzusetzen. So sollten rasch Umsetzungsleitfäden für die Einstufung von Hochrisiko-KI-Systemen vom AI Office (Europäisches KI-Büro) veröffentlicht werden, um insbesondere kleinen und mittleren Unternehmen Rechtssicherheit zu geben. Darüber hinaus seien systemische Risiken von besonders leistungsfähigen Allzweck-KI-Modellen im Blick zu behalten und der Aufbau einer systematischen Schadensberichterstattung voranzutreiben.

TÜV AI.Lab klassifiziert Applikationen mit AI Act Risk Navigator

Das 2023 als Joint Venture der TÜV-Unternehmen gegründete TÜV AI.Lab übersetzt die regulatorischen Anforderungen an KI in die Prüfpraxis und entwickelt quantifizierbare Konformitätskriterien und geeignete Prüfmethoden für KI. Zum Inkrafttreten des AI Acts hat das TÜV AI.Lab den AI Act Risk Navigator veröffentlicht, ein kostenloses Online-Tool zur Risikoklassifizierung von KI-Systemen. „Mit dem AI Act Risk Navigator verstehen Unternehmen, ob und wie sie vom AI Act betroffen sind“, erläutert Franziska Weindauer, Geschäftsführerin des TÜV AI.Lab. „Nur, wenn Entwickler Qualitätsanforderungen an Künstliche Intelligenz von Beginn an mitdenken, können vertrauenswürdige Systeme zum europäischen Alleinstellungsmerkmal werden.“ Der AI Act Risk Navigator schaffe Transparenz über die geltenden Anforderungen und unterstütze Unternehmen dabei, KI-Systeme gemäß den Risikoklassen des AI Acts einzuordnen.

Unterschiedliche Anforderungen je nach Risikoklasse

Die EU-Regulierung teilt KI-Anwendungen in vier Risikoklassen mit unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise einzuhalten sind. Systeme mit hohem Risiko, die in Bereichen wie Medizin, kritische Infrastrukturen oder Personalmanagement eingesetzt werden, unterliegen strengen Auflagen und müssen umfassende Anforderungen an Transparenz, Sicherheit und Aufsicht erfüllen. Bei Verstößen drohen Bußgelder von bis zu 15 Millionen Euro oder bis zu drei Prozent des weltweiten Jahresumsatzes.

Systeme mit begrenztem Risiko, wie etwa Chatbots, müssen lediglich Transparenzanforderungen erfüllen, während Systeme mit minimalem Risiko, wie einfache Videospiele, gar nicht reguliert werden. Die risikobasierte Klassifizierung soll sicherstellen, dass der Einsatz Künstlicher Intelligenz sicher und vertrauenswürdig ist, damit die Innovationskraft der Technologie und deren Marktdurchdringung weiter gesteigert werden kann.

„Für Unternehmen werfen diese Regelungen viele Fragen auf“, erläutert Weindauer. „Mit unserem Test erhalten sie Klarheit über ihr Risikoprofil und die zu erfüllenden Anforderungen.“ Jürgen Frisch