Faire Marktbedingungen für Künstliche Intelligenz durch gemeinsame Prüfkriterien und –verfahren – dieses Ziel verfolgt die Initiative Mission AI. Ein Expertenteam entwickelt ein freiwilliges Prüfsiegel. Dieses soll das Vertrauen in intelligente und zuverlässige Anwendungen fördern.
Innovation fördern und das Vertrauen in Künstliche Intelligenz stärken: Auf dem Weg hin zu einem verantwortungsvollen Einsatz intelligenter Anwendungen setzt die Nationale Initiative zur IT-basierten Transformation in die Datenökonomie auf Zusammenarbeit. Bundesminister Volker Wissing hat auf der KI-Konferenz Fueling European Innovation with AI in Mainz die Initiative MISSION KI angekündigt. Es handelt sich dabei um eine Partnerschaft von Experten im Bereich Prüfung und -Zertifizierung von Künstlicher Intelligenz, die Qualitäts- und Prüfstandards entwickeln und erproben und darauf aufbauend ein freiwilliges Gütesiegel für intelligente Anwendungen etablieren sollen.
Anreize für heimische IT-Spezialisten
„Um die Entwicklung von Künstlicher Intelligenz in Deutschland zu stärken, brauchen wir in Europa eine vernünftige Regulierung“, erläutert Wissing. „Nötig ist Innovationsoffenheit statt Technologieverbote und Standards, die international anschlussfähig sind. Parallel dazu müssen wir auch in unserem Land bessere Rahmenbedingungen für digitale Innovationen schaffen.“ Um das zu erreichen, unterstützt das Projekt MISSION KI die Entwicklung von qualitativ hochwertigen intelligenten Produkten. ‚AI made in Germany‘ soll ein internationaler Wettbewerbsvorteil werden, wenn heimische Unternehmen hochwertige, sichere und leistungsstarke intelligente Anwendungen auf den Markt bringen können.
MISSION KI tritt an, um Voraussetzungen und Wachstumschancen für ein KI-Ökosystem des Vertrauens und der Exzellenz in Deutschland und Europa zu schaffen, wie Manfred Rauhmeier, Geschäftsführer der acatech – Deutsche Akademie der Technikwissenschaften, ergänzt: „Das Ergebnis muss nutzbar, verhältnismäßig und anpassungsfähig sein. Führend zu sein – auch in der Regulierung – bedeutet, Chancen zu ermöglichen, Risiken einzugehen, zu lernen und sofort anzupassen. Es gilt also, ein faires Gleichgewicht zwischen Innovation und Regulierung zu finden. Dafür bringen wir AI Quality & Testing Hub, CertifAI, Fraunhofer IAIS, PwC Deutschland, dem TÜV AI.Lab sowie den VDE als Partner zusammen.“
Anzeige | Trovarit-Academy
Webinarreihe „KI konkret“ – Praxisnahe Use Cases
In vielen Unternehmen herrscht immer noch große Unsicherheit bei der Frage, ob und wie KI nutzbringend für die eigenen Prozesse eingesetzt werden kann.
Die Webinarreihe „KI konkret“ stellt in mehreren Terminen Use Cases vor, bei denen reale Herausforderungen in unterschiedlichen Unternehmensbereichen durch den Einsatz von KI gelöst werden konnten.
Zu den Aufzeichnungen der Webinar-Reihe KI konkret
Klare Standards als Antwort auf Sicherheitsfragen
MISSION KI bündelt die Kompetenzen aus Wissenschaft, Beratung, Normierung sowie Prüfung und verstärkt damit auch den dringend erforderlichen Austausch zwischen den einzelnen Fachbereichen: „Die Initiative ist eine große Chance, Deutschland zu einem führenden Standort für sichere und vertrauenswürdige Künstliche Intelligenz zu machen“, sagt Franziska Weindauer, Geschäftsführerin TÜV AI.Lab. Um das zu erreichen, trage TÜV AI.Lab mit seiner Expertise dazu bei, regulatorische Anforderungen in die Praxis zu übersetzen und entwickelt Prüfkriterien und -verfahren, die auf das jeweilige Risikoprofil des Anwendungsfalls zugeschnitten sind: „Wir setzen alles daran, den Standort gut auf die kommenden regulatorischen Anforderungen vorzubereiten. Unser Ziel ist es, mit schnellen, belastbaren und nachvollziehbaren Prüfungen dafür zu sorgen, dass innovative intelligente Anwendungen möglichst schnell auf den Markt gelangen können.“
Sichere und vertrauenswürdige Funktionen als Ziel
Der Innovationsschub für intelligente Anwendungen und Services trifft aktuell noch auf die Frage, wie sicher, nachhaltig und inklusiv die dazugehörigen IT-Systeme arbeiten. Diese Lücke will MISSION KI schließen. „Mit anspruchsvollen Qualitäts- und Prüfstandards setzen wir uns für einen bewussten Umgang mit Künstlicher Intelligenz ein“, sagt Hendrik Reese, Partner für Responsible AI und Projektverantwortlicher bei PwC Deutschland. „Zugleich sorgen wir für faire und vergleichbare Marktbedingungen und verkürzen im besten Falle die Time-to-Market für digitale Innovationen. So fördern wir den Wirtschafts- und Digitalstandort Deutschland.“
Das geplante Gütesiegel soll zudem eine weitere Unsicherheit bei intelligenten Systemen auflösen: Während Hochrisiko-Anwendungen durch den EU AI Act sehr konkret reguliert werden, besteht für Nicht-Risiko-Anwendungen bislang lediglich eine Transparenzpflicht. Das Siegel soll auch hier die Sicherheit für private wie industrielle Anwender erhöhen sowie Mindestanforderungen und Marktstandards etablieren. Jürgen Frisch