Start Ratgeber Business Analysen brauchen gute Datenqualität

Business Analysen brauchen gute Datenqualität

Digitalisierung und Künstliche Intelligenz sind auf eine gute Datenqualität angewiesen, um sinnvolle Resultate zu liefern. Aparavi, ein Anbieter von Lösungen zur Verwaltung unstrukturierter Daten, benennt vier Entwicklungen, bei denen die Datenqualität unverzichtbar ist.

Datenqualität
Quelle: ©Chris Liverani | unsplash.com

Erfolgsbaustein:Daten sind der Treibstoff für die Digitalökonomie“, erläutert Ralph Rembor von Aparavi. „Wirklich wirksam und wertvoll sind sie nur in qualitativ hochwertiger Form, also transparent, strukturiert und gesetzeskonform. Nur so können sie ihre volle Wirkung entfalten.“

Die Datenqualität beeinflusst das Wirtschaftshandeln in vielen Branchen. So liefern Analysen nur dann gute Ergebnisse, wenn sie auf der Grundlage gut gepflegter und vollständiger Daten laufen. Die gleiche Voraussetzung gilt für Systeme auf Basis Künstlicher Intelligenz. Bei folgenden branchenübergreifenden und branchenspezifischen Entwicklungen spielen sowohl Daten als auch die Datenqualität eine wichtige Rolle.

📥 Vertiefung | Fachartikel des Competence Center Datenmanagement | Trovarit AG

Whitepaper
Datenqualität als Schlüssel zur erfolgreichen Systemeinführung
Stammdatenanalyse in Datenmigrationsprojekten
Autor: Alex Ron, Jost Enderle, Trovarit AG
Erschienen: 2024-05-15
Schlagworte: Datenanalyse, Datenbereinigung, Datenmanagement, Datenqualität, ImplAiX, Implementierung, Stammdatenanalyse, Stammdatenmanagement
Das Whitepaper beschreibt anhand des Beispiels der fiktiven Eisenmeiser GmbH, welche Herausforderungen die Datenmigration im Zuge der Einführung einer neuen Unternehmenssoftware birgt. Aufwand und Komplexität dieser Aufgabe werden von Unternehmen meist unterschätzt. Deutlich erleichtert wird die Datenmigration durch eine gute und stukturierte Vorbereitung. Die Autoren geben Tipps rund um die Analyse und Bereinigung der Daten.
Download

1. Granulare Zugriffskontrollen

Sogenannte Embedded Permissions erlauben die rollenbasierte, feingranulare Kontrolle der Zugangsberechtigung direkt aus einer Applikation heraus. So stellen Unternehmen sicher, dass Benutzer ausschließlich auf die Funktionen, Daten oder Ressourcen zugreifen können, für die sie autorisiert sind. Auch Künstliche Intelligenz kann auf der Basis von Zugriffsrechten bei der Datenklassifizierung entscheiden, welcher Nutzer welche Ergebnisse sehen darf. Das verhindert unbefugte Zugriffe auf sensible Informationen und stellt die Konformität mit Security- und Compliance-Vorgaben sicher.

2. Digitale Zwillinge in der Immobilienwirtschaft

Bei der Planung, dem Design, dem Betrieb, der Renovierung und dem Verkauf von Immobilien kommen Digitale Zwillinge in den Blick. Derartige Systeme bilden Informationen wie Layouts, Abmessungen, Materialien und Ausstattungen ab und erleichtern dadurch das Facility Management, Leistungsanalysen, die Gebäudeüberwachung und -steuerung in Echtzeit sowie die Vorhersage des Wartungsbedarfs. Zudem unterstützen sie Risiko- und Rentabilitätsanalysen. Dafür müssen unstrukturierte Daten wie Texte, Bilder, Audio- und Videodateien oder Echtzeitdaten aus Sensoren analysiert und eingebunden werden.

3. Dokumentationspflichten im Finanzwesen

Banken und Finanzinstitute unterliegen spezifischen Regularien wie BAIT (Bankaufsichtliche Anforderungen an die IT), MaRisk (Mindestanforderungen an das Risikomanagement) sowie dem IT-SiG (IT-Sicherheitsgesetz 2.0) im Umfeld kritischer Infrastrukturen. Es geht hier häufig um unstrukturierte Daten, die hohes Risikopotenzial bergen, etwa im Falle personenbezogener Informationen oder der sogenannten individuellen Datenverarbeitung. Nur mit den dazu nötigen Daten können Unternehmen die geforderten Dokumentations-, Informations- und Meldepflichten einhalten.

4. Behörden bekommen Datenlabore

Datenlabore sind die praktische Umsetzung der neuen Datenstrategie der Bundesregierung in den Ministerien, etwa für den Datenaustausch im Gesundheitswesen, branchenspezifische Datenräume und Aufbereitung für Projekte rund um Künstliche Intelligenz. Die Datenqualität ist dabei von entscheidender Bedeutung, wie die Bundesregierung mehrfach erklärt hat. In vielen Fällen liegen die Daten in unstrukturierter Form vor. Um Large Language Models für den Einsatz in der öffentlichen Hand trainieren zu können, müssen die zu analysierenden Daten bereinigt, aufbereitet und klassifiziert werden. Jürgen Frisch