Start Ratgeber Business Analysen brauchen gute Datenqualität

Business Analysen brauchen gute Datenqualität

Digitalisierung und Künstliche Intelligenz sind auf eine gute Datenqualität angewiesen, um sinnvolle Resultate zu liefern. Aparavi, ein Anbieter von Lösungen zur Verwaltung unstrukturierter Daten, benennt vier Entwicklungen, bei denen die Datenqualität unverzichtbar ist.

Datenqualität
Quelle: ©Chris Liverani | unsplash.com

Erfolgsbaustein:Daten sind der Treibstoff für die Digitalökonomie“, erläutert Ralph Rembor von Aparavi. „Wirklich wirksam und wertvoll sind sie nur in qualitativ hochwertiger Form, also transparent, strukturiert und gesetzeskonform. Nur so können sie ihre volle Wirkung entfalten.“

Die Datenqualität beeinflusst das Wirtschaftshandeln in vielen Branchen. So liefern Analysen nur dann gute Ergebnisse, wenn sie auf der Grundlage gut gepflegter und vollständiger Daten laufen. Die gleiche Voraussetzung gilt für Systeme auf Basis Künstlicher Intelligenz. Bei folgenden branchenübergreifenden und branchenspezifischen Entwicklungen spielen sowohl Daten als auch die Datenqualität eine wichtige Rolle :

1. Granulare Zugriffskontrollen

Sogenannte Embedded Permissions erlauben die rollenbasierte, feingranulare Kontrolle der Zugangsberechtigung direkt aus einer Applikation heraus. So stellen Unternehmen sicher, dass Benutzer ausschließlich auf die Funktionen, Daten oder Ressourcen zugreifen können, für die sie autorisiert sind. Auch Künstliche Intelligenz kann auf der Basis von Zugriffsrechten bei der Datenklassifizierung entscheiden, welcher Nutzer welche Ergebnisse sehen darf. Das verhindert unbefugte Zugriffe auf sensible Informationen und stellt die Konformität mit Security- und Compliance-Vorgaben sicher.

2. Digitale Zwillinge in der Immobilienwirtschaft

Bei der Planung, dem Design, dem Betrieb, der Renovierung und dem Verkauf von Immobilien kommen Digitale Zwillinge in den Blick. Derartige Systeme bilden Informationen wie Layouts, Abmessungen, Materialien und Ausstattungen ab und erleichtern dadurch das Facility Management, Leistungsanalysen, die Gebäudeüberwachung und -steuerung in Echtzeit sowie die Vorhersage des Wartungsbedarfs. Zudem unterstützen sie Risiko- und Rentabilitätsanalysen. Dafür müssen unstrukturierte Daten wie Texte, Bilder, Audio- und Videodateien oder Echtzeitdaten aus Sensoren analysiert und eingebunden werden.


Anzeige

data-manager
Quelle: ImageTeam | www.shutterstock.com

Zertifikatskurs „Enterprise Data Manager“ – Wissensvermittlung auf höchstem Niveau

Der Kurs „Enterprise Data Manager“ wurde vom FIR an der RWTH Aachen in Zusammenarbeit mit dem Institut für Wirtschaftsinformatik (IWI) der Hochschule Heilbronn, der Trovarit AG und dem Steinbeis-Beratungszentrum Electronic Business (EB) entwickelt. Er vermittelt Unternehmen die fachlichen Grundlagen sowie die erforderlichen Werkzeuge, damit sie ihre bestehende Datenlandschaft analysieren und bewerten, die Datenqualität erhöhen und ein zielgerichtetes Datenmanagement in ihrem Unternehmen aufbauen können.

  • Präsenzmodul I: 12.11.-14.11.2024 | Aachen
  • Präsenzmodul II: 26.11.-28.11.2024 | Aachen

Mehr Infos & Anmeldung


3. Dokumentationspflichten im Finanzwesen

Banken und Finanzinstitute unterliegen spezifischen Regularien wie BAIT (Bankaufsichtliche Anforderungen an die IT), MaRisk (Mindestanforderungen an das Risikomanagement) sowie dem IT-SiG (IT-Sicherheitsgesetz 2.0) im Umfeld kritischer Infrastrukturen. Es geht hier häufig um unstrukturierte Daten, die hohes Risikopotenzial bergen, etwa im Falle personenbezogener Informationen oder der sogenannten individuellen Datenverarbeitung. Nur mit den dazu nötigen Daten können Unternehmen die geforderten Dokumentations-, Informations- und Meldepflichten einhalten.

4. Behörden bekommen Datenlabore

Datenlabore sind die praktische Umsetzung der neuen Datenstrategie der Bundesregierung in den Ministerien, etwa für den Datenaustausch im Gesundheitswesen, branchenspezifische Datenräume und Aufbereitung für Projekte rund um Künstliche Intelligenz. Die Datenqualität ist dabei von entscheidender Bedeutung, wie die Bundesregierung mehrfach erklärt hat. In vielen Fällen liegen die Daten in unstrukturierter Form vor. Um Large Language Models für den Einsatz in der öffentlichen Hand trainieren zu können, müssen die zu analysierenden Daten bereinigt, aufbereitet und klassifiziert werden. Jürgen Frisch