Start Ratgeber 5 Technologietreiber für 2022

5 Technologietreiber für 2022

Distributed Clouds, Process Mining, Ethik in der Künstlichen Intelligenz und ERP 2.0: Oliver Rozić, Vice President Product Engineering bei Sage, hat sich Gedanken darüber gemacht, wie die Unternehmen im kommenden Jahr ihre IT-Systeme weiterentwickeln.

trovarit
Quelle: metamorworks | Adobe Stock

Covid-19 hat im vergangenen Jahr die Dynamik in der Wirtschaft spürbar eingebremst. Bei der Digitalisierung allerdings hat die Pandemie für ein beispielloses Tempo gesorgt. Dieser Schwung dürfte sich fortsetzen. Sage hat fünf Technologietreiber identifiziert, die im kommenden Jahr betriebliche IT-Anwendungen beeinflussen:

1. Distributed Cloud und Edge Computing

Der Bedarf nach flexibel anpassbarer und per Cloud überall verfügbarer Software wird steigen. Nachdem die Entwicklung von großen monolithischen Systemen hin zu kleindimensionierten Microservices klar erkennbar ist, zieht nun mit der Distributed Cloud auch die dahinterstehende Infrastruktur nach. Mit diesem Architekturansatz gibt es kein zentrales Rechenzentrum mehr, sondern die Rechnerlast wird auf kleine regionale Clouds aufgeteilt. Diese Infrastruktur von vernetzten und verteilten Servern bietet darüber hinaus die ideale Grundlage für ein Konzept, das sich daraus direkt ableitet: Edge-Computing. Ziel ist es dabei, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit spürbar zu verkürzen.

„Der entscheidende Vorteil der Distributed Cloud und des Edge Computings ist neben der geringeren Latenz und besseren Performance eine höhere Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können“. erläutert Oliver Rozić, Vice President Product Engineering bei Sage. „Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich.“ Die Nachfrage nach Distributed Cloud und Edge Computing werde 2022 vor allem durch datenintensive Anwendungen etwa im Bereich Machine Learning vorangetrieben.

2. Process Mining und Data Mining

Auch im kommendem Jahr werden sich viele Unternehmen auf Unregelmäßigkeiten im Ablauf ihrer Prozesse einstellen müssen – allein schon durch unterbrochene Lieferketten und anhaltende Verknappungen an Bauteilen wie Microchips. Vor diesem Hintergrund wird Process Mining an Bedeutung gewinnen. Es geht dabei um die systematische Analyse und Auswertung von Geschäftsprozessen.

Process Mining hat seinen Ursprung im Data Mining, also der Analyse großer Datenbestände mit dem Ziel, neue Querverbindungen, Muster und Trends zu erkennen. Unternehmen können mithilfe von Data Mining zum Beispiel die Personalisierung ihrer Angebote erhöhen oder Warenkorbanalysen fahren. Beim Process Mining wird dieses Verfahren auf einen kompletten Prozess übertragen. Die darin auftretenden Ereignisse, so genannte Events, werden dabei logisch hinsichtlich ihrer chronologischen Reihenfolge miteinander verknüpft.

„Auf dieser Basis lässt sich ein Prozess visualisieren und in Echtzeit analysieren“, erläutert Rozić. „Voraussetzung dafür sind allerdings voll digitalisierte Prozesse. Nur so ist es möglich, die für Process Mining nötige Datenbasis zu schaffen.“ Durch die Integration von Künstlicher Intelligenz werde es darüber hinaus möglich, intelligente und präskriptive Analysen zu erhalten. Mit Predictive Analytics lasse sich aufzeigen, wann und wie stark der Bedarf nach einem bestimmten Produkt künftig steigt.

3. ERP 2.0

Das Internet of Things (IoT) verbindet Software-Anwendungen, Maschinen, Anlagen und Werkzeuge zu einem integrierten und zunehmend autonom agierenden Gesamtsystem. Dieses produziert täglich eine riesige Menge an Daten. Damit entsteht eine wichtige Grundlage, um Unternehmensprozesse über die gesamte Wertschöpfungskette hinweg zu analysieren und auf Basis dieser Datenauswertungen zu verbessern und effizienter zu machen. Für sich genommen bieten diese Daten noch keinen großen Mehrwert. Erst in einem größeren Kontext entfalten sie ihren Nutzen.

Eine entscheidende Rolle spielt dabei das ERP-System, in dem sämtliche Betriebsinformationen zusammenlaufen und anschließend gefiltert und klassifiziert sowie an die nachgeordneten Anwendungen weitergeleitet werden. Der Datenfluss kann vor dem Hintergrund eines derart vernetzten Systems auch über die Grenzen eines Unternehmens hinausgehen und Lieferanten etwa mit einbeziehen. Das ERP-System wird so zu einer zentralen Softwareplattform und zu einem Integrations-Hub für das Internet der Dinge. „Damit wird zugleich eine neue Generation von ERP-Systemen in Unternehmen und Betriebe einziehen“, erläutert Rozić und betont die Anforderungen dafür: „Die entscheidende Voraussetzung für ERP 2.0 besteht darin, dass sämtliche Komponenten einer IoT-Architektur über standardisierte Schnittstellen mit dem ERP-System integrierbar sind – angefangen bei der Datenbanktechnologie, über sämtliche Analysesysteme bis hin zu den entsprechenden Systemen auf Seiten externer Geschäftspartner, die ebenfalls Teil des Netzwerks sind.“


Anzeige

erp-projekteMit dem ERP-Matchmaker® die passende ERP-Software finden

Beschreiben Sie mit wenigen Klicks Ihr Unternehmen und Ihre Aufgabenstellung – der ERP-Matchmaker® findet auf Knopfdruck schnell und sicher die passenden ERP-Lösungen!

  • Branchenpassung der ERP-Software
  • Funktionalität
  • Technologische Anforderungen
  • Regionale Nähe des ERP-Anbieters
  • Referenzprojekte des ERP-Anbieters
  • Dienstleistungsangebot zu Einführung & Betrieb


4. Ethik in der Künstlichen Intelligenz

Das Potenzial von Künstlicher Intelligenz ist bekannt, und es gibt auch sehr ausgereifte Systeme, in denen die Technologie ihren Praxisnutzen unter Beweis stellt. Ein Beispiel ist die fortgeschrittene Datenanalyse. Hier hilft Künstliche Intelligenz, strategische Entscheidungen im Betrieb datengestützt zu fällen. Diese Technologie wird damit zu einem mächtigen Instrument für Unternehmen, sich im Wettbewerb bestmöglich zu positionieren. Die aus den intelligenten IT-Systemen abgeleiteten Erkenntnisse sorgen aber auch immer wieder für kritische Rückfragen. Sie drehen sich etwa rund um die Themen Datenschutz und Compliance und kommen aus den Reihen der Stakeholder derer, die diese Technologie anwenden.

„Vor diesem Hintergrund wird es künftig nicht mehr genügen, Künstliche Intelligenz ausschließlich im Sinne der eigenen unternehmerischen Ziele zu nutzen“, prognostiziert Rozić. „Auch rein funktionale Gesichtspunkte, etwa im Blick auf Prozessverbesserung oder Automatisierung greifen zu kurz. Vielmehr wird diese Technologie zunehmend in ein direktes Verhältnis gesetzt zu den Stakeholdern, denen sie dienen soll. Dann geht es beispielsweise um Fragen der Fairness, der Gerechtigkeit im Wettbewerb und der Transparenz gegenüber den Kontrollbehörden“

5. Datenhygiene

Der Wert von Daten als Basis für verlässliche Unternehmensentscheidungen wird zunehmend erkannt. Mit den exponentiell wachsenden Datenmengen, die Betrieben zur Verfügung stehen, wird aber auch die Frage nach der Datenqualität lauter werden. Im Kern geht es um die Vermeidung von Dirty Data.

Eine Herausforderung vieler Unternehmen ist vor diesem Hintergrund die schiere Anzahl der betrieblichen Datenquellen und damit die Fragmentierung von Daten, die oft aus veralteten Systemen, in unterschiedlichen Formaten, Metadaten, Formularen und nicht mehr zeitgemäßen Datenbankformaten vorliegen. Im Ergebnis führt dies zu geringer Datenqualität. „Datenqualitätsmanagement wird deshalb zunehmend in den Fokus unternehmerischen Handelns rücken“, erläutert Rozić. „Idealerweise stellen Unternehmen die Datenqualität von vorneherein sicher und verhindern, dass Dirty Data entstehen.“ Eine Vorrausetzung für diese vorausschauende Form der Datenhygiene sei Data Governance. Immer mehr Unternehmen würden aller Voraussicht nach ein Regelwerk für den Umgang mit Daten erstellen.


Anzeige | Whitepaper zum kostenfreien Download

Whitepaper
Datenqualität als Schlüssel zur erfolgreichen Systemeinführung
Stammdatenanalyse in Datenmigrationsprojekten
Autor: Alex Ron, Jost Enderle, Trovarit AG
Erschienen: 2019-11-06
Dateigröße: 686,83 KB
Schlagworte: Datenanalyse, Datenbereinigung, Datenmanagement, Datenqualität, ImplAiX, Implementierung, Stammdatenanalyse, Stammdatenmanagement
Das Whitepaper beschreibt anhand des Beispiels der fiktiven Eisenmeiser GmbH, welche Herausforderungen die Datenmigration im Zuge der Einführung einer neuen Unternehmenssoftware birgt. Aufwand und Komplexität dieser Aufgabe werden von Unternehmen meist unterschätzt. Deutlich erleichtert wird die Datenmigration durch eine gute und stukturierte Vorbereitung. Die Autoren geben Tipps rund um die Analyse und Bereinigung der Daten.
Download


Oliver Rozić, Vice President Product Engineering bei Sage

2022 wird das Jahr der digitalen Evolution

„Ab dem kommenden Jahr wird es für Unternehmen darum gehen, bei der Digitalisierung die folgerichtigen und oft auch erforderlichen nächsten Schritte zu verfolgen, um sich optimal aufzustellen“, so Rozić. „Nach der Cloud folgt die Distributed Cloud, nach Big Data kommt zielgerichtetes Data und Process Mining, sowie ein stärkerer Fokus auf Datenhygiene. ERP braucht ein Update auf ERP 2.0 und beim Einsatz Künstlicher Intelligenz rückt die ethische Verantwortung in den Fokus. Wir werden also mit einem Jahr der digitalen Evolution zu tun haben.“ Jürgen Frisch