Alle verfügbaren Datenquellen zu integrieren und zu nutzen ist die wesentlichste Grundlage für gutes Geschäft in digitalisierten Zeiten. Die Frage ist, wie solche Big Data-Infrastrukturen zu organisieren und zu betreiben sind.

Bis vor kurzem fielen Entscheidungen im Unternehmen vor allem auf Grundlage vergangenheitsbezogener Informationen aus unternehmenseigenen Reportings, ERP-, CRM- oder DHW-Systemen. Im Zuge der digitalen Transformation wird aber auch die Nutzung neuer interner und externer Datenquellen zum integralen Bestandteil und zum Treiber nahezu aller operativer Prozesse.

Big Data braucht Anpassung

Digitale Schnittstellen an Maschinen und Geräten, Sensordaten und Internet of Things-Anbindung in fast jedem Prozess, 3D-Drucker oder die mobilen Endgeräte der Mitarbeiter – Unternehmen sitzen auf immer größeren Bergen potentiell wertvoller Informationen. Um heute die richtigen Entscheidungen zu treffen, bedarf es also der Betrachtung und Analyse von wesentlich mehr Daten und Datenarten als zuvor. Zudem wird das Wissen über den aktuellen Status der Dinge, Prozesse und Kunden einer der wesentlichsten Wettbewerbsfaktoren. Die meisten Unternehmen gehen daher davon aus, dass sie mittelfristig alle verfügbaren Daten entlang ihrer Prozessketten und Kundenbeziehungen mit immer feineren Algorithmen untersuchen können und immer granularere Erkenntnisse zu ihrem Vorteil nutzen können. Dazu sind jedoch tiefgreifende Veränderungen an der Basis nötig.

Datawarehouse war gestern

Traditionelle Datawarehouse-Lösungen haben in der Regel lange Abstimmungszyklen und brauchen häufig mehrere Monaten, um eine neue Datenquelle zu integrieren. In der heutigen Zeit kann aber gerade das schnelle Kombinieren mit zusätzlichen Daten ein wichtiger Wettbewerbsvorteil sein. Eine weitere Anforderung an die Architektur ist, dass häufig die Erfordernis besteht, die aktuellsten Daten aus Sensoren, Herstellungs- und Geschäftsprozessen, zum Kauf- und Kommunikationsverhalten der Kunden oder zur Wetter- und Verkehrslage in „near-real time“, also nah am Entstehungszeitpunkt, zu erfassen, zu verarbeiten und zu nutzen. Ein klassisches Datawarehouse kann für Anbieter, die in immer kürzerer Zeit auf Marktveränderungen, neue Wettbewerberstrategien oder Kundenwünsche reagieren müssen, also gar nicht mehr ausreichen. Unternehmen brauchen eine hybride Architektur, die hoch validierte Datawarehouses (beispielsweise für das regulatorische Reporting) mit dynamischen „Informationsinseln“ kombiniert und möglichst agil ist: Eine moderne Big-Data-Infrastruktur kann Daten zu einem bestimmten Businessobjekt (beispielsweise „Kunde“) physisch über verschiedene Systeme und Technologien verteilen, weil eine 360-Grad-Sicht – virtuell – immer erst zum Anwendungszeitpunkt eines bestimmten Falls generiert wird. Dazu müssen die verschiedenen Quellen ihre Daten über eine gemeinsame Infrastruktur bereitstellen und abrufbar machen. Als sinnvoller Ankerpunkt bietet sich hier ein MDM-System (Stammdatenmanagement) in Kombination mit einem Service Bus an.

Mehr Agilität durch Clouds

Mit der Menge und Bedeutung digitaler Informationen steigen die Anforderungen an die Datenverfügbarkeit. Diese sollte die gleichen Anforderungen an Performance, Flexibilität und Sicherheit wie die Produktionssysteme erfüllen, und so kommen Unternehmen oft nicht umhin, ihre IT-Architektur und Organisation für „Big Data“ anzupassen. Als effektiv und relativ kostengünstig erweist sich hierbei der Einsatz von Cloud-Dienstleistungen: Sie sind flexibel skalierbar und können so auch als „Spielwiese“ und Testplattform für die agile Entwicklung und Erprobung neuer Produkte fungieren. Die eigene IT ist entlastet und wird gleichzeitig durch hoch performante Ressourcen ergänzt. Zudem sorgen Cloud-Provider mit ihren Rechenzentren, die gemäß deutschen/europäischen Sicherheits- und Datenschutzbestimmungen arbeiten, für zuverlässigen Schutz des wertvollen Datenkapitals. Unabhängig vom unternehmensindividuellen Big-Data-Ansatz aber sollte Folgendes nicht vergessen sein: Wo Daten zum fundamentalen Bestandteil der operativen Prozesse werden und Produktivitätssteigerungen erzielen sollen, müssen auch die Datenqualität, -sicherheit und zeitgerechte -bereitstellung gewährleistet sein. Innerhalb einer flexiblen und leistungsstarken Infrastruktur auf jeden Anwendungsfall mit agilen Prozessen reagieren zu können wird schon bald erfolgskritisch sein. Unternehmen, die hier ihre Hausaufgaben machen, können Wettbewerbsvorteile nutzen, ansonsten besteht die Gefahr, Potentiale an Konkurrenten oder neue Akteure zu verlieren.

AUTOR: KNUT VELTJENS, VICE PRESIDENT CGI