Startseite Themen Brennpunkt INNOVATIONSPREIS-IT IT-Bestenliste INDUSTRIEPREIS INDUSTRIE-Bestenliste TrafficGenerator
INNOVATIONSPREIS-IT 2017

Drucken TOP-THEMEN

05.02.2016 - Fachartikel - Software

Stammdatenmanagement ist in Zeiten von Big Data unerlässlich

Erfolgsfaktoren Organisation, Prozesse und Technologie

zetVisions AG Logo
(Initiative Mittelstand)

Datengetriebene Unternehmen stehen mehr und mehr vor der Aufgabe, den Produktionsfaktor „Daten“ aktiv zu pflegen und weiterzuentwickeln; vor allem brauchen sie verlässliche Stammdaten. Stammdaten sind eine wichtige übergreifende Komponente, die in operativen Prozessen und Unternehmensentscheidungen ebenso beteiligt ist, wie bei Datenauswertungen und -analysen oder Produkten und Dienstleistungen. Ein institutionalisiertes Stammdaten- und Datenqualitätsmanagement sind daher wesentliche Voraussetzungen für ein effizientes Datenmanagement und eine wertorientierte Nutzung von Daten. Diese Zusammenhänge hat das Würzburger Forschungs- und Beratungsinstituts für Unternehmenssoftware Business Application Research Center (BARC) in seiner im Januar 2016 veröffentlichten Untersuchung „Datenqualitäts- und Stammdatenmanagement in Big-Data-Szenarien“ verdeutlicht. Sie wurde unterstützt von der in Heidelberg ansässigen zetVisions AG, Spezialist für die Entwicklung und Implementierung von Softwarelösungen für das Beteiligungsmanagement und das Stammdatenmanagement.

Digitalisierung bringt Stammdatenmanagement in eine Schlüsselposition

Die Digitalisierung der Gesellschaft stelle neue Anforderungen an die Datennutzung und -auswertung und fordere somit das Datenmanagement. Mit der Digitalisierung der Unternehmen wachse nicht nur die Bedeutung und Nutzung von Daten, sondern die Geschäftsmodelle würden zusehends im Hinblick auf Innovationen neu ausgerichtet. Unternehmen erweiterten ihre Produkte um digitale Komponenten (bspw. Fernseher, die sich mehr und mehr über ihre Online-Funktionen und Apps auszeichnen) und ihr Portfolio um digitale Produkte und Dienstleistungen (bspw. Predictive Maintenance). Allenthalben sei ein Perspektivwechsel weg von der Berichterstattung aus Vergangenheitsdaten hin zu Prognosen für die Zukunft feststellbar. Für die Fachbereiche komme es darauf an, die richtigen Entscheidungen auf Basis korrekter Daten zu treffen; auch müssten die digitalisierten Produkte und Dienstleistungen auf Grundlage korrekter Daten funktionieren. „Dem Datenmanagement und insbesondere seiner Disziplin des Stammdatenmanagement kommt somit heute eine Schlüsselposition zu“, resümiert BARC. Stammdaten sind die Grundinformationen über sämtliche betrieblich relevante Objekte, wie Kunden, Lieferanten, Produkte, Mitarbeiter und Finanzen. Um zu verlässlichen Stammdaten zu kommen, müssen drei Säulen in den Blick genommen werden, deren Inhalte in einer Datenstrategie definiert werden: Organisation, Prozesse und Technologie.

Erfolgsfaktor für verlässliche Stammdaten: Organisation

In organisatorischer Hinsicht geht es um eine Aufbauorganisation, die die Nutzung von Daten als Wertschöpfungsfaktor unterstützt. Wesentliche Aufgabe dabei ist die Festlegung von Rollen, also die Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement seien Data Owner („Daten-Eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT). Um ihre Aufgaben wirkungsvoll erledigen zu können, benötigten die jeweiligen Mitarbeiter bestimmte Fähigkeiten. Neben einem grundsätzlichen Verständnis für die Relevanz von Daten für das Unternehmen und die Chancen, die es durch ihre Nutzung hat, seien dies die Fähigkeit zur Verwaltung, Nutzung und Potentialerkennung von Daten sowie die Konzeption, Entwicklung und Durchführung von neuen oder angepassten datengetriebenen Prozessen.

Erfolgsfaktor für verlässliche Stammdaten: MDM- und DQ-Prozesse

Gemäß ihrer Rollenbeschreibung sind die beteiligten Mitarbeiter in unterschiedliche Prozesse eingebunden. Zu den Linienaufgaben gehören die fachliche oder technische Betreuung und Unterstützung (z.B. Bestimmung von Datenquellen; Auswahl, Profilierung und Bewertung von Daten), die Umsetzung (z.B. Pflege von Daten und Regeln; Dokumentation neuer Anforderungen), die Entscheidung (z.B. über unternehmens- oder abteilungsweit genutzte Geschäftsbegriffe; Priorisierung von Projekten), der Betrieb der Infrastruktur und der Systeme sowie schließlich das Monitoring (z.B. der Datenqualität). Typische Projektaufgaben sind BI-Projekte (z.B. Ausbildung neuer Data Marts einschließlich Pflege des Business-Glossars), DQ-Projekte (z.B. Bereinigung von Kundendaten; Zusammenfassen von externen Kundendaten mit den eigenen) und Data-Science-Projekte (z.B. Unterstützung von Statistikern bei der Wahl und Interpretation von Daten).

Zur Steigerung der Datenqualität oder zur Absicherung des bereits erreichten Datenqualitätsniveaus habe sich, so die BARC-Autoren, der sog. Datenqualitätszyklus als wirksame Methode erwiesen. Dabei handele es sich um einen iterativen Prozess zur Analyse, Bereinigung, Anreicherung sowie zur Überwachung und Kontrolle der Datenqualität, der verdeutliche, dass Datenqualität kein einmaliges Projekt sei.

Erfolgsfaktor für verlässliche Stammdaten: Technologie

Die Softwaretechnik kann die beteiligten Rollen bei ihren Linien- und Projektaufgaben unterstützen. So sei es beispielsweise möglich, bereits bei der Dateneingabe neu anzulegende Datensatz gegen den bestehenden Adressbestand zu testen. Mangelhafte Datenqualität des bestehenden Datenbestands durch etwa Dubletten und fehlende oder falsche Daten lasse sich durch eine Bereinigung mit Hilfe ausgereifter Softwarelösungen beheben. Für Anforderungen der Fachbereiche in Sachen Big Data Analytics seien Data-Profiling-Funktionen nützlich. Sie helfen unter anderem dabei, Strukturen und Muster in den vorliegenden Daten zu erkennen. Um Datenqualität systematisch zu verbessern und zu sichern, sollte in die von den jeweiligen Anwenderrollen verwendeten Benutzeroberflächen eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender DQ-Prozesse integriert sein. Da sich der Datenbestand ständig verändert und neue Datenarten hinzukommen, gewährleistet ein Regelmanagement-System die Definition von Datenvalidierungs- und Geschäftsregeln. Schließlich: Monitoring-Komponenten informieren über aktuelle Geschäftsergebnisse, und Reporting-Module unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft.

Vorgehensweise für die Etablierung verlässlicher Stammdaten: Stammdatenmanagement-Intitiativen

Um die unternehmensweiten Stammdaten auf das erforderliche Qualitätsniveau zu bringen, ist eine Stammdatenmanagement-Initiative erforderlich. Sie beginnt mit einer Orientierungs- und Sensibilisierungsphase, in der der aktuelle Handlungsbedarf und die wirtschaftliche Relevanz der einzelnen Stammdatendomänen geklärt werden. Anschließend gilt es, eine Stammdaten-Strategie zu entwickeln, in der die Ziele definiert sowie organisatorische, prozessuale und technische Aspekte festgehalten werden. Im dritten Schritt werden (taktische) Stammdatenprojekte aus der strategischen Zieldefinition abgeleitet. Typische Projekte sind Datenqualitätsprojekte, Compliance-Projekte, Organisations-Optimierungen oder Datenintegrationsprojekte.

Die Research Note „Datenqualitäts- und Stammdatenmanagement in Big-Data-Szenarien“ kann über das Kontaktformular der zetVisions Website angefordert werden.

http://www.zetvisions.de/

Social Media