Datenmanagement: Unterschied zwischen den Versionen

Aus Controlling-Wiki
Keine Bearbeitungszusammenfassung
Zeile 31: Zeile 31:
| Schlüsselintegrität || Bei der Schlüsselintegrität geht es darum, dass die Daten untereinander verbunden werden können. Dafür darf es keine doppelten Daten geben. So ist es zentral, dass eine Bank beispielsweise nur einmal die gleiche Kontonummer vergibt.  
| Schlüsselintegrität || Bei der Schlüsselintegrität geht es darum, dass die Daten untereinander verbunden werden können. Dafür darf es keine doppelten Daten geben. So ist es zentral, dass eine Bank beispielsweise nur einmal die gleiche Kontonummer vergibt.  
|-
|-
Die Datenqualität kann ebenfalls aus einem anderen Blickwinkel betrachtet werden. Es werden dabei die Perspektiven der Design- und Konformitätsqualität unterschieden. Die Abbildung 3 stellt die beiden Qualitätskomponenten in einer Übersicht dar (Klier & Heinrich, 2016, S. 489).
[[Datei: Datelqualitaetsperspektiven_Klier&Heinrich2016.png|miniatur|450px|Abb. 3: Die Datenqua-litätsperspektiven (Klier & Heinrich, 2016, S. 489)]]
Die Designqualität beschreibt, inwiefern die nachgefragten Daten durch die spezifizierten Daten abgedeckt werden. Ein Beispiel der Designqualität ist, inwiefern alle Serviceauftragsattribute, welche die geplante Datenanalyse zur Unterstützung des Serviceauftragsmanagements benötigt werden (z.B. Servicestatus, Servicetyp, Auftraggeber), im Datenschema des Informationssystems tatsächlich erfasst sind. Die Designqualität wird gemessen, indem auf Informationsbedarfsanalysen und Befra-gungen der Datenanwender zurückgegriffen wird (Klier & Heinrich, 2016, S. 489).
Die Konformitätsqualität hingegen beschreibt, inwiefern die vorhandenen Daten und die zugehöri-gen Realweltausprägungen aufeinander abgestimmt sind. Ein Beispiel dafür ist, ob die gespeicherten Serviceauftragsdaten mit den tatsächlichen Auftragsdaten übereinstimmen. Die Beurteilung der Konformitätsqualität erfolgt durch verschiedene Datenqualitätsmerkmale. Datenqualitätsmerkmale sind beispielsweise Korrektheit, Vollständigkeit oder Aktualität. Im Fokus liegt das Datenqualitäts-merkmal Aktualität. Mit Aktualität ist gemeint, dass die gespeicherten Datenwerte nach wie vor der Realwelt entsprechen und nicht veraltet sind. Aus betriebswirtschaftlicher Perspektive ist das hoch relevant (Klier & Heinrich, 2016, S. 489-490).
Für die Überprüfung der Qualitätsmessung empfiehlt sich ein Datenqualitätsmanagement in einer unternehmensweiten Perspektive. Ein ganzheitliches Modell mit einer langfristigen Orientierung wird dem gerecht. In der Abbildung 4 wird das CDQ-Modell als ein mögliches Beispiel dargestellt. Die Zeilen der Matrix bilden die drei Ebenen des Business Engineering (Strategie, Organisation und Informationssystem-Architektur). Ausserdem wird die Governance und Realisierung getrennt. Die eng miteinander verbundenen Verfahren werden in einem Steuerungskreislauf angeordnet (Baumöl & Meschke, 2009, S. 64–65).
[[Datei: CDQ-Modell_Baumöl&Meschke2009.png|miniatur|450px|Abb. 4: CDQ-Modell (Baumöl & Meschke, 2009, S. 64)]]
=== Single Version of Truth ===
Datenqualitätsprobleme entstehen häufig dann, wenn nicht klar definiert ist, wo die Daten gespei-chert sind oder es gar mehrere Dokumenten- oder Datenversionen gibt (Otto & Legner, 2016, S. 553). Wie schon erwähnt, ist das [[Data Warehouse]] die zentrale Stelle, um Daten zu sammeln. Wichtig ist zu verstehen, dass es sich um eine anwendungsübergreifende und integrierte Datenhal-tungskomponente handelt (Ereth & Kemper, 2016, S. 459). Die Daten aus den verschiedenen Quel-lensystemen werden im Data Warehouse vereint und stehen zur Verfügung. Es handelt sich um das Herzstück eines Unternehmens. Unabhängig von Zeit, Arbeitsort oder Funktion kann zentral auf die benötigten Unternehmensdaten zugegriffen werden. Es gibt also eine „Single Version of Truth“ (nachfolgend SVOT) (Kemper et al., 2010, S. 226-227). Das Ziel einer SVOT besteht darin, die ein-zig richtige Version von ausgewerteten Daten zu erhalten, welche als Entscheidungsgrundlage die-nen (Bundi & Keimer, 2009, S. 64-65). Es soll verhindert werden, dass beispielsweise Produktdaten aus verschiedenen Systemen eines Unternehmens nicht übereinstimmen. Wenn alle im gleichen Data Warehouse zentral auf identische Daten zugreifen, besteht diese Gefahr von Unstimmigkeiten und fälschlicher Entscheidungsgrundlagen nicht.
Einerseits liefert das Data Warehouse vordefinierte Standardberichte und andererseits ist es möglich Ad-hoc-Berichte zu generieren. Dabei können praktisch auf Knopfdruck personalisierte Berichte erstellt werden, die auf das aktuelle Informationsbedürfnis zugeschnitten sind (Müller & Lenz, 2013, S. 12). Es wird in diesem Zusammenhang von bedarfsorientierter Informationsverfügbarkeit gespro-chen (vgl. [[Self-Service Business Intelligence]]). Das ist eine wichtige Entwicklung, denn als ein zentraler Erfolgsfaktor der Zukunft gilt es, beliebige Daten kontextbasiert und in Echtzeit zur Verfü-gung zu haben (Leyk et al., 2017, S. 58).
== Datenschutz und Datensicherheit ==
Die beiden Begriffe Datenschutz und Datensicherheit bewegen sich zwar in einem ähnlichen Um-feld, müssen jedoch voneinander abgegrenzt werden (Bühler et al., 2019, S. 80). Beim Datenschutz geht es darum, die persönlichen Daten der Menschen zu schützen. Die unzähligen Daten (vgl. [[Big Data]]), welche täglich im Internet kursieren, beinhalten persönliche Daten der Menschen. Unter-nehmen regeln den Gebrauch von persönlichen Daten häufig in den allgemeinen Geschäfts- oder Nutzungsbedingungen. Es gibt aber für jede Person das Recht auf Auskunft zu den eigenen persön-lichen Kundendaten. Ebenfalls kann deren Löschung beantragt werden (Bühler et al., 2019, S. 81). Weil bei einem Verstoss gegen Richtlinien des Datenschutzes empfindliche Strafen ausgesprochen werden, ist es für ein Unternehmen sehr wichtig, die geltenden Bestimmungen zu kennen. Ein dafür vorgesehenes Risiko-Management sollte die im Unternehmen geltenden Prozesse und Abläufe im Zusammenhang mit Daten laufend überprüfen und auf Veränderungen reagieren (Possekel & Schiemann, 2017, S. 58-59).
Datensicherheit geht im Vergleich zum Datenschutz einen Schritt weiter und umfasst nicht nur persönliche Daten, sondern Daten aller Art. Datensicherheit sorgt dabei durch entsprechende Mass-nahmen dafür, dass Daten beständig sind, nicht ungewollt verändert oder gar entwendet werden (Bühler, 2019, S. 80). Die Bedeutung von Datensicherheit im Controlling nimmt laufend zu. Her-ausforderungen sind neben der Einhaltung von geltenden Richtlinien (Datenschutzbestimmungen) auch die Nachvollziehbarkeit der Datenherkunft (Bundi & Keimer, 2019, S. 65). Zur Gefährdung der Datensicherheit können verschiedene Faktoren beitragen. Nachfolgend werden diese in sieben Hauptpunkten zusammengefasst (Adam, 1995, S. 14):

Version vom 7. Mai 2021, 11:01 Uhr

Datenmanagement ist derjenige Prozess, der am meisten von der digitalen Transformation beein-flusst wird (Gleich & Tschandl, 2018, S. 73). Dies führt dazu, dass die bestehenden Produktionsfak-toren Kapital, Arbeit und Ressourcen laufend mit dem zusätzlichen Faktor Information/Wissen er-gänzt werden (Biesel & Hame, 2018, S. 24). Am Ursprung des zusätzlichen Produktionsfaktors ste-hen Big Data, welche aufgrund von sozialen Netzwerken und Internet der Dinge exponentiell Anwachsen (Göbel, 2018, S. 20). Das Datenmanagement umfasst eine grosse Bandbreite von Themen und damit verbundenen Aktivi-täten. Im weiteren Sinne sind darin Begriffe wie Data Warehouse, Business Intelligence, Business Analytics oder Data Mining enthalten. Wird die Definition enger eingegrenzt, ist das Datenmanagement die Schnittstelle zwischen der Datenerhebung und der Datenverwendung. Wich-tig in diesem Zusammenhang sind die #Datenqualität, die #Single Version of Truth sowie die Begriffe #Datenschutz und Datensicherheit (Langmann, 2019, S. 8).

Definition von Datenmanagement

Vereinfacht steht das Datenmanagement für die Handhabung von unternehmensrelevanten Stamm- und Bewegungsdaten (Langmann, 2019, S. 32). Dabei gibt es viele Daten wie beispielsweise Pro-dukt- oder Kundendaten, die aus internen Systemen gewonnen werden. Auf der anderen Seite lie-fern die Big Data eine enorme Vielfalt an strukturierten und nicht strukturierten, externen Daten (Ereth & Kemper, 2016, S. 458). Weil die Daten sich schnell verändern können, ist es wichtig, diese fortlaufend zu beschaffen, aufzubereiten und zu bereinigen. Nur so kann eine gute Qualität gewähr-leistet werden. Dieser Prozess wird als Datenmanagement bezeichnet (Langmann, 2019, S. 8).

Ziele

Übergeordnetes Ziel des Datenmanagement für das Controlling ist es, dem Management die für die Unternehmenssteuerung relevanten Informationen in hoher Qualität und inhaltlich korrekt bereitzu-stellten (Gleich & Tschandl, 2018, S. 80). Daher muss der digitale Controller verstehen, wie die Daten im Unternehmen erfasst, aggregiert und abgelegt werden, damit die Daten-aufbereitung möglichst produktiv verläuft (Egle & Keimer, 2018, S. 53). Ein optimales Datenma-nagement kommt jedoch nicht nur den Controlling-Prozessen zugute, sondern wirkt sich letztlich durch eine verbesserte Entscheidungsgrundlage auf die gesamte Unternehmenssteuerung aus (Gleich & Tschandl, 2018, S. 80-81). Mit einem sinnvoll gestaltetem Datenmanagement lassen sich geforderte Ziele auf Unternehmensebene erreichen. Planungsvorgänge werden optimiert und unter-stützen eine schnelle und sichere Entscheidungsfindung (Gondring & Wagner, 2018, S. 404-405).

Herausforderungen

Fakt ist, dass die zur Verfügung stehenden Daten exponentiell anwachsen, weshalb das Datenma-nagement einerseits von grosser Bedeutung ist, andererseits aber auch vor grosse Herausforderungen gestellt wird (Gleich & Tschandl, 2018, S. 81). Die folgenden fünf Faktoren sind für Unternehmen die relevantesten Herausforderungen im Bereich Datenmanagement (Otto & Österle, 2016, S. 17-19):

  • Datenqualität
  • Transparenz über Datennutzung
  • Redundante Datenpflege
  • Manuelle Datenpflege
  • Limitationen zentraler Datenarchitekturen

Umsetzung und Nutzen

Bei der immensen Datenmenge ist es wichtig, Transparenz im Datenbestand und in den Datenquel-len zu wahren. Damit ein effektives Arbeiten mit Daten möglich ist, müssen klare Prozesse und Verantwortlichkeiten festgelegt werden. Das Data Warehouse dient als zentrale Stelle, wo die gesammelten und bereinigten Daten hinterlegt sind (Biesel & Hame, 2018, S. 27). Von hier aus werden die Daten auf verschiedene Art und Weise eingesetzt und miteinander in Verbindung ge-bracht. Häufig steht die Datennutzung im Zusammenhang mit Business Intelligence und Business Analytics. Business Intelligence beschreibt dabei Aktivitäten zur Integration, Transformation und qualitativen Verbesserung sowie statischen Analysen der Daten (Müller & Lenz, 2013, S. 3). Busi-ness Analytics ist ergänzend zu Business Intelligence, um Zukunftsvoraussagen und Handlungs-empfehlungen zu generieren (Derwisch et al., 2016, S. 480). Die Abbildung 1 zeigt den Zusammen-hang von den Rohdaten, über das Data Warehouse und Datenmanagement bis zu Business Intelli-gence und Business Analytics.

Datei:Datenmanagement als Schnittstelle Langmann2019.png
Abb. 1: Datenma-nagement als Schnittstelle zwischen Rohdaten und Business Analytics (Langmann, 2019, S. 8)

Für das Controlling bedeutet der Prozess Datenmanagement, dem Management die benötigten In-formationen für Entscheidungs- und Planungsprozesse situationsgerecht zur Verfügung zu stellen (Inmon, 1996, S. 33, zit. in Müller & Lenz, 2013, S. 14). Weil die gelieferten Daten für die Unter-nehmenssteuerung von zentraler Bedeutung sind, müssen sie inhaltlich korrekt und in hoher Quali-tät verarbeitet sein. In einer ersten Phase muss die Komplexität der Daten reduziert werden, um das Verständnis zu erleichtern. Das wiederum muss regelmässig kontrolliert werden, damit Handlungs-bedarf frühzeitig erkannt wird (Gleich & Tschandl, 2018, S. 80-81). Die Abbildung 2 zeigt den Pro-zess Datenmanagement im Controlling. Es handelt sich um eine schematische Darstellung von links nach rechts. Beim Prozessanfang wird die Ausgangslage definiert und mittels Input bestimmt, wel-che Mittel vorhanden sind. Die verschiedenen Teilprozesse werden anschliessend aufeinander abge-stimmt und sollen die im Prozessende definierten Punkte erfüllen. Eine Messung kann anhand der realisierten Outputs erfolgen. Der Prozess wird laufend wiederholt und überarbeitet (Möller & Illich-Edlinger, 2018, S. 57).

Datei:Controlling-Prozess Datenmanagement Gleich&Tschandl2018.png
Abb. 2: Schematische Darstellung vom Controlling-Prozess Datenmanagement (Möller & Illich-Edlinger, 2018, S. 57)

Datenqualität

Damit die genannten Instrumente wie Business Intelligence und Analytics in einem Unternehmen gewinnbringend eingesetzt werden können, müssen die verwendeten Daten eine gute Qualität aufweisen (Klier & Heinrich, 2016, S. 488). Mit Datenqualität ist die Eignung von Daten für eine bestimmte Nutzung bei vorgegebenen Verwendungszielen gemeint. Die Qualität hängt also davon ab, welche Qualitätseigenschaften den Daten zugeordnet werden. Wichtig ist dabei der beabsichtigte Anwendungskontext (Müller & Lenz, 2013, S. 38). Die Datenqualität kann nur beurteilt werden, wenn sie messbar ist (Otto & Legner, 2016, S. 552). Es gibt vier Hauptkriterien, nach welchen die Daten qualifiziert werden (Müller & Lenz, 2013, S. 38–40):

Die Datenqualität kann ebenfalls aus einem anderen Blickwinkel betrachtet werden. Es werden dabei die Perspektiven der Design- und Konformitätsqualität unterschieden. Die Abbildung 3 stellt die beiden Qualitätskomponenten in einer Übersicht dar (Klier & Heinrich, 2016, S. 489).
Datei:Datelqualitaetsperspektiven Klier&Heinrich2016.png
Abb. 3: Die Datenqua-litätsperspektiven (Klier & Heinrich, 2016, S. 489)

Die Designqualität beschreibt, inwiefern die nachgefragten Daten durch die spezifizierten Daten abgedeckt werden. Ein Beispiel der Designqualität ist, inwiefern alle Serviceauftragsattribute, welche die geplante Datenanalyse zur Unterstützung des Serviceauftragsmanagements benötigt werden (z.B. Servicestatus, Servicetyp, Auftraggeber), im Datenschema des Informationssystems tatsächlich erfasst sind. Die Designqualität wird gemessen, indem auf Informationsbedarfsanalysen und Befra-gungen der Datenanwender zurückgegriffen wird (Klier & Heinrich, 2016, S. 489). Die Konformitätsqualität hingegen beschreibt, inwiefern die vorhandenen Daten und die zugehöri-gen Realweltausprägungen aufeinander abgestimmt sind. Ein Beispiel dafür ist, ob die gespeicherten Serviceauftragsdaten mit den tatsächlichen Auftragsdaten übereinstimmen. Die Beurteilung der Konformitätsqualität erfolgt durch verschiedene Datenqualitätsmerkmale. Datenqualitätsmerkmale sind beispielsweise Korrektheit, Vollständigkeit oder Aktualität. Im Fokus liegt das Datenqualitäts-merkmal Aktualität. Mit Aktualität ist gemeint, dass die gespeicherten Datenwerte nach wie vor der Realwelt entsprechen und nicht veraltet sind. Aus betriebswirtschaftlicher Perspektive ist das hoch relevant (Klier & Heinrich, 2016, S. 489-490). Für die Überprüfung der Qualitätsmessung empfiehlt sich ein Datenqualitätsmanagement in einer unternehmensweiten Perspektive. Ein ganzheitliches Modell mit einer langfristigen Orientierung wird dem gerecht. In der Abbildung 4 wird das CDQ-Modell als ein mögliches Beispiel dargestellt. Die Zeilen der Matrix bilden die drei Ebenen des Business Engineering (Strategie, Organisation und Informationssystem-Architektur). Ausserdem wird die Governance und Realisierung getrennt. Die eng miteinander verbundenen Verfahren werden in einem Steuerungskreislauf angeordnet (Baumöl & Meschke, 2009, S. 64–65).

Datei:CDQ-Modell Baumöl&Meschke2009.png
Abb. 4: CDQ-Modell (Baumöl & Meschke, 2009, S. 64)

Single Version of Truth

Datenqualitätsprobleme entstehen häufig dann, wenn nicht klar definiert ist, wo die Daten gespei-chert sind oder es gar mehrere Dokumenten- oder Datenversionen gibt (Otto & Legner, 2016, S. 553). Wie schon erwähnt, ist das Data Warehouse die zentrale Stelle, um Daten zu sammeln. Wichtig ist zu verstehen, dass es sich um eine anwendungsübergreifende und integrierte Datenhal-tungskomponente handelt (Ereth & Kemper, 2016, S. 459). Die Daten aus den verschiedenen Quel-lensystemen werden im Data Warehouse vereint und stehen zur Verfügung. Es handelt sich um das Herzstück eines Unternehmens. Unabhängig von Zeit, Arbeitsort oder Funktion kann zentral auf die benötigten Unternehmensdaten zugegriffen werden. Es gibt also eine „Single Version of Truth“ (nachfolgend SVOT) (Kemper et al., 2010, S. 226-227). Das Ziel einer SVOT besteht darin, die ein-zig richtige Version von ausgewerteten Daten zu erhalten, welche als Entscheidungsgrundlage die-nen (Bundi & Keimer, 2009, S. 64-65). Es soll verhindert werden, dass beispielsweise Produktdaten aus verschiedenen Systemen eines Unternehmens nicht übereinstimmen. Wenn alle im gleichen Data Warehouse zentral auf identische Daten zugreifen, besteht diese Gefahr von Unstimmigkeiten und fälschlicher Entscheidungsgrundlagen nicht. Einerseits liefert das Data Warehouse vordefinierte Standardberichte und andererseits ist es möglich Ad-hoc-Berichte zu generieren. Dabei können praktisch auf Knopfdruck personalisierte Berichte erstellt werden, die auf das aktuelle Informationsbedürfnis zugeschnitten sind (Müller & Lenz, 2013, S. 12). Es wird in diesem Zusammenhang von bedarfsorientierter Informationsverfügbarkeit gespro-chen (vgl. Self-Service Business Intelligence). Das ist eine wichtige Entwicklung, denn als ein zentraler Erfolgsfaktor der Zukunft gilt es, beliebige Daten kontextbasiert und in Echtzeit zur Verfü-gung zu haben (Leyk et al., 2017, S. 58).

Datenschutz und Datensicherheit

Die beiden Begriffe Datenschutz und Datensicherheit bewegen sich zwar in einem ähnlichen Um-feld, müssen jedoch voneinander abgegrenzt werden (Bühler et al., 2019, S. 80). Beim Datenschutz geht es darum, die persönlichen Daten der Menschen zu schützen. Die unzähligen Daten (vgl. Big Data), welche täglich im Internet kursieren, beinhalten persönliche Daten der Menschen. Unter-nehmen regeln den Gebrauch von persönlichen Daten häufig in den allgemeinen Geschäfts- oder Nutzungsbedingungen. Es gibt aber für jede Person das Recht auf Auskunft zu den eigenen persön-lichen Kundendaten. Ebenfalls kann deren Löschung beantragt werden (Bühler et al., 2019, S. 81). Weil bei einem Verstoss gegen Richtlinien des Datenschutzes empfindliche Strafen ausgesprochen werden, ist es für ein Unternehmen sehr wichtig, die geltenden Bestimmungen zu kennen. Ein dafür vorgesehenes Risiko-Management sollte die im Unternehmen geltenden Prozesse und Abläufe im Zusammenhang mit Daten laufend überprüfen und auf Veränderungen reagieren (Possekel & Schiemann, 2017, S. 58-59). Datensicherheit geht im Vergleich zum Datenschutz einen Schritt weiter und umfasst nicht nur persönliche Daten, sondern Daten aller Art. Datensicherheit sorgt dabei durch entsprechende Mass-nahmen dafür, dass Daten beständig sind, nicht ungewollt verändert oder gar entwendet werden (Bühler, 2019, S. 80). Die Bedeutung von Datensicherheit im Controlling nimmt laufend zu. Her-ausforderungen sind neben der Einhaltung von geltenden Richtlinien (Datenschutzbestimmungen) auch die Nachvollziehbarkeit der Datenherkunft (Bundi & Keimer, 2019, S. 65). Zur Gefährdung der Datensicherheit können verschiedene Faktoren beitragen. Nachfolgend werden diese in sieben Hauptpunkten zusammengefasst (Adam, 1995, S. 14):

Qualitätsmerkmal Beschreibung
Glaubwürdigkeit Bei der Glaubwürdigkeit geht es darum zu beurteilen, ob die Daten korrekt und konsistent sind. Zudem ist es wichtig zu überprüfen, ob die Daten zuverlässig sind.
Nützlichkeit Damit Daten für ein Unternehmen nützlich sind, müssen sie vollstän-dig, genau und relevant sein. Hinzu kommt, dass die Daten zeitnah erhoben und eingesetzt werden. Mehrspurige Erhebungen derselben Daten sind zu vermeiden.
Interpretierbarkeit In Bezug auf die Weiterverarbeitung der Daten ist es wichtig zu über-prüfen, ob die Daten einheitlich sind und eindeutig als bestimmte Da-ten identifiziert werden können.
Schlüsselintegrität Bei der Schlüsselintegrität geht es darum, dass die Daten untereinander verbunden werden können. Dafür darf es keine doppelten Daten geben. So ist es zentral, dass eine Bank beispielsweise nur einmal die gleiche Kontonummer vergibt.