In-Memory Computing: Unterschied zwischen den Versionen

Aus Controlling-Wiki
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(26 dazwischenliegende Versionen von 5 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Der Unterschied zur „klassischen“ Datenverarbeitung besteht darin, dass mit der In-Memory-Technologie die Daten nicht von einer Festplatte abgerufen und zur weiteren Bearbeitung in den Arbeitsspeicher geladen werden, sondern sämtliche Daten zur Bearbeitung im Arbeitsspeicher verbleiben (Matt, 2012, S. 229). Durch diese Technologie können die Funktionen von Rechnungswesen und Controlling auf einem redundanzfreien Datenbestand aufbauen. Zusammen mit der beschleunigten Verarbeitung werden damit neue betriebswirtschaftliche Anwendungen in den Controlling-Prozessen (z. B. Planung und Simulation) ermöglicht (Sinzig, 2016, S. 236).
{{Geprueft|+}}
 
Die zunehmende Digitalisierung des Unternehmensalltags und der Gesellschaft verlangt nach höherer Rechenleistung und Speicherkapazität (Leyh & Wendt, 2018, S. 9). Aus technischer Perspektive spielt hierfür In-Memory Computing eine zentrale Rolle. Dank der Verwendung dieser Technologie können die Daten weitaus schneller verarbeitet werden als mit traditionellen Datenbanksystemen (Loos et al., 2011, S. 383). Die In-Memory Technologie unterscheidet sich gegenüber klassischen Datenverarbeitungen darin, dass die Daten nicht von einem Sekundärspeicher (z.B. Festplatten) abgerufen und für die Bearbeitungen in den Arbeitsspeicher (Primärspeicher) geladen werden müssen. Sämtliche Daten verbleiben für die Bearbeitung im Arbeitsspeicher des Computers (Matt, 2012, S. 229). Für das Controlling bietet es die Möglichkeit zur Verbesserung von Arbeitsergebnissen hinsichtlich Funktionalität, Effizienz (z.B. Vereinfachung, Beschleunigung) und Qualität (Sinzing, 2015, S. 236).
 
== Definition ==
[[Datei:Traditional Architecture vs. In-Memory Architecture.png|200px|miniatur| Abb. 1: Traditional Architecture vs. In-Memory Architecture (Shirinzadeh & Drechsler, 2020, S. 2)]]
 
Die Idee, Daten im Arbeitsspeicher zu belassen und von dort weiter zu verarbeiten, stammt aus den 90er-Jahren (Matt, 2012, S. 229). Die letzten Jahre haben Hard- und Softwareinnovationen hervorgebracht (z.B. Entwicklung von 64 Bit-Prozessoren oder Verwendung von neuen Multi-Core-Prozessoren), die In-Memory Computing überhaupt ermöglichen (Sinzing, 2015, S. 236).
 
IT-Systeme müssen flexibel und effizient sein. Erfolgsrelevante Operationen wie Bestandes-Analysen und Bedarfsvorhersagen müssen mitunter kurzfristig durchgeführt werden können. Gleichzeitig wird eine immer grösser werdende Datenmenge generiert, welche einerseits mit vorhandenen Datenbeständen verknüpft und andererseits verarbeitet werden muss (Matt, 2012, S. 229). In-Memory Computing stellt die nötige Infrastruktur zur analytischen Verarbeitung der stark zugenommenen Datenmengen bereit. Komplexe Modelle können deutlich schneller kalkuliert werden. Dadurch können Planinformationen in Echtzeit überprüft und analysiert werden (Dillerup et al., 2019, S. 49).
 
Alle Datenverarbeitungsprozesse sowie Funktionen, um Daten aufzurufen und zu speichern werden in den schnellen Hauptspeicher eines Computers verlagert. Dadurch können zeitaufwendige Zwischenspeicherungen in externen Speichermedien vermieden werden (Langer & Neugebauer, 2020, S. 329 & 330). Wie in Abbildung 1 dargestellt, ist bei der klassischen von-Neumann-Architektur der Primär- und Sekundärspeicher getrennt. Die In-Memory Architektur hebt diese Trennung auf, sodass die Zugriffszeit auf die gespeicherten Daten im Primärspeicher um das 20-fache schneller ist (Shirinzadeh & Drechsler, 2020, S. 1-2).
 
== In-Memory Computing im Controlling ==
In der Transformation von [[Big Data| Big Data]] zu Smart Data spielt das In-Memory Computing eine zentrale Rolle und ist eine Schlüsseltechnologie im Datenbank-Management. [[Big Data| Big Data]] und In-Memory Computing sind komplementäre Technologien, deren volles Potenzial erst durch den kombinierten Einsatz ausgeschöpft werden kann. Das In-Memory Computing liefert die nötige Infrastruktur, um die stark gestiegenen Datenmengen zu verarbeiten. Hinzu kommt, dass die Datenverarbeitungszeiten stark abnehmen. Somit sind im Controlling die Validierung und interaktive Analysen von Planinformationen in Echtzeit möglich. Im Weiteren können Wirkungszusammenhänge erforscht und verschiedene Szenarien simuliert werden (Dillerup et al., 2019, S. 49).
 
=== Chancen ===
Das In-Memory Computing ermöglicht deutlich verbesserte Antwortzeiten aller Systemen. Für das Controlling entstehen folgende Verbesserungen für die Planung, Simulation und Entscheidungsunterstützung:
 
* '''Beschleunigung der planerischen Arbeit dank schnellerer Verfügbarkeit der Daten: '''In-Memory Computing ermöglicht eine schnellere Berechnungszeit der Daten. Im Schnitt können die Daten 10- bis 100-mal schneller verarbeitet werden als mit bisherigen Mitteln. Die verkürzte Berechnungszeit ermöglicht es, deutlich mehr Berechnungen innerhalb eines gewissen Zeitraums durchzuführen (Matt, 2012, S. 230). Zudem kann dank den verbesserten und kürzeren Antwortzeiten die planerische Arbeit der einzelnen Mitarbeiter beschleunigt werden. So können zum Beispiel Simulationen von Änderungen in der Produkt- und Vertriebsstruktur wesentlich schneller durchgeführt werden. Allfällige Optimierungspotenziale können schneller erkannt und dann auch umgesetzt werden (Sinzig & Sharma, 2011, S. 22-23).
 
* '''Prozessoptimierung der Planungen: '''Die Prozesse der Jahres-, Quartals- und Monatsplanung sind in den Unternehmen oftmals sehr zeit- und ressourcenaufwendig. Mithilfe vom In-Memory Computing können diese Prozesse verkürzt werden, da abteilungsübergreifende Modelle erstellt werden können. Unstimmigkeiten können dank Real-Time-Simulation schnell gemeinsam diskutiert und behoben werden (Sinzig & Sharma, 2011, S. 22-23).  
 
* '''Bessere Entscheidungsunterstützung dank realitätsgetreueren Planergebnissen: '''Mit dem Konzept treiberbasierter Modelle lassen sich Ursache-Wirkungs-Zusammenhänge mit Einsatz von internen und externen Daten berechnen. Beispielsweise können Einflussfaktoren wie Rohstoffpreise oder Wechselkurse in die Planung miteinbezogen werden (Sinzig 2015, S. 240-241). Zudem können zahlreiche Alternativen durchgerechnet und aufgezeigt werden. Diese Möglichkeiten haben zur Folge, dass die Planergebnisse deutlich stärker der Realität entsprechen und somit wirklichkeitsnähere Planergebnisse erzielt werden. Dank diesen realitätsgetreueren Planergebnissen können Entscheidungen leichter und besser gefällt werden (Sinzig & Sharma, 2011, S. 22-23).
 
* '''[[Datenmanagement|Konsistenz der Daten]]: '''Mit der herkömmlichen Architektur werden Daten aus verschiedenen Quellen separat gespeichert. Daher können Begrifflichkeiten sowie die Daten selbst voneinander abweichen. Oft werden zur Erklärung dieser Abweichungen periodische Abstimmreports erzeugt, deren Ergebnisse häufig manuell überprüft werden. Beim Planen, Entscheiden und Kontrollieren in der Unternehmensführung müssen die Beteiligten häufig die Semantik und die Quellen der Daten erklären, bevor die inhaltliche Arbeit beginnt (Sinzig 2015, S. 239). Das In-Memory Computing hebt diese Differenzen auf und gewährleistet konsistente Daten und schafft mehr Datentransparenz. Beim In-Memory Computing können strukturierte und unstrukturierte Daten aus verschiedenen Einzelsystemen einfacher gemeinsam analysiert werden. Vorgängig muss keine Aggregation der einzelnen Daten vorgenommen werden. Zudem kann die Datenqualität auch dadurch erhöht werden, da für gewisse Berechnungen oder Auswertungen auf Stichproben verzichtet und der gesamte Datenbestand zur Berechnung verwendet werden kann (Matt, 2012, S. 230).
 
* '''Umfangreichere Modelle: '''Ein weiterer grosser Vorteil ist, dass sich mit dieser Technologie umfangreichere Modelle betrachten lassen. Die Modelle können viel detaillierter ausgestaltet werden. Zudem können neue, weitere Informationen in bestehende Modelle hinzugefügt werden (Sinzig & Sharma, 2011, S. 22-23).
 
=== Herausforderungen ===
Der Einsatz von In-Memory Computing bringt grosse Vorteile mit sich. Doch diese Technologie stellt das Unternehmen, aber auch das Controlling vor einige Herausforderungen, welche in diesem Kapitel aufgezeigt werden:
 
* '''Abhängigkeit von Know-how-Träger und externen Partnern: '''Bei der Umsetzung in der Praxis müssen genaue Kenntnisse über die Technologie und die entsprechende Architektur der Anwendung vorhanden sein. So lassen sich die Zeitgewinne realisieren, welche von den Anbietern dieser Technologie ausgewiesen werden. Die Unternehmen erhöhen die Abhängigkeit zu bestimmten Softwareanbieter, da die Produkte als Appliances (Verschmelzung von Hard- und Software) angeboten werden (Knabke & Olbrich, 2016, S. 201).
 
* '''Aufwendige Einführungsphase: '''Vor allem bei der Einführung ist mit einem höheren Aufwand zu rechnen, bis die Mitarbeitenden diese Anwendungen beherrschen und anwenden können. Dieser Punkt muss beim Entscheid, ob zum In-Memory Computing gewechselt werden sollte, unbedingt berücksichtigt werden (Knabke & Olbrich, 2016, S. 201). Bei einer [[Investitionsrechnung| Investitionsrechnung]] müsste die aufwendige Einführungsphase berücksichtigt werden.
 
* '''Datenschutz: '''Eine weitere Herausforderung stellt der Aspekt des Datenschutzes dar. Insbesondere bei sensiblen und vertraulichen Daten der Unternehmung ist darauf zu achten, dass der IT-Dienstleister sorgfältig mit diesen umgeht. Dieser Punkt unterstreicht die Wichtigkeit einer sorgfältigen Auswahl des Anbieters (Matt, 2012, S. 230).
 
=== Aktuelle Verbreitung in der Praxis ===
Der Grossteil der befragten Unternehmen in der Studie von Keimer et al. (2018) verfügen im Controlling über ein ERP-System inklusive einer [[Business Intelligence| Business Intelligence-Lösung]]. Die Unternehmen müssen nun abwägen, ob sie eine nächste digitale Stufe anstreben. In-Memory-Technologien werden bisher kaum im Controlling eingesetzt. 49% der befragten Unternehmen gaben an, dass sie keine In-Memory-Daten einsetzen. Lediglich 7% gaben an, dass sie diese Technologie stark anwenden (S. 31 & 65). Somit ist diese Technologie in der Praxis im Controlling noch nicht sehr verbreitet und hat noch Aufholpotenzial.
 
== Kritische Würdigung ==
Die Unternehmen müssen prüfen, ob für sie eine Notwendigkeit besteht, In-Memory Computing im Unternehmen einzusetzen. Hierbei sollte vor allem abgeklärt werden, ob diese Technologien Veränderungen von Unternehmensprozessen ermöglichen. Grundsätzlich ist der Einsatz von In-Memory Computing dann zweckmässig, wenn es innerhalb vom Unternehmen eine hohe Anzahl an zeitkritischen Operationen und Prozessen gibt. Bei nicht zeitkritischen Anwendungen, bei denen die aktuellen IT-Systeme die Leistungsgrenzen nicht ausschöpfen, kann eine Umstellung auf In-Memory Computing aufgrund der damit verbundenen Schwierigkeiten und Kosten nicht empfehlenswert sein. Hinzu kommt der Aspekt des Datenschutzes. Vor allem bei sensiblen und vertraulichen Unternehmensdaten ist ein sorgfältiger Umgang des IT-Dienstleisters mit den Daten sicherzustellen. Deshalb ist die Auswahl des IT-Dienstleisters sehr sorgfältig zu prüfen (Matt, 2012, S. 230).
 
== Lern- und Praxismaterialien ==
{| class="wikitable"
|-
! Fallstudien
|-
|
* [[Detailhandel-Unternehmen Muster AG – Produktumsätze in einer Heat-Map]]
* [[American Airlines – Anwendung des In-Memory Computing]]
|}


== Quellen ==
== Quellen ==
Zeile 5: Zeile 57:
=== Literaturverzeichnis ===
=== Literaturverzeichnis ===


* Matt, C. (2012). [https://elearning.hslu.ch/ilias/goto.php?target=file_3939475_download&client_id=hslu In-Memory-Technologien für Unternehmensanwendungen.] Controlling & Management, 56 (4), S. 229-230.
* Dillerup, R., Witzemann, T., Schacht, S., & Schaller, L. (2019). [https://doi.org/10.1007/s12176-019-0011-z Planung im digitalen Zeitalter. Controlling & Management Review], 63, 46-53.
* Sinzig, W. (2015). [https://elearning.hslu.ch/ilias/goto.php?target=file_3939477_download&client_id=hslu In-memory Technik für Rechnungswesen und Controlling.] Controlling, 27 (4-5), S. 236-241.
* Keimer, I., Gisler, M., Bundi, M., Egle, U., Zorn, M., Kosbah, M.et al. (2018). [https://elearning.hslu.ch/ilias/goto.php?target=file_4970332_download&client_id=hslu Wie digital ist das Schweizer Controlling? Eine schweizweite Analyse auf Basis eines Reifegradmodell.] Hochschule Luzern.
* Knabke, T., & Olbrich, S. (2016). Grundlagen und Einsatzpotentiale von In-Memory-Datenbanken. In P. Gluchowski & P. Chamoni (Hrsg.). [https://link.springer.com/book/10.1007%2F978-3-662-47763-2 Analytische Informationssysteme: Business Intelligence-Technologien und -Anwendungen (5. völlig überarb. Aufl.) (S. 187-203).] Springer Gabler.
* Langer, A., & Neugebauer, L. (2020). Einsatz smarter Technologien bei grossen Infrastruktur- und Energieprojekten. In I. Keimer & U. Egle (Hrsg.). [https://link.springer.com/book/10.1007%2F978-3-658-29196-9 Die Digitalisierung der Controlling-Funktion: Anwendungsbeispiele aus Theorie und Praxis (S. 323-347).] Springer Gabler.
* Leyh, C., Wendt, T. (2018). [https://doi.org/10.1365/s40702-017-0389-z Enterprise Systems als Basis der Unternehmens-Digitalisierung]. HMD, 55, 9-24.
* Loos, P., Lechtenbörger, J., Vossen, G., Zeier, A., Krüger, J., Müller, J., & et al. (2011). [https://doi.org/10.1007/s11576-011-0296-9 In-Memory-Datenmanagement in betrieblichen Anwendungssystemen]. Wirtschaftsinformatik, 53, 383-390.
* Matt, C. (2012). [https://doi.org/10.1365/s12176-012-0394-6 In-Memory-Technologien für Unternehmensanwendungen. Controlling & Management], 56, 229-230.
* Shirinzadeh, S., & Drechsler, R. (2020). [https://link.springer.com/book/10.1007%2F978-3-030-18026-3 In-Memory Computing: Synthesis and Optimization]. Springer.
* Sinzig, W. (2015). [https://doi.org/10.15358/0935-0381-2015-4-5-236 In-memory Technik für Rechnungswesen und Controlling]. Controlling, 27(4-5), 236-241.
* Sinzig, W., & Sharma, K. (2011). [https://doi.org/10.1365/s35764-011-0022-9 In-Memory-Technologie: Verbesserungen bei Planung, Simulation und Entscheidungsunterstützung. Wirtschaftsinformatik & Management], 3, 18-23.


=== Weiterführende Literatur ===
=== Weiterführende Literatur ===


* Koss, R. (2016). [https://elearning.hslu.ch/ilias/goto.php?target=file_3939476_download&client_id=hslu Ein Reifegradmodell für das digitale Controlling.] Controlling & Management Review, 60 (6), S. 32-39.
* Koss, R. (2016). [https://elearning.hslu.ch/ilias/goto.php?target=file_3939476_download&client_id=hslu Ein Reifegradmodell für das digitale Controlling.] Controlling & Management Review, 60 (6), S. 32-39.
* Sinzig, W. & Sharma, K. R. (2011). [https://elearning.hslu.ch/ilias/goto.php?target=file_3939474_download&client_id=hslu In-Memory-Technologie: Verbesserungen bei Planung, Simulation und Entscheidungsunterstützung.] Wirtschaftsinformatik & Management, 3 (2), S. 18-23.
* Plattner, H. (2014). [https://link.springer.com/book/10.1007%2F978-3-642-55270-0 A Course in In-Memory Data Management: The Inner Mechanics of In-Memory Databases (2. Aufl.)]. Springer.
* Plattner, H., & Zeier, A. (2012). [https://link.springer.com/book/10.1007/978-3-642-29575-1 In-Memory Data Management: Technology and Applications (2. Aufl.)]. Springer.
* Uflacker, M., Schlosser, R., & Meinel, C. (2017). Ertragsmanagement im Wandel – Potentiale der In-Memory Technologie. In R. Gläss & B. Leukert (Hrsg.). [https://link.springer.com/book/10.1007%2F978-3-662-53332-1 Handel 4.0: Die Digitalisierung des Handels - Strategien, Technologien, Transformation (S. 177-188).] Springer Gabler.
 
== Autoren ==
 
Zorana Ivljanin, Dominic Lukas Hüsing, Ramon Kessler, Pedro Goncalves


[[Kategorie:Daten und Technologien]]
[[Kategorie:Daten und Technologien]]
[[Kategorie:Digital Controlling]]
[[Kategorie:Digital Controlling]]

Aktuelle Version vom 1. Oktober 2022, 14:51 Uhr

Geprüft: Positiv beurteilt

Die zunehmende Digitalisierung des Unternehmensalltags und der Gesellschaft verlangt nach höherer Rechenleistung und Speicherkapazität (Leyh & Wendt, 2018, S. 9). Aus technischer Perspektive spielt hierfür In-Memory Computing eine zentrale Rolle. Dank der Verwendung dieser Technologie können die Daten weitaus schneller verarbeitet werden als mit traditionellen Datenbanksystemen (Loos et al., 2011, S. 383). Die In-Memory Technologie unterscheidet sich gegenüber klassischen Datenverarbeitungen darin, dass die Daten nicht von einem Sekundärspeicher (z.B. Festplatten) abgerufen und für die Bearbeitungen in den Arbeitsspeicher (Primärspeicher) geladen werden müssen. Sämtliche Daten verbleiben für die Bearbeitung im Arbeitsspeicher des Computers (Matt, 2012, S. 229). Für das Controlling bietet es die Möglichkeit zur Verbesserung von Arbeitsergebnissen hinsichtlich Funktionalität, Effizienz (z.B. Vereinfachung, Beschleunigung) und Qualität (Sinzing, 2015, S. 236).

Definition

Abb. 1: Traditional Architecture vs. In-Memory Architecture (Shirinzadeh & Drechsler, 2020, S. 2)

Die Idee, Daten im Arbeitsspeicher zu belassen und von dort weiter zu verarbeiten, stammt aus den 90er-Jahren (Matt, 2012, S. 229). Die letzten Jahre haben Hard- und Softwareinnovationen hervorgebracht (z.B. Entwicklung von 64 Bit-Prozessoren oder Verwendung von neuen Multi-Core-Prozessoren), die In-Memory Computing überhaupt ermöglichen (Sinzing, 2015, S. 236).

IT-Systeme müssen flexibel und effizient sein. Erfolgsrelevante Operationen wie Bestandes-Analysen und Bedarfsvorhersagen müssen mitunter kurzfristig durchgeführt werden können. Gleichzeitig wird eine immer grösser werdende Datenmenge generiert, welche einerseits mit vorhandenen Datenbeständen verknüpft und andererseits verarbeitet werden muss (Matt, 2012, S. 229). In-Memory Computing stellt die nötige Infrastruktur zur analytischen Verarbeitung der stark zugenommenen Datenmengen bereit. Komplexe Modelle können deutlich schneller kalkuliert werden. Dadurch können Planinformationen in Echtzeit überprüft und analysiert werden (Dillerup et al., 2019, S. 49).

Alle Datenverarbeitungsprozesse sowie Funktionen, um Daten aufzurufen und zu speichern werden in den schnellen Hauptspeicher eines Computers verlagert. Dadurch können zeitaufwendige Zwischenspeicherungen in externen Speichermedien vermieden werden (Langer & Neugebauer, 2020, S. 329 & 330). Wie in Abbildung 1 dargestellt, ist bei der klassischen von-Neumann-Architektur der Primär- und Sekundärspeicher getrennt. Die In-Memory Architektur hebt diese Trennung auf, sodass die Zugriffszeit auf die gespeicherten Daten im Primärspeicher um das 20-fache schneller ist (Shirinzadeh & Drechsler, 2020, S. 1-2).

In-Memory Computing im Controlling

In der Transformation von Big Data zu Smart Data spielt das In-Memory Computing eine zentrale Rolle und ist eine Schlüsseltechnologie im Datenbank-Management. Big Data und In-Memory Computing sind komplementäre Technologien, deren volles Potenzial erst durch den kombinierten Einsatz ausgeschöpft werden kann. Das In-Memory Computing liefert die nötige Infrastruktur, um die stark gestiegenen Datenmengen zu verarbeiten. Hinzu kommt, dass die Datenverarbeitungszeiten stark abnehmen. Somit sind im Controlling die Validierung und interaktive Analysen von Planinformationen in Echtzeit möglich. Im Weiteren können Wirkungszusammenhänge erforscht und verschiedene Szenarien simuliert werden (Dillerup et al., 2019, S. 49).

Chancen

Das In-Memory Computing ermöglicht deutlich verbesserte Antwortzeiten aller Systemen. Für das Controlling entstehen folgende Verbesserungen für die Planung, Simulation und Entscheidungsunterstützung:

  • Beschleunigung der planerischen Arbeit dank schnellerer Verfügbarkeit der Daten: In-Memory Computing ermöglicht eine schnellere Berechnungszeit der Daten. Im Schnitt können die Daten 10- bis 100-mal schneller verarbeitet werden als mit bisherigen Mitteln. Die verkürzte Berechnungszeit ermöglicht es, deutlich mehr Berechnungen innerhalb eines gewissen Zeitraums durchzuführen (Matt, 2012, S. 230). Zudem kann dank den verbesserten und kürzeren Antwortzeiten die planerische Arbeit der einzelnen Mitarbeiter beschleunigt werden. So können zum Beispiel Simulationen von Änderungen in der Produkt- und Vertriebsstruktur wesentlich schneller durchgeführt werden. Allfällige Optimierungspotenziale können schneller erkannt und dann auch umgesetzt werden (Sinzig & Sharma, 2011, S. 22-23).
  • Prozessoptimierung der Planungen: Die Prozesse der Jahres-, Quartals- und Monatsplanung sind in den Unternehmen oftmals sehr zeit- und ressourcenaufwendig. Mithilfe vom In-Memory Computing können diese Prozesse verkürzt werden, da abteilungsübergreifende Modelle erstellt werden können. Unstimmigkeiten können dank Real-Time-Simulation schnell gemeinsam diskutiert und behoben werden (Sinzig & Sharma, 2011, S. 22-23).
  • Bessere Entscheidungsunterstützung dank realitätsgetreueren Planergebnissen: Mit dem Konzept treiberbasierter Modelle lassen sich Ursache-Wirkungs-Zusammenhänge mit Einsatz von internen und externen Daten berechnen. Beispielsweise können Einflussfaktoren wie Rohstoffpreise oder Wechselkurse in die Planung miteinbezogen werden (Sinzig 2015, S. 240-241). Zudem können zahlreiche Alternativen durchgerechnet und aufgezeigt werden. Diese Möglichkeiten haben zur Folge, dass die Planergebnisse deutlich stärker der Realität entsprechen und somit wirklichkeitsnähere Planergebnisse erzielt werden. Dank diesen realitätsgetreueren Planergebnissen können Entscheidungen leichter und besser gefällt werden (Sinzig & Sharma, 2011, S. 22-23).
  • Konsistenz der Daten: Mit der herkömmlichen Architektur werden Daten aus verschiedenen Quellen separat gespeichert. Daher können Begrifflichkeiten sowie die Daten selbst voneinander abweichen. Oft werden zur Erklärung dieser Abweichungen periodische Abstimmreports erzeugt, deren Ergebnisse häufig manuell überprüft werden. Beim Planen, Entscheiden und Kontrollieren in der Unternehmensführung müssen die Beteiligten häufig die Semantik und die Quellen der Daten erklären, bevor die inhaltliche Arbeit beginnt (Sinzig 2015, S. 239). Das In-Memory Computing hebt diese Differenzen auf und gewährleistet konsistente Daten und schafft mehr Datentransparenz. Beim In-Memory Computing können strukturierte und unstrukturierte Daten aus verschiedenen Einzelsystemen einfacher gemeinsam analysiert werden. Vorgängig muss keine Aggregation der einzelnen Daten vorgenommen werden. Zudem kann die Datenqualität auch dadurch erhöht werden, da für gewisse Berechnungen oder Auswertungen auf Stichproben verzichtet und der gesamte Datenbestand zur Berechnung verwendet werden kann (Matt, 2012, S. 230).
  • Umfangreichere Modelle: Ein weiterer grosser Vorteil ist, dass sich mit dieser Technologie umfangreichere Modelle betrachten lassen. Die Modelle können viel detaillierter ausgestaltet werden. Zudem können neue, weitere Informationen in bestehende Modelle hinzugefügt werden (Sinzig & Sharma, 2011, S. 22-23).

Herausforderungen

Der Einsatz von In-Memory Computing bringt grosse Vorteile mit sich. Doch diese Technologie stellt das Unternehmen, aber auch das Controlling vor einige Herausforderungen, welche in diesem Kapitel aufgezeigt werden:

  • Abhängigkeit von Know-how-Träger und externen Partnern: Bei der Umsetzung in der Praxis müssen genaue Kenntnisse über die Technologie und die entsprechende Architektur der Anwendung vorhanden sein. So lassen sich die Zeitgewinne realisieren, welche von den Anbietern dieser Technologie ausgewiesen werden. Die Unternehmen erhöhen die Abhängigkeit zu bestimmten Softwareanbieter, da die Produkte als Appliances (Verschmelzung von Hard- und Software) angeboten werden (Knabke & Olbrich, 2016, S. 201).
  • Aufwendige Einführungsphase: Vor allem bei der Einführung ist mit einem höheren Aufwand zu rechnen, bis die Mitarbeitenden diese Anwendungen beherrschen und anwenden können. Dieser Punkt muss beim Entscheid, ob zum In-Memory Computing gewechselt werden sollte, unbedingt berücksichtigt werden (Knabke & Olbrich, 2016, S. 201). Bei einer Investitionsrechnung müsste die aufwendige Einführungsphase berücksichtigt werden.
  • Datenschutz: Eine weitere Herausforderung stellt der Aspekt des Datenschutzes dar. Insbesondere bei sensiblen und vertraulichen Daten der Unternehmung ist darauf zu achten, dass der IT-Dienstleister sorgfältig mit diesen umgeht. Dieser Punkt unterstreicht die Wichtigkeit einer sorgfältigen Auswahl des Anbieters (Matt, 2012, S. 230).

Aktuelle Verbreitung in der Praxis

Der Grossteil der befragten Unternehmen in der Studie von Keimer et al. (2018) verfügen im Controlling über ein ERP-System inklusive einer Business Intelligence-Lösung. Die Unternehmen müssen nun abwägen, ob sie eine nächste digitale Stufe anstreben. In-Memory-Technologien werden bisher kaum im Controlling eingesetzt. 49% der befragten Unternehmen gaben an, dass sie keine In-Memory-Daten einsetzen. Lediglich 7% gaben an, dass sie diese Technologie stark anwenden (S. 31 & 65). Somit ist diese Technologie in der Praxis im Controlling noch nicht sehr verbreitet und hat noch Aufholpotenzial.

Kritische Würdigung

Die Unternehmen müssen prüfen, ob für sie eine Notwendigkeit besteht, In-Memory Computing im Unternehmen einzusetzen. Hierbei sollte vor allem abgeklärt werden, ob diese Technologien Veränderungen von Unternehmensprozessen ermöglichen. Grundsätzlich ist der Einsatz von In-Memory Computing dann zweckmässig, wenn es innerhalb vom Unternehmen eine hohe Anzahl an zeitkritischen Operationen und Prozessen gibt. Bei nicht zeitkritischen Anwendungen, bei denen die aktuellen IT-Systeme die Leistungsgrenzen nicht ausschöpfen, kann eine Umstellung auf In-Memory Computing aufgrund der damit verbundenen Schwierigkeiten und Kosten nicht empfehlenswert sein. Hinzu kommt der Aspekt des Datenschutzes. Vor allem bei sensiblen und vertraulichen Unternehmensdaten ist ein sorgfältiger Umgang des IT-Dienstleisters mit den Daten sicherzustellen. Deshalb ist die Auswahl des IT-Dienstleisters sehr sorgfältig zu prüfen (Matt, 2012, S. 230).

Lern- und Praxismaterialien

Fallstudien

Quellen

Literaturverzeichnis

Weiterführende Literatur

Autoren

Zorana Ivljanin, Dominic Lukas Hüsing, Ramon Kessler, Pedro Goncalves