Refine
Has Fulltext
- yes (6)
Is part of the Bibliography
- yes (6)
Document Type
- Doctoral Thesis (6)
Keywords
- Absatz- und Produktionsplanung (1)
- Absatzplanung (1)
- Anpassungsfähige Organisation (1)
- Bauprojekt (1)
- Bauvorhaben (1)
- Bestandskosten (1)
- Bestandsmanagement (1)
- Business Intelligence (1)
- Business Planning (1)
- Cloud Computing (1)
Institute
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Bei der Durchführung öffentlicher Bauprojekte ist eine intensive Zusammenarbeit zwi¬schen vielen Beteiligten erforderlich: die in der Bauverwaltung des Bauherren angesiedelte Projektleitung, Bedarfsträger (z. B. Universität oder Be¬hörde), Gre-mien des Bauherrn (Kommunal-, Kreis- oder Bundesparlament), dessen Haus-haltsabteilung, Objekt- und Fachplaner (freiberuflich oder als Mitarbeiter der Bauverwaltung), Gutachter, Bauunternehmen, Lieferanten und Dienstleister, Raumordnungs-, Planfeststellungs- und Genehmigungsbehörden. Der Planungs-, Genehmigungs- und Realisationsprozess erstreckt sich meist über mehrere Jahre. Währenddessen ist ein intensiver Informations- und Kommunikationsaustausch zwischen den Beteiligten erforderlich. Baupläne, Leistungsverzeichnisse, Ange-bote, Verträge, Protokolle, Bauzeitenpläne und Rechnungen werden immer noch per E-Mail oder in Papierform ausgetauscht. Wegen der meist größeren Zahl zeit-gleich betreuter Bauprojekte führt dies bei fast allen Beteiligten regelmäßig zu einer herausfordernd großen Korrespondenz und einem als mangelhaft zu be-zeichnenden Überblick über die aktuellen Projektdaten.
Wegen der hochgradigen Interdependenz der Teilprozesse über alle Phasen hin-weg sind aber eine möglichst reibungslose Koordination und die ständige Verfüg-barkeit aktueller Daten bei allen Beteiligten unabdingbare Voraussetzungen, um eine Baumaßnahme zügig und im vorgesehenen Kostenrahmen auszuführen. Während Datenaustausch und Koordination bei großen gewerblichen Bauprojek-ten bereits mit Erfolg durch virtuelle Projekträume unterstützt werden, sind die öffentlichen Bauverwaltungen hier noch zögerlich. Die Erstellung eines einheitli-chen und prozessübergreifenden Datenmodells speziell für die Abläufe öffentli-cher Auftraggeber als Ziel der Arbeit könnte helfen, die Vorteile eines zentralen, für alle Beteiligten zugänglichen Datenbestandes auch für die Bauverwaltungen und ihre Projekte nutzbar zu machen und vormals getrennt gehaltene Datenbe-stände zu einem einzigen zusammenzuführen (Datenintegration). Die gründliche Analyse der Abläufe und Informationsflüsse zwischen den Beteiligten über alle Phasen eines öffentlichen Bauprojekts hinweg sowie eine Bestandsaufnahme der gegenwärtig am Markt verfügbaren virtuellen Projekträume im ersten Teil der Arbeit bilden die Grundlage für die Modellierung der Daten sowie ihrer Zusam-menhänge im zweiten Teil.
Mit der Gesamtdarstellung der Beteiligten, ihrer Rollen und Aufgaben, der Do-kumente und der zugehörigen Metadaten über alle Phasen und Baufachbereiche hinweg wurde ein neuer Forschungsbeitrag erarbeitet. Die unterschiedlichen Be-zeichnungen z. B. in Hoch- und Tiefbauprojekten wurden im Interesse der Ver-ständlichkeit erhalten, aber in einer gemeinsamen Struktur zusammengeführt. Diese Modellierung ist die Voraussetzung für eine verbesserte informationstech-nische Unterstützung öffentlicher Bauprojekte und zugleich die ureigenste Aufga-be des Wirtschaftsinformatikers als Mittler zwischen Anwendern und Entwick-lern.
Das in dieser Arbeit entwickelte Datenmodell erlaubt wegen seiner verwaltungs- und baufachbereichsübergreifenden Konzeption im Sinne eines Referenzmodells den Einsatz als Basis einer Standardanwendungssoftware, die mit geringem An-passungsaufwand bei einer großen Zahl an Kunden im öffentlichen Bereich einge-setzt werden kann. Beispiele sind Projektraumanwendungen sowie Workflow-Management-Systeme. Es ist zugleich ein Referenzvorschlag an die Entwickler bestehender Anwendungen zur Definition von Schnittstellen und schließlich zur Umsetzung applikationsübergreifender Integrationsansätze.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments.
Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt.
The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects.