Refine
Has Fulltext
- yes (110)
Is part of the Bibliography
- yes (110)
Year of publication
Document Type
- Doctoral Thesis (78)
- Journal article (16)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (7)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
- Altersversorgung (4)
Institute
- Betriebswirtschaftliches Institut (110) (remove)
EU-Project number / Contract (GA) number
Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen.
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
Die Grundlage für eine hohe Bestandsgenauigkeit ist die unternehmensübergreifende Identifikation und Nachverfolgung von Waren, die mit automatisierten Identifizierungstechnologien (Auto-ID-Technologien) ermöglicht wird. Die Einführung der Auto-ID-Technologie des Barcodes hat die Industrie vor mehr als 30 Jahren fundamental verändert. Darauf aufbauend versprechen neuere Auto-ID-Technologien wie die „Radio Frequency Identification“ (RFID) Probleme wie die Nichtverfügbarkeit von Waren, eine intransparente Diebstahlrate oder Warenschwund durch eine bessere Nachverfolgung aller Waren und eine höhere Bestandsgenauigkeit zu lösen. Die Vorteile von RFID gegenüber dem Barcode sind unter anderem die höhere Datendichte, die größere Robustheit gegenüber Umwelteinflüssen sowie die schnellere und mehrfache Erfassung von Gegenständen.
Viele Unternehmen sehen sich jedoch vor allem nach der Implementierung einer RFID-Infrastruktur mit einer Vielzahl von Problemen konfrontiert. Aspekte wie wenig Unterstützung durch das Management, interner Widerstand durch Mitarbeiter, Probleme bei der Integration von Hardware und Software und vor allem eine mangelnde Datenqualität verhindern, dass die prognostizierten positiven Effekte erreicht werden können. Derartige Phänomene werden passend unter dem Begriff „Credibility Gap“ zusammengefasst. Dieser beschreibt die Problematik, dass es insgesamt an Verfahren, Methoden und gezielter Unterstützung mangelt, um die in der Literatur umfangreich versprochenen positiven Effekte tatsächlich und nachhaltig zu realisieren. Passend werden die erwarteten Einsparungen und Verbesserungen durch den RFID-Einsatz oftmals als Expertenschätzungen und sogar als größtenteils rein spekulativ bezeichnet.
Das Ziel dieser Dissertation ist es, Praktikern das Erreichen der positiven RFID-Effekte zu ermöglichen. Hierzu wurden vielfältige Untersuchungen auf Basis einer langfristigen Kooperation mit einem der weltweit größten Bekleidungshändler durchgeführt, indem ein RFID-Implementierungsprojekt begleitet und intensiv mitgestaltet wurde. Zunächst wird bestätigt, dass die prognostizierten Vorteile der RFID-Technologie tatsächlich nicht allein durch die Implementierung der benötigten Infrastruktur erreicht werden können. Als Grund werden hohe Bestandsungenauigkeiten der verwendeten Bestandssysteme identifiziert, die sowohl auf technische als auch auf menschlich verursachte Fehler zurückzuführen sind. Als Folge ist die RFID-Datenqualität nicht verlässlich.
Die Dissertation setzt an den Problemen des Credibility Gap an und diagnostiziert bei einer bereits implementierten RFID-Infrastruktur zunächst die Fehler und Ursachen der mangelnden Datenqualität. Darauf aufbauend werden Maßnahmen und Handlungsanweisungen vorgestellt, mit deren Hilfe die Fehler behoben und die Infrastruktur schließlich verbessert und überwacht werden kann.
Um insgesamt die Anforderungen der Praxis und der Wissenschaft erfolgreich miteinander zu verknüpfen, wird als Forschungsmethode eine neuartige Kombination zweier Ausprägungen der Aktionsforschung verwendet. Als Ergebnis werden einerseits für Praktiker hilfreiche Frameworks und Tests zur Fehlerbehebung, Überwachungskennzahlen sowie Regeln des effektiven RFID-Systemmanagements beschrieben. Alle durchgeführten und in der Dissertation vorgestellten Maßnahmen führen nachweislich zu einer erhöhten Datenqualität eines implementierten RFID-Systems und stellen Möglichkeiten zur kennzahlenbasierten Visualisierung der RFID-Prozessperformance bereit. Andererseits wird ein Modell für die Verwendung der Aktionsforschung vorgeschlagen sowie eine umfangreiche Validierung der Methodik durchgeführt. Auf diese Weise wird neben der Praxisrelevanz der Ergebnisse auch die Präzision der Forschungsergebnisse sichergestellt.
Sämtliche Ergebnisse dienen als Basis für vielfältige Forschungsansätze. So ermöglichen eine höhere Verlässlichkeit und Datenqualität der RFID-Informationen aussagekräftigere Analysen. Weiter sind durch fehlerkorrigierte Prozessdaten neuartige Methoden des RFID-Data-Mining denkbar. Dieser Forschungsbereich ist nach wie vor größtenteils unberührt und bietet enormes Potential, weitere durch RFID in Aussicht gestellte Vorteile zu realisieren.
In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht:
In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt.
In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind.
In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first.
In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume.
The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems.
The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
Das vorliegende Working Paper untersucht die Performancewirkung eines multi-dimensionalen Strategie-Alignments in der Beschaffung. Hierfür wird zunächst ein Systematischer Literatur Review durchgeführt und der Wissenstand im Forschungsfeld erhoben. Die systematische Klassifikation, Analyse, Bewertung und Synthese der identifizierten 29 empirischen Studien erfolgt dabei auf der Grundlage eines konzeptionellen Frameworks und zugehöriger Inhaltskategorien sowie weiterer methodischer Vergleichsgrößen. Die Ergebnisse dieser Untersuchung zeigen nachdrücklich auf, dass eine Abstimmung, Harmonisierung und Verbindung von Beschaffungsstrategien (1) mit den übergeordneten Unternehmenszielen und -strategien, (2) anderen funktionalen Teilbereichen, sowie (3) der Lieferantenbasis (unter Berücksichtigung der kontextbezogenen Anforderungen und Gegebenheiten) zu signifikant positiven Performance-Effekten beiträgt. Insofern sollten die Empfehlungen dieser Untersuchung für ein holistisches Strategie-Alignment im Einkauf herangezogen werden. Neben der Ableitung von Implikationen für die Unternehmenspraxis wird eine Forschungsagenda für interessierte Wissenschaftler erarbeitet, indem inhaltliche Wissenslücken und methodische Verbesserungspotenziale auf Basis des Bezugsrahmens und einschlägiger Referenztexte definiert sowie zukünftige Forschungsbedarfe aufgezeigt werden. Darauf aufbauend wird die zentrale (bis dato unbeantwortete) Forschungsfrage eines integrativen Strategie-Alignment-Index durch die Operationalisierung der zugehörigen Konstrukte sowie der Formulierung entsprechender Hypothesen als Grundlage für die Durchführung einer empirischen Studie adressiert.
This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things.
The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy.
The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness.
The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.
The impact of sustainable supply chain management practices on performance metrics – A meta-analysis
(2017)
Die vorliegende Arbeit untersucht mittels einer Meta-Analyse den Zusammenhang zwischen nachhaltigkeitsorientierter Supply Chain-Aktivitäten und der Unternehmensperformance. Es sollen auf Grundlage einer breiten Datenbasis aus den Jahren 2000 bis 2013 fundierte und aussagekräftige Zusammenhänge zwischen ökologisch nachhaltigen Supply Chain Aktivitäten und deren Wirkung auf unterschiedliche Bereiche der Unternehmensperformance hergestellt werden
Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance.
Diese Arbeit untersucht Literatur Reviews (LRs) im Forschungsfeld des Supply Chain Managements (SCM). Hierfür werden zunächst die methodischen und terminologischen Grundlagen der Analyse erarbeitet sowie taxonomische und thematische Klassifikati-onsschemata vergleichend gegenübergestellt. Anschließend werden der LR-Prozess dieser Untersuchung und ausgewählte Evaluationsdimensionen definiert. Auf diesen grundlegenden Vorarbeiten aufbauend werden LRs des SCM identifiziert, klassifiziert und umfassend bewertet. Die Forschungsergebnisse zeigen, dass es narrativen LRs teil-weise an methodischer Genauigkeit mangelt und infolgedessen die Technik des syste-matischen LR zunehmend an Bedeutung gewinnt. Darüber hinaus dient diese Arbeit als Bewertungsraster zur Evaluation der methodischen Güte von LRs, als Leitlinie zur Er-stellung von systematischen LRs und als State-of-the-Art der Sekundärforschung im SCM.
Business process modeling is one of the most crucial activities of BPM and enables companies to realize various benefits in terms of communication, coordination, and distribution of organizational knowledge. While numerous techniques support process modeling, companies frequently face challenges when adopting BPM to their organization. Existing techniques are often modified or replaced by self-developed approaches so that companies cannot fully exploit the benefits of standardization. To explore the current state of the art in process modeling as well as emerging challenges and potential success factors, we conducted a large-scale quantitative study. We received feedback from 314 respondents who completed the survey between July 2 and September 6, 2017. Thus, our study provides in-depth insights into the status quo of process modeling and allows us to provide three major contributions. Our study suggests that the success of process modeling projects depends on four major factors, which we extracted using exploratory factor analysis. We found employee education, management involvement, usability of project results, and the companies’ degree of process orientation to be decisive for the success of a process modeling project. We conclude this report with a summary of results and present potential avenues for future research. We thereby emphasize the need of quantitative and qualitative insights to process modeling in practice is needed to strengthen the quality of process modeling in practice and to be able to react quickly to changing conditions, attitudes, and possible constraints that practitioners face.
Die gegenwärtig im öffentlichen Sektor zu verzeichnende breite Akzeptanz betriebswirt-schaftlicher Standardanwendungssoftware (SAS) ist nicht zuletzt in der Hoffnung begründet, durch die in ihr inkorporierten und sich bewährten privatwirtschaftlichen Methoden die Steue-rungsprobleme der Politik und Verwaltung lösen zu können. Aus der primär konzeptionellen Ausrichtung der betriebswirtschaftlichen SAS auf die Lösung von ökonomischen Aufgaben in kommerziellen Unternehmen ergeben sich jedoch Funktionslücken in Bezug auf die ganzheit-liche Steuerung von Verwaltungsprozessen. Die Standardsoftware als Organisator des betrieb-lichen Ablaufs in Unternehmen kann diese Funktion in der öffentlichen Verwaltung nicht in vollem Umfang erfüllen. Dem Einsatz der Informations- und Kommunikations- (IuK-)Technologie in der öffentlichen Verwaltung kommt aber eine außerordentliche Bedeutung zu, denn nichts kann wertneutraler und effizienter eindeutig geregelte bürokratische Verfahren vollziehen als eine Software. Die stärkere Automatisierung von Verwaltungsprozessen ist folglich ein beträchtlicher Beitrag zur Schaffung einer friedlichen Koexistenz zwischen der Bürokratie und privatwirtschaftlichen Managementtechniken. Die vorliegende Untersuchung zeigt daher die Möglichkeiten und Grenzen des Einsatzes be-triebswirtschaftlicher Anwendungssysteme in der öffentlichen Verwaltung. Die vorhandenen Funktionsdefizite werden primär unter dem Gesichtspunkt der operativen und strategischen Steuerung des administrativen Handelns systematisch identifiziert. Darauf aufbauend erfolgt eine Konzeption der integrierten und intelligenten Erfassung von Leistungs- und Wirkungsda-ten in der öffentlichen Verwaltung, um eine Informationsbasis für das Controlling zu schaffen und dieses auch zu institutionalisieren.
In dieser Dissertation werden ausgewählte Aspekte der Steuervermeidung und grenzüberschreitenden Besteuerung betrachtet. Im Teil B liegt der Fokus auf der Empirie zu Steuervermeidung und Gewinnverlagerung multinationaler Unternehmen mit drei einzelnen Aufsätzen. Der Teil C untersucht die unterschiedliche Besteuerung von Human- und Sachvermögen anhand der beiden fundamentalen Besteuerungsprinzipien des Äquivalenz- und des Leistungsfähigkeitsprinzips. Der letzte Aufsatz (Teil D) analysiert das Werturteilsfreiheitspostulat im Stakeholder-Ansatz und zeigt mithilfe eines Fallbeispiels, wie die Unternehmensbesteuerung in unterschiedliche Stakeholder-Ansätze integriert werden kann. Eine abschließende Gesamtwürdigung geht auf verbleibende Forschungsfragen ein (Teil E).
Somit wird in der vorliegenden Dissertation grenzüberschreitende Besteuerung anhand betriebswirtschaftlicher, besteuerungsprinzipiengestützter bzw. dogmatischer und wissenschaftstheoretischer Gesichtspunkte untersucht.
Traditional fashion retailers are increasingly hard-pressed to keep up with their digital competitors. In this context, the re-invention of brick-and-mortar stores as smart retail environments is being touted as a crucial step towards regaining a competitive edge. This thesis describes a design-oriented research project that deals with automated product tracking on the sales floor and presents three smart fashion store applications that are tied to such localization information: (i) an electronic article surveillance (EAS) system that distinguishes between theft and non-theft events, (ii) an automated checkout system that detects customers’ purchases when they are leaving the store and associates them with individual shopping baskets to automatically initiate payment processes, and (iii) a smart fitting room that detects the items customers bring into individual cabins and identifies the items they are currently most interested in to offer additional customer services (e.g., product recommendations or omnichannel services). The implementation of such cyberphysical systems in established retail environments is challenging, as architectural constraints, well-established customer processes, and customer expectations regarding privacy and convenience pose challenges to system design. To overcome these challenges, this thesis leverages Radio Frequency Identification (RFID) technology and machine learning techniques to address the different detection tasks. To optimally configure the systems and draw robust conclusions regarding their economic value contribution, beyond technological performance criteria, this thesis furthermore introduces a service operations model that allows mapping the systems’ technical detection characteristics to business relevant metrics such as service quality and profitability. This analytical model reveals that the same system component for the detection of object transitions is well suited for the EAS application but does not have the necessary high detection accuracy to be used as a component of an automated checkout system.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
This paper shows that labor demand plays an important role in the labor market reactions to a pension reform in Germany. Employers with a high share of older worker inflow compared with their younger worker inflow, employers in sectors with few investments in research and development, and employers in sectors with a high share of collective bargaining agreements allow their employees to stay employed longer after the reform. These employers offer their older employees partial retirement instead of forcing them into unemployment before early retirement because the older employees incur low substitution costs and high dismissal costs.
The growing interest in Radio Frequency Identification (RFID) technology in recent years has sparked an intensive debate on the benefits to be expected. With the growth of RFID implementations in size and scope comes a shift away from infrastructural aspects to the question of how to draw value from the large amounts of collected data. However, the necessary procedures for the handling of massive RFID data sets are still an under-researched issue. Against this background, the study presents results from a real-world trial conducted by a large apparel retailer. The objective of the trial was to explore the opportunities for generating novel performance indicators and reports on the reality of store processes and customer behavior on the sales floor. We give an overview of the algorithms used for RFID data processing and the interpretation of the resulting insights from a practitioner’s point of view. The case example thus provides an overview of the potential of RFID as a powerful tool for assortment optimization, customer research, store layout design, and other management tasks in retail.
As a response to the growing public awareness on the importance of organisational contributions to sustainable development, there is an increased incentive for corporations to report on their sustainability activities. In parallel with this has been the development of Sustainable HRM' which embraces a growing body of practitioner and academic literature connecting the notions of corporate sustainability to HRM. The aim of this article is to analyse corporate sustainability reporting amongst the world's largest companies and to assess the HRM aspects of sustainability within these reports in comparison to environmental aspects of sustainable management and whether organisational attributes - principally country-of-origin - influences the reporting of such practices. A focus in this article is the extent to which the reporting of various aspects of sustainability may reflect dominant models of corporate governance in the country in which a company is headquartered. The findings suggest, first and against expectations, that the overall disclosure on HRM-related performance is not lower than that on environmental performance. Second, companies report more on their internal workforce compared to their external workforce. Finally, international differences, in particular those between companies headquartered in liberal market economies and coordinated market economies, are not as apparent as expected.
Bereits in der ersten Hälfte des letzten Jahrhunderts wurden rechnungswesenorientierte Unternehmensbewertungsverfahren entwickelt. Insbesondere ist in diesem Zusammenhang der auf den Theorien von Preinreich (1937) und Lücke (1955) zurückzuführende Residualgewinnansatz zu nennen, bei dem sich der Unternehmenswert aus dem Buchwert des Eigenkapitals und dem Barwert der zukünftig erwarteten Residualgewinne zusammensetzt. Darauf aufbauend entwickelte Ohlson im Jahre 1995 ein analytisches Bewertungsmodell, welches das zukünftige Verhalten der periodischen Residualgewinne anhand eines linear-autoregressiven Informationsverarbeitungsprozesses beschreibt. Durch die Einbindung dieses sog. linearen Informationsmodells (LIM) ist es möglich, zukünftige Residualgewinne praktisch unabhängig von unsicheren Prognosen ausschließlich mit Hilfe vergleichsweiser einfacher ökonometrischer Verfahren zu bestimmen. Neben den Residualgewinn enthält das Ohlson Modell noch eine weitere Bewertungsvariable, die sog. "anderen Informationen", welche zwar wertrelevante Informationen außerhalb der Rechnungslegung berücksichtigen soll, allerdings nicht näher von Ohlson spezifiziert wird. Eine Vielzahl von empirischen Untersuchungen zum Ohlson Modell und zu Weiterentwicklungen des Ohlson Modells verdeutlicht jedoch in der Folge, dass deren Implementierung in der Praxis regelmäßig zu erheblichen Problemen führt. Zum einen liegt den Verfahren eine signifikante Unterbewertungsproblematik zu Grunde und zum anderen wird durch die regelmäßige Einbindung von Analystenvorhersagen zur rechnerischen Bestimmung der „anderen Informationen“ nach Auffassung des Verfassers das Objektivitätspostulat LIM-gestützter Bewertungsmodelle verletzt. Aufbauend auf einer eingehenden Analyse bisheriger Untersuchungen zu o.g. Modellen werden daher zunächst allgemeine Kriterien für eine optimierte Modellierung der Struktur der linearen Informationsmodelle entwickelt und anschließend in die Entwicklung eines eigenen Unternehmensbewertungsmodells transformiert. Um zudem sämtliche subjektive Einflussnahme auf die Gestaltung und Höhe der "anderen Informationen" zu eliminieren, werden die "anderen Informationen" nicht mehr auf Basis wie auch immer ermittelter subjektiver Analystenvorhersagen bestimmt, sondern durch einen zielgerichteten Einsatz von fünf makroökonomischen und fünf unternehmensspezifischen Kennzahlen der Fundamentalanalyse substituiert. In der empirischen Studie werden insgesamt 118 deutsche Unternehmen des CDAX aus insgesamt elf Branchen in einem Zeitraum von 1980 bis 2003 mit dem Median als primär verwendete Messgröße berücksichtigt. Über empirische Regressionsuntersuchungen werden dann entsprechend branchenspezifisch strukturierte Bewertungsmodelle entworfen. Mit der retrograden Ermittlung der "anderen Informationen" wird ausgehend vom empirisch ermittelten Unternehmensmarktwert gemäß den gesetzten Modellprämissen rechnerisch auf den nicht durch Rechnungslegung erklärten Wertbeitrag der "anderen Informationen" geschlossen. Diese rekursiv ermittelten Werte dienen somit als Maßstab für die "richtige" Wertbeimessung der "anderen Informationen" und damit als Grundlage für die rechnerische Bestimmung der branchenspezifischen Bestimmungsmodelle für die „anderen Informationen“. Die mit Hilfe der branchenspezifischen Kennzahlenmodelle generierten Unternehmenswerte liegen dabei sowohl im Durchschnitt als auch im Median näher am tatsächlichen Unternehmenswert als bei Ausblendung der "anderen Informationen" und bei Verwendung von Analystenvorhersagen. Damit liefert der Einsatz der in dieser Untersuchung neu eingeführten, branchenspezifischen Modelle gegenüber den traditionellen Modellen überlegene Resultate. Zudem wird festgestellt, dass die auf Basis der Kennzahlenmodelle ermittelten Unternehmenswerte weniger schwanken als bei Verwendung von Analystenvorhersagen. Trotz einer mit dieser Arbeit erreichten verbesserten Abbildungfähigkeit der "anderen Informationen" erachtet der Verfasser dieser Arbeit das Konzept der LIM-gestützten Unternehmensbewertung aufgrund der festgestellten Mängel im Zuge der praktischen Umsetzung den heute gebräuchlichen Bewertungsverfahren wie z.B. dem DCF oder dem Ertragswertverfahren als noch immer deutlich unterlegen.
Im Rahmen dieser Arbeit wird rationales Herdenverhalten anhand der Informationskaskadenmodelle sowie der Reputationsmodelle (Prinzipal-Agent-Kontext bei Existenz relativer Leistungsbewertung) analysiert. Im Bereich der Theorie wird die Frage beantwortet, welche Annahmen unverzichtbar sind für das Auftreten von Herdenverhalten. Bezüglich der Empirie werden zwei Fragestellungen untersucht. Zum einen wird analysiert, dass vorliegende, spezifische empirische Befunde zum Herdenverhalten eher mit Hypothesen vereinbar sind, die aus dem Informationskaskadenmodell abgeleitet werden. Zum anderen wird dargestellt, dass die empirisch festgestellte, unterschiedliche Neigung zum Herdenverhalten für Fondsmanager, Analysten und Topmanager mit der Vergütungsstruktur dieser Akteure erklärt werden kann. Zuletzt wird bei der Untersuchung von Lösungsansätzen bei beiden Modellansätzen nach Mechanismen gesucht, die die negativen Konsequenzen aus dem Auftreten von rationalem Herdenverhalten abmildern können. Hierbei werden verschiedene Ansätze diskutiert. Beispielsweise können im Informationskaskadenmodell Fehlentscheidungen der Akteure verhindert werden, wenn öffentlich verfügbare Information zur Verfügung gestellt wird. Das Hauptergebnis der Analyse ist, dass bei der Diskussion von Lösungsansätzen ein Kosten/Nutzen-Kalkül beachtet werden muss.
Nicht börsennotierte Unternehmen stellen in den meisten Volkswirtschaften die Mehrzahl der Unternehmen, leisten einen erheblichen Beitrag zur Wirtschaftskraft der Länder und beschäftigen eine Vielzahl von Arbeitnehmern. Bisher ist jedoch nur in geringem Ausmaß darüber bekannt, welche Rolle die Institution „Abschlussprüfung“ bei diesen Unternehmen spielt. Der bisherige Befund der internationalen und nationalen Prüfungsforschung fokussiert sich überwiegend auf das relativ kleine Prüfungsmarktsegment der börsennotierten Unternehmen, vernachlässigt dabei aber den Markt der nicht börsennotierten Prüfungsmandate.
Die vorliegende Studie beschäftigt sich deswegen mit den Fragen, welche Bedeutung der Institution „Abschlussprüfung“ bei nicht börsennotierten Unternehmen zukommt und wie dieses Segment des Prüfungsmarktes charakterisiert werden kann.
Anhand der Untersuchung von Prüfungshonoraren und der Prüferwahlentscheidung werden Faktoren identifiziert, die das Angebot und die Nachfrage nach Prüfungsqualität bei großen, nicht börsennotierten Unternehmen beeinflussen. Besonders beleuchtet werden die Bedeutung von Agency-Konflikten im Hinblick auf den Prüfungsqualitätsbedarf bei nicht börsennotierten Unternehmen, die Rolle von mittelgroßen Prüfungsgesellschaften und das Angebot und die Erbringung von Nichtprüfungsleistungen.
Die multivariaten Analysen zeigen, dass sich vor allem Agency-Konflikte sowie Größen- und Komplexitätsfaktoren auf Angebot und Nachfrage nach Prüfungsqualität auswirken. Honorarprämien für große und mittelgroße Prüfungsgesellschaften sprechen für eine mehrstufige Qualitätsdifferenzierung innerhalb der Gruppe der Anbieter von Prüfungsleistungen. Auch die gleichzeitige Erbringung von Beratungsleistungen durch den Abschlussprüfer übt einen signifikanten Einfluss aus.
Diese Ergebnisse sprechen dafür, dass die Institution „Abschlussprüfung“ auch bei nicht börsennotierten Unternehmen eine wichtige Rolle spielt. Zudem zeigt die Studie auch, dass sich das Prüfungsmarktsegment für diese Mandate in einigen Punkten wesentlich vom börsennotierten Marktsegment unterscheidet.
Bereits seit Anfang der 1990er Jahre wird jungen Wissenschaftlern im Vorfeld der Tagung "Wirtschaftsinformatik" ein Doctoral Consortium als unterstützendes Forum angeboten. Diese Einrichtung wurde auch zur größten Internationalen Konferenz der Wirtschaftsinformatik, der WI 2015 in Osnabrück fortgeführt. Dieser Band fasst die zum Vortag ausgewählten Beiträge zusammen.
Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM).
First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems.
The first article, “Prescriptive Analytics for Flexible Capacity Management”, develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters.
The second article, “Prescriptive Analytics for a Multi-Shift Staffing Problem”, uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the “worlds” of queuing theory and prescriptive analytics.
The third article, “Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management” proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions.
The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation.
Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations.
Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken (PIMKoWe)
(2022)
Das Verbundprojekt „Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken“ (PIMKoWe – Förderkennzeichen „02P17D160“) ist ein Forschungsvorhaben im Rahmen des Forschungsprogramms „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ der Bekanntmachung „Industrie 4.0 – Intelligente Kollaborationen in dynamischen Wertschöpfungs-netzwerken“ (InKoWe). Das Forschungsvorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert und durch den Projektträger des Karlsruher Instituts für Technologie (PTKA) betreut.
Ziel des Forschungsprojekts PIMKoWe ist die Entwicklung und Bereitstellung einer Plattformlösung zur Flexibilisierung, Automatisierung und Absicherung von Kooperationen in Wertschöpfungsnetzwerken des industriellen Sektors.
Angesichts der demografischen Entwicklung setzt die Bundesregierung zur Schließung der drohenden Rentenlücke auch auf die betriebliche Altersversorgung (bAV). Dieses Gutachten entwickelt Empfehlungen an den Gesetzgeber zur Optimierung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen der bAV. Die Zielvorgabe lautet, die Verbreitung der bAV unter Gering- und Niedrigverdienern zu erhöhen und kleinen und mittleren Unternehmen als Arbeitgeber Anreize zu setzen, ihren Arbeitnehmern ein bAV-Angebot zu unterbreiten.
Das Gutachten schafft einen umfassenden Überblick über bestehende Hemmnisse für diese beiden Zielgruppen, an der bAV zu partizipieren.
Auf dieser Basis werden zehn Reformüberlegungen erarbeitet und auf ihre Wirkungen hin geprüft. Hieraus ergeben sich jeweils eine Handlungsempfehlung für die Arbeitgeber- und die Arbeitnehmerseite.
Außerdem werden Ansatzpunkte für eine Vereinfachung der steuer- und sozialversicherungsrechtlichen Regelungen aufgezeigt. Die Analyse der Hemmnisse und die Kernelemente der Empfehlungen wurden durch Interviews mit Experten und mit Angehörigen der Zielgruppen empirisch abgesichert.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Dieser Beitrag konzentriert sich auf die Entwicklung von Technologieclustern und basiert auf zwei Forschungsfragen: Was sind die Voraussetzungen für die Entwicklung von Technologieclustern gemäß der Clusterforschung? Und erfüllt die Region Mainfranken die Voraussetzungen für eine Technologieclusterbildung? Zu diesem Zweck wird eine qualitative Studie unter Bezugnahme auf verschiedene theoretische Konzepte der Clusterbildung durchgeführt. Aus diesem Grund können die folgenden Determinanten der Clusterentwicklung abgeleitet werden: die Verkehrsinfrastruktur- und Infrastrukturkomponente, die Clusterumfeldkomponente, die Universitätskomponente, die Staatskomponente und die Branchenkomponente. Die Analyse der Parameterwerte der einzelnen Clusterkomponenten zeigt, dass die Kernanforderungen der Technologieclusterentwicklung in der Region Mainfranken erfüllt sind. Dennoch ist es notwendig, die Infrastruktur, die kommerzielle und industrielle Verfügbarkeit von Land und die Verfügbarkeit von Kapital zu verbessern, um ein erfolgreiches Technologiecluster zu bilden. Im Rahmen der vorliegenden Arbeit konnte darüber hinaus das Potenzial der Technologieclusterentwicklung im Bereich der künstlichen Intelligenz analysiert werden.
Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling.
The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research.
The present dissertation includes three research papers dealing with the following banking topics: (dis-) incentives and risk taking, earnings management and the regulation of supervisory boards.
„Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“:
We use Granger-causality techniques to evaluate the intertemporal relationships among risk, efficiency and capital. We use two different measures of bank efficiency, i.e., cost and profit efficiency, since these measures reflect different managerial abilities. One is the ability to manage costs, and the other is the ability to maximize profits. We find that lower cost and profit efficiency Granger-cause increases in liquidity risk. We also identify that credit risk negatively Granger-causes cost and profit efficiency. Most importantly, our results show a positive relationship between capital and credit risk, thus displaying that moral hazard (due to limited liability and deposit insurance) does not apply to our sample of cooperative banks. On the contrary, we find evidence that banks with low capital are able to improve their loan quality in subsequent periods. These findings may be important to regulators, who should consider banks’ business models when introducing new regulatory capital constraints.
„Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“:
Accounting research has separately studied the field of Earnings Management (EM) for non-financial and financial industries. Since EM cannot be observed directly, it is important for every research question in any setting to find a verifiable proxy for EM. However, we still lack a thorough understanding of what regressors can add value to the estimation process of EM in banks. This study tries to close this gap and analyses existing model specifications of discretionary loan loss provisions (LLP) in the banking sector to identify common pattern groups and specific patterns used. Thereupon, we use an US-dataset from 2005-2015 and apply prevalent test procedures to examine the extent of measurement errors, extreme performance and omitted-variable biases and predictive power of the discretionary proxies of each of the models. Our results indicate that a thorough understanding about the methodological modelling process of EM in the banking industry is important. The currently established models to estimate EM are appropriate yet optimizable. In particular, we identify non-performing asset patterns as the most important group, while loan loss allowances and net charge offs can add some value, though do not seem to be indispensable. In addition, our results show that non-linearity of certain regressors can be an issue, which should be addressed in future research, while we identify some omitted and possibly correlated variables that might add value to specifications in identifying non-discretionary LLP. Results also indicate that a dynamic model and endogeneity robust estimation approach is not necessarily linked to better prediction power.
„Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“:
This study employs a system GMM framework to examine the impact of potential regulatory intervention regarding the occupations of supervisory board members in cooperative banks. To achieve insights the study proceeds in two different ways. First, the author investigates the changes in board structure prior and following to the German Act to Strengthen Financial Market and Insurance Supervision (FinVAG). Second, the author estimates the influence of Ph.D. degree holders and occupational concentration on bank-risk changes in consideration of the implementation of FinVAG. Therefore, the sample consists of 246 German cooperative banks from 2006-2011. Regarding bank-risk the author applies four different measures: credit-, equity-, liquidity-risk and the Z-Score, with the former three also being addressed in FinVAG. Results indicate that the implementation of FinVAG results in structural changes in board composition, especially at the expense of farmers. In addition, the implementation affects all risk-measures and relations between risk-measures and supervisory board characteristics in a risk-reducing and therefore intended way.
To disentangle the complex relationship between board characteristics and risk measures the study utilizes a two-step system GMM estimator to account for unobserved heterogeneity, and simultaneity in order to reduce endogeneity problems. The findings may be especially relevant for stakeholders, regulators, supervisors and managers.
Today, intelligent systems that offer artificial intelligence capabilities often rely on machine learning. Machine learning describes the capacity of systems to learn from problem-specific training data to automate the process of analytical model building and solve associated tasks. Deep learning is a machine learning concept based on artificial neural networks. For many applications, deep learning models outperform shallow machine learning models and traditional data analysis approaches. In this article, we summarize the fundamentals of machine learning and deep learning to generate a broader understanding of the methodical underpinning of current intelligent systems. In particular, we provide a conceptual distinction between relevant terms and concepts, explain the process of automated analytical model building through machine learning and deep learning, and discuss the challenges that arise when implementing such intelligent systems in the field of electronic markets and networked business. These naturally go beyond technological aspects and highlight issues in human-machine interaction and artificial intelligence servitization.
The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment.
The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed.
The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst.
In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried.
The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak.
The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer.
The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society.
Die Welt befindet sich in einem tiefgreifenden Wandlungsprozess von einer Industrie- zu einer Wissensgesellschaft. Die Automatisierung sowohl physischer als auch kognitiver Arbeit verlagert die Nachfrage des Arbeitsmarktes zunehmend zu hoch qualifizierten Mitarbeitern, die als High Potentials bezeichnet werden. Diese zeichnen sich neben ihrer Intelligenz durch vielfältige Fähigkeiten wie Empathievermögen, Kreativität und Problemlösungskompetenzen aus. Humankapital gilt als Wettbewerbsfaktor der Zukunft, jedoch beklagten Unternehmen bereits Ende des 20. Jahrhunderts einen Mangel an Fach- und Führungspersonal, der durch die Pandemie weiter verstärkt wird. Aus diesem Grund rücken Konzepte zur Rekrutierung und Mitarbeiterbindung in den Fokus der Unternehmen.
Da ethisches und ökologisches Bewusstsein in der Bevölkerung an Bedeutung gewinnen, lässt sich annehmen, dass Bewerber zukünftig verantwortungsbewusste Arbeitgeber bevorzugen. Nachhaltigkeit bzw. Corporate Responsibility wird damit zum Wettbewerbsfaktor zur Gewinnung und Bindung von Talenten. Mit Hilfe des Ansatzes der identitätsorientierten Markenführung wird ein Verständnis davon hergestellt, wie es Unternehmen gelingt, eine starke Arbeitgebermarke aufzubauen. Anhand einer konzeptionellen, praktischen und empirischen Untersuchung am Unternehmensbeispiel Unilever werden die Auswirkungen von umfassendem ökologischem und gesellschaftlichem Engagement auf die Arbeitgeberattraktivität analysiert.
Es zeigt sich, dass Nachhaltigkeit – konkretisiert über die 17 Sustainable Develop-ment Goals (SDGs) und verankert im Kern der Marke – die erfolgreiche Führung einer Employer Brand ermöglicht. Dieses Ergebnis resultiert sowohl aus dem theoretischen als auch aus dem empirischen Teil dieser Arbeit. Im letzteren konnten unter Einsatz eines Strukturgleichungsmodells drei generelle positive Wirkzusammenhänge bestätigt werden: Bewerber fühlen sich zu verantwortungsbewussten Unternehmen hingezogen, weshalb sie einen P-O-F empfinden. Diese wahrgenommene Passung mit dem Unternehmen steigert die Arbeitgeberattraktivität aus Sicht der potenziellen Bewerber, wodurch sich wiederum die Wahrscheinlichkeit für eine Bewerbungsabsicht und die Akzeptanz eines Arbeitsplatzangebotes erhöht. Es wird damit die Annahme bestätigt, dass den Herausforderungen der Personalbeschaffung über eine konsequente nachhaltige Ausrichtung der Geschäftstätigkeit und deren glaubhafte Kommunikation über die Arbeitgebermarke begegnet werden kann.
Kaum ein Berufsstand hat einen so schlechten Ruf wie der des professionellen Beraters. Die fachbezogenen Medien im Bereich integrierter Informationssysteme sind voll von Berichten über mangelhafte Beratungsleistungen. Die einschlägige Literatur veröffentlicht zahllose Ratgeber in Buchform, welche ihre Existenz mit dem Umstand missglückter Projekte begründen. Dabei war im Bereich der Informationstechnologie der Bedarf an kompetentem Consulting noch nie so hoch wie heute und die Tendenz steigt weiterhin. Diese Situation wurzelt in der stetigen Verrin-gerung der Innovationszyklen und der exponentiell wachsenden Zahl an technischen und wissen-schaftlichen Erkenntnissen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Verfahrens zur Unterstützung der Beratungsdienstleistungen im Umfeld der Einführung und Pflege betriebswirtschaftlicher Softwarebibliotheken. Hierbei werden bestehende Ansätze aus dem Blickwinkel der Beratung evaluiert und in die Entwicklung einbezogen. Das zu erstellende Konzept muss den Anforderun-gen der Beratung gerecht werden und flexibel wie zielgerichtet einsetzbar sein. Die Ausgangslage dieser Arbeit ist die aktuelle Situation des Beratungsmarktes im Umfeld be-triebwirtschaftlicher Softwarebibliotheken, insbesondere von SAP R/3 bzw. mySAP.com. Eine Analyse der vorherrschenden Bedingungen und der zur Unterstützung der Beratung eingesetzten Hilfsmittel zeigt, dass Consulting systematisch unbefriedigend geleistet wird. Beratung ist eine wissensorientierte Dienstleistung, die aufgrund ihrer hohen Spezifität immer individuellen Cha-rakter besitzt. Bestehende Unterstützungsansätze können gute Hilfe leisten bei der Erfüllung von Teilaufgaben, sie sind jedoch nicht imstande, die aus dem Consulting-Prozess resultierenden An-forderungen aus globaler Sicht zufriedenstellend zu erfüllen. Insbesondere bestehen aus Sicht der Kollaborationsunterstützung für die Teilnehmer Mängel. Darüber hinaus müssen die Vollstän-digkeit bzw. Integrationsfähigkeit der verschiedenen Hilfsmittel, die Flexibilität der genutzten Werkzeuge, die Reproduzierbarkeit der Ergebnisse und die Anwendung einer strategisch ausge-richteten, zyklischen Vorgehensweise als ungenügend bewertet werden. Das IANUS-Verfahren wurde konzipiert um diese Lücken zu füllen. Es greift dabei auf verschie-dene konzeptionelle Grundsätze zurück, welche die Orientierung an den Bedürfnissen der Bera-tung gewährleisten sollen. Insbesondere wird die Implementierung eines Informationskreislaufes zur Gewinnung und Aufbereitung von Informationen und Erfahrungen gefordert. Dieser wird ergänzt durch die Standardisierung von Wissen in Form von Kennzahlen und die Gewährleistung der inhaltlichen Konsistenz durch regelbasierte Verknüpfungen. Darüber hinaus ist die Integrati-on von Wissen und Anwendungsprozess entscheidend für den Nutzengewinn durch den Einsatz des Verfahrens. Aufgrund der verschiedenen Teilnehmer und ihrer unterschiedlichen Kompeten-zen ist es notwendig, die verschiedenen Perspektiven und Kenntnisse zu berücksichtigen. Nur durch die gezielte Unterstützung der Kollaboration, die Handhabbarkeit der letztendlichen An-wendungen und die inhaltliche Flexibilität des Ansatzes kann dies erreicht werden. Die Wahl des des Internet als Medium bringt den Vorteil der dezentralen Nutzbarkeit bei zentraler Speicherung, wobei die für diese technische Basis typischen Gefahren berücksichtigt und beseitigt werden müssen. Das Ergebnis der Konzeption ist eine modulare internet-basierte Komponentenbiblio-thek, welche im vorgegebenen Rahmen flexibel ist. Für spezifische Aufgabenstellungen können vorab gewidmete Anwendungsinstanzen ausgeprägt und in Beratungsprojekten eingesetzt wer-den. Die kontinuierliche Weiterentwicklung gilt dabei der iterativen Verbesserung der Anwen-dungsinstanzen und der Komponentenbibliothek. Letztendlich beweist das IANUS-Verfahren, dass eine werkzeuggestützte Verbesserung von Beratungsdienstleistungen notwendig und mach-bar sind.
Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen.
Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies.
Implementierung von CSR im Einkauf unter Berücksichtigung situativer Führung von Agents und Stewards
(2016)
Zielsetzung und Ablauf der Untersuchung
Hintergrund des Untersuchungsvorhabens ist die Problematik der oftmals ungenügenden Umsetzung von CSR im Einkauf durch Unternehmen im Hinblick auf internationale Anforderungen. Leider gibt es viele Beispiele von Menschen- oder Arbeitnehmerrechtsverletzungen und/oder Umweltvergehen bei Lieferanten in Emerging Markets, wie zum Beispiel der Brand eines Textilunternehmens in Pakistan, bei dem 2012 über 250 Mitarbeiter starben, da die Notausgänge verschlossen und Fenster vergittert waren. Nur ein Jahr später kamen bei dem Einsturz des Produktionsgebäudes eines Textilunternehmens in Bangladesch über 1.000 Mitarbeiter ums Leben. Beide Unternehmen dienten als verlängerte Werkbank für westliche Textilmarken. Diese Beispiele deuten darauf hin, dass internationale Einkaufsorganisationen ihrer Verantwortung in Bezug auf CSR-Richtlinien, wie zum Beispiel den UN Global Compact, oftmals nicht gerecht werden.
Ein im Rahmen dieser Arbeit durchgeführter Unternehmensbenchmark hat dennoch gezeigt, dass es Unternehmen gibt, die CSR im Einkauf ernst nehmen und dementsprechend die erforderlichen Strategien und Ressourcen vorhalten. Auf solche Unternehmen bezieht sich diese Arbeit und untersucht, warum sich gerade diese Unternehmen oftmals dennoch schwertun, CSR im Einkauf gemäß den eigenen Ansprüchen umzusetzen. Die Ursache der Differenz zwischen Zielsetzung und Umsetzung von CSR im Einkauf und hierbei speziell das intrinsische Motivationspotenzial der Einkaufsmitarbeiter in Abhängigkeit verschiedener Führungsstile stellt daher den theoriegeleiteten Untersuchungsgegenstand dieser Arbeit dar.
Die empirische Hauptuntersuchung erfolgte im Rahmen von CSR-Pflichtschulungen für Einkäufer des im Anschluss an den Benchmark als Untersuchungsobjekt ausgewählten Unternehmens. 832 Einkaufsmitarbeiter nahmen erfolgreich an der Befragung mithilfe eines Onlinefragebogens teil.
Ergebnisse der Untersuchung
Zusammenfassend kann festgehalten werden, dass das untersuchte Unternehmen bezüglich CSR im Einkauf prinzipiell ein hohes intrinsisches Motivationspotenzial innerhalb der Mitarbeiterbasis hat. Die Daten haben weiterhin gezeigt, dass dieses Motivationspotential unter einem aktiven Führungsstil zu einer vergleichsweise hohen Leistung führt.
Herrscht hingegen bezüglich CSR im Einkauf Laissez-faire-Führung vor, bleibt das intrinsische Motivationspotenzial der Mitarbeiter weitestgehend ungenutzt beziehungsweise wird weiter reduziert. Daher wäre es fatal, falls eine Einkaufsleitung davon ausgeht, dass CSR im Einkauf von den Einkaufsmitarbeitern allein aufgrund von persönlichen Werten und durch eine soziale Unternehmenskultur umgesetzt wird. Ohne aktive persönliche Führung und insbesondere ohne das Erfüllen einer Vorbildfunktion durch die Einkaufsleitung, ist mit keiner hohen Umsetzung durch die Mitarbeiter zu rechnen.
Diese Erkenntnisse haben einen sehr zentralen Charakter, da sich andere Aspekte wie Zielkonflikte oder Mitarbeiterbefähigung im Vergleich zu Motivation und Führung als vergleichsweise weniger relevant für die Umsetzung von CSR im Einkauf erwiesen haben. Hier schließt sich ein weiteres wichtiges Fazit an: Sogenannte Materialkostenerhöhungen werden oftmals als maßgebliche Hinderungsgründe für die Umsetzung von CSR im Einkauf genannt, da sie einen Konflikt mit traditionellen Einkaufsratiozielen auslösen können. Als Untersuchungsergebnis haben aber diejenigen Mitarbeiter, die CSR im Einkauf aktiv umsetzen, keine Zielkonflikte wahrgenommen. Im Umkehrschluss kann vermutet werden, dass Zielkonflikte eher von solchen Mitarbeitern wahrgenommen oder befürchtet werden, welche sich bisher noch nicht eingehend mit der Umsetzung und den einhergehenden Konsequenzen befasst haben. Es besteht also die Gefahr, dass in Bezug auf die Umsetzung von CSR im Einkauf unerfahrene Mitarbeiter aufgrund von Vorurteilen bereits im Vorfeld resignieren und damit wertvolles Potential ungenutzt bleibt. Auch hier tragen die Führungsverantwortlichen die Verantwortung, Einkäufer zu Handlungen anzuleiten, damit diese Erfahrungen sammeln und dementsprechend besser urteilen können.
In this paper the relationship between corporate sustainability performance and corporate financial performance is researched. It is hypothesized that a better sustainability performance of firms leads to financial success in terms of increased EBIT and Market Capitalization. Furthermore 17 environmental activities and their assumed impact on financial benefits are analyzed for ten different industry sectors. The data sample for this research paper has been taken from Thomson Reuters Database ASSET4 and includes 3115 firms. The results show that there is a positive and non-linear link between the sustainability performance and the financial performance of firms, intending that financially more successful firms can gain greater benefits from being sustainable than less successful firms do. Furthermore sustainable environmental activities have been identified for different industry sectors, which indicate to lead to an increase of the financial performance.
Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualität der Menschen sowie ein Wachstum von Wirtschaft und Arbeitsplätzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen Möglichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele für derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausführlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung übernehmen können, welchen Beitrag Unternehmen bei der Lösung und Vermeidung moralischer Konflikte leisten können und welche Möglichkeiten bestehen, dass ethische Bemühungen im Unternehmensalltag umgesetzt werden können. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden mögliche Gründe für deren geringe Verbreitung aufgezeigt.
Die vorliegende Studie liefert in drei gleichrangigen Teilen empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene.
In den ersten beiden Teilen wird die Realsteuerpolitik deutscher Kommunen quantitativ datenempirisch und qualitativ in Form einer Expertenbefragung untersucht. Hierbei wird insbesondere der Frage nachgegangen, welche Determinanten das gemeindliche Hebesatzniveau bei der Gewerbesteuer und den Grundsteuern A und B bestimmen.
Der dritte Teil analysiert die Beitragseinnahmen der Industrie- und Handelskammern. Der IHK-Beitrag ist deren zentrale Einnahmeposition und knüpft ebenfalls an der gewerbesteuerlichen Bemessungsgrundlage an. Die Abhängigkeit von einer zum Teil volatilen Bemessungsgrundlage stellt die Kammern bei ihrer Budgetplanung vor große Herausforderungen. Zur Steigerung der Planungsgenauigkeit wurde ein Prognosemodell entwickelt, das einen präziseren Rückschluss auf künftige Beitragseinnahmen zulässt.
Internettechnologie-basierte Marktplätze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ernüchterung ein, da die Nutzung der Marktplätze weitaus langsamer voranging als allgemein erwartet wurde. Dafür wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels“ Internettechnologie-basierter Marktplatz angeführt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterstützung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht darüber hinweg täuschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. Ähnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabläufe sicher, effizient und durchgängig zu unterstützen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktplätze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu ermöglichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in fünf Hauptteile. Im zweiten Kapitel werden zunächst die für die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktplätze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender ökonomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktmäßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Geschäftstransaktion mündet. Der im Anschluss skizzierte Aufbau elektronischer Marktplätze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktplätze – die Internettechnologie-basierten Marktplätze – werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterstützung des Transaktionsprozesses gegenübergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit übertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems für Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktplätze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die für die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verknüpfung der Eigenschaften resultiert in drei zu berücksichtigenden Objektmerkmalen – Spezifität, Komplexität und strategische Bedeutung – mit jeweils bipolaren Ausprägungen, die zusammen einen Würfel mit acht Beschaffungsobjektgruppen bilden. Im fünften Kapitel werden ausgehend vom Aufbau elektronischer Marktplätze die möglichen Funktionalitäten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterstützung der einzelnen Phasen einer Geschäftstransaktion die übergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchführbaren Geschäftsvorfälle bzw. Prozessabläufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen für jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktplätze für den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erfüllen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl für Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universität laufenden Studie „b2b-Marktplatzführer“ erhoben wurde, konnten zum 15.07.2003 79 Marktplätze einbezogen werden.
Die Relevanz der öffentlichen Auftragsvergabe ergibt sich aus den immensen Beschaffungsvolumen der öffentlichen Auftraggeber, welches deutschlandweit ca. 220 Mrd. Euro und EU-weit bei ca. einer Billion pro Jahr liegt. Aufgrund dieser Größenordnungen resultieren selbst geringe Effizienzverbesserungen in hohen absoluten Beträgen. Die Arbeit befasst sich mit den Möglichkeiten, welche sich hierbei durch die Nutzung moderner Informations- und Kommunikationstechnologie insb. dem Internet ergeben. Im privatwirtschaftlichen Beschaffungsbereich sind unter dem Schlagwort E-Procurement bereits Konzepte und Produkte verbreitet. Diese sind jedoch vor allem im Bereich des „Sourcing“ (hier: Vergabe) nicht ohne weiteres im öffentlichen Bereich nutzbar, so dass eine ganzheitliche Lösung hier noch aussteht. In der Arbeit werden zunächst die juristischen Rahmenbedingungen dargelegt. Diese determinieren den Vergabeprozess durch eine Vielzahl von Richtlinien, formalen Gesetzen, Verordnungen und anderen Regelwerken, so dass sich das Vorgehen grundsätzlich von der privatwirtschaftlichen Beschaffung unterscheidet. Neben diesem juristischen Rahmen werden die ökonomischen Ziele und Nutzenpotentiale untersucht, die sich durch eine Digitalisierung ergeben sowie die zur Verfügung stehenden Technologien erläutert. Aufbauend auf diesen Grundlagen beschäftigen sich die Hauptabschnitte der Arbeit mit einer genauen Analyse der Anforderung, die an ein System zur digitalen Abwicklung der öffentlichen Auftragsvergabe zu richten sind. Diese werden abschließend in Tabellenform strukturiert und priorisiert. Nach der Prüfung bestehender Architekturansätze wird – quasi als Synthese von verfügbarer Technologie und dem Anforderungskatalog – eine Systemarchitektur (XAVER - XML-basierte Architektur zur Umsetzung der digitalen Vergabe) entwickelt, die die Basis für konkrete Informationssysteme darstellt, mit denen eine digitale Vergabe öffentlicher Aufträge durchgeführt werden kann. Als beispielhafte Umsetzung dieser Architektur wird im Anschluss die eTenderSuite-Produktfamilie der Administration Intelligence AG vorgestellt. Den Abschluss bildet eine nutzenorientierte Analyse der bisherigen Ergebnisse. Obwohl der Fokus der Arbeit ein ökonomischer ist werden auch – soweit nötig – juristische und informationstechnische Aspekte betrachtet. Nur im Zusammenspiel dieser drei Disziplinen ist das komplexe Themenfeld der digitalen Vergabe ganzheitlich zu untersuchen.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.
The study considers the application of text mining techniques to the analysis of curricula for study programs offered by institutions of higher education. It presents a novel procedure for efficient and scalable quantitative content analysis of module handbooks using topic modeling. The proposed approach allows for collecting, analyzing, evaluating, and comparing curricula from arbitrary academic disciplines as a partially automated, scalable alternative to qualitative content analysis, which is traditionally conducted manually. The procedure is illustrated by the example of IS study programs in Germany, based on a data set of more than 90 programs and 3700 distinct modules. The contributions made by the study address the needs of several different stakeholders and provide insights into the differences and similarities among the study programs examined. For example, the results may aid academic management in updating the IS curricula and can be incorporated into the curricular design process. With regard to employers, the results provide insights into the fulfillment of their employee skill expectations by various universities and degrees. Prospective students can incorporate the results into their decision concerning where and what to study, while university sponsors can utilize the results in their grant processes.
The analysis of how a general change, an economic shock and a modified institutional framework condition affect the HRM process, provide the motivation for the present dissertation. Thereby, the dissertation concentrates on certain areas of the HRM process, namely compensation, further training and retention, as well as changes and challenges that have been subject to a high degree of public interest in recent years. It consists of three essays, all self-contained and independently readable.
The first essay investigates whether it is possible to keep employees in the establishment by offering further training measures. Therefore, this essay uses a comparison group approach and compares only training participants with those employees who had been selected by the employer to participate in training but had to cancel it for exogenous reasons. From a methodological point of view, by means of Fixed Effects and Diff GMM estimations, the essay also controls for time-variant and invariant unobserved heterogeneity as well as endogeneity of training participation. By simultaneously considering the components from the human capital theory as well as the monopsony theory, the essay shows that portability of general human capital contents and visibility of training, induced by training certificates, independently reduce the retention effect of training. The negative effect is much stronger if training is certified by external institutions and therefore credible. In addition, the effects of visibility and portability are distinct and thus also reduce the retention effect of training separately. However, the total effect of portable, visible and credible training on retention is still positive. Therefore, further training appears to be an effective measure to keep the qualified employees in the establishment.
Second, the attention is on a short-term unpredictable economic shock: Essay 2 analyses whether and to what extent the Great Recession in 2008 and 2009 has had an impact on the individual training behaviour in establishments. From a theoretical point of view, the effects of the crisis on establishments' training activities are ambiguous. On the one hand, the reduced opportunity costs of training argue more in favour of an increase in further training. On the other hand, economic theory suggests decreasing training activities in the crisis because of reduced financial resources, uncertain future prospects, and, therefore, unclear returns on training. Using Difference-in-Differences analyses, this essay avoids endogeneity problems caused by unobservable third factors. The Great Recession in 2008 and 2009 can be seen as an exogenous and time-limited shock: this quasi-experimental setting helps to reveal the causal impact of the crisis on the training intensity and the number of training measures. Results indicate that there is a direct effect of the crisis on individual training activities in 2009 and 2010. This effect is stronger for unskilled employees than for employees with higher skill levels. Furthermore, the negative effect sets in with a time lag and lasts until the year 2010 (although there is already an economic upswing). Numerous analyses are used to check additional heterogeneities in training activities for other employee groups.
Among others, particularly the area of executive compensation was affected by the economic crisis and the ensuing regulations in institutional framework conditions. The third essay of this dissertation deals with the question whether these changes had an impact on the compensation level and structure of executive board members. The focus is on the extent to which executive compensation is converging within and between different exchange segments in Germany. Based on a sample of CEOs and non-CEOs of German DAX and MDAX establishments, the evolution of executive compensation levels and structures (i.e., fractions of base pay, short- and long-term incentives) are examined during the period from 2006 until 2012. The results of descriptive as well as multivariate Fixed Effects analyses indicate isomorphism of both, pay levels and pay structures within (intra-segment-convergence) and between (inter-segment convergence) stock exchange segments especially for CEOs. However, for the other members of the management board (non-CEOs), there is only a convergence of the compensation structure within the segments. The results do not indicate either intra- or inter-segment convergence of salary levels.
Altogether, the three essays of this dissertation provide a selection of the current changes and challenges that HRM has to deal with. From a methodological perspective, all three essays use different applied econometric estimation strategies. In order to eliminate estimation problems caused by time-invariant and variant unobserved heterogeneity and endogeneity, Fixed Effects, Diff GMM as well as Difference-in-Differences approaches are applied. In addition, sample selection, research design as well as identification strategy attempts to avoid estimation bias. The first two essays are based on a linked-employer-employee panel data set and adopt a personnel economic perspective. The third essay uses establishment-level data and is based on institutional theory. The first essay was written in cooperation with Thomas Zwick and the third essay was written in cooperation with Nathalie Haidegger-Rieß and Robert Wagner.
Chapter 2 concerns the audit market for German credit institutions (excluding savings banks and cooperative banks), and the presented study allows conclusions to be drawn regarding recent concentration levels of this particular audit market. The last reliable (statistical) studies concerning the audit market for German credit institutions were published several years ago (Grothe 2005; Lenz 1996b; Lenz 1997; Lenz 1998). This is surprising because parts of the new regulations concerning the audit market for public-interest entities—which should also apply to credit institutions (European Commission 2006c)—in Europe would require analyses of the audit market concentration to be performed on a regular basis. Therefore, this study begins to fill this research gap, and it reveals that the audit market for German credit institutions was highly concentrated (market leadership: KPMG AG WPG and PricewaterhouseCoopers AG WPG) in 2006 and 2010. Moreover, the findings also highlight that between these years, neither a notable trend toward higher levels of concentration nor a deconcentration process was evident. Finally, it is illustrated that the regulatory requirements for publishing audit fees and the corresponding right to claim exemption (§§ 285 Sentence 1 No. 17, 314 (1) No. 9 Commercial Code) do not allow the calculation of concentration figures that cover the entire audit market for credit institutions. Thus, it will continue to be necessary to use surrogates for audit fees, and analyses reveal that the arithmetic mean of the total business volume (or total assets) of a credit institution and its square root is a very good surrogate for calculating concentration measures based on audit fees.
Chapter 3 seeks to determine whether public oversight of public-interest entities (PIEs) increases audit fees specifically in the financial industry, which is already a highly regulated industry characterized by intense supervision. To answer this question, a sample of 573 German credit institutions is examined over the 2009–2011 period, as not all credit institutions were considered PIEs in Germany (until very recently). First, the results show that a credit institution’s business risk is related to audit fees. In addition, the findings reveal not only that PIE credit institutions pay statistically significantly higher audit fees but also that this effect is economically substantial (representing an audit fee increase of 31.38%). Finally, there are several indications that the relationship between (other) credit institutions’ business risks and audit fees is greater for PIE credit institutions.
Chapter 4 examines the association between the results of auditor ratification votes and perceived external financial reporting quality. As has been recently remarked by Wei et al. (2015), far too little is known about shareholders’ interests in and perceptions of the election, approval or ratification of auditors. Although auditor ratification by shareholders is normally a routine, non-binding action and the voting ratios are in the range of 95% or higher, the SEC emphasized the importance of this process by amending the disclosure requirements for such voting results in 2010 (SEC 2009; SEC 2010). This study demonstrates that the results of auditor ratification votes are associated with market reactions to earnings surprises (SEC registrants; 2010 to 2013). Moreover, there are moderate indications that this effect may be positively related to higher levels of information asymmetry between managers and shareholders, that such voting results contain incremental informational content beyond that of other publicly available audit-related information, and that the time lag between the ratification of an auditor and the earnings announcement influences the vote’s importance. Finally, the study sheds additional light on an overlooked audit-related topic (e.g., Dao et al. 2012; Hermanson et al. 2009; Krishnan and Ye 2005; Sainty et al. 2002), and illustrates its relation to accounting. More importantly, the provided evidence indicates that disclosure of the results of auditor ratification votes might benefit (prospective) shareholders.
Chapter 5 addresses the question of whether and when shareholders may have a negative perception of an auditor’s economic dependence on the client. The results for a Big 4 client sample in the U.S. (2010 to 2014) show that the economic importance of the client—measured at the audit office-level—is negatively associated with shareholders’ perceptions of external financial reporting quality—measured in terms of the earnings response coefficient and the ex ante cost of equity capital—and, therefore, is perceived as a threat to auditor independence. Moreover, the study reveals that shareholders primarily regard independence due to client dependence as a problem for firms that are more likely to be in financially distressed conditions.