Betriebswirtschaftliches Institut
Refine
Has Fulltext
- yes (115)
Is part of the Bibliography
- yes (115)
Year of publication
Document Type
- Doctoral Thesis (80)
- Journal article (19)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (8)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Rechnungslegung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
Institute
EU-Project number / Contract (GA) number
This paper examines professional associations’ local responses to global demands of accounting standardisation. Our longitudinal study from 1998 to 2018 analyses how professional associations of the German audit profession engaged in an intense framing contest over the adoption of external quality controls. Drawing on the concept of strategic action field and the literature on framing, we unpack how the gap between large audit firms and small audit firms increasingly undermined the capacity of the professional associations to fulfil their dual role of governance and representation. We unveil how their failed attempt to maintain the image of an unified profession ultimately led to the creation of a new professional association representing the ‘small auditor’ professional, which successfully, albeit temporarily, took control over the field of German auditing. Our findings suggest that the passivity of small audit firms in the process of translating global regulatory regimes should not be presumed. Rather, we provide insight into how small audit firms can rebuild their own identity by actively responding to waves of global regulation. Doing so, and contrary to prior research, our case highlights that governance units within strategic action fields are not necessarily aligned with the interests of the most powerful field actors.
We develop a model of oligopoly competition involving innovation effort, market entry and production flexibility under demand uncertainty. Several heterogeneous firms make efforts to develop new prototypes; if they succeed, they hold a shared option to enter a new market under stochastic demand. We derive analytic results for the Markov perfect equilibrium accounting for development effort, market entry and production decisions and complement these by numerical analyses. Firm value—which embeds real options—is not convex increasing in demand but exhibits “competitive waves” due to market entries by rivals. A firm with a development advantage (“innovator”) exerts greater innovation effort if the market is a niche, whereas another benefiting from economies of scale (“incumbent”) invests more if the market is larger. Positive externalities benefit the incumbent in the development stage, whereas the innovator is better off in counteracting negative externalities. Demand volatility raises firm incentives to innovate as it enhances the value of firm market‐entry and production flexibility.
Die Jahresabschlussprüfung verfolgt das Ziel, die Verlässlichkeit der Rechnungslegung zu bestätigen. Folglich kann sie einen wesentlichen Beitrag zu einem hohen Informationsniveau an den Märkten leisten. Angesichts dieser großen ökonomischen Bedeutung unternimmt der deutsche Gesetzgeber zahlreiche Anstrengungen, um eine hohe Prüfungsqualität sicherzustellen.
Die Sichtung der Wirtschaftsprüferordnung zeigt hierbei, dass regulatorische Maßnahmen ergriffen werden, die am Kern der Jahresabschlussprüfung ansetzen, nämlich an den Berufsangehörigen selbst. So wurde der Zugang zum Berufsstand der vereidigten Buchprüfer mehrmals geschlossen und wiedereröffnet. Des Weiteren sind markante Anpassungen des Niveaus des Wirtschaftsprüfungsexamens im Zeitablauf zu erkennen. Bei der Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse sind außerdem besondere Berufspflichten zu erfüllen. Zum einen ist diesen schweren Eingriffen in die Freiheit der Berufswahl und der Berufsausübung gemein, dass sie allesamt die Qualifikation des Abschlussprüfers adressieren. Zum anderen werden die entsprechenden Gesetzesänderungen mehrheitlich mit einer Stärkung der Prüfungsqualität begründet.
Fraglich ist, inwiefern jene Facetten der Prüferqualifikation tatsächlich einen Einfluss auf die Prüfungsqualität ausüben. Aufgrund mangelnder Evidenz ergibt sich die Notwendigkeit, eine empirische Studie am deutschen Prüfermarkt durchzuführen und somit den Beginn zur Schließung der identifizierten Forschungslücke zu setzen.
Das Ziel der vorliegenden Dissertation besteht folglich darin, den Zusammenhang zwischen der Prüferqualifikation und der Prüfungsqualität mittels Regressionsanalysen zu untersuchen. Dazu wurde ein einzigartiger Datensatz zu deutschen privaten prüfungspflichtigen Kapitalgesellschaften mit unkonsolidierten Finanz- und Prüferinformationen im Zeitraum 2006-2018 mit insgesamt 217.585 grundlegenden Beobachtungen erhoben, bereinigt und aufbereitet. Da die Prüfungsqualität nicht direkt beobachtbar ist, wird zwischen wahrgenommener Prüfungsqualität und tatsächlicher Prüfungsqualität unterschieden. Im Rahmen dieser Dissertation wird die wahrgenommene Prüfungsqualität über Fremdkapitalkosten und die tatsächliche Prüfungsqualität über absolute diskretionäre Periodenabgrenzungen approximiert.
Die Ergebnisse der Hauptregressionen zeigen überwiegend, dass kein Zusammenhang zwischen den Maßgrößen der Prüferqualifikation und der wahrgenommenen und tatsächlichen Prüfungsqualität besteht. Die Zusatz- und Sensitivitätsanalysen unterstützen diesen Befund. So können mit Blick auf die Berufszugangsregelungen keine Qualitätsunterschiede zwischen den Berufsständen der Wirtschaftsprüfer und der vereidigten Buchprüfer nachgewiesen werden. Auch innerhalb des Berufstandes der Wirtschaftsprüfer ergeben sich keine Hinweise auf ein Qualitätsgefälle zwischen den Prüfergruppen, die unterschiedliche Examensanforderungen durchlebt haben. Hinsichtlich der Berufsausübungsregelungen ist zu beobachten, dass die zusätzlichen Anforderungen an die Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse nicht mit einer anderen Prüfungsqualität bei privaten Unternehmen verbunden sind. Die beschriebenen regulatorischen Schritte des Gesetzgebers im Bereich der Prüferqualifikation erscheinen somit im Lichte einer verbesserten Prüfungsqualität nicht zwingend gerechtfertigt.
In a world of constant change, uncertainty has become a daily challenge for businesses. Rapidly shifting market conditions highlight the need for flexible responses to unforeseen events. Operations Management (OM) is crucial for optimizing business processes, including site planning, production control, and inventory management. Traditionally, companies have relied on theoretical models from microeconomics, game theory, optimization, and simulation. However, advancements in machine learning and mathematical optimization have led to a new research field: data-driven OM.
Data-driven OM uses real data, especially time series data, to create more realistic models that better capture decision-making complexities. Despite the promise of this new research area, a significant challenge remains: the availability of extensive historical training data. Synthetic data, which mimics real data, has been used to address this issue in other machine learning applications.
Therefore, this dissertation explores how synthetic data can be leveraged to improve decisions for data-driven inventory management, focusing on the single-period newsvendor problem, a classic stochastic optimization problem in inventory management.
The first article, "A Meta Analysis of Data-Driven Newsvendor Approaches", presents a standardized evaluation framework for data-driven prescriptive approaches, tested through a numerical study. Findings suggest model performance is not robust, emphasizing the need for a standardized evaluation process.
The second article, "Application of Generative Adversarial Networks in Inventory Management", examines using synthetic data generated by Generative Adversarial Networks (GANs) for the newsvendor problem. This study shows GANs can model complex demand relationships, offering a promising alternative to traditional methods.
The third article, "Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management", proposes a method using Deep Reinforcement Learning (DRL) with synthetic and real data through transfer learning. This approach trains a generative model to learn demand distributions, generates synthetic data, and fine-tunes a DRL agent on a smaller real dataset. This method outperforms traditional approaches in controlled and practical settings, though further research is needed to generalize these findings.
Bioimages frequently exhibit low signal-to-noise ratios due to experimental conditions, specimen characteristics, and imaging trade-offs. Reliable segmentation of such ambiguous images is difficult and laborious. Here we introduce deepflash2, a deep learning-enabled segmentation tool for bioimage analysis. The tool addresses typical challenges that may arise during the training, evaluation, and application of deep learning models on ambiguous data. The tool’s training and evaluation pipeline uses multiple expert annotations and deep model ensembles to achieve accurate results. The application pipeline supports various use-cases for expert annotations and includes a quality assurance mechanism in the form of uncertainty measures. Benchmarked against other tools, deepflash2 offers both high predictive accuracy and efficient computational resource usage. The tool is built upon established deep learning libraries and enables sharing of trained model ensembles with the research community. deepflash2 aims to simplify the integration of deep learning into bioimage analysis projects while improving accuracy and reliability.
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.
Due to computational advances in the past decades, so-called intelligent systems can learn from increasingly complex data, analyze situations, and support users in their decision-making to address them. However, in practice, the complexity of these intelligent systems renders the user hardly able to comprehend the inherent decision logic of the underlying machine learning model. As a result, the adoption of this technology, especially for high-stake scenarios, is hampered. In this context, explainable artificial intelligence offers numerous starting points for making the inherent logic explainable to people. While research manifests the necessity for incorporating explainable artificial intelligence into intelligent systems, there is still a lack of knowledge about how to socio-technically design these systems to address acceptance barriers among different user groups. In response, we have derived and evaluated a nascent design theory for explainable intelligent systems based on a structured literature review, two qualitative expert studies, a real-world use case application, and quantitative research. Our design theory includes design requirements, design principles, and design features covering the topics of global explainability, local explainability, personalized interface design, as well as psychological/emotional factors.
Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance.
Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations.
Robotic process automation is a disruptive technology to automate already digital yet manual tasks and subprocesses as well as whole business processes rapidly. In contrast to other process automation technologies, robotic process automation is lightweight and only accesses the presentation layer of IT systems to mimic human behavior. Due to the novelty of robotic process automation and the varying approaches when implementing the technology, there are reports that up to 50% of robotic process automation projects fail. To tackle this issue, we use a design science research approach to develop a framework for the implementation of robotic process automation projects. We analyzed 35 reports on real-life projects to derive a preliminary sequential model. Then, we performed multiple expert interviews and workshops to validate and refine our model. The result is a framework with variable stages that offers guidelines with enough flexibility to be applicable in complex and heterogeneous corporate environments as well as for small and medium-sized companies. It is structured by the three phases of initialization, implementation, and scaling. They comprise eleven stages relevant during a project and as a continuous cycle spanning individual projects. Together they structure how to manage knowledge and support processes for the execution of robotic process automation implementation projects.
Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen.
Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen.
The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment.
The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed.
The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst.
In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried.
The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak.
The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer.
The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society.
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance.
Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques.
For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario.
From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice.
In dieser Dissertation werden ausgewählte Aspekte der Steuervermeidung und grenzüberschreitenden Besteuerung betrachtet. Im Teil B liegt der Fokus auf der Empirie zu Steuervermeidung und Gewinnverlagerung multinationaler Unternehmen mit drei einzelnen Aufsätzen. Der Teil C untersucht die unterschiedliche Besteuerung von Human- und Sachvermögen anhand der beiden fundamentalen Besteuerungsprinzipien des Äquivalenz- und des Leistungsfähigkeitsprinzips. Der letzte Aufsatz (Teil D) analysiert das Werturteilsfreiheitspostulat im Stakeholder-Ansatz und zeigt mithilfe eines Fallbeispiels, wie die Unternehmensbesteuerung in unterschiedliche Stakeholder-Ansätze integriert werden kann. Eine abschließende Gesamtwürdigung geht auf verbleibende Forschungsfragen ein (Teil E).
Somit wird in der vorliegenden Dissertation grenzüberschreitende Besteuerung anhand betriebswirtschaftlicher, besteuerungsprinzipiengestützter bzw. dogmatischer und wissenschaftstheoretischer Gesichtspunkte untersucht.
Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies.
Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model.
Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios.
To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming.
To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network.
Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement.
Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling.
Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken (PIMKoWe)
(2022)
Das Verbundprojekt „Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken“ (PIMKoWe – Förderkennzeichen „02P17D160“) ist ein Forschungsvorhaben im Rahmen des Forschungsprogramms „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ der Bekanntmachung „Industrie 4.0 – Intelligente Kollaborationen in dynamischen Wertschöpfungs-netzwerken“ (InKoWe). Das Forschungsvorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert und durch den Projektträger des Karlsruher Instituts für Technologie (PTKA) betreut.
Ziel des Forschungsprojekts PIMKoWe ist die Entwicklung und Bereitstellung einer Plattformlösung zur Flexibilisierung, Automatisierung und Absicherung von Kooperationen in Wertschöpfungsnetzwerken des industriellen Sektors.
Die Welt befindet sich in einem tiefgreifenden Wandlungsprozess von einer Industrie- zu einer Wissensgesellschaft. Die Automatisierung sowohl physischer als auch kognitiver Arbeit verlagert die Nachfrage des Arbeitsmarktes zunehmend zu hoch qualifizierten Mitarbeitern, die als High Potentials bezeichnet werden. Diese zeichnen sich neben ihrer Intelligenz durch vielfältige Fähigkeiten wie Empathievermögen, Kreativität und Problemlösungskompetenzen aus. Humankapital gilt als Wettbewerbsfaktor der Zukunft, jedoch beklagten Unternehmen bereits Ende des 20. Jahrhunderts einen Mangel an Fach- und Führungspersonal, der durch die Pandemie weiter verstärkt wird. Aus diesem Grund rücken Konzepte zur Rekrutierung und Mitarbeiterbindung in den Fokus der Unternehmen.
Da ethisches und ökologisches Bewusstsein in der Bevölkerung an Bedeutung gewinnen, lässt sich annehmen, dass Bewerber zukünftig verantwortungsbewusste Arbeitgeber bevorzugen. Nachhaltigkeit bzw. Corporate Responsibility wird damit zum Wettbewerbsfaktor zur Gewinnung und Bindung von Talenten. Mit Hilfe des Ansatzes der identitätsorientierten Markenführung wird ein Verständnis davon hergestellt, wie es Unternehmen gelingt, eine starke Arbeitgebermarke aufzubauen. Anhand einer konzeptionellen, praktischen und empirischen Untersuchung am Unternehmensbeispiel Unilever werden die Auswirkungen von umfassendem ökologischem und gesellschaftlichem Engagement auf die Arbeitgeberattraktivität analysiert.
Es zeigt sich, dass Nachhaltigkeit – konkretisiert über die 17 Sustainable Develop-ment Goals (SDGs) und verankert im Kern der Marke – die erfolgreiche Führung einer Employer Brand ermöglicht. Dieses Ergebnis resultiert sowohl aus dem theoretischen als auch aus dem empirischen Teil dieser Arbeit. Im letzteren konnten unter Einsatz eines Strukturgleichungsmodells drei generelle positive Wirkzusammenhänge bestätigt werden: Bewerber fühlen sich zu verantwortungsbewussten Unternehmen hingezogen, weshalb sie einen P-O-F empfinden. Diese wahrgenommene Passung mit dem Unternehmen steigert die Arbeitgeberattraktivität aus Sicht der potenziellen Bewerber, wodurch sich wiederum die Wahrscheinlichkeit für eine Bewerbungsabsicht und die Akzeptanz eines Arbeitsplatzangebotes erhöht. Es wird damit die Annahme bestätigt, dass den Herausforderungen der Personalbeschaffung über eine konsequente nachhaltige Ausrichtung der Geschäftstätigkeit und deren glaubhafte Kommunikation über die Arbeitgebermarke begegnet werden kann.
Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen.
The digital transformation facilitates new forms of collaboration between companies along the supply chain and between companies and consumers. Besides sharing information on centralized platforms, blockchain technology is often regarded as a potential basis for this kind of collaboration. However, there is much hype surrounding the technology due to the rising popularity of cryptocurrencies, decentralized finance (DeFi), and non-fungible tokens (NFTs). This leads to potential issues being overlooked. Therefore, this thesis aims to investigate, highlight, and address the current weaknesses of blockchain technology: Inefficient consensus, privacy, smart contract security, and scalability.
First, to provide a foundation, the four key challenges are introduced, and the research objectives are defined, followed by a brief presentation of the preliminary work for this thesis.
The following four parts highlight the four main problem areas of blockchain. Using big data analytics, we extracted and analyzed the blockchain data of six major blockchains to identify potential weaknesses in their consensus algorithm. To improve smart contract security, we classified smart contract functionalities to identify similarities in structure and design. The resulting taxonomy serves as a basis for future standardization efforts for security-relevant features, such as safe math functions and oracle services. To challenge privacy assumptions, we researched consortium blockchains from an adversary role. We chose four blockchains with misconfigured nodes and extracted as much information from those nodes as possible. Finally, we compared scalability solutions for blockchain applications and developed a decision process that serves as a guideline to improve the scalability of their applications.
Building on the scalability framework, we showcase three potential applications for blockchain technology. First, we develop a token-based approach for inter-company value stream mapping. By only relying on simple tokens instead of complex smart-contracts, the computational load on the network is expected to be much lower compared to other solutions. The following two solutions use offloading transactions and computations from the main blockchain. The first approach uses secure multiparty computation to offload the matching of supply and demand for manufacturing capacities to a trustless network. The transaction is written to the main blockchain only after the match is made. The second approach uses the concept of payment channel networks to enable high-frequency bidirectional micropayments for WiFi sharing. The host gets paid for every second of data usage through an off-chain channel. The full payment is only written to the blockchain after the connection to the client gets terminated.
Finally, the thesis concludes by briefly summarizing and discussing the results and providing avenues for further research.
In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht:
In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt.
In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind.
In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.
Novel deep learning (DL) architectures, better data availability, and a significant increase in computing power have enabled scientists to solve problems that were considered unassailable for many years. A case in point is the “protein folding problem“, a 50-year-old grand challenge in biology that was recently solved by the DL-system AlphaFold. Other examples comprise the development of large DL-based language models that, for instance, generate newspaper articles that hardly differ from those written by humans. However, developing unbiased, reliable, and accurate DL models for various practical applications remains a major challenge - and many promising DL projects get stuck in the piloting stage, never to be completed. In light of these observations, this thesis investigates the practical challenges encountered throughout the life cycle of DL projects and proposes solutions to develop and deploy rigorous DL models.
The first part of the thesis is concerned with prototyping DL solutions in different domains. First, we conceptualize guidelines for applied image recognition and showcase their application in a biomedical research project. Next, we illustrate the bottom-up development of a DL backend for an augmented intelligence system in the manufacturing sector. We then turn to the fashion domain and present an artificial curation system for individual fashion outfit recommendations that leverages DL techniques and unstructured data from social media and fashion blogs. After that, we showcase how DL solutions can assist fashion designers in the creative process. Finally, we present our award-winning DL solution for the segmentation of glomeruli in human kidney tissue images that was developed for the Kaggle data science competition HuBMAP - Hacking the Kidney.
The second part continues the development path of the biomedical research project beyond the prototyping stage. Using data from five laboratories, we show that ground truth estimation from multiple human annotators and training of DL model ensembles help to establish objectivity, reliability, and validity in DL-based bioimage analyses.
In the third part, we present deepflash2, a DL solution that addresses the typical challenges encountered during training, evaluation, and application of DL models in bioimaging. The tool facilitates the objective and reliable segmentation of ambiguous bioimages through multi-expert annotations and integrated quality assurance. It is embedded in an easy-to-use graphical user interface and offers best-in-class predictive performance for semantic and instance segmentation under economical usage of computational resources.
The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM’s related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM’s complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty.
The study considers the application of text mining techniques to the analysis of curricula for study programs offered by institutions of higher education. It presents a novel procedure for efficient and scalable quantitative content analysis of module handbooks using topic modeling. The proposed approach allows for collecting, analyzing, evaluating, and comparing curricula from arbitrary academic disciplines as a partially automated, scalable alternative to qualitative content analysis, which is traditionally conducted manually. The procedure is illustrated by the example of IS study programs in Germany, based on a data set of more than 90 programs and 3700 distinct modules. The contributions made by the study address the needs of several different stakeholders and provide insights into the differences and similarities among the study programs examined. For example, the results may aid academic management in updating the IS curricula and can be incorporated into the curricular design process. With regard to employers, the results provide insights into the fulfillment of their employee skill expectations by various universities and degrees. Prospective students can incorporate the results into their decision concerning where and what to study, while university sponsors can utilize the results in their grant processes.
Today, intelligent systems that offer artificial intelligence capabilities often rely on machine learning. Machine learning describes the capacity of systems to learn from problem-specific training data to automate the process of analytical model building and solve associated tasks. Deep learning is a machine learning concept based on artificial neural networks. For many applications, deep learning models outperform shallow machine learning models and traditional data analysis approaches. In this article, we summarize the fundamentals of machine learning and deep learning to generate a broader understanding of the methodical underpinning of current intelligent systems. In particular, we provide a conceptual distinction between relevant terms and concepts, explain the process of automated analytical model building through machine learning and deep learning, and discuss the challenges that arise when implementing such intelligent systems in the field of electronic markets and networked business. These naturally go beyond technological aspects and highlight issues in human-machine interaction and artificial intelligence servitization.
This paper shows that labor demand plays an important role in the labor market reactions to a pension reform in Germany. Employers with a high share of older worker inflow compared with their younger worker inflow, employers in sectors with few investments in research and development, and employers in sectors with a high share of collective bargaining agreements allow their employees to stay employed longer after the reform. These employers offer their older employees partial retirement instead of forcing them into unemployment before early retirement because the older employees incur low substitution costs and high dismissal costs.
De exemplis deterrentibus
(2022)
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.
Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them.
Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable.
This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development.
The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM).
First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems.
The first article, “Prescriptive Analytics for Flexible Capacity Management”, develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters.
The second article, “Prescriptive Analytics for a Multi-Shift Staffing Problem”, uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the “worlds” of queuing theory and prescriptive analytics.
The third article, “Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management” proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions.
The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation.
Aufgrund der bekannten Probleme der umlagefinanzierten gesetzlichen Rentenversicherung versucht der deutsche Gesetzgeber seit einiger Zeit, die eigenverantwortliche Altersvorsorge zu fördern. Häufig steht dabei die betriebliche Altersversorgung (bAV) im Fokus. In dieser Arbeit wird mittels Experten- und Arbeitnehmerinterviews ausführlich herausgearbeitet, wo zentrale Verbreitungshemmnisse der bAV liegen und wie diese durch Anpassung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen adressiert werden können. Wesentliche Elemente dieser Reformüberlegungen sind in das zum 01.01.2018 in Kraft getretene Betriebsrentenstärkungsgesetz eingeflossen.
Daneben wird in dieser Arbeit mithilfe einer experimentalökonomischen Analyse gezeigt, wie verschiedene Arten der Besteuerung individuelle Sparentscheidungen beeinflussen können. Dabei wird deutlich, dass Individuen die Wirkung einer nachgelagerten Besteuerung häufig nicht korrekt wahrnehmen.
As a response to the growing public awareness on the importance of organisational contributions to sustainable development, there is an increased incentive for corporations to report on their sustainability activities. In parallel with this has been the development of Sustainable HRM' which embraces a growing body of practitioner and academic literature connecting the notions of corporate sustainability to HRM. The aim of this article is to analyse corporate sustainability reporting amongst the world's largest companies and to assess the HRM aspects of sustainability within these reports in comparison to environmental aspects of sustainable management and whether organisational attributes - principally country-of-origin - influences the reporting of such practices. A focus in this article is the extent to which the reporting of various aspects of sustainability may reflect dominant models of corporate governance in the country in which a company is headquartered. The findings suggest, first and against expectations, that the overall disclosure on HRM-related performance is not lower than that on environmental performance. Second, companies report more on their internal workforce compared to their external workforce. Finally, international differences, in particular those between companies headquartered in liberal market economies and coordinated market economies, are not as apparent as expected.
The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first.
In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume.
The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems.
Allocation planning describes the process of allocating scarce supply to individual customers in order to prioritize demands from more important customers, i.e. because they request a higher service-level target. A common assumption across publications is that allocation planning is performed by a single planner with the ability to decide on the allocations to all customers simultaneously. In many companies, however, there does not exist such a central planner and, instead, allocation planning is a decentral and iterative process aligned with the company's multi-level hierarchical sales organization.
This thesis provides a rigorous analytical and numerical analysis of allocation planning in such hierarchical settings. It studies allocation methods currently used in practice and shows that these approaches typically lead to suboptimal allocations associated with significant performance losses. Therefore, this thesis provides multiple new allocation approaches which show a much higher performance, but still are simple enough to lend themselves to practical application. The findings in this thesis can guide decision makers when to choose which allocation approach and what factors are decisive for their performance. In general, our research suggests that with a suitable hierarchical allocation approach, decision makers can expect a similar performance as under centralized planning.
Traditional fashion retailers are increasingly hard-pressed to keep up with their digital competitors. In this context, the re-invention of brick-and-mortar stores as smart retail environments is being touted as a crucial step towards regaining a competitive edge. This thesis describes a design-oriented research project that deals with automated product tracking on the sales floor and presents three smart fashion store applications that are tied to such localization information: (i) an electronic article surveillance (EAS) system that distinguishes between theft and non-theft events, (ii) an automated checkout system that detects customers’ purchases when they are leaving the store and associates them with individual shopping baskets to automatically initiate payment processes, and (iii) a smart fitting room that detects the items customers bring into individual cabins and identifies the items they are currently most interested in to offer additional customer services (e.g., product recommendations or omnichannel services). The implementation of such cyberphysical systems in established retail environments is challenging, as architectural constraints, well-established customer processes, and customer expectations regarding privacy and convenience pose challenges to system design. To overcome these challenges, this thesis leverages Radio Frequency Identification (RFID) technology and machine learning techniques to address the different detection tasks. To optimally configure the systems and draw robust conclusions regarding their economic value contribution, beyond technological performance criteria, this thesis furthermore introduces a service operations model that allows mapping the systems’ technical detection characteristics to business relevant metrics such as service quality and profitability. This analytical model reveals that the same system component for the detection of object transitions is well suited for the EAS application but does not have the necessary high detection accuracy to be used as a component of an automated checkout system.
Vor allem unter Geringverdienern ist die betriebliche Altersversorgung nur unterdurchschnittlich verbreitet. Mit dem zum 01.01.2018 in Kraft getretenen Betriebsrentenstärkungsgesetz und insbesondere dem sogenannten BAV-Förderbetrag (§ 100 EStG) versucht der Gesetzgeber daher, diese Altersvorsorgeform attraktiver zu gestalten und so deren Verbreitung unter Geringverdienern auszuweiten. Dass dieses Ziel zumindest aus modelltheoretischer Sicht erreicht werden kann, zeigen die Ergebnisse dieser Studie auf. Anhand eines deterministischen Rechenmodells werden die finanziellen Vor- und Nachteile verschiedener Vorsorgealternativen aufgedeckt und präzise beziffert. Daneben widmet sich die Arbeit auch den steuer-, sozialversicherungs- und arbeitsrechtlichen Regelungen der betrieblichen Altersversorgung vor und nach Inkrafttreten des Betriebsrentenstärkungsgesetzes und diskutiert darüber hinaus alternative Reformmaßnahmen.
We investigate how the demographic composition of the workforce along the sex, nationality, education, age and tenure dimensions affects job switches. Fitting duration models for workers’ job‐to‐job turnover rate that control for workplace fixed effects in a representative sample of large manufacturing plants in Germany during 1975–2016, we find that larger co‐worker similarity in all five dimensions substantially depresses job‐to‐job moves, whereas workplace diversity is of limited importance. In line with conventional wisdom, which has that birds of a feather flock together, our interpretation of the results is that workers prefer having co‐workers of their kind and place less value on diverse workplaces.
Accounting plays an essential role in solving the principal-agent problem between managers and shareholders of capital market-oriented companies through the provision of information by the manager. However, this can succeed only if the accounting information is of high quality. In this context, the perceptions of shareholders regarding earnings quality are of particular importance.
The present dissertation intends to contribute to a deeper understanding regarding earnings quality from the perspective of shareholders of capital market-oriented companies. In particular, the thesis deals with indicators of shareholders’ perceptions of earnings quality, the influence of the auditor’s independence on these perceptions, and the shareholders’ assessment of the importance of earnings quality in general. Therefore, this dissertation examines market reactions to earnings announcements, measures of earnings quality and the auditor’s independence, as well as shareholders’ voting behavior at annual general meetings.
Following the introduction and a theoretical part consisting of two chapters, which deal with the purposes of accounting and auditing as well as the relevance of shareholder voting at the annual general meeting in the context of the principal-agent theory, the dissertation presents three empirical studies.
The empirical study presented in chapter 4 investigates auditor ratification votes in a U.S. setting. The study addresses the question of whether the results of auditor ratification votes are informative regarding shareholders’ perceptions of earnings quality. Using a returns-earnings design, the study demonstrates that the results of auditor ratification votes are associated with market reactions to unexpected earnings at the earnings announcement date. Furthermore, there are indications that this association seems to be positively related to higher levels of information asymmetry between managers and shareholders. Thus, there is empirical support for the notion that the results of auditor ratification votes are earnings-related information that might help shareholders to make informed investment decisions.
Chapter 5 investigates the relation between the economic importance of the client and perceived earnings quality. In particular, it is examined whether and when shareholders have a negative perception of an auditor’s economic dependence on the client. The results from a Big 4 client sample in the U.S. (fiscal years 2010 through 2014) indicate a negative association between the economic importance of the client and shareholders’ perceptions of earnings quality. The results are interpreted to mean that shareholders are still concerned about auditor independence even ten years after the implementation of the Sarbanes-Oxley Act. Furthermore, the association between the economic importance of the client and shareholders’ perceptions of earnings quality applies predominantly to the subsample of clients that are more likely to be financially distressed. Therefore, the empirical results reveal that shareholders’ perceptions of auditor independence are conditional on the client’s circumstances.
The study presented in chapter 6 sheds light on the question of whether earnings quality influences shareholders’ satisfaction with the members of the company’s board. Using data from 1,237 annual general meetings of German listed companies from 2010 through 2015, the study provides evidence that earnings quality – measured by the absolute value of discretionary accruals – is related to shareholders’ satisfaction with the company’s board. Moreover, the findings imply that shareholders predominantly blame the management board for inferior earnings quality. Overall, the evidence that earnings quality positively influences shareholders’ satisfaction emphasizes the relevance of earnings quality.
This dissertation consists of three independent, self-contained research papers that investigate how state-of-the-art machine learning algorithms can be used in combination with operations management models to consider high dimensional data for improved planning decisions. More specifically, the thesis focuses on the question concerning how the underlying decision support models change structurally and how those changes affect the resulting decision quality.
Over the past years, the volume of globally stored data has experienced tremendous growth. Rising market penetration of sensor-equipped production machinery, advanced ways to track user behavior, and the ongoing use of social media lead to large amounts of data on production processes, user behavior, and interactions, as well as condition information about technical gear, all of which can provide valuable information to companies in planning their operations. In the past, two generic concepts have emerged to accomplish this. The first concept, separated estimation and optimization (SEO), uses data to forecast the central inputs (i.e., the demand) of a decision support model. The forecast and a distribution of forecast errors are then used in a subsequent stochastic optimization model to determine optimal decisions. In contrast to this sequential approach, the second generic concept, joint estimation-optimization (JEO), combines the forecasting and optimization step into a single optimization problem. Following this approach, powerful machine learning techniques are employed to approximate highly complex functional relationships and hence relate feature data directly to optimal decisions.
The first article, “Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, chapter 2, examines performance differences between implementations of these concepts in a single-period Newsvendor setting. The paper first proposes a novel JEO implementation based on the random forest algorithm to learn optimal decision rules directly from a data set that contains historical sales and auxiliary data. Going forward, we analyze structural properties that lead to these performance differences. Our results show that the JEO implementation achieves significant cost improvements over the SEO approach. These differences are strongly driven by the decision problem’s cost structure and the amount and structure of the remaining forecast uncertainty.
The second article, “Prescriptive call center staffing”, chapter 3, applies the logic of integrating data analysis and optimization to a more complex problem class, an employee staffing problem in a call center. We introduce a novel approach to applying the JEO concept that augments historical call volume data with features like the day of the week, the beginning of the month, and national holiday periods. We employ a regression tree to learn the ex-post optimal staffing levels based on similarity structures in the data and then generalize these insights to determine future staffing levels. This approach, relying on only few modeling assumptions, significantly outperforms a state-of-the-art benchmark that uses considerably more model structure and assumptions.
The third article, “Data-driven sales force scheduling”, chapter 4, is motivated by the problem of how a company should allocate limited sales resources. We propose a novel approach based on the SEO concept that involves a machine learning model to predict the probability of winning a specific project. We develop a methodology that uses this prediction model to estimate the “uplift”, that is, the incremental value of an additional visit to a particular customer location. To account for the remaining uncertainty at the subsequent optimization stage, we adapt the decision support model in such a way that it can control for the level of trust in the predicted uplifts. This novel policy dominates both a benchmark that relies completely on the uplift information and a robust benchmark that optimizes the sum of potential profits while neglecting any uplift information.
The results of this thesis show that decision support models in operations management can be transformed fundamentally by considering additional data and benefit through better decision quality respectively lower mismatch costs. The way how machine learning algorithms can be integrated into these decision support models depends on the complexity and the context of the underlying decision problem. In summary, this dissertation provides an analysis based on three different, specific application scenarios that serve as a foundation for further analyses of employing machine learning for decision support in operations management.
Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt’s invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data “the new oil” indicates the growing awareness of data’s importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of
data [for Economic Co-operation and Development, 2018].
One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data – typically just historical demand data – is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner’s experience and intuition, rather than on solid data analysis.
This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind.
The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work.
The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management.
All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity.
Die Unabhängigkeit des Abschlussprüfers ist von anhaltender Relevanz, wird jedoch immer wieder in Frage gestellt. Der Fokus von Regulierungsbehörden und Forschung liegt auf kapitalmarktorientierten Unternehmen. Die Unabhängigkeit kann besonders gefährdet sein, wenn Schutzmechanismen, wie z. B. die Haftung oder das Risiko eines Reputationsverlustes, besonders schwach ausgeprägt sind. Es kann abgeleitet werden, dass bei privaten Unternehmen das Risiko eines Reputationsverlustes im Vergleich zu kapitalmarktorientierten Unternehmen geringer ist. Weiterhin ist das Haftungsrisiko für den Abschlussprüfer in Deutschland verglichen mit angelsächsischen Ländern geringer.
Damit untersucht die Arbeit die Unabhängigkeit in einem Umfeld, in dem diese besonders gefährdet ist. Als Surrogat wird die Wahrscheinlichkeit einer Going-Concern-Modifikation („GCM“) herangezogen. GCM können als Indikator für die Prüfungsqualität besonders geeignet sein, da sie ein direktes Ergebnis der Tätigkeit des Abschlussprüfers sind und von ihm formuliert und verantwortet werden. Für das Surrogat GCM ist für Deutschland im Bereich der privaten Unternehmen bislang keine Studie bekannt.
This paper provides a critical analysis of the subadditivity axiom, which is the key condition for coherent risk measures. Contrary to the subadditivity assumption, bank mergers can create extra risk. We begin with an analysis how a merger affects depositors, junior or senior bank creditors, and bank owners. Next it is shown that bank mergers can result in higher payouts having to be made by the deposit insurance scheme. Finally, we demonstrate that if banks are interconnected via interbank loans, a bank merger could lead to additional contagion risks. We conclude that the subadditivity assumption should be rejected, since a subadditive risk measure, by definition, cannot account for such increased risks.
Advanced Analytics in Operations Management and Information Systems: Methods and Applications
(2019)
The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts.
As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company.
Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules.
The present dissertation includes three research papers dealing with the following banking topics: (dis-) incentives and risk taking, earnings management and the regulation of supervisory boards.
„Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“:
We use Granger-causality techniques to evaluate the intertemporal relationships among risk, efficiency and capital. We use two different measures of bank efficiency, i.e., cost and profit efficiency, since these measures reflect different managerial abilities. One is the ability to manage costs, and the other is the ability to maximize profits. We find that lower cost and profit efficiency Granger-cause increases in liquidity risk. We also identify that credit risk negatively Granger-causes cost and profit efficiency. Most importantly, our results show a positive relationship between capital and credit risk, thus displaying that moral hazard (due to limited liability and deposit insurance) does not apply to our sample of cooperative banks. On the contrary, we find evidence that banks with low capital are able to improve their loan quality in subsequent periods. These findings may be important to regulators, who should consider banks’ business models when introducing new regulatory capital constraints.
„Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“:
Accounting research has separately studied the field of Earnings Management (EM) for non-financial and financial industries. Since EM cannot be observed directly, it is important for every research question in any setting to find a verifiable proxy for EM. However, we still lack a thorough understanding of what regressors can add value to the estimation process of EM in banks. This study tries to close this gap and analyses existing model specifications of discretionary loan loss provisions (LLP) in the banking sector to identify common pattern groups and specific patterns used. Thereupon, we use an US-dataset from 2005-2015 and apply prevalent test procedures to examine the extent of measurement errors, extreme performance and omitted-variable biases and predictive power of the discretionary proxies of each of the models. Our results indicate that a thorough understanding about the methodological modelling process of EM in the banking industry is important. The currently established models to estimate EM are appropriate yet optimizable. In particular, we identify non-performing asset patterns as the most important group, while loan loss allowances and net charge offs can add some value, though do not seem to be indispensable. In addition, our results show that non-linearity of certain regressors can be an issue, which should be addressed in future research, while we identify some omitted and possibly correlated variables that might add value to specifications in identifying non-discretionary LLP. Results also indicate that a dynamic model and endogeneity robust estimation approach is not necessarily linked to better prediction power.
„Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“:
This study employs a system GMM framework to examine the impact of potential regulatory intervention regarding the occupations of supervisory board members in cooperative banks. To achieve insights the study proceeds in two different ways. First, the author investigates the changes in board structure prior and following to the German Act to Strengthen Financial Market and Insurance Supervision (FinVAG). Second, the author estimates the influence of Ph.D. degree holders and occupational concentration on bank-risk changes in consideration of the implementation of FinVAG. Therefore, the sample consists of 246 German cooperative banks from 2006-2011. Regarding bank-risk the author applies four different measures: credit-, equity-, liquidity-risk and the Z-Score, with the former three also being addressed in FinVAG. Results indicate that the implementation of FinVAG results in structural changes in board composition, especially at the expense of farmers. In addition, the implementation affects all risk-measures and relations between risk-measures and supervisory board characteristics in a risk-reducing and therefore intended way.
To disentangle the complex relationship between board characteristics and risk measures the study utilizes a two-step system GMM estimator to account for unobserved heterogeneity, and simultaneity in order to reduce endogeneity problems. The findings may be especially relevant for stakeholders, regulators, supervisors and managers.
In our globalized world, companies operate on an international market. To concentrate on their main competencies and be more competitive, they integrate into supply chain networks. However, these potentials also bear many risks. The emergence of an international market also creates pressure from competitors, forcing companies to collaborate with new and unknown companies in dynamic supply chain networks. In many cases, this can cause a lack of trust as the application of illegal practices and the breaking of agreements through complex and nontransparent supply chain networks pose a threat.
Blockchain technology provides a transparent, decentralized, and distributed means of chaining data storage and thus enables trust in its tamper-proof storage, even if there is no trust in the cooperation partners. The use of the blockchain also provides the opportunity to digitize, automate, and monitor processes within supply chain networks in real time.
The research project "Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken" (PIMKoWe) addresses this issue. The aim of this report is to define requirements for such a collaboration platform. We define requirements based on a literature review and expert interviews, which allow for an objective consideration of scientific and practical aspects. An additional survey validates and further classifies these requirements as “essential”, “optional”, or “irrelevant”. In total, we have derived a collection of 45 requirements from different dimensions for the collaboration platform.
Employing these requirements, we illustrate a conceptual architecture of the platform as well as introduce a realistic application scenario. The presentation of the platform concept and the application scenario can provide the foundation for implementing and introducing a blockchain-based collaboration platform into existing supply chain networks in context of the research project PIMKoWe.
Dieser Beitrag konzentriert sich auf die Entwicklung von Technologieclustern und basiert auf zwei Forschungsfragen: Was sind die Voraussetzungen für die Entwicklung von Technologieclustern gemäß der Clusterforschung? Und erfüllt die Region Mainfranken die Voraussetzungen für eine Technologieclusterbildung? Zu diesem Zweck wird eine qualitative Studie unter Bezugnahme auf verschiedene theoretische Konzepte der Clusterbildung durchgeführt. Aus diesem Grund können die folgenden Determinanten der Clusterentwicklung abgeleitet werden: die Verkehrsinfrastruktur- und Infrastrukturkomponente, die Clusterumfeldkomponente, die Universitätskomponente, die Staatskomponente und die Branchenkomponente. Die Analyse der Parameterwerte der einzelnen Clusterkomponenten zeigt, dass die Kernanforderungen der Technologieclusterentwicklung in der Region Mainfranken erfüllt sind. Dennoch ist es notwendig, die Infrastruktur, die kommerzielle und industrielle Verfügbarkeit von Land und die Verfügbarkeit von Kapital zu verbessern, um ein erfolgreiches Technologiecluster zu bilden. Im Rahmen der vorliegenden Arbeit konnte darüber hinaus das Potenzial der Technologieclusterentwicklung im Bereich der künstlichen Intelligenz analysiert werden.
Die verfasste Arbeit beschäftigt sich mit der Handelsstrategie Carry Trades. Grundlage dieser Strategie ist das Ausnutzen von Zinsunterschieden, welche zwischen zwei Währungsräumen vorherrschen, und einer Wechselkursanpassung, die diese Unterschiede nicht komplett kompensiert. Investiert ein Anleger beispielsweise in eine ausländische Währung mit höherem Zinsniveau, so müsste sich der Wechselkurs gemäß der Zinsparitätentheorie in der Folge so anpassen, dass der höhere Ertrag durch die Zinsen beim Rücktausch der Währung vollständig egalisiert wird. Ziel dieser Arbeit war eine empirische Untersuchung für die Währungen der G10 auf wöchentlicher Handelsbasis sowie die Konstruktion und Berücksichtigung von ex ante Sharpe-Ratios als Handelsindikator.
De exemplis deterrentibus
(2019)
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.
Business process modeling is one of the most crucial activities of BPM and enables companies to realize various benefits in terms of communication, coordination, and distribution of organizational knowledge. While numerous techniques support process modeling, companies frequently face challenges when adopting BPM to their organization. Existing techniques are often modified or replaced by self-developed approaches so that companies cannot fully exploit the benefits of standardization. To explore the current state of the art in process modeling as well as emerging challenges and potential success factors, we conducted a large-scale quantitative study. We received feedback from 314 respondents who completed the survey between July 2 and September 6, 2017. Thus, our study provides in-depth insights into the status quo of process modeling and allows us to provide three major contributions. Our study suggests that the success of process modeling projects depends on four major factors, which we extracted using exploratory factor analysis. We found employee education, management involvement, usability of project results, and the companies’ degree of process orientation to be decisive for the success of a process modeling project. We conclude this report with a summary of results and present potential avenues for future research. We thereby emphasize the need of quantitative and qualitative insights to process modeling in practice is needed to strengthen the quality of process modeling in practice and to be able to react quickly to changing conditions, attitudes, and possible constraints that practitioners face.
In an Arrow-Debreu world of unrestricted access to perfect and competitive financial markets, there is no need for accounting information about the financial situation of a firm. Because information is costless, share- and stakeholders are then indifferent in deposits and securities (e.g., Holthausen & Watts 2001; Freixas & Rochet 2008). How-ever, several reasons exist indicating a rejection of the assumptions for an Arrow-Debreu world, hence there is no perfect costless information. Moreover, the distribu-tion of information is asymmetric, causing follow-through multi-level agency prob-lems, which are the main reasoning for the variety of financial and non-financial ac-counting standards, regulatory and advisory entities and the auditing and rating agency profession. Likewise, these agency problems have been at the heart of the accounting literature and raised the question of whether and how accounting information can help resolve these problems. ...
The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research.
Die vorliegende Studie liefert in drei gleichrangigen Teilen empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene.
In den ersten beiden Teilen wird die Realsteuerpolitik deutscher Kommunen quantitativ datenempirisch und qualitativ in Form einer Expertenbefragung untersucht. Hierbei wird insbesondere der Frage nachgegangen, welche Determinanten das gemeindliche Hebesatzniveau bei der Gewerbesteuer und den Grundsteuern A und B bestimmen.
Der dritte Teil analysiert die Beitragseinnahmen der Industrie- und Handelskammern. Der IHK-Beitrag ist deren zentrale Einnahmeposition und knüpft ebenfalls an der gewerbesteuerlichen Bemessungsgrundlage an. Die Abhängigkeit von einer zum Teil volatilen Bemessungsgrundlage stellt die Kammern bei ihrer Budgetplanung vor große Herausforderungen. Zur Steigerung der Planungsgenauigkeit wurde ein Prognosemodell entwickelt, das einen präziseren Rückschluss auf künftige Beitragseinnahmen zulässt.
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
The analysis of how a general change, an economic shock and a modified institutional framework condition affect the HRM process, provide the motivation for the present dissertation. Thereby, the dissertation concentrates on certain areas of the HRM process, namely compensation, further training and retention, as well as changes and challenges that have been subject to a high degree of public interest in recent years. It consists of three essays, all self-contained and independently readable.
The first essay investigates whether it is possible to keep employees in the establishment by offering further training measures. Therefore, this essay uses a comparison group approach and compares only training participants with those employees who had been selected by the employer to participate in training but had to cancel it for exogenous reasons. From a methodological point of view, by means of Fixed Effects and Diff GMM estimations, the essay also controls for time-variant and invariant unobserved heterogeneity as well as endogeneity of training participation. By simultaneously considering the components from the human capital theory as well as the monopsony theory, the essay shows that portability of general human capital contents and visibility of training, induced by training certificates, independently reduce the retention effect of training. The negative effect is much stronger if training is certified by external institutions and therefore credible. In addition, the effects of visibility and portability are distinct and thus also reduce the retention effect of training separately. However, the total effect of portable, visible and credible training on retention is still positive. Therefore, further training appears to be an effective measure to keep the qualified employees in the establishment.
Second, the attention is on a short-term unpredictable economic shock: Essay 2 analyses whether and to what extent the Great Recession in 2008 and 2009 has had an impact on the individual training behaviour in establishments. From a theoretical point of view, the effects of the crisis on establishments' training activities are ambiguous. On the one hand, the reduced opportunity costs of training argue more in favour of an increase in further training. On the other hand, economic theory suggests decreasing training activities in the crisis because of reduced financial resources, uncertain future prospects, and, therefore, unclear returns on training. Using Difference-in-Differences analyses, this essay avoids endogeneity problems caused by unobservable third factors. The Great Recession in 2008 and 2009 can be seen as an exogenous and time-limited shock: this quasi-experimental setting helps to reveal the causal impact of the crisis on the training intensity and the number of training measures. Results indicate that there is a direct effect of the crisis on individual training activities in 2009 and 2010. This effect is stronger for unskilled employees than for employees with higher skill levels. Furthermore, the negative effect sets in with a time lag and lasts until the year 2010 (although there is already an economic upswing). Numerous analyses are used to check additional heterogeneities in training activities for other employee groups.
Among others, particularly the area of executive compensation was affected by the economic crisis and the ensuing regulations in institutional framework conditions. The third essay of this dissertation deals with the question whether these changes had an impact on the compensation level and structure of executive board members. The focus is on the extent to which executive compensation is converging within and between different exchange segments in Germany. Based on a sample of CEOs and non-CEOs of German DAX and MDAX establishments, the evolution of executive compensation levels and structures (i.e., fractions of base pay, short- and long-term incentives) are examined during the period from 2006 until 2012. The results of descriptive as well as multivariate Fixed Effects analyses indicate isomorphism of both, pay levels and pay structures within (intra-segment-convergence) and between (inter-segment convergence) stock exchange segments especially for CEOs. However, for the other members of the management board (non-CEOs), there is only a convergence of the compensation structure within the segments. The results do not indicate either intra- or inter-segment convergence of salary levels.
Altogether, the three essays of this dissertation provide a selection of the current changes and challenges that HRM has to deal with. From a methodological perspective, all three essays use different applied econometric estimation strategies. In order to eliminate estimation problems caused by time-invariant and variant unobserved heterogeneity and endogeneity, Fixed Effects, Diff GMM as well as Difference-in-Differences approaches are applied. In addition, sample selection, research design as well as identification strategy attempts to avoid estimation bias. The first two essays are based on a linked-employer-employee panel data set and adopt a personnel economic perspective. The third essay uses establishment-level data and is based on institutional theory. The first essay was written in cooperation with Thomas Zwick and the third essay was written in cooperation with Nathalie Haidegger-Rieß and Robert Wagner.
Nicht börsennotierte Unternehmen stellen in den meisten Volkswirtschaften die Mehrzahl der Unternehmen, leisten einen erheblichen Beitrag zur Wirtschaftskraft der Länder und beschäftigen eine Vielzahl von Arbeitnehmern. Bisher ist jedoch nur in geringem Ausmaß darüber bekannt, welche Rolle die Institution „Abschlussprüfung“ bei diesen Unternehmen spielt. Der bisherige Befund der internationalen und nationalen Prüfungsforschung fokussiert sich überwiegend auf das relativ kleine Prüfungsmarktsegment der börsennotierten Unternehmen, vernachlässigt dabei aber den Markt der nicht börsennotierten Prüfungsmandate.
Die vorliegende Studie beschäftigt sich deswegen mit den Fragen, welche Bedeutung der Institution „Abschlussprüfung“ bei nicht börsennotierten Unternehmen zukommt und wie dieses Segment des Prüfungsmarktes charakterisiert werden kann.
Anhand der Untersuchung von Prüfungshonoraren und der Prüferwahlentscheidung werden Faktoren identifiziert, die das Angebot und die Nachfrage nach Prüfungsqualität bei großen, nicht börsennotierten Unternehmen beeinflussen. Besonders beleuchtet werden die Bedeutung von Agency-Konflikten im Hinblick auf den Prüfungsqualitätsbedarf bei nicht börsennotierten Unternehmen, die Rolle von mittelgroßen Prüfungsgesellschaften und das Angebot und die Erbringung von Nichtprüfungsleistungen.
Die multivariaten Analysen zeigen, dass sich vor allem Agency-Konflikte sowie Größen- und Komplexitätsfaktoren auf Angebot und Nachfrage nach Prüfungsqualität auswirken. Honorarprämien für große und mittelgroße Prüfungsgesellschaften sprechen für eine mehrstufige Qualitätsdifferenzierung innerhalb der Gruppe der Anbieter von Prüfungsleistungen. Auch die gleichzeitige Erbringung von Beratungsleistungen durch den Abschlussprüfer übt einen signifikanten Einfluss aus.
Diese Ergebnisse sprechen dafür, dass die Institution „Abschlussprüfung“ auch bei nicht börsennotierten Unternehmen eine wichtige Rolle spielt. Zudem zeigt die Studie auch, dass sich das Prüfungsmarktsegment für diese Mandate in einigen Punkten wesentlich vom börsennotierten Marktsegment unterscheidet.
Additive Fertigung – oftmals plakativ „3D-Druck“ genannt – bezeichnet eine Fertigungstechnologie, die die Herstellung physischer Gegenstände auf Basis digitaler, dreidimensionaler Modelle ermöglicht. Das grundlegende Funktionsprinzip und die Gemeinsamkeit aller additiven bzw. generativen Fertigungsverfahren ist die schichtweise Erzeugung des Objekts. Zu den wesentlichen Vorteilen der Technologie gehört die Designfreiheit, die die Integration komplexer Geometrien erlaubt.
Aufgrund der zunehmenden Verfügbarkeit kostengünstiger Geräte für den Heimgebrauch und der wachsenden Marktpräsenz von Druckdienstleistern steht die Technologie erstmals Endkunden in einer Art und Weise zur Verfügung wie es vormals, aufgrund hoher Kosten, lediglich großen Konzernen vorbehalten war. Infolgedessen ist die additive Fertigung vermehrt in den Fokus der breiten Öffentlichkeit geraten. Jedoch haben sich Wissenschaft und Forschung bisher vor allem mit Verfahrens- und Materialfragen befasst. Insbesondere Fragestellungen zu wirtschaftlichen und gesellschaftlichen Auswirkungen haben hingegen kaum Beachtung gefunden. Aus diesem Grund untersucht die vorliegende Dissertation die vielfältigen Implikationen und Auswirkungen der Technologie.
Zunächst werden Grundlagen der Fertigungstechnologie erläutert, die für das Verständnis der Arbeit eine zentrale Rolle spielen. Neben dem elementaren Funktionsprinzip der Technologie werden relevante Begrifflichkeiten aus dem Kontext der additiven Fertigung vorgestellt und zueinander in Beziehung gesetzt.
Im weiteren Verlauf werden dann Entwicklung und Akteure der Wertschöpfungskette der additiven Fertigung skizziert. Anschließend werden diverse Geschäftsmodelle im Kontext der additiven Fertigung systematisch visualisiert und erläutert. Ein weiterer wichtiger Aspekt sind die zu erwartenden wirtschaftlichen Potentiale, die sich aus einer Reihe technischer Charakteristika ableiten lassen. Festgehalten werden kann, dass der Gestaltungsspielraum von Fertigungssystemen hinsichtlich Komplexität, Effizienzsteigerung und Variantenvielfalt erweitert wird. Die gewonnenen Erkenntnisse werden außerdem genutzt, um zwei Vertreter der Branche exemplarisch mithilfe von Fallstudien zu analysieren.
Eines der untersuchten Fallbeispiele ist die populäre Online-Plattform und -Community Thingiverse, die das Veröffentlichen, Teilen und Remixen einer Vielzahl von druckbaren digitalen 3D-Modellen ermöglicht. Das Remixen, ursprünglich bekannt aus der Musikwelt, wird im Zuge des Aufkommens offener Online-Plattformen heute beim Entwurf beliebiger physischer Dinge eingesetzt. Trotz der unverkennbaren Bedeutung sowohl für die Quantität als auch für die Qualität der Innovationen auf diesen Plattformen, ist über den Prozess des Remixens und die Faktoren, die diese beeinflussen, wenig bekannt. Aus diesem Grund werden die Remix-Aktivitäten der Plattform explorativ analysiert. Auf Grundlage der Ergebnisse der Untersuchung werden fünf Thesen sowie praxisbezogene Empfehlungen bzw. Implikationen formuliert. Im Vordergrund der Analyse stehen die Rolle von Remixen in Design-Communities, verschiedene Muster im Prozess des Remixens, Funktionalitäten der Plattform, die das Remixen fördern und das Profil der remixenden Nutzerschaft.
Aufgrund enttäuschter Erwartungen an den 3D-Druck im Heimgebrauch wurde dieser demokratischen Form der Produktion kaum Beachtung geschenkt. Richtet man den Fokus jedoch nicht auf die Technik, sondern die Hobbyisten selbst, lassen sich neue Einblicke in die zugrunde liegenden Innovationsprozesse gewinnen. Die Ergebnisse einer qualitativen Studie mit über 75 Designern zeigen unter anderem, dass Designer das Konzept des Remixens bereits verinnerlicht haben und dieses über die Plattform hinaus in verschiedenen Kontexten einsetzen. Ein weiterer Beitrag, der die bisherige Theorie zu Innovationsprozessen erweitert, ist die Identifikation und Beschreibung von sechs unterschiedlichen Remix-Prozessen, die sich anhand der Merkmale Fähigkeiten, Auslöser und Motivation unterscheiden lassen.
The dissertation aims at investigating how information about jobs arriving to a service facility in the future can be used for capacity planning and control. Nowadays, technical equipment such as aircraft engines are equipped with sensors transferring condition data to central data warehouses in real-time. By jointly analyzing condition data and future usage information with machine learning algorithms, future equipment conditions and maintenance requirements can be forecasted. In the thesis, information regarding the arrival times of aircraft engine at a maintenance facility and the corresponding service requirements are used in order to optimally plan and control the flexible capacity of the facility. Queueing models are developed and analyzed to optimally size and control the facility's capacity and determine the implications on cost and job waiting time. It is demonstrated analytically and numerically that cost and waiting time can be reduced significantly when future information is available.
The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments.
Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt.
The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects.
This dissertation investigates selected causes and effects of worker mobility between firms in three empirical studies for Germany. Chapter 2 investigates the productivity effects of worker inflows to manufacturing establishments, distinguishing inflows by their previous employers’ wage level, as a proxy for productivity. The chapter is motivated by several empirical studies which find that worker inflows from more productive or higher-paying firms increase hiring firms’ productivity. The analyses in chapter 2 are based on a unique linked employer-employee data set. The findings indicate that inflows from higher-paying establishments do not increase hiring establishments’ productivity, but inflows from lower-paying establishments do. Further analyses suggest that this effect is due to a positive selectivity of such inflows from their sending establishments. These findings can be interpreted as evidence of a reallocation process by which the best employees of lower-paying establishments become hired by higher-paying establishments. This process reflects the assortative pattern of worker mobility in Germany documented by Card et al. (2013) for the past decades. The chapter thus contributes to the literature by linking establishment-level productivity analysis to the assortative pattern of inter-firm worker mobility, thereby providing a micro-foundation for the latter.
Chapter 3 focuses on a positive selection of workers moving between firms from another, more specific perspective. The analysis focuses on the importance of regional labor market competition for establishments’ apprentice training and poaching of apprenticeship completers. Previous studies have found that firms provide less training if they are located in regions with strong labor market competition. This finding is usually interpreted as evidence of a higher risk of poaching in these regions. Yet, there is no direct evidence that regional competition is positively correlated with poaching. Building on a recently established approach to ex-post identify poaching of apprenticeship completers, this chapter is the first to directly investigate the correlation between regional labor market competition and poaching. Using German administrative data, it is found that competition indeed increases training establishments’ probability of becoming poaching victims. However, poaching victims do not change their apprenticeship training activity in reaction to poaching. Instead, the findings indicate that the lower training activity in competitive regions can be attributed to lower retention rates, as well as a less adverse selection and lower labor and hiring costs of apprenticeship completers hired from rivals.
Chapter 4 investigates the effects of local broadband internet availability on establishment-level employment growth. The analysis uses data for Germany in the years 2005-2009, when broadband was introduced in rural regions of Western Germany and in large parts of Eastern Germany. Technical frictions in broadband rollout are exploited to obtain exogenous variation in local broadband availability. The results suggest that broadband expansion had a positive effect on employment growth in the Western German service sector and a negative effect in Western German manufacturing, suggesting that broadband expansion has accelerated the reallocation of workers from manufacturing to services. Furthermore, this pattern of results is driven by pronounced positive effects in knowledge- and computer-intensive industries, suggesting that it is the actual use of broadband in the production process that leads to complementary hiring, respectively a slowdown of employment growth, in the respective sectors. For Eastern Germany, no significant employment growth effects are found.
The impact of sustainable supply chain management practices on performance metrics – A meta-analysis
(2017)
Die vorliegende Arbeit untersucht mittels einer Meta-Analyse den Zusammenhang zwischen nachhaltigkeitsorientierter Supply Chain-Aktivitäten und der Unternehmensperformance. Es sollen auf Grundlage einer breiten Datenbasis aus den Jahren 2000 bis 2013 fundierte und aussagekräftige Zusammenhänge zwischen ökologisch nachhaltigen Supply Chain Aktivitäten und deren Wirkung auf unterschiedliche Bereiche der Unternehmensperformance hergestellt werden
Banks perform important functions for the economy. Besides financial intermediation, banks provide information, liquidity, maturity- and risk-transformation (Fama, 1985). Banks ensure the transfer of liquidity from depositors to the most profitable investment projects. In addition, they perform important screening and monitoring services over investments hence contributing steadily to the efficient allocation of resources across the economy (Pathan and Faff, 2013). Since banks provide financial services all across the economy, this exposes banks (as opposed to non-banks) to systemic risk: the recent financial crisis revealed that banks can push economies into severe recessions. However, the crisis also revealed that certain bank types appear far more stable than others. For instance, cooperative banks performed better during the crisis than commercial banks. Different business models may reason these performance-differences: cooperative banks focus on relationship lending across their region, hence these banks suffered less from the collapse of the US housing market.
Since cooperative banks performed better during the crisis than commercial banks, it is quite surprising that research concerning cooperative banks is highly underrepresented in the literature. For this reason, the following three studies aim to contribute to current literature by examining three independent contemporaneous research questions in the context of cooperative banks.
Chapter 2 examines whether cooperative banks benefit from revenue diversification: Current banking literature reveals the recent trend in the overall banking industry that banks may opt for diversification by shifting their revenues to non-interest income. However, existing literature also shows that not every bank benefits from revenue diversification (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Stiroh and Rumble (2006) find that large commercial banks (US Financial Holding Companies) perceive decreasing performance by shifting revenues towards non-interest income. Revenues from cooperative banks differ from those of commercial banks: commercial banks trade securities and derivatives, sell investment certificates and other trading assets. Concerning the lending business, commercial banks focus on providing loans for medium-sized and large companies rather than for small (private) customers. Cooperative banks rely on commission income (fees) from monetary transactions and selling insurances as a source of non-interest income. They generate most of their interest income by providing loans to small and medium-sized companies as well as to private customers in the region. These differences in revenues raise the question whether findings from Stiroh and Rumble (2006) apply to cooperative banks. For this reason, Chapter 2 evaluates a sample of German cooperative banks over the period 2005 to 2010 and aims to investigate the following research question: which cooperative banks benefit from revenue diversification?
Results show that findings from Stiroh and Rumble (2006) do not apply to cooperative banks. Revenue concentration is positive related to risk-adjusted returns (indirect effect) for cooperative banks. At the same time, non-interest income is more profitable than interest income (direct effect). The evaluation of the underlying non-interest income share shows that banks who heavily focus on non-interest income benefit by shifting towards non-interest income. This finding arises due to the fact, that the positive direct effect dominates the negative indirect effect, leading in a positive (and significant) net effect. Furthermore, results reveal a negative net effect for banks who are heavily exposed to interest generating activities. This indicates that shifting to non-interest income decreases risk-adjusted returns for these banks. Consequently, these banks do better by focusing on the interest business. Overall, results show evidence that banks need time to build capabilities, expertise and experience before trading off return and risk efficiently with regard on revenue diversification.
Chapter 3 deals with the relation between credit risk, liquidity risk, capital risk and bank efficiency: There has been rising competition in the European banking market due to technological development, deregulation and the introduction of the Euro as a common currency in recent decades. In order to remain competitive banks were forced to improve efficiency. That is, banks try to operate closer to a “best practice” production function in the sense that banks improve the input – output relation. The key question in this context is if banks improve efficiency at a cost of higher risk to compensate decreasing earnings. When it comes to bank risk, a large strand of literature discusses the issue of problem loans. Several studies identify that banks hold large shares of non-performing loans in their portfolio before becoming bankrupt (Barr and Siems, 1994; Demirgüc-Kunt, 1989). According to efficiency, studies show that the average bank generates low profits and incorporates high costs compared to the “best practice” production frontier (Fiordelisi et al., 2011; Williams, 2004). At first glance, these two issues do not seem related. However, Berger and DeYoung (1997) show that banks with poor management are less able to handle their costs (low cost-efficiency) as well as to monitor their debtors in an appropriate manner to ensure loan quality. The negative relationship between cost efficiency and non-performing loans leads to declining capital. Existing studies (e.g. Williams, 2004; Berger and DeYoung, 1997) show that banks with a low level of capital tend to engage in moral hazard behavior, which in turn can push these banks into bankruptcy.
However, the business model of cooperative banks is based on the interests of its commonly local customers (the cooperative act: § 1 GenG). This may imply that the common perception of banks engaging in moral hazard behavior may not apply to cooperative banks. Since short-term shareholder interests (as a potential factor for moral hazard behavior) play no role for cooperative banks this may support this notion. Furthermore, liquidity has been widely neglected in the existing literature, since the common perception has been that access to additional liquid funds is not an issue. However, the recent financial crisis revealed that liquidity dried up for many banks due to increased mistrust in the banking sector. Besides investigating moral hazard behavior, using data from 2005 to 2010 this study moves beyond current literature by employing a measure for liquidity risk in order to evaluate how liquidity risk relates to efficiency and capital.
Results mostly apply to current literature in this field since the empirical evaluation reveals that lower cost and profit-efficiency Granger-cause increases in credit risk. At the same time, results indicate that credit risk negatively Granger-causes cost and profit-efficiency, hence revealing a bi-directional relationship between these measures. However, most importantly, results also show a positive relationship between capital and credit risk, thus displaying that moral hazard behavior does not apply to cooperative banks. Especially the business model of cooperative banks, which is based on the interests of its commonly local customers (the cooperative act: § 1 GenG) may reason this finding. Contrary to Fiordelisi et al. (2011), results also show a negative relationship between capital and cost-efficiency, indicating that struggling cooperative banks focus on managing their cost-exposure in following periods. Concerning the employed liquidity risk measure, the authors find that banks who hold a high level of liquidity are less active in market related investments and hold high shares of equity capital. This outcome clearly reflects risk-preferences from the management of a bank.
Chapter 4 examines governance structures of cooperative banks: The financial crisis of 2007/08 led to huge distortions in the banking market. The failure of Lehman Brothers was the beginning of government interventions in various countries all over the world in order to prevent domestic economies from even further disruptions. In the aftermath of the crisis, politicians and regulators identified governance deficiencies as one major factor that contributed to the crisis. Besides existing studies in the banking literature (e.g. Beltratti and Stulz, 2012; Diamond and Rajan, 2009; Erkens et al., 2012) an OECD study from 2009 supports this notion (Kirkpatrick, 2009). Public debates increased awareness for the need of appropriate governance mechanisms at that time. Consequently, politicians and regulators called for more financial expertise on bank boards. Accordingly, the Basel Committee on Banking Supervision states in principle 2 that “board members should remain qualified, individually and collectively, for their positions. They should understand their oversight and corporate governance role and be able to exercise sound, objective judgement about the affairs of the bank.” (BCBS, 2015). Taking these perceptions into consideration the prevailing question is whether financial experts on bank boards do really foster bank stability?
This chapter aims to investigate this question by referring to the study from Minton et al. (2014). In their study, the authors investigate US commercial bank holding companies between the period 2003 and 2008. The authors find that financial experts on the board of US commercial bank holding companies promote pro-cyclical bank performance. Accordingly, the authors question regulators view of more financial experts on the board leading to more banking stability.
However, Minton et al. (2014) do not examine whether their findings accrue due to financial experts who act in the interests of shareholders or due to the issue that financial experts may have a more risk-taking attitude (due to a better understanding of financial instruments) than other board members.
Supposed that their findings accrue due to financial experts who act in the interests of shareholders. Then financial experts on the board of banks where short-term shareholder interests play no role (cooperative banks) may prove beneficial with regard on bank performance during the crisis as well as in normal times. This would mean that they use their skills and expertise to contribute sustainable growth to the bank. Contrary, if this study reveals pro-cyclical bank performance related to financial experts on the board of cooperative banks, this finding may be addressed solely to the risk-taking attitude of financial experts (since short-term shareholder interests play no role). For this reason, this chapter aims to identify the channel for the relation of financial experts and bank performance by examining the following research question: Do financial experts on the board promote pro-cyclical bank performance in a setting where short-term shareholder interests play no role?
Results show that financial experts on the board of cooperative banks (data from 2006 to 2011) do not promote pro-cyclical bank performance. Contrary, results show evidence that financial experts on the board of cooperative banks appear to foster long-term bank stability. This suggests that regulators should consider ownership structure (and hence business model of banks) when imposing new regulatory constraints for financial experts on the bank board.
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.
Implementierung von CSR im Einkauf unter Berücksichtigung situativer Führung von Agents und Stewards
(2016)
Zielsetzung und Ablauf der Untersuchung
Hintergrund des Untersuchungsvorhabens ist die Problematik der oftmals ungenügenden Umsetzung von CSR im Einkauf durch Unternehmen im Hinblick auf internationale Anforderungen. Leider gibt es viele Beispiele von Menschen- oder Arbeitnehmerrechtsverletzungen und/oder Umweltvergehen bei Lieferanten in Emerging Markets, wie zum Beispiel der Brand eines Textilunternehmens in Pakistan, bei dem 2012 über 250 Mitarbeiter starben, da die Notausgänge verschlossen und Fenster vergittert waren. Nur ein Jahr später kamen bei dem Einsturz des Produktionsgebäudes eines Textilunternehmens in Bangladesch über 1.000 Mitarbeiter ums Leben. Beide Unternehmen dienten als verlängerte Werkbank für westliche Textilmarken. Diese Beispiele deuten darauf hin, dass internationale Einkaufsorganisationen ihrer Verantwortung in Bezug auf CSR-Richtlinien, wie zum Beispiel den UN Global Compact, oftmals nicht gerecht werden.
Ein im Rahmen dieser Arbeit durchgeführter Unternehmensbenchmark hat dennoch gezeigt, dass es Unternehmen gibt, die CSR im Einkauf ernst nehmen und dementsprechend die erforderlichen Strategien und Ressourcen vorhalten. Auf solche Unternehmen bezieht sich diese Arbeit und untersucht, warum sich gerade diese Unternehmen oftmals dennoch schwertun, CSR im Einkauf gemäß den eigenen Ansprüchen umzusetzen. Die Ursache der Differenz zwischen Zielsetzung und Umsetzung von CSR im Einkauf und hierbei speziell das intrinsische Motivationspotenzial der Einkaufsmitarbeiter in Abhängigkeit verschiedener Führungsstile stellt daher den theoriegeleiteten Untersuchungsgegenstand dieser Arbeit dar.
Die empirische Hauptuntersuchung erfolgte im Rahmen von CSR-Pflichtschulungen für Einkäufer des im Anschluss an den Benchmark als Untersuchungsobjekt ausgewählten Unternehmens. 832 Einkaufsmitarbeiter nahmen erfolgreich an der Befragung mithilfe eines Onlinefragebogens teil.
Ergebnisse der Untersuchung
Zusammenfassend kann festgehalten werden, dass das untersuchte Unternehmen bezüglich CSR im Einkauf prinzipiell ein hohes intrinsisches Motivationspotenzial innerhalb der Mitarbeiterbasis hat. Die Daten haben weiterhin gezeigt, dass dieses Motivationspotential unter einem aktiven Führungsstil zu einer vergleichsweise hohen Leistung führt.
Herrscht hingegen bezüglich CSR im Einkauf Laissez-faire-Führung vor, bleibt das intrinsische Motivationspotenzial der Mitarbeiter weitestgehend ungenutzt beziehungsweise wird weiter reduziert. Daher wäre es fatal, falls eine Einkaufsleitung davon ausgeht, dass CSR im Einkauf von den Einkaufsmitarbeitern allein aufgrund von persönlichen Werten und durch eine soziale Unternehmenskultur umgesetzt wird. Ohne aktive persönliche Führung und insbesondere ohne das Erfüllen einer Vorbildfunktion durch die Einkaufsleitung, ist mit keiner hohen Umsetzung durch die Mitarbeiter zu rechnen.
Diese Erkenntnisse haben einen sehr zentralen Charakter, da sich andere Aspekte wie Zielkonflikte oder Mitarbeiterbefähigung im Vergleich zu Motivation und Führung als vergleichsweise weniger relevant für die Umsetzung von CSR im Einkauf erwiesen haben. Hier schließt sich ein weiteres wichtiges Fazit an: Sogenannte Materialkostenerhöhungen werden oftmals als maßgebliche Hinderungsgründe für die Umsetzung von CSR im Einkauf genannt, da sie einen Konflikt mit traditionellen Einkaufsratiozielen auslösen können. Als Untersuchungsergebnis haben aber diejenigen Mitarbeiter, die CSR im Einkauf aktiv umsetzen, keine Zielkonflikte wahrgenommen. Im Umkehrschluss kann vermutet werden, dass Zielkonflikte eher von solchen Mitarbeitern wahrgenommen oder befürchtet werden, welche sich bisher noch nicht eingehend mit der Umsetzung und den einhergehenden Konsequenzen befasst haben. Es besteht also die Gefahr, dass in Bezug auf die Umsetzung von CSR im Einkauf unerfahrene Mitarbeiter aufgrund von Vorurteilen bereits im Vorfeld resignieren und damit wertvolles Potential ungenutzt bleibt. Auch hier tragen die Führungsverantwortlichen die Verantwortung, Einkäufer zu Handlungen anzuleiten, damit diese Erfahrungen sammeln und dementsprechend besser urteilen können.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Chapter 2 concerns the audit market for German credit institutions (excluding savings banks and cooperative banks), and the presented study allows conclusions to be drawn regarding recent concentration levels of this particular audit market. The last reliable (statistical) studies concerning the audit market for German credit institutions were published several years ago (Grothe 2005; Lenz 1996b; Lenz 1997; Lenz 1998). This is surprising because parts of the new regulations concerning the audit market for public-interest entities—which should also apply to credit institutions (European Commission 2006c)—in Europe would require analyses of the audit market concentration to be performed on a regular basis. Therefore, this study begins to fill this research gap, and it reveals that the audit market for German credit institutions was highly concentrated (market leadership: KPMG AG WPG and PricewaterhouseCoopers AG WPG) in 2006 and 2010. Moreover, the findings also highlight that between these years, neither a notable trend toward higher levels of concentration nor a deconcentration process was evident. Finally, it is illustrated that the regulatory requirements for publishing audit fees and the corresponding right to claim exemption (§§ 285 Sentence 1 No. 17, 314 (1) No. 9 Commercial Code) do not allow the calculation of concentration figures that cover the entire audit market for credit institutions. Thus, it will continue to be necessary to use surrogates for audit fees, and analyses reveal that the arithmetic mean of the total business volume (or total assets) of a credit institution and its square root is a very good surrogate for calculating concentration measures based on audit fees.
Chapter 3 seeks to determine whether public oversight of public-interest entities (PIEs) increases audit fees specifically in the financial industry, which is already a highly regulated industry characterized by intense supervision. To answer this question, a sample of 573 German credit institutions is examined over the 2009–2011 period, as not all credit institutions were considered PIEs in Germany (until very recently). First, the results show that a credit institution’s business risk is related to audit fees. In addition, the findings reveal not only that PIE credit institutions pay statistically significantly higher audit fees but also that this effect is economically substantial (representing an audit fee increase of 31.38%). Finally, there are several indications that the relationship between (other) credit institutions’ business risks and audit fees is greater for PIE credit institutions.
Chapter 4 examines the association between the results of auditor ratification votes and perceived external financial reporting quality. As has been recently remarked by Wei et al. (2015), far too little is known about shareholders’ interests in and perceptions of the election, approval or ratification of auditors. Although auditor ratification by shareholders is normally a routine, non-binding action and the voting ratios are in the range of 95% or higher, the SEC emphasized the importance of this process by amending the disclosure requirements for such voting results in 2010 (SEC 2009; SEC 2010). This study demonstrates that the results of auditor ratification votes are associated with market reactions to earnings surprises (SEC registrants; 2010 to 2013). Moreover, there are moderate indications that this effect may be positively related to higher levels of information asymmetry between managers and shareholders, that such voting results contain incremental informational content beyond that of other publicly available audit-related information, and that the time lag between the ratification of an auditor and the earnings announcement influences the vote’s importance. Finally, the study sheds additional light on an overlooked audit-related topic (e.g., Dao et al. 2012; Hermanson et al. 2009; Krishnan and Ye 2005; Sainty et al. 2002), and illustrates its relation to accounting. More importantly, the provided evidence indicates that disclosure of the results of auditor ratification votes might benefit (prospective) shareholders.
Chapter 5 addresses the question of whether and when shareholders may have a negative perception of an auditor’s economic dependence on the client. The results for a Big 4 client sample in the U.S. (2010 to 2014) show that the economic importance of the client—measured at the audit office-level—is negatively associated with shareholders’ perceptions of external financial reporting quality—measured in terms of the earnings response coefficient and the ex ante cost of equity capital—and, therefore, is perceived as a threat to auditor independence. Moreover, the study reveals that shareholders primarily regard independence due to client dependence as a problem for firms that are more likely to be in financially distressed conditions.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.
Bei der Durchführung öffentlicher Bauprojekte ist eine intensive Zusammenarbeit zwi¬schen vielen Beteiligten erforderlich: die in der Bauverwaltung des Bauherren angesiedelte Projektleitung, Bedarfsträger (z. B. Universität oder Be¬hörde), Gre-mien des Bauherrn (Kommunal-, Kreis- oder Bundesparlament), dessen Haus-haltsabteilung, Objekt- und Fachplaner (freiberuflich oder als Mitarbeiter der Bauverwaltung), Gutachter, Bauunternehmen, Lieferanten und Dienstleister, Raumordnungs-, Planfeststellungs- und Genehmigungsbehörden. Der Planungs-, Genehmigungs- und Realisationsprozess erstreckt sich meist über mehrere Jahre. Währenddessen ist ein intensiver Informations- und Kommunikationsaustausch zwischen den Beteiligten erforderlich. Baupläne, Leistungsverzeichnisse, Ange-bote, Verträge, Protokolle, Bauzeitenpläne und Rechnungen werden immer noch per E-Mail oder in Papierform ausgetauscht. Wegen der meist größeren Zahl zeit-gleich betreuter Bauprojekte führt dies bei fast allen Beteiligten regelmäßig zu einer herausfordernd großen Korrespondenz und einem als mangelhaft zu be-zeichnenden Überblick über die aktuellen Projektdaten.
Wegen der hochgradigen Interdependenz der Teilprozesse über alle Phasen hin-weg sind aber eine möglichst reibungslose Koordination und die ständige Verfüg-barkeit aktueller Daten bei allen Beteiligten unabdingbare Voraussetzungen, um eine Baumaßnahme zügig und im vorgesehenen Kostenrahmen auszuführen. Während Datenaustausch und Koordination bei großen gewerblichen Bauprojek-ten bereits mit Erfolg durch virtuelle Projekträume unterstützt werden, sind die öffentlichen Bauverwaltungen hier noch zögerlich. Die Erstellung eines einheitli-chen und prozessübergreifenden Datenmodells speziell für die Abläufe öffentli-cher Auftraggeber als Ziel der Arbeit könnte helfen, die Vorteile eines zentralen, für alle Beteiligten zugänglichen Datenbestandes auch für die Bauverwaltungen und ihre Projekte nutzbar zu machen und vormals getrennt gehaltene Datenbe-stände zu einem einzigen zusammenzuführen (Datenintegration). Die gründliche Analyse der Abläufe und Informationsflüsse zwischen den Beteiligten über alle Phasen eines öffentlichen Bauprojekts hinweg sowie eine Bestandsaufnahme der gegenwärtig am Markt verfügbaren virtuellen Projekträume im ersten Teil der Arbeit bilden die Grundlage für die Modellierung der Daten sowie ihrer Zusam-menhänge im zweiten Teil.
Mit der Gesamtdarstellung der Beteiligten, ihrer Rollen und Aufgaben, der Do-kumente und der zugehörigen Metadaten über alle Phasen und Baufachbereiche hinweg wurde ein neuer Forschungsbeitrag erarbeitet. Die unterschiedlichen Be-zeichnungen z. B. in Hoch- und Tiefbauprojekten wurden im Interesse der Ver-ständlichkeit erhalten, aber in einer gemeinsamen Struktur zusammengeführt. Diese Modellierung ist die Voraussetzung für eine verbesserte informationstech-nische Unterstützung öffentlicher Bauprojekte und zugleich die ureigenste Aufga-be des Wirtschaftsinformatikers als Mittler zwischen Anwendern und Entwick-lern.
Das in dieser Arbeit entwickelte Datenmodell erlaubt wegen seiner verwaltungs- und baufachbereichsübergreifenden Konzeption im Sinne eines Referenzmodells den Einsatz als Basis einer Standardanwendungssoftware, die mit geringem An-passungsaufwand bei einer großen Zahl an Kunden im öffentlichen Bereich einge-setzt werden kann. Beispiele sind Projektraumanwendungen sowie Workflow-Management-Systeme. Es ist zugleich ein Referenzvorschlag an die Entwickler bestehender Anwendungen zur Definition von Schnittstellen und schließlich zur Umsetzung applikationsübergreifender Integrationsansätze.
Die vorliegende Arbeit untersucht empirisch, inwieweit neoklassische Theorien wie die Erwartungsnutzentheorie, die individuellen Reaktionen auf die Einführung einer proportionalen Einkommensteuer und die Veränderung der steuerlichen Verlustausgleichsmöglichkeiten erklären. Darüber hinaus soll auch eine möglicherweise verzerrte Wahrnehmung der steuerlichen Regelungen aufgedeckt und in die Analyse des beobachteten Investitionsverhaltens einbezogen werden. Die Umsetzung erfolgt mittels eines kontrollierten Labor-Experimentes. Die gewählte Forschungsmethode erlaubt die Unterscheidung von Rationalen Steuereffekten, d.h. Effekte, die neoklassische Theorien erwarten lassen und steuerbedingten Perzeptionseffekten, d.h. Effekte, die auf steuerbedingte Wahrnehmungsverzerrungen zurückzuführen sind. Wird für den Perzeptionseffekt kontrolliert, kann sowohl die theoretisch ermittelte Wirkung einer proportionalen Einkommensteuer mit vollständigem als auch ohne steuerlichem Verlustausgleich auf riskante Investitionen empirisch bestätigt werden. Dagegen stehen die beobachteten Investitionsentscheidungen teilweise im Widerspruch zu den Ergebnissen der theoretischen Arbeiten, wenn auf eine Kontrolle für den Perzeptionseffekt verzichtet wird.
Hieran anknüpfend, werden im Rahmen eines zweiten Experimentes Ursachen steuerbedingter Wahrnehmungsverzerrungen und deren Wirkung auf die Bereitschaft, riskant zu investieren, näher beleuchtet. Für eine tiefgreifende Analyse des möglichen Perzeptionseffekts einer proportionalen Steuer mit vollständigem Verlustausgleich wird die bestehende verhaltenswissenschaftliche Steuerforschung erweitert und zwischen extrinsischen und intrinsischen Faktoren differenziert. Das durchgeführte Experiment verdeutlicht, dass die betrachtete proportionale Steuer das riskante Investitionsverhalten verzerrt. Jedoch ist die steuerbedingte Verzerrung, der Perzeptionseffekt, umso geringer, je niedriger das Niveau an kognitiver Belastung ist. Die abnehmende Verzerrung des Entscheidungsverhaltens scheint auf eine ebenfalls abnehmende Verwendung ungenauer Entscheidungs-Heuristiken zurückzuführen zu sein. Die dagegen unabhängig von dem Niveau an Steuer-Komplexität bzw. Steuer-Salienz beobachtete Zunahme der riskanten Investitionsbereitschaft nach Erhebung der proportionalen Steuer spiegelt sich in der steuerbedingten Veränderung der affektiven und kognitiven Wahrnehmung wider.
In den zwei experimentalökonomischen Analysen wird die Allokation gegebener Mittel auf riskante und sichere Anlagen betrachtet. Daneben werden aber sowohl Unternehmen als auch Privatpersonen mit sich ausschließenden Investitionsalternativen konfrontiert. Beide Fälle haben gemeinsam, dass im maßgeblichen Entscheidungskalkül die geltenden steuerlichen Regelungen grundsätzlich zu berücksichtigen sind. Jedoch postuliert die betriebswirtschaftliche Steuerforschung, dass bei einer Entscheidung zwischen sich ausschließenden Investitionsalternativen die Besteuerung vernachlässigt werden kann, wenn diese keine Wirkung entfaltet. Hieran anknüpfend, wird ein Konzept entscheidungsneutraler und gleichmäßiger Gewinnbesteuerung entwickelt, das auch bei unvollkommener Voraussicht praktikabel, rechtssicher und mit einer Gewinnermittlung durch nominalen Vermögensvergleich vereinbar sein soll. In Anlehnung an König (1997 a), lässt sich zeigen, dass ein Verfahren revolvierender Ertragswertkorrektur bei zusätzlicher Erfassung des Kapitalwertes diese Anforderungen erfüllt. Das rechnerisch komplexe Vorgehen kommt dabei – unter bestimmten Annahmen – im Ergebnis der Gewinnermittlung durch Vermögensvergleich nach geltendem Steuerrecht sehr nahe. Infolgedessen wird auch das theoretisch bislang ungelöste Problem des zeitlichen Bezugspunktes der Besteuerung vernachlässigbar.
The growing interest in Radio Frequency Identification (RFID) technology in recent years has sparked an intensive debate on the benefits to be expected. With the growth of RFID implementations in size and scope comes a shift away from infrastructural aspects to the question of how to draw value from the large amounts of collected data. However, the necessary procedures for the handling of massive RFID data sets are still an under-researched issue. Against this background, the study presents results from a real-world trial conducted by a large apparel retailer. The objective of the trial was to explore the opportunities for generating novel performance indicators and reports on the reality of store processes and customer behavior on the sales floor. We give an overview of the algorithms used for RFID data processing and the interpretation of the resulting insights from a practitioner’s point of view. The case example thus provides an overview of the potential of RFID as a powerful tool for assortment optimization, customer research, store layout design, and other management tasks in retail.
This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things.
The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy.
The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness.
The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.
Angesichts der demografischen Entwicklung setzt die Bundesregierung zur Schließung der drohenden Rentenlücke auch auf die betriebliche Altersversorgung (bAV). Dieses Gutachten entwickelt Empfehlungen an den Gesetzgeber zur Optimierung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen der bAV. Die Zielvorgabe lautet, die Verbreitung der bAV unter Gering- und Niedrigverdienern zu erhöhen und kleinen und mittleren Unternehmen als Arbeitgeber Anreize zu setzen, ihren Arbeitnehmern ein bAV-Angebot zu unterbreiten.
Das Gutachten schafft einen umfassenden Überblick über bestehende Hemmnisse für diese beiden Zielgruppen, an der bAV zu partizipieren.
Auf dieser Basis werden zehn Reformüberlegungen erarbeitet und auf ihre Wirkungen hin geprüft. Hieraus ergeben sich jeweils eine Handlungsempfehlung für die Arbeitgeber- und die Arbeitnehmerseite.
Außerdem werden Ansatzpunkte für eine Vereinfachung der steuer- und sozialversicherungsrechtlichen Regelungen aufgezeigt. Die Analyse der Hemmnisse und die Kernelemente der Empfehlungen wurden durch Interviews mit Experten und mit Angehörigen der Zielgruppen empirisch abgesichert.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Bereits seit Anfang der 1990er Jahre wird jungen Wissenschaftlern im Vorfeld der Tagung "Wirtschaftsinformatik" ein Doctoral Consortium als unterstützendes Forum angeboten. Diese Einrichtung wurde auch zur größten Internationalen Konferenz der Wirtschaftsinformatik, der WI 2015 in Osnabrück fortgeführt. Dieser Band fasst die zum Vortag ausgewählten Beiträge zusammen.
In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt.
Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:
Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).
Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.
Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.
Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.
Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind.
Die Grundlage für eine hohe Bestandsgenauigkeit ist die unternehmensübergreifende Identifikation und Nachverfolgung von Waren, die mit automatisierten Identifizierungstechnologien (Auto-ID-Technologien) ermöglicht wird. Die Einführung der Auto-ID-Technologie des Barcodes hat die Industrie vor mehr als 30 Jahren fundamental verändert. Darauf aufbauend versprechen neuere Auto-ID-Technologien wie die „Radio Frequency Identification“ (RFID) Probleme wie die Nichtverfügbarkeit von Waren, eine intransparente Diebstahlrate oder Warenschwund durch eine bessere Nachverfolgung aller Waren und eine höhere Bestandsgenauigkeit zu lösen. Die Vorteile von RFID gegenüber dem Barcode sind unter anderem die höhere Datendichte, die größere Robustheit gegenüber Umwelteinflüssen sowie die schnellere und mehrfache Erfassung von Gegenständen.
Viele Unternehmen sehen sich jedoch vor allem nach der Implementierung einer RFID-Infrastruktur mit einer Vielzahl von Problemen konfrontiert. Aspekte wie wenig Unterstützung durch das Management, interner Widerstand durch Mitarbeiter, Probleme bei der Integration von Hardware und Software und vor allem eine mangelnde Datenqualität verhindern, dass die prognostizierten positiven Effekte erreicht werden können. Derartige Phänomene werden passend unter dem Begriff „Credibility Gap“ zusammengefasst. Dieser beschreibt die Problematik, dass es insgesamt an Verfahren, Methoden und gezielter Unterstützung mangelt, um die in der Literatur umfangreich versprochenen positiven Effekte tatsächlich und nachhaltig zu realisieren. Passend werden die erwarteten Einsparungen und Verbesserungen durch den RFID-Einsatz oftmals als Expertenschätzungen und sogar als größtenteils rein spekulativ bezeichnet.
Das Ziel dieser Dissertation ist es, Praktikern das Erreichen der positiven RFID-Effekte zu ermöglichen. Hierzu wurden vielfältige Untersuchungen auf Basis einer langfristigen Kooperation mit einem der weltweit größten Bekleidungshändler durchgeführt, indem ein RFID-Implementierungsprojekt begleitet und intensiv mitgestaltet wurde. Zunächst wird bestätigt, dass die prognostizierten Vorteile der RFID-Technologie tatsächlich nicht allein durch die Implementierung der benötigten Infrastruktur erreicht werden können. Als Grund werden hohe Bestandsungenauigkeiten der verwendeten Bestandssysteme identifiziert, die sowohl auf technische als auch auf menschlich verursachte Fehler zurückzuführen sind. Als Folge ist die RFID-Datenqualität nicht verlässlich.
Die Dissertation setzt an den Problemen des Credibility Gap an und diagnostiziert bei einer bereits implementierten RFID-Infrastruktur zunächst die Fehler und Ursachen der mangelnden Datenqualität. Darauf aufbauend werden Maßnahmen und Handlungsanweisungen vorgestellt, mit deren Hilfe die Fehler behoben und die Infrastruktur schließlich verbessert und überwacht werden kann.
Um insgesamt die Anforderungen der Praxis und der Wissenschaft erfolgreich miteinander zu verknüpfen, wird als Forschungsmethode eine neuartige Kombination zweier Ausprägungen der Aktionsforschung verwendet. Als Ergebnis werden einerseits für Praktiker hilfreiche Frameworks und Tests zur Fehlerbehebung, Überwachungskennzahlen sowie Regeln des effektiven RFID-Systemmanagements beschrieben. Alle durchgeführten und in der Dissertation vorgestellten Maßnahmen führen nachweislich zu einer erhöhten Datenqualität eines implementierten RFID-Systems und stellen Möglichkeiten zur kennzahlenbasierten Visualisierung der RFID-Prozessperformance bereit. Andererseits wird ein Modell für die Verwendung der Aktionsforschung vorgeschlagen sowie eine umfangreiche Validierung der Methodik durchgeführt. Auf diese Weise wird neben der Praxisrelevanz der Ergebnisse auch die Präzision der Forschungsergebnisse sichergestellt.
Sämtliche Ergebnisse dienen als Basis für vielfältige Forschungsansätze. So ermöglichen eine höhere Verlässlichkeit und Datenqualität der RFID-Informationen aussagekräftigere Analysen. Weiter sind durch fehlerkorrigierte Prozessdaten neuartige Methoden des RFID-Data-Mining denkbar. Dieser Forschungsbereich ist nach wie vor größtenteils unberührt und bietet enormes Potential, weitere durch RFID in Aussicht gestellte Vorteile zu realisieren.
Das vorliegende Working Paper untersucht die Performancewirkung eines multi-dimensionalen Strategie-Alignments in der Beschaffung. Hierfür wird zunächst ein Systematischer Literatur Review durchgeführt und der Wissenstand im Forschungsfeld erhoben. Die systematische Klassifikation, Analyse, Bewertung und Synthese der identifizierten 29 empirischen Studien erfolgt dabei auf der Grundlage eines konzeptionellen Frameworks und zugehöriger Inhaltskategorien sowie weiterer methodischer Vergleichsgrößen. Die Ergebnisse dieser Untersuchung zeigen nachdrücklich auf, dass eine Abstimmung, Harmonisierung und Verbindung von Beschaffungsstrategien (1) mit den übergeordneten Unternehmenszielen und -strategien, (2) anderen funktionalen Teilbereichen, sowie (3) der Lieferantenbasis (unter Berücksichtigung der kontextbezogenen Anforderungen und Gegebenheiten) zu signifikant positiven Performance-Effekten beiträgt. Insofern sollten die Empfehlungen dieser Untersuchung für ein holistisches Strategie-Alignment im Einkauf herangezogen werden. Neben der Ableitung von Implikationen für die Unternehmenspraxis wird eine Forschungsagenda für interessierte Wissenschaftler erarbeitet, indem inhaltliche Wissenslücken und methodische Verbesserungspotenziale auf Basis des Bezugsrahmens und einschlägiger Referenztexte definiert sowie zukünftige Forschungsbedarfe aufgezeigt werden. Darauf aufbauend wird die zentrale (bis dato unbeantwortete) Forschungsfrage eines integrativen Strategie-Alignment-Index durch die Operationalisierung der zugehörigen Konstrukte sowie der Formulierung entsprechender Hypothesen als Grundlage für die Durchführung einer empirischen Studie adressiert.
Diese Arbeit untersucht Literatur Reviews (LRs) im Forschungsfeld des Supply Chain Managements (SCM). Hierfür werden zunächst die methodischen und terminologischen Grundlagen der Analyse erarbeitet sowie taxonomische und thematische Klassifikati-onsschemata vergleichend gegenübergestellt. Anschließend werden der LR-Prozess dieser Untersuchung und ausgewählte Evaluationsdimensionen definiert. Auf diesen grundlegenden Vorarbeiten aufbauend werden LRs des SCM identifiziert, klassifiziert und umfassend bewertet. Die Forschungsergebnisse zeigen, dass es narrativen LRs teil-weise an methodischer Genauigkeit mangelt und infolgedessen die Technik des syste-matischen LR zunehmend an Bedeutung gewinnt. Darüber hinaus dient diese Arbeit als Bewertungsraster zur Evaluation der methodischen Güte von LRs, als Leitlinie zur Er-stellung von systematischen LRs und als State-of-the-Art der Sekundärforschung im SCM.
In this paper the relationship between corporate sustainability performance and corporate financial performance is researched. It is hypothesized that a better sustainability performance of firms leads to financial success in terms of increased EBIT and Market Capitalization. Furthermore 17 environmental activities and their assumed impact on financial benefits are analyzed for ten different industry sectors. The data sample for this research paper has been taken from Thomson Reuters Database ASSET4 and includes 3115 firms. The results show that there is a positive and non-linear link between the sustainability performance and the financial performance of firms, intending that financially more successful firms can gain greater benefits from being sustainable than less successful firms do. Furthermore sustainable environmental activities have been identified for different industry sectors, which indicate to lead to an increase of the financial performance.
Frequent acquisition activities in high-technology industries are due to the intense competition, driven by short product life cycles, more complex products/services and prevalent network effects. This dissertation theoretically analyzes the circumstances leading to technology-driven acquisitions and empirically tests these within a clearly defined market scenario.
This dissertation is divided into three studies by addressing the following constitutive research questions in the context of the biotechnology industry: (1) How do different types of inter-firm alliances influence a firm’s R&D activity? (2) How does an increasing number and diversity of alliances in a firm’s alliance portfolio affect its R&D activity? (3) What is the optimal balance between exploration and exploitation? (1) To answer these research questions the first main chapter analyzes the impact of different types of alliances on the R&D activities of successful firms in the biotechnology industry. Following the use of a new approach to measuring changes in research activities, the results show that alliances are used to specialize in a certain research field, rather than to enter a completely new market. This effect becomes smaller when the equity involvement of the partners in the alliance project increases. (2) The second main chapter analyzes the impact on innovation output of having heterogeneous partners in a biotechnology firm’s alliance portfolio. Previous literature has stressed that investment in the heterogeneity of partners in an alliance portfolio is more important than merely engaging in multiple collaborative agreements. The analysis of a unique panel dataset of 20 biotechnology firms and their 8,602 alliances suggests that engaging in many alliances generally has a positive influence on a firm’s innovation output. Furthermore, maintaining diverse alliance portfolios has an inverted U-shaped influence on a firm’s innovation output, as managerial costs and complexity levels become too high. (3) And the third main chapter investigates whether there is an optimal balance to be found between explorative and exploitative innovation strategies. Previous literature states that firms that are ambidextrous (i.e., able to focus on exploration and exploitation simultaneously) tend to be more successful. Using a unique panel dataset of 20 leading biotechnology firms and separating their explorative and exploitative research, the chapter suggests that firms seeking to increase their innovation output should avoid imbalances between their explorative and exploitative innovation strategies. Furthermore, an inverted U-shaped relationship between a firm’s relative research attention on exploration and its innovation output is found. This dissertation concludes with the results of the dissertation, combines the findings, gives managerial implications and proposes areas for potential further research.
In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland für vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gewährt. Die Investitionsmöglichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien führen stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Begünstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabhängige Förderung kann dazu führen, dass ein durchschnittlich verdienender Eigenheimkäufer Förderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienförderung innerhalb der Altersvorsorge („Wohn-Riester“) ermöglicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche Förderung integriert worden und begünstigt so die Rückführung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Vermögensübertragung auf eine steuerbegünstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die Länge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelmäßig nur in Verbindung mit zusätzlichen Begünstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit für die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien können durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Ausübung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant für niedrige Kapitalkosten ist. Die ver-mögensverwaltende Immobilien-AG stellt aufgrund der flexiblen Ausschüttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar.
Eine Vielzahl von Ökonomen untersucht mit Hilfe verschiedener theoretischer Modelle, inwiefern Steuern Einfluss auf wirtschaftliche Entscheidungen haben. Eine grundlegende Annahme in diesen Modellen ist dabei die Abwesenheit von Fehlwahrnehmungen. Ziel dieser Arbeit ist es, systematische Fehlwahrnehmungen hinsichtlich steuerlicher Einflussgrößen aufzuspüren, die zu einer Verletzung dieser Annahme führen. Nach einem ausführlichen Literaturüberblick, in dem insbesondere experimentelle Beiträge betrachtet werden, die den Einfluss von Steuern auf ökonomische Entscheidungen untersuchen, wird im ersten Teil dieser Arbeit mit Hilfe von zwei Laborexperimenten analysiert, ob Individuen Investitionsentscheidungen unter der Berücksichtigung von Steuern treffen. Und wenn ja, ob die steuerlichen Einflussgrößen so wahrgenommen werden, wie sie tatsächlich wirken. Der zweite Teil dieser Arbeit beschäftigt sich mit der Fragestellung, ob und in welchem Ausmaß Steuern bei Arbeitsangebotsentscheidungen berücksichtigt werden. Hierzu werden ebenfalls zwei Laborexperimente durchgeführt, in denen jeweils der Einfluss einer Einkommensbesteuerung und deren Wahrnehmung auf die Arbeit-Freizeit-Entscheidungen untersucht wird. Im ersten Experiment des ersten Teils bestand die Aufgabe der Teilnehmer darin, in mehreren Entscheidungssituationen binäre Investitionsentscheidungen zu treffen, wobei in verschiedenen Treatments die steuerliche Behandlung von Gewinnen und Verlusten variiert wurde. Im Ergebnis zeigt sich zwar, dass die Individuen bei ihren Investitionsentscheidungen Steuern berücksichtigen, doch unterliegen sie einer Art von Illusion hinsichtlich der Wirkungsweise des steuerlichen Verlustausgleichs. So zeigt sich im Fall ohne Einkommensbesteuerung und im Fall einer proportionalen Einkommensteuer ohne die Möglichkeit eines Verlustausgleichs, dass die Anzahl der riskanten Investitionsentscheidungen nicht signifikant von der Anzahl risikoarmer Entscheidungen verschieden ist. Allerdings kommt es in den Fällen einer Einkommensbesteuerung mit unvollständigem Verlustausgleich zu einem starken Anstieg riskanter Entscheidungen, was letztlich auf eine Überschätzung der Wirkung des Verlustausgleichs zurückzuführen ist. Dies bedeutet, dass die Teilnehmer die Wirkung des steuerlichen Verlustausgleichs positiver wahrnehmen, als dies tatsächlich der Fall ist. Beim zweiten Laborexperiment sollten die Teilnehmer eine Entscheidung über die genaue Höhe einer Investition treffen. In verschiedenen Treatments wurden dabei der Einfluss einer Besteuerung mit vollständigem Verlustausgleich und die Art der Steuerpräsentation auf das Investitionsverhalten untersucht. Im Ergebnis wurde beobachtet, dass die Teilnehmer eine höhere Bereitschaft zur Risikoübernahme besitzen, wenn eine Besteuerung erfolgt, was erneut auf eine Fehlwahrnehmung der Besteuerung zurückgeführt werden kann. Unter Berücksichtigung der Erkenntnisse des ersten Experiments kann geschlussfolgert werden, dass der Anstieg der Risikobereitschaft durch eine Überbewertung des steuerlichen Verlustausgleichs verursacht wird. Ein weiteres Ergebnis der zweiten Studie ist, dass das Tax Framing die Wahrnehmung der Steuer beeinflusst. Im Unterschied zu einer aggregierten Besteuerung führt eine gleichwertige disaggregierte Besteuerung dazu, dass die Fehlwahrnehmung der Besteuerung im Zeitablauf nahezu verschwindet. Gegenstand der Untersuchung im zweiten Teil der Arbeit war die Fragestellung, ob Individuen bei ihren Arbeitsangebotsentscheidungen Steuern so berücksichtigen wie diese theoretisch wirken oder ob Fehlwahrnehmungen existieren. Hierzu wurden zwei Laborexperimente mit berufstätigen Personen durchgeführt, in denen die Arbeitsaufgabe jeweils darin bestand, Briefpapier zu falten und zu kuvertieren. Da während des Experiments keine zeitliche Restriktion bestand, entschied ein Teilnehmer nicht nur darüber wie viele Briefe er bearbeiten möchte, sondern auch wie lange er dieser Tätigkeit nachgehen will. Demzufolge stellt diese Arbeitsaufgabe eine reale Arbeitsanforderung dar, verursacht ein reales Arbeitsleid und jeder Teilnehmer muss eine reale Arbeit-Freizeit-Entscheidung treffen. Als zentrales Ergebnis beider Laborexperimente lässt sich Folgendes zusammenfassen: Neben dem Arbeitsleid und dem Einkommen scheint die Steuerwahrnehmung einen entscheidenden Einfluss auf die Arbeit-Freizeit-Entscheidung zu haben. Bei einer geringen Steuerwahrnehmung wird die Steuer nicht in dem Ausmaß berücksichtigt wie sie tatsächlich wirkt, was letztendlich zu verzerrten Arbeitsangebotsentscheidungen führt. Die Steuerwahrnehmung ist dabei zum einen abhängig von der Darstellung des Steuertarifs und zum anderen von der Steuererfahrung eines Individuums. Beide Einflussgrößen haben einen positiven Einfluss auf die individuelle Steuerwahrnehmung, das heißt, je deutlicher und transparenter die Besteuerung dargestellt wird bzw. je größer die individuelle Erfahrung im Umgang mit Steuern ist, desto höher ist die Steuerwahrnehmung.
This thesis examines the application of intrinsic value models considering segmentation between foreign and domestic investors’ stock segments in China. Within the framework of international portfolio investment theory, segment-specific price differences are theorized to be not caused by irrational behavior but consistent with economic theory. Theoretical comparison of equilibrium and intrinsic value models suggests the latter to be more suitable regarding the Chinese market environment. Correspondingly, in this thesis the relevance of intrinsic value models for Chinese stock prices is examined empirically. It is concluded that price differences can be ascribed to unequal investment opportunities and segment specific characteristics. Nevertheless, results from the domestic and Hong Kong risk-free rate proxy lead to the conclusion that intrinsic value models cannot be considered better suited than linear factor models.
Bereits in der ersten Hälfte des letzten Jahrhunderts wurden rechnungswesenorientierte Unternehmensbewertungsverfahren entwickelt. Insbesondere ist in diesem Zusammenhang der auf den Theorien von Preinreich (1937) und Lücke (1955) zurückzuführende Residualgewinnansatz zu nennen, bei dem sich der Unternehmenswert aus dem Buchwert des Eigenkapitals und dem Barwert der zukünftig erwarteten Residualgewinne zusammensetzt. Darauf aufbauend entwickelte Ohlson im Jahre 1995 ein analytisches Bewertungsmodell, welches das zukünftige Verhalten der periodischen Residualgewinne anhand eines linear-autoregressiven Informationsverarbeitungsprozesses beschreibt. Durch die Einbindung dieses sog. linearen Informationsmodells (LIM) ist es möglich, zukünftige Residualgewinne praktisch unabhängig von unsicheren Prognosen ausschließlich mit Hilfe vergleichsweiser einfacher ökonometrischer Verfahren zu bestimmen. Neben den Residualgewinn enthält das Ohlson Modell noch eine weitere Bewertungsvariable, die sog. "anderen Informationen", welche zwar wertrelevante Informationen außerhalb der Rechnungslegung berücksichtigen soll, allerdings nicht näher von Ohlson spezifiziert wird. Eine Vielzahl von empirischen Untersuchungen zum Ohlson Modell und zu Weiterentwicklungen des Ohlson Modells verdeutlicht jedoch in der Folge, dass deren Implementierung in der Praxis regelmäßig zu erheblichen Problemen führt. Zum einen liegt den Verfahren eine signifikante Unterbewertungsproblematik zu Grunde und zum anderen wird durch die regelmäßige Einbindung von Analystenvorhersagen zur rechnerischen Bestimmung der „anderen Informationen“ nach Auffassung des Verfassers das Objektivitätspostulat LIM-gestützter Bewertungsmodelle verletzt. Aufbauend auf einer eingehenden Analyse bisheriger Untersuchungen zu o.g. Modellen werden daher zunächst allgemeine Kriterien für eine optimierte Modellierung der Struktur der linearen Informationsmodelle entwickelt und anschließend in die Entwicklung eines eigenen Unternehmensbewertungsmodells transformiert. Um zudem sämtliche subjektive Einflussnahme auf die Gestaltung und Höhe der "anderen Informationen" zu eliminieren, werden die "anderen Informationen" nicht mehr auf Basis wie auch immer ermittelter subjektiver Analystenvorhersagen bestimmt, sondern durch einen zielgerichteten Einsatz von fünf makroökonomischen und fünf unternehmensspezifischen Kennzahlen der Fundamentalanalyse substituiert. In der empirischen Studie werden insgesamt 118 deutsche Unternehmen des CDAX aus insgesamt elf Branchen in einem Zeitraum von 1980 bis 2003 mit dem Median als primär verwendete Messgröße berücksichtigt. Über empirische Regressionsuntersuchungen werden dann entsprechend branchenspezifisch strukturierte Bewertungsmodelle entworfen. Mit der retrograden Ermittlung der "anderen Informationen" wird ausgehend vom empirisch ermittelten Unternehmensmarktwert gemäß den gesetzten Modellprämissen rechnerisch auf den nicht durch Rechnungslegung erklärten Wertbeitrag der "anderen Informationen" geschlossen. Diese rekursiv ermittelten Werte dienen somit als Maßstab für die "richtige" Wertbeimessung der "anderen Informationen" und damit als Grundlage für die rechnerische Bestimmung der branchenspezifischen Bestimmungsmodelle für die „anderen Informationen“. Die mit Hilfe der branchenspezifischen Kennzahlenmodelle generierten Unternehmenswerte liegen dabei sowohl im Durchschnitt als auch im Median näher am tatsächlichen Unternehmenswert als bei Ausblendung der "anderen Informationen" und bei Verwendung von Analystenvorhersagen. Damit liefert der Einsatz der in dieser Untersuchung neu eingeführten, branchenspezifischen Modelle gegenüber den traditionellen Modellen überlegene Resultate. Zudem wird festgestellt, dass die auf Basis der Kennzahlenmodelle ermittelten Unternehmenswerte weniger schwanken als bei Verwendung von Analystenvorhersagen. Trotz einer mit dieser Arbeit erreichten verbesserten Abbildungfähigkeit der "anderen Informationen" erachtet der Verfasser dieser Arbeit das Konzept der LIM-gestützten Unternehmensbewertung aufgrund der festgestellten Mängel im Zuge der praktischen Umsetzung den heute gebräuchlichen Bewertungsverfahren wie z.B. dem DCF oder dem Ertragswertverfahren als noch immer deutlich unterlegen.
We develop a purchasing portfolio method by integrating a company view, a market-based view and a process view, aggregated in a 3-dimensional portfolio cube. Top management typically takes another view on purchasing issues than purchasing itself. Furthermore, it seems crucial to include the process view, since strategies have to be executed and organisational design features to support these strategies have to be compatible with purchasing processes. This integrated approach seems more complete compared to single, 2-dimensional portfolio methods.
Die Dissertation untersucht die Fragestellung, ob aufgrund rechtlicher Regelungen eine gesetzlich begründete Pflicht zur Unternehmensplanung bei kleinen und mittleren Unternehmen (KMU) besteht, bzw. ob eine solche Pflicht gesetzlich verankert werden sollte, falls sich aus den aktuellen gesetzlichen Vorschriften keine solche Pflicht ableiten lässt. Daran anknüpfend werden in die Betrachtung auch die Auswirkungen der Abschlussprüfung und der Unternehmensfinanzierung auf die Unternehmensplanung bei KMU mit einbezogen. Die Untersuchungen bewegen sich vor dem Hintergrund, dass die Informationen über die zukünftige Entwicklung der Unternehmen durch eine Vielzahl von Gesetzesreformen innerhalb der letzten ca. 15 Jahre, verstärkt an Bedeutung gewonnen haben. Ziel dieser Reformen ist es, die Transparenz und Publizität der Unternehmen, die Kontrolle der Unternehmensführung und die Qualität der Abschlussprüfung zu verbessern. Grundlage der Informationen über die zukünftige Entwicklung der Unternehmen ist die klassische betriebswirtschaftliche interne Unternehmensplanung, welche allerdings im Segment der KMU regelmäßig nicht vorhanden ist. Um dieses Problem zu lösen, wird vielfach eine gesetzliche Planungspflicht für alle Unternehmen gefordert. Erschwert werden die Untersuchungen durch die Tatsache, dass es in Deutschland keine einheitliche Definition für KMU gibt, so dass im Rahmen der Dissertation verschiedenen Typen von KMU entwickelt werden, die den späteren Betrachtungen als Grundlage dienen. Der Aufbau sowie die Hauptthesen der Dissertation werden im Folgenden zusammenfassend skizziert: Den Hauptbetrachtungen der Dissertation vorangestellt, werden in Kapitel 2 die Grundzüge der betriebswirtschaftlichen interne Unternehmensplanung dargestellt. Die dargestellte Konzeption einer betriebswirtschaftlichen Unternehmensplanung dient als Basis der späteren Ausführungen. In Kapitel 3 werden verschiedene Typen von KMU vor dem Hintergrund der für diese Unternehmen charakteristischen Merkmale entwickelt. Unterschieden wird zwischen typischen KMU (erfüllen die qualitativen und quantitativen Merkmale für KMU) und atypischen KMU (erfüllen lediglich die quantitativen Merkmale). Unter Zuhilfenahme einer Studie von Wolter/ Hauser wird eine zahlenmäßige Einteilung der einzelnen KMU-Typen, aufgegliedert in verschiedene Rechtsformen vorgenommen, so dass die Bedeutung der KMU-Typen innerhalb der jeweiligen Rechtsformen ermittelt werden kann. Anschließend wird die Durchführung der Unternehmensplanung bei KMU unter Berücksichtigung der bei diesen vorherrschenden charakteristischen Strukturen erörtert. Kapitel 4 untersucht die Auswirkungen der aktuellen Gesetzgebung zur Unternehmensführung auf die Unternehmensplanung bei KMU. Im Fokus der Betrachtung stehen dabei die folgenden Vorschriften: - Die Fortbestehensprognose gem. § 252 Abs. 1 Nr. 2 HGB mit einem Exkurs zur Fortbestehensprognose im Rahmen der InsO; - die Sorgfaltspflicht und die „Business Judgment Rule“ gem. § 93 Abs. 1 Satz 1 und 2 AktG; - das Überwachungssystem gem. § 91 Abs. 2 AktG; - die Berichterstattungspflichten des Vorstands an den Aufsichtsrat gem. § 90 Abs. 1 Nr. 1 AktG; - die zukunftsorientierte Lageberichterstattung gem. § 289 Abs. 1 Satz 4 HGB; die Untersuchungen werden erweitert um eine empirische Analyse zur zukunftsorientierten Lageberichterstattung im Segment der KMU. In Kapitel 5 wird die Bedeutung der Unternehmensplanung bei KMU für die Abschlussprüfung untersucht. Die Ausführungen kommen zu dem Ergebnis, dass sich zwischen den aktuellen für alle Unternehmen gültigen Prüfungsstandards des IDW auf der einen Seite und dem ebenfalls durch das IDW herausgegebenen Prüfungshinweis zu den Besonderheiten der Abschlussprüfung von KMU (IDW PH 9.100.1) auf der anderen Seite, erhebliche Abweichungen ergeben. Kapitel 6 erläutert und diskutiert die Auswirkungen und Anforderungen der im Jahr 2006 beschlossenen Basler Eigenkapitalanforderungen auf bzw. an die Unternehmensplanung bei KMU. Im Ergebnis wird festgestellt, dass sich eine Planungspflicht lediglich aus der Vorschrift des § 90 Abs. Nr. 1 AktG für KMU in der Rechtsform der AG und KGaA ergibt. Für die Erfüllung anderer Normen ist die Unternehmensplanung teilweise zwingende Voraussetzung. Diese Problematik sollte jedoch nicht durch die Verankerung einer Unternehmenspflicht für alle Unternehmen behoben werden, sondern vielmehr sollten diese Normen bzgl. ihrer Auswirkungen auf KMU überdacht werden. Eine gesetzliche Verankerung einer Planungspflicht aus Sicht der Wirtschaftsprüfung wird ebenfalls abgelehnt. Für den Bereich der Unternehmensfinanzierung bedarf es keiner gesetzlichen Regelungen, da sämtliche Anforderungen privatvertraglich fixiert werden können.
Nach der Einleitung werden im zweiten Kapitel die zivilrechtlichen, ertrag- und schenkungsteuerrechtlichen Definitionen der Begriffe “Schenkung unter Lebenden” sowie „vorweggenommene Erbfolge“ nach deutschem, österreichischem und schweizerischem Recht sowie das Rechtsinstitut des Nießbrauchs nach deutschem, österreichischem und schweizerischem Zivil- und Gesellschaftsrecht gegenübergestellt. Im dritten Kapitel erfolgt die schenkungsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Schenkungsteuerrecht. Die ertragsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Ertragsteuerrecht erfolgt im vierten Kapitel. Nach den zivilrechtlichen Grundlagen bei grenzüberschreitenden Vermögensübertragungen werden im sechsten Kapitel die schenkungsteuerliche und ertragsteuerliche internationale Doppelbesteuerung in Bezug auf die Länder Österreich und die Schweiz ausführlich erläutert. Im Mittelpunkt der Betrachtung stehen ausschließlich unentgeltliche bzw. teilentgeltliche Vermögensübertragungen im Rahmen der Schenkung unter Lebenden.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden.
Auslandsbanken gewinnen in Deutschland eine immer größere Bedeutung. Obgleich der von der Bundesbank ausgewiesene Marktanteil ausländischer Banken noch immer im Vergleich zu anderen europäischen Ländern unterdurchschnittlich stark ausgeprägt ist, messen ihnen deutsche Bankiers eine hohe Wettbewerbsfähigkeit zu und warnen vor den Folgen einer „Eroberung“ ihrer inländischer Kreditinstitute. Erstmals werden die neu erstarkten Wettbewerber aus den anderen europäischen Nationen sowie den USA im Rahmen der vorliegenden Arbeit umfassend und vor dem Hintergrund der sich verändernden technologischen und regulativen Rahmenbedingungen analysiert. Hierbei sind die Fragen, weshalb sie in den deutschen Markt eingetreten sind, welche Entwicklungspfade sie eingeschlagen haben und inwieweit ihr Engagement als erfolgreich zu bewerten ist, die zentralen Gesichtspunkte des ersten Abschnitts. Im Gegensatz zu vorangegangenen Arbeiten beschränkt sich der hier gewählte Ansatz nicht auf einen kurzen Zeitraum oder die bloße Analyse des Marketing-Mixes aus Produkt-, Preis- oder Kommunikationspolitik. Vielmehr werden beobachtbare Entwicklungen nicht nur beschrieben, sondern auch auf Basis empirischer Untersuchungen sowie theoretischer Überlegungen erklärt. Zu Beginn steht hierbei die Frage nach den Eintrittsmotiven, die ausländische Banken bewogen haben, Niederlassungen in der Bundesrepublik zu eröffnen. Während derartige Studien für andere Länder bereits seit längerem bestehen, können erstmals im Rahmen der vorliegenden Arbeit Faktoren herausgearbeitet werden, die Eintrittsentscheidungen offensichtlich signifikant beeinflussen. So bestätigt sich in diesem Zusammenhang zunächst die Bedeutung der bilateralen Wirtschaftsbeziehungen, die mit zunehmender Intensität die Gründungsneigung erhöhen. Für die Bundesrepublik zeigt sich jedoch auch, daß eine überdurchschnittliche wirtschaftliche Dynamik einen positiven Einfluß in Bezug auf die Anzahl der Gründungen ausübt, während den am Kapitalmarkt herrschenden Bedingungen kein signifikanter Einfluß auf die Eintrittsentscheidungen nachgewiesen werden kann. Die Frage der nachfolgenden Entwicklung wird vor dem Hintergrund eines eher wirtschaftshistorischen Ansatzes beantwortet. Hierbei kristallisiert sich ein homogener Entwicklungspfad heraus, an dessen Beginn Firmenkunden gleicher Herkunft betreut werden und dessen Ende durch den Eintritt in den Wettbewerb um deutsche Privatkunden markiert wird. Der Erfolg ausländischer Banken in Deutschland wird im weiteren ausführlich thematisiert. Zunächst kann in diesem Zusammenhang gezeigt werden, daß bis zum Jahr 1999 die auf Hymer zurückgehende Liabilities-of-Foreignness-Hypothese für Auslandsbanken in Deutschland bestätigt werden kann. Seit der Jahrtausendwende lassen sich jedoch keine wesentlichen Rentabilitätsunterschiede zwischen in- und ausländischen Instituten mehr beobachten, wobei es zu beachten gilt, daß die Angleichung der Bankengruppe im wesentlichen auf Verschlechterungen bei den inländischen Instituten zurückzuführen ist. Anschließend wird der Frage nachgegangen, welche Einflüsse für Unterschiede bei der Rentabilität ausländischer Banken verantwortlich gemacht werden können. Über die Ansatzpunkte vorangegangener Studien hinaus wird in diesem Zusammenhang ausdrücklich die Rolle einer produkt- beziehungsweise kundenorientierten Ausrichtung im Sinne des strategischen Managements berücksichtigt. So zeigt sich, daß neben den bilateralen Wirtschaftsbeziehungen als einzig konstanter Einflußfaktor die Fokussierung einer Bank Effizienzunterschiede erklären kann. Aufbauend auf diesen Erkenntnissen wendet sich der zweite Abschnitt der Frage zu, welche strategischen Positionierungsmöglichkeiten sich einer ausländischen Bank in Deutschland bieten. Vorangegangene Arbeiten zum strategischen Bankmanagement befassen sich in diesem Zusammenhang vornehmlich mit der Ausrichtung nationaler Wettbewerber oder diskutieren Internationalisierungsstrategien aus Sicht der Muttergesellschaft eines multinationalen Bankkonzerns. Der hier verfolgte Ansatz unterscheidet sich dahingehend, daß ausgehend von einem Marktimperativ die Positionierung der Tochtergesellschaft im Zentrum steht. Hierbei gewinnt die Frage nach der Transferierbarkeit von wettbewerbsrelevanten Ressourcen eine zentrale Bedeutung, da im Sinne des Resource-Based Views derartige Kompetenzen über die Fähigkeit zur Besetzung attraktiver Positionen entscheiden. Neben natürlichen Barrieren, die eine grenzüberschreitende Nutzung von bestehenden Infrastruktureinrichtungen beziehungsweise von im Heimatland gewonnenen Kundeninformationen verhindern, sind es in erster Linie regulative und kulturelle Barrieren, die einen maßgeblichen Einfluß auf die Positionierungsalternativen ausländischer Banken in Deutschland ausüben. Aufbauend auf dem Positionierungsansatz von Dombret und Kern zeigt sich in diesem Zusammenhang, daß vornehmlich produktbezogene Kompetenzen als erfolgversprechende Ansatzpunkte für ausländische Banken dienen.
Bei der vorliegenden Arbeit handelt es sich um eine Untersuchung mit dem Ziel, die Reaktionen im Umfeld von Veränderungen der Zusammensetzung der großen deutschen Aktienindizes DAX, MDAX und HDAX zu ermitteln. Da in der idealtypischen Finanztheorie eine Indexauswechslung keine bewertungsrelevante Information darstellt, jedoch in der Finanzpresse häufig über Indexauswechslungen und deren Auswirkungen auf die zugrunde liegenden Kurse spekuliert wird, sollten im Rahmen der vorliegenden Arbeit zum einen theoretische Ansatzpunkte identifiziert werden, um Indexeffekte erklären zu können; zum anderen galt es, mittels verschiedener empirischer Untersuchungen zu überprüfen, inwiefern sich die Kurse, die Liquidität und gegebenenfalls die Risikokomponenten der betreffenden Aktien durch das Indexereignis verändern. Angesichts der sich mehr und mehr verstärkenden Indexfokussierung vieler institutioneller Anleger seit der Schaffung des DAX zum Jahresende 1987 sollte auch der Frage nachgegangen werden, ob und inwiefern sich die Reaktionsmuster am Kapitalmarkt im Zeitablauf verändert haben. Da als auslösendes Moment für potentielle Indexeffekte vorrangig fremdverwaltete Wertpapierportfolios in Frage kommen, wurde neben einer theoretischen Verhaltensanalyse auch eine umfassende Umfrage unter Fondsmanagern hinsichtlich deren Indexfokussierung durchgeführt.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
Die Arbeit stellt die Grundsätze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegenüber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzfähigkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht.
Mit der Einführung von Basel II erhalten ab dem 01. Januar 2007 nahezu alle fremdfinan¬zierten Unterneh¬men im Rahmen einer Ratinga¬nalyse eine individuelle Bewertung ihrer Bo¬nität. Wie die Ratinganalyse haben sich auch die gesetzlichen Vertreter im Rahmen der Lageberichterstattung und der Abschlussprüfer im Rahmen seiner Prüfungs¬pflichten mit der Bestandskraft des zu prüfenden Unternehmens auseinander zu setzen. Es stellt sich insofern die Frage nach dem Einfluss von Ratinganalysen auf die Rechnungslegung und Abschlussprüfung. Die Untersuchung zeigt, dass im Hinblick auf die gesetzliche Forderung nach einer umfassenden Risikoberichterstattung in § 289 Absatz 1 HGB die gesetzlichen Vertre¬ter die Ratinganalyse insbesondere bei Anzeichen für eine Be¬standsgefahr in der Bericht¬er¬stattung über Risiken der voraussichtlichen Entwicklung zu verwerten, das Rating als Informationsquelle sowie die Risikoeinstufung zu nen¬nen haben. Aus Sicht des Abschlussprüfers können Ra¬tinganalysen als Indikator für die zukünf¬tige Bonität der Gesellschaft eine entschei¬dende und objektive Grundlage für die Bewertung des Insolvenzrisikos beim geprüf¬ten Unternehmen spielen und ihn bei der Beurteilung der Lagedar¬stellung sinnvoll unterstüt¬zen. Unter Beachtung der gesetzlichen und be¬rufsständi¬schen Normen sind demzu¬folge Ratingergebnisse – insbesondere bei Anzeichen einer Bestandsgefährdung – vom Ab¬schlussprüfer zwingend bei der Abschlussprüfung zu verwerten. Demzufolge ist dem Abschlussprüfer be¬züglich der Ratingunterlagen von Seiten der Unternehmensleitung auch ein Einsichts¬recht aus § 320 HGB zu gewähren. Die Ratingerkenntnisse kann der Abschlussprüfer darüber hinaus auch im Rahmen der Prüfungsplanung nutzen, denn die individu¬elle Risikosituation des Unternehmens hat erheblichen Einfluss auf das Prü¬fungsvorgehen. Ferner hat sich der Abschlussprüfer bei der Erwartungsbildung be¬züglich des Vorhandenseins bzw. des Grades der Bestandsgefahr an der Ratinganalyse zu orientieren, um die Aus¬führungen der gesetzlichen Vertreter im Anschluss daran im Lichte seiner Erwartun¬gen zu hinterfragen. Aus den Ergebnissen dieser Soll-Ist-Verprobung folgen dann ent¬sprechende Konsequenzen für die Berichterstattung des Abschlussprüfers. So ist, bei unzureichenden Ausführungen im Lagebericht, im Prü¬fungsbericht auf die Bestandsge¬fahr und die mangelnde Verarbeitung der Ratinger¬gebnisse hinzuweisen; der Bestäti¬gungsvermerk ist mit einem Hinweis auf die Ratingergebnisse einzuschrän¬ken. Wird dagegen im Lagebericht im Einklang mit der Ra¬tinganalyse zutreffend über die dro¬hende Bestandsgefahr berichtet, so sind dennoch im Prüfungsbericht nochmals die Ri¬siken der künftigen Entwicklung anzugeben. Im Bestätigungsvermerk ist zu er¬läutern, dass sich die Darstellung der Bestandsrisiken mit dem Ratingergebnis deckt. Wird dem Abschlussprüfer dagegen die Einsicht in die Ratinganalyse verweigert, so ist im Prüfungsbericht auf die Weigerung einzugehen und bei Anzeichen einer Be¬standsgefahr darüber hinaus der Redepflicht nachzukom¬men. Der Bestätigungsver¬merk sollte in solchen Fällen mit der verbalen Einschrän¬kung versehen werden, dass die Beurteilung ohne Einsicht in die Ratingunterlagen er¬folgen musste.