TY - THES A1 - Hegmann, Reinhold T1 - Prüferqualifikation und Prüfungsqualität – Eine empirische Untersuchung privater prüfungspflichtiger Unternehmen in Deutschland T1 - Auditor Qualification and Audit Quality – Empirical Evidence from German Private Firms N2 - Die Jahresabschlussprüfung verfolgt das Ziel, die Verlässlichkeit der Rechnungslegung zu bestätigen. Folglich kann sie einen wesentlichen Beitrag zu einem hohen Informationsniveau an den Märkten leisten. Angesichts dieser großen ökonomischen Bedeutung unternimmt der deutsche Gesetzgeber zahlreiche Anstrengungen, um eine hohe Prüfungsqualität sicherzustellen. Die Sichtung der Wirtschaftsprüferordnung zeigt hierbei, dass regulatorische Maßnahmen ergriffen werden, die am Kern der Jahresabschlussprüfung ansetzen, nämlich an den Berufsangehörigen selbst. So wurde der Zugang zum Berufsstand der vereidigten Buchprüfer mehrmals geschlossen und wiedereröffnet. Des Weiteren sind markante Anpassungen des Niveaus des Wirtschaftsprüfungsexamens im Zeitablauf zu erkennen. Bei der Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse sind außerdem besondere Berufspflichten zu erfüllen. Zum einen ist diesen schweren Eingriffen in die Freiheit der Berufswahl und der Berufsausübung gemein, dass sie allesamt die Qualifikation des Abschlussprüfers adressieren. Zum anderen werden die entsprechenden Gesetzesänderungen mehrheitlich mit einer Stärkung der Prüfungsqualität begründet. Fraglich ist, inwiefern jene Facetten der Prüferqualifikation tatsächlich einen Einfluss auf die Prüfungsqualität ausüben. Aufgrund mangelnder Evidenz ergibt sich die Notwendigkeit, eine empirische Studie am deutschen Prüfermarkt durchzuführen und somit den Beginn zur Schließung der identifizierten Forschungslücke zu setzen. Das Ziel der vorliegenden Dissertation besteht folglich darin, den Zusammenhang zwischen der Prüferqualifikation und der Prüfungsqualität mittels Regressionsanalysen zu untersuchen. Dazu wurde ein einzigartiger Datensatz zu deutschen privaten prüfungspflichtigen Kapitalgesellschaften mit unkonsolidierten Finanz- und Prüferinformationen im Zeitraum 2006-2018 mit insgesamt 217.585 grundlegenden Beobachtungen erhoben, bereinigt und aufbereitet. Da die Prüfungsqualität nicht direkt beobachtbar ist, wird zwischen wahrgenommener Prüfungsqualität und tatsächlicher Prüfungsqualität unterschieden. Im Rahmen dieser Dissertation wird die wahrgenommene Prüfungsqualität über Fremdkapitalkosten und die tatsächliche Prüfungsqualität über absolute diskretionäre Periodenabgrenzungen approximiert. Die Ergebnisse der Hauptregressionen zeigen überwiegend, dass kein Zusammenhang zwischen den Maßgrößen der Prüferqualifikation und der wahrgenommenen und tatsächlichen Prüfungsqualität besteht. Die Zusatz- und Sensitivitätsanalysen unterstützen diesen Befund. So können mit Blick auf die Berufszugangsregelungen keine Qualitätsunterschiede zwischen den Berufsständen der Wirtschaftsprüfer und der vereidigten Buchprüfer nachgewiesen werden. Auch innerhalb des Berufstandes der Wirtschaftsprüfer ergeben sich keine Hinweise auf ein Qualitätsgefälle zwischen den Prüfergruppen, die unterschiedliche Examensanforderungen durchlebt haben. Hinsichtlich der Berufsausübungsregelungen ist zu beobachten, dass die zusätzlichen Anforderungen an die Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse nicht mit einer anderen Prüfungsqualität bei privaten Unternehmen verbunden sind. Die beschriebenen regulatorischen Schritte des Gesetzgebers im Bereich der Prüferqualifikation erscheinen somit im Lichte einer verbesserten Prüfungsqualität nicht zwingend gerechtfertigt. N2 - Audit aims at ensuring the reliability of financial statements. Thus, it can contribute to a high information level in the markets. In light of this great economic importance, German legislator makes huge efforts to safeguard high audit quality. The review of the amendments to the German Public Accountant Act reveals here that regulatory measures are taken which address the core of audit, namely the members of the professions themselves. In particular, access to the profession of sworn auditors has been closed and reopened several times. Furthermore, striking adjustments to the examination requirements for public accountants can be observed over time. Finally, conducting statutory audits at public-interest entities requires the fulfillment of additional professional duties. All these severe interventions into the freedom of the choice of profession and the practice of the profession have in common that they address the qualification of the auditor. Moreover, the corresponding legislative changes are mainly justified by strengthening audit quality. Yet, it is questionable to what extent those facets of auditor qualification in fact influence audit quality. The lack of available evidence underscores the need to conduct an empirical study on the German audit market and thus work on closing the identified research gap. Consequently, the objective of this dissertation is to investigate the association between auditor qualification and audit quality by means of regression analyses. For this purpose, an unique dataset of German private limited liability firms that are subject to mandatory audits and have unconsolidated financial statements for the fiscal years of 2006-2018 has been collected, cleaned, and prepared, resulting in a sample with a total of 217,585 firm-year observations. Since audit quality cannot be observed directly, a distinction is made between perceived audit quality and actual audit quality. In this dissertation, perceived audit quality is measured by the cost of debt, whereas actual audit quality is measured by absolute discretionary accruals. The results of the main regressions mostly show no association between the measures of auditor qualification and both perceived and actual audit quality. Additional analyses and sensitivity checks support this finding. With regard to the access regulations, no apparent quality differences between the professions of public accountants and sworn auditors are found. Also, within the profession of public accountants, there is no evidence of quality differences between auditor groups that faced different levels of examination. With respect to practice regulations, it is observed that the additional requirements for auditing public-interest entities are not associated with different audit quality in private firms. In sum, the described legislative decisions regarding auditor qualification do not necessarily appear justified from the point of view of an improved audit quality. KW - Prüfungsqualität KW - Qualifikation KW - Abschlussprüfer KW - Privatunternehmen KW - Rechnungslegung KW - Auditor Qualification KW - Audit Quality KW - Private Unternehmen KW - Prüferqualifikation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322546 ER - TY - JOUR A1 - Leimeister, Jan Marco A1 - Stieglitz, Stefan A1 - Matzner, Martin A1 - Kundisch, Dennis A1 - Flath, Christoph A1 - Röglinger, Maximilian T1 - Quo Vadis Conferences in the Business and Information Systems Engineering (BISE) Community After Covid BT - What Can Stay, What Should Go, What Do We Need to Change for Our Future Scientific Conferences? JF - Business & Information Systems Engineering KW - IT in Business KW - business and management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-308902 SN - 2363-7005 SN - 1867-0202 VL - 63 IS - 6 ER - TY - JOUR A1 - Griebel, Matthias A1 - Segebarth, Dennis A1 - Stein, Nikolai A1 - Schukraft, Nina A1 - Tovote, Philip A1 - Blum, Robert A1 - Flath, Christoph M. T1 - Deep learning-enabled segmentation of ambiguous bioimages with deepflash2 JF - Nature Communications N2 - Bioimages frequently exhibit low signal-to-noise ratios due to experimental conditions, specimen characteristics, and imaging trade-offs. Reliable segmentation of such ambiguous images is difficult and laborious. Here we introduce deepflash2, a deep learning-enabled segmentation tool for bioimage analysis. The tool addresses typical challenges that may arise during the training, evaluation, and application of deep learning models on ambiguous data. The tool’s training and evaluation pipeline uses multiple expert annotations and deep model ensembles to achieve accurate results. The application pipeline supports various use-cases for expert annotations and includes a quality assurance mechanism in the form of uncertainty measures. Benchmarked against other tools, deepflash2 offers both high predictive accuracy and efficient computational resource usage. The tool is built upon established deep learning libraries and enables sharing of trained model ensembles with the research community. deepflash2 aims to simplify the integration of deep learning into bioimage analysis projects while improving accuracy and reliability. KW - machine learning KW - microscopy KW - quality control KW - software Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-357286 VL - 14 ER - TY - BOOK A1 - Knoll, Leonhard T1 - De exemplis deterrentibus: Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform N2 - Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung. Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis. N2 - The book is a collection of cases concerning valuation in legally defined occasions. These cases, mostly taken from real German law suits, are formulated as questions and problems (inclusively a separate solution chapter), each with framing introductions and conclusions. They highlight the regrettably often disturbed relationship between theory and practice in this area of valuation. This procedure resembles to textbooks which use cases to communicate content, but there is a fundamental difference: No hypothetical cases show the right approach, but real cases demonstrate striking violations contra legem artis. KW - Unternehmensbewertung KW - CAPM KW - DCF KW - corporate assessment KW - corporate law KW - valuation of a company KW - Betriebswirtschaftslehre KW - Capital-Asset-Pricing-Modell KW - Finanzmathematik KW - Gesellschaftsrecht KW - Unternehmenstheorie KW - Ökonometrie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-348840 SN - 978-3-95826-243-0 SN - 978-3-95826-242-3 N1 - Parallel erschienen als Druckausgabe bei Würzburg University Press, ISBN 978-3-95826-242-3, 37,80 Euro PB - Würzburg University Press CY - Würzburg ET - 4. Auflage ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Steinbach, Theresa A1 - Wanner, Jonas A1 - Janiesch, Christian T1 - A nascent design theory for explainable intelligent systems JF - Electronic Markets N2 - Due to computational advances in the past decades, so-called intelligent systems can learn from increasingly complex data, analyze situations, and support users in their decision-making to address them. However, in practice, the complexity of these intelligent systems renders the user hardly able to comprehend the inherent decision logic of the underlying machine learning model. As a result, the adoption of this technology, especially for high-stake scenarios, is hampered. In this context, explainable artificial intelligence offers numerous starting points for making the inherent logic explainable to people. While research manifests the necessity for incorporating explainable artificial intelligence into intelligent systems, there is still a lack of knowledge about how to socio-technically design these systems to address acceptance barriers among different user groups. In response, we have derived and evaluated a nascent design theory for explainable intelligent systems based on a structured literature review, two qualitative expert studies, a real-world use case application, and quantitative research. Our design theory includes design requirements, design principles, and design features covering the topics of global explainability, local explainability, personalized interface design, as well as psychological/emotional factors. KW - artificial intelligence KW - explainable artificial intelligence KW - XAI KW - design science research KW - design theory KW - intelligent systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323809 SN - 1019-6781 VL - 32 IS - 4 ER - TY - JOUR A1 - Wanner, Jonas A1 - Herm, Lukas-Valentin A1 - Heinrich, Kai A1 - Janiesch, Christian T1 - The effect of transparency and trust on intelligent system acceptance: evidence from a user-based study JF - Electronic Markets N2 - Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance. KW - user acceptance KW - intelligent system KW - artificial intelligence KW - trust KW - system transparency Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323829 SN - 1019-6781 VL - 32 IS - 4 ER - TY - JOUR A1 - Oberdorf, Felix A1 - Schaschek, Myriam A1 - Weinzierl, Sven A1 - Stein, Nikolai A1 - Matzner, Martin A1 - Flath, Christoph M. T1 - Predictive end-to-end enterprise process network monitoring JF - Business & Information Systems Engineering N2 - Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations. KW - predictive process analytics KW - predictive process monitoring KW - deep learning KW - machine learning KW - neural network KW - business process anagement KW - process mining Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323814 SN - 2363-7005 VL - 65 IS - 1 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian A1 - Helm, Alexander A1 - Imgrund, Florian A1 - Hofmann, Adrian A1 - Winkelmann, Axel T1 - A framework for implementing robotic process automation projects JF - Information Systems and e-Business Management N2 - Robotic process automation is a disruptive technology to automate already digital yet manual tasks and subprocesses as well as whole business processes rapidly. In contrast to other process automation technologies, robotic process automation is lightweight and only accesses the presentation layer of IT systems to mimic human behavior. Due to the novelty of robotic process automation and the varying approaches when implementing the technology, there are reports that up to 50% of robotic process automation projects fail. To tackle this issue, we use a design science research approach to develop a framework for the implementation of robotic process automation projects. We analyzed 35 reports on real-life projects to derive a preliminary sequential model. Then, we performed multiple expert interviews and workshops to validate and refine our model. The result is a framework with variable stages that offers guidelines with enough flexibility to be applicable in complex and heterogeneous corporate environments as well as for small and medium-sized companies. It is structured by the three phases of initialization, implementation, and scaling. They comprise eleven stages relevant during a project and as a continuous cycle spanning individual projects. Together they structure how to manage knowledge and support processes for the execution of robotic process automation implementation projects. KW - robotic process automation KW - implementation framework KW - project management KW - methodology KW - interview study KW - workshop Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323798 SN - 1617-9846 VL - 21 IS - 1 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian A1 - Fuchs, Patrick T1 - Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – eine strukturierte Untersuchung von kognitiven Verzerrungen JF - HMD Praxis der Wirtschaftsinformatik N2 - Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. N2 - Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly. T2 - The impact of human thinking on artificial intelligence – a structured investigation of cognitive biases KW - Menschliche Denkmuster KW - Maschinelles Lernen KW - Künstliche Intelligenz KW - Literaturanalyse KW - cognitive biases KW - machine learning KW - artificial intelligence KW - literature review Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323787 SN - 1436-3011 VL - 59 IS - 2 ER - TY - JOUR A1 - Freichel, Chiara A1 - Steegmans, Timo-Christian A1 - Winkelmann, Axel T1 - Ziele und Gestaltung digitaler Plattformen für Produktionsnetzwerke JF - HMD Praxis der Wirtschaftsinformatik N2 - Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen. N2 - Interorganizational collaboration in production networks can counteract challenges posed by high market dynamics, increasingly demanding customer requirements and rising cost pressure. In addition to the vertical shift of capacities towards suitable suppliers, manufacturing capacities can also be traded through horizontal cooperation between manufacturing companies. Following the concept of the sharing economy, digital platforms offer a suitable infrastructure for connecting and coordinating the market actors in a production network. This enables manufacturing companies to flexibly counteract production downtimes and to utilize unused machine capacity. An essential requirement for the success of such digital platforms for production networks is the specification of goals, which have so far been insufficiently investigated in literature and are not specific to this type of platform. In this paper, we develop a comprehensive conceptual goal model for this specific type of platform. Specific goals of digital platforms for production networks include, in addition to economic or technical goals, production-related market service goals such as ensuring production flexibility. Based on this, we demonstrate how the design of the described platforms has an impact on the achievement of certain goals and how special mechanisms contribute to the achievement of goals. T2 - Goals and design of digital platforms for production networks KW - Digitale Plattformen KW - B2B KW - Ziele KW - Produktionsnetzwerke KW - Produktionskapazitäten KW - digital platforms KW - B2B KW - goals KW - production networks KW - manufacturing capacities Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323779 SN - 1436-3011 VL - 59 IS - 5 ER - TY - THES A1 - Bauer, Carsten T1 - Learning Curve Effects in Hospitals as Highly Specialized Expert Organizations T1 - Lernkurveneffekte in Krankenhäusern als hochspezialisierte Expertenorganisationen N2 - The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment. The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed. The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst. In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried. The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak. The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer. The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society. N2 - Die vorliegende Arbeit befasst sich mit Lernkurveneffekten in Kliniken als hochspezialisierte Expertenorganisationen und umfasst vier Aufsätze, die sich jeweils mit einem anderen Aspekt des Themas beschäftigen. Der Fokus liegt dabei in den ersten drei Artikeln auf Lernkurveneffekten von Ärzten bei chirurgischen Eingriffen, im vierten Beitrag steht das Team der Notaufnahme als Ganzes im Fokus. Das Vorwort beleuchtet in kompakter Form die stetig steigenden Gesundheitsausgaben, den damit steigenden Kostendruck, die Krankenhauslandschaft in Deutschland sowie ihre Entwicklung. Ferner wird das Vergütungssystem mittels Fallpauschalen wie auch die Besonderheiten des Gesundheitssektors, der stark staatlich reguliert ist und in dem ethische Aspekte omnipräsent sein müssen, umrissen. Nicht zuletzt wird der Nutzen des Wissens um Lernkurveneffekte skizziert, um Kosten zu senken und zudem die Qualität konstant zu halten oder sogar zu verbessern. Der erste Aufsatz des Sammelbandes untersucht die Lerneffekte in einer Klinik, die sich auf endoprothetische Eingriffe (Hüft- und Kniegelenksersatz) spezialisiert hat. Es werden dabei zwei große Bereiche untersucht, der spezialisierte sowie der nicht-spezialisierte Bereich. Es werden keine Kosten direkt untersucht, sondern Kostenindikatoren verwendet. Der Indikator für die Kosten in der kurzen Frist sind die OP-Zeiten. Der Indikator für die mittlere bis lange Frist ist die Qualität. Sie wird über Komplikationen im Aufwachraum operationalisiert. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse zeigen, dass die Spezialisierung Vorteile durch Lerneffekte in Form von kürzeren OP-Zeiten und geringeren Komplikationsraten bei den endoprothetischen Eingriffen mit sich bringt. Für die nicht-spezialisierten OPs ergeben sich dieselben Resultate. Auch hier sinken die OP-Zeiten sowie die Komplikationen. Es kommt demnach nicht zu möglicherweise negativen Auswirkungen der Spezialisierung auf den nicht-spezialisierten Bereich, sondern es liegen vorteilhafte Spillover-Effekte vor. Insgesamt ist die Spezialisierung damit als sinnvoll zu betrachten, da sie die kurz-, mittel- und langfristigen Kosten für alle Operationen senkt. Die Autoren sind Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny und Christian Ernst. Im zweiten Artikel stehen die Unterschiede zwischen den Lernkurveneffekten von Ärzten, die teilweise im Team operieren und denen, die stets alleine operieren, im Vordergrund. Die Untersuchung verbindet somit Lernkurveneffekte mit Teamüberlegungen, welche in den letzten Jahren zunehmend diskutiert werden. Bei den betrachteten Eingriffen handelt es sich um Tonsillektomien (Entfernung der Gaumenmandeln), einen Standardeingriff. Die Indikatoren für die Kosten in der kurzen bzw. mittleren bis langen Frist sind auch hier die OP-Zeiten der Operationen bzw. Komplikationen als Maß für die Qualität. Die Komplikationen sind in diesem Fall Nachblutungen, die meist wenige Tage nach der Operation auftreten. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse der Untersuchung zeigen, dass die OP-Zeiten mit zunehmender Erfahrung der Ärzte sinken. Ärzte, die auch im Team arbeiten, lernen dabei schneller als Ärzte, die stets alleine operieren. So sind die OP-Zeiten der Ärzte, die auch im Team arbeiten, geringer als die der anderen. Als Besonderheit stehen im verwendeten Datensatz die Fallkosten zur Verfügung, womit die Kostenindikatoren validiert werden können. Aus den Ergebnissen ergibt sich die Empfehlung, dass Assistenzärzte an Team-Operationen teilnehmen sollten. Die Autoren sind Carsten Bauer, Oliver Unger und Martin Holderried. Der dritte Aufsatz widmet sich der Stapesplastik, mithilfe derer Schallleitungsschwerhörigkeit auf-grund von Otosklerose (überschießende Knochenbildung) behandelt werden soll. Die Eingriffe werden als ideale Untersuchungsmöglichkeit von Lernkurveneffekten in der Chirurgie angesehen, da sie konzeptionell einfach, jedoch technisch schwierig sind. Es wird eine möglichst umfassende Betrachtung angestrebt, indem die OP-Zeiten als kurzfristiger und die Qualität als mittel- bis langfristiger Kostenindikator herangezogen werden. Um Qualität zu operationalisieren, wird die postoperative Differenz zwischen Luft- und Knochenleitungsschwelle sowie die Kombination aus dieser Differenz mit der Abwesenheit von Komplikationen verwendet. Auch hier werden verschiedene Regressionsmodelle (KQ und Logit) geschätzt. In diesem Artikel wird neben der Klinikebene auch die Individualebene betrachtet, d.h. OP-Zeiten und Qualität für einzelne Ärzte untersucht, was den Vergleich individueller Lernkurven verbessert, da die Ärzte alle unter weitgehend identischen Bedingungen gearbeitet haben. Es zeigt sich, dass die OP-Zeiten mit zunehmender Erfahrung zunächst sinken. Der marginale Effekt von weiterer Erfahrung wird dabei mit zunehmender Erfahrung geringer bis sich die Richtung des Effektes ändert und die OP-Zeiten mit weiter zunehmender Erfahrung – vermutlich aufgrund der Allokation der schwierigeren Fälle auf die erfahrensten Ärzte – wieder steigen. Bezüglich Qualität sind keine Lernkurveneffekte feststellbar. Die Autoren sind Carsten Bauer, Johannes Taeger und Kristen Rak. Der vierte Beitrag ist ein systematischer Literaturüberblick zu Lerneffekten bei der Behandlung von ischämischen Schlaganfällen. Bei einem Schlaganfall zählt jede Minute, weswegen die inhärente Notwendigkeit besteht, die Dauer vom Auftreten der Symptome bis zur Behandlung zu verkürzen. Der Artikel befasst sich mit der Verkürzung der Dauer vom Eintreffen der Patienten im Krankenhaus bis zur Behandlung mittels Thrombolyse, der sogenannten „Door-to-Needle Time“. In der Literatur gibt es hierzu Untersuchungen von Lernen im weiteren Sinne durch ein Qualitätsverbesserungsprogramm und Lernen im engeren Sinne, bei dem Lernkurveneffekte evaluiert werden. Daneben werden Studien ausgewertet, die sich mit den unterschiedlichen Zeiten zwischen Krankenhäusern mit niedrigen und hohen Fallzahlen befassen, da diese Unterschiede wahrscheinlich das Ergebnis von Lernen und Skaleneffekten sind. Nahezu alle der 165 ausgewerteten Artikel berichten von Verbesserungen bezüglich der Dauer bis zur Behandlung. Zudem unterstreichen die klinischen Ergebnisse die gängige Auffassung, dass eine kürzere Zeit vom Eintreffen im Krankenhaus bis zur Behandlung mit einem besseren Ergebnis einhergeht. Der Literaturüberblick diskutiert zudem die ökonomischen Implikationen der Ergebnisse. Der Autor ist Carsten Bauer. Im Nachwort kommt u.a. zur Sprache, dass für die Nutzung der Lernkurveneffekte zur Effizienzsteigerung nach der Messung der Lerneffekte weitere Anstrengungen unternommen werden müssen, da die Thematik keine einfachen, standardisierten Lösungen zulässt. Zudem wird die Bedeutung der Mehrperspektivität in der Forschung für das Behandlungsergebnis des Patienten, das Gesundheitssystem und die Gesellschaft hervorgehoben. KW - Lernkurve KW - Krankenhaus KW - learning curve KW - learning effect KW - experience KW - hospital KW - Lerneffekt KW - Erfahrung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-328717 ER - TY - THES A1 - Herm, Lukas-Valentin T1 - Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems T1 - Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen N2 - Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. N2 - Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Artificial Intelligence KW - Explainable Artificial Intelligence KW - Decision Support Systems Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322948 ER - TY - THES A1 - Hubmann, Maximilian T1 - Steuervermeidung und grenzüberschreitende Besteuerung – eine betriebswirtschaftliche, dogmatische und wissenschaftstheoretische Analyse T1 - Tax avoidance and cross-border taxation - a managerial, dogmatic and methodological analysis N2 - In dieser Dissertation werden ausgewählte Aspekte der Steuervermeidung und grenzüberschreitenden Besteuerung betrachtet. Im Teil B liegt der Fokus auf der Empirie zu Steuervermeidung und Gewinnverlagerung multinationaler Unternehmen mit drei einzelnen Aufsätzen. Der Teil C untersucht die unterschiedliche Besteuerung von Human- und Sachvermögen anhand der beiden fundamentalen Besteuerungsprinzipien des Äquivalenz- und des Leistungsfähigkeitsprinzips. Der letzte Aufsatz (Teil D) analysiert das Werturteilsfreiheitspostulat im Stakeholder-Ansatz und zeigt mithilfe eines Fallbeispiels, wie die Unternehmensbesteuerung in unterschiedliche Stakeholder-Ansätze integriert werden kann. Eine abschließende Gesamtwürdigung geht auf verbleibende Forschungsfragen ein (Teil E). Somit wird in der vorliegenden Dissertation grenzüberschreitende Besteuerung anhand betriebswirtschaftlicher, besteuerungsprinzipiengestützter bzw. dogmatischer und wissenschaftstheoretischer Gesichtspunkte untersucht. N2 - This dissertation examines selected aspects of tax avoidance and cross-border taxation. Part B focuses on the empirics of tax avoidance and profit shifting by multinational corporations with three individual essays. Part C examines the different taxation of human capital and (in)tangible assets based on the fundamental taxation principles (ability to pay and benefit principle). The last essay (Part D) analyzes the value-free ideal and shows, how corporate taxation can be integrated into different stakeholder approaches. Thus, this dissertation examines cross-border taxation from a managerial, taxation-principle-based, and methodological perspective. KW - Steuervermeidung KW - Steuerentstrickung KW - Äquivalenzprinzip KW - Stakeholder KW - tax avoidance KW - Wertfreiheit KW - Werturteilsfreiheit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-303698 ER - TY - THES A1 - Siller, Benjamin T1 - Influence of Lead Time and Emission Policies on the Design of Supply Chains – Insights from Supply Chain Design Models T1 - Einfluss von Lieferzeiten und Emissionspolitiken auf das Design von Supply Chains – Erkenntnisse aus Supply Chain Design Modellen N2 - Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies. N2 - Von Unternehmen wird erwartet, dass sie international agieren und ihre Fähigkeiten nutzen, um schnell und effizient maßgeschneiderte Produkte und Dienstleistungen anzubieten. Verbraucher erwarten, dass ihre Anforderungen in kurzer Zeit und zu einem günstigen Preis erfüllt werden. Die Zeit von der Bestellung bis zur Lieferung hat für Verbraucher immer mehr an Bedeutung gewonnen. Darüber hinaus können Regierungen mit verschiedenen Emissionsrichtlinien Unternehmen und Kunden dazu zwingen, ihre Treibhausgasemissionen zu reduzieren. Diese Arbeit untersucht den Einfluss von Lieferzeiten und verschiedener Emissionsrichtlinien auf das Design einer Supply Chain. In dieser Arbeit werden verschiedene Supply-Chain-Design-Modelle entwickelt, um diese unterschiedlichen Einflüsse zu untersuchen. Das erste Modell berücksichtigt Vorlaufzeiten und Gesamtkosten, und verschiedene Emissionsrichtlinien werden implementiert, um den Kompromiss zwischen den verschiedenen Einflussgrößen zu veranschaulichen. Das zweite Modell spiegelt den Einfluss von Lieferzeit sensitiven Verbrauchern wider und es werden verschiedene Emissionsrichtlinien implementiert, um ihre Auswirkungen zu untersuchen. Die Analyse zeigt, dass der Anteil der Lieferzeit sensiblen Verbraucher einen erheblichen Einfluss auf die Gestaltung einer Lieferkette hat. Nachfrageunsicherheit und Unsicherheit bei der Gestaltung verschiedener Emissionspolitiken werden untersucht, indem ein geeignetes robustes mathematisches Optimierungsmodell entwickelt wird. Die Ergebnisse zeigen, dass insbesondere Unsicherheiten bei der Gestaltung einer Emissionsrichtlinie die Gesamtkosten einer Lieferkette erheblich beeinflussen können. Im vierten Modell werden die Auswirkungen unterschiedlich gestalteter Emissionspolitiken in verschiedenen Ländern untersucht. Die Analysen zeigen, dass sowohl Lieferzeiten als auch Emissionsrichtlinien die Offshoring- und Nearshoring-Strategien von Unternehmen stark beeinflussen können. KW - Supply Chain Management KW - Lineare Optimierung KW - Lieferzeit KW - Umweltpolitik / Kompensation KW - Supply Chain Design KW - Lead Time KW - Emission Policy KW - Mathematical Optimization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-296713 ER - TY - JOUR A1 - Rodríguez-Entrena, Macario A1 - Schuberth, Florian A1 - Gelhard, Carsten T1 - Assessing statistical differences between parameters estimates in Partial Least Squares path modeling JF - Quality & Quantity N2 - Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model. KW - Testing parameter difference KW - Bootstrap KW - Confidence interval KW - Practitioner's guide KW - Statistical misconception KW - Consistent partial least squares Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-226403 VL - 52 IS - 1 ER - TY - THES A1 - Oberdorf, Felix T1 - Design and Evaluation of Data-Driven Enterprise Process Monitoring Systems T1 - Design und Evaluation von datengetriebenen Prozess Überwachungssystemen in Unternehmen N2 - Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios. To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming. To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network. Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement. N2 - Der zunehmende globale Wettbewerb zwingt Unternehmen zur Verbesserung ihrer Prozesse, um sich dadurch einen Wettbewerbsvorteil zu verschaffen. In der Fertigungsindustrie wird das durch die die digitale Transformation unterstützt. Grundlegende Komponenten in den entstehenden digitalisierten Umgebungen sind prozessorientierte Informationssysteme, die die Ausführung von Geschäftsprozessen aufzeichnen, bei der Prozessautomatisierung unterstützen und wiederum Potenzial zur Prozessanalyse freisetzen. Die meisten Informationssysteme in Unternehmen konzentrieren sich jedoch auf die Anzeige von Informationen, Prozessautomatisierung oder Datenerfassung, nutzen aber keine predictive analytics oder prescriptive analytics, um datengetriebene Entscheidungen zu unterstützen. Daher wird in dieser Dissertation der Aufbau von analytics-enabled Informationssystemen in fünf unabhängigen Teilen untersucht, die schrittweise analytische Methoden einführen und potenzielle Möglichkeiten zur Prozessverbesserung in realen Szenarien bewerten. Eine wesentliche Voraussetzung für den Auf- und Ausbau von analytics-enabled Informationssystemen ist die Identifikation von Erfolgsfaktoren, die wir im Kontext von Process Mining als deskriptive Methode untersuchen. Wir kombinieren einen etablierten Process Mining Framework und ein Process Mining Erfolgsmodell, um einen strukturierten Ansatz zur Bewertung von Erfolgsfaktoren zu ermöglichen, den wir aufbauend zur Identifizierung von Herausforderungen, Motivationen und des wahrgenommenen Mehrwerts (engl. Business Value) von Process Mining durch Mitarbeiter in Organisationen und Process Mining Experten nutzen. Auf Grundlage der gewonnenen Erkenntnisse erweitern wir das bestehende Erfolgsmodell und leiten Implikationen für die Generierung von Business Value durch Process Mining ab. Um die Realisierung des durch Process Mining ermöglichten Business Value zu unterstützen, entwickeln wir ein Artefakt für kontextbezogenes Process Mining. Das Artefakt kombiniert standard Prozessdaten mit zusätzlichen Kontextinformationen, um die automatische Identifizierung von Prozesspfaden, die mit den Kontextereignissen in Verbindung gebracht werden, zu unterstützen. Die entsprechende Realisierung ist jedoch eine herausfordernde Aufgabe, da die Transformation von Prozessen auf der Grundlage von Informationserkenntnissen zeitaufwendig ist. Um dies zu überwinden, stellen wir die Entwicklung eines predictive process monitoring Systems zur Automatisierung des Störungsmanagements in einer Produktionsumgebung vor. Das System nutzt etablierte Algorithmen des maschinellen Lernens zur Klassifizierung von Störungsarten und zur Vorhersage der Störungsdauer. Es kombiniert die Algorithmen mit zusätzlichen Datenquellen und einem einfachen Zuweisungsverfahren, um den Prozess der Störungsbearbeitung zu unterstützen. Die Entwicklung eines solchen Systems und entsprechender Modelle ist eine anspruchsvolle Aufgabe, die wir durch die Entwicklung einer Fünf-Phasen-Methode für predictive end-to-end process monitoring von Unternehmensprozessen unter Verwendung von multi-headed neural networks adressieren. Die Methode erleichtert die Integration heterogener Datenquellen durch dedizierte Modelle, die für eine Vorhersage kombiniert werden. Die Evaluation eines realen Anwendungsfalls unterstreicht die Kompetitivität des eines aus der entwickelten Methode resultierenden Modells. Allerdings sind auch die Ergebnisse des verbesserten Modells nicht perfekt. Somit muss die Entscheidung über die Zuweisung von Agenten zur Lösung von Störungen unter Unsicherheit getroffen werden. Dazu können zwar mathematische Modelle genutzt werden, allerdings steigt die Anzahl der möglichen Szenarien durch komplexe reale Bedingungen stark an und limitiert die Lösung mathematischer Modelle. Um dies zu überwinden und das Potenzial eines prescriptive process monitoring Systems zu beleuchten, haben wir einen datengetriebenen Ansatz zur Approximation eines dynamischen stochastischen Problems entwickelt, der mehrere Unsicherheiten bei der Zuweisung der Agenten berücksichtigt. Das resultierende Modell hat eine signifikant bessere Leistung und unterstreicht letztlich die besondere Bedeutung von analytics-enabled Informationssystemen für die Verbesserung von Organisationsprozessen. KW - Operations Management KW - Wirtschaftsinformatik KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Advanced Analytics KW - Predictive Analytics KW - Prescriptive Analytics Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298531 ER - TY - JOUR A1 - Rademaker, Manuel E. A1 - Schuberth, Florian A1 - Dijkstra, Theo K. T1 - Measurement error correlation within blocks of indicators in consistent partial least squares : Issues and remedies JF - Internet Research N2 - Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling. KW - Monte Carlo simulation KW - Structural equation modelling KW - Consistent partial least squares KW - Measurement error correlation KW - Model specification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-224901 VL - 29 IS - 3 ER - TY - RPRT A1 - Baumgart, Michael A1 - Bredebach, Patrick A1 - Herm, Lukas-Valentin A1 - Hock, David A1 - Hofmann, Adrian A1 - Janiesch, Christian A1 - Jankowski, Leif Ole A1 - Kampik, Timotheus A1 - Keil, Matthias A1 - Kolb, Julian A1 - Kröhn, Michael A1 - Pytel, Norman A1 - Schaschek, Myriam A1 - Stübs, Oliver A1 - Winkelmann, Axel A1 - Zeiß, Christian ED - Winkelmann, Axel ED - Janiesch, Christian T1 - Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken (PIMKoWe) N2 - Das Verbundprojekt „Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken“ (PIMKoWe – Förderkennzeichen „02P17D160“) ist ein Forschungsvorhaben im Rahmen des Forschungsprogramms „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ der Bekanntmachung „Industrie 4.0 – Intelligente Kollaborationen in dynamischen Wertschöpfungs-netzwerken“ (InKoWe). Das Forschungsvorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert und durch den Projektträger des Karlsruher Instituts für Technologie (PTKA) betreut. Ziel des Forschungsprojekts PIMKoWe ist die Entwicklung und Bereitstellung einer Plattformlösung zur Flexibilisierung, Automatisierung und Absicherung von Kooperationen in Wertschöpfungsnetzwerken des industriellen Sektors. T3 - Working Paper Series of the Institute of Business Management - 8 KW - Blockchain KW - Supply Chain Management KW - Blockchain KW - Plattform KW - Wertschöpfungsnetzwerke KW - Supply Chain Networks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-293354 SN - 2199-0328 ER - TY - THES A1 - Hornung, Vanessa T1 - Leading by Purpose and Employer Attractiveness - Eine konzeptionelle und empirische Analyse am Beispiel von Unilever T1 - Leading by Purpose and Employer Attractiveness - A conceptual and empirical analysis using the example of Unilever N2 - Die Welt befindet sich in einem tiefgreifenden Wandlungsprozess von einer Industrie- zu einer Wissensgesellschaft. Die Automatisierung sowohl physischer als auch kognitiver Arbeit verlagert die Nachfrage des Arbeitsmarktes zunehmend zu hoch qualifizierten Mitarbeitern, die als High Potentials bezeichnet werden. Diese zeichnen sich neben ihrer Intelligenz durch vielfältige Fähigkeiten wie Empathievermögen, Kreativität und Problemlösungskompetenzen aus. Humankapital gilt als Wettbewerbsfaktor der Zukunft, jedoch beklagten Unternehmen bereits Ende des 20. Jahrhunderts einen Mangel an Fach- und Führungspersonal, der durch die Pandemie weiter verstärkt wird. Aus diesem Grund rücken Konzepte zur Rekrutierung und Mitarbeiterbindung in den Fokus der Unternehmen. Da ethisches und ökologisches Bewusstsein in der Bevölkerung an Bedeutung gewinnen, lässt sich annehmen, dass Bewerber zukünftig verantwortungsbewusste Arbeitgeber bevorzugen. Nachhaltigkeit bzw. Corporate Responsibility wird damit zum Wettbewerbsfaktor zur Gewinnung und Bindung von Talenten. Mit Hilfe des Ansatzes der identitätsorientierten Markenführung wird ein Verständnis davon hergestellt, wie es Unternehmen gelingt, eine starke Arbeitgebermarke aufzubauen. Anhand einer konzeptionellen, praktischen und empirischen Untersuchung am Unternehmensbeispiel Unilever werden die Auswirkungen von umfassendem ökologischem und gesellschaftlichem Engagement auf die Arbeitgeberattraktivität analysiert. Es zeigt sich, dass Nachhaltigkeit – konkretisiert über die 17 Sustainable Develop-ment Goals (SDGs) und verankert im Kern der Marke – die erfolgreiche Führung einer Employer Brand ermöglicht. Dieses Ergebnis resultiert sowohl aus dem theoretischen als auch aus dem empirischen Teil dieser Arbeit. Im letzteren konnten unter Einsatz eines Strukturgleichungsmodells drei generelle positive Wirkzusammenhänge bestätigt werden: Bewerber fühlen sich zu verantwortungsbewussten Unternehmen hingezogen, weshalb sie einen P-O-F empfinden. Diese wahrgenommene Passung mit dem Unternehmen steigert die Arbeitgeberattraktivität aus Sicht der potenziellen Bewerber, wodurch sich wiederum die Wahrscheinlichkeit für eine Bewerbungsabsicht und die Akzeptanz eines Arbeitsplatzangebotes erhöht. Es wird damit die Annahme bestätigt, dass den Herausforderungen der Personalbeschaffung über eine konsequente nachhaltige Ausrichtung der Geschäftstätigkeit und deren glaubhafte Kommunikation über die Arbeitgebermarke begegnet werden kann. N2 - Since ethical and ecological awareness is gaining in importance in the population, it can be assumed that applicants will prefer responsible employers in the future. Sustainability and corporate responsibility are thus becoming a competitive factor in attracting and retaining talent. This dissertation show the effects of comprehensive ecological and social commitment on employer attractiveness on the basis of a conceptual, practical and empirical study using the company Unilever as an example. It turns out that sustainability - specified in the 17 Sustainable Development Goals (SDGs) and anchored in the core of the brand - enables the successful management of an employer brand. Three general positive causal relationships could be confirmed using a structural equation model: Applicants feel attracted to responsible companies and therefore feel a so-called person-organization-fit. This perceived fit with the company increases the attractiveness of the employer from the point of view of potential applicants, which in turn increases the likelihood of an intention to apply and the acceptance of a job offer. This confirms the assumption that the challenges of recruiting can be met through a consistent, sustainable orientation of business activities and their credible communication via the employer brand. KW - Personalmarketing KW - Employer Branding KW - Purpose KW - Employer Attractiveness KW - Unilever KW - Arbeitgeberattraktivität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-288941 ER - TY - THES A1 - Hochmuth, Christian Andreas T1 - Innovative Software in Unternehmen: Strategie und Erfolgsfaktoren für Einführungsprojekte T1 - Innovative Software in Companies: Strategy and Success Factors for Implementation Projects N2 - Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen. N2 - Innovative software can secure the position of a company among the competition. The implementation of innovative software is, however, anything but simple. Although the technical aspects are more obvious, this is because organizational aspects are predominant. Too many software projects fail because the implementation does not succeed, despite meeting technical requirements. In this light, the research objective of the master's thesis is to find risks and success factors for the implementation of innovative software in companies, to formulate a strategy and in this process to determine the importance of key persons. KW - Innovationsmanagement KW - Projektmanagement KW - Softwareentwicklung KW - Anforderungsmanagement KW - Risikomanagement KW - Innovation Management KW - Project Management KW - Software Engineering KW - Requirements Management KW - Risk Management Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-288411 N1 - Submitted on 15 September 2011, defended on 7 October 2011 ER -