TY - THES A1 - Zidorn, Wilfried T1 - Alliances and R&D activites in the Biotechnology Industry T1 - Allianzen und F&E Aktivitäten in der Biotechnologieindustrie N2 - This dissertation is divided into three studies by addressing the following constitutive research questions in the context of the biotechnology industry: (1) How do different types of inter-firm alliances influence a firm’s R&D activity? (2) How does an increasing number and diversity of alliances in a firm’s alliance portfolio affect its R&D activity? (3) What is the optimal balance between exploration and exploitation? (1) To answer these research questions the first main chapter analyzes the impact of different types of alliances on the R&D activities of successful firms in the biotechnology industry. Following the use of a new approach to measuring changes in research activities, the results show that alliances are used to specialize in a certain research field, rather than to enter a completely new market. This effect becomes smaller when the equity involvement of the partners in the alliance project increases. (2) The second main chapter analyzes the impact on innovation output of having heterogeneous partners in a biotechnology firm’s alliance portfolio. Previous literature has stressed that investment in the heterogeneity of partners in an alliance portfolio is more important than merely engaging in multiple collaborative agreements. The analysis of a unique panel dataset of 20 biotechnology firms and their 8,602 alliances suggests that engaging in many alliances generally has a positive influence on a firm’s innovation output. Furthermore, maintaining diverse alliance portfolios has an inverted U-shaped influence on a firm’s innovation output, as managerial costs and complexity levels become too high. (3) And the third main chapter investigates whether there is an optimal balance to be found between explorative and exploitative innovation strategies. Previous literature states that firms that are ambidextrous (i.e., able to focus on exploration and exploitation simultaneously) tend to be more successful. Using a unique panel dataset of 20 leading biotechnology firms and separating their explorative and exploitative research, the chapter suggests that firms seeking to increase their innovation output should avoid imbalances between their explorative and exploitative innovation strategies. Furthermore, an inverted U-shaped relationship between a firm’s relative research attention on exploration and its innovation output is found. This dissertation concludes with the results of the dissertation, combines the findings, gives managerial implications and proposes areas for potential further research. N2 - In einer sich ständig verändernden Welt, die dominiert wird durch dynamisches Wachstum und Technologietransfer, spielt die Forschung und Entwicklung (F&E) eines Unternehmens eine zentrale Rolle. Der einfache Zugang zu Informationen, insbesondere für Unternehmen in technologiegetriebenen Industrien, kann über Erfolg und Misserfolg entscheiden und dadurch signifikante Wettbewerbsvorteile generieren. Da Wissen zu jeder Zeit und an verschiedenen Orten auf dieser Welt generiert wird, ist es für ein einzelnes Unternehmen unmöglich auf dieses breite Spektrum an Information durch eigenständige F&E zuzugreifen. Um diesen Zugang zu erweitern, kooperieren Unternehmen, insbesondere im Hochtechnologiebereich, entlang ihrer Wertschöpfungskette mit nationalen und internationalen Unternehmen aus wettbewerbsnahen und –fremden Industrien sowie staatlichen und privaten Forschungseinrichtungen. Diese Allianzen helfen Unternehmen den wechselnden Umwelteinflüssen, gekennzeichnet durch radikale und inkrementelle Innovationen, dem Kampf um Marktanteile und Änderungen der regulatorischen Rahmenbedingungen entgegenzutreten und ermöglichen dadurch schnell und flexibel auf diese exogenen Einflüsse zu reagieren. Ziel dieser Dissertation ist es, die F&E Prozesse von Unternehmen in der Biotechnologieindustrie darzustellen und dabei zu analysieren, inwiefern Unternehmen verschiedene Arten von Allianzen nutzen, um diese Prozesse zu optimieren. Nach Beschreibung der Forschungsrelevanz und der damit verbundenen Analyse von Studien zu F&E, Wissensgenerierung, Allianzen und der Biotechnologieindustrie folgen drei empirische Hauptteile. Der erste Teil beschreibt, inwiefern Unternehmen verschiedene Typen von Allianzen nutzen können, um sich auf bestimmte Technologiebereiche zu spezialisieren. Die Ergebnisse zeigen, dass Biotechnologieunternehmen, die oft und gezielt mit anderen Unternehmen kooperieren, einen spezialisierteren Technologiefokus haben, als Unternehmen, die von diesem strategischen Instrument nur selten Gebrauch machen. Der zweite Teil geht auf den Einfluss von Allianzportfolios auf F&E Prozesse innerhalb eines Biotechnologieunternehmens ein. Damit Unternehmen nicht wiederholt auf redundantes Wissen stoßen, müssen diese mit heterogenen Partnern kooperieren. Um die F&E Erträge zu maximieren, ist es dabei essentiell, dass Unternehmen den Überblick zum einen über die Anzahl der Allianzen und zum anderen über deren Diversität behalten. Die Ergebnisse zeigen, dass Unternehmen zwar von beiden Kooperationsstrategien einzeln betrachtet profitieren, allerdings in Kombination schnell an einen Punkt gelangen, ab welchem negative F&E Erträge eintreten. Der dritte Teil beschäftigt sich mit der explorativen und exploitativen Wissensgenerierung innerhalb Biotechnologieunternehmen. Exploration bezieht sich hierbei auf experimentelle Forschung und der Schaffung von neuem Wissen, wohingegen Exploitation die Erweiterung und Verbesserung von bereits bestehendem Wissen beschreibt. Vorhergegangene Studien beschreiben, dass Unternehmen am meisten von einer effektiven Verbindung der beiden Forschungsstrategien profitieren, ermitteln allerdings nicht, bei welcher Gewichtung ein Unternehmen den höchsten technologischen Nutzen hat. Ziel dieses Teils ist es, diesen Extrempunkt für Unternehmen der Biotechnologie zu ermitteln. Die Ergebnisse zeigen, dass Biotechnologieunternehmen am meisten von einem Gleichgewicht zwischen Exploration und Exploitation profitieren, dabei allerdings minimal mehr Ressourcen der experimentellen Forschungen zusprechen. Dieses Optimum müsste sich jedoch verschieben, sobald sich Rahmenbedingungen wie Wettbewerb, Industriedynamik oder regulatorische Vorgaben ändern. Daher zeigt diese Dissertation, dass Unternehmenskooperation eine entscheidende Rolle bei der Entwicklung sowie dem Überleben von Biotechnologieunternehmen spielt und eine Balance zwischen Exploration und Exploitation zu einem großen Teil die nachhaltige Wettbewerbsfähigkeit von Biotechnologieunternehmen bestimmen kann. KW - Biotechnologische Industrie KW - Forschung und Entwicklung KW - Unternehmenskooperation KW - Biotechnologie KW - Alliances KW - Innovation KW - Biotechnology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-75483 ER - TY - THES A1 - Yazdani Rashvanlouei, Kourosh T1 - Developing a Framework for International Projects of ERP Implementation T1 - Entwicklung eines Rahmens für internationale Projekte der ERP-Implementierung N2 - Enterprise Systeme werden immer mehr von Bedeutung, was sie in die Mitte der Aufmerksamkeit und der Berücksichtigung durch Organisationen in verschiedensten Formen rückt – seien es Unternehmen oder Industrien von riesigen öffentlichen oder privaten Organisationen bis hin zu mittleren und kleinen Dienstleistungsunternehmen. Diese Systeme verbessern sich ständig, sowohl funktionell, als auch technologisch und sie sind unumgänglich für Unternehmen, um ihre Produktivität zu vergrößern und um in dem nationalen und globalen Wettbewerb mitzuhalten. Da lokale Softwarelösungen die Bedingungen, speziell von großen Betrieben, funktionell und technologisch nicht erfüllen konnten und da riesige globale Softwarehersteller, wie SAP, Oracle und Microsoft ihre Lösungen rapide verbessern und sie ihren Markt immer mehr über den Globus expandieren, nimmt die Nachfrage für diese globalen Marken und deren nahezu einwandfreien Softwarelösungen täglich zu. Die Zustimmung für internationale ERP Unternehmensberatungsanwendungen nimmt deswegen exponentiell zu, während die Forschung der beeinflussenden Faktoren und des Fachwissens wenig verbreitet ist. Deswegen ist es so dringlich, dieses Gebiet zu erforschen. Das schlussendliche fünf-in-fünf Framework dieser Studie sammelt zum ersten Mal in der Geschichte alle historisch erwähnten, kritischen Erfolgsfaktoren und Projektaktivitäten. Diese wurden in fünf Phasen unterteilt und nach den fünf Schwerpunkten der internationalen ERP Projektdurchführung kategorisiert. Dieses Framework bietet einen Überblick und bildet einen umfassenden Fahrplan für solche Projekte. N2 - The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments. Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt. The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects. KW - ERP KW - International IT Projects KW - ERP Implementation KW - Framework Develpment KW - ERP CSF Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154000 ER - TY - THES A1 - Wötzel, Dagmar T1 - Wirksame Umsetzung strategischer Entscheidungen in profitorientierten Unternehmen T1 - Adaptive Organizations N2 - Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous). Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft. Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet. Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden. Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden. Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln. Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise. N2 - The logic of researched and described management and leadership theories must evolve in the age of digitalization. The original research question of “implementing strategic decisions in for profit companies efficiently” does not fit the reality of disruptive changes in the VUCA world (volatile, uncertain, complex, ambiguous). The thesis is brave and precious as it helps to reveal and close the gap between new developments in the business world and missing theoretical concepts in the management, leadership and organizational sciences. The first part of the thesis summarizes state of the art insights concerning strategic decision making in companies, global megatrends as framework conditions and change management as implementation support. This holistic view allows the conclusion that the research question at the start is solving a 20th century challenge, which does not provide helpful answers for the age of digitalization. This results in a development of the research question to “How can an adaptive Organization be created and nurtured?” This type of organization is designed to not only survive, but indeed benefit from the disruptive changes. These use the disruption to find new answers to continuously developing customer needs and for the internal organization. Adaptive organizations need to be reflected in 5 core dimensions, which are analyzed and developed in the main part of the thesis. All of those are in a continuous development and it is not yet clear, which methods will sustain. The last chapter provides guidance in the spirit of a holistic transformation management, how to start developing the adaptability of an organization. The thorough discussion of a wealth of concepts and approaches combined with the extensive practical experience of the author allows a more profound approach to the research question than a strictly academic research. KW - Anpassungsfähige Organisation KW - adaptive organisation KW - VUCA world KW - Strategische Entscheidungsfindung KW - Digitalisierung KW - Digitalization KW - Strategisches Management KW - Strategic Management KW - Selbstorganisation KW - Führungsentscheidung KW - Organisation KW - Strategie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176243 ER - TY - THES A1 - Wirth, Marco Andreas Alwin T1 - Additive Fertigung: Technologie, Markt und Innovation T1 - Additive Manufacturing: Technology, Market and Innovation N2 - Additive Fertigung – oftmals plakativ „3D-Druck“ genannt – bezeichnet eine Fertigungstechnologie, die die Herstellung physischer Gegenstände auf Basis digitaler, dreidimensionaler Modelle ermöglicht. Das grundlegende Funktionsprinzip und die Gemeinsamkeit aller additiven bzw. generativen Fertigungsverfahren ist die schichtweise Erzeugung des Objekts. Zu den wesentlichen Vorteilen der Technologie gehört die Designfreiheit, die die Integration komplexer Geometrien erlaubt. Aufgrund der zunehmenden Verfügbarkeit kostengünstiger Geräte für den Heimgebrauch und der wachsenden Marktpräsenz von Druckdienstleistern steht die Technologie erstmals Endkunden in einer Art und Weise zur Verfügung wie es vormals, aufgrund hoher Kosten, lediglich großen Konzernen vorbehalten war. Infolgedessen ist die additive Fertigung vermehrt in den Fokus der breiten Öffentlichkeit geraten. Jedoch haben sich Wissenschaft und Forschung bisher vor allem mit Verfahrens- und Materialfragen befasst. Insbesondere Fragestellungen zu wirtschaftlichen und gesellschaftlichen Auswirkungen haben hingegen kaum Beachtung gefunden. Aus diesem Grund untersucht die vorliegende Dissertation die vielfältigen Implikationen und Auswirkungen der Technologie. Zunächst werden Grundlagen der Fertigungstechnologie erläutert, die für das Verständnis der Arbeit eine zentrale Rolle spielen. Neben dem elementaren Funktionsprinzip der Technologie werden relevante Begrifflichkeiten aus dem Kontext der additiven Fertigung vorgestellt und zueinander in Beziehung gesetzt. Im weiteren Verlauf werden dann Entwicklung und Akteure der Wertschöpfungskette der additiven Fertigung skizziert. Anschließend werden diverse Geschäftsmodelle im Kontext der additiven Fertigung systematisch visualisiert und erläutert. Ein weiterer wichtiger Aspekt sind die zu erwartenden wirtschaftlichen Potentiale, die sich aus einer Reihe technischer Charakteristika ableiten lassen. Festgehalten werden kann, dass der Gestaltungsspielraum von Fertigungssystemen hinsichtlich Komplexität, Effizienzsteigerung und Variantenvielfalt erweitert wird. Die gewonnenen Erkenntnisse werden außerdem genutzt, um zwei Vertreter der Branche exemplarisch mithilfe von Fallstudien zu analysieren. Eines der untersuchten Fallbeispiele ist die populäre Online-Plattform und -Community Thingiverse, die das Veröffentlichen, Teilen und Remixen einer Vielzahl von druckbaren digitalen 3D-Modellen ermöglicht. Das Remixen, ursprünglich bekannt aus der Musikwelt, wird im Zuge des Aufkommens offener Online-Plattformen heute beim Entwurf beliebiger physischer Dinge eingesetzt. Trotz der unverkennbaren Bedeutung sowohl für die Quantität als auch für die Qualität der Innovationen auf diesen Plattformen, ist über den Prozess des Remixens und die Faktoren, die diese beeinflussen, wenig bekannt. Aus diesem Grund werden die Remix-Aktivitäten der Plattform explorativ analysiert. Auf Grundlage der Ergebnisse der Untersuchung werden fünf Thesen sowie praxisbezogene Empfehlungen bzw. Implikationen formuliert. Im Vordergrund der Analyse stehen die Rolle von Remixen in Design-Communities, verschiedene Muster im Prozess des Remixens, Funktionalitäten der Plattform, die das Remixen fördern und das Profil der remixenden Nutzerschaft. Aufgrund enttäuschter Erwartungen an den 3D-Druck im Heimgebrauch wurde dieser demokratischen Form der Produktion kaum Beachtung geschenkt. Richtet man den Fokus jedoch nicht auf die Technik, sondern die Hobbyisten selbst, lassen sich neue Einblicke in die zugrunde liegenden Innovationsprozesse gewinnen. Die Ergebnisse einer qualitativen Studie mit über 75 Designern zeigen unter anderem, dass Designer das Konzept des Remixens bereits verinnerlicht haben und dieses über die Plattform hinaus in verschiedenen Kontexten einsetzen. Ein weiterer Beitrag, der die bisherige Theorie zu Innovationsprozessen erweitert, ist die Identifikation und Beschreibung von sechs unterschiedlichen Remix-Prozessen, die sich anhand der Merkmale Fähigkeiten, Auslöser und Motivation unterscheiden lassen. N2 - Additive manufacturing—commonly known as “3D printing”—denotes a manufacturing technology that facilitates the production of physical objects from digital three-dimensional blueprints. Layer manufacturing is the basic principle of the production process of all additive manufactured objects. Major benefits of this technology are that it allows for the creation of very complex models and its flexibility for various design geometries. Today, for the first time, the increasing number of 3D printing service providers and the constantly growing range of affordable printers for home use, make this technology available to consumers, whereas the high costs limited the use to large enterprises in the past. Therefore, this technology is raising more and more public attention. Presently science and research focuses primarily on questions regarding materials and processes, while ignoring or missing out the discussion about economic and social impact. Therefore, this dissertation examines and focusses on the aspect of possible implications and consequences of the technology. The thesis starts by introducing the main aspects of the technology, to establish a common understanding, which is key for understanding the dissertation. Followed by the description of specific techniques and processes, different terminologies of additive manufacturing are introduced to describe in detail how they are related. In the further course the additive manufacturing value chain, its development, and involved stakeholders are outlined. Subsequent diverse business models out of the additive manufacturing context are systematically visualized and elucidated. Another important aspect are expectable economic potentials that can be deduced by a number of technical characteristics. A conclusion that can be drawn is that the room to maneuver is extended with regard to complexity, efficiency enhancement, and variety of versions. Insights gained hereby are also utilized to analyze two representatives of the branch of industry by way of example. Thereafter, the additive manufacturing value chain, its development, and involved stakeholders are outlined. Diverse business models of the additive manufacturing are depicted and explained systematically. Another important aspect is possible future economic potentials that can be deduced by several technical characteristics. The conclusion of the findings show, that there is room for growth with regard to complexity, enhancement of efficiency, and variety of versions. Furthermore, the learnings are the basis for a detailed analysis of two representatives of this industry by way of examples and case studies. One of the cases deals with the popular online platform and community Thingiverse that offers a platform for publishing, sharing, access, and remixing a broad range of printable digital models. The term remixing—originally known from the music domain—is very often used in various emerging open online platforms to describe the phenomenon of repurposing existing materials to create something new. However, despite its obvious relevance for the number and quality of innovations on such platforms, little is known about the process of remixing and its contextual factors. For that reason, an explorative study of remixing activities on the platform was conducted and is presented. Based on the findings of these empirically observed phenomena, a set of five theoretical propositions, practical recommendations and managerial implications are formulated. Predominant in the analysis are the role of remixes in design communities, the different patterns of remixing processes, the platform features that facilitate remixes, and the profile of the remixing platform’s users. Due to disappointed expectations regarding home use 3D printing this democratic form of production has received only little attention. However, not focusing on the technology itself but on the hobbyist users reveals new insights on underlying innovation processes. The findings of a qualitative study with more than 75 designers show amongst other findings, that designers have already internalized the concept of remixing and apply it in various contexts, even beyond the platform. An additional contribution that extends previous research on innovation processes is the identification and description of six different remix processes that can be differentiated by means of the features skill level, trigger and motivation. KW - Rapid Prototyping KW - Thingiverse KW - Additive Fertigung KW - Additive Manufacturing KW - Maker-Bewegung KW - Maker Movement KW - 3D Printing KW - 3D-Druck KW - Remix KW - Innovation KW - Online-Community Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-155970 ER - TY - RPRT A1 - Winkelmann, Axel ED - Winkelmann, Axel T1 - Proceedings of the Doctoral Consortium WI 2015 T1 - Tagungsband zum Doctoral Consortium der WI 2015 N2 - Bereits seit Anfang der 1990er Jahre wird jungen Wissenschaftlern im Vorfeld der Tagung "Wirtschaftsinformatik" ein Doctoral Consortium als unterstützendes Forum angeboten. Diese Einrichtung wurde auch zur größten Internationalen Konferenz der Wirtschaftsinformatik, der WI 2015 in Osnabrück fortgeführt. Dieser Band fasst die zum Vortag ausgewählten Beiträge zusammen. T3 - Working Paper Series of the Institute of Business Management - 4 KW - Wirtschaftsinformatik KW - Doctorial Consortium, WI 2015 KW - Tagung KW - 2015 KW - Osnabrück Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111715 SN - 2199-0328 ER - TY - THES A1 - Weinhard, Alexander T1 - Managing RFID Implementations - Implications for Managerial Decision Making T1 - Management von RFID-Implementierungen - Implikationen für die Management Entscheidungsfindung N2 - The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research. N2 - Die vorliegende Arbeit beschäftigt sich mit dem Management von RFID Implementierungen im Einzelhandel. Dabei leistet die Arbeit einen Beitrag, indem wichtige aber bisher in der wissenschaftlichen Fachliteratur nur wenig beachtete Aspekte beleuchtet werden. Hierfür werden drei Studien zu drei relevanten Managementaspekten durchgeführt. Zunächst wird die Kundenakzeptanz im Bezug auf pervasive Retail Applikationen betrachtet und mithilfe der Privacy Calculus Theorie ermittelt, welche Aspekte für die Kundenakzeptanz pervasiver Systeme besonders relevant sind. In Studie zwei wird eine RFID-gestützte Roboterinvnetur anhand einer Simulationsstudie evaluiert. Die Studie zeigt, dass eine durch Roboter durchgeführte Inventur für einen Einzelhändler zu empfehlen ist, falls die Roboter tatsächlich mit den von den Herstellern beworbenen Erkennungsraten arbeiten. In der dritten und letzten Studie werden die Potenziale von RFID-Daten zur Entscheidungsunterstützung des Managements evaluiert. Es werden drei Methoden vorgestellt um aus RFID-Daten nützliche Informationen zu gewinnen. Abschließend wird ein generisches Vorgehensmodell zur Informationsextraktion entwickelt. Die Arbeit ist sowohl an Praktiker gerichtet, die ihre RFID-basierten Prozesse verbessern möchten, als auch an Wissenschaftler die RFID-basierte Forschung betreiben. KW - RFID KW - Simulation KW - Management KW - Privatsphäre KW - Roboter KW - Data Analytics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178161 ER - TY - THES A1 - Wanner, Jonas Paul T1 - Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 T1 - Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0 N2 - Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. N2 - Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt. Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind. Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Industrie 4.0 KW - Explainable AI KW - Erklärbare Künstliche Intelligenz KW - Artificial Intelligence KW - Industry 4.0 KW - Decision Support Systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259014 ER - TY - JOUR A1 - Wanner, Jonas A1 - Herm, Lukas-Valentin A1 - Heinrich, Kai A1 - Janiesch, Christian T1 - The effect of transparency and trust on intelligent system acceptance: evidence from a user-based study JF - Electronic Markets N2 - Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance. KW - user acceptance KW - intelligent system KW - artificial intelligence KW - trust KW - system transparency Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323829 SN - 1019-6781 VL - 32 IS - 4 ER - TY - THES A1 - Walter, Michaela T1 - Die steuerliche Behandlung der Gewährung von Aktienoptionen an Arbeitnehmer bei grenzüberschreitenden Sachverhalten : dargestellt anhand der Länder Deutschland, Schweiz, Österreich und Belgien T1 - The fiscal treatment of stock options granted to employees at cross-border cases represented in respect of the countries Germany, Switzerland, Austria and Belgium N2 - Nicht handelbare reale Aktienoptionen sind ein beliebtes Instrument, um die variable Vergütung von Mitarbeitern mit dem Unternehmenswert zu verbinden. Für die Unternehmensseite existieren unterschiedliche Auffassungen, wie die Verpflichtung aus der Option zu bilanzieren ist. Der individuelle Wert dieser Vergütungskomponente für den begünstigten Mitarbeiter ist unter anderem auch von der Besteuerung abhängig. Da Aktienoptionspläne eine längere Laufzeit aufweisen, stellt sich die Frage nach dem zutreffenden Besteuerungszeitpunkt und damit verbunden nach der Bewertung des Vorteils. Die Vergütung von Mitarbeitern mit Aktienoptionen ist den Einkünften aus nichtselbständiger Tätigkeit zuzurechnen. Es gilt das Zuflussprinzip. Nach der allgemeinen Diskussion über den zutreffenden Besteuerungszeitpunkt und Bewertung der Option werden in der Arbeit zunächst die unterschiedlichen Rechtslagen zur Besteuerung von Aktienoptionen beim Begünstigten in den betrachteten Ländern (Deutschland, Schweiz, Österreich und Belgien) dargestellt. Die Besteuerung in der Schweiz, Österreich und Belgien erweist sich im Fall der tatsächlichen Optionsausübung grundsätzlich vergleichsweise günstiger als in Deutschland. Die differierenden steuerlichen Regelungen sind insbesondere bei grenzüberschreitenden Sachverhalten problematisch. Hauptsächlich durch abweichende Besteuerungszeitpunkte in den betrachteten Ländern ergeben sich bei Wechsel von Tätigkeits- und Wohnort, aber auch bei Grenzgängern sowohl Fälle der Doppelbesteuerung als auch der Nichtbesteuerung der Vergütung. Es werden jeweils konkrete grenzüberschreitende Sachverhalte anhand des spezifischen Doppelbesteuerungsabkommens der beteiligten Staaten beurteilt. Risiken der Doppelbesteuerung werden herausgearbeitet und Gestaltungsempfehlungen zur Vermeidung gegeben. Im Hinblick auf die meist günstigere Besteuerung in der Schweiz, in Österreich und in Belgien kann generell für die Besteuerung von Aktienoptionen bei grenzüberschreitenden Sachverhalten die Empfehlung abgeleitet werden, dass eine Tätigkeitsverlagerung in diese Staaten grundsätzlich sinnvoll ist. Selbst zwischen europäischen Staaten, die vielfältig miteinander verbunden sind, kann häufig aufgrund der unterschiedlichen Steuersysteme keine allgemeingültige Lösung gefunden werden, um eine zutreffende gerechte Besteuerung von Aktienoptionen beim Begünstigten in grenzüberschreitenden Fällen sicherzustellen. Eine Doppel- bzw. Minderbesteuerung ist mit den vorhandenen rechtlichen Möglichkeiten meist nicht zu beseitigen. N2 - Not tradable real stock options are often granted to employees to connect their remuneration with the value of the company. In the balance sheets of the companies exist different opinions about the accounting treatment. The value of the stock options to the employee is also dependent on the fiscal treatment. Main problems in the diffenrent countries are the correct date of taxation and the value of the option. These topics are discussed in general and especially for the countries Germany, Switzerland, Austria and Belgium. Because of the different fiscal treatment in these countries it is possible that there are cases of double or non-taxation if the employee changes the place of work or living. Individual cross-border cases are represented with the specific double taxation agreements of the involved countries. Even between european states it is not possible to find a generally accepted solution to guarantee a correct and just taxation of stock options granted to emloyees with cross border circumstances. KW - Deutschland KW - Aktienoption KW - Steuerrecht KW - Österreich KW - Schweiz KW - Belgien KW - Rechtsvergleich KW - Aktienoption KW - Arbeitnehmer KW - Steuer KW - International KW - Bilanzierung KW - stock options KW - employee KW - taxation Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19289 ER - TY - THES A1 - Tschinkl, Dominik T1 - Der Einfluss von Steuern auf Ersparnisbildung und Altersvorsorge - Experimentelle und qualitative Untersuchungen T1 - The Impact of Taxes on saving and retirement – experimental and qualitative analyses N2 - Aufgrund der bekannten Probleme der umlagefinanzierten gesetzlichen Rentenversicherung versucht der deutsche Gesetzgeber seit einiger Zeit, die eigenverantwortliche Altersvorsorge zu fördern. Häufig steht dabei die betriebliche Altersversorgung (bAV) im Fokus. In dieser Arbeit wird mittels Experten- und Arbeitnehmerinterviews ausführlich herausgearbeitet, wo zentrale Verbreitungshemmnisse der bAV liegen und wie diese durch Anpassung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen adressiert werden können. Wesentliche Elemente dieser Reformüberlegungen sind in das zum 01.01.2018 in Kraft getretene Betriebsrentenstärkungsgesetz eingeflossen. Daneben wird in dieser Arbeit mithilfe einer experimentalökonomischen Analyse gezeigt, wie verschiedene Arten der Besteuerung individuelle Sparentscheidungen beeinflussen können. Dabei wird deutlich, dass Individuen die Wirkung einer nachgelagerten Besteuerung häufig nicht korrekt wahrnehmen. N2 - Individuals make numerous decisions that affect their financial situation. Saving in general and saving for old age in particular are two of these decisions. Experimental economics investigate the influence of taxes on such individual decisions. The results show that the decisions actually made may differ from those predicted by model theory. So far, this was primarily shown for the influence of taxes on investment and labor supply decisions. It is found that in some cases individuals make biased decisions due to a misperception of certain fiscal regulations, such as tax treatments. Such findings are the motivation for the first part of this work: Using experimental methods, I show how different forms of taxation influence the decision between immediate consumption and saving. The parameters are chosen in such a way that the treatments “No Tax”, “Front-loaded Taxation” and “Deferred Taxation” have identical net payoffs, which should induce the same decision-making patterns. However, I find that these expectations are only met for the comparison of the No Tax treatment and the Front-loaded Taxation treatment. The participants in the treatment Deferred Taxation decide less often in favor of saving. This effect can be attributed to a misperception of this form of taxation. The individuals assess its influence as more negative than it actually is. Moreover, my findings show that the advantages from deferred or front-loaded taxation compared to a classic income tax are only partially recognized. While in the case of deferred and front-loaded taxation the periodic return is tax-free, this return is taxed in the system of a classic income tax. The latter should have a negative effect on the savings decision. The results of the experiment suggest that this is only true for the comparison of the income tax with the front-loaded taxation. Since the deferred taxation distorts the participants’ decisions negatively, I find no difference to the classic income tax. The second part of this work deals with the current and future legal regulations regarding company pension schemes (CPS) as a form of state-subsidized old-age provision. Although tax regulations are the main focus, social security law is also dealt with as it often corresponds to tax law. For some time now, the German legislator has been trying to increase the attractiveness of CPS in an attempt to encourage its wider use. There is considerable potential for this especially among earners of low and very low incomes. Therefore, this study examines obstacles to the continued spread of CPS by using qualitative methods, i.e. guided interviews with experts as well as partially standardized interviews with employees from this target group. On this basis, I consider potential reforms that may prove effective in addressing the identified obstacles. I then subject these reform ideas to an empirical review that involves interviews again with earners of low and very low incomes. It is shown that a “CBS subsidy” could be introduced, which involves granting a statutory subsidy to employers who contribute a certain minimum amount to the CPS on behalf of their employees. As a consequence, employees would be able to participate in a CPS without having to make a contribution of their own, which would induce the desired effect especially for earners of low and very low incomes. Besides that, already existing support schemes, i.e. the “Riester subsidy”, could be made more attractive by making appropriate adjustments. These analyses took place before the Company Pensions Strengthening Act (CPSA) was passed and thus before it came into force. Accordingly, the comments on the legal and initial situation refer to the status as of December 31, 2017. Some of the adjustments implemented in the CPSA are based on the reform proposals discussed in this work. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 5 KW - Deutschland KW - Steuerrecht KW - Betriebliche Altersversorgung KW - Altersvorsorge KW - Betriebliche Altersversorgung KW - Steuern KW - Betriebsrenten KW - Private Altersversorgung KW - Altersversorgung KW - Besteuerung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-216798 SN - 978-3-95826-150-1 SN - 978-3-95826-151-8 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-150-1, 27,80 Euro. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Todesco, Felix T1 - Die Unternehmensplanung bei kleinen und mittleren Unternehmen im Blickpunkt der aktuellen gesetzlichen Anforderungen an die Unternehmensführung N2 - Die Dissertation untersucht die Fragestellung, ob aufgrund rechtlicher Regelungen eine gesetzlich begründete Pflicht zur Unternehmensplanung bei kleinen und mittleren Unternehmen (KMU) besteht, bzw. ob eine solche Pflicht gesetzlich verankert werden sollte, falls sich aus den aktuellen gesetzlichen Vorschriften keine solche Pflicht ableiten lässt. Daran anknüpfend werden in die Betrachtung auch die Auswirkungen der Abschlussprüfung und der Unternehmensfinanzierung auf die Unternehmensplanung bei KMU mit einbezogen. Die Untersuchungen bewegen sich vor dem Hintergrund, dass die Informationen über die zukünftige Entwicklung der Unternehmen durch eine Vielzahl von Gesetzesreformen innerhalb der letzten ca. 15 Jahre, verstärkt an Bedeutung gewonnen haben. Ziel dieser Reformen ist es, die Transparenz und Publizität der Unternehmen, die Kontrolle der Unternehmensführung und die Qualität der Abschlussprüfung zu verbessern. Grundlage der Informationen über die zukünftige Entwicklung der Unternehmen ist die klassische betriebswirtschaftliche interne Unternehmensplanung, welche allerdings im Segment der KMU regelmäßig nicht vorhanden ist. Um dieses Problem zu lösen, wird vielfach eine gesetzliche Planungspflicht für alle Unternehmen gefordert. Erschwert werden die Untersuchungen durch die Tatsache, dass es in Deutschland keine einheitliche Definition für KMU gibt, so dass im Rahmen der Dissertation verschiedenen Typen von KMU entwickelt werden, die den späteren Betrachtungen als Grundlage dienen. Der Aufbau sowie die Hauptthesen der Dissertation werden im Folgenden zusammenfassend skizziert: Den Hauptbetrachtungen der Dissertation vorangestellt, werden in Kapitel 2 die Grundzüge der betriebswirtschaftlichen interne Unternehmensplanung dargestellt. Die dargestellte Konzeption einer betriebswirtschaftlichen Unternehmensplanung dient als Basis der späteren Ausführungen. In Kapitel 3 werden verschiedene Typen von KMU vor dem Hintergrund der für diese Unternehmen charakteristischen Merkmale entwickelt. Unterschieden wird zwischen typischen KMU (erfüllen die qualitativen und quantitativen Merkmale für KMU) und atypischen KMU (erfüllen lediglich die quantitativen Merkmale). Unter Zuhilfenahme einer Studie von Wolter/ Hauser wird eine zahlenmäßige Einteilung der einzelnen KMU-Typen, aufgegliedert in verschiedene Rechtsformen vorgenommen, so dass die Bedeutung der KMU-Typen innerhalb der jeweiligen Rechtsformen ermittelt werden kann. Anschließend wird die Durchführung der Unternehmensplanung bei KMU unter Berücksichtigung der bei diesen vorherrschenden charakteristischen Strukturen erörtert. Kapitel 4 untersucht die Auswirkungen der aktuellen Gesetzgebung zur Unternehmensführung auf die Unternehmensplanung bei KMU. Im Fokus der Betrachtung stehen dabei die folgenden Vorschriften: - Die Fortbestehensprognose gem. § 252 Abs. 1 Nr. 2 HGB mit einem Exkurs zur Fortbestehensprognose im Rahmen der InsO; - die Sorgfaltspflicht und die „Business Judgment Rule“ gem. § 93 Abs. 1 Satz 1 und 2 AktG; - das Überwachungssystem gem. § 91 Abs. 2 AktG; - die Berichterstattungspflichten des Vorstands an den Aufsichtsrat gem. § 90 Abs. 1 Nr. 1 AktG; - die zukunftsorientierte Lageberichterstattung gem. § 289 Abs. 1 Satz 4 HGB; die Untersuchungen werden erweitert um eine empirische Analyse zur zukunftsorientierten Lageberichterstattung im Segment der KMU. In Kapitel 5 wird die Bedeutung der Unternehmensplanung bei KMU für die Abschlussprüfung untersucht. Die Ausführungen kommen zu dem Ergebnis, dass sich zwischen den aktuellen für alle Unternehmen gültigen Prüfungsstandards des IDW auf der einen Seite und dem ebenfalls durch das IDW herausgegebenen Prüfungshinweis zu den Besonderheiten der Abschlussprüfung von KMU (IDW PH 9.100.1) auf der anderen Seite, erhebliche Abweichungen ergeben. Kapitel 6 erläutert und diskutiert die Auswirkungen und Anforderungen der im Jahr 2006 beschlossenen Basler Eigenkapitalanforderungen auf bzw. an die Unternehmensplanung bei KMU. Im Ergebnis wird festgestellt, dass sich eine Planungspflicht lediglich aus der Vorschrift des § 90 Abs. Nr. 1 AktG für KMU in der Rechtsform der AG und KGaA ergibt. Für die Erfüllung anderer Normen ist die Unternehmensplanung teilweise zwingende Voraussetzung. Diese Problematik sollte jedoch nicht durch die Verankerung einer Unternehmenspflicht für alle Unternehmen behoben werden, sondern vielmehr sollten diese Normen bzgl. ihrer Auswirkungen auf KMU überdacht werden. Eine gesetzliche Verankerung einer Planungspflicht aus Sicht der Wirtschaftsprüfung wird ebenfalls abgelehnt. Für den Bereich der Unternehmensfinanzierung bedarf es keiner gesetzlichen Regelungen, da sämtliche Anforderungen privatvertraglich fixiert werden können. N2 - no abstract available KW - Unternehmensplanung KW - Klein- und Mittelbetrieb KW - Corporate Governance KW - KMU KW - Unternehmensführung KW - gesetzliche Anforderungen Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-50844 ER - TY - THES A1 - Thiere, Wolfgang T1 - Wertrelevanz von Humankapital am deutschen Kapitalmarkt - empirische Bestandsaufnahme und Entwicklung eines Bewertungsmodells T1 - Value Relevance of Human Capital in the German Capital Market - Empirical Study and Developement of a Valuation Model N2 - Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten. N2 - The thesis analysis the importance of human capital informations for external capital market actors. The discussion about the impossible recognition of human capital in the valid German accounting systems follows an analysis of voluntary human capital publications via an index (HKINDEX). This index is empirically tested in two OLS-regressions to determine its relevance for the analysts forecast errors as well as for the capital costs. Based on the empirical results and an information economics based publication discussion the aim is to design a human capital valuation model. KW - Humankapital KW - Humankapitaltheorie KW - Rechnungslegung KW - Sozialbilanz KW - Vermögensgegenstand KW - Immaterielle Investition KW - Immaterielles Wirtschaftsgut KW - Human Capital KW - Accounting KW - Intangibles KW - Capital Market Study Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36253 ER - TY - THES A1 - Taigel, Fabian Michael T1 - Data-driven Operations Management: From Predictive to Prescriptive Analytics T1 - Datenbasiertes Operations Management: Von prädiktiven zu präskriptiven Verfahren N2 - Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt’s invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data “the new oil” indicates the growing awareness of data’s importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of data [for Economic Co-operation and Development, 2018]. One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data – typically just historical demand data – is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner’s experience and intuition, rather than on solid data analysis. This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind. The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work. The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management. All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity. N2 - Diese Dissertation besteht aus fünf inhaltlich abgeschlossenen Teilen, die ein übergeordnetes Thema zur Grundlage haben: Wie können Daten genutzt werden, um bessere Bestands- und Kapazitätsplanung zu ermöglichen? Durch die zunehmende Digitalisierung stehen in verschiedensten Wirtschaftsbereichen mehr und mehr Daten zur Verfügung, die zur besseren Planung der Betriebsabläufe genutzt werden können. Historische Nachfragedaten, Sensordaten, Preisinformationen und Daten zu Werbemaßnahmen, sowie frei verfügbare Daten wie z.B. Wettervorhersagen, Daten zu Schulferien, regionalen Events, Daten aus den Sozialen Medien oder anderen Quellen enthalten potentiell relevante Informationen, werden aber häufig noch nicht zur Entscheidungsunterstützung genutzt. Im ersten Artikel, ”Privacy-preserving condition-based forecasting using machine learning”, wird aufgezeigt, wie sensitive Zustandsdaten zur Nachfragevorhersage von Ersatzteilbedarfen nutzbar gemacht werden können. Es wird ein Modell entwickelt, das es erlaubt, Vorhersagen auf verschlüsselten Zustandsdaten zu erstellen. Dies ist z.B. in der Luftfahrt relevant, wo Dienstleister für die Wartung und Ersatzteilversorgung von Flugzeugen verschiedener Airlines zuständig sind. Da die Airlines befürchten, dass Wettbewerber an sensitive Echtzeitdaten gelangen können, werden diese Daten dem Wartungsdienstleister nicht im Klartext zur Verfügung gestellt. Die Ergebnisse des implementierten Prototyps zeigen, dass eine schnelle Auswertung maschineller Lernverfahren auch auf großen Datenmengen, die verschlüsselt in einer SAP HANA Datenbank gespeichert sind, möglich ist. Die Artikel zwei und drei behandeln innovative, datengetriebene Ansätze zur Bestandsplanung. Der zweite Artikel ”Machine learning for inventory management: “Analyzing two concepts to get from data to decisions” analysiert zwei Ansätze, die Konzepte des maschinellen Lernens nutzen um aus historischen Daten Bestandsentscheidungen zu lernen. Im dritten Artikel, ”Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, wird ein neues Modell zur integrierten Bestandsoptimierung entwickelt und mit einem Referenzmodell verglichen, bei dem die Schätzung eines Vorhersagemodells und die Optimierung der Bestandsentscheidung separiert sind. Der wesentliche Beitrag zur Forschung ist hierbei die Erkenntnis, dass unter bestimmten Bedingungen der integrierte Ansatz klar bessere Ergebnisse liefert und so Kosten durch Unter- bzw. Überbestände deutlich gesenkt werden können. In den Artikeln vier und fünf werden neue datengetriebene Ansätze zur Kapazitätsplanung vorgestellt und umfassend analysiert. Im vierten Artikel ”Datadriven capacity management with machine learning: A new approach and a case-study for a public service office wird ein datengetriebenes Verfahren zur Kapazitätsplanung eingeführt und auf das Planungsproblem in einem Bürgeramt angewandt. Das Besondere hierbei ist, dass die spezifische Zielfunktion (maximal 20% der Kunden sollen länger als 20 Minuten warten müssen) direkt in ein maschinelles Lernverfahren integriert wird, womit dann ein Entscheidungsmodell aus historischen Daten gelernt werden kann. Hierbei wird gezeigt, dass mit dem integrierten Ansatz die Häufigkeit langer Wartezeiten bei gleichem Ressourceneinsatz deutlich reduziert werden kann. Im fünften Artikel, ”Prescriptive call center staffing”, wird ein Modell zur integrierten Kapazitätsoptimierung für ein Call Center entwickelt. Hier besteht die Innovation darin, dass die spezifische Kostenfunktion eines Call Centers in ein maschinelles Lernverfahren integriert wird. Die Ergebnisse für Daten von zwei Call Centern zeigen, dass mit dem neuentwickelten Verfahren, die Kosten im Vergleich zu dem gängigen Referenzmodell aus der Literatur deutlich gesenkt werden können. KW - Maschinelles Lernen KW - Big Data KW - Bestandsplanung KW - Kapazitätsplanung KW - data-driven KW - Operations Management KW - Inventory Management KW - Capacity Management Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-206514 ER - TY - THES A1 - Suermann, Jan-Christoph T1 - Bilanzierung von Software nach HGB, US-GAAP und IFRS : integrative Analyse der Regelungen zu Ansatz, Bewertung und Umsatzrealisation von Software aus Hersteller- und Anwendersicht T1 - Accounting for Software based on HGB, US-GAAP and IFRS N2 - Die Arbeit stellt die Grundsätze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegenüber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzfähigkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht. N2 - The dissertation compares the HGB-, US-GAAP and IFRS standards regarding the accounting for software. The analysis deals with accounting problems of the producer of software as well as of the user of software. The center of the examination is the question whether to capitalise software costs or not and how to valuate software on the balance sheet. Furthermore the criteria for revenue recognition of software is investigated. KW - Deutschland Handelsgesetzbuch KW - Rechnungslegung KW - Software KW - International Accounting Standards KW - Generally Accepted Accounting Principles KW - Bilanzierung KW - Software KW - IFRS KW - US-GAAP KW - HGB KW - Accounting KW - Software KW - IFRS KW - US-GAAP KW - HGB Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19335 ER - TY - THES A1 - Stralla, Markus Roland T1 - Managerial incentives, earnings management and regulatory intervention in the banking sector T1 - Managementanreize, Ertragsmanagement und regulatorische Eingriffe im Bankensektor N2 - Die vorliegende Dissertation umfasst drei Forschungspapiere, welche sich mit folgenden Bankenthemen beschäftigen: Fehl-/Anreize und Risikoübernahme, Ertragssteuerung und die Regulierung von Aufsichtsräten. „Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“: Wir verwenden Granger-Kausalitätstechniken, um die intertemporalen Beziehungen zwischen Risiko, Effizienz und Kapital zu bewerten. Wir verwenden zwei verschiedene Maße der Effizienz, die Kosten- und Gewinneffizienz, da diese unterschiedliche Managementfähigkeiten widerspiegeln. Eine ist die Fähigkeit, Kosten zu steuern, und die andere ist die Möglichkeit, Gewinne zu maximieren. Wir stellen fest, dass eine niedrigere Kosten- und Gewinneffizienz das Liquiditätsrisiko erhöht. Wir stellen ebenfalls fest, dass ein Anstieg des Kreditrisiko nachteilig für die Kosten und Gewinneffizienz ist. Am wichtigsten ist jedoch, dass unsere Ergebnisse eine positive Beziehung zwischen dem Kapital- und Kreditrisiko aufweisen, was zeigt, dass Moral Hazard Verhalten keine Anwendung (aufgrund von Haftungsbeschränkung und Einlagensicherung) bei unsere Stichprobe von Genossenschaftsbanken findet. Im Gegenteil, wir finden Hinweise darauf, dass Banken mit niedrigem Kapital ihre Kreditqualität in den Folgeperioden verbessern können. Diese Erkenntnisse können für die Regulierungsbehörden von Bedeutung sein, die bei der Einführung neuer regulatorischer Kapitalbeschränkungen die Geschäftsmodelle der Banken berücksichtigen sollten. „Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“: Die Rechungslegungsforschung hat den Bereich Earnings Management (EM) für die nichtfinanzielle und finanzielle Industrie gesondert untersucht. Da EM nicht direkt beobachtet werden kann, ist es für jede Forschungsfrage in jedem Umfeld wichtig, einen überprüfbare Proxy-Größe für EM zu finden. Grundsätzlich fehlt jedoch ein tiefes Verständnis dafür, welche Regressoren den Schätzvorgang verbessern können. Diese Studie versucht, diese Lücke zu schließen, und analysiert vorhandene Modellspezifikationen für diskretionäre Risikovorsorgen im Bankensektor, um gemeinsame und spezifische Muster zu identifizieren. Hierfür verwenden wir einen US-Datensatz, bestehend aus den Jahren 2005-2015 und wenden gängige Testverfahren an, um das Ausmaß von Messfehlern, Verzerrungen aufgrund von Extrembeobachtungen und weggelassenen Variablen sowie die Vorhersagekraft der diskretionären Proxy-Größen zu untersuchen. Unsere Ergebnisse zeigen, dass ein gründliches Verständnis des methodischen Modellierungsprozesses von EM im Bankensektor wichtig ist. Die derzeit etablierten Modelle zur Schätzung des EM sind angemessen, jedoch optimierbar. Insbesondere identifizieren wir die Variablen der notleidenden Vermögenswerte als die wichtigste Gruppe, während Variablen der Risikovorsorge und Nettoausbuchungen einen gewissen Wert erbringen können. Darüber hinaus zeigen unsere Ergebnisse, dass die Nichtlinearität bestimmter Regressoren ein Problem sein kann, das in zukünftigen Untersuchungen angegangen werden sollte, während wir weiterhin einige ausgelassene und möglicherweise korrelierte Variablen identifizieren, die einen Mehrwert generieren könnten. Die Ergebnisse zeigen auch, dass ein dynamischer, endogenität berücksichtigender Ansatz nicht unbedingt mit einer besseren Vorhersagekraft verknüpft ist. „Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“: In dieser Studie wird ein System-GMM-Schätzer verwendet, um die Auswirkungen möglicher regulatorischer Eingriffe auf die Besetzung von Aufsichtsratspositionen bei Genossenschaftsbanken zu untersuchen. Hierfür werden zwei verschiedene Untersuchungsdesigns angewandt. Zunächst untersucht der Autor die Änderungen der Aufsichtsratsstruktur vor und nach der Einführung des Gesetzes zur Stärkung der Finanzmarkt- und Versicherungsaufsicht (FinVAG). Zweitens schätzt der Autor den Einfluss von Doktoren und beruflicher Konzentration auf Änderungen des Bankrisikos unter Berücksichtigung der Umsetzung der FinVAG. Die untersuchte Stichprobe umfasst dabei 246 deutsche Genossenschaftsbanken in den Jahren von 2006 bis 2011. Bezüglich des Bankrisikos verwendet der Autor vier verschiedene Maße: das Kredit-, Kapital-, Liquiditätsrisiko und den Z-Score, wobei die ersten drei ebenfalls im FinVAG adressiert werden. Die Ergebnisse zeigen, dass die Umsetzung des FinVAGs zu strukturellen Änderungen in der Zusammensetzung der Aufsichtsräte führt, insbesondere auf Kosten der Landwirte. Darüber hinaus wirkt sich die Umsetzung risikoreduzierend und damit wie beabsichtigt auf alle Risikokennzahlen und Beziehungen zwischen Risikokennzahlen und Aufsichtsratsmerkmalen aus. Um die komplexe Beziehung zwischen Charakteristika der Aufsichtsräte und Risikomessgrößen aufzudecken, verwendet die Studie einen „two-step system-gmm“ Schätzer, um nicht beobachtete Heterogenität zu berücksichtigen, um Endogenitätsprobleme zu reduzieren. Die Ergebnisse können für Stakeholder, Aufsichtsbehörden, Vorgesetzte und Manager besonders relevant sein. N2 - The present dissertation includes three research papers dealing with the following banking topics: (dis-) incentives and risk taking, earnings management and the regulation of supervisory boards. „Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“: We use Granger-causality techniques to evaluate the intertemporal relationships among risk, efficiency and capital. We use two different measures of bank efficiency, i.e., cost and profit efficiency, since these measures reflect different managerial abilities. One is the ability to manage costs, and the other is the ability to maximize profits. We find that lower cost and profit efficiency Granger-cause increases in liquidity risk. We also identify that credit risk negatively Granger-causes cost and profit efficiency. Most importantly, our results show a positive relationship between capital and credit risk, thus displaying that moral hazard (due to limited liability and deposit insurance) does not apply to our sample of cooperative banks. On the contrary, we find evidence that banks with low capital are able to improve their loan quality in subsequent periods. These findings may be important to regulators, who should consider banks’ business models when introducing new regulatory capital constraints. „Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“: Accounting research has separately studied the field of Earnings Management (EM) for non-financial and financial industries. Since EM cannot be observed directly, it is important for every research question in any setting to find a verifiable proxy for EM. However, we still lack a thorough understanding of what regressors can add value to the estimation process of EM in banks. This study tries to close this gap and analyses existing model specifications of discretionary loan loss provisions (LLP) in the banking sector to identify common pattern groups and specific patterns used. Thereupon, we use an US-dataset from 2005-2015 and apply prevalent test procedures to examine the extent of measurement errors, extreme performance and omitted-variable biases and predictive power of the discretionary proxies of each of the models. Our results indicate that a thorough understanding about the methodological modelling process of EM in the banking industry is important. The currently established models to estimate EM are appropriate yet optimizable. In particular, we identify non-performing asset patterns as the most important group, while loan loss allowances and net charge offs can add some value, though do not seem to be indispensable. In addition, our results show that non-linearity of certain regressors can be an issue, which should be addressed in future research, while we identify some omitted and possibly correlated variables that might add value to specifications in identifying non-discretionary LLP. Results also indicate that a dynamic model and endogeneity robust estimation approach is not necessarily linked to better prediction power. „Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“: This study employs a system GMM framework to examine the impact of potential regulatory intervention regarding the occupations of supervisory board members in cooperative banks. To achieve insights the study proceeds in two different ways. First, the author investigates the changes in board structure prior and following to the German Act to Strengthen Financial Market and Insurance Supervision (FinVAG). Second, the author estimates the influence of Ph.D. degree holders and occupational concentration on bank-risk changes in consideration of the implementation of FinVAG. Therefore, the sample consists of 246 German cooperative banks from 2006-2011. Regarding bank-risk the author applies four different measures: credit-, equity-, liquidity-risk and the Z-Score, with the former three also being addressed in FinVAG. Results indicate that the implementation of FinVAG results in structural changes in board composition, especially at the expense of farmers. In addition, the implementation affects all risk-measures and relations between risk-measures and supervisory board characteristics in a risk-reducing and therefore intended way. To disentangle the complex relationship between board characteristics and risk measures the study utilizes a two-step system GMM estimator to account for unobserved heterogeneity, and simultaneity in order to reduce endogeneity problems. The findings may be especially relevant for stakeholders, regulators, supervisors and managers. KW - Kreditgenossenschaft KW - Moral Hazard KW - Aufsichtsrat KW - Efficiency KW - Risk KW - Banking KW - Governance KW - Earnings management KW - Regulierung KW - Bank KW - Erfolgsplanung KW - Strategisches Management KW - Controlling KW - Bilanzpolitik KW - Anreize Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-172682 ER - TY - THES A1 - Stockinger, Bastian T1 - Causes and effects of worker mobility between firms: empirical studies for Germany T1 - Ursachen und Wirkungen von Beschäftigtenmobilität zwischen Betrieben: empirische Studien für Deutschland N2 - This dissertation investigates selected causes and effects of worker mobility between firms in three empirical studies for Germany. Chapter 2 investigates the productivity effects of worker inflows to manufacturing establishments, distinguishing inflows by their previous employers’ wage level, as a proxy for productivity. The chapter is motivated by several empirical studies which find that worker inflows from more productive or higher-paying firms increase hiring firms’ productivity. The analyses in chapter 2 are based on a unique linked employer-employee data set. The findings indicate that inflows from higher-paying establishments do not increase hiring establishments’ productivity, but inflows from lower-paying establishments do. Further analyses suggest that this effect is due to a positive selectivity of such inflows from their sending establishments. These findings can be interpreted as evidence of a reallocation process by which the best employees of lower-paying establishments become hired by higher-paying establishments. This process reflects the assortative pattern of worker mobility in Germany documented by Card et al. (2013) for the past decades. The chapter thus contributes to the literature by linking establishment-level productivity analysis to the assortative pattern of inter-firm worker mobility, thereby providing a micro-foundation for the latter. Chapter 3 focuses on a positive selection of workers moving between firms from another, more specific perspective. The analysis focuses on the importance of regional labor market competition for establishments’ apprentice training and poaching of apprenticeship completers. Previous studies have found that firms provide less training if they are located in regions with strong labor market competition. This finding is usually interpreted as evidence of a higher risk of poaching in these regions. Yet, there is no direct evidence that regional competition is positively correlated with poaching. Building on a recently established approach to ex-post identify poaching of apprenticeship completers, this chapter is the first to directly investigate the correlation between regional labor market competition and poaching. Using German administrative data, it is found that competition indeed increases training establishments’ probability of becoming poaching victims. However, poaching victims do not change their apprenticeship training activity in reaction to poaching. Instead, the findings indicate that the lower training activity in competitive regions can be attributed to lower retention rates, as well as a less adverse selection and lower labor and hiring costs of apprenticeship completers hired from rivals. Chapter 4 investigates the effects of local broadband internet availability on establishment-level employment growth. The analysis uses data for Germany in the years 2005-2009, when broadband was introduced in rural regions of Western Germany and in large parts of Eastern Germany. Technical frictions in broadband rollout are exploited to obtain exogenous variation in local broadband availability. The results suggest that broadband expansion had a positive effect on employment growth in the Western German service sector and a negative effect in Western German manufacturing, suggesting that broadband expansion has accelerated the reallocation of workers from manufacturing to services. Furthermore, this pattern of results is driven by pronounced positive effects in knowledge- and computer-intensive industries, suggesting that it is the actual use of broadband in the production process that leads to complementary hiring, respectively a slowdown of employment growth, in the respective sectors. For Eastern Germany, no significant employment growth effects are found. N2 - Diese Dissertation untersucht ausgewählte Aspekte der Mobilität von Beschäftigten zwischen Betrieben. Einleitend (Kapitel 1) wird diese Form der Arbeitsmobilität auf Basis einer knappen Literaturübersicht näher charakterisiert. So wird die Bedeutung von Beschäftigtenmobilität zwischen bestehenden Betrieben als Reallokationsmechanismus am Arbeitsmarkt hervorgehoben, verglichen etwa mit der Reallokation, die durch Gründung und Schließung von Betrieben zustande kommt. Zudem wird aufgezeigt, welche Bedeutung institutionelle Rahmenbedingungen, insbesondere die Regulierung des Arbeitsmarkts, für die Mobilität von Beschäftigten zwischen Betrieben haben. Im Falle Deutschlands, das eine eher strikte Regulierung aufweist, führt der landesspezifische institutionelle Kontext demnach zu einem relativ geringen Maß an Beschäftigtenmobilität sowie teilweise (im Falle freiwilliger Betriebswechsel) zu einer Positivselektion von Betriebswechslern. Schließlich wird hervorgehoben, dass Arbeitsmärkte in hohem Maße lokal sind, wobei sich die Lokalität nicht zwingend und nicht allein auf die geographische Dimension beschränkt. Die Beschäftigtenmobilität zwischen Betrieben ist daher ein stark lokales Phänomen und potentiell konstitutiv für lokale Arbeitsmärkte. Der Hauptteil der Dissertation (Kapitel 2-4) besteht aus drei weitgehend unabhängig voneinander entstanden empirischen Studien. Alle drei Studien nutzen administrative Beschäftigungsdaten für Deutschland sowie mikroökonometrische Methoden. Im zweiten Kapitel, welches in Co-Autorenschaft mit Katja Wolf entstand, werden die betrieblichen Produktivitätswirkungen von Beschäftigtenzugängen je nach Produktivitätsniveau des Herkunftsbetriebs untersucht. Frühere empirische Studien zeigen, dass Zugänge von Beschäftigten aus produktiveren Betrieben die Produktivität der einstellenden Betriebe steigern. Wir untersuchen diesen Zusammenhang für Deutschland anhand eines eigens generierten Linked Employer-Employee Datensatzes. Dabei ordnen wir Herkunfts- und Zielbetriebe von Betriebswechslern anhand ihres Medianlohns. Unsere Ergebnisse zeigen, dass Beschäftigtenzugänge aus höher entlohnenden Betrieben keine Wirkung auf die Produktivität der Zielbetriebe haben. Zugänge aus geringer entlohnenden Betrieben hingegen haben unseren Ergebnissen zufolge einen positiven Produktivitätseffekt. Weitere Analysen ergeben, dass dieser Effekt in einer Positivauswahl dieser Beschäftigten aus ihren Herkunftsbetrieben begründet liegt. Ein Teil der produktivsten Beschäftigten von Betrieben mit niedrigerem Lohnniveau wechselt also zu Betrieben mit höherem Lohnniveau. Dieser Prozess spiegelt ein bereits bekanntes Muster der Beschäftigtenmobilität in Deutschland wider, wonach sich hochbezahlte Beschäftigte zunehmend in hoch entlohnende Betriebe sortieren. Unsere Ergebnisse können daher als Mikro-Fundierung für dieses gesamtwirtschaftliche Muster dienen. Im dritten Kapitel, basierend auf einer Studie in Kooperation mit Thomas Zwick, wird der Zusammenhang regionalen Arbeitsmarktwettbewerbs mit dem Ausbildungsverhalten und dem Abwerben von Ausbildungsabsolventen von Betrieben untersucht. Frühere Studien haben gezeigt, dass Betriebe in Regionen mit starkem Arbeitsmarktwettbewerb weniger ausbilden. Dies wird üblicherweise als Beleg dafür interpretiert, dass in diesen Regionen ein erhöhtes Risiko bestehe, Ausbildungsabsolventen abgeworben zu bekommen. Allerdings gibt es keine direkten empirischen Belege für diesen Zusammenhang. Auf Basis eines neuartigen Ansatzes, das Abwerben von Ausbildungsabsolventen ex post zu identifizieren, unter-sucht diese Studie erstmals direkt den Zusammenhang zwischen regionalem Arbeitsmarktwettbewerb und Abwerbungen. Hierfür nutzen wir administrative Daten für Deutschland. Unsere Ergebnisse zeigen, dass regionaler Wettbewerb tat-sächlich mit einer höheren Wahrscheinlichkeit zusammenhängt, dass Ausbildungs-betriebe Opfer von Abwerbungen werden. Allerdings ändern die betroffenen Betriebe nicht ihr Ausbildungsverhalten als Reaktion auf Abwerbungen. Stattdessen zeigen unsere Ergebnisse, dass die niedrigere Ausbildungsaktivität in Regionen mit starkem Arbeitsmarktwettbewerb eher mit einer generell geringeren Übernahmewahrscheinlichkeit von Ausbildungsabsolventen zusammenhängt. Zudem sind in solchen Regionen die Betriebswechsler unter den Ausbildungsabsolventen relativ positiv selektiert; gleichzeitig verursachen sie relativ geringe Kosten für die einstellenden Betriebe. Das vierte Kapitel untersucht die Wirkungen der lokalen Verfügbarkeit von Breit-band-Internet auf das Beschäftigungswachstum in Betrieben. Es werden Daten aus Deutschland für den Zeitraum 2005-2009 genutzt, als Breitband-Internet in den ländlichen Regionen Westdeutschlands und weiten Teilen Ostdeutschlands eingeführt wurde. Es werden verschiedene technische Hürden des Breitbandausbaus genutzt, um exogene Varianz in der lokalen Verfügbarkeit von Breitband-Internet zu erhalten und so den Effekt von Breitband-Internet auf betriebliches Beschäftigungswachstum von den Effekten unbeobachteter Einflussgrößen und einer möglichen inversen Kausalbeziehung zu isolieren. Die Ergebnisse legen nahe, dass der Breitband-Ausbau einen positiven Effekt auf das Beschäftigungswachstum in westdeutschen Dienstleistungsbetrieben hatte, im westdeutschen Industriesektor hingegen einen negativen Effekt. Dieses Ergebnismuster geht einher mit deutlichen positiven Effekten in wissens- und computerintensiven Branchen. Dies legt nahe, dass die genannten Effekte auf die tatsächliche Nutzung von Breit-band-Internet im Produktionsprozess zurückgehen und dass Betriebe in den jeweiligen Sektoren komplementär zu Breitband Beschäftigung aufbauen, beziehungs-weise den Beschäftigungsaufbau verlangsamen. Für Ostdeutschland werden keine signifikanten Effekte auf betriebliches Beschäftigungswachstum gefunden. Abschließend (Kapitel 5) werden die empirischen Ergebnisse der Kapitel 2-4 vor dem Hintergrund der Erkenntnisse aus Kapitel 1 reflektiert. Dabei bleibt zunächst festzuhalten, dass alle drei empirischen Kapitel Beschäftigtenmobilität auf Betriebsebene analysieren und damit die quantitativ bedeutsamste Form der Reallokation auf dem Arbeitsmarkt, die zudem weitreichende ökonomische Funktionen hat (beispielsweise Wissenstransfer). Zweitens bestätigen die drei empirischen Kapitel den Befund, dass Beschäftigtenmobilität in Deutschland unter anderem einer Positivselektion von Beschäftigten zuzurechnen ist, die insbesondere in den Kapiteln 2 und 3 aus verschiedenen Perspektiven näher untersucht wird. Drittens und letztens tragen alle drei empirischen Studien der eingangs betonten Lokalität von Arbeitsmärkten auf verschiedene Weise Rechnung. KW - Arbeitsmarkt KW - Beschäftigung KW - Betrieb KW - Beschäftigtenmobilität KW - worker mobility Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153894 ER - TY - THES A1 - Stein, Nikolai Werner T1 - Advanced Analytics in Operations Management and Information Systems: Methods and Applications T1 - Advanced Analytics im Operations Management und Information Systems: Methoden und Anwendungen N2 - Die digitale Transformation der Gesellschaft birgt enorme Potenziale für Unternehmen aus allen Sektoren. Diese verfügen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivität über rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivität heben zu können müssen Unternehmen die verfügbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics“ und nur ein kleiner Teil der Unternehmen macht bereits heute von den Möglichkeiten der „predictive analytics“ und „prescriptive analytics“ Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzmöglichkeiten von „prescriptive analytics“ zu identifizieren. Da prädiktive Modelle eine wesentliche Voraussetzung für „prescriptive analytics“ sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics.“ Ausgehend von Verfahren des maschinellen Lernens wird zunächst die Entwicklung eines prädiktiven Modells am Beispiel der Kapazitäts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox für Data Science Anwendungen entwickelt. Diese stellt Entscheidungsträgern Richtlinien und bewährte Verfahren für die Modellierung, das Feature Engineering und die Modellinterpretation zur Verfügung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht. Verbesserten Prognosen, die von leistungsfähigen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungsträgern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verfügung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics“. Hierzu wird zunächst analysiert, wie die Vorhersagen prädiktiver Modelle in präskriptive Politiken zur Lösung eines „Optimal Searcher Path Problem“ übersetzt werden können. Trotz beeindruckender Fortschritte in der Forschung im Bereich künstlicher Intelligenz sind die Vorhersagen prädiktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schlägt einen präskriptiven Ansatz vor, der diese Unsicherheit berücksichtigt. Insbesondere wird ein datengetriebenes Verfahren für die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bezüglich der Erfolgswahrscheinlichkeiten und die Modellqualität des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem.“ N2 - The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts. As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company. Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules. KW - Operations Management KW - Managementinformationssystem KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Big Data KW - Advanced Analytics KW - Prescriptive Analytics KW - Predictive Analytics KW - Entscheidungsunterstützungssystem KW - Wirtschaftsinformatik KW - Tourenplanung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-192668 ER - TY - THES A1 - Spranger, Hans Christoph T1 - Die Bewertung von Patenten T1 - Valuation of Patents N2 - Die Arbeit verfolgt zwei Ziele. Einerseits sollen bereits bestehende Bewertungskonzepte für betriebliche Patente im Hinblick auf ihre Eignung für unternehmensinterne und -externe Willensbildungs- und Willensdurchsetzungsprozesse beurteilt werden. Andererseits sollten diese Ansätze verfeinert und erweitert werden mitunter zur Operationalisierung für praktische Anwendungen. Für die Analyse der bestehenden Patentbewertungsmethoden wird zwischen den Ansätzen auf Basis gesetzlich geregelter Bewertungsanlässe und den in der internen Unternehmensrechnungslegung verwendeten Ansätzen differenziert. Um die Grenzen der traditionellen einkommensorientierten Bewertungsmodelle überwinden zu können, werden in der vorliegenden Untersuchung mit dem Realoptionsansatz und der SGPP-Methode zwei alternative Ansatzpunkte bzw. verfeinerte Methoden für die monetäre Patentbewertung zur Diskussion gestellt. N2 - The dissertation analyses patent valuation methods with a special focus on the income approach. Two alternative valuation methods are presented with a real options approach and the SGPP-Method. KW - Unternehmen KW - Patent KW - Bewertung KW - Patente KW - Bewertung KW - Patent KW - Valuation Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19029 ER - TY - THES A1 - Siller, Benjamin T1 - Influence of Lead Time and Emission Policies on the Design of Supply Chains – Insights from Supply Chain Design Models T1 - Einfluss von Lieferzeiten und Emissionspolitiken auf das Design von Supply Chains – Erkenntnisse aus Supply Chain Design Modellen N2 - Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies. N2 - Von Unternehmen wird erwartet, dass sie international agieren und ihre Fähigkeiten nutzen, um schnell und effizient maßgeschneiderte Produkte und Dienstleistungen anzubieten. Verbraucher erwarten, dass ihre Anforderungen in kurzer Zeit und zu einem günstigen Preis erfüllt werden. Die Zeit von der Bestellung bis zur Lieferung hat für Verbraucher immer mehr an Bedeutung gewonnen. Darüber hinaus können Regierungen mit verschiedenen Emissionsrichtlinien Unternehmen und Kunden dazu zwingen, ihre Treibhausgasemissionen zu reduzieren. Diese Arbeit untersucht den Einfluss von Lieferzeiten und verschiedener Emissionsrichtlinien auf das Design einer Supply Chain. In dieser Arbeit werden verschiedene Supply-Chain-Design-Modelle entwickelt, um diese unterschiedlichen Einflüsse zu untersuchen. Das erste Modell berücksichtigt Vorlaufzeiten und Gesamtkosten, und verschiedene Emissionsrichtlinien werden implementiert, um den Kompromiss zwischen den verschiedenen Einflussgrößen zu veranschaulichen. Das zweite Modell spiegelt den Einfluss von Lieferzeit sensitiven Verbrauchern wider und es werden verschiedene Emissionsrichtlinien implementiert, um ihre Auswirkungen zu untersuchen. Die Analyse zeigt, dass der Anteil der Lieferzeit sensiblen Verbraucher einen erheblichen Einfluss auf die Gestaltung einer Lieferkette hat. Nachfrageunsicherheit und Unsicherheit bei der Gestaltung verschiedener Emissionspolitiken werden untersucht, indem ein geeignetes robustes mathematisches Optimierungsmodell entwickelt wird. Die Ergebnisse zeigen, dass insbesondere Unsicherheiten bei der Gestaltung einer Emissionsrichtlinie die Gesamtkosten einer Lieferkette erheblich beeinflussen können. Im vierten Modell werden die Auswirkungen unterschiedlich gestalteter Emissionspolitiken in verschiedenen Ländern untersucht. Die Analysen zeigen, dass sowohl Lieferzeiten als auch Emissionsrichtlinien die Offshoring- und Nearshoring-Strategien von Unternehmen stark beeinflussen können. KW - Supply Chain Management KW - Lineare Optimierung KW - Lieferzeit KW - Umweltpolitik / Kompensation KW - Supply Chain Design KW - Lead Time KW - Emission Policy KW - Mathematical Optimization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-296713 ER - TY - THES A1 - Siedler, Udo T1 - Beratungs- und Dienstleistungsgeschäft mittels eines elektronischen Marktes - Konzeption und Realisierung eines virtuellen Adaptionsmarktplatzes für Beratungsunternehmen im SAP R/3-Markt T1 - Consultation and service business by means of an electronic market N2 - In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet. N2 - In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet. KW - Beratungsbetrieb KW - Electronic commerce KW - Beratungsgeschäft KW - Adaptionsmarktplatz KW - Standardanwendungssoftware KW - Softwarebibliothek KW - consultation business KW - adaptation market place Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-6468 ER - TY - THES A1 - Seibold, Christine T1 - Die Versorgung des Stifters und der Stifterfamilie bei Vermögensübertragung auf eine gemeinnützige Stiftung, Familienstiftung oder Doppelstiftung und deren ertrag- und substanzsteuerlichen Auswirkungen T1 - The provisions for the benefactor and the benefactor’s family when transferring the assets to a non-profit making foundation, family foundation or double foundation and its implications concerning tax on income and the substance of property N2 - Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden. N2 - The motives for establishing a foundation are as numerous as their forms and the determination of aims. In connection with the transfer of assets to a foundation the question is raised to what extent provisions for the benefactor and his family can be made possible through the foundation and which consequences this may have concerning tax on income and the substance of property. After a general presentation of the bases under civil and tax law which apply to the foundation various methods for provisions are presented based on a non-profit making foundation, family foundation and double foundation and assessed in terms of tax on the level of the benefactor and the foundation. The object of the analysis of the methods for provisions besides the transfer of assets against provision payments are the reserved usufruct to basic and capital assets, as well as classical beneficiary payments and employment relationships with the foundation. The first two methods for provisions are relevant for the taxation of the transfer of the assets already, whereas beneficiary payments and employment relationships are only of interest within the framework of the regular taxation. Further the provision according to § 58 No. 5 AO [German Fiscal Code] is analysed for the non-profit making foundation. The field of tension which arises in connection with the transfer of assets against provision payments and the reserved usufruct is demonstrated with regard to the regulations in non-profit making law. Further the provision models offered by private financial service providers are discussed in connection with the non-profit making foundation. The principles of the anticipated order of succession also apply to the transfer of assets to a foundation against provision payments. In connection with the non-profit making foundation the transfer of assets against provision payments is problematic with regard to the regulations in non-profit making law, the reservation of a usufruct on the other hand now. In view of the assessment under gift tax the reserved usufruct is not useful in connection with a foundation which is not exempted from tax, as opposed to the provision payments. Beneficiary payments can be granted at all times when satisfying the regulations according to the statutes. Employment relationships can also be entered into whereby the corresponding regulations of the Fiscal Code are to be complied with in connection with a non-profit making foundation. The presented and assessed methods for provision can be used to an optimum extent under tax law in connection with the double foundation by observing the limits under tax law. KW - Stiftung KW - Steuer KW - Deutschland KW - Versorgung KW - foundation KW - taxation KW - benefactor Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-28012 ER - TY - THES A1 - Schönemann, Kristin T1 - Der Einfluss von Steuern auf Investitions- und Desinvestitionsentscheidungen bei Immobilienvermögen : Eine ökonomische Analyse T1 - The influence of taxes on investment and divestment strategies regarding real estate - an economic analysis N2 - In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland für vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gewährt. Die Investitionsmöglichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien führen stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Begünstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabhängige Förderung kann dazu führen, dass ein durchschnittlich verdienender Eigenheimkäufer Förderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienförderung innerhalb der Altersvorsorge („Wohn-Riester“) ermöglicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche Förderung integriert worden und begünstigt so die Rückführung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Vermögensübertragung auf eine steuerbegünstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die Länge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelmäßig nur in Verbindung mit zusätzlichen Begünstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit für die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien können durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Ausübung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant für niedrige Kapitalkosten ist. Die ver-mögensverwaltende Immobilien-AG stellt aufgrund der flexiblen Ausschüttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar. N2 - This dissertation analyzes the selected characteristics of direct and indirect real estate investments in Germany. The complex and diverse tax consequences of real estate investments are discussed for four separate topics. Therefore, the dissertations deals in chapter 2 and 3 with direct real estate investments and in chapter 4 and 5 with indirect real estate investments to show the consequences in private and business property of German investors. Chapter 6 summarizes the main results of the previous sections. The following topics are analyzed in detail: • The German tax law results in clientele effects for average income and high income tax payers in conjunction with owner occupied or leased real estate. For high income tax payers the progressive tax scale favors the lease rather than the personal use of the real estate. Only a tax subsidy independent of the tax rate will result in a similar support and yield for average income and high income tax payers. • The German private pension scheme (Riester-Rente) also includes a subsidy to create personal used real estate. This pension scheme enables the German investor to use its Riester-capital as real equity and dominates the use of the classical equity and debt financing. In addition the redemption of debt is part of the pension scheme and favors the redemption of tax-discriminated debt in the case of the personal used real estate. • The election of the fair or book value of real estate is not trivial with respect to the change of corporate form for asset managing purposes. The advantage of the respective value will depend on the depreciation rate, period of investment and tax differences resulting from the chosen legal framework. Finally a fair value approach is only favorable in connection with additional tax benefits. A change of the legal framework to a real estate investment trust (REIT) is not always advantageous. • Tax privileges can be contradicted by regulatory restrictions regarding financing. In particular a REIT suffers from the financing restrictions as these will result in a non-optimal financing strategy and higher capital costs for tax purposes. In contrast to the highly regulated REIT a German asset-managing corporation can be a advantageous alternative as this corporation is flexible regarding distribution and self-financing. KW - Deutschland KW - Immobilienanlage KW - Steuerrecht KW - Eigenheimrentenmodell KW - Eigenheimzulage KW - Kapitalkosten KW - Umwandlungsvorgänge KW - real estate KW - taxes KW - subsidies KW - corporations KW - partnerships Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-74609 ER - TY - THES A1 - Schätzlein, Uwe T1 - Untersuchungen ausgewählter Reformen und Reformbedarfe in der deutschen Alterssicherung T1 - Studies of Selected Reforms and Reform Needs in the German System of Old-Age Provision N2 - In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht: In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt. In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind. In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils. N2 - The dissertation includes analyses of three selected reforms or reform needs in the German three-pillar system of old-age provision: In the pillar of statutory old-age provision, options for reinstating the catch-up factor in statutory pension insurance, which was suspended in 2018, are elaborated. Depending on whether increases in the current pension value caused by the level protection clause are to be offset in future years or not, two different procedures – the separated procedure and the integrated procedure – are presented, with which the catch-up factor can be consistently reactivated with both the protection clause and the level protection clause active. In the pillar of occupational pension provision, options for reforming the fiscal law’s 6% discount rate for pension provisions are analysed. The effects for employers are considered if the discount rate were to be given a new value on a discretionary basis, if it were to follow a reference rate on a rule-bound basis, if the valuation under German GAAP were to be followed under fiscal law, and if an innovative carving procedure were to be introduced. Subsequently, it is discussed to what extent there is a need for legislative adjustment. The impression emerges that a return on assets is typified by the fiscal law’s discount rate. The hypothesis cannot be rejected that 6% is indeed realistic for German companies. In the pillar of private old-age provision, it is deduced when, in the case of a Riester-subsidised acquisition of a property, the optimal time comes to exercise the option to terminate the deferred taxation. When exercising the option, all outstanding amounts will be taxed at once, but only at 70%. When this 30% discount becomes advantageous is demonstrated by varying the subsidy account balance, the pension income, the market interest rate, the pension start date, the survival probabilities as well as the taxation share for pensioners. KW - Rentenversicherung KW - Betriebliche Altersversorgung KW - Private Altersversorgung KW - Rechtsreform KW - Alterssicherung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-278042 ER - TY - THES A1 - Schilling, Silvia T1 - Auskauf von Minderheitsaktionären nach schweizerischem Kapitalmarktrecht - eine empirische Analyse öffentlicher Übernahmeangebote T1 - Squeeze-outs according to Swiss Law – an empirical study on public tender offers N2 - Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt. N2 - Squeeze-outs according to Swiss Law – an empirical study on public tender offers KW - Schweiz KW - Aktiengesellschaft KW - Minderheitsaktionär KW - Übernahmeangebot KW - Minderheitenschutz KW - Kraftloserklärung KW - Squeeze-out KW - Ausschluss KW - Takeover KW - Übernahme KW - Unternehmenskauf Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-120726 ER - TY - THES A1 - Schickhardt, Irene T1 - A Process Model for Selecting the Most Appropriate Production Site : an Application-oriented Approach for OEMs based on a Literature Analysis T1 - Ein Prozessmodell für die Wahl des geeignetsten Produktionsstandorts N2 - The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM’s related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM’s complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty. N2 - Die globale Standortwahl ist eine sehr komplexe Aufgabe von immenser strategischer Bedeutung für Automobilhersteller (OEMs). Die strategische Bedeutung rührt nicht nur daher, dass die Standortwahl wichtig für die Wettbewerbsfähigkeit von OEMs ist, sondern auch von der großen langfristigen Investition, die ein Produktionsstandort erfordert. In der vorliegenden Arbeit wird ein Prozessmodell entwickelt, mit dessen Hilfe OEMs in der Praxis einen für ihre Produktionsaktivität geeigneten Standort finden können. Das Prozessmodell wird auf Basis einer Literaturanalyse entwickelt: erstens werden vorbereitende Maßnahmen bestimmt, zweitens werden die Eigenschaften des Prozessmodells definiert und alle notwendigen Anleitungen für die Auswahl und Auswertung von Standortfaktoren dargestellt und drittens wird der Ablauf des Prozessmodells entworfen. Das Prozessmodell beinhaltet darüber hinaus eine Diskussion der Standortfaktoren, die für die Produktionsstandortsuche eines OEM relevant sein können. Diese Diskussion setzt sich aus der Beschreibung jedes Standortfaktors, einer makroökonomischen Analyse – soweit relevant –, einer Erklärung der Bedeutung des Standortfaktors für den Bau und Betrieb der Produktionsstätte sowie zusätzlichen Informationen für die Auswahl und Auswertung der Standortfaktoren zusammen. Damit der Auswahlprozess erfolgreich angewandt werden kann, wurde er unter der Annahme entwickelt, dass ein Produktionsstandort nicht isoliert gewählt werden kann, sondern als Teil des globalen Produktionsnetzwerkes und Supply Chain des OEM sowie unter Berücksichtigung der strategischen Ziele des OEM. Darüber hinaus wurde angenommen, dass ein rein quantitatives Modell die komplexe Produktionsstandortwahl eines OEM nicht lösen kann und die realistische Analyse der Bedingungen an potenziellen Standorten eine dynamische Analyse für den Planungshorizont des Produktionsstandortes erfordert und die zukünftige Entwicklung dieser Bedingungen nur mit Ungewissheit bewertet werden kann. KW - Produktionsstandort KW - Standortfaktor KW - Produktionsstandort KW - Standortfaktor KW - Location Factors KW - Production Site Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276652 ER - TY - THES A1 - Schaupp, Daniel Norbert T1 - Earnings Management in the Context of Earnings Quality, Corporate Governance and Corporate Social Responsibility T1 - Bilanzpolitik im Kontext von Rechnungslegungsqualität, Corporate Governance und Corporate Social Responsibility N2 - Steigende Geschwindigkeit und Komplexität von Geschäftsprozessen und –beziehungen verändern fundamental die Ansprüche an umfassende und werthaltige finanzielle und nicht-finanzielle Informationen über Unternehmen. Relevante Informationen in einem Geschäftsbericht müssen daher zunehmend Vorhersagecharakter besitzen, um ihre Daseinsberechtigung nicht zu verlieren. Die adäquate Lösung existenter Prinzipal-Agenten- Konflikte bedarf zugleich einer detaillierten und objektiven Einschätzung der Leistung des Agenten, was zusätzlich zur Wertrelevanz ein Mindestmaß an Verlässlichkeit der berichteten Informationen bedingt. In diesem Spannungsfeld kommt den Standardsettern die Aufgabe zu, Rahmenbedingungen zu schaffen, die es dem Management ermöglichen, Spielräume bei der Erstellung der Berichte zu nutzen, um diesen Qualitätsansprüchen an Informationen über die aktuelle und zukünftige Lage des Unternehmens gerecht zu werden. Diese bewusst gesetzten Möglichkeiten der Einflussnahme durch das Management begreifen jedoch auch signifikante Risiken der opportunistisch motivierten Beeinflussung der Adressaten, welche unter der Überschrift Bilanzpolitik subsumiert werden können. Die in der empirischen Forschung gängige Klassifizierung unterscheidet zwischen der buchmäßigen und realen Bilanzpolitik, wobei letztere im Vergleich eine gezielte Beeinflussung von Geschäftsvorfällen und nicht deren ex-post Abbildung begreift. Kapitel 2 der vorliegenden Dissertation propagiert eine umfassende Auseinandersetzung mit der empirischen Messung von Bilanzpolitik. Das Fehlen einer zufriedenstellenden Ermittlung des aggregierten Ausmaßes von Bilanzpolitik erfordert hierbei die Anwendung verschiedener Regressionsmodelle. Im speziellen Kontext der empirischen Analyse von Bilanzpolitik im Bankensektor besteht diesbezüglich eine ausgeprägte Heterogenität der verwendeten Modelle. Zugleich existiert nach wie vor keine systematische Analyse der Ansätze und Modellierungsarten von Loan Loss Provisions, welche als elementares Vehikel der diskretionären Einflussnahme im Fokus der einschlägigen Studien steht. Daher untersucht der Verfasser in Kapitel 2.1 prävalente Modellierungsansätze, erstellt einen Baukasten verschiedener Regressionsparameter und testet eine Vielzahl an Varianten im Hinblick auf die Validität der ermittelten bilanzpolitischen Größen. Eine derartige Analyse ist von elementarer Wichtigkeit für die Validität der Ergebnisse und der gezogenen Schlüsse aus empirischen Studien im Bankensektor und liefert daher einen wichtigen Beitrag zur Entwicklung und Einordnung vergangener und zukünftiger Analysen. Die Ergebnisse der zur Anwendung gebrachten Analysen und Tests zeigen, dass eine Vielzahl der existierenden Modelle eine ausreichende Passgenauigkeit aufweist. Jedoch sind gewisse Regressoren weniger wichtig als zunächst angenommen. So können die Regressoren der Non-Performing Loans die Modellierung stark verbessern, während Loan Loss Reserves und Net Charge-Offs nur einen kleinen Beitrag leisten können. Im weiteren Verlauf lässt sich zudem eine ausgeprägte Nichtlinearität einzelner Regressoren aufzeigen, sowie dass ein Wechsel auf ein Modell mit Berücksichtigung von Endogenität nicht zwangsläufig zu einer verbesserten Modellierung führt. Insgesamt kann die Studie als geeigneter Startpunkt für zukünftige Studien zu Bilanzpolitik im Bankensektor fungieren. Im anschließenden Kapitel 2.2 werden aus Gründen der Konsistenz Modellierung und Ergebnisse der Schätzung von Bilanzpolitik in nicht-finanziellen Industrien für die Studien in Kapitel 3 und 4 vorgestellt. Im Rahmen einer umfassenden Betrachtung der Qualität von Finanzinformationen sollte die bereits angesprochene Verlässlichkeit der Rechnungslegung sichergestellt werden können. Hierbei spielt neben den Rahmenbedingungen der Rechnungslegung die Qualität der Attribute und Prozesse der Abschlussprüfung eine gewichtige Rolle. Im Zuge dessen wird die Unabhängigkeit des externen Abschlussprüfers von seinem Mandanten als eines der Kernattribute proklamiert, da diese Neutralität verleiht und simultan die Qualität der vollzogenen Abschlussprüfungshandlungen erhöht. Ein unabhängiger Wirtschaftsprüfer ist demzufolge besser in der Lage, das Ausmaß an Bilanzpolitik zu verringern, was wiederum eine Erhöhung der Qualität der Finanzinformationen nach sich zieht. Kapitel 3 widmet sich daher der Analyse der Unabhängigkeit von kleinen und mittelgroßen Abschlussprüfern im deutschen Markt für Mandanten von öffentlichem Interesse zwischen 2007 und 2014. Das Setting der Studie zeichnet sich dadurch aus, dass kleine und mittelgroße Wirtschaftsprüfer traditionell im Verdacht stehen, aufgrund einer eingeschränkten Unabhängigkeit von kapitalmarktorientierten Mandanten diesen ein höheres Maß an Spielräumen zuzugestehen, c.p., es wird eine geringere Qualität der Prüfung und damit größerer Spielraum für Bilanzpolitik vermutet. Das europäische und insbesondere deutsche Umfeld qualifiziert sich durch divergente gesetzlich vorgeschriebene Schwellenwerte der Abhängigkeit des Wirtschaftsprüfers für eine differenzierte Analyse der Nichtlinearität der Zusammenhänge. Des Weiteren bilden die in Deutschland prävalenten Transparenzberichte eine profunde Datenbasis für die Ermittlung von Abhängigkeitsmaßen, die im speziellen Marktsegment eine überlegene Messung der Abhängigkeit der betrachteten Prüfer ermöglichen. Die vorliegende Arbeit in diesem Kapitel wählt auf Basis der prävalenten gesetzlichen Regelungen ein nicht-lineares Forschungsdesign und legt nahe, dass kleine und mittelgroße Wirtschaftsprüfers im speziellen Marktsegment der kapitalmarktorientierten Mandanten mit steigender Abhängigkeit eine erhöhte Prüfungsqualität liefern, bis sich die Effekte an einer hohen Schwelle der Abhängigkeit umkehren. Dieser Wendepunkt spiegelt zugleich formulierte gesetzliche Schwellenwerte wider. Kleinen und mittelgroße Abschlussprüfer scheinen trotz steigender Abhängigkeit eine höhere Prüfungsanstrengung zu wählen, welche buchmäßige Bilanzpolitik einschränkt und damit die Qualität der Finanzinformationen erhöht. Im Fokus steht hierbei vermutlich das Bestreben des Festigens und Ausbauens einer Reputation im Marktsegment der kapitalmarktorientierten Mandanten. Ab Überschreiten eines kritischen Schwellenwertes scheint hingegen die gestiegene Abhängigkeit die Reputationseffekte zu dominieren. Die Ergebnisse der Studie legen zudem den Schluss nahe, dass Mandanten bei einer Einschränkung der buchmäßigen Bilanzpolitik geneigt sind mehr reale Bilanzpolitik einzusetzen, deren Einschränkung nicht originärer Gegenstand der Prüfung durch den Abschlussprüfer ist. Die geschilderten Ergebnisse erweisen sich als sehr robust gegenüber zahlreichen Veränderungen und Tests wie etwa einer de-facto Office Level und Partner Level Analyse. Zudem kann gezeigt werden, dass die dominierenden Reputationseffekte wohl in der eingeschränkten Wichtigkeit der kapitalmarktorientierten Mandanten für den Gesamtumsatz begründet liegen, welche von bisherigen Studien systematisch überschätzt wird. Kapitel 4 richtet den Fokus auf originär nicht-finanzielle Nachhaltigkeitsstrategien und deren Einfluss auf bilanzpolitisches Verhalten. Bisherige Studien betrachten die heterogene Gruppe der Corporate Social Responsibility (CSR) Unternehmen dabei überwiegend in ihrer Gesamtheit. Die vorliegende Analyse in Kapitel 4 versucht demgegenüber die untersuchten Unternehmen in prävalente Anreizgruppen zu trennen, um vermutete diverse Anreize zur Investition in CSR mit den Anreizen zu Bilanzpolitik in Verbindung zu bringen. Hierfür wird ein europäisches Setting mit kapitalmarktorientierten Unternehmen der ASSET4 Datenbank zwischen 2005 und 2014 gewählt. Durch eine gezielte Verknüpfung der Anreize zur Investition mit der Entscheidung zur einschlägigen Berichterstattung werden Unternehmen mit prävalenten Reputationsanreizen von Unternehmen mit Tendenzen zur intrinsischen, philanthropischen Motivation abgegrenzt. Die Ergebnisse lassen vermuten, dass Unternehmen mit Reputationsanreizen bilanzpolitisch konform handeln und buchmäßige durch reale Bilanzpolitik zu ersetzen versuchen. Hierdurch lassen sich sowohl Risiken der medialen Bilanzschelte minimieren als auch hohe Gewinne als Teil einer Gesamtreputationsstrategie realisieren. Des Weiteren kann gezeigt werden, dass diese strategische Positionierung einen Einfluss auf die Wirkungsweise von Corporate Governance (CG) hat. Während Maße für gute CG mit einem geringeren Ausmaß an buchmäßiger Bilanzpolitik einhergehen, wählen Unternehmen mit Reputationsanreizen kohärent mit ihrer strategischen Tendenz erneut ein höheres Maß an realer Bilanzpolitik. Insgesamt deuten die Ergebnisse der Studie daraufhin, dass gewisse Unternehmen CSR als Reputationsinstrument nutzen und sich nicht konform einer nachhaltigen Strategie im Hinblick auf Bilanzpolitik verhalten. N2 - In an Arrow-Debreu world of unrestricted access to perfect and competitive financial markets, there is no need for accounting information about the financial situation of a firm. Because information is costless, share- and stakeholders are then indifferent in deposits and securities (e.g., Holthausen & Watts 2001; Freixas & Rochet 2008). How-ever, several reasons exist indicating a rejection of the assumptions for an Arrow-Debreu world, hence there is no perfect costless information. Moreover, the distribu-tion of information is asymmetric, causing follow-through multi-level agency prob-lems, which are the main reasoning for the variety of financial and non-financial ac-counting standards, regulatory and advisory entities and the auditing and rating agency profession. Likewise, these agency problems have been at the heart of the accounting literature and raised the question of whether and how accounting information can help resolve these problems. ... KW - Bilanzpolitik KW - Earnings Management KW - Earnings Quality KW - Audit Quality KW - Corporate Social Responsibility KW - Corporate Governance KW - Qualität der Rechnungslegung KW - Qualität der Abschlussprüfung KW - Unternehmensverfassung KW - Corporate Social Responsibility Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-159337 ER - TY - THES A1 - Salinas Segura, Alexander T1 - The Internet of Things: Business Applications, Technology Acceptance, and Future Prospects T1 - Das Internet der Dinge: Unternehmensanwendung, Technologieakzeptanz und Zukunftsaussichten N2 - This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things. The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy. The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness. The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants. N2 - Die vorliegende Dissertation untersucht das „Internet der Dinge“ aus drei verschiedenen Perspektiven, wofür drei Studien durchgeführt wurden. Die erste Studie präsentiert eine kommerzielle Anwendung innerhalb des Supply Chain Managements. Die zweite Studie behandelt das Thema Nutzerakzeptanz im Kontext allgegenwärtiger Informationstechnologien, während sich die dritte Studie mit Zukunftsaussichten des Internets der Dinge im Einzelhandel befasst. Die erste Studie evaluiert die Möglichkeiten kabelloser Sensortechnologien zur Optimierung der Produktqualität verderblicher Güter in der Kühlkette. Dabei ermöglicht die Verarbeitung von Sensordaten, wie bspw. Temperaturinformationen, neuartige Ansätze bei sog. Verbrauchsfolgeverfahren in der Lagerhaltung im Verteilzentrum. Das Ziel der Studie ist die möglichen ökonomischen Potenziale sensorbasierter Verbrauchsfolgeverfahren in der Kühlkette zu untersuchen. Mittels Simulation wurde eine dreistufige Lieferkette, bestehend aus einem Hersteller, einem Verteilzentrum und einem Einzelhandelsgeschäft, analysiert. Die Analyse verdeutlicht, dass sensorbasierte Verbrauchsfolgeverfahren das Potenzial besitzen sich zu einer wirkungsvollen Ergänzung zu üblichen Verbrauchsfolgeverfahren zu entwickeln. Die Ergebnisse zeigen jedoch auch, dass wichtige Kompromisse bei der Auswahl spezifischer Verbrauchsfolgeverfahren zu berücksichtigen sind. Die zweite Studie behandelt das Thema Nutzerakzeptanz von sog. pervasiven Informationssystemen. Auf der Grundlage der Integration der erweiterten „Unified Theory of Acceptance and Use of Technology” (UTAUT2) und drei Konstrukten zu „Pervasiveness“, wurde ein umfassendes Forschungsmodell entwickelt um pervasiven Informationssytemen Rechnung zu tragen. Hierzu wurden Daten von 346 Teilnehmern einer Onlineumfrage gesammelt und analysiert, um das Forschungsmodell unter Verwendung von Strukturgleichungsmodellierung zu testen. Weitere Bestandteile der Analyse waren eine Mehrgruppen-Moderation und Mediation. Die Ergebnisse bestätigen die Anwendbarkeit des integrierten UTAUT2-Modells um die Nutzerakzeptanz pervasiver Informationssysteme zu messen. Die dritte Studie befasst sich mit den Zukunftsaussichten des Internets der Dinge im Einzelhandel. Vor dem Hintergrund makro- und mikroökonomischer Faktoren wurden zunächst Zukunftsprojektionen im Kontext des Internets der Dinge im Einzelhandel erstellt. Anschließend wurde eine zweistufige Delphi-Studie mit einer 15 Teilnehmer umfassenden Expertengruppe durchgeführt zur Bewertung der Projektionen. Im letzten Schritt stand die Szenarioentwicklung im Vordergrund, in der potenzielle Zukunftsszenarien aus den relevantesten Projektionen, basierend auf den Expertenmeinungen, entwickelt wurden. KW - Internet der Dinge KW - Internet of Things KW - Sensors KW - Supply Chain KW - Technology Acceptance KW - Delphi Study Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-131605 ER - TY - THES A1 - Rothfuss, Christian T1 - Die Zwischenberichterstattung börsennotierter deutscher Unternehmen : eine theoretische und empirische Untersuchung nach nationalen und internationalen Vorschriften N2 - Seit der Transformation der EG-Zwischenberichtsrichtlinie in deutsches Recht sind alle Emittenten aus dem amtlichen Markt verpflichtet, für nach dem 31. Dezember 1989 beginnende Geschäftsjahre einen Zwischenbericht über die ersten sechs Monate des Geschäftsjahres zu veröffentlichen. Mit diesen bis heute noch geltenden Bestimmungen ist jedoch eine Reihe von Problemen verbunden. So enthalten die im BörsG und in der BörsZulV verankerten Vorschriften hinsichtlich der zu publizierenden Zahlenangaben und Erläuterungen nur geringe Anforderungen an die unterjährige Berichterstattung, die teilweise aufgrund der unpräzisen Formulierung der Bestimmungen den Unternehmen auch noch einen weitgehenden Ermessensspielraum in bezug auf die berichtspflichtigen Sachverhalte einräumen. Darüber hinaus stufen die gesetzlichen Vorschriften nur die Veröffentlichung eines Halbjahresberichtes als verpflichtend ein, und für die nicht im geregelten Markt notierenden Unternehmen kann aus den Vorschriften keine Verpflichtung abgeleitet werden. Wenngleich der Gesetzgeber sich bei der Umsetzung der Zwischenberichtsrichtlinie bewußt gegen eine umfassendere unterjährige Berichtspflicht entschieden hat, sowohl in bezug auf die berichtspflichtigen Zahlenangaben und Erläuterungen sowie der Anzahl der unterjährig zu veröffentlichenden Berichte, als auch im Hinblick auf die berichtspflichtigen Börsensegmente, ist vor dem Hintergrund der fortschreitenden Globalisierung der Kapitalmärkte und der damit verbundenen größeren Bedeutung der externen Berichterstattung der Emittenten eine grundlegende Veränderung bei den an eine unterjährige Berichterstattung gestellten Anforderungen eingetreten. Während zu Beginn der gesetzlich geforderten Zwischenberichterstattung die wenigen berichtspflichtigen Zahlenangaben und Erläuterungen noch im Einklang mit den Informationsbedürfnissen der Kapitalmarktteilnehmer gestanden haben, ist der Informationsanspruch der Investoren in den letzten Jahren stetig gestiegen. Verantwortlich dafür ist in erster Linie, daß die wirtschaftlichen und finanziellen Verhältnisse der Unternehmen immer schnelleren und häufigeren Veränderungen unterliegen, wodurch die Kapitalmarktteilnehmer neben der jährlichen Berichterstattung auch innerhalb des Geschäftsjahres auf eine umfassende Berichterstattung angewiesen sind, um möglichst zeitnahe auf die veränderten Bedingungen reagieren zu können. Darüber hinaus hat die Internationalisierung der Rechnungslegung einen wichtigen Beitrag zur Normierung einer umfassenderen unterjährigen Berichterstattung geleistet. Um eine Angleichung der deutschen Vorschriften an die umfassenderen Bestimmungen der international anerkannten Rechnungslegungsstandards zu erreichen, die aufgrund der Befreiungsregel von § 292a HGB bereits von vielen deutschen Unternehmen angewendet werden, von Bedeutung sind hierbei insbesondere die nach IFRS/IAS bzw. US-GAAP zu beachtenden Vorschriften, hat sowohl die Deutsche Börse AG als auch das DRSC Vorschriften für die Erstellung von unterjährigen Berichten erlassen. Vor dem Hintergrund dieser Vielzahl und dem nebeneinander von gesetzlichen und privatrechtlichen Regelungen, die mittlerweile von den Gesellschaften zu beachten sind, werden in der vorliegenden Arbeit die einzelnen nationalen und internationalen Regelungen ausführlich dargestellt und Gemeinsamkeiten sowie Unterschiede aufgezeigt. Im Rahmen einer empirischen Untersuchung wird darüber hinaus in einem Soll-Ist-Vergleich untersucht, inwieweit diese Regelungen auch Beachtung innerhalb der Zwischenberichterstattung der Gesellschaften finden. Dazu wurden 115 Zwischenberichte aus den Jahren 2000 und 2001 von Unternehmen aus den Indizes DAX, MDAX und NEMAX 50 hinsichtlich der publizierten Informationen ausgewertet. Vor dem Hintergrund der sich aus dem Nebeneinander der gesetzlichen und privatrechtlichen Vorschriften ergebenen uneinheitlichen Verpflichtungsgrundlagen und Anforderungen ist es dringend geboten, den Regulierungsrahmen für die Zwischenberichterstattung der aktuellen Entwicklung in der Rechnungslegung weiter anzupassen, um die teilweise bestehende Inkonsistenz der verschiedenen Vorschriften in Zukunft zu vermeiden. Durch die Bestrebungen der EU, die nationalen Rechtsvorschriften der einzelnen Mitgliedsländer für einen einheitlichen europäischen Kapitalmarkt weitgehend zu harmonisieren, werden dem deutschen Gesetzgeber die zukünftig an eine unterjährige Berichterstattung zu stellenden Anforderungen von Seiten der EU weitgehend vorgegeben werden. So sieht die am 26. März 2003 veröffentlichte Transparenz-Richtlinie vor, daß ab dem Jahr 2005 alle an einem geregelten Markt notierten Emittenten einen Halbjahresfinanzbericht erstellen müssen. Wenngleich der von der EU-Kommission publizierte Vorschlag für eine zukünftige einheitliche Ausgestaltung der unterjährigen Berichterstattung in Europa grundsätzlich positiv zu sehen ist, werden auch vor dem Hintergrund der durchgeführten empirischen Untersuchung erforderliche Ergänzungen zu den an eine unterjährige Berichterstattung zu stellenden Anforderungen aufgezeigt. Von besonderer Bedeutung sind hierbei die Durchführung einer prüferischen Durchsicht sowie die Verpflichtung zu einer Quartalsberichterstattung. KW - Deutschland KW - Aktiengesellschaft KW - Publizitätspflicht KW - Zwischenbericht KW - Zwischenbericht KW - Rechnungslegung KW - Halbjahresbericht KW - Quartalsbericht KW - Accounting KW - interim reporting Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-15652 ER - TY - THES A1 - Roos, Stephanie T1 - Unternehmensperformance und Vorstandswechsel - eine empirische Analyse zur Effizienz deutscher Aufsichtsräte T1 - Performance and management turnover - an empirical study on the efficiency of German supervisory boards N2 - Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus. N2 - After company failures as with Enron, Worldcom or Comroad, Corporate Governance discussions have significantly increased all over the world. Numerous committees concern themselves with the optimal arrangement and the quality of corporate management and control. In Germany, most of the discussions focus on the quality of management control by the supervisory board. Frequently, the members of the supervisory board are accused to fulfil their monitoring function insufficiently and to lose sight of their clients’ interests. The study examines to what extent the criticism of the efficiency of German supervisory boards, launched in the public, can be confirmed empirically. The approach to the question is conducted by the analysis of the systematic relationship between company performance and turnover in the management boards of the DAX100 companies over the period from 1994 to 2001. In addition to the turnover performance relationships, the reactions of the capital market to the turnover announcements are determined. Capital market effects inform about the impact of management changes for the further company development from investors’ point of view. The empirical analysis of the complete turnover process provides interesting insights into the incentive and disciplining effects resulting from the dismissal mechanism practiced by the supervisory board. KW - Aktiengesellschaft KW - Vorstandsvorsitzender KW - Fluktuation KW - Unternehmensergebnis KW - Aufsichtsrat KW - Corporate Governance KW - Corporate Governance KW - Aufsichtsrat KW - Management KW - Vorstandswechsel KW - Performance KW - Corporate Governance KW - supervisory board KW - management turnover KW - performance Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-20816 ER - TY - JOUR A1 - Rodríguez-Entrena, Macario A1 - Schuberth, Florian A1 - Gelhard, Carsten T1 - Assessing statistical differences between parameters estimates in Partial Least Squares path modeling JF - Quality & Quantity N2 - Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model. KW - Testing parameter difference KW - Bootstrap KW - Confidence interval KW - Practitioner's guide KW - Statistical misconception KW - Consistent partial least squares Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-226403 VL - 52 IS - 1 ER - TY - THES A1 - Rhönisch, Anna Franziska T1 - Möglichkeiten und Strategien der Technologieclusterentwicklung - Eine Analyse der Voraussetzungen für eine erfolgreiche Clusterbildung in der Region Mainfranken T1 - Opportunities and Strategies of Technology Cluster Development - An Analysis of Preconditions for a Successful Cluster Formation in the Region Mainfranken N2 - This paper focuses on the development of technology clusters and based on this, on two research questions: What are the preconditions for technology cluster development according to cluster research? And, does the region Mainfranken fulfill the requirements for a technology cluster formation? For this purpose, a qualitative study will be conducted by referring to various theoretical concepts of cluster formation. Due to this, the following determinants of cluster development can be deduced into: the traffic infrastructure and infrastructure component, the cluster environment component, the university component, the state component and the industrial component. The analysis of the parameter value of the separate cluster components shows that the core requirements of technology cluster development in the region of Mainfranken are fulfilled. Nevertheless, it is necessary to improve the infrastructure, the commercial and industrial availability of land and availability of capital to form a successful technology cluster. Within the framework of this paper, the potential of technology cluster development in the field of artificial intelligence could also be analyzed. N2 - Dieser Beitrag konzentriert sich auf die Entwicklung von Technologieclustern und basiert auf zwei Forschungsfragen: Was sind die Voraussetzungen für die Entwicklung von Technologieclustern gemäß der Clusterforschung? Und erfüllt die Region Mainfranken die Voraussetzungen für eine Technologieclusterbildung? Zu diesem Zweck wird eine qualitative Studie unter Bezugnahme auf verschiedene theoretische Konzepte der Clusterbildung durchgeführt. Aus diesem Grund können die folgenden Determinanten der Clusterentwicklung abgeleitet werden: die Verkehrsinfrastruktur- und Infrastrukturkomponente, die Clusterumfeldkomponente, die Universitätskomponente, die Staatskomponente und die Branchenkomponente. Die Analyse der Parameterwerte der einzelnen Clusterkomponenten zeigt, dass die Kernanforderungen der Technologieclusterentwicklung in der Region Mainfranken erfüllt sind. Dennoch ist es notwendig, die Infrastruktur, die kommerzielle und industrielle Verfügbarkeit von Land und die Verfügbarkeit von Kapital zu verbessern, um ein erfolgreiches Technologiecluster zu bilden. Im Rahmen der vorliegenden Arbeit konnte darüber hinaus das Potenzial der Technologieclusterentwicklung im Bereich der künstlichen Intelligenz analysiert werden. KW - Cluster KW - Agglomeration KW - Regionale Konzentration KW - Technologieunternehmen KW - Bestärkendes Lernen KW - Technologiecluster KW - Clusterformation KW - Regionalentwicklung KW - Region Mainfranken KW - Technology Cluster KW - Cluster Formation KW - Regional Development KW - Region Mainfranken Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179546 ER - TY - THES A1 - Reichert, Michael T1 - Der Einfluss von Kosten, Steuern und Sterblichkeit auf die private kapitalgedeckte Altersvorsorge - Eine modelltheoretische Untersuchung T1 - The influence of costs, taxes and mortality on gouverment-funded private pension plans - a model theoretical analysis N2 - In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt. Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:  Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).  Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.  Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.  Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.  Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind. N2 - The influence of costs, taxes and mortality on gouverment-funded private pension plans - a model theoretical analysis KW - Altersversorgung KW - Kapitaldeckungsverfahren KW - Private Altersversorgung KW - Riester-Rente KW - Kosten KW - Steuern KW - Sterblichkeit Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110902 ER - TY - THES A1 - Reeg, Johannes T1 - Empirical Studies of Contemporaneous Banking Research T1 - Empirische Studien aktueller Bankenforschung N2 - Banks perform important functions for the economy. Besides financial intermediation, banks provide information, liquidity, maturity- and risk-transformation (Fama, 1985). Banks ensure the transfer of liquidity from depositors to the most profitable investment projects. In addition, they perform important screening and monitoring services over investments hence contributing steadily to the efficient allocation of resources across the economy (Pathan and Faff, 2013). Since banks provide financial services all across the economy, this exposes banks (as opposed to non-banks) to systemic risk: the recent financial crisis revealed that banks can push economies into severe recessions. However, the crisis also revealed that certain bank types appear far more stable than others. For instance, cooperative banks performed better during the crisis than commercial banks. Different business models may reason these performance-differences: cooperative banks focus on relationship lending across their region, hence these banks suffered less from the collapse of the US housing market. Since cooperative banks performed better during the crisis than commercial banks, it is quite surprising that research concerning cooperative banks is highly underrepresented in the literature. For this reason, the following three studies aim to contribute to current literature by examining three independent contemporaneous research questions in the context of cooperative banks. Chapter 2 examines whether cooperative banks benefit from revenue diversification: Current banking literature reveals the recent trend in the overall banking industry that banks may opt for diversification by shifting their revenues to non-interest income. However, existing literature also shows that not every bank benefits from revenue diversification (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Stiroh and Rumble (2006) find that large commercial banks (US Financial Holding Companies) perceive decreasing performance by shifting revenues towards non-interest income. Revenues from cooperative banks differ from those of commercial banks: commercial banks trade securities and derivatives, sell investment certificates and other trading assets. Concerning the lending business, commercial banks focus on providing loans for medium-sized and large companies rather than for small (private) customers. Cooperative banks rely on commission income (fees) from monetary transactions and selling insurances as a source of non-interest income. They generate most of their interest income by providing loans to small and medium-sized companies as well as to private customers in the region. These differences in revenues raise the question whether findings from Stiroh and Rumble (2006) apply to cooperative banks. For this reason, Chapter 2 evaluates a sample of German cooperative banks over the period 2005 to 2010 and aims to investigate the following research question: which cooperative banks benefit from revenue diversification? Results show that findings from Stiroh and Rumble (2006) do not apply to cooperative banks. Revenue concentration is positive related to risk-adjusted returns (indirect effect) for cooperative banks. At the same time, non-interest income is more profitable than interest income (direct effect). The evaluation of the underlying non-interest income share shows that banks who heavily focus on non-interest income benefit by shifting towards non-interest income. This finding arises due to the fact, that the positive direct effect dominates the negative indirect effect, leading in a positive (and significant) net effect. Furthermore, results reveal a negative net effect for banks who are heavily exposed to interest generating activities. This indicates that shifting to non-interest income decreases risk-adjusted returns for these banks. Consequently, these banks do better by focusing on the interest business. Overall, results show evidence that banks need time to build capabilities, expertise and experience before trading off return and risk efficiently with regard on revenue diversification. Chapter 3 deals with the relation between credit risk, liquidity risk, capital risk and bank efficiency: There has been rising competition in the European banking market due to technological development, deregulation and the introduction of the Euro as a common currency in recent decades. In order to remain competitive banks were forced to improve efficiency. That is, banks try to operate closer to a “best practice” production function in the sense that banks improve the input – output relation. The key question in this context is if banks improve efficiency at a cost of higher risk to compensate decreasing earnings. When it comes to bank risk, a large strand of literature discusses the issue of problem loans. Several studies identify that banks hold large shares of non-performing loans in their portfolio before becoming bankrupt (Barr and Siems, 1994; Demirgüc-Kunt, 1989). According to efficiency, studies show that the average bank generates low profits and incorporates high costs compared to the “best practice” production frontier (Fiordelisi et al., 2011; Williams, 2004). At first glance, these two issues do not seem related. However, Berger and DeYoung (1997) show that banks with poor management are less able to handle their costs (low cost-efficiency) as well as to monitor their debtors in an appropriate manner to ensure loan quality. The negative relationship between cost efficiency and non-performing loans leads to declining capital. Existing studies (e.g. Williams, 2004; Berger and DeYoung, 1997) show that banks with a low level of capital tend to engage in moral hazard behavior, which in turn can push these banks into bankruptcy. However, the business model of cooperative banks is based on the interests of its commonly local customers (the cooperative act: § 1 GenG). This may imply that the common perception of banks engaging in moral hazard behavior may not apply to cooperative banks. Since short-term shareholder interests (as a potential factor for moral hazard behavior) play no role for cooperative banks this may support this notion. Furthermore, liquidity has been widely neglected in the existing literature, since the common perception has been that access to additional liquid funds is not an issue. However, the recent financial crisis revealed that liquidity dried up for many banks due to increased mistrust in the banking sector. Besides investigating moral hazard behavior, using data from 2005 to 2010 this study moves beyond current literature by employing a measure for liquidity risk in order to evaluate how liquidity risk relates to efficiency and capital. Results mostly apply to current literature in this field since the empirical evaluation reveals that lower cost and profit-efficiency Granger-cause increases in credit risk. At the same time, results indicate that credit risk negatively Granger-causes cost and profit-efficiency, hence revealing a bi-directional relationship between these measures. However, most importantly, results also show a positive relationship between capital and credit risk, thus displaying that moral hazard behavior does not apply to cooperative banks. Especially the business model of cooperative banks, which is based on the interests of its commonly local customers (the cooperative act: § 1 GenG) may reason this finding. Contrary to Fiordelisi et al. (2011), results also show a negative relationship between capital and cost-efficiency, indicating that struggling cooperative banks focus on managing their cost-exposure in following periods. Concerning the employed liquidity risk measure, the authors find that banks who hold a high level of liquidity are less active in market related investments and hold high shares of equity capital. This outcome clearly reflects risk-preferences from the management of a bank. Chapter 4 examines governance structures of cooperative banks: The financial crisis of 2007/08 led to huge distortions in the banking market. The failure of Lehman Brothers was the beginning of government interventions in various countries all over the world in order to prevent domestic economies from even further disruptions. In the aftermath of the crisis, politicians and regulators identified governance deficiencies as one major factor that contributed to the crisis. Besides existing studies in the banking literature (e.g. Beltratti and Stulz, 2012; Diamond and Rajan, 2009; Erkens et al., 2012) an OECD study from 2009 supports this notion (Kirkpatrick, 2009). Public debates increased awareness for the need of appropriate governance mechanisms at that time. Consequently, politicians and regulators called for more financial expertise on bank boards. Accordingly, the Basel Committee on Banking Supervision states in principle 2 that “board members should remain qualified, individually and collectively, for their positions. They should understand their oversight and corporate governance role and be able to exercise sound, objective judgement about the affairs of the bank.” (BCBS, 2015). Taking these perceptions into consideration the prevailing question is whether financial experts on bank boards do really foster bank stability? This chapter aims to investigate this question by referring to the study from Minton et al. (2014). In their study, the authors investigate US commercial bank holding companies between the period 2003 and 2008. The authors find that financial experts on the board of US commercial bank holding companies promote pro-cyclical bank performance. Accordingly, the authors question regulators view of more financial experts on the board leading to more banking stability. However, Minton et al. (2014) do not examine whether their findings accrue due to financial experts who act in the interests of shareholders or due to the issue that financial experts may have a more risk-taking attitude (due to a better understanding of financial instruments) than other board members. Supposed that their findings accrue due to financial experts who act in the interests of shareholders. Then financial experts on the board of banks where short-term shareholder interests play no role (cooperative banks) may prove beneficial with regard on bank performance during the crisis as well as in normal times. This would mean that they use their skills and expertise to contribute sustainable growth to the bank. Contrary, if this study reveals pro-cyclical bank performance related to financial experts on the board of cooperative banks, this finding may be addressed solely to the risk-taking attitude of financial experts (since short-term shareholder interests play no role). For this reason, this chapter aims to identify the channel for the relation of financial experts and bank performance by examining the following research question: Do financial experts on the board promote pro-cyclical bank performance in a setting where short-term shareholder interests play no role? Results show that financial experts on the board of cooperative banks (data from 2006 to 2011) do not promote pro-cyclical bank performance. Contrary, results show evidence that financial experts on the board of cooperative banks appear to foster long-term bank stability. This suggests that regulators should consider ownership structure (and hence business model of banks) when imposing new regulatory constraints for financial experts on the bank board. N2 - Banken nehmen wichtige Funktionen innerhalb einer Volkswirtschaft wahr. Innerhalb ihrer Rolle als Finanzintermediär stellen sie Liquidität bereit und übernehmen elementare Aufgaben der Fristen- und Risikotransformation (Fama ,1985). Sie stellen sicher, dass die Liquidität der Depotinhaber den profitabelsten Investitionsprojekten zukommt. Darüber hinaus übernehmen Banken wichtige Prüfungs- und Überwachungsfunktionen über ihre Investitionsprojekte und sorgen damit für eine stetig effiziente Ressourcenallokation innerhalb einer Volkswirtschaft (Pathan and Faff, 2013). Da jedoch Banken ihre Finanzdienstleistungen der gesamten Volkswirtschaft zur Verfügung stellen, erzeugen sie damit auch (im Gegensatz zu Firmen) ein gewisses Systemrisiko: die Finanzkrise 2007 – 2008 hat gezeigt, dass Banken ganze Staaten in eine Rezession ziehen können. Gleichzeitig hat die Krise allerdings auch gezeigt, dass bestimmte Banktypen deutlich stabiler sind als andere. So sind beispielsweise die genossenschaftlichen Volks- und Raiffeisenbanken deutlich besser durch die Krise gekommen als nahezu alle Universalbanken. Genossenschaftsbanken existieren in allen größeren westlichen Volkswirtschaften und nehmen innerhalb dieser oft eine bedeutende Rolle ein. Aufgrund der einerseits hohen Bedeutung von Genossenschaftsbanken in den genannten Volkswirtschaften und der andererseits vergleichsweise geringen Beachtung in der Literatur, ist es das Ziel dieser Dissertation mit den folgenden drei empirischen Studien die bestehende Forschung der Genossenschaftsbanken voranzutreiben. Die drei empirischen Studien beschäftigen sich mit jeweils unabhängigen Forschungsfragen, die für den Bankensektor in jüngster Zeit von hoher Relevanz sind. Kapitel 2 beschäftigt sich mit der Frage, welche Genossenschaftsbanken von einer Einnahmendiversifikation profitieren können: bestehende Literatur offenbart den Trend innerhalb des Bankensektors, wonach Banken nach Diversifikation streben, indem sie ihre Einnahmen immer stärker im zinsunabhängigen Geschäft generieren. Jedoch zeigt sich in der Literatur ebenfalls, dass längst nicht alle Banken durch die Einnahmendiversifikation profitieren (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Bei der Untersuchung von Genossenschaftsbanken ergibt sich folgendes Bild: es profitieren diejenigen Banken von einer weiteren Einnahmendiversifikation, welche bereits einen hohen Anteil ihrer Einnahmen durch das zinsunabhängige Geschäft generieren. Des Weiteren zeigt die Untersuchung einen negativen Nettoeffekt für diejenigen Banken, welche den Großteil ihrer Einnahmen durch das Zinsgeschäft generieren. Insgesamt deuten die Hinweise der empirischen Untersuchung darauf hin, dass Banken eine gewisse Zeit benötigen um entsprechende Expertise und Erfahrung aufzubauen damit eine Einnahmendiversifikation eine konkurrenzfähige risikoadjustierte Rendite erzeugt. Kapitel 3 beschäftigt sich mit der Beziehung zwischen dem Risiko, der Kapitalausstattung und der Effizienz einer Bank. Das Geschäftsmodell von Genossenschaftsbanken beruht auf der Förderung der Interessen der Mitglieder (§ 1 GenG). Das legt die Vermutung nahe, dass die in der Literatur weit verbreitete Ansicht des moralischen Risikoverhaltens nicht auf Genossenschaftsbanken zutrifft. Darüber hinaus könnten die besonderen Governance-Strukturen von Genossenschaftsbanken diese These stützen: kurzfristige Eigentümerinteressen als mögliche Ursache für moralisches Risikoverhalten spielen bei Genossenschaftsbanken keine Rolle. Die Ergebnisse der empirischen Untersuchung von Genossenschaftsbanken zeigen, dass eine niedrigere Kosten- und Gewinneffizienz zu einem höheren Kreditrisiko führt. Gleichzeitig bestätigen die Ergebnisse, dass ein negativer Zusammenhang zwischen dem Kreditrisiko von Banken und deren Kosten- und Gewinneffizienz besteht. Als zentraler Unterschied zu bestehenden Studien zeigt sich jedoch, dass ein positiver Zusammenhang zwischen der Eigenkapitalposition und dem Kreditrisiko besteht. Das bedeutet, dass moralisches Risikoverhalten („moral hazard“) bei Genossenschaftsbanken, wie bereits vermutet, nicht stattfindet. Insbesondere der Zweck der Genossenschaftsbanken (§ 1 GenG) und die damit einhergehenden besonderen Governance-Strukturen sind nach Ansicht der Autoren die wesentliche Begründung für diese Erkenntnis. Kapitel 4 widmet sich den Governance-Strukturen von Genossenschaftsbanken. Speziell wird in diesem Kapitel die Forschungsfrage behandelt, ob Finanzexperten im Aufsichtsrat von Genossenschaftsbanken zu einer prozyklischen Bankperformance führen. Dieser Zusammenhang wurde in der Studie von Minton, Taillard und Williamson (2014) bei kapitalmarktorientierten Banken aufgezeigt. Die Ergebnisse der Genossenschaftsbanken hingegen zeigen, dass Finanzexperten in den Aufsichtsräten von Genossenschaftsbanken im Zeitraum von 2006 bis 2011 keine prozyklische Bankperformance erzeugen. Im Gegenteil, die Ergebnisse weisen darauf hin, dass Finanzexperten in den Aufsichtsräten von Genossenschaftsbanken eine langfristige Stabilität der Banken gewährleisten. In der Konsequenz bedeutet das, dass Regulatoren die Eigentümerstrukturen (und damit das Geschäftsmodell) von Banken berücksichtigen sollten, wenn sie neue regulatorische Anforderungen hinsichtlich Finanzexperten in den Aufsichtsräten von Banken einführen. KW - cooperative diversification KW - Genossenschaftsbanken KW - performance KW - banksrevenue KW - risk KW - profitability KW - efficiency KW - Aufsichtsrat KW - Diversifikation KW - Risiko Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153581 ER - TY - JOUR A1 - Rau-Bredow, Hans T1 - Bigger is not always safer: a critical analysis of the subadditivity assumption for coherent risk measures JF - Risks N2 - This paper provides a critical analysis of the subadditivity axiom, which is the key condition for coherent risk measures. Contrary to the subadditivity assumption, bank mergers can create extra risk. We begin with an analysis how a merger affects depositors, junior or senior bank creditors, and bank owners. Next it is shown that bank mergers can result in higher payouts having to be made by the deposit insurance scheme. Finally, we demonstrate that if banks are interconnected via interbank loans, a bank merger could lead to additional contagion risks. We conclude that the subadditivity assumption should be rejected, since a subadditive risk measure, by definition, cannot account for such increased risks. KW - coherent risk measures KW - subadditivity KW - bank mergers KW - regulatory capital Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-201808 VL - 7 IS - 3 ER - TY - JOUR A1 - Rademaker, Manuel E. A1 - Schuberth, Florian A1 - Dijkstra, Theo K. T1 - Measurement error correlation within blocks of indicators in consistent partial least squares : Issues and remedies JF - Internet Research N2 - Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling. KW - Monte Carlo simulation KW - Structural equation modelling KW - Consistent partial least squares KW - Measurement error correlation KW - Model specification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-224901 VL - 29 IS - 3 ER - TY - JOUR A1 - Oberdorf, Felix A1 - Schaschek, Myriam A1 - Weinzierl, Sven A1 - Stein, Nikolai A1 - Matzner, Martin A1 - Flath, Christoph M. T1 - Predictive end-to-end enterprise process network monitoring JF - Business & Information Systems Engineering N2 - Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations. KW - predictive process analytics KW - predictive process monitoring KW - deep learning KW - machine learning KW - neural network KW - business process anagement KW - process mining Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323814 SN - 2363-7005 VL - 65 IS - 1 ER - TY - THES A1 - Oberdorf, Felix T1 - Design and Evaluation of Data-Driven Enterprise Process Monitoring Systems T1 - Design und Evaluation von datengetriebenen Prozess Überwachungssystemen in Unternehmen N2 - Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios. To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming. To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network. Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement. N2 - Der zunehmende globale Wettbewerb zwingt Unternehmen zur Verbesserung ihrer Prozesse, um sich dadurch einen Wettbewerbsvorteil zu verschaffen. In der Fertigungsindustrie wird das durch die die digitale Transformation unterstützt. Grundlegende Komponenten in den entstehenden digitalisierten Umgebungen sind prozessorientierte Informationssysteme, die die Ausführung von Geschäftsprozessen aufzeichnen, bei der Prozessautomatisierung unterstützen und wiederum Potenzial zur Prozessanalyse freisetzen. Die meisten Informationssysteme in Unternehmen konzentrieren sich jedoch auf die Anzeige von Informationen, Prozessautomatisierung oder Datenerfassung, nutzen aber keine predictive analytics oder prescriptive analytics, um datengetriebene Entscheidungen zu unterstützen. Daher wird in dieser Dissertation der Aufbau von analytics-enabled Informationssystemen in fünf unabhängigen Teilen untersucht, die schrittweise analytische Methoden einführen und potenzielle Möglichkeiten zur Prozessverbesserung in realen Szenarien bewerten. Eine wesentliche Voraussetzung für den Auf- und Ausbau von analytics-enabled Informationssystemen ist die Identifikation von Erfolgsfaktoren, die wir im Kontext von Process Mining als deskriptive Methode untersuchen. Wir kombinieren einen etablierten Process Mining Framework und ein Process Mining Erfolgsmodell, um einen strukturierten Ansatz zur Bewertung von Erfolgsfaktoren zu ermöglichen, den wir aufbauend zur Identifizierung von Herausforderungen, Motivationen und des wahrgenommenen Mehrwerts (engl. Business Value) von Process Mining durch Mitarbeiter in Organisationen und Process Mining Experten nutzen. Auf Grundlage der gewonnenen Erkenntnisse erweitern wir das bestehende Erfolgsmodell und leiten Implikationen für die Generierung von Business Value durch Process Mining ab. Um die Realisierung des durch Process Mining ermöglichten Business Value zu unterstützen, entwickeln wir ein Artefakt für kontextbezogenes Process Mining. Das Artefakt kombiniert standard Prozessdaten mit zusätzlichen Kontextinformationen, um die automatische Identifizierung von Prozesspfaden, die mit den Kontextereignissen in Verbindung gebracht werden, zu unterstützen. Die entsprechende Realisierung ist jedoch eine herausfordernde Aufgabe, da die Transformation von Prozessen auf der Grundlage von Informationserkenntnissen zeitaufwendig ist. Um dies zu überwinden, stellen wir die Entwicklung eines predictive process monitoring Systems zur Automatisierung des Störungsmanagements in einer Produktionsumgebung vor. Das System nutzt etablierte Algorithmen des maschinellen Lernens zur Klassifizierung von Störungsarten und zur Vorhersage der Störungsdauer. Es kombiniert die Algorithmen mit zusätzlichen Datenquellen und einem einfachen Zuweisungsverfahren, um den Prozess der Störungsbearbeitung zu unterstützen. Die Entwicklung eines solchen Systems und entsprechender Modelle ist eine anspruchsvolle Aufgabe, die wir durch die Entwicklung einer Fünf-Phasen-Methode für predictive end-to-end process monitoring von Unternehmensprozessen unter Verwendung von multi-headed neural networks adressieren. Die Methode erleichtert die Integration heterogener Datenquellen durch dedizierte Modelle, die für eine Vorhersage kombiniert werden. Die Evaluation eines realen Anwendungsfalls unterstreicht die Kompetitivität des eines aus der entwickelten Methode resultierenden Modells. Allerdings sind auch die Ergebnisse des verbesserten Modells nicht perfekt. Somit muss die Entscheidung über die Zuweisung von Agenten zur Lösung von Störungen unter Unsicherheit getroffen werden. Dazu können zwar mathematische Modelle genutzt werden, allerdings steigt die Anzahl der möglichen Szenarien durch komplexe reale Bedingungen stark an und limitiert die Lösung mathematischer Modelle. Um dies zu überwinden und das Potenzial eines prescriptive process monitoring Systems zu beleuchten, haben wir einen datengetriebenen Ansatz zur Approximation eines dynamischen stochastischen Problems entwickelt, der mehrere Unsicherheiten bei der Zuweisung der Agenten berücksichtigt. Das resultierende Modell hat eine signifikant bessere Leistung und unterstreicht letztlich die besondere Bedeutung von analytics-enabled Informationssystemen für die Verbesserung von Organisationsprozessen. KW - Operations Management KW - Wirtschaftsinformatik KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Advanced Analytics KW - Predictive Analytics KW - Prescriptive Analytics Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298531 ER - TY - THES A1 - Notz, Pascal Markus T1 - Prescriptive Analytics for Data-driven Capacity Management T1 - Prescriptive Analytics für datengetriebenes Kapazitätsmanagement N2 - Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM). First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems. The first article, “Prescriptive Analytics for Flexible Capacity Management”, develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters. The second article, “Prescriptive Analytics for a Multi-Shift Staffing Problem”, uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the “worlds” of queuing theory and prescriptive analytics. The third article, “Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management” proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions. The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation. N2 - Digitalisierung und künstliche Intelligenz führen zu enormen Veränderungen in nahezu allen Bereichen von Wirtschaft und Gesellschaft. Grundlegend für diese Veränderungen ist die Technologie des maschinellen Lernens (ML), ermöglicht durch ein Zusammenspiel großer Datenmengen, geeigneter Algorithmen und ausreichender Rechenleistung. Diese Technologie bildet die Basis für die Entwicklung neuartiger Ansätze zur Lösung klassischer Planungsprobleme des Operations Research (OR): Präskriptive Ansätze integrieren Methoden des ML und Optimierungsverfahren des OR mit dem Ziel, Lösungen für Planungsprobleme direkt aus historischen Observationen von Nachfrage und Features (erklärenden Variablen) abzuleiten. Diese neuartigen Lösungsansätze bieten ein enormes Potential zur Verbesserung von Planungsentscheidungen, wie erste numerische Analysen mit historischen Daten gezeigt haben, und begründen damit ein neues Forschungsfeld innerhalb des OR. In ersten Beiträgen zu diesem neuen Forschungsfeld wurden präskriptive Verfahren für verhältnismäßig einfache Planungsprobleme aus dem Bereich des Lagerbestandsmanagements entwickelt. Häufig weisen Planungsprobleme aber eine deutlich höhere Komplexität auf, und viele dieser komplexen Planungsprobleme gehören zum Bereich der Kapazitätsplanung. Daher ist die Entwicklung präskriptiver Ansätze zur Lösung komplexer Probleme im Kapazitätsmanagement das Ziel dieser Dissertation. In drei inhaltlich abgeschlossenen Teilen werden neuartige präskriptive Ansätze konzipiert und auf realistische Kapazitätsplanungsprobleme angewendet. Im ersten Artikel, „Prescriptive Analytics for Flexible Capacity Management”, werden zwei präskriptive Verfahren entwickelt, und zwar weighted Sample Average Approximation (wSAA) und kernelized Empirical Risk Minimization (kERM), um ein komplexes, zweistufiges stochastisches Kapazitätsplanungsproblem zu lösen: Ein Logistikdienstleister sortiert täglich eintreffende Sendungen auf drei Sortierlinien, für die die wöchentliche Mitarbeiterkapazität geplant werden muss. Dieser Artikel ist der erste Beitrag, in dem ein kERM-Verfahren zur direkten Lösung eines komplexen Planungsproblems mit matrixwertiger Nachfrage und vektorwertiger Entscheidung entwickelt, eine Obergrenze für die erwarteten Kosten für nichtlineare, kernelbasierte Funktionen abgeleitet und die Universal Approximation Property bei Nutzung spezieller Kernelfunktionen gezeigt wird. Die Ergebnisse der numerischen Studie demonstrieren, dass präskriptive Verfahren im Vergleich mit klassischen Lösungsverfahren zu signifikant besseren Entscheidungen führen können und ihre Entscheidungsqualität bei Variation der exogenen Kostenparameter deutlich robuster ist. Im zweiten Artikel, „Prescriptive Analytics for a Multi-Shift Staffing Problem”, werden wSAA und kERM auf ein Planungsproblem der klassischen Warteschlangentheorie angewendet: Ein Dienstleister erhält über den Tag verteilt Aufträge, deren Anzahl und Zeitpunkt des Eintreffens unsicher sind, und muss die Mitarbeiterkapazität für zwei Schichten planen. Dieses Planungsproblem ist komplexer als die bisher mit präskriptiven Ansätzen gelösten Probleme: Auftragseingang und Bearbeitung werden als Wartesystem modelliert und die Nachfrage innerhalb einer Schicht folgt einem nicht stationären Prozess. Diese Komplexität wird mit zwei Näherungsmethoden bewältigt, sodass das Planungsproblem mit wSAA und kERM sowie dem neu entwickelten Optimization-Prediction-Verfahren gelöst werden kann. Die in diesem Artikel entwickelte Methode legt den Grundstein zur Lösung komplexer Warteschlangenmodelle mit präskriptiven Verfahren und schafft damit eine Verbindung zwischen den „Welten“ der Warteschlangentheorie und der präskriptiven Verfahren. Im dritten Artikel, „Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management”, wird ein neues präskriptives Verfahren zur Lösung der Planungsprobleme der ersten beiden Artikel entwickelt, das insbesondere durch die Erklärbarkeit der Entscheidungen attraktiv ist: Subgradient Tree Boosting (STB). Es kombiniert das erfolgreiche Gradient-Boosting-Verfahren aus dem ML mit SAA und verwendet Subgradienten, da die Zielfunktion von OR-Planungsproblemen häufig nicht differenzierbar ist. Die numerische Analyse zeigt, dass STB zu einer vergleichbaren Entscheidungsqualität wie wSAA und kERM führen kann, und dass die Kapazitätsentscheidungen in Beiträge einzelner Features zerlegt und damit erklärt werden können. Das STB-Verfahren ist damit nicht nur aufgrund seiner Entscheidungsqualität attraktiv für Entscheidungsträger, sondern insbesondere auch durch die inhärente Erklärbarkeit. Die in diesen drei Artikeln präsentierten Ergebnisse zeigen, dass die Nutzung präskriptiver Verfahren, wie wSAA, kERM und STB, bei der Lösung komplexer Planungsprobleme zu deutlich besseren Ergebnissen führen kann als der Einsatz klassischer Methoden, die Feature-Daten vernachlässigen oder auf einer parametrischen Verteilungsschätzung basieren. KW - Maschinelles Lernen KW - Operations Management KW - Entscheidungsunterstützung KW - Kapazitätsplanung KW - Prescriptive Analytics KW - Machine Learning KW - Explainability KW - Data-driven Operations Management KW - Capacity Management KW - Operations Management KW - Entscheidungsunterstützung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-240423 ER - TY - THES A1 - Müller, Holger T1 - Gestaltungsanforderungen Internettechnologie-basierter Marktplätze aus Sicht der industriellen Beschaffung : Entwurf eines entscheidungsorientierten objektzentrierten Analyseschemas T1 - Industrial supply management requirements on internet-technology based marketplaces N2 - Internettechnologie-basierte Marktplätze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ernüchterung ein, da die Nutzung der Marktplätze weitaus langsamer voranging als allgemein erwartet wurde. Dafür wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels“ Internettechnologie-basierter Marktplatz angeführt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterstützung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht darüber hinweg täuschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. Ähnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabläufe sicher, effizient und durchgängig zu unterstützen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktplätze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu ermöglichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in fünf Hauptteile. Im zweiten Kapitel werden zunächst die für die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktplätze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender ökonomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktmäßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Geschäftstransaktion mündet. Der im Anschluss skizzierte Aufbau elektronischer Marktplätze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktplätze – die Internettechnologie-basierten Marktplätze – werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterstützung des Transaktionsprozesses gegenübergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit übertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems für Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktplätze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die für die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verknüpfung der Eigenschaften resultiert in drei zu berücksichtigenden Objektmerkmalen – Spezifität, Komplexität und strategische Bedeutung – mit jeweils bipolaren Ausprägungen, die zusammen einen Würfel mit acht Beschaffungsobjektgruppen bilden. Im fünften Kapitel werden ausgehend vom Aufbau elektronischer Marktplätze die möglichen Funktionalitäten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterstützung der einzelnen Phasen einer Geschäftstransaktion die übergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchführbaren Geschäftsvorfälle bzw. Prozessabläufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen für jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktplätze für den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erfüllen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl für Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universität laufenden Studie „b2b-Marktplatzführer“ erhoben wurde, konnten zum 15.07.2003 79 Marktplätze einbezogen werden. N2 - For years electronic marketplaces based on internet-technology have been considered as a promising tool to greatly improve the efficiency of business-to-business procurement transaction. Despite the considerable attention in this area there is still a substantial uncertainty about the services of marketplaces needed by the industrial supply management. The goal of this study is to analyse the requirements of supply management depending on types of demanded goods. Therefore a classification scheme for demanded goods is developed based on three identified attributes – the complexity, the specificity and the strategic importance of an item. In consequence this classification scheme consists of eight classes of objects to be procured. Subsequently the specific requirements for each class are determined founding on a detailed analysis of potential services of marketplaces. Finally a survey was carried out to investigate how marketplaces in German speaking countries meet the proposed requirements. KW - Internet KW - Beschaffung KW - Electronic Commerce KW - elektronischer Marktplatz KW - Beschaffung KW - Beschaffungsobjekte KW - Objektgruppenanalyse KW - Beschaffungsprozess KW - electronic marketplace KW - supply managament KW - demand goods KW - classsification scheme KW - procurement transaction Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8353 ER - TY - THES A1 - Miller-Suermann, Annette T1 - Herausforderungen moderner Biotechnologien an die Unternehmensethik T1 - Challenges of innovative biotechnology to corporate ethics N2 - Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualität der Menschen sowie ein Wachstum von Wirtschaft und Arbeitsplätzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen Möglichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele für derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausführlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung übernehmen können, welchen Beitrag Unternehmen bei der Lösung und Vermeidung moralischer Konflikte leisten können und welche Möglichkeiten bestehen, dass ethische Bemühungen im Unternehmensalltag umgesetzt werden können. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden mögliche Gründe für deren geringe Verbreitung aufgezeigt. N2 - Biotechnology is expected to improve human life, to create new jobs and to increase economic growth. Because of the risks and the moral conflicts inherent in biotechnology and genetic engineering, critics demand to apply the new technology in a responsible and careful manner. Despite such demands, by now only few companies have introduced ethical standards into their daily management by using ethical management tools like, for example, codes of ethics or ethic-committees. This study describes and examines the corporate ethics specifically in the context of the biotechnology industry, taking into account the formal and informal institutions and the governance structure commonly found in this industry. For example, the role of corporations, entrepreneurs and employees in avoiding and solving moral conflicts is analysed. Furthermore, it is explained how corporations in the biotechnology industry can assume responsibility in, and may contribute to, solving and avoiding moral conflicts. Also, it is demonstrated how ethical issues can be implemented in the day-to-day business by using ethical management tools. Based thereon, the effectiveness and feasibility of such tools are evaluated. Finally, it is discussed for what actual reasons corporations in the biotechnology industry have been reluctant to use such tools in the past. KW - Biotechnologische Industrie KW - Unternehmensethik KW - Unternehmensethik KW - Biotechnologie-Industrie KW - corporate ethics KW - biotechnology industry Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10876 ER - TY - THES A1 - Menzel, Moritz T1 - Das Betriebsrentenstärkungsgesetz und seine Auswirkungen auf Geringverdiener. Eine modelltheoretische Analyse T1 - The Act of Strengthening Occupational Pensions and its effects on low-income earner N2 - Vor allem unter Geringverdienern ist die betriebliche Altersversorgung nur unterdurchschnittlich verbreitet. Mit dem zum 01.01.2018 in Kraft getretenen Betriebsrentenstärkungsgesetz und insbesondere dem sogenannten BAV-Förderbetrag (§ 100 EStG) versucht der Gesetzgeber daher, diese Altersvorsorgeform attraktiver zu gestalten und so deren Verbreitung unter Geringverdienern auszuweiten. Dass dieses Ziel zumindest aus modelltheoretischer Sicht erreicht werden kann, zeigen die Ergebnisse dieser Studie auf. Anhand eines deterministischen Rechenmodells werden die finanziellen Vor- und Nachteile verschiedener Vorsorgealternativen aufgedeckt und präzise beziffert. Daneben widmet sich die Arbeit auch den steuer-, sozialversicherungs- und arbeitsrechtlichen Regelungen der betrieblichen Altersversorgung vor und nach Inkrafttreten des Betriebsrentenstärkungsgesetzes und diskutiert darüber hinaus alternative Reformmaßnahmen. N2 - With the Act of Strengthening Occupational Pensions (BRSG - Betriebsrentenstärkungsgesetz), which came into force on January 1, 2018, and in particular the new § 100 EStG (so-called BAV-Förderbetrag - occupational pension subsidy), the legislator is attempting to make company pension schemes more attractive and thus expand their distribution. Especially among low-income earners, occupational pension schemes are only under-average. Due to the demographic development and the resulting decline in the level of security of the statutory pension insurance in the future, additional, capital-funded provision and thus occupational pension schemes will become increasingly important. Especially low-income earners are dependent on additional provisions in order to escape the threat of old age poverty. Against this background, this dissertation examines how and to what extent tax and social security law are able to promote low-income earners before and after the BRSG came into force. This is done using model theory as the main research method. The core of the work is a deterministic calculation model. Its results finally show that the legislator has succeeded in making occupational pension schemes more attractive with the BRSG. Low-income earners in particular are given targeted subsidies with the so-called Riester-incentive and the occupational pension subsidy. The aim of promoting this group of people can therefore be achieved with the reforms undertaken – at least from a model theory point of view. The reasons for the lack of sufficient benefit claims from occupational pension schemes among low-income earners have been and are still being intensively discussed in the expert public. So far, however, there has been a lack of an exact model-theoretical consideration to uncover and precisely quantify possible financial advantages and disadvantages of individual pension alternatives in the light of the BRSG reforms. In particular, the occupational pension subsidy introduced by the new § 100 EStG has not yet been examined in terms of model theory. This dissertation closes these gaps. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 4 KW - Betriebsrentenstärkungsgesetz KW - Altersvorsorge KW - Altersversorgung KW - Betriebsrente KW - Riester-Rente KW - BAV-Förderbetrag KW - Betriebsrentenstärkungsgesetz KW - BRSG KW - Steuern KW - Sozialversicherung KW - Geringverdiener KW - Förderung KW - Modelltheorie KW - Zillmerung KW - Doppelverbeitragung KW - Entgeltumwandlung KW - Pflichtzuschuss KW - Zusage Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-191753 SN - 978-3-95826-126-6 SN - 978-3-95826-127-3 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-126-6, 27,80 Euro. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Meller, Jan Maximilian T1 - Data-driven Operations Management: Combining Machine Learning and Optimization for Improved Decision-making T1 - Datengetriebenes Operations Management: Kombination von maschinellem Lernen und Optimierung zur besseren Entscheidungsunterstützung N2 - This dissertation consists of three independent, self-contained research papers that investigate how state-of-the-art machine learning algorithms can be used in combination with operations management models to consider high dimensional data for improved planning decisions. More specifically, the thesis focuses on the question concerning how the underlying decision support models change structurally and how those changes affect the resulting decision quality. Over the past years, the volume of globally stored data has experienced tremendous growth. Rising market penetration of sensor-equipped production machinery, advanced ways to track user behavior, and the ongoing use of social media lead to large amounts of data on production processes, user behavior, and interactions, as well as condition information about technical gear, all of which can provide valuable information to companies in planning their operations. In the past, two generic concepts have emerged to accomplish this. The first concept, separated estimation and optimization (SEO), uses data to forecast the central inputs (i.e., the demand) of a decision support model. The forecast and a distribution of forecast errors are then used in a subsequent stochastic optimization model to determine optimal decisions. In contrast to this sequential approach, the second generic concept, joint estimation-optimization (JEO), combines the forecasting and optimization step into a single optimization problem. Following this approach, powerful machine learning techniques are employed to approximate highly complex functional relationships and hence relate feature data directly to optimal decisions. The first article, “Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, chapter 2, examines performance differences between implementations of these concepts in a single-period Newsvendor setting. The paper first proposes a novel JEO implementation based on the random forest algorithm to learn optimal decision rules directly from a data set that contains historical sales and auxiliary data. Going forward, we analyze structural properties that lead to these performance differences. Our results show that the JEO implementation achieves significant cost improvements over the SEO approach. These differences are strongly driven by the decision problem’s cost structure and the amount and structure of the remaining forecast uncertainty. The second article, “Prescriptive call center staffing”, chapter 3, applies the logic of integrating data analysis and optimization to a more complex problem class, an employee staffing problem in a call center. We introduce a novel approach to applying the JEO concept that augments historical call volume data with features like the day of the week, the beginning of the month, and national holiday periods. We employ a regression tree to learn the ex-post optimal staffing levels based on similarity structures in the data and then generalize these insights to determine future staffing levels. This approach, relying on only few modeling assumptions, significantly outperforms a state-of-the-art benchmark that uses considerably more model structure and assumptions. The third article, “Data-driven sales force scheduling”, chapter 4, is motivated by the problem of how a company should allocate limited sales resources. We propose a novel approach based on the SEO concept that involves a machine learning model to predict the probability of winning a specific project. We develop a methodology that uses this prediction model to estimate the “uplift”, that is, the incremental value of an additional visit to a particular customer location. To account for the remaining uncertainty at the subsequent optimization stage, we adapt the decision support model in such a way that it can control for the level of trust in the predicted uplifts. This novel policy dominates both a benchmark that relies completely on the uplift information and a robust benchmark that optimizes the sum of potential profits while neglecting any uplift information. The results of this thesis show that decision support models in operations management can be transformed fundamentally by considering additional data and benefit through better decision quality respectively lower mismatch costs. The way how machine learning algorithms can be integrated into these decision support models depends on the complexity and the context of the underlying decision problem. In summary, this dissertation provides an analysis based on three different, specific application scenarios that serve as a foundation for further analyses of employing machine learning for decision support in operations management. N2 - Diese Dissertation besteht aus drei inhaltlich abgeschlossenen Teilen, welche ein gemeinsames Grundthema besitzen: Wie lassen sich neue maschinelle Lernverfahren in Entscheidungsunterstützungsmodelle im Operations Management einbetten, sodass hochdimensionale, planungsrelevante Daten für bessere Entscheidungen berücksichtigt werden können? Ein spezieller Fokus liegt hierbei auf der Fragestellung, wie die zugrunde liegenden Planungsmodelle strukturell angepasst werden müssen und wie sich in Folge dessen die Qualität der Entscheidungen verändert. Die vergangenen Jahre haben ein starkes Wachstum des global erzeugten und zur Verfügung stehenden Datenvolumens gezeigt. Die wachsende Verbreitung von Sensoren in Produktionsmaschinen und technischen Geräten, Möglichkeiten zur Nachverfolgung von Nutzerverhalten sowie die sich verstärkende Nutzung sozialer Medien führen zu einer Fülle von Daten über Produktionsprozesse, Nutzerverhalten und -interaktionen sowie Zustandsdaten und Interaktionen von technischen Geräten. Unternehmen möchten diese Daten nun für unterschiedlichste betriebswirtschaftliche Entscheidungsprobleme nutzen. Hierfür haben sich zwei grundsätzliche Ansätze herauskristallisiert: Im ersten, sequentiellen Verfahren wird zunächst ein Vorhersagemodell erstellt, welches zentrale Einflussgrößen (typischerweise die Nachfrage) vorhersagt. Die Vorhersagen werden dann in einem nachgelagerten Optimierungsproblem verwendet, um unter Berücksichtigung der verbliebenen Vorhersageunsicherheit eine optimale Lösung zu ermitteln. Im Gegensatz zu diesem traditionellen, zweistufigen Vorgehensmodell wurde in den letzten Jahren eine neue Klasse von Planungsmodellen entwickelt, welche Vorhersage und Entscheidungsunterstützung in einem integrierten Optimierungsmodell kombinieren. Hierbei wird die Leistungsfähigkeit maschineller Lernverfahren genutzt, um automatisiert Zusammenhänge zwischen optimalen Entscheidungen und Ausprägungen von bestimmten Kovariaten direkt aus den vorhandenen Daten zu erkennen. Der erste Artikel, “Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, Kapitel 2, beschreibt konkrete Ausprägungen dieser beiden Ansätze basierend auf einem Random Forest Modell für ein Bestandsmanagementszenario. Es wird gezeigt, wie durch die Integration des Optimierungsproblems in die Zielfunktion des Random Forest-Algorithmus die optimale Bestandsmenge direkt aus einem Datensatz bestimmt werden kann. Darüber hinaus wird dieses neue, integrierte Verfahren anhand verschiedener Analysen mit einem äquivalenten klassischen Vorgehen verglichen und untersucht, welche Faktoren Performance-Unterschiede zwischen den Verfahren treiben. Hierbei zeigt sich, dass das integrierte Verfahren signifikante Verbesserungen im Vergleich zum klassischen, sequentiellen, Verfahren erzielt. Ein wichtiger Einflussfaktor auf diese Performance-Unterschiede ist hierbei die Struktur der Vorhersagefehler beim sequentiellen Verfahren. Der Artikel “Prescriptive call center staffing”, Kapitel 3, überträgt die Logik, optimale Planungsentscheidungen durch integrierte Datenanalyse und Optimierung zu bestimmen, auf eine komplexere Problemklasse, die Schichtplanung von Mitarbeitern. Da die höhere Komplexität eine direkte Integration des Optimierungsproblems in das maschinelle Lernverfahren nicht erlaubt, wird in dem Artikel ein Datenvorverarbeitungsverfahren entwickelt, mit dessen Hilfe die Eingangsdaten mit den ex post-optimalen Entscheidungen angereichert werden. Durch die Vorverarbeitung kann dann eine angepasste Variante des Regression Tree Lernverfahrens diesen Datensatz nutzen, um optimale Entscheidungen zu lernen. Dieses Verfahren, welches mit sehr wenigen und schwachen Modellierungsannahmen bezüglich des zugrunde liegenden Problems auskommt, führt zu deutlich geringeren Kosten durch Fehlplanungen als ein konkurrierendes Verfahren mit mehr Modellstruktur und -annahmen. Dem dritten Artikel, “Data-driven sales force scheduling”, Kapitel 4, liegt ein noch komplexeres Planungsproblem, die Tourenplanung von Außendienstmitarbeitern, zugrunde. Anhand eines konkreten Anwendungsszenarios bei einem Farben- und Lackhersteller beschreibt der Artikel, wie maschinelle Lernverfahren auch bei Einsatz im traditionellen, sequentiellen Ansatz als reine Vorhersagemodelle die nachgelagerten Entscheidungsmodelle verändern können. In diesem Fall wird ein Entscheidungsbaum-basiertes Lernverfahren in einem neuartigen Ansatz verwendet, um den Wert eines Besuchs bei einem potentiellen Kunden abzuschätzen. Diese Informationen werden dann in einem Optimierungsmodell, welches die verbliebene Unsicherheit der Vorhersagen berücksichtigen kann, zur Routenplanung verwendet. Es wird ersichtlich, dass Daten und fortschrittliche Analyseverfahren hier den Einsatz von neuen Optimierungsmodellen erlauben, welche vorher mangels zuverlässiger Schätzung von wichtigen Eingangsfaktoren nicht nutzbar waren. Die in dieser Dissertation erarbeiteten Ergebnisse belegen, dass betriebswirtschaftliche Planungsmodelle durch die Berücksichtigung neuer Daten und Analysemethoden fundamental verändert werden und davon in Form von besserer Entscheidungsqualität bzw. niedrigerer Kosten durch Fehlplanungen profitieren. Die Art und Weise, wie maschinelle Lernverfahren zur Datenanalyse eingebettet werden können, hängt hierbei von der Komplexität sowie der konkreten Rahmenparameter des zu Grunde liegenden Entscheidungsproblems ab. Zusammenfassend stellt diese Dissertation eine Analyse basierend auf drei unterschiedlichen, konkreten Anwendungsfällen dar und bildet damit die Grundlage für weitergehende Untersuchungen zum Einsatz von maschinellen Lernverfahren bei der Entscheidungsunterstützung für betriebswirtschaftliche Planungsprobleme. KW - Operations Management KW - Maschinelles Lernen KW - Entscheidungsunterstützung KW - Prescriptive Analytics KW - Advanced Analytics KW - Big Data Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-206049 ER - TY - THES A1 - Mautner, Romana T1 - Datenintegration für Bauprojekte der Gebietskörperschaften T1 - Integration of data for construction projects of territorial authorities N2 - Bei der Durchführung öffentlicher Bauprojekte ist eine intensive Zusammenarbeit zwi¬schen vielen Beteiligten erforderlich: die in der Bauverwaltung des Bauherren angesiedelte Projektleitung, Bedarfsträger (z. B. Universität oder Be¬hörde), Gre-mien des Bauherrn (Kommunal-, Kreis- oder Bundesparlament), dessen Haus-haltsabteilung, Objekt- und Fachplaner (freiberuflich oder als Mitarbeiter der Bauverwaltung), Gutachter, Bauunternehmen, Lieferanten und Dienstleister, Raumordnungs-, Planfeststellungs- und Genehmigungsbehörden. Der Planungs-, Genehmigungs- und Realisationsprozess erstreckt sich meist über mehrere Jahre. Währenddessen ist ein intensiver Informations- und Kommunikationsaustausch zwischen den Beteiligten erforderlich. Baupläne, Leistungsverzeichnisse, Ange-bote, Verträge, Protokolle, Bauzeitenpläne und Rechnungen werden immer noch per E-Mail oder in Papierform ausgetauscht. Wegen der meist größeren Zahl zeit-gleich betreuter Bauprojekte führt dies bei fast allen Beteiligten regelmäßig zu einer herausfordernd großen Korrespondenz und einem als mangelhaft zu be-zeichnenden Überblick über die aktuellen Projektdaten. Wegen der hochgradigen Interdependenz der Teilprozesse über alle Phasen hin-weg sind aber eine möglichst reibungslose Koordination und die ständige Verfüg-barkeit aktueller Daten bei allen Beteiligten unabdingbare Voraussetzungen, um eine Baumaßnahme zügig und im vorgesehenen Kostenrahmen auszuführen. Während Datenaustausch und Koordination bei großen gewerblichen Bauprojek-ten bereits mit Erfolg durch virtuelle Projekträume unterstützt werden, sind die öffentlichen Bauverwaltungen hier noch zögerlich. Die Erstellung eines einheitli-chen und prozessübergreifenden Datenmodells speziell für die Abläufe öffentli-cher Auftraggeber als Ziel der Arbeit könnte helfen, die Vorteile eines zentralen, für alle Beteiligten zugänglichen Datenbestandes auch für die Bauverwaltungen und ihre Projekte nutzbar zu machen und vormals getrennt gehaltene Datenbe-stände zu einem einzigen zusammenzuführen (Datenintegration). Die gründliche Analyse der Abläufe und Informationsflüsse zwischen den Beteiligten über alle Phasen eines öffentlichen Bauprojekts hinweg sowie eine Bestandsaufnahme der gegenwärtig am Markt verfügbaren virtuellen Projekträume im ersten Teil der Arbeit bilden die Grundlage für die Modellierung der Daten sowie ihrer Zusam-menhänge im zweiten Teil. Mit der Gesamtdarstellung der Beteiligten, ihrer Rollen und Aufgaben, der Do-kumente und der zugehörigen Metadaten über alle Phasen und Baufachbereiche hinweg wurde ein neuer Forschungsbeitrag erarbeitet. Die unterschiedlichen Be-zeichnungen z. B. in Hoch- und Tiefbauprojekten wurden im Interesse der Ver-ständlichkeit erhalten, aber in einer gemeinsamen Struktur zusammengeführt. Diese Modellierung ist die Voraussetzung für eine verbesserte informationstech-nische Unterstützung öffentlicher Bauprojekte und zugleich die ureigenste Aufga-be des Wirtschaftsinformatikers als Mittler zwischen Anwendern und Entwick-lern. Das in dieser Arbeit entwickelte Datenmodell erlaubt wegen seiner verwaltungs- und baufachbereichsübergreifenden Konzeption im Sinne eines Referenzmodells den Einsatz als Basis einer Standardanwendungssoftware, die mit geringem An-passungsaufwand bei einer großen Zahl an Kunden im öffentlichen Bereich einge-setzt werden kann. Beispiele sind Projektraumanwendungen sowie Workflow-Management-Systeme. Es ist zugleich ein Referenzvorschlag an die Entwickler bestehender Anwendungen zur Definition von Schnittstellen und schließlich zur Umsetzung applikationsübergreifender Integrationsansätze. N2 - Public financed construction projects require an intensive collaboration between a large number of involved parties: the project management (done by the building authority), the demand carrier (for example a university or authority), the builder-owner’s panel (local, city or county council, parliament), its financial department, the architect, planners and designers (as freelancers or employees of the building authority), assessors, construction companies, suppliers and service providers, autho¬rities for comprehensive regional planning and planning approval. Usually, the process of planning, its approval and realization takes several years. Mean-while, a close exchange of information between these involved parties is essential. Construction plans, specifications sheets, offers, treaties, minutes, time schedules and invoices are still forwarded by e-mail or as hardcopy. The results are over-crowded inboxes and an impaired overview of project data, because most parties are involved in multiple complex projects. For finishing a construction project in time and at estimated cost frictionless coor-dination and all-time availability of current data are essential, especially because of the high-level interdependency of all sub processes. In large commercial con-struction projects this is countenanced by virtual project rooms already, but au-thorities still tarry. They should step on and take advantage of a central database. The creation of a standardised and cross-process data model is useful especially for processes of public sector. The advantages of central data, accessible for all authorised parties, are forcing all participants of a construction project to integrate formerly separated databases into one (data integration). An in-depth analysis of the information flow during the whole process of a public construction project as well as an examination of the currently available virtual project room solutions in the first part of the dissertation are providing the foundation for data modelling in the second part. The created overall view of involved parties, their roles and tasks, the documents and its meta data throughout the entire process and for all construction areas is unique and a new scientific approach. The dissertation kept the different structur-al designations of underground engineering and high-building projects to ensure understanding but includes a common framework model. The created model is the precondition for an improved IT support of public construction projects, and being the mediator bet¬ween clients and developers is the classical task for business in-formatics. The model created in this dissertation isn’t fitted to a special construction field neither to a specific local, city or county. Therefore, it can be used as a reference model in standard application software. Being implemented as the foundation for such a software it would only take adaption work to be applied at many public customers, for instance in project rooms solutions or workflow management sys-tems. The data framework is a recommendation, a reference model to developers for the implementation of interfaces for existing applications, and can foster cross-application integration. KW - Bauvorhaben KW - Datenintegration KW - Öffentliche Bauprojekte KW - Öffentlicher Sektor KW - Datenmanagement KW - Bauprojekt Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-138611 ER - TY - THES A1 - Maier, Nina T1 - Die Regelungen zur Gesellschafter-Fremdfinanzierung im internationalen Vergleich T1 - A comparison of international Thin Capitalization Rules N2 - Die Gesellschafter-Fremdfinanzierung wird sowohl in Deutschland also auch europaweit sowie international zunehmend restriktiv geregelt mit der Folge, dass die steuerlichen Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules) die Finanzierungsentscheidung multinationaler Konzerne in immer stärkerem Maße beeinflussen. Dabei belegt die internationale Diskussion zu den Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules), dass weltweit Regelungsbedarf gesehen wird. Steigenden Einfluss auf das Steuerrecht der Mitgliedstaaten gewinnt dabei insbesondere die Rechtsprechung des EuGH. So war nicht zuletzt die Rechtsprechung in der Rechtssache Lankhorst-Hohorst, deren Befassungsgegenstand auf die unterschiedliche Behandlung einer Tochtergesellschaft je nach Sitz der Muttergesellschaft abzielt, entscheidend für die Neukonzeption der Regelungen in Deutschland und verschiedenen anderen Mitgliedstaaten. Diese Regelungen stoßen jedoch weiterhin sowohl in Deutschland als auch international auf scharfe Kritik. Neben europarechtlichen Grundsätzen setzt die Kritik an allgemeinen Grundsätzen des deutschen Steuerrechts und an abkommensrechtlichen Grundsätzen an. Ziel der vorliegenden Dissertation ist es, die verschiedenen internationalen Regelungen zur Problematik der Gesellschafter-Fremdfinanzierung typisierend zu erfassen und nach den relevanten Grundsätzen zu würdigen. In Anbetracht der restriktiven Rechtsprechung des EuGH wird das Hauptaugenmerk auf europarechtliche Tatbestandsvoraussetzungen gerichtet, jedoch finden auch die Vorgaben des deutschen Steuerrechts sowie des Abkommensrechts Beachtung. Den Abschluss findet die Untersuchung in einer Darstellung und Würdigung verschiedener Reformüberlegungen zur Ausgestaltung der Regelungen zur Gesellschafter-Fremdfinanzierung und der Ausarbeitung eines Lösungsvorschlags, der weitgehend die verschiedenen Ebenen der Kritik anspricht und mit dem Regelungszweck vereint. Dieser Lösungsvorschlag wird abschließend auf den Prüfstein der verschiedenen steuerlichen, europarechtlichen und abkommensrechtlichen Grundsätze gestellt. N2 - Germany aswell as many other countries introduced Thin Capitalization Rules in order to prevent increasing shareholder debt financing. However, these Rules are frequently criticized. Following a ruling rendered by the European Court of Justice on December 2002, many countries had to provide for a new concept for Shareholder debt financing. However, International Thin Capitalization Rules still are in conflict with European law, treaty law and national law. The author analysed the present Thin Capitalization Rules in Europe and the USA and provided a solution. KW - Gesellschafterfremdfinanzierung KW - Steuerrecht KW - Rechtsvergleich KW - Gesellschafter-Fremdfinanzierung KW - Thin Capitalization KW - Eigenkapital KW - Fremdkapital KW - Unterkapitalisierung KW - Thin Capitalization Rules KW - Equity Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19161 ER - TY - THES A1 - Lücking, Thomas T1 - Acquisition Behavior in High-Technology Industries – The Role of Product Diversification, Technological Change, and IP Protection T1 - Akquisitionsverhalten in Hochtechnologiebranchen – Die Rolle von Produktdiversifikation, technologischem Wandel und dem Schutz von geistigem Eigentum N2 - Frequent acquisition activities in high-technology industries are due to the intense competition, driven by short product life cycles, more complex products/services and prevalent network effects. This dissertation theoretically analyzes the circumstances leading to technology-driven acquisitions and empirically tests these within a clearly defined market scenario. N2 - Die zahlreichen Unternehmensakquisitionen in Hochtechnologiebranchen sind einem intensiven Wettbewerb geschuldet, der durch immer kürzere Produktlebenszyklen, komplexere Produktdesigns und extreme Netzwerkeffekte geprägt ist. Die vorliegende Forschungsarbeit hat zum Ziel, die genauen Umstände, die zu technologiegetriebenen Akquisitionen führen, in Form von relevanten erklärenden Einflussfaktoren theoretisch herzuleiten und empirisch zu untersuchen. KW - Mergers and Acquisitions KW - Technologieunternehmen KW - Hochtechnologie KW - Unternehmensakquisition KW - Produktdiversifikation KW - High-technology KW - acquisition behavior KW - product diversification KW - strategic management KW - organizational science KW - Spitzentechnologie KW - Strategisches Management KW - Organisationstheorie Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-85065 ER - TY - JOUR A1 - Leimeister, Jan Marco A1 - Stieglitz, Stefan A1 - Matzner, Martin A1 - Kundisch, Dennis A1 - Flath, Christoph A1 - Röglinger, Maximilian T1 - Quo Vadis Conferences in the Business and Information Systems Engineering (BISE) Community After Covid BT - What Can Stay, What Should Go, What Do We Need to Change for Our Future Scientific Conferences? JF - Business & Information Systems Engineering KW - IT in Business KW - business and management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-308902 SN - 2363-7005 SN - 1867-0202 VL - 63 IS - 6 ER - TY - THES A1 - Leidner, Jacob Justus T1 - Empirical Studies on Auditing in Germany and the U.S. T1 - Empirische Studien im Bereich Wirtschaftsprüfung in Deutschland und den USA N2 - Chapter 2 concerns the audit market for German credit institutions (excluding savings banks and cooperative banks), and the presented study allows conclusions to be drawn regarding recent concentration levels of this particular audit market. The last reliable (statistical) studies concerning the audit market for German credit institutions were published several years ago (Grothe 2005; Lenz 1996b; Lenz 1997; Lenz 1998). This is surprising because parts of the new regulations concerning the audit market for public-interest entities—which should also apply to credit institutions (European Commission 2006c)—in Europe would require analyses of the audit market concentration to be performed on a regular basis. Therefore, this study begins to fill this research gap, and it reveals that the audit market for German credit institutions was highly concentrated (market leadership: KPMG AG WPG and PricewaterhouseCoopers AG WPG) in 2006 and 2010. Moreover, the findings also highlight that between these years, neither a notable trend toward higher levels of concentration nor a deconcentration process was evident. Finally, it is illustrated that the regulatory requirements for publishing audit fees and the corresponding right to claim exemption (§§ 285 Sentence 1 No. 17, 314 (1) No. 9 Commercial Code) do not allow the calculation of concentration figures that cover the entire audit market for credit institutions. Thus, it will continue to be necessary to use surrogates for audit fees, and analyses reveal that the arithmetic mean of the total business volume (or total assets) of a credit institution and its square root is a very good surrogate for calculating concentration measures based on audit fees. Chapter 3 seeks to determine whether public oversight of public-interest entities (PIEs) increases audit fees specifically in the financial industry, which is already a highly regulated industry characterized by intense supervision. To answer this question, a sample of 573 German credit institutions is examined over the 2009–2011 period, as not all credit institutions were considered PIEs in Germany (until very recently). First, the results show that a credit institution’s business risk is related to audit fees. In addition, the findings reveal not only that PIE credit institutions pay statistically significantly higher audit fees but also that this effect is economically substantial (representing an audit fee increase of 31.38%). Finally, there are several indications that the relationship between (other) credit institutions’ business risks and audit fees is greater for PIE credit institutions. Chapter 4 examines the association between the results of auditor ratification votes and perceived external financial reporting quality. As has been recently remarked by Wei et al. (2015), far too little is known about shareholders’ interests in and perceptions of the election, approval or ratification of auditors. Although auditor ratification by shareholders is normally a routine, non-binding action and the voting ratios are in the range of 95% or higher, the SEC emphasized the importance of this process by amending the disclosure requirements for such voting results in 2010 (SEC 2009; SEC 2010). This study demonstrates that the results of auditor ratification votes are associated with market reactions to earnings surprises (SEC registrants; 2010 to 2013). Moreover, there are moderate indications that this effect may be positively related to higher levels of information asymmetry between managers and shareholders, that such voting results contain incremental informational content beyond that of other publicly available audit-related information, and that the time lag between the ratification of an auditor and the earnings announcement influences the vote’s importance. Finally, the study sheds additional light on an overlooked audit-related topic (e.g., Dao et al. 2012; Hermanson et al. 2009; Krishnan and Ye 2005; Sainty et al. 2002), and illustrates its relation to accounting. More importantly, the provided evidence indicates that disclosure of the results of auditor ratification votes might benefit (prospective) shareholders. Chapter 5 addresses the question of whether and when shareholders may have a negative perception of an auditor’s economic dependence on the client. The results for a Big 4 client sample in the U.S. (2010 to 2014) show that the economic importance of the client—measured at the audit office-level—is negatively associated with shareholders’ perceptions of external financial reporting quality—measured in terms of the earnings response coefficient and the ex ante cost of equity capital—and, therefore, is perceived as a threat to auditor independence. Moreover, the study reveals that shareholders primarily regard independence due to client dependence as a problem for firms that are more likely to be in financially distressed conditions. N2 - Kapitel 2 analysiert den Markt für Abschlussprüferleistungen von deutschen Kreditinstituten (exklusive Sparkassen und Genossenschaften). Derartige Konzentrationsanalysen würden gemäß der Reform des europäischen Abschlussprüfermarktes auch für diesen Markt erforderlich. Aussagekräftige Studien dazu liegen zuletzt für die Jahre bis 2000 vor. Die empirische Untersuchung zeigt, dass der Markt für Abschlussprüferleistungen von deutschen Kreditinstituten hoch konzentriert ist und die Tendenz zu einer duopolistischen Struktur aufweist. Marktführende Anbieter sind die KPMG AG WPG und die PricewaterhouseCoopers AG WPG. Die Ergebnisse offenbaren zudem, dass zwischen den Jahren 2006 und 2010 weder Markteintritte oder -austritte von Abschlussprüfern, noch unterschiedliches Wachstum von Wirtschaftsprüfungsgesellschaften die Marktstruktur veränderten. Die Studie zeigt auch, dass neben den Abschlussprüferhonoraren spezielle Surrogate (wie das Geschäftsvolumen eines Kreditinstitutes) die Konzentration sehr gut abbilden. Dies ist von Interesse, da aufgrund der regulatorischen Anforderungen nicht alle Kreditinstitute ihre Abschlussprüferhonorare im Jahresabschluss offenlegen müssen und damit eine Konzentrationsanalyse mit Hilfe von Surrogaten unter Umständen erforderlich ist. Kapitel 3 geht der Frage nach, ob die zusätzliche Aufsicht von Unternehmen von öffentlichem Interesse (z. B. Enforcement-Verfahren durch die Deutsche Prüfstelle für Rechnungslegung oder anlassunabhängige Sonderuntersuchungen durch die Abschlussprüferaufsichtskommission) Abschlussprüferhonorare determiniert. Hierzu werden deutsche Kreditinstitute betrachtet (2009 bis 2011), da aufgrund besonderer regulatorischer Gegebenheiten nicht alle Kreditinstitute als Unternehmen von öffentlichem Interesse gelten. Die empirischen Ergebnisse weisen zunächst daraufhin, dass divergierende Geschäftsrisiken von Kreditinstituten Unterschiede in der Höhe der Abschlussprüferhonorare erklären können. Darüber hinaus zahlen Kreditinstitute, die als Unternehmen von öffentlichem Interesse gelten, nicht nur statistisch signifikant höhere Abschlussprüferhonorare, sondern dieser Effekt scheint auch einen ökonomisch bemerkenswerten Einfluss zu haben – einen Anstieg durchschnittlicher Abschlussprüferhonorare um 31.38%. Es gibt weiterhin einige empirische Hinweise, dass Abschlussprüfer Geschäftsrisiken von Kreditinstitute, die als Unternehmen von öffentlichem Interesse gelten, stärker in ihre Honorare einpreisen. Kapitel 4 befasst sich mit U.S.-amerikanischen gelisteten Unternehmen (2010 bis 2013), die eine Ratifizierung des Abschlussprüfers durch Aktionäre durchführen. Im Speziellen mag es diskussionswürdig sein, ob die Pflichtveröffentlichung des Ergebnisses der Ratifizierung des Abschlussprüfers für Aktionäre eine entscheidungsnützliche Information darstellt und damit für deren Investitionsentscheidungen hilfreich sein könnte. Die Studie kann einen empirischen Zusammenhang zwischen der Höhe der Zustimmung der Aktionäre zum Abschlussprüfer und der wahrgenommenen Rechnungslegungsqualität am Tag der Gewinnbekanntmachung feststellen. Zudem scheint es auch, dass diese empirisch gemessene Assoziation von der Ausprägung der Informationsasymmetrie zwischen dem Unternehmensmanagement und den Aktionären determiniert wird. Die Ergebnisse dieser Studie deuten in Summe darauf hin, dass die Veröffentlichung der Wahlergebnisse zur Ratifizierung von Abschlussprüfern eine entscheidungsnützliche Information für (zukünftige) Aktionäre darstellen könnte. Dies ist vor allem vor dem Hintergrund bedeutend, dass die Abstimmungsergebnisse oft nur gering variieren und diese Wahl eine Routineangelegenheit darstellt, freiwillig und nicht bindend ist. Kapitel 5 setzt sich mit der finanziellen Abhängigkeit eines Wirtschaftsprüfers von seinen Mandanten und der von den Aktionären wahrgenommenen Qualität der Rechnungslegung auseinander. Die zugrundeliegende Theorie nimmt an, dass die zukünftig erzielbaren Quasirenten bei wirtschaftlich bedeutenden Mandanten zu einer finanziellen Abhängigkeit des Wirtschaftsprüfers führen und durch diese Beeinträchtigung der Unabhängigkeit die (wahrgenommene) Prüfungsqualität und damit die (wahrgenommene) Rechnungslegungsqualität sinken. Die Ergebnisse der empirischen Untersuchung U.S.-amerikanischer Unternehmen (2010 bis 2014) legen nahe, dass Aktionäre eine hohe wirtschaftliche Bedeutung eines Mandanten als Bedrohung für die Unabhängigkeit des Wirtschaftsprüfers und damit der Qualität der geprüften Rechnungslegung wahrnehmen. Weitere Analysen offenbaren, dass dieser empirische Effekt insbesondere für Mandanten zu beobachten ist, welche sich in einer eher schlechten finanziellen Lage befinden. Die Ergebnisse der Studie weisen somit darauf hin, dass Unternehmenscharakteristika oder das Unternehmensumfeld die Beurteilung einer möglichen Gefährdung der Unabhängigkeit des Wirtschaftsprüfers beeinflussen dürften. KW - Deutschland KW - Wirtschaftsprüfer KW - audit fees KW - auditor independence KW - perceived external financial reporting quality KW - Unabhängigkeit KW - Rechtsvergleich KW - USA KW - Rechnungswesen KW - Abschlussprüfung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-143901 ER - TY - THES A1 - Lauton, Felix T1 - Three Essays on the Procurement of Essential Medicines in Developing Countries T1 - Drei Aufsätze zur Beschaffung unentbehrlicher Medikamente in Entwicklungsländern N2 - The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems. N2 - Der erste Teil, welcher eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik entstanden ist, ist durch eine Studie motiviert, die Entscheidungsträgern zweier Einkaufsorganisationen beim Einkauf von Depot Medroxyprogesterone Acetate (DMPA), einem länger wirkenden Verhütungsmittel, unterstützen sollte. Zum Zeitpunkt der Studie stand den Organisationen nur ein qualifizierter Lieferant zur Verfügung. Ein zweiter Zulieferer stand kurz vor der Zulassung. Ziel der Arbeit war es den Mehrwert des neuen Lieferanten zu quantifizieren und die optimale Aufteilung der Bestellmengen zwischen beiden Lieferanten zu ermitteln. Hierbei spielt die Abwägung von Preisen (getrieben durch den Wettbewerb zwischen beiden Lieferanten) und Risiko (getrieben durch unsichere Lieferzeiten und Ausfallwahrscheinlichkeiten) eine entscheidende Rolle. In unserer Arbeit zeigen wir wie sich die optimale Aufteilung anhand diverser Parameter, wie Lieferzuverlässigkeit, Kosten und Kapazität, verändert, und untersuchen die Abwägungsentscheidung zwischen Wettbewerb und Risiken. Im zweiten Teil, der ebenfalls eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik ist, untersuchen wir einen innovativen Einkaufsmechanismus den wir "Postponement Tender" nennen. Das zugrundeliegende Problem ist das eines Einkäufers, welcher mit der unsicheren Qualität eines neuen Lieferanten konfrontiert ist, und der daraus resultierenden Allokationsentscheidung zwischen bestehendem und neuen Lieferanten. Anstatt alles auf einmal zu vergeben, kann der Einkäufer auch zuerst einen Teil des Volumens an beide Lieferanten vergeben, um die unsichere Qualität des neuen Lieferanten besser einzuschätzen. Nachdem die Lieferanten die ersten Volumina geliefert haben kann der Einkäufer die Qualität der Lieferanten besser beurteilen und kauft dann die nachgelagerte Menge vom besseren Lieferanten. Da die Lieferanten bereits zu Beginn Preise festlegen müssen, kann der Einkäufer durch diesen Mechanismus sowohl durch verbesserten Wettbewerb profitieren als auch von einem niedrigeren Qualitätsrisiko, da er dabei etwas über die Qualität der Lieferanten lernt. Wir zeigen in einer detaillierten Analyse wie, abhängig von Einkaufs- und Wettbewerbssituation, die Aufteilung zwischen dem ersten und dem zweiten Teil erfolgen sollte und unter welchen Bedingungen der "Postponement Tender" besser als eine klassische Einzelquellenbeschaffung ist. Der dritte Teil ist durch den Business Case kenianischer Apotheken motiviert: diese können durch die Koordination von Bestellungen niedrigere Einkaufspreise aufgrund von Mengenrabatten bei Lieferanten erzielen sowie fixe Bestellkosten wie Logistikkosten teilen. Aufgrund einer Vielzahl von Produkten ist diese Koordination allerdings sehr komplex und mit einem hohen Aufwand sowie Kosten verbunden. Um diese Hürde zu überwinden entwickle ich eine neue, datengetriebene Bestellpolitik für mehrperiodische Bestandsmanagementprobleme mit mehreren Produkten und Skaleneffekten in fixen sowie variablen Bestellkosten. Die entwickelte Politik beruht auf den Prinzipien von Erneuerungstheorie und Sample Average Approximation. Des Weiteren analysiere ich die Performance dieser Politik anhand realer Daten aus dem zugrundeliegenden Business Case. In einer ersten Auswertung zeigt sich, dass die resultierenden Kosten nah an denen der theoretisch optimalen Bestellpolitik liegen. Weiter wird gezeigt, dass sich das Verhältnis zu ex-post optimalen Kosten in Szenarien, in denen es keine theoretisch optimale Bestellpolitik gibt (mehrere Produkte und Mengenrabatte) im selben Rahmen befindet wie in Szenarien mit optimaler Bestellpolitik. Insgesamt zeigt der entwickelte Ansatz viel Potential für die Lösung komplexer Bestandsplanungsprobleme. KW - Entwicklungsländer KW - Beschaffung KW - Gesundheitswesen KW - Global Health KW - Procurement KW - Supply Chain KW - Data Driven Operations KW - Supply Chain Management KW - Einkauf KW - Modellierung KW - Operations Management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220631 ER - TY - THES A1 - Kämmerer, Christian T1 - Fehlmengenkosten in der Distributionslogistik: Analyse und Modellierung aus Sicht der Investitionsgüterindustrie T1 - Out-of-Stock Costs in Distributions Logistics: Analysis and Modeling from the Perspective of the Industrial Goods Industry N2 - In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen. N2 - In scientific discussion as well as on company levels, out-of-stock costs are often ignored in case of inadequate delivery capacity, with reference to an enormous and thus uneconomical analysis effort. Instead, safety stocks are often defined which are designed to cushion possible demand peaks on manufacturer's side without sufficient consideration of customer requirements and integrated model approaches. If modeling is carried out in quantitative approaches of stochastic inventory models, important parameter from an industrial goods manufacturer point of view are often missing or insufficiently modeled. The present thesis aims to elucidate out-of-stock costs on one hand and inventory costs on the other, and to establish a fundamental relationship with each other. Both cost pools are analyzed with its largest possible granularity into a distributive-logistic model, so that determinants, hierarchies and interactions are brought into a post-executable overall context. For this purpose, relevant distribution models for stochastic demand are examined and analyzed for their relevance for the problem definition of this paper. It was found that neither the different cost types of finished goods were adequately identified nor the different manifestations of out-of-stock costs were shown. Against this background, it emerges that existing models and sample calculations must be classified as largely unsuitable in their implementation to a problem in the operational practice. In the sense of value-oriented inventory management, particular attention is paid to the fact that customer-oriented strategies with regard to a service level to be defined are determined in such a way that no isolated consideration of inventory costs on one side and out-of-stock costs on the other side are undertaken. It gives a clearer picture that unilateral inventory reductions inevitably lead to increased out-of-stock costs to a defined extent. This situation may have a negative impact on the ability to deliver over a longer period of time so that demand behavior is sustainably damaged and, in extreme cases, leads to a churning behavior of the customers. By modifying some important premises and model parameters, which take particular account of the characteristics of industrial goods industry, a dynamic decision-making model was developed in which a useful symbiosis between theoretical knowledge and practical problem-solving could be established. Thus, this thesis makes an important contribution to largely disregard the discussion focused on pure inventory reductions without an adequate model approach and to put it on a factual, quantitative basis. KW - Fehlmengenkosten KW - Investitionsgüterindustrie KW - Bestandsmanagement KW - Out-of-Stock Costs KW - Modelle KW - Inventory Costs KW - Service Level KW - Inventory Management KW - Modeling KW - Bestandskosten KW - Lieferbereitschaftsgrad Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-143013 ER - TY - THES A1 - Kurz, Julian Frederick T1 - Capacity Planning and Control with Advanced Information T1 - Kapazitätsplanung und -steuerung mit zukünftigen Informationen N2 - Die Dissertation „Capacity Planning and Control with Advanced Information“ besteht aus drei inhaltlich abgeschlossenen Teilen, die ein übergeordnetes Thema zur Grundlage haben: Wie können Daten über zukünftige Bedarfe zur Kapazitätsplanung und -steuerung genutzt werden? Im Rahmen von Industrie 4.0 werden zunehmend Daten erzeugt und für prädikative Analysen genutzt. Zum Beispiel werden Flugzeugtriebwerke mit Sensoren ausgestattet, die verschiedene Parameter in Echtzeit ermitteln und übertragen. In Kombination mit Flugplänen können diese Daten, unter Einsatz geeigneter Machine Learning Algorithmen, zur Vorhersage des Zeitpunkts der nächsten Wartung und des Wartungsbedarfs genutzt werden. In dieser Arbeit werden diese Vorhersagedaten zur optimalen Planung und Steuerung der Kapazität eines MRO (Maintenance, Repair and Overhaul) Dienstleisters genutzt. Im ersten Artikel, ”Capacity Planning for a Maintenance Service Provider with Advanced Information”, wird die aus mehreren Stationen bestehende Produktionsstätte des MRO Dienstleisters mit Hilfe eines Netzwerks aus GI/G/1 Warteschlagen beschrieben. Durch Lösung eines Optimierungsproblems werden die Kapazitäten der einzelnen Stationen so ermittelt, dass Kapazitäts- und Strafkosten für eine zu lange Durchlaufzeit minimiert werden. Darüberhinaus wird untersucht, wie Vorhersagedaten bezüglich des Eintreffens und Wartungsaufwands zukünftiger Aufträge genutzt werden können, um die Gesamtkosten zu reduzieren. Der Artikel ”Flexible Capacity Management with Future Information” nutzt Informationen hinsichtlich zukünftigerWartungsbedarfe für die Steuerung einer flexiblen Kapazität. Die Produktionsstätte des MRO Dienstleisters wird als M/M/1 Warteschlange beschrieben, die zwischen einer Basiskapazität und einer erhöhten Kapazität wechseln kann. Allerdings kann die hohe Kapazität nur einen definierten Zeitanteil genutzt werden. In dem Artikel werden Politiken entwickelt, welche die erwartete Warteschlangenläge minimieren, falls keine Informationen bezüglich des Eintreffens zukünftiger Aufträge verfügbar sind beziehungsweise alle Informationen in einem unendlich langen Zeitfenster vorliegen. Es zeigt sich, dass die erwartete Warteschlangenlänge drastisch reduziert werden kann, falls Informationen über zukünftige Bedarfe genutzt werden können. Im dritten Artikel, ”Queueing with Limited Future Information”, wird neben der Steuerung einer flexiblen Kapazität auch die Zulassungskontrolle behandelt: Welche Aufträge sollten umgeleitet werden, zum Beispiel an einen Subdienstleister, falls ein definierter Anteil aller ankommenden Triebwerke nicht angenommen werden muss? Es werden Politiken zur Steuerung der flexiblen Kapazität und für die Zulassungskontrolle entwickelt, die zukünftige Informationen in verschieden langen Zeitfenstern berücksichtigen: keine Informationen, endlich und unendlich lange Zeitfenster. Numerische Analysen zeigen, dass die Berücksichtigung von Informationen über die Zukunft im Vergleich zu reaktiven Politiken zu einer Verringerung der mittleren Warteschlangenlänge führt. Andererseits wird ersichtlich, dass die Nutzung von kürzeren Zeitfenstern unter bestimmten Umständen vorteilhaft sein kann. Den inhaltlichen Rahmen der Dissertation bilden die Einleitung im ersten Kapitel sowie ein Ausblick in Kapitel 5. Beweise werden im Anhang zusammengefasst. N2 - The dissertation aims at investigating how information about jobs arriving to a service facility in the future can be used for capacity planning and control. Nowadays, technical equipment such as aircraft engines are equipped with sensors transferring condition data to central data warehouses in real-time. By jointly analyzing condition data and future usage information with machine learning algorithms, future equipment conditions and maintenance requirements can be forecasted. In the thesis, information regarding the arrival times of aircraft engine at a maintenance facility and the corresponding service requirements are used in order to optimally plan and control the flexible capacity of the facility. Queueing models are developed and analyzed to optimally size and control the facility's capacity and determine the implications on cost and job waiting time. It is demonstrated analytically and numerically that cost and waiting time can be reduced significantly when future information is available. KW - queueing KW - future information KW - capacity control Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154097 ER -