@phdthesis{Zidorn2012, author = {Zidorn, Wilfried}, title = {Alliances and R\&D activites in the Biotechnology Industry}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-75483}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {This dissertation is divided into three studies by addressing the following constitutive research questions in the context of the biotechnology industry: (1) How do different types of inter-firm alliances influence a firm's R\&D activity? (2) How does an increasing number and diversity of alliances in a firm's alliance portfolio affect its R\&D activity? (3) What is the optimal balance between exploration and exploitation? (1) To answer these research questions the first main chapter analyzes the impact of different types of alliances on the R\&D activities of successful firms in the biotechnology industry. Following the use of a new approach to measuring changes in research activities, the results show that alliances are used to specialize in a certain research field, rather than to enter a completely new market. This effect becomes smaller when the equity involvement of the partners in the alliance project increases. (2) The second main chapter analyzes the impact on innovation output of having heterogeneous partners in a biotechnology firm's alliance portfolio. Previous literature has stressed that investment in the heterogeneity of partners in an alliance portfolio is more important than merely engaging in multiple collaborative agreements. The analysis of a unique panel dataset of 20 biotechnology firms and their 8,602 alliances suggests that engaging in many alliances generally has a positive influence on a firm's innovation output. Furthermore, maintaining diverse alliance portfolios has an inverted U-shaped influence on a firm's innovation output, as managerial costs and complexity levels become too high. (3) And the third main chapter investigates whether there is an optimal balance to be found between explorative and exploitative innovation strategies. Previous literature states that firms that are ambidextrous (i.e., able to focus on exploration and exploitation simultaneously) tend to be more successful. Using a unique panel dataset of 20 leading biotechnology firms and separating their explorative and exploitative research, the chapter suggests that firms seeking to increase their innovation output should avoid imbalances between their explorative and exploitative innovation strategies. Furthermore, an inverted U-shaped relationship between a firm's relative research attention on exploration and its innovation output is found. This dissertation concludes with the results of the dissertation, combines the findings, gives managerial implications and proposes areas for potential further research.}, subject = {Biotechnologische Industrie}, language = {en} } @phdthesis{YazdaniRashvanlouei2017, author = {Yazdani Rashvanlouei, Kourosh}, title = {Developing a Framework for International Projects of ERP Implementation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-154000}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {Enterprise Systeme werden immer mehr von Bedeutung, was sie in die Mitte der Aufmerksamkeit und der Ber{\"u}cksichtigung durch Organisationen in verschiedensten Formen r{\"u}ckt - seien es Unternehmen oder Industrien von riesigen {\"o}ffentlichen oder privaten Organisationen bis hin zu mittleren und kleinen Dienstleistungsunternehmen. Diese Systeme verbessern sich st{\"a}ndig, sowohl funktionell, als auch technologisch und sie sind unumg{\"a}nglich f{\"u}r Unternehmen, um ihre Produktivit{\"a}t zu vergr{\"o}ßern und um in dem nationalen und globalen Wettbewerb mitzuhalten. Da lokale Softwarel{\"o}sungen die Bedingungen, speziell von großen Betrieben, funktionell und technologisch nicht erf{\"u}llen konnten und da riesige globale Softwarehersteller, wie SAP, Oracle und Microsoft ihre L{\"o}sungen rapide verbessern und sie ihren Markt immer mehr {\"u}ber den Globus expandieren, nimmt die Nachfrage f{\"u}r diese globalen Marken und deren nahezu einwandfreien Softwarel{\"o}sungen t{\"a}glich zu. Die Zustimmung f{\"u}r internationale ERP Unternehmensberatungsanwendungen nimmt deswegen exponentiell zu, w{\"a}hrend die Forschung der beeinflussenden Faktoren und des Fachwissens wenig verbreitet ist. Deswegen ist es so dringlich, dieses Gebiet zu erforschen. Das schlussendliche f{\"u}nf-in-f{\"u}nf Framework dieser Studie sammelt zum ersten Mal in der Geschichte alle historisch erw{\"a}hnten, kritischen Erfolgsfaktoren und Projektaktivit{\"a}ten. Diese wurden in f{\"u}nf Phasen unterteilt und nach den f{\"u}nf Schwerpunkten der internationalen ERP Projektdurchf{\"u}hrung kategorisiert. Dieses Framework bietet einen {\"U}berblick und bildet einen umfassenden Fahrplan f{\"u}r solche Projekte.}, subject = {ERP}, language = {en} } @phdthesis{Woetzel2019, author = {W{\"o}tzel, Dagmar}, title = {Wirksame Umsetzung strategischer Entscheidungen in profitorientierten Unternehmen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-176243}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Die Logik der bisher erforschten und beschriebenen Management- und F{\"u}hrungstheorien m{\"u}ssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die urspr{\"u}ngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realit{\"a}t von disruptiven Ver{\"a}nderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous). Die Arbeit ist mutig und wertvoll, weil sie die L{\"u}cke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, F{\"u}hrungs- und Organisationswissenschaften offenlegt und zu schließen hilft. Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage r{\"u}ckw{\"a}rts gerichtet die Realit{\"a}t des 20. Jahrhunderts adressiert und f{\"u}r das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet. Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsf{\"a}hige Organisationen entwickelt und gepflegt werden k{\"o}nnen. Solche Organisationen {\"u}berleben disruptive Ver{\"a}nderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbed{\"u}rfnisse und in der internen Organisation zu finden. Diese anpassungsf{\"a}hige oder adaptive Organisation hat f{\"u}nf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztg{\"u}ltige Antwort gibt welche Methoden sich durchsetzen werden. Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsf{\"a}higkeit weiter zu entwickeln. Die gr{\"u}ndliche Diskussion einer F{\"u}lle von konzeptionellen Ans{\"a}tzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.}, language = {de} } @phdthesis{Wirth2018, author = {Wirth, Marco Andreas Alwin}, title = {Additive Fertigung: Technologie, Markt und Innovation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-155970}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Additive Fertigung - oftmals plakativ „3D-Druck" genannt - bezeichnet eine Fertigungstechnologie, die die Herstellung physischer Gegenst{\"a}nde auf Basis digitaler, dreidimensionaler Modelle erm{\"o}glicht. Das grundlegende Funktionsprinzip und die Gemeinsamkeit aller additiven bzw. generativen Fertigungsverfahren ist die schichtweise Erzeugung des Objekts. Zu den wesentlichen Vorteilen der Technologie geh{\"o}rt die Designfreiheit, die die Integration komplexer Geometrien erlaubt. Aufgrund der zunehmenden Verf{\"u}gbarkeit kosteng{\"u}nstiger Ger{\"a}te f{\"u}r den Heimgebrauch und der wachsenden Marktpr{\"a}senz von Druckdienstleistern steht die Technologie erstmals Endkunden in einer Art und Weise zur Verf{\"u}gung wie es vormals, aufgrund hoher Kosten, lediglich großen Konzernen vorbehalten war. Infolgedessen ist die additive Fertigung vermehrt in den Fokus der breiten {\"O}ffentlichkeit geraten. Jedoch haben sich Wissenschaft und Forschung bisher vor allem mit Verfahrens- und Materialfragen befasst. Insbesondere Fragestellungen zu wirtschaftlichen und gesellschaftlichen Auswirkungen haben hingegen kaum Beachtung gefunden. Aus diesem Grund untersucht die vorliegende Dissertation die vielf{\"a}ltigen Implikationen und Auswirkungen der Technologie. Zun{\"a}chst werden Grundlagen der Fertigungstechnologie erl{\"a}utert, die f{\"u}r das Verst{\"a}ndnis der Arbeit eine zentrale Rolle spielen. Neben dem elementaren Funktionsprinzip der Technologie werden relevante Begrifflichkeiten aus dem Kontext der additiven Fertigung vorgestellt und zueinander in Beziehung gesetzt. Im weiteren Verlauf werden dann Entwicklung und Akteure der Wertsch{\"o}pfungskette der additiven Fertigung skizziert. Anschließend werden diverse Gesch{\"a}ftsmodelle im Kontext der additiven Fertigung systematisch visualisiert und erl{\"a}utert. Ein weiterer wichtiger Aspekt sind die zu erwartenden wirtschaftlichen Potentiale, die sich aus einer Reihe technischer Charakteristika ableiten lassen. Festgehalten werden kann, dass der Gestaltungsspielraum von Fertigungssystemen hinsichtlich Komplexit{\"a}t, Effizienzsteigerung und Variantenvielfalt erweitert wird. Die gewonnenen Erkenntnisse werden außerdem genutzt, um zwei Vertreter der Branche exemplarisch mithilfe von Fallstudien zu analysieren. Eines der untersuchten Fallbeispiele ist die popul{\"a}re Online-Plattform und -Community Thingiverse, die das Ver{\"o}ffentlichen, Teilen und Remixen einer Vielzahl von druckbaren digitalen 3D-Modellen erm{\"o}glicht. Das Remixen, urspr{\"u}nglich bekannt aus der Musikwelt, wird im Zuge des Aufkommens offener Online-Plattformen heute beim Entwurf beliebiger physischer Dinge eingesetzt. Trotz der unverkennbaren Bedeutung sowohl f{\"u}r die Quantit{\"a}t als auch f{\"u}r die Qualit{\"a}t der Innovationen auf diesen Plattformen, ist {\"u}ber den Prozess des Remixens und die Faktoren, die diese beeinflussen, wenig bekannt. Aus diesem Grund werden die Remix-Aktivit{\"a}ten der Plattform explorativ analysiert. Auf Grundlage der Ergebnisse der Untersuchung werden f{\"u}nf Thesen sowie praxisbezogene Empfehlungen bzw. Implikationen formuliert. Im Vordergrund der Analyse stehen die Rolle von Remixen in Design-Communities, verschiedene Muster im Prozess des Remixens, Funktionalit{\"a}ten der Plattform, die das Remixen f{\"o}rdern und das Profil der remixenden Nutzerschaft. Aufgrund entt{\"a}uschter Erwartungen an den 3D-Druck im Heimgebrauch wurde dieser demokratischen Form der Produktion kaum Beachtung geschenkt. Richtet man den Fokus jedoch nicht auf die Technik, sondern die Hobbyisten selbst, lassen sich neue Einblicke in die zugrunde liegenden Innovationsprozesse gewinnen. Die Ergebnisse einer qualitativen Studie mit {\"u}ber 75 Designern zeigen unter anderem, dass Designer das Konzept des Remixens bereits verinnerlicht haben und dieses {\"u}ber die Plattform hinaus in verschiedenen Kontexten einsetzen. Ein weiterer Beitrag, der die bisherige Theorie zu Innovationsprozessen erweitert, ist die Identifikation und Beschreibung von sechs unterschiedlichen Remix-Prozessen, die sich anhand der Merkmale F{\"a}higkeiten, Ausl{\"o}ser und Motivation unterscheiden lassen.}, subject = {Rapid Prototyping }, language = {de} } @techreport{Winkelmann2015, type = {Working Paper}, author = {Winkelmann, Axel}, title = {Proceedings of the Doctoral Consortium WI 2015}, editor = {Winkelmann, Axel}, issn = {2199-0328}, doi = {10.25972/OPUS-11171}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-111715}, pages = {213}, year = {2015}, abstract = {Bereits seit Anfang der 1990er Jahre wird jungen Wissenschaftlern im Vorfeld der Tagung "Wirtschaftsinformatik" ein Doctoral Consortium als unterst{\"u}tzendes Forum angeboten. Diese Einrichtung wurde auch zur gr{\"o}ßten Internationalen Konferenz der Wirtschaftsinformatik, der WI 2015 in Osnabr{\"u}ck fortgef{\"u}hrt. Dieser Band fasst die zum Vortag ausgew{\"a}hlten Beitr{\"a}ge zusammen.}, subject = {Wirtschaftsinformatik}, language = {en} } @phdthesis{Weinhard2019, author = {Weinhard, Alexander}, title = {Managing RFID Implementations - Implications for Managerial Decision Making}, doi = {10.25972/OPUS-17816}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-178161}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots' manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research.}, subject = {RFID}, language = {en} } @phdthesis{Wanner2022, author = {Wanner, Jonas Paul}, title = {Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0}, doi = {10.25972/OPUS-25901}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-259014}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine's suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system's suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development.}, subject = {K{\"u}nstliche Intelligenz}, language = {en} } @article{WannerHermHeinrichetal.2022, author = {Wanner, Jonas and Herm, Lukas-Valentin and Heinrich, Kai and Janiesch, Christian}, title = {The effect of transparency and trust on intelligent system acceptance: evidence from a user-based study}, series = {Electronic Markets}, volume = {32}, journal = {Electronic Markets}, number = {4}, issn = {1019-6781}, doi = {10.1007/s12525-022-00593-5}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-323829}, pages = {2079-2102}, year = {2022}, abstract = {Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance.}, language = {en} } @phdthesis{Walter2006, author = {Walter, Michaela}, title = {Die steuerliche Behandlung der Gew{\"a}hrung von Aktienoptionen an Arbeitnehmer bei grenz{\"u}berschreitenden Sachverhalten : dargestellt anhand der L{\"a}nder Deutschland, Schweiz, {\"O}sterreich und Belgien}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19289}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Nicht handelbare reale Aktienoptionen sind ein beliebtes Instrument, um die variable Verg{\"u}tung von Mitarbeitern mit dem Unternehmenswert zu verbinden. F{\"u}r die Unternehmensseite existieren unterschiedliche Auffassungen, wie die Verpflichtung aus der Option zu bilanzieren ist. Der individuelle Wert dieser Verg{\"u}tungskomponente f{\"u}r den beg{\"u}nstigten Mitarbeiter ist unter anderem auch von der Besteuerung abh{\"a}ngig. Da Aktienoptionspl{\"a}ne eine l{\"a}ngere Laufzeit aufweisen, stellt sich die Frage nach dem zutreffenden Besteuerungszeitpunkt und damit verbunden nach der Bewertung des Vorteils. Die Verg{\"u}tung von Mitarbeitern mit Aktienoptionen ist den Eink{\"u}nften aus nichtselbst{\"a}ndiger T{\"a}tigkeit zuzurechnen. Es gilt das Zuflussprinzip. Nach der allgemeinen Diskussion {\"u}ber den zutreffenden Besteuerungszeitpunkt und Bewertung der Option werden in der Arbeit zun{\"a}chst die unterschiedlichen Rechtslagen zur Besteuerung von Aktienoptionen beim Beg{\"u}nstigten in den betrachteten L{\"a}ndern (Deutschland, Schweiz, {\"O}sterreich und Belgien) dargestellt. Die Besteuerung in der Schweiz, {\"O}sterreich und Belgien erweist sich im Fall der tats{\"a}chlichen Optionsaus{\"u}bung grunds{\"a}tzlich vergleichsweise g{\"u}nstiger als in Deutschland. Die differierenden steuerlichen Regelungen sind insbesondere bei grenz{\"u}berschreitenden Sachverhalten problematisch. Haupts{\"a}chlich durch abweichende Besteuerungszeitpunkte in den betrachteten L{\"a}ndern ergeben sich bei Wechsel von T{\"a}tigkeits- und Wohnort, aber auch bei Grenzg{\"a}ngern sowohl F{\"a}lle der Doppelbesteuerung als auch der Nichtbesteuerung der Verg{\"u}tung. Es werden jeweils konkrete grenz{\"u}berschreitende Sachverhalte anhand des spezifischen Doppelbesteuerungsabkommens der beteiligten Staaten beurteilt. Risiken der Doppelbesteuerung werden herausgearbeitet und Gestaltungsempfehlungen zur Vermeidung gegeben. Im Hinblick auf die meist g{\"u}nstigere Besteuerung in der Schweiz, in {\"O}sterreich und in Belgien kann generell f{\"u}r die Besteuerung von Aktienoptionen bei grenz{\"u}berschreitenden Sachverhalten die Empfehlung abgeleitet werden, dass eine T{\"a}tigkeitsverlagerung in diese Staaten grunds{\"a}tzlich sinnvoll ist. Selbst zwischen europ{\"a}ischen Staaten, die vielf{\"a}ltig miteinander verbunden sind, kann h{\"a}ufig aufgrund der unterschiedlichen Steuersysteme keine allgemeing{\"u}ltige L{\"o}sung gefunden werden, um eine zutreffende gerechte Besteuerung von Aktienoptionen beim Beg{\"u}nstigten in grenz{\"u}berschreitenden F{\"a}llen sicherzustellen. Eine Doppel- bzw. Minderbesteuerung ist mit den vorhandenen rechtlichen M{\"o}glichkeiten meist nicht zu beseitigen.}, subject = {Deutschland}, language = {de} } @phdthesis{Tschinkl2021, author = {Tschinkl, Dominik}, title = {Der Einfluss von Steuern auf Ersparnisbildung und Altersvorsorge - Experimentelle und qualitative Untersuchungen}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-150-1}, doi = {10.25972/WUP-978-3-95826-151-8}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-216798}, school = {W{\"u}rzburg University Press}, pages = {XXII, 227}, year = {2021}, abstract = {Aufgrund der bekannten Probleme der umlagefinanzierten gesetzlichen Rentenversicherung versucht der deutsche Gesetzgeber seit einiger Zeit, die eigenverantwortliche Altersvorsorge zu f{\"o}rdern. H{\"a}ufig steht dabei die betriebliche Altersversorgung (bAV) im Fokus. In dieser Arbeit wird mittels Experten- und Arbeitnehmerinterviews ausf{\"u}hrlich herausgearbeitet, wo zentrale Verbreitungshemmnisse der bAV liegen und wie diese durch Anpassung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen adressiert werden k{\"o}nnen. Wesentliche Elemente dieser Reform{\"u}berlegungen sind in das zum 01.01.2018 in Kraft getretene Betriebsrentenst{\"a}rkungsgesetz eingeflossen. Daneben wird in dieser Arbeit mithilfe einer experimental{\"o}konomischen Analyse gezeigt, wie verschiedene Arten der Besteuerung individuelle Sparentscheidungen beeinflussen k{\"o}nnen. Dabei wird deutlich, dass Individuen die Wirkung einer nachgelagerten Besteuerung h{\"a}ufig nicht korrekt wahrnehmen.}, subject = {Deutschland}, language = {de} } @phdthesis{Todesco2010, author = {Todesco, Felix}, title = {Die Unternehmensplanung bei kleinen und mittleren Unternehmen im Blickpunkt der aktuellen gesetzlichen Anforderungen an die Unternehmensf{\"u}hrung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-50844}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {Die Dissertation untersucht die Fragestellung, ob aufgrund rechtlicher Regelungen eine gesetzlich begr{\"u}ndete Pflicht zur Unternehmensplanung bei kleinen und mittleren Unternehmen (KMU) besteht, bzw. ob eine solche Pflicht gesetzlich verankert werden sollte, falls sich aus den aktuellen gesetzlichen Vorschriften keine solche Pflicht ableiten l{\"a}sst. Daran ankn{\"u}pfend werden in die Betrachtung auch die Auswirkungen der Abschlusspr{\"u}fung und der Unternehmensfinanzierung auf die Unternehmensplanung bei KMU mit einbezogen. Die Untersuchungen bewegen sich vor dem Hintergrund, dass die Informationen {\"u}ber die zuk{\"u}nftige Entwicklung der Unternehmen durch eine Vielzahl von Gesetzesreformen innerhalb der letzten ca. 15 Jahre, verst{\"a}rkt an Bedeutung gewonnen haben. Ziel dieser Reformen ist es, die Transparenz und Publizit{\"a}t der Unternehmen, die Kontrolle der Unternehmensf{\"u}hrung und die Qualit{\"a}t der Abschlusspr{\"u}fung zu verbessern. Grundlage der Informationen {\"u}ber die zuk{\"u}nftige Entwicklung der Unternehmen ist die klassische betriebswirtschaftliche interne Unternehmensplanung, welche allerdings im Segment der KMU regelm{\"a}ßig nicht vorhanden ist. Um dieses Problem zu l{\"o}sen, wird vielfach eine gesetzliche Planungspflicht f{\"u}r alle Unternehmen gefordert. Erschwert werden die Untersuchungen durch die Tatsache, dass es in Deutschland keine einheitliche Definition f{\"u}r KMU gibt, so dass im Rahmen der Dissertation verschiedenen Typen von KMU entwickelt werden, die den sp{\"a}teren Betrachtungen als Grundlage dienen. Der Aufbau sowie die Hauptthesen der Dissertation werden im Folgenden zusammenfassend skizziert: Den Hauptbetrachtungen der Dissertation vorangestellt, werden in Kapitel 2 die Grundz{\"u}ge der betriebswirtschaftlichen interne Unternehmensplanung dargestellt. Die dargestellte Konzeption einer betriebswirtschaftlichen Unternehmensplanung dient als Basis der sp{\"a}teren Ausf{\"u}hrungen. In Kapitel 3 werden verschiedene Typen von KMU vor dem Hintergrund der f{\"u}r diese Unternehmen charakteristischen Merkmale entwickelt. Unterschieden wird zwischen typischen KMU (erf{\"u}llen die qualitativen und quantitativen Merkmale f{\"u}r KMU) und atypischen KMU (erf{\"u}llen lediglich die quantitativen Merkmale). Unter Zuhilfenahme einer Studie von Wolter/ Hauser wird eine zahlenm{\"a}ßige Einteilung der einzelnen KMU-Typen, aufgegliedert in verschiedene Rechtsformen vorgenommen, so dass die Bedeutung der KMU-Typen innerhalb der jeweiligen Rechtsformen ermittelt werden kann. Anschließend wird die Durchf{\"u}hrung der Unternehmensplanung bei KMU unter Ber{\"u}cksichtigung der bei diesen vorherrschenden charakteristischen Strukturen er{\"o}rtert. Kapitel 4 untersucht die Auswirkungen der aktuellen Gesetzgebung zur Unternehmensf{\"u}hrung auf die Unternehmensplanung bei KMU. Im Fokus der Betrachtung stehen dabei die folgenden Vorschriften: - Die Fortbestehensprognose gem. \S 252 Abs. 1 Nr. 2 HGB mit einem Exkurs zur Fortbestehensprognose im Rahmen der InsO; - die Sorgfaltspflicht und die „Business Judgment Rule" gem. \S 93 Abs. 1 Satz 1 und 2 AktG; - das {\"U}berwachungssystem gem. \S 91 Abs. 2 AktG; - die Berichterstattungspflichten des Vorstands an den Aufsichtsrat gem. \S 90 Abs. 1 Nr. 1 AktG; - die zukunftsorientierte Lageberichterstattung gem. \S 289 Abs. 1 Satz 4 HGB; die Untersuchungen werden erweitert um eine empirische Analyse zur zukunftsorientierten Lageberichterstattung im Segment der KMU. In Kapitel 5 wird die Bedeutung der Unternehmensplanung bei KMU f{\"u}r die Abschlusspr{\"u}fung untersucht. Die Ausf{\"u}hrungen kommen zu dem Ergebnis, dass sich zwischen den aktuellen f{\"u}r alle Unternehmen g{\"u}ltigen Pr{\"u}fungsstandards des IDW auf der einen Seite und dem ebenfalls durch das IDW herausgegebenen Pr{\"u}fungshinweis zu den Besonderheiten der Abschlusspr{\"u}fung von KMU (IDW PH 9.100.1) auf der anderen Seite, erhebliche Abweichungen ergeben. Kapitel 6 erl{\"a}utert und diskutiert die Auswirkungen und Anforderungen der im Jahr 2006 beschlossenen Basler Eigenkapitalanforderungen auf bzw. an die Unternehmensplanung bei KMU. Im Ergebnis wird festgestellt, dass sich eine Planungspflicht lediglich aus der Vorschrift des \S 90 Abs. Nr. 1 AktG f{\"u}r KMU in der Rechtsform der AG und KGaA ergibt. F{\"u}r die Erf{\"u}llung anderer Normen ist die Unternehmensplanung teilweise zwingende Voraussetzung. Diese Problematik sollte jedoch nicht durch die Verankerung einer Unternehmenspflicht f{\"u}r alle Unternehmen behoben werden, sondern vielmehr sollten diese Normen bzgl. ihrer Auswirkungen auf KMU {\"u}berdacht werden. Eine gesetzliche Verankerung einer Planungspflicht aus Sicht der Wirtschaftspr{\"u}fung wird ebenfalls abgelehnt. F{\"u}r den Bereich der Unternehmensfinanzierung bedarf es keiner gesetzlichen Regelungen, da s{\"a}mtliche Anforderungen privatvertraglich fixiert werden k{\"o}nnen.}, subject = {Unternehmensplanung}, language = {de} } @phdthesis{Thiere2009, author = {Thiere, Wolfgang}, title = {Wertrelevanz von Humankapital am deutschen Kapitalmarkt - empirische Bestandsaufnahme und Entwicklung eines Bewertungsmodells}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-36253}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {Die Arbeit widmet sich zun{\"a}chst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und {\"o}konomische Wandel, die internen und externen Anreize f{\"u}r Unternehmen sowie die Bed{\"u}rfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zun{\"a}chst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung {\"o}ffentlicher Informationen in die Aktienkurse gew{\"a}hrleisten. Allein wenn dies der Fall ist, k{\"o}nnen Ausk{\"u}nfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine h{\"a}ufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizit{\"a}t immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der g{\"a}ngigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen {\"u}ber Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das j{\"a}hrliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchf{\"u}hrung dieser Untersuchungen wird zun{\"a}chst ein dichotomer Index mit zw{\"o}lf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einsch{\"a}tzungen des Autors, sondern orientieren sich an den Publizit{\"a}tsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) {\"u}ber Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie besch{\"a}ftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualit{\"a}t von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung {\"u}ber Humankapitalinformationen aus einem informations{\"o}konomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbed{\"u}rfnissen bez{\"u}glich des Humankapitals zu befragen. Wegen der hohen Subjektivit{\"a}t, die der monet{\"a}ren Bestimmung des Humankapitalwerts inh{\"a}rent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verf{\"u}gung gestellt werden. Darauf basierend soll es ihnen m{\"o}glich sein, den monet{\"a}ren Wert selbst zu bestimmen. In einem {\"U}berblick {\"u}ber die g{\"a}ngigen Humankapitalbewertungsverfahren soll daf{\"u}r ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen f{\"u}r eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erf{\"u}llt. Dieser Ansatz realisiert eine monet{\"a}re Bewertung ausschließlich auf Basis extern verf{\"u}gbarer Daten.}, subject = {Humankapital}, language = {de} } @phdthesis{Taigel2020, author = {Taigel, Fabian Michael}, title = {Data-driven Operations Management: From Predictive to Prescriptive Analytics}, doi = {10.25972/OPUS-20651}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-206514}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt's invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data "the new oil" indicates the growing awareness of data's importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of data [for Economic Co-operation and Development, 2018]. One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data - typically just historical demand data - is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner's experience and intuition, rather than on solid data analysis. This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind. The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work. The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management. All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity.}, subject = {Maschinelles Lernen}, language = {en} } @phdthesis{Suermann2006, author = {Suermann, Jan-Christoph}, title = {Bilanzierung von Software nach HGB, US-GAAP und IFRS : integrative Analyse der Regelungen zu Ansatz, Bewertung und Umsatzrealisation von Software aus Hersteller- und Anwendersicht}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19335}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Die Arbeit stellt die Grunds{\"a}tze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegen{\"u}ber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzf{\"a}higkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht.}, subject = {Deutschland Handelsgesetzbuch}, language = {de} } @phdthesis{Stralla2019, author = {Stralla, Markus Roland}, title = {Managerial incentives, earnings management and regulatory intervention in the banking sector}, doi = {10.25972/OPUS-17268}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-172682}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Die vorliegende Dissertation umfasst drei Forschungspapiere, welche sich mit folgenden Bankenthemen besch{\"a}ftigen: Fehl-/Anreize und Risiko{\"u}bernahme, Ertragssteuerung und die Regulierung von Aufsichtsr{\"a}ten. „Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk": Wir verwenden Granger-Kausalit{\"a}tstechniken, um die intertemporalen Beziehungen zwischen Risiko, Effizienz und Kapital zu bewerten. Wir verwenden zwei verschiedene Maße der Effizienz, die Kosten- und Gewinneffizienz, da diese unterschiedliche Managementf{\"a}higkeiten widerspiegeln. Eine ist die F{\"a}higkeit, Kosten zu steuern, und die andere ist die M{\"o}glichkeit, Gewinne zu maximieren. Wir stellen fest, dass eine niedrigere Kosten- und Gewinneffizienz das Liquidit{\"a}tsrisiko erh{\"o}ht. Wir stellen ebenfalls fest, dass ein Anstieg des Kreditrisiko nachteilig f{\"u}r die Kosten und Gewinneffizienz ist. Am wichtigsten ist jedoch, dass unsere Ergebnisse eine positive Beziehung zwischen dem Kapital- und Kreditrisiko aufweisen, was zeigt, dass Moral Hazard Verhalten keine Anwendung (aufgrund von Haftungsbeschr{\"a}nkung und Einlagensicherung) bei unsere Stichprobe von Genossenschaftsbanken findet. Im Gegenteil, wir finden Hinweise darauf, dass Banken mit niedrigem Kapital ihre Kreditqualit{\"a}t in den Folgeperioden verbessern k{\"o}nnen. Diese Erkenntnisse k{\"o}nnen f{\"u}r die Regulierungsbeh{\"o}rden von Bedeutung sein, die bei der Einf{\"u}hrung neuer regulatorischer Kapitalbeschr{\"a}nkungen die Gesch{\"a}ftsmodelle der Banken ber{\"u}cksichtigen sollten. „Earnings Management Modelling in the Banking Industry - Evaluating valuable approaches": Die Rechungslegungsforschung hat den Bereich Earnings Management (EM) f{\"u}r die nichtfinanzielle und finanzielle Industrie gesondert untersucht. Da EM nicht direkt beobachtet werden kann, ist es f{\"u}r jede Forschungsfrage in jedem Umfeld wichtig, einen {\"u}berpr{\"u}fbare Proxy-Gr{\"o}ße f{\"u}r EM zu finden. Grunds{\"a}tzlich fehlt jedoch ein tiefes Verst{\"a}ndnis daf{\"u}r, welche Regressoren den Sch{\"a}tzvorgang verbessern k{\"o}nnen. Diese Studie versucht, diese L{\"u}cke zu schließen, und analysiert vorhandene Modellspezifikationen f{\"u}r diskretion{\"a}re Risikovorsorgen im Bankensektor, um gemeinsame und spezifische Muster zu identifizieren. Hierf{\"u}r verwenden wir einen US-Datensatz, bestehend aus den Jahren 2005-2015 und wenden g{\"a}ngige Testverfahren an, um das Ausmaß von Messfehlern, Verzerrungen aufgrund von Extrembeobachtungen und weggelassenen Variablen sowie die Vorhersagekraft der diskretion{\"a}ren Proxy-Gr{\"o}ßen zu untersuchen. Unsere Ergebnisse zeigen, dass ein gr{\"u}ndliches Verst{\"a}ndnis des methodischen Modellierungsprozesses von EM im Bankensektor wichtig ist. Die derzeit etablierten Modelle zur Sch{\"a}tzung des EM sind angemessen, jedoch optimierbar. Insbesondere identifizieren wir die Variablen der notleidenden Verm{\"o}genswerte als die wichtigste Gruppe, w{\"a}hrend Variablen der Risikovorsorge und Nettoausbuchungen einen gewissen Wert erbringen k{\"o}nnen. Dar{\"u}ber hinaus zeigen unsere Ergebnisse, dass die Nichtlinearit{\"a}t bestimmter Regressoren ein Problem sein kann, das in zuk{\"u}nftigen Untersuchungen angegangen werden sollte, w{\"a}hrend wir weiterhin einige ausgelassene und m{\"o}glicherweise korrelierte Variablen identifizieren, die einen Mehrwert generieren k{\"o}nnten. Die Ergebnisse zeigen auch, dass ein dynamischer, endogenit{\"a}t ber{\"u}cksichtigender Ansatz nicht unbedingt mit einer besseren Vorhersagekraft verkn{\"u}pft ist. „Board Regulation and its Impact on Composition and Effects - Evidence from German Cooperative Bank": In dieser Studie wird ein System-GMM-Sch{\"a}tzer verwendet, um die Auswirkungen m{\"o}glicher regulatorischer Eingriffe auf die Besetzung von Aufsichtsratspositionen bei Genossenschaftsbanken zu untersuchen. Hierf{\"u}r werden zwei verschiedene Untersuchungsdesigns angewandt. Zun{\"a}chst untersucht der Autor die {\"A}nderungen der Aufsichtsratsstruktur vor und nach der Einf{\"u}hrung des Gesetzes zur St{\"a}rkung der Finanzmarkt- und Versicherungsaufsicht (FinVAG). Zweitens sch{\"a}tzt der Autor den Einfluss von Doktoren und beruflicher Konzentration auf {\"A}nderungen des Bankrisikos unter Ber{\"u}cksichtigung der Umsetzung der FinVAG. Die untersuchte Stichprobe umfasst dabei 246 deutsche Genossenschaftsbanken in den Jahren von 2006 bis 2011. Bez{\"u}glich des Bankrisikos verwendet der Autor vier verschiedene Maße: das Kredit-, Kapital-, Liquidit{\"a}tsrisiko und den Z-Score, wobei die ersten drei ebenfalls im FinVAG adressiert werden. Die Ergebnisse zeigen, dass die Umsetzung des FinVAGs zu strukturellen {\"A}nderungen in der Zusammensetzung der Aufsichtsr{\"a}te f{\"u}hrt, insbesondere auf Kosten der Landwirte. Dar{\"u}ber hinaus wirkt sich die Umsetzung risikoreduzierend und damit wie beabsichtigt auf alle Risikokennzahlen und Beziehungen zwischen Risikokennzahlen und Aufsichtsratsmerkmalen aus. Um die komplexe Beziehung zwischen Charakteristika der Aufsichtsr{\"a}te und Risikomessgr{\"o}ßen aufzudecken, verwendet die Studie einen „two-step system-gmm" Sch{\"a}tzer, um nicht beobachtete Heterogenit{\"a}t zu ber{\"u}cksichtigen, um Endogenit{\"a}tsprobleme zu reduzieren. Die Ergebnisse k{\"o}nnen f{\"u}r Stakeholder, Aufsichtsbeh{\"o}rden, Vorgesetzte und Manager besonders relevant sein.}, subject = {Kreditgenossenschaft}, language = {en} } @phdthesis{Stockinger2017, author = {Stockinger, Bastian}, title = {Causes and effects of worker mobility between firms: empirical studies for Germany}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-153894}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {This dissertation investigates selected causes and effects of worker mobility between firms in three empirical studies for Germany. Chapter 2 investigates the productivity effects of worker inflows to manufacturing establishments, distinguishing inflows by their previous employers' wage level, as a proxy for productivity. The chapter is motivated by several empirical studies which find that worker inflows from more productive or higher-paying firms increase hiring firms' productivity. The analyses in chapter 2 are based on a unique linked employer-employee data set. The findings indicate that inflows from higher-paying establishments do not increase hiring establishments' productivity, but inflows from lower-paying establishments do. Further analyses suggest that this effect is due to a positive selectivity of such inflows from their sending establishments. These findings can be interpreted as evidence of a reallocation process by which the best employees of lower-paying establishments become hired by higher-paying establishments. This process reflects the assortative pattern of worker mobility in Germany documented by Card et al. (2013) for the past decades. The chapter thus contributes to the literature by linking establishment-level productivity analysis to the assortative pattern of inter-firm worker mobility, thereby providing a micro-foundation for the latter. Chapter 3 focuses on a positive selection of workers moving between firms from another, more specific perspective. The analysis focuses on the importance of regional labor market competition for establishments' apprentice training and poaching of apprenticeship completers. Previous studies have found that firms provide less training if they are located in regions with strong labor market competition. This finding is usually interpreted as evidence of a higher risk of poaching in these regions. Yet, there is no direct evidence that regional competition is positively correlated with poaching. Building on a recently established approach to ex-post identify poaching of apprenticeship completers, this chapter is the first to directly investigate the correlation between regional labor market competition and poaching. Using German administrative data, it is found that competition indeed increases training establishments' probability of becoming poaching victims. However, poaching victims do not change their apprenticeship training activity in reaction to poaching. Instead, the findings indicate that the lower training activity in competitive regions can be attributed to lower retention rates, as well as a less adverse selection and lower labor and hiring costs of apprenticeship completers hired from rivals. Chapter 4 investigates the effects of local broadband internet availability on establishment-level employment growth. The analysis uses data for Germany in the years 2005-2009, when broadband was introduced in rural regions of Western Germany and in large parts of Eastern Germany. Technical frictions in broadband rollout are exploited to obtain exogenous variation in local broadband availability. The results suggest that broadband expansion had a positive effect on employment growth in the Western German service sector and a negative effect in Western German manufacturing, suggesting that broadband expansion has accelerated the reallocation of workers from manufacturing to services. Furthermore, this pattern of results is driven by pronounced positive effects in knowledge- and computer-intensive industries, suggesting that it is the actual use of broadband in the production process that leads to complementary hiring, respectively a slowdown of employment growth, in the respective sectors. For Eastern Germany, no significant employment growth effects are found.}, subject = {Arbeitsmarkt}, language = {en} } @phdthesis{Stein2019, author = {Stein, Nikolai Werner}, title = {Advanced Analytics in Operations Management and Information Systems: Methods and Applications}, doi = {10.25972/OPUS-19266}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-192668}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Die digitale Transformation der Gesellschaft birgt enorme Potenziale f{\"u}r Unternehmen aus allen Sektoren. Diese verf{\"u}gen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivit{\"a}t {\"u}ber rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivit{\"a}t heben zu k{\"o}nnen m{\"u}ssen Unternehmen die verf{\"u}gbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics" und nur ein kleiner Teil der Unternehmen macht bereits heute von den M{\"o}glichkeiten der „predictive analytics" und „prescriptive analytics" Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzm{\"o}glichkeiten von „prescriptive analytics" zu identifizieren. Da pr{\"a}diktive Modelle eine wesentliche Voraussetzung f{\"u}r „prescriptive analytics" sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics." Ausgehend von Verfahren des maschinellen Lernens wird zun{\"a}chst die Entwicklung eines pr{\"a}diktiven Modells am Beispiel der Kapazit{\"a}ts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox f{\"u}r Data Science Anwendungen entwickelt. Diese stellt Entscheidungstr{\"a}gern Richtlinien und bew{\"a}hrte Verfahren f{\"u}r die Modellierung, das Feature Engineering und die Modellinterpretation zur Verf{\"u}gung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht. Verbesserten Prognosen, die von leistungsf{\"a}higen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungstr{\"a}gern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verf{\"u}gung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics". Hierzu wird zun{\"a}chst analysiert, wie die Vorhersagen pr{\"a}diktiver Modelle in pr{\"a}skriptive Politiken zur L{\"o}sung eines „Optimal Searcher Path Problem" {\"u}bersetzt werden k{\"o}nnen. Trotz beeindruckender Fortschritte in der Forschung im Bereich k{\"u}nstlicher Intelligenz sind die Vorhersagen pr{\"a}diktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schl{\"a}gt einen pr{\"a}skriptiven Ansatz vor, der diese Unsicherheit ber{\"u}cksichtigt. Insbesondere wird ein datengetriebenes Verfahren f{\"u}r die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bez{\"u}glich der Erfolgswahrscheinlichkeiten und die Modellqualit{\"a}t des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem."}, subject = {Operations Management}, language = {en} } @phdthesis{Spranger2006, author = {Spranger, Hans Christoph}, title = {Die Bewertung von Patenten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19029}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Die Arbeit verfolgt zwei Ziele. Einerseits sollen bereits bestehende Bewertungskonzepte f{\"u}r betriebliche Patente im Hinblick auf ihre Eignung f{\"u}r unternehmensinterne und -externe Willensbildungs- und Willensdurchsetzungsprozesse beurteilt werden. Andererseits sollten diese Ans{\"a}tze verfeinert und erweitert werden mitunter zur Operationalisierung f{\"u}r praktische Anwendungen. F{\"u}r die Analyse der bestehenden Patentbewertungsmethoden wird zwischen den Ans{\"a}tzen auf Basis gesetzlich geregelter Bewertungsanl{\"a}sse und den in der internen Unternehmensrechnungslegung verwendeten Ans{\"a}tzen differenziert. Um die Grenzen der traditionellen einkommensorientierten Bewertungsmodelle {\"u}berwinden zu k{\"o}nnen, werden in der vorliegenden Untersuchung mit dem Realoptionsansatz und der SGPP-Methode zwei alternative Ansatzpunkte bzw. verfeinerte Methoden f{\"u}r die monet{\"a}re Patentbewertung zur Diskussion gestellt.}, subject = {Unternehmen}, language = {de} } @phdthesis{Siller2023, author = {Siller, Benjamin}, title = {Influence of Lead Time and Emission Policies on the Design of Supply Chains - Insights from Supply Chain Design Models}, doi = {10.25972/OPUS-29671}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-296713}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies.}, subject = {Supply Chain Management}, language = {en} } @phdthesis{Siedler2000, author = {Siedler, Udo}, title = {Beratungs- und Dienstleistungsgesch{\"a}ft mittels eines elektronischen Marktes - Konzeption und Realisierung eines virtuellen Adaptionsmarktplatzes f{\"u}r Beratungsunternehmen im SAP R/3-Markt}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-6468}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgesch{\"a}ft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ans{\"a}tze zu verfolgen, sondern die Projektierung der Einf{\"u}hrung von Softwarebibliotheken {\"u}ber einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengef{\"u}hrt und bei ihrer Arbeit unterst{\"u}tzt. Die Weiterf{\"u}hrung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und {\"u}ber die Unterst{\"u}tzung bei der Einf{\"u}hrung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterst{\"u}tzt werden: - transparente Vorgehensweise durch jederzeit zug{\"a}ngliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterst{\"u}tzt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung erm{\"o}glicht die Interoperabilit{\"a}t heterogener IuK-Infrastrukturen, - eine schnelle und kosteng{\"u}nstige Abwicklung mit hoher Qualit{\"a}t der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gew{\"a}hrleistet.}, subject = {Beratungsbetrieb}, language = {de} } @phdthesis{Seibold2007, author = {Seibold, Christine}, title = {Die Versorgung des Stifters und der Stifterfamilie bei Verm{\"o}gens{\"u}bertragung auf eine gemeinn{\"u}tzige Stiftung, Familienstiftung oder Doppelstiftung und deren ertrag- und substanzsteuerlichen Auswirkungen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-28012}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Verm{\"o}gens{\"u}bertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung erm{\"o}glicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der f{\"u}r die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinn{\"u}tzigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gew{\"u}rdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Verm{\"o}gens{\"u}bertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalverm{\"o}gen, sowie klassische Destinat{\"a}rsbez{\"u}ge und Arbeitsverh{\"a}ltnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits f{\"u}r die Besteuerung der Verm{\"o}gens{\"u}bertragung relevant, w{\"a}hrend Destinat{\"a}rsbez{\"u}ge und Arbeitsverh{\"a}ltnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. F{\"u}r die gemeinn{\"u}tzige Stiftung wird ferner die Versorgung nach \S 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Verm{\"o}gens{\"u}bertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinn{\"u}tzigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinn{\"u}tzigen Stiftung diskutiert. F{\"u}r die Verm{\"o}gens{\"u}bertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grunds{\"a}tze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinn{\"u}tzigen Stiftung ist die Verm{\"o}gens{\"u}bertragung gegen Versorgungsleistungen im Hinblick auf die gemeinn{\"u}tzigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen W{\"u}rdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinat{\"a}rsbez{\"u}ge k{\"o}nnen jederzeit bei Erf{\"u}llung der satzungsm{\"a}ßigen Vorschriften gew{\"a}hrt werden. Ebenso k{\"o}nnen Arbeitsverh{\"a}ltnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinn{\"u}tzigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gew{\"u}rdigten Versorgungswege k{\"o}nnen unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden.}, subject = {Stiftung}, language = {de} } @phdthesis{Schoenemann2010, author = {Sch{\"o}nemann, Kristin}, title = {Der Einfluss von Steuern auf Investitions- und Desinvestitionsentscheidungen bei Immobilienverm{\"o}gen : Eine {\"o}konomische Analyse}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-74609}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland f{\"u}r vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gew{\"a}hrt. Die Investitionsm{\"o}glichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien f{\"u}hren stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Beg{\"u}nstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabh{\"a}ngige F{\"o}rderung kann dazu f{\"u}hren, dass ein durchschnittlich verdienender Eigenheimk{\"a}ufer F{\"o}rderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienf{\"o}rderung innerhalb der Altersvorsorge („Wohn-Riester") erm{\"o}glicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche F{\"o}rderung integriert worden und beg{\"u}nstigt so die R{\"u}ckf{\"u}hrung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Verm{\"o}gens{\"u}bertragung auf eine steuerbeg{\"u}nstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die L{\"a}nge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelm{\"a}ßig nur in Verbindung mit zus{\"a}tzlichen Beg{\"u}nstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit f{\"u}r die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien k{\"o}nnen durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Aus{\"u}bung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant f{\"u}r niedrige Kapitalkosten ist. Die ver-m{\"o}gensverwaltende Immobilien-AG stellt aufgrund der flexiblen Aussch{\"u}ttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar.}, subject = {Deutschland}, language = {de} } @phdthesis{Schaetzlein2022, author = {Sch{\"a}tzlein, Uwe}, title = {Untersuchungen ausgew{\"a}hlter Reformen und Reformbedarfe in der deutschen Alterssicherung}, doi = {10.25972/OPUS-27804}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-278042}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {In der Dissertation werden drei ausgew{\"a}hlte Reformen oder Reformbedarfe im deutschen Drei-S{\"a}ulen-System der Alterssicherung untersucht: In der S{\"a}ule der gesetzlichen Altersversorgung werden M{\"o}glichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erh{\"o}hungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in k{\"u}nftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren - das Getrennte Verfahren und das Integrierte Verfahren - pr{\"a}sentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einf{\"u}gt. In der S{\"a}ule der betrieblichen Altersversorgung werden M{\"o}glichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 \% f{\"u}r Pensionsr{\"u}ckstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es f{\"u}r Arbeitgeber hat, wenn der Rechnungszinsfuß diskretion{\"a}r einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt w{\"u}rde, und wenn ein innovatives Tranchierungsverfahren eingef{\"u}hrt w{\"u}rde. Anschließend wird er{\"o}rtert, inwieweit {\"u}berhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 \% durchaus realistisch f{\"u}r deutsche Unternehmen sind. In der S{\"a}ule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-gef{\"o}rderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Aus{\"u}bung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Betr{\"a}ge auf einmal, jedoch nur zu 70 \% zu versteuern. Wann dieser 30\%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnf{\"o}rderkontostands, der Renteneink{\"u}nfte, des Marktzinssatzes, des Rentenbeginns, der {\"U}berlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.}, subject = {Rentenversicherung}, language = {de} } @phdthesis{Schilling2013, author = {Schilling, Silvia}, title = {Auskauf von Minderheitsaktion{\"a}ren nach schweizerischem Kapitalmarktrecht - eine empirische Analyse {\"o}ffentlicher {\"U}bernahmeangebote}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-120726}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {W{\"a}hrend Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren f{\"u}r den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktion{\"a}re von vielen Kapitalmarktteilnehmern h{\"a}ufig als l{\"a}stig empfunden werden, wurde aber auch in der Schweiz schon immer nach M{\"o}glichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der {\"U}bernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktion{\"a}re in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene B{\"o}rsengesetz soll daf{\"u}r Sorge tragen, dass es zumindest bei {\"U}bernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktion{\"a}re kommt. Es bietet einem Mehrheitsaktion{\"a}r die M{\"o}glichkeit, den vollst{\"a}ndigen Ausschluss der Minderheitsaktion{\"a}re mit Hilfe eines Kraftloserkl{\"a}rungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein {\"o}ffentliches {\"U}bernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gew{\"a}hrleisten, soll in der vorliegenden Arbeit empirisch {\"u}berpr{\"u}ft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktion{\"a}re der Zielgesellschaft einen angemessenen Preis f{\"u}r ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle {\"o}ffentlichen {\"U}bernahmeangebote, die dem B{\"o}rsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zun{\"a}chst die offerierten {\"U}bernahmepr{\"a}mien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ank{\"u}ndigung eines {\"o}ffentlichen {\"U}bernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktion{\"a}re erwarten, dass das Angebot zu einer Erh{\"o}hung des Wertes ihrer Anteile beitr{\"a}gt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein {\"U}bernahmeangebot positiv oder negativ auf die Aktion{\"a}re der Zielgesellschaft auswirkt.}, subject = {Schweiz}, language = {de} } @phdthesis{Schickhardt2022, author = {Schickhardt, Irene}, title = {A Process Model for Selecting the Most Appropriate Production Site : an Application-oriented Approach for OEMs based on a Literature Analysis}, doi = {10.25972/OPUS-27665}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-276652}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM's related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM's complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty.}, subject = {Produktionsstandort}, language = {en} } @phdthesis{Schaupp2019, author = {Schaupp, Daniel Norbert}, title = {Earnings Management in the Context of Earnings Quality, Corporate Governance and Corporate Social Responsibility}, doi = {10.25972/OPUS-15933}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-159337}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Steigende Geschwindigkeit und Komplexit{\"a}t von Gesch{\"a}ftsprozessen und -beziehungen ver{\"a}ndern fundamental die Anspr{\"u}che an umfassende und werthaltige finanzielle und nicht-finanzielle Informationen {\"u}ber Unternehmen. Relevante Informationen in einem Gesch{\"a}ftsbericht m{\"u}ssen daher zunehmend Vorhersagecharakter besitzen, um ihre Daseinsberechtigung nicht zu verlieren. Die ad{\"a}quate L{\"o}sung existenter Prinzipal-Agenten- Konflikte bedarf zugleich einer detaillierten und objektiven Einsch{\"a}tzung der Leistung des Agenten, was zus{\"a}tzlich zur Wertrelevanz ein Mindestmaß an Verl{\"a}sslichkeit der berichteten Informationen bedingt. In diesem Spannungsfeld kommt den Standardsettern die Aufgabe zu, Rahmenbedingungen zu schaffen, die es dem Management erm{\"o}glichen, Spielr{\"a}ume bei der Erstellung der Berichte zu nutzen, um diesen Qualit{\"a}tsanspr{\"u}chen an Informationen {\"u}ber die aktuelle und zuk{\"u}nftige Lage des Unternehmens gerecht zu werden. Diese bewusst gesetzten M{\"o}glichkeiten der Einflussnahme durch das Management begreifen jedoch auch signifikante Risiken der opportunistisch motivierten Beeinflussung der Adressaten, welche unter der {\"U}berschrift Bilanzpolitik subsumiert werden k{\"o}nnen. Die in der empirischen Forschung g{\"a}ngige Klassifizierung unterscheidet zwischen der buchm{\"a}ßigen und realen Bilanzpolitik, wobei letztere im Vergleich eine gezielte Beeinflussung von Gesch{\"a}ftsvorf{\"a}llen und nicht deren ex-post Abbildung begreift. Kapitel 2 der vorliegenden Dissertation propagiert eine umfassende Auseinandersetzung mit der empirischen Messung von Bilanzpolitik. Das Fehlen einer zufriedenstellenden Ermittlung des aggregierten Ausmaßes von Bilanzpolitik erfordert hierbei die Anwendung verschiedener Regressionsmodelle. Im speziellen Kontext der empirischen Analyse von Bilanzpolitik im Bankensektor besteht diesbez{\"u}glich eine ausgepr{\"a}gte Heterogenit{\"a}t der verwendeten Modelle. Zugleich existiert nach wie vor keine systematische Analyse der Ans{\"a}tze und Modellierungsarten von Loan Loss Provisions, welche als elementares Vehikel der diskretion{\"a}ren Einflussnahme im Fokus der einschl{\"a}gigen Studien steht. Daher untersucht der Verfasser in Kapitel 2.1 pr{\"a}valente Modellierungsans{\"a}tze, erstellt einen Baukasten verschiedener Regressionsparameter und testet eine Vielzahl an Varianten im Hinblick auf die Validit{\"a}t der ermittelten bilanzpolitischen Gr{\"o}ßen. Eine derartige Analyse ist von elementarer Wichtigkeit f{\"u}r die Validit{\"a}t der Ergebnisse und der gezogenen Schl{\"u}sse aus empirischen Studien im Bankensektor und liefert daher einen wichtigen Beitrag zur Entwicklung und Einordnung vergangener und zuk{\"u}nftiger Analysen. Die Ergebnisse der zur Anwendung gebrachten Analysen und Tests zeigen, dass eine Vielzahl der existierenden Modelle eine ausreichende Passgenauigkeit aufweist. Jedoch sind gewisse Regressoren weniger wichtig als zun{\"a}chst angenommen. So k{\"o}nnen die Regressoren der Non-Performing Loans die Modellierung stark verbessern, w{\"a}hrend Loan Loss Reserves und Net Charge-Offs nur einen kleinen Beitrag leisten k{\"o}nnen. Im weiteren Verlauf l{\"a}sst sich zudem eine ausgepr{\"a}gte Nichtlinearit{\"a}t einzelner Regressoren aufzeigen, sowie dass ein Wechsel auf ein Modell mit Ber{\"u}cksichtigung von Endogenit{\"a}t nicht zwangsl{\"a}ufig zu einer verbesserten Modellierung f{\"u}hrt. Insgesamt kann die Studie als geeigneter Startpunkt f{\"u}r zuk{\"u}nftige Studien zu Bilanzpolitik im Bankensektor fungieren. Im anschließenden Kapitel 2.2 werden aus Gr{\"u}nden der Konsistenz Modellierung und Ergebnisse der Sch{\"a}tzung von Bilanzpolitik in nicht-finanziellen Industrien f{\"u}r die Studien in Kapitel 3 und 4 vorgestellt. Im Rahmen einer umfassenden Betrachtung der Qualit{\"a}t von Finanzinformationen sollte die bereits angesprochene Verl{\"a}sslichkeit der Rechnungslegung sichergestellt werden k{\"o}nnen. Hierbei spielt neben den Rahmenbedingungen der Rechnungslegung die Qualit{\"a}t der Attribute und Prozesse der Abschlusspr{\"u}fung eine gewichtige Rolle. Im Zuge dessen wird die Unabh{\"a}ngigkeit des externen Abschlusspr{\"u}fers von seinem Mandanten als eines der Kernattribute proklamiert, da diese Neutralit{\"a}t verleiht und simultan die Qualit{\"a}t der vollzogenen Abschlusspr{\"u}fungshandlungen erh{\"o}ht. Ein unabh{\"a}ngiger Wirtschaftspr{\"u}fer ist demzufolge besser in der Lage, das Ausmaß an Bilanzpolitik zu verringern, was wiederum eine Erh{\"o}hung der Qualit{\"a}t der Finanzinformationen nach sich zieht. Kapitel 3 widmet sich daher der Analyse der Unabh{\"a}ngigkeit von kleinen und mittelgroßen Abschlusspr{\"u}fern im deutschen Markt f{\"u}r Mandanten von {\"o}ffentlichem Interesse zwischen 2007 und 2014. Das Setting der Studie zeichnet sich dadurch aus, dass kleine und mittelgroße Wirtschaftspr{\"u}fer traditionell im Verdacht stehen, aufgrund einer eingeschr{\"a}nkten Unabh{\"a}ngigkeit von kapitalmarktorientierten Mandanten diesen ein h{\"o}heres Maß an Spielr{\"a}umen zuzugestehen, c.p., es wird eine geringere Qualit{\"a}t der Pr{\"u}fung und damit gr{\"o}ßerer Spielraum f{\"u}r Bilanzpolitik vermutet. Das europ{\"a}ische und insbesondere deutsche Umfeld qualifiziert sich durch divergente gesetzlich vorgeschriebene Schwellenwerte der Abh{\"a}ngigkeit des Wirtschaftspr{\"u}fers f{\"u}r eine differenzierte Analyse der Nichtlinearit{\"a}t der Zusammenh{\"a}nge. Des Weiteren bilden die in Deutschland pr{\"a}valenten Transparenzberichte eine profunde Datenbasis f{\"u}r die Ermittlung von Abh{\"a}ngigkeitsmaßen, die im speziellen Marktsegment eine {\"u}berlegene Messung der Abh{\"a}ngigkeit der betrachteten Pr{\"u}fer erm{\"o}glichen. Die vorliegende Arbeit in diesem Kapitel w{\"a}hlt auf Basis der pr{\"a}valenten gesetzlichen Regelungen ein nicht-lineares Forschungsdesign und legt nahe, dass kleine und mittelgroße Wirtschaftspr{\"u}fers im speziellen Marktsegment der kapitalmarktorientierten Mandanten mit steigender Abh{\"a}ngigkeit eine erh{\"o}hte Pr{\"u}fungsqualit{\"a}t liefern, bis sich die Effekte an einer hohen Schwelle der Abh{\"a}ngigkeit umkehren. Dieser Wendepunkt spiegelt zugleich formulierte gesetzliche Schwellenwerte wider. Kleinen und mittelgroße Abschlusspr{\"u}fer scheinen trotz steigender Abh{\"a}ngigkeit eine h{\"o}here Pr{\"u}fungsanstrengung zu w{\"a}hlen, welche buchm{\"a}ßige Bilanzpolitik einschr{\"a}nkt und damit die Qualit{\"a}t der Finanzinformationen erh{\"o}ht. Im Fokus steht hierbei vermutlich das Bestreben des Festigens und Ausbauens einer Reputation im Marktsegment der kapitalmarktorientierten Mandanten. Ab {\"U}berschreiten eines kritischen Schwellenwertes scheint hingegen die gestiegene Abh{\"a}ngigkeit die Reputationseffekte zu dominieren. Die Ergebnisse der Studie legen zudem den Schluss nahe, dass Mandanten bei einer Einschr{\"a}nkung der buchm{\"a}ßigen Bilanzpolitik geneigt sind mehr reale Bilanzpolitik einzusetzen, deren Einschr{\"a}nkung nicht origin{\"a}rer Gegenstand der Pr{\"u}fung durch den Abschlusspr{\"u}fer ist. Die geschilderten Ergebnisse erweisen sich als sehr robust gegen{\"u}ber zahlreichen Ver{\"a}nderungen und Tests wie etwa einer de-facto Office Level und Partner Level Analyse. Zudem kann gezeigt werden, dass die dominierenden Reputationseffekte wohl in der eingeschr{\"a}nkten Wichtigkeit der kapitalmarktorientierten Mandanten f{\"u}r den Gesamtumsatz begr{\"u}ndet liegen, welche von bisherigen Studien systematisch {\"u}bersch{\"a}tzt wird. Kapitel 4 richtet den Fokus auf origin{\"a}r nicht-finanzielle Nachhaltigkeitsstrategien und deren Einfluss auf bilanzpolitisches Verhalten. Bisherige Studien betrachten die heterogene Gruppe der Corporate Social Responsibility (CSR) Unternehmen dabei {\"u}berwiegend in ihrer Gesamtheit. Die vorliegende Analyse in Kapitel 4 versucht demgegen{\"u}ber die untersuchten Unternehmen in pr{\"a}valente Anreizgruppen zu trennen, um vermutete diverse Anreize zur Investition in CSR mit den Anreizen zu Bilanzpolitik in Verbindung zu bringen. Hierf{\"u}r wird ein europ{\"a}isches Setting mit kapitalmarktorientierten Unternehmen der ASSET4 Datenbank zwischen 2005 und 2014 gew{\"a}hlt. Durch eine gezielte Verkn{\"u}pfung der Anreize zur Investition mit der Entscheidung zur einschl{\"a}gigen Berichterstattung werden Unternehmen mit pr{\"a}valenten Reputationsanreizen von Unternehmen mit Tendenzen zur intrinsischen, philanthropischen Motivation abgegrenzt. Die Ergebnisse lassen vermuten, dass Unternehmen mit Reputationsanreizen bilanzpolitisch konform handeln und buchm{\"a}ßige durch reale Bilanzpolitik zu ersetzen versuchen. Hierdurch lassen sich sowohl Risiken der medialen Bilanzschelte minimieren als auch hohe Gewinne als Teil einer Gesamtreputationsstrategie realisieren. Des Weiteren kann gezeigt werden, dass diese strategische Positionierung einen Einfluss auf die Wirkungsweise von Corporate Governance (CG) hat. W{\"a}hrend Maße f{\"u}r gute CG mit einem geringeren Ausmaß an buchm{\"a}ßiger Bilanzpolitik einhergehen, w{\"a}hlen Unternehmen mit Reputationsanreizen koh{\"a}rent mit ihrer strategischen Tendenz erneut ein h{\"o}heres Maß an realer Bilanzpolitik. Insgesamt deuten die Ergebnisse der Studie daraufhin, dass gewisse Unternehmen CSR als Reputationsinstrument nutzen und sich nicht konform einer nachhaltigen Strategie im Hinblick auf Bilanzpolitik verhalten.}, subject = {Bilanzpolitik}, language = {en} } @phdthesis{SalinasSegura2016, author = {Salinas Segura, Alexander}, title = {The Internet of Things: Business Applications, Technology Acceptance, and Future Prospects}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-131605}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things. The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy. The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended "Unified Theory of Acceptance and Use of Technology" (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness. The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.}, subject = {Internet der Dinge}, language = {en} } @phdthesis{Rothfuss2005, author = {Rothfuss, Christian}, title = {Die Zwischenberichterstattung b{\"o}rsennotierter deutscher Unternehmen : eine theoretische und empirische Untersuchung nach nationalen und internationalen Vorschriften}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-15652}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Seit der Transformation der EG-Zwischenberichtsrichtlinie in deutsches Recht sind alle Emittenten aus dem amtlichen Markt verpflichtet, f{\"u}r nach dem 31. Dezember 1989 beginnende Gesch{\"a}ftsjahre einen Zwischenbericht {\"u}ber die ersten sechs Monate des Gesch{\"a}ftsjahres zu ver{\"o}ffentlichen. Mit diesen bis heute noch geltenden Bestimmungen ist jedoch eine Reihe von Problemen verbunden. So enthalten die im B{\"o}rsG und in der B{\"o}rsZulV verankerten Vorschriften hinsichtlich der zu publizierenden Zahlenangaben und Erl{\"a}uterungen nur geringe Anforderungen an die unterj{\"a}hrige Berichterstattung, die teilweise aufgrund der unpr{\"a}zisen Formulierung der Bestimmungen den Unternehmen auch noch einen weitgehenden Ermessensspielraum in bezug auf die berichtspflichtigen Sachverhalte einr{\"a}umen. Dar{\"u}ber hinaus stufen die gesetzlichen Vorschriften nur die Ver{\"o}ffentlichung eines Halbjahresberichtes als verpflichtend ein, und f{\"u}r die nicht im geregelten Markt notierenden Unternehmen kann aus den Vorschriften keine Verpflichtung abgeleitet werden. Wenngleich der Gesetzgeber sich bei der Umsetzung der Zwischenberichtsrichtlinie bewußt gegen eine umfassendere unterj{\"a}hrige Berichtspflicht entschieden hat, sowohl in bezug auf die berichtspflichtigen Zahlenangaben und Erl{\"a}uterungen sowie der Anzahl der unterj{\"a}hrig zu ver{\"o}ffentlichenden Berichte, als auch im Hinblick auf die berichtspflichtigen B{\"o}rsensegmente, ist vor dem Hintergrund der fortschreitenden Globalisierung der Kapitalm{\"a}rkte und der damit verbundenen gr{\"o}ßeren Bedeutung der externen Berichterstattung der Emittenten eine grundlegende Ver{\"a}nderung bei den an eine unterj{\"a}hrige Berichterstattung gestellten Anforderungen eingetreten. W{\"a}hrend zu Beginn der gesetzlich geforderten Zwischenberichterstattung die wenigen berichtspflichtigen Zahlenangaben und Erl{\"a}uterungen noch im Einklang mit den Informationsbed{\"u}rfnissen der Kapitalmarktteilnehmer gestanden haben, ist der Informationsanspruch der Investoren in den letzten Jahren stetig gestiegen. Verantwortlich daf{\"u}r ist in erster Linie, daß die wirtschaftlichen und finanziellen Verh{\"a}ltnisse der Unternehmen immer schnelleren und h{\"a}ufigeren Ver{\"a}nderungen unterliegen, wodurch die Kapitalmarktteilnehmer neben der j{\"a}hrlichen Berichterstattung auch innerhalb des Gesch{\"a}ftsjahres auf eine umfassende Berichterstattung angewiesen sind, um m{\"o}glichst zeitnahe auf die ver{\"a}nderten Bedingungen reagieren zu k{\"o}nnen. Dar{\"u}ber hinaus hat die Internationalisierung der Rechnungslegung einen wichtigen Beitrag zur Normierung einer umfassenderen unterj{\"a}hrigen Berichterstattung geleistet. Um eine Angleichung der deutschen Vorschriften an die umfassenderen Bestimmungen der international anerkannten Rechnungslegungsstandards zu erreichen, die aufgrund der Befreiungsregel von \S 292a HGB bereits von vielen deutschen Unternehmen angewendet werden, von Bedeutung sind hierbei insbesondere die nach IFRS/IAS bzw. US-GAAP zu beachtenden Vorschriften, hat sowohl die Deutsche B{\"o}rse AG als auch das DRSC Vorschriften f{\"u}r die Erstellung von unterj{\"a}hrigen Berichten erlassen. Vor dem Hintergrund dieser Vielzahl und dem nebeneinander von gesetzlichen und privatrechtlichen Regelungen, die mittlerweile von den Gesellschaften zu beachten sind, werden in der vorliegenden Arbeit die einzelnen nationalen und internationalen Regelungen ausf{\"u}hrlich dargestellt und Gemeinsamkeiten sowie Unterschiede aufgezeigt. Im Rahmen einer empirischen Untersuchung wird dar{\"u}ber hinaus in einem Soll-Ist-Vergleich untersucht, inwieweit diese Regelungen auch Beachtung innerhalb der Zwischenberichterstattung der Gesellschaften finden. Dazu wurden 115 Zwischenberichte aus den Jahren 2000 und 2001 von Unternehmen aus den Indizes DAX, MDAX und NEMAX 50 hinsichtlich der publizierten Informationen ausgewertet. Vor dem Hintergrund der sich aus dem Nebeneinander der gesetzlichen und privatrechtlichen Vorschriften ergebenen uneinheitlichen Verpflichtungsgrundlagen und Anforderungen ist es dringend geboten, den Regulierungsrahmen f{\"u}r die Zwischenberichterstattung der aktuellen Entwicklung in der Rechnungslegung weiter anzupassen, um die teilweise bestehende Inkonsistenz der verschiedenen Vorschriften in Zukunft zu vermeiden. Durch die Bestrebungen der EU, die nationalen Rechtsvorschriften der einzelnen Mitgliedsl{\"a}nder f{\"u}r einen einheitlichen europ{\"a}ischen Kapitalmarkt weitgehend zu harmonisieren, werden dem deutschen Gesetzgeber die zuk{\"u}nftig an eine unterj{\"a}hrige Berichterstattung zu stellenden Anforderungen von Seiten der EU weitgehend vorgegeben werden. So sieht die am 26. M{\"a}rz 2003 ver{\"o}ffentlichte Transparenz-Richtlinie vor, daß ab dem Jahr 2005 alle an einem geregelten Markt notierten Emittenten einen Halbjahresfinanzbericht erstellen m{\"u}ssen. Wenngleich der von der EU-Kommission publizierte Vorschlag f{\"u}r eine zuk{\"u}nftige einheitliche Ausgestaltung der unterj{\"a}hrigen Berichterstattung in Europa grunds{\"a}tzlich positiv zu sehen ist, werden auch vor dem Hintergrund der durchgef{\"u}hrten empirischen Untersuchung erforderliche Erg{\"a}nzungen zu den an eine unterj{\"a}hrige Berichterstattung zu stellenden Anforderungen aufgezeigt. Von besonderer Bedeutung sind hierbei die Durchf{\"u}hrung einer pr{\"u}ferischen Durchsicht sowie die Verpflichtung zu einer Quartalsberichterstattung.}, subject = {Deutschland}, language = {de} } @phdthesis{Roos2005, author = {Roos, Stephanie}, title = {Unternehmensperformance und Vorstandswechsel - eine empirische Analyse zur Effizienz deutscher Aufsichtsr{\"a}te}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-20816}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen L{\"a}ndern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakul{\"a}ren Unternehmenskrisen wird weltweit in zahlreichen Aussch{\"u}ssen {\"u}ber die optimale Ausgestaltung und Qualit{\"a}t der Unternehmensf{\"u}hrung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei h{\"a}ufig die Frage nach der Qualit{\"a}t der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer {\"U}berwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der {\"O}ffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsr{\"a}te empirisch best{\"a}tigen l{\"a}sst, wird in der vorliegenden Studie {\"u}berpr{\"u}ft. Die Ann{\"a}herung an die Fragestellung erfolgt {\"u}ber eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorst{\"a}nden der DAX100-Gesellschaften {\"u}ber den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselank{\"u}ndigungen betrachtet. Die Kursanalysen geben Aufschluss {\"u}ber die Bedeutung der personellen Eingriffe durch den Aufsichtsrat f{\"u}r die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis f{\"u}r die Ableitung interessanter Erkenntnisse {\"u}ber die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.}, subject = {Aktiengesellschaft}, language = {de} } @article{RodriguezEntrenaSchuberthGelhard2018, author = {Rodr{\´i}guez-Entrena, Macario and Schuberth, Florian and Gelhard, Carsten}, title = {Assessing statistical differences between parameters estimates in Partial Least Squares path modeling}, series = {Quality \& Quantity}, volume = {52}, journal = {Quality \& Quantity}, number = {1}, doi = {10.1007/s11135-016-0400-8}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-226403}, pages = {57-69}, year = {2018}, abstract = {Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model.}, language = {en} } @misc{Rhoenisch2019, type = {Master Thesis}, author = {Rh{\"o}nisch, Anna Franziska}, title = {M{\"o}glichkeiten und Strategien der Technologieclusterentwicklung - Eine Analyse der Voraussetzungen f{\"u}r eine erfolgreiche Clusterbildung in der Region Mainfranken}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-179546}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {This paper focuses on the development of technology clusters and based on this, on two research questions: What are the preconditions for technology cluster development according to cluster research? And, does the region Mainfranken fulfill the requirements for a technology cluster formation? For this purpose, a qualitative study will be conducted by referring to various theoretical concepts of cluster formation. Due to this, the following determinants of cluster development can be deduced into: the traffic infrastructure and infrastructure component, the cluster environment component, the university component, the state component and the industrial component. The analysis of the parameter value of the separate cluster components shows that the core requirements of technology cluster development in the region of Mainfranken are fulfilled. Nevertheless, it is necessary to improve the infrastructure, the commercial and industrial availability of land and availability of capital to form a successful technology cluster. Within the framework of this paper, the potential of technology cluster development in the field of artificial intelligence could also be analyzed.}, subject = {Cluster }, language = {de} } @phdthesis{Reichert2013, author = {Reichert, Michael}, title = {Der Einfluss von Kosten, Steuern und Sterblichkeit auf die private kapitalgedeckte Altersvorsorge - Eine modelltheoretische Untersuchung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-110902}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. W{\"a}hrend sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers besch{\"a}ftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Ber{\"u}cksichtigung von Sterblichkeitsaspekten behandelt. Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gew{\"a}hlten Modellrahmen wie folgt thesenartig zusammenfassen:  Aufgrund der staatlichen F{\"o}rderungen und der Reglementierung bez{\"u}glich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungef{\"o}rderten Anlagealternativen {\"u}berlegen (Kapitel 3).  Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt daf{\"u}r, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierf{\"u}r prozentual gesehen wesentlich h{\"o}here Entlastungen erforderlich als bei fondsgest{\"u}tzten Anlageprodukten. Die Einf{\"u}hrung eines Kostenkoeffizienten unterst{\"u}tzt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgest{\"u}tzten Produkten l{\"a}sst sich aufgrund der Wechselwirkung zwischen {\"u}bertragenem Verm{\"o}gen und Kosten kein eindeutiger Koeffizient zuordnen.  Unter der Annahme vollst{\"a}ndiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine sch{\"a}dliche Verwendung des angesparten Riester-Verm{\"o}gens einer rentenf{\"o}rmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des gef{\"o}rderten Verm{\"o}gens f{\"u}r die Altersvorsorge ist somit letztlich nicht garantiert. Je j{\"u}nger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer f{\"a}llt der kritische Kapitalmarktzins aus.  Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bev{\"o}lkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen F{\"o}rderungsdauer besonders f{\"u}r junge Anleger der Unterlassensalternative {\"u}berlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bev{\"o}lkerungsdurchschnitt liegt, eine sch{\"a}dliche Verwendung des Riester-gef{\"o}rderten Altersvorsorgeverm{\"o}gens einer gesetzlich vorgeschriebenen, rentenf{\"o}rmigen Kapitalisierung vor.  Sozio{\"o}konomische Faktoren beeinflussen in Abh{\"a}ngigkeit von der tats{\"a}chlichen Auspr{\"a}gung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erkl{\"a}rungsansatz daf{\"u}r herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepr{\"a}sentiert sind.}, subject = {Altersversorgung}, language = {de} } @phdthesis{Reeg2017, author = {Reeg, Johannes}, title = {Empirical Studies of Contemporaneous Banking Research}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-153581}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {Banks perform important functions for the economy. Besides financial intermediation, banks provide information, liquidity, maturity- and risk-transformation (Fama, 1985). Banks ensure the transfer of liquidity from depositors to the most profitable investment projects. In addition, they perform important screening and monitoring services over investments hence contributing steadily to the efficient allocation of resources across the economy (Pathan and Faff, 2013). Since banks provide financial services all across the economy, this exposes banks (as opposed to non-banks) to systemic risk: the recent financial crisis revealed that banks can push economies into severe recessions. However, the crisis also revealed that certain bank types appear far more stable than others. For instance, cooperative banks performed better during the crisis than commercial banks. Different business models may reason these performance-differences: cooperative banks focus on relationship lending across their region, hence these banks suffered less from the collapse of the US housing market. Since cooperative banks performed better during the crisis than commercial banks, it is quite surprising that research concerning cooperative banks is highly underrepresented in the literature. For this reason, the following three studies aim to contribute to current literature by examining three independent contemporaneous research questions in the context of cooperative banks. Chapter 2 examines whether cooperative banks benefit from revenue diversification: Current banking literature reveals the recent trend in the overall banking industry that banks may opt for diversification by shifting their revenues to non-interest income. However, existing literature also shows that not every bank benefits from revenue diversification (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Stiroh and Rumble (2006) find that large commercial banks (US Financial Holding Companies) perceive decreasing performance by shifting revenues towards non-interest income. Revenues from cooperative banks differ from those of commercial banks: commercial banks trade securities and derivatives, sell investment certificates and other trading assets. Concerning the lending business, commercial banks focus on providing loans for medium-sized and large companies rather than for small (private) customers. Cooperative banks rely on commission income (fees) from monetary transactions and selling insurances as a source of non-interest income. They generate most of their interest income by providing loans to small and medium-sized companies as well as to private customers in the region. These differences in revenues raise the question whether findings from Stiroh and Rumble (2006) apply to cooperative banks. For this reason, Chapter 2 evaluates a sample of German cooperative banks over the period 2005 to 2010 and aims to investigate the following research question: which cooperative banks benefit from revenue diversification? Results show that findings from Stiroh and Rumble (2006) do not apply to cooperative banks. Revenue concentration is positive related to risk-adjusted returns (indirect effect) for cooperative banks. At the same time, non-interest income is more profitable than interest income (direct effect). The evaluation of the underlying non-interest income share shows that banks who heavily focus on non-interest income benefit by shifting towards non-interest income. This finding arises due to the fact, that the positive direct effect dominates the negative indirect effect, leading in a positive (and significant) net effect. Furthermore, results reveal a negative net effect for banks who are heavily exposed to interest generating activities. This indicates that shifting to non-interest income decreases risk-adjusted returns for these banks. Consequently, these banks do better by focusing on the interest business. Overall, results show evidence that banks need time to build capabilities, expertise and experience before trading off return and risk efficiently with regard on revenue diversification. Chapter 3 deals with the relation between credit risk, liquidity risk, capital risk and bank efficiency: There has been rising competition in the European banking market due to technological development, deregulation and the introduction of the Euro as a common currency in recent decades. In order to remain competitive banks were forced to improve efficiency. That is, banks try to operate closer to a "best practice" production function in the sense that banks improve the input - output relation. The key question in this context is if banks improve efficiency at a cost of higher risk to compensate decreasing earnings. When it comes to bank risk, a large strand of literature discusses the issue of problem loans. Several studies identify that banks hold large shares of non-performing loans in their portfolio before becoming bankrupt (Barr and Siems, 1994; Demirg{\"u}c-Kunt, 1989). According to efficiency, studies show that the average bank generates low profits and incorporates high costs compared to the "best practice" production frontier (Fiordelisi et al., 2011; Williams, 2004). At first glance, these two issues do not seem related. However, Berger and DeYoung (1997) show that banks with poor management are less able to handle their costs (low cost-efficiency) as well as to monitor their debtors in an appropriate manner to ensure loan quality. The negative relationship between cost efficiency and non-performing loans leads to declining capital. Existing studies (e.g. Williams, 2004; Berger and DeYoung, 1997) show that banks with a low level of capital tend to engage in moral hazard behavior, which in turn can push these banks into bankruptcy. However, the business model of cooperative banks is based on the interests of its commonly local customers (the cooperative act: \S 1 GenG). This may imply that the common perception of banks engaging in moral hazard behavior may not apply to cooperative banks. Since short-term shareholder interests (as a potential factor for moral hazard behavior) play no role for cooperative banks this may support this notion. Furthermore, liquidity has been widely neglected in the existing literature, since the common perception has been that access to additional liquid funds is not an issue. However, the recent financial crisis revealed that liquidity dried up for many banks due to increased mistrust in the banking sector. Besides investigating moral hazard behavior, using data from 2005 to 2010 this study moves beyond current literature by employing a measure for liquidity risk in order to evaluate how liquidity risk relates to efficiency and capital. Results mostly apply to current literature in this field since the empirical evaluation reveals that lower cost and profit-efficiency Granger-cause increases in credit risk. At the same time, results indicate that credit risk negatively Granger-causes cost and profit-efficiency, hence revealing a bi-directional relationship between these measures. However, most importantly, results also show a positive relationship between capital and credit risk, thus displaying that moral hazard behavior does not apply to cooperative banks. Especially the business model of cooperative banks, which is based on the interests of its commonly local customers (the cooperative act: \S 1 GenG) may reason this finding. Contrary to Fiordelisi et al. (2011), results also show a negative relationship between capital and cost-efficiency, indicating that struggling cooperative banks focus on managing their cost-exposure in following periods. Concerning the employed liquidity risk measure, the authors find that banks who hold a high level of liquidity are less active in market related investments and hold high shares of equity capital. This outcome clearly reflects risk-preferences from the management of a bank. Chapter 4 examines governance structures of cooperative banks: The financial crisis of 2007/08 led to huge distortions in the banking market. The failure of Lehman Brothers was the beginning of government interventions in various countries all over the world in order to prevent domestic economies from even further disruptions. In the aftermath of the crisis, politicians and regulators identified governance deficiencies as one major factor that contributed to the crisis. Besides existing studies in the banking literature (e.g. Beltratti and Stulz, 2012; Diamond and Rajan, 2009; Erkens et al., 2012) an OECD study from 2009 supports this notion (Kirkpatrick, 2009). Public debates increased awareness for the need of appropriate governance mechanisms at that time. Consequently, politicians and regulators called for more financial expertise on bank boards. Accordingly, the Basel Committee on Banking Supervision states in principle 2 that "board members should remain qualified, individually and collectively, for their positions. They should understand their oversight and corporate governance role and be able to exercise sound, objective judgement about the affairs of the bank." (BCBS, 2015). Taking these perceptions into consideration the prevailing question is whether financial experts on bank boards do really foster bank stability? This chapter aims to investigate this question by referring to the study from Minton et al. (2014). In their study, the authors investigate US commercial bank holding companies between the period 2003 and 2008. The authors find that financial experts on the board of US commercial bank holding companies promote pro-cyclical bank performance. Accordingly, the authors question regulators view of more financial experts on the board leading to more banking stability. However, Minton et al. (2014) do not examine whether their findings accrue due to financial experts who act in the interests of shareholders or due to the issue that financial experts may have a more risk-taking attitude (due to a better understanding of financial instruments) than other board members. Supposed that their findings accrue due to financial experts who act in the interests of shareholders. Then financial experts on the board of banks where short-term shareholder interests play no role (cooperative banks) may prove beneficial with regard on bank performance during the crisis as well as in normal times. This would mean that they use their skills and expertise to contribute sustainable growth to the bank. Contrary, if this study reveals pro-cyclical bank performance related to financial experts on the board of cooperative banks, this finding may be addressed solely to the risk-taking attitude of financial experts (since short-term shareholder interests play no role). For this reason, this chapter aims to identify the channel for the relation of financial experts and bank performance by examining the following research question: Do financial experts on the board promote pro-cyclical bank performance in a setting where short-term shareholder interests play no role? Results show that financial experts on the board of cooperative banks (data from 2006 to 2011) do not promote pro-cyclical bank performance. Contrary, results show evidence that financial experts on the board of cooperative banks appear to foster long-term bank stability. This suggests that regulators should consider ownership structure (and hence business model of banks) when imposing new regulatory constraints for financial experts on the bank board.}, language = {en} } @article{RauBredow2019, author = {Rau-Bredow, Hans}, title = {Bigger is not always safer: a critical analysis of the subadditivity assumption for coherent risk measures}, series = {Risks}, volume = {7}, journal = {Risks}, number = {3}, doi = {10.3390/risks7030091}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-201808}, pages = {91}, year = {2019}, abstract = {This paper provides a critical analysis of the subadditivity axiom, which is the key condition for coherent risk measures. Contrary to the subadditivity assumption, bank mergers can create extra risk. We begin with an analysis how a merger affects depositors, junior or senior bank creditors, and bank owners. Next it is shown that bank mergers can result in higher payouts having to be made by the deposit insurance scheme. Finally, we demonstrate that if banks are interconnected via interbank loans, a bank merger could lead to additional contagion risks. We conclude that the subadditivity assumption should be rejected, since a subadditive risk measure, by definition, cannot account for such increased risks.}, language = {en} } @article{RademakerSchuberthDijkstra2019, author = {Rademaker, Manuel E. and Schuberth, Florian and Dijkstra, Theo K.}, title = {Measurement error correlation within blocks of indicators in consistent partial least squares : Issues and remedies}, series = {Internet Research}, volume = {29}, journal = {Internet Research}, number = {3}, doi = {10.1108/IntR-12-2017-0525}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-224901}, pages = {448-463}, year = {2019}, abstract = {Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling.}, language = {en} } @article{OberdorfSchaschekWeinzierletal.2023, author = {Oberdorf, Felix and Schaschek, Myriam and Weinzierl, Sven and Stein, Nikolai and Matzner, Martin and Flath, Christoph M.}, title = {Predictive end-to-end enterprise process network monitoring}, series = {Business \& Information Systems Engineering}, volume = {65}, journal = {Business \& Information Systems Engineering}, number = {1}, issn = {2363-7005}, doi = {10.1007/s12599-022-00778-4}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-323814}, pages = {49-64}, year = {2023}, abstract = {Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method's utility for organizations.}, language = {en} } @phdthesis{Oberdorf2022, author = {Oberdorf, Felix}, title = {Design and Evaluation of Data-Driven Enterprise Process Monitoring Systems}, doi = {10.25972/OPUS-29853}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-298531}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios. To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming. To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network. Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement.}, subject = {Operations Management}, language = {en} } @phdthesis{Notz2021, author = {Notz, Pascal Markus}, title = {Prescriptive Analytics for Data-driven Capacity Management}, doi = {10.25972/OPUS-24042}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-240423}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM). First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems. The first article, "Prescriptive Analytics for Flexible Capacity Management", develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters. The second article, "Prescriptive Analytics for a Multi-Shift Staffing Problem", uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the "worlds" of queuing theory and prescriptive analytics. The third article, "Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management" proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions. The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation.}, subject = {Maschinelles Lernen}, language = {en} } @phdthesis{Mueller2003, author = {M{\"u}ller, Holger}, title = {Gestaltungsanforderungen Internettechnologie-basierter Marktpl{\"a}tze aus Sicht der industriellen Beschaffung : Entwurf eines entscheidungsorientierten objektzentrierten Analyseschemas}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8353}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Internettechnologie-basierte Marktpl{\"a}tze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ern{\"u}chterung ein, da die Nutzung der Marktpl{\"a}tze weitaus langsamer voranging als allgemein erwartet wurde. Daf{\"u}r wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels" Internettechnologie-basierter Marktplatz angef{\"u}hrt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterst{\"u}tzung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht dar{\"u}ber hinweg t{\"a}uschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. {\"A}hnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabl{\"a}ufe sicher, effizient und durchg{\"a}ngig zu unterst{\"u}tzen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktpl{\"a}tze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu erm{\"o}glichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in f{\"u}nf Hauptteile. Im zweiten Kapitel werden zun{\"a}chst die f{\"u}r die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktpl{\"a}tze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender {\"o}konomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktm{\"a}ßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Gesch{\"a}ftstransaktion m{\"u}ndet. Der im Anschluss skizzierte Aufbau elektronischer Marktpl{\"a}tze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktpl{\"a}tze - die Internettechnologie-basierten Marktpl{\"a}tze - werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterst{\"u}tzung des Transaktionsprozesses gegen{\"u}bergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit {\"u}bertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems f{\"u}r Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktpl{\"a}tze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die f{\"u}r die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verkn{\"u}pfung der Eigenschaften resultiert in drei zu ber{\"u}cksichtigenden Objektmerkmalen - Spezifit{\"a}t, Komplexit{\"a}t und strategische Bedeutung - mit jeweils bipolaren Auspr{\"a}gungen, die zusammen einen W{\"u}rfel mit acht Beschaffungsobjektgruppen bilden. Im f{\"u}nften Kapitel werden ausgehend vom Aufbau elektronischer Marktpl{\"a}tze die m{\"o}glichen Funktionalit{\"a}ten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterst{\"u}tzung der einzelnen Phasen einer Gesch{\"a}ftstransaktion die {\"u}bergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchf{\"u}hrbaren Gesch{\"a}ftsvorf{\"a}lle bzw. Prozessabl{\"a}ufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen f{\"u}r jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktpl{\"a}tze f{\"u}r den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erf{\"u}llen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl f{\"u}r Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universit{\"a}t laufenden Studie „b2b-Marktplatzf{\"u}hrer" erhoben wurde, konnten zum 15.07.2003 79 Marktpl{\"a}tze einbezogen werden.}, subject = {Internet}, language = {de} } @phdthesis{MillerSuermann2004, author = {Miller-Suermann, Annette}, title = {Herausforderungen moderner Biotechnologien an die Unternehmensethik}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10876}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualit{\"a}t der Menschen sowie ein Wachstum von Wirtschaft und Arbeitspl{\"a}tzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen M{\"o}glichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele f{\"u}r derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausf{\"u}hrlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung {\"u}bernehmen k{\"o}nnen, welchen Beitrag Unternehmen bei der L{\"o}sung und Vermeidung moralischer Konflikte leisten k{\"o}nnen und welche M{\"o}glichkeiten bestehen, dass ethische Bem{\"u}hungen im Unternehmensalltag umgesetzt werden k{\"o}nnen. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden m{\"o}gliche Gr{\"u}nde f{\"u}r deren geringe Verbreitung aufgezeigt.}, subject = {Biotechnologische Industrie}, language = {de} } @phdthesis{Menzel2020, author = {Menzel, Moritz}, title = {Das Betriebsrentenst{\"a}rkungsgesetz und seine Auswirkungen auf Geringverdiener. Eine modelltheoretische Analyse}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-126-6}, doi = {10.25972/WUP-978-3-95826-127-3}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-191753}, school = {W{\"u}rzburg University Press}, pages = {XXII, 201}, year = {2020}, abstract = {Vor allem unter Geringverdienern ist die betriebliche Altersversorgung nur unterdurchschnittlich verbreitet. Mit dem zum 01.01.2018 in Kraft getretenen Betriebsrentenst{\"a}rkungsgesetz und insbesondere dem sogenannten BAV-F{\"o}rderbetrag (\S 100 EStG) versucht der Gesetzgeber daher, diese Altersvorsorgeform attraktiver zu gestalten und so deren Verbreitung unter Geringverdienern auszuweiten. Dass dieses Ziel zumindest aus modelltheoretischer Sicht erreicht werden kann, zeigen die Ergebnisse dieser Studie auf. Anhand eines deterministischen Rechenmodells werden die finanziellen Vor- und Nachteile verschiedener Vorsorgealternativen aufgedeckt und pr{\"a}zise beziffert. Daneben widmet sich die Arbeit auch den steuer-, sozialversicherungs- und arbeitsrechtlichen Regelungen der betrieblichen Altersversorgung vor und nach Inkrafttreten des Betriebsrentenst{\"a}rkungsgesetzes und diskutiert dar{\"u}ber hinaus alternative Reformmaßnahmen.}, subject = {Betriebsrentenst{\"a}rkungsgesetz}, language = {de} } @phdthesis{Meller2020, author = {Meller, Jan Maximilian}, title = {Data-driven Operations Management: Combining Machine Learning and Optimization for Improved Decision-making}, doi = {10.25972/OPUS-20604}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-206049}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {This dissertation consists of three independent, self-contained research papers that investigate how state-of-the-art machine learning algorithms can be used in combination with operations management models to consider high dimensional data for improved planning decisions. More specifically, the thesis focuses on the question concerning how the underlying decision support models change structurally and how those changes affect the resulting decision quality. Over the past years, the volume of globally stored data has experienced tremendous growth. Rising market penetration of sensor-equipped production machinery, advanced ways to track user behavior, and the ongoing use of social media lead to large amounts of data on production processes, user behavior, and interactions, as well as condition information about technical gear, all of which can provide valuable information to companies in planning their operations. In the past, two generic concepts have emerged to accomplish this. The first concept, separated estimation and optimization (SEO), uses data to forecast the central inputs (i.e., the demand) of a decision support model. The forecast and a distribution of forecast errors are then used in a subsequent stochastic optimization model to determine optimal decisions. In contrast to this sequential approach, the second generic concept, joint estimation-optimization (JEO), combines the forecasting and optimization step into a single optimization problem. Following this approach, powerful machine learning techniques are employed to approximate highly complex functional relationships and hence relate feature data directly to optimal decisions. The first article, "Machine learning for inventory management: Analyzing two concepts to get from data to decisions", chapter 2, examines performance differences between implementations of these concepts in a single-period Newsvendor setting. The paper first proposes a novel JEO implementation based on the random forest algorithm to learn optimal decision rules directly from a data set that contains historical sales and auxiliary data. Going forward, we analyze structural properties that lead to these performance differences. Our results show that the JEO implementation achieves significant cost improvements over the SEO approach. These differences are strongly driven by the decision problem's cost structure and the amount and structure of the remaining forecast uncertainty. The second article, "Prescriptive call center staffing", chapter 3, applies the logic of integrating data analysis and optimization to a more complex problem class, an employee staffing problem in a call center. We introduce a novel approach to applying the JEO concept that augments historical call volume data with features like the day of the week, the beginning of the month, and national holiday periods. We employ a regression tree to learn the ex-post optimal staffing levels based on similarity structures in the data and then generalize these insights to determine future staffing levels. This approach, relying on only few modeling assumptions, significantly outperforms a state-of-the-art benchmark that uses considerably more model structure and assumptions. The third article, "Data-driven sales force scheduling", chapter 4, is motivated by the problem of how a company should allocate limited sales resources. We propose a novel approach based on the SEO concept that involves a machine learning model to predict the probability of winning a specific project. We develop a methodology that uses this prediction model to estimate the "uplift", that is, the incremental value of an additional visit to a particular customer location. To account for the remaining uncertainty at the subsequent optimization stage, we adapt the decision support model in such a way that it can control for the level of trust in the predicted uplifts. This novel policy dominates both a benchmark that relies completely on the uplift information and a robust benchmark that optimizes the sum of potential profits while neglecting any uplift information. The results of this thesis show that decision support models in operations management can be transformed fundamentally by considering additional data and benefit through better decision quality respectively lower mismatch costs. The way how machine learning algorithms can be integrated into these decision support models depends on the complexity and the context of the underlying decision problem. In summary, this dissertation provides an analysis based on three different, specific application scenarios that serve as a foundation for further analyses of employing machine learning for decision support in operations management.}, subject = {Operations Management}, language = {en} } @phdthesis{Mautner2012, author = {Mautner, Romana}, title = {Datenintegration f{\"u}r Bauprojekte der Gebietsk{\"o}rperschaften}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-138611}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {Bei der Durchf{\"u}hrung {\"o}ffentlicher Bauprojekte ist eine intensive Zusammenarbeit zwi¬schen vielen Beteiligten erforderlich: die in der Bauverwaltung des Bauherren angesiedelte Projektleitung, Bedarfstr{\"a}ger (z. B. Universit{\"a}t oder Be¬h{\"o}rde), Gre-mien des Bauherrn (Kommunal-, Kreis- oder Bundesparlament), dessen Haus-haltsabteilung, Objekt- und Fachplaner (freiberuflich oder als Mitarbeiter der Bauverwaltung), Gutachter, Bauunternehmen, Lieferanten und Dienstleister, Raumordnungs-, Planfeststellungs- und Genehmigungsbeh{\"o}rden. Der Planungs-, Genehmigungs- und Realisationsprozess erstreckt sich meist {\"u}ber mehrere Jahre. W{\"a}hrenddessen ist ein intensiver Informations- und Kommunikationsaustausch zwischen den Beteiligten erforderlich. Baupl{\"a}ne, Leistungsverzeichnisse, Ange-bote, Vertr{\"a}ge, Protokolle, Bauzeitenpl{\"a}ne und Rechnungen werden immer noch per E-Mail oder in Papierform ausgetauscht. Wegen der meist gr{\"o}ßeren Zahl zeit-gleich betreuter Bauprojekte f{\"u}hrt dies bei fast allen Beteiligten regelm{\"a}ßig zu einer herausfordernd großen Korrespondenz und einem als mangelhaft zu be-zeichnenden {\"U}berblick {\"u}ber die aktuellen Projektdaten. Wegen der hochgradigen Interdependenz der Teilprozesse {\"u}ber alle Phasen hin-weg sind aber eine m{\"o}glichst reibungslose Koordination und die st{\"a}ndige Verf{\"u}g-barkeit aktueller Daten bei allen Beteiligten unabdingbare Voraussetzungen, um eine Baumaßnahme z{\"u}gig und im vorgesehenen Kostenrahmen auszuf{\"u}hren. W{\"a}hrend Datenaustausch und Koordination bei großen gewerblichen Bauprojek-ten bereits mit Erfolg durch virtuelle Projektr{\"a}ume unterst{\"u}tzt werden, sind die {\"o}ffentlichen Bauverwaltungen hier noch z{\"o}gerlich. Die Erstellung eines einheitli-chen und prozess{\"u}bergreifenden Datenmodells speziell f{\"u}r die Abl{\"a}ufe {\"o}ffentli-cher Auftraggeber als Ziel der Arbeit k{\"o}nnte helfen, die Vorteile eines zentralen, f{\"u}r alle Beteiligten zug{\"a}nglichen Datenbestandes auch f{\"u}r die Bauverwaltungen und ihre Projekte nutzbar zu machen und vormals getrennt gehaltene Datenbe-st{\"a}nde zu einem einzigen zusammenzuf{\"u}hren (Datenintegration). Die gr{\"u}ndliche Analyse der Abl{\"a}ufe und Informationsfl{\"u}sse zwischen den Beteiligten {\"u}ber alle Phasen eines {\"o}ffentlichen Bauprojekts hinweg sowie eine Bestandsaufnahme der gegenw{\"a}rtig am Markt verf{\"u}gbaren virtuellen Projektr{\"a}ume im ersten Teil der Arbeit bilden die Grundlage f{\"u}r die Modellierung der Daten sowie ihrer Zusam-menh{\"a}nge im zweiten Teil. Mit der Gesamtdarstellung der Beteiligten, ihrer Rollen und Aufgaben, der Do-kumente und der zugeh{\"o}rigen Metadaten {\"u}ber alle Phasen und Baufachbereiche hinweg wurde ein neuer Forschungsbeitrag erarbeitet. Die unterschiedlichen Be-zeichnungen z. B. in Hoch- und Tiefbauprojekten wurden im Interesse der Ver-st{\"a}ndlichkeit erhalten, aber in einer gemeinsamen Struktur zusammengef{\"u}hrt. Diese Modellierung ist die Voraussetzung f{\"u}r eine verbesserte informationstech-nische Unterst{\"u}tzung {\"o}ffentlicher Bauprojekte und zugleich die ureigenste Aufga-be des Wirtschaftsinformatikers als Mittler zwischen Anwendern und Entwick-lern. Das in dieser Arbeit entwickelte Datenmodell erlaubt wegen seiner verwaltungs- und baufachbereichs{\"u}bergreifenden Konzeption im Sinne eines Referenzmodells den Einsatz als Basis einer Standardanwendungssoftware, die mit geringem An-passungsaufwand bei einer großen Zahl an Kunden im {\"o}ffentlichen Bereich einge-setzt werden kann. Beispiele sind Projektraumanwendungen sowie Workflow-Management-Systeme. Es ist zugleich ein Referenzvorschlag an die Entwickler bestehender Anwendungen zur Definition von Schnittstellen und schließlich zur Umsetzung applikations{\"u}bergreifender Integrationsans{\"a}tze.}, subject = {Bauvorhaben}, language = {de} } @phdthesis{Maier2006, author = {Maier, Nina}, title = {Die Regelungen zur Gesellschafter-Fremdfinanzierung im internationalen Vergleich}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19161}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Die Gesellschafter-Fremdfinanzierung wird sowohl in Deutschland also auch europaweit sowie international zunehmend restriktiv geregelt mit der Folge, dass die steuerlichen Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules) die Finanzierungsentscheidung multinationaler Konzerne in immer st{\"a}rkerem Maße beeinflussen. Dabei belegt die internationale Diskussion zu den Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules), dass weltweit Regelungsbedarf gesehen wird. Steigenden Einfluss auf das Steuerrecht der Mitgliedstaaten gewinnt dabei insbesondere die Rechtsprechung des EuGH. So war nicht zuletzt die Rechtsprechung in der Rechtssache Lankhorst-Hohorst, deren Befassungsgegenstand auf die unterschiedliche Behandlung einer Tochtergesellschaft je nach Sitz der Muttergesellschaft abzielt, entscheidend f{\"u}r die Neukonzeption der Regelungen in Deutschland und verschiedenen anderen Mitgliedstaaten. Diese Regelungen stoßen jedoch weiterhin sowohl in Deutschland als auch international auf scharfe Kritik. Neben europarechtlichen Grunds{\"a}tzen setzt die Kritik an allgemeinen Grunds{\"a}tzen des deutschen Steuerrechts und an abkommensrechtlichen Grunds{\"a}tzen an. Ziel der vorliegenden Dissertation ist es, die verschiedenen internationalen Regelungen zur Problematik der Gesellschafter-Fremdfinanzierung typisierend zu erfassen und nach den relevanten Grunds{\"a}tzen zu w{\"u}rdigen. In Anbetracht der restriktiven Rechtsprechung des EuGH wird das Hauptaugenmerk auf europarechtliche Tatbestandsvoraussetzungen gerichtet, jedoch finden auch die Vorgaben des deutschen Steuerrechts sowie des Abkommensrechts Beachtung. Den Abschluss findet die Untersuchung in einer Darstellung und W{\"u}rdigung verschiedener Reform{\"u}berlegungen zur Ausgestaltung der Regelungen zur Gesellschafter-Fremdfinanzierung und der Ausarbeitung eines L{\"o}sungsvorschlags, der weitgehend die verschiedenen Ebenen der Kritik anspricht und mit dem Regelungszweck vereint. Dieser L{\"o}sungsvorschlag wird abschließend auf den Pr{\"u}fstein der verschiedenen steuerlichen, europarechtlichen und abkommensrechtlichen Grunds{\"a}tze gestellt.}, subject = {Gesellschafterfremdfinanzierung}, language = {de} } @phdthesis{Luecking2013, author = {L{\"u}cking, Thomas}, title = {Acquisition Behavior in High-Technology Industries - The Role of Product Diversification, Technological Change, and IP Protection}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-85065}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Frequent acquisition activities in high-technology industries are due to the intense competition, driven by short product life cycles, more complex products/services and prevalent network effects. This dissertation theoretically analyzes the circumstances leading to technology-driven acquisitions and empirically tests these within a clearly defined market scenario.}, subject = {Mergers and Acquisitions}, language = {en} } @article{LeimeisterStieglitzMatzneretal.2021, author = {Leimeister, Jan Marco and Stieglitz, Stefan and Matzner, Martin and Kundisch, Dennis and Flath, Christoph and R{\"o}glinger, Maximilian}, title = {Quo Vadis Conferences in the Business and Information Systems Engineering (BISE) Community After Covid}, series = {Business \& Information Systems Engineering}, volume = {63}, journal = {Business \& Information Systems Engineering}, number = {6}, issn = {2363-7005}, doi = {10.1007/s12599-021-00707-x}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-308902}, pages = {741-749}, year = {2021}, language = {en} } @phdthesis{Leidner2017, author = {Leidner, Jacob Justus}, title = {Empirical Studies on Auditing in Germany and the U.S.}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-143901}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {Chapter 2 concerns the audit market for German credit institutions (excluding savings banks and cooperative banks), and the presented study allows conclusions to be drawn regarding recent concentration levels of this particular audit market. The last reliable (statistical) studies concerning the audit market for German credit institutions were published several years ago (Grothe 2005; Lenz 1996b; Lenz 1997; Lenz 1998). This is surprising because parts of the new regulations concerning the audit market for public-interest entities—which should also apply to credit institutions (European Commission 2006c)—in Europe would require analyses of the audit market concentration to be performed on a regular basis. Therefore, this study begins to fill this research gap, and it reveals that the audit market for German credit institutions was highly concentrated (market leadership: KPMG AG WPG and PricewaterhouseCoopers AG WPG) in 2006 and 2010. Moreover, the findings also highlight that between these years, neither a notable trend toward higher levels of concentration nor a deconcentration process was evident. Finally, it is illustrated that the regulatory requirements for publishing audit fees and the corresponding right to claim exemption (\S\S 285 Sentence 1 No. 17, 314 (1) No. 9 Commercial Code) do not allow the calculation of concentration figures that cover the entire audit market for credit institutions. Thus, it will continue to be necessary to use surrogates for audit fees, and analyses reveal that the arithmetic mean of the total business volume (or total assets) of a credit institution and its square root is a very good surrogate for calculating concentration measures based on audit fees. Chapter 3 seeks to determine whether public oversight of public-interest entities (PIEs) increases audit fees specifically in the financial industry, which is already a highly regulated industry characterized by intense supervision. To answer this question, a sample of 573 German credit institutions is examined over the 2009-2011 period, as not all credit institutions were considered PIEs in Germany (until very recently). First, the results show that a credit institution's business risk is related to audit fees. In addition, the findings reveal not only that PIE credit institutions pay statistically significantly higher audit fees but also that this effect is economically substantial (representing an audit fee increase of 31.38\%). Finally, there are several indications that the relationship between (other) credit institutions' business risks and audit fees is greater for PIE credit institutions. Chapter 4 examines the association between the results of auditor ratification votes and perceived external financial reporting quality. As has been recently remarked by Wei et al. (2015), far too little is known about shareholders' interests in and perceptions of the election, approval or ratification of auditors. Although auditor ratification by shareholders is normally a routine, non-binding action and the voting ratios are in the range of 95\% or higher, the SEC emphasized the importance of this process by amending the disclosure requirements for such voting results in 2010 (SEC 2009; SEC 2010). This study demonstrates that the results of auditor ratification votes are associated with market reactions to earnings surprises (SEC registrants; 2010 to 2013). Moreover, there are moderate indications that this effect may be positively related to higher levels of information asymmetry between managers and shareholders, that such voting results contain incremental informational content beyond that of other publicly available audit-related information, and that the time lag between the ratification of an auditor and the earnings announcement influences the vote's importance. Finally, the study sheds additional light on an overlooked audit-related topic (e.g., Dao et al. 2012; Hermanson et al. 2009; Krishnan and Ye 2005; Sainty et al. 2002), and illustrates its relation to accounting. More importantly, the provided evidence indicates that disclosure of the results of auditor ratification votes might benefit (prospective) shareholders. Chapter 5 addresses the question of whether and when shareholders may have a negative perception of an auditor's economic dependence on the client. The results for a Big 4 client sample in the U.S. (2010 to 2014) show that the economic importance of the client—measured at the audit office-level—is negatively associated with shareholders' perceptions of external financial reporting quality—measured in terms of the earnings response coefficient and the ex ante cost of equity capital—and, therefore, is perceived as a threat to auditor independence. Moreover, the study reveals that shareholders primarily regard independence due to client dependence as a problem for firms that are more likely to be in financially distressed conditions.}, subject = {Deutschland}, language = {en} } @phdthesis{Lauton2021, author = {Lauton, Felix}, title = {Three Essays on the Procurement of Essential Medicines in Developing Countries}, doi = {10.25972/OPUS-22063}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-220631}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant's in-country registration: If the buyer can ship the entrant's product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant's product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant's product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume's allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker's trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer's size, the suppliers' value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer's learning about the suppliers' quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy's performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems.}, subject = {Entwicklungsl{\"a}nder}, language = {en} } @phdthesis{Kaemmerer2017, author = {K{\"a}mmerer, Christian}, title = {Fehlmengenkosten in der Distributionslogistik: Analyse und Modellierung aus Sicht der Investitionsg{\"u}terindustrie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-143013}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferf{\"a}higkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbest{\"a}nde definiert, die ohne ausreichende Ber{\"u}cksichtigung der Kundenbed{\"u}rfnisse und integrierte Modellans{\"a}tze m{\"o}gliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ans{\"a}tzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsg{\"u}terherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grunds{\"a}tzliche Beziehung zueinander zu setzen. Beide Kostenbl{\"o}cke werden in der gr{\"o}ßtm{\"o}glichen Granularit{\"a}t in ein distributionslogistisches Modell {\"u}berf{\"u}hrt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage gepr{\"u}ft und auf ihre Relevanz f{\"u}r die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbest{\"a}nden ausreichend identifiziert, noch die unterschiedlichen Auspr{\"a}gungen von Fehlmengenkosten umf{\"a}nglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden m{\"u}ssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsl{\"a}ufig erh{\"o}hte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese k{\"o}nnen die Lieferf{\"a}higkeit {\"u}ber einen l{\"a}ngeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig gesch{\"a}digt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden f{\"u}hrt. Durch die Modifizierungen einiger wichtiger Pr{\"a}missen und Modellparameter, welche die Merkmale der Investitionsg{\"u}terindustrie in besonderer Weise ber{\"u}cksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine n{\"u}tzliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne ad{\"a}quaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.}, subject = {Fehlmengenkosten}, language = {de} } @phdthesis{Kurz2017, author = {Kurz, Julian Frederick}, title = {Capacity Planning and Control with Advanced Information}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-154097}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {Die Dissertation „Capacity Planning and Control with Advanced Information" besteht aus drei inhaltlich abgeschlossenen Teilen, die ein {\"u}bergeordnetes Thema zur Grundlage haben: Wie k{\"o}nnen Daten {\"u}ber zuk{\"u}nftige Bedarfe zur Kapazit{\"a}tsplanung und -steuerung genutzt werden? Im Rahmen von Industrie 4.0 werden zunehmend Daten erzeugt und f{\"u}r pr{\"a}dikative Analysen genutzt. Zum Beispiel werden Flugzeugtriebwerke mit Sensoren ausgestattet, die verschiedene Parameter in Echtzeit ermitteln und {\"u}bertragen. In Kombination mit Flugpl{\"a}nen k{\"o}nnen diese Daten, unter Einsatz geeigneter Machine Learning Algorithmen, zur Vorhersage des Zeitpunkts der n{\"a}chsten Wartung und des Wartungsbedarfs genutzt werden. In dieser Arbeit werden diese Vorhersagedaten zur optimalen Planung und Steuerung der Kapazit{\"a}t eines MRO (Maintenance, Repair and Overhaul) Dienstleisters genutzt. Im ersten Artikel, "Capacity Planning for a Maintenance Service Provider with Advanced Information", wird die aus mehreren Stationen bestehende Produktionsst{\"a}tte des MRO Dienstleisters mit Hilfe eines Netzwerks aus GI/G/1 Warteschlagen beschrieben. Durch L{\"o}sung eines Optimierungsproblems werden die Kapazit{\"a}ten der einzelnen Stationen so ermittelt, dass Kapazit{\"a}ts- und Strafkosten f{\"u}r eine zu lange Durchlaufzeit minimiert werden. Dar{\"u}berhinaus wird untersucht, wie Vorhersagedaten bez{\"u}glich des Eintreffens und Wartungsaufwands zuk{\"u}nftiger Auftr{\"a}ge genutzt werden k{\"o}nnen, um die Gesamtkosten zu reduzieren. Der Artikel "Flexible Capacity Management with Future Information" nutzt Informationen hinsichtlich zuk{\"u}nftigerWartungsbedarfe f{\"u}r die Steuerung einer flexiblen Kapazit{\"a}t. Die Produktionsst{\"a}tte des MRO Dienstleisters wird als M/M/1 Warteschlange beschrieben, die zwischen einer Basiskapazit{\"a}t und einer erh{\"o}hten Kapazit{\"a}t wechseln kann. Allerdings kann die hohe Kapazit{\"a}t nur einen definierten Zeitanteil genutzt werden. In dem Artikel werden Politiken entwickelt, welche die erwartete Warteschlangenl{\"a}ge minimieren, falls keine Informationen bez{\"u}glich des Eintreffens zuk{\"u}nftiger Auftr{\"a}ge verf{\"u}gbar sind beziehungsweise alle Informationen in einem unendlich langen Zeitfenster vorliegen. Es zeigt sich, dass die erwartete Warteschlangenl{\"a}nge drastisch reduziert werden kann, falls Informationen {\"u}ber zuk{\"u}nftige Bedarfe genutzt werden k{\"o}nnen. Im dritten Artikel, "Queueing with Limited Future Information", wird neben der Steuerung einer flexiblen Kapazit{\"a}t auch die Zulassungskontrolle behandelt: Welche Auftr{\"a}ge sollten umgeleitet werden, zum Beispiel an einen Subdienstleister, falls ein definierter Anteil aller ankommenden Triebwerke nicht angenommen werden muss? Es werden Politiken zur Steuerung der flexiblen Kapazit{\"a}t und f{\"u}r die Zulassungskontrolle entwickelt, die zuk{\"u}nftige Informationen in verschieden langen Zeitfenstern ber{\"u}cksichtigen: keine Informationen, endlich und unendlich lange Zeitfenster. Numerische Analysen zeigen, dass die Ber{\"u}cksichtigung von Informationen {\"u}ber die Zukunft im Vergleich zu reaktiven Politiken zu einer Verringerung der mittleren Warteschlangenl{\"a}nge f{\"u}hrt. Andererseits wird ersichtlich, dass die Nutzung von k{\"u}rzeren Zeitfenstern unter bestimmten Umst{\"a}nden vorteilhaft sein kann. Den inhaltlichen Rahmen der Dissertation bilden die Einleitung im ersten Kapitel sowie ein Ausblick in Kapitel 5. Beweise werden im Anhang zusammengefasst.}, language = {en} }