@phdthesis{Taigel2020, author = {Taigel, Fabian Michael}, title = {Data-driven Operations Management: From Predictive to Prescriptive Analytics}, doi = {10.25972/OPUS-20651}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-206514}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt's invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data "the new oil" indicates the growing awareness of data's importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of data [for Economic Co-operation and Development, 2018]. One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data - typically just historical demand data - is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner's experience and intuition, rather than on solid data analysis. This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind. The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work. The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management. All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity.}, subject = {Maschinelles Lernen}, language = {en} } @phdthesis{Kaemmerer2017, author = {K{\"a}mmerer, Christian}, title = {Fehlmengenkosten in der Distributionslogistik: Analyse und Modellierung aus Sicht der Investitionsg{\"u}terindustrie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-143013}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferf{\"a}higkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbest{\"a}nde definiert, die ohne ausreichende Ber{\"u}cksichtigung der Kundenbed{\"u}rfnisse und integrierte Modellans{\"a}tze m{\"o}gliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ans{\"a}tzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsg{\"u}terherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grunds{\"a}tzliche Beziehung zueinander zu setzen. Beide Kostenbl{\"o}cke werden in der gr{\"o}ßtm{\"o}glichen Granularit{\"a}t in ein distributionslogistisches Modell {\"u}berf{\"u}hrt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage gepr{\"u}ft und auf ihre Relevanz f{\"u}r die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbest{\"a}nden ausreichend identifiziert, noch die unterschiedlichen Auspr{\"a}gungen von Fehlmengenkosten umf{\"a}nglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden m{\"u}ssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsl{\"a}ufig erh{\"o}hte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese k{\"o}nnen die Lieferf{\"a}higkeit {\"u}ber einen l{\"a}ngeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig gesch{\"a}digt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden f{\"u}hrt. Durch die Modifizierungen einiger wichtiger Pr{\"a}missen und Modellparameter, welche die Merkmale der Investitionsg{\"u}terindustrie in besonderer Weise ber{\"u}cksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine n{\"u}tzliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne ad{\"a}quaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.}, subject = {Fehlmengenkosten}, language = {de} }