TY - RPRT A1 - Fischer (Hrsg.), Doris T1 - Tourism in Würzburg: Suggestions on how to enhance the travel experience for Chinese tourists BT - A student project at the Julius-Maximilian-University Würzburg N2 - This report provides suggestions on how to enhance the travel experience for Chinese tourists in the German city of Würzburg. Based on a user experience survey and a market research, this work includes a quantitative and competitive analysis. It further provides concrete and hands-on measurements for the city council to improve the experience of Chinese visitors coming to Würzburg. KW - China KW - Tourismus KW - user experience KW - travel experience KW - Würzburg KW - chinese tourists KW - Würzburg Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-143898 ET - 1. Auflage ER - TY - BOOK A1 - Schubert, Fabian T1 - Lagequalität, Lagequalität, Lagequalität - Standortbewertungsmethoden für den Einzelhandel und Lagewertigkeitsveränderungen durch Business Improvement Districts - am Beispiel der Stadt Gießen N2 - Die Lage(qualität) stellt den wichtigsten Faktor für den Erfolg eines Standorts dar! Dies gilt spätestens seit der Entstehung der ersten Fußgängerzonen in den 1950er Jahren und der Herausbildung der 1A-Lagen als begehrte innerstädtische Unternehmensstandorte. Verwunderlich ist jedoch, dass trotz einer weitläufigen Bekanntheit des Begriffs der Lage(qualität), bzw. der 1A-, B- und C-Lage, zum aktuellen Zeitpunkt in Theorie und Praxis nicht nur vielfältige Bezeichnungen zur Beschreibung und Klassifizierung innerstädtischer Handelsstandorte, sondern auch eine große Bandbreite an Kriterien und Methodiken bestehen, die zur Qualitätsermittlung herangezogen werden. Im Hinblick auf die aktuell knappen kommunalen Haushaltsmittel, den steigenden Wettbewerbsdruck im Handel und die zunehmende Krisenanfälligkeit des Wirtschafts-, Finanz- und Immobiliensektors und dem daraus resultierenden Bedeutungszuwachs fundierter Standort- bzw. Lageanalysen, stellt sich die Frage, welche Kriterien aus wissenschaftlicher Sicht zur Ermittlung von Lagequalitäten geeignet sind und wie ein aus diesen bestehendes Instrumentarium auszugestalten ist. Darüber hinaus ist vor dem Hintergrund der in den letzten Jahren wachsenden Aktivitäten zur Zentrenrevitalisierung zudem zu überprüfen, ob ein solches Lagequalitäteninstrumentarium zur Schaffung einer soliden Datenbasis eingesetzt werden könnte, welche als wesentliche Grundlage zur Evaluierung verschiedener innerstädtischer Wiederbelebungsmaßnahmen fungiert. Diesen und weiteren im Kontext der aktuellen Innenstadt- und Einzelhandelsentwicklung auftretenden Fragestellungen geht die vorliegende Arbeit nach. T3 - Geographische Handelsforschung - 21 KW - Gießen KW - Innenstadt KW - Standortpolitik KW - Lagequalität KW - Standortbewertung KW - Gießen KW - Business Improvement Districts KW - Einzelhandel KW - Business Improvement District KW - Lage KW - Standort Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-180730 SN - 978-3-936438-64-2 N1 - Die gedruckte Version dieses Bandes ist im Buchhandel lieferbar. Nähere Informationen unter: http://www.metagis.de/MetaGIS-Fachbuch/Schriftenreihen/Reihe-GHF/reihe-ghf.html PB - Verlag MetaGIS Infosysteme CY - Mannheim ER - TY - BOOK A1 - Wieland, Thomas T1 - Räumliches Einkaufsverhalten und Standortpolitik im Einzelhandel unter Berücksichtigung von Agglomerationseffekten - Theoretische Erklärungsansätze, modellanalytische Zugänge und eine empirisch-ökonometrische Marktgebietsanalyse anhand eines Fallbeispiels aus dem ländlichen Raum Ostwestfalens/Südniedersachsens N2 - Die steigende Relevanz von Einzelhandelsagglomerationen zählt zu den zentralen raumbezogenen Elementen des Strukturwandels im Einzelhandel. Sowohl geplante Einkaufszentren als auch Standortkooperationen von eigentlich in interformalem Wettbewerb stehenden Betriebsformen prägen immer mehr die Standortstrukturen des Einzelhandels. Die vorliegende Untersuchung beschäftigt sich mit dem räumlichen Einkaufsverhalten der Konsumenten im Zusammenhang mit derartigen Erscheinungen. Zunächst werden aus verschiedenen theoretischen Perspektiven (Mikroökonomie, Raumwirtschaftstheorie, verhaltenswissenschaftliche Marketing-Forschung) jene positiven Agglomerationseffekte im Einzelhandel hergeleitet, die auf dem Kundenverhalten basieren; hierbei lassen sich verschiedene Typen von Kopplungs- und Vergleichskäufen als relevante Einkaufsstrategien identifizieren. Die angenommene (positive) Wirkung von Einzelhandelsagglomerationen wird mithilfe eines ökonometrischen Marktgebietsmodells – dem Multiplicative Competitive Interaction (MCI) Model – auf der Grundlage primärempirisch erhobener Marktgebiete überprüft. Die Analyseergebnisse zeigen überwiegend positive Einflüsse des Potenzials für Kopplungs- und Vergleichskäufe auf die Kundenzuflüsse einzelner Anbieter, wenngleich sich diese in ihrer Intensität und Ausgestaltung unterscheiden. Die Untersuchung zeigt die Relevanz von Agglomerationseffekten im Einzelhandel auf, wobei ein quantitatives Modell auf der Basis des häufig verwendeten Huff-Modells formuliert wird, mit dem es möglich ist, diese Effekte zu analysieren. Konkrete Anwendungen hierfür finden sich in der betrieblichen Standortanalyse und der Verträglichkeitsbeurteilung von Einzelhandelsansiedlungen. T3 - Geographische Handelsforschung - 23 KW - Einzelhandel KW - Kaufverhalten KW - Marktgebiet KW - Konsumentenverhalten KW - Raumwirtschaftstheorien KW - Standorttheorien KW - Marktgebietsmodelle KW - Analyse KW - Verbraucherverhalten KW - Höxter KW - Holzminden KW - Beverungen KW - Ländlicher Raum KW - Agglomerationseffekt KW - Niedersachsen KW - Westfalen KW - Verbraucherverhalten KW - Standortpolitik Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-180753 SN - 978-3-936438-73-4 N1 - Die gedruckte Version dieses Bandes ist im Buchhandel lieferbar. Nähere Informationen unter: http://www.metagis.de/MetaGIS-Fachbuch/Schriftenreihen/Reihe-GHF/reihe-ghf.html PB - Verlag MetaGIS Infosysteme CY - Mannheim ER - TY - THES A1 - Demmer, Claudia T1 - Merger-specific Efficiency Gains T1 - Fusionsbedingte Effizienzsteigerungen N2 - The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014. The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited. However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger. The present study is structured as follows. Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process. Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers. Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification. Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach. The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach. Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent. Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets. Chapter 8 concludes. N2 - Die Dissertation mit dem Titel 'Merger-specific Efficiency Gains' beschäftigt sich mit der Frage, ob und inwieweit Fusionen zu Effizienzsteigerungen der beteiligten Parteien beitragen. Die Analyse konzentriert sich dabei auf europäische Firmen im verarbeitenden Gewerbe, die im Zeitraum von 2005 bis einschließlich 2014 entweder als Käufer oder als Kaufobjekt an einer horizontalen Fusion beteiligt waren. Ergebnis dieser Dissertation ist, dass Fusionen einzigartige Prozesse sind. Allgemeingültige Aussagen hinsichtlich Zeitpunkt, Zeitraum und Umfang fusionsbedingter Effizienzgewinne sind daher nur bedingt möglich. Die Ergebnisse dieser Dissertation deuten darauf hin, dass Effienzgewinne als direkte Konsequenz einer Fusion möglich sind. Effizienzveränderungen können mithilfe einer Total Factor Productivity (TFP)-Methode gemessen werden. Signifikante fusionsbedingte Effizienzgewinne sind für gekaufte Unternehmen wahrscheinlicher als für Käufer. Desweiteren treten sie frühestens ab dem zweiten Jahr nach einer Fusion auf. Die Verschmelzung von zwei Unternehmen, die beide im gleichen Hauptsegment tätig sind, führt allerdings eher zu Effizienzverlusten als Effizienzgewinnen. Effizienzgewinne werden vor allem kurz- bis mittelfristig durch Veränderungen in den Material- und Personalkosten herbeigeführt. Insgesamt sind fusionsbedingte Effizienzgewinne eher von der Art der Firmen als von der Art der Fusion abhängig. Die Analyse der Gründe für fusionsbedingte Effizienzgewinne zeigt, dass Firmen, die die Information über die Fusion selber veröffentlichen, kurz- bis mittelfristig Effizienzgewinne generieren. Des Weiteren sind mittelgroße Käufer eher in der Lage Effizienzgewinne zu generieren als kleine oder große Käufer. Zudem zeigt die Untersuchung, dass kapitalintensivere Unternehmen häufig Effizienzgewinne nach einer Fusion generieren. Die Arbeit ist wie folgt strukturiert. In der Einleitung werden die Gründe für eine Beschäftigung mit der Frage nach fusionsbedingten Effizienzgewinnen dargelegt. Die Herausarbeitung von Faktoren, anhand derer sich der Zeitpunkt, der Umfang und der Zeitraum fusionsbedingter Effizienzgewinne bestimmen ließe, kann in der Praxis die Entscheidung für oder gegen eine Fusion erleichtern. Das zweite Kapitel beinhaltet einen Literaturüberblick über ausgewählte empirische Studien, die sich mit der Frage nach fusionsbedingten Effizienzgewinnen bereits befasst haben. Eine Studie, die horizontale Fusionen von europäischen Firmen im verarbeitenden Gewerbe zwischen 2005 und 2014 untersucht, liegt bisher nicht vor. Die vorliegende Arbeit leistet mit der Analyse von Effizienzgewinnen eben solcher Fusionen einen Beitrag zur vorhandenen Literatur. Das dritte Kapitel beschäftigt sich mit der Identifizierung von Fusionen. Die Fusionsdefinition entstammt der Europäischen Zusammenschlusskontrolle sowie den Richtlinien zur Bewertung horizontaler Fusionen. Anhand von Begriffsbestimmungen und festgelegten Kriterien schafft der europäische Gesetzgeber einen Rahmen zur Identifizierung von Fusionen. Im Fokus des vierten Kapitels steht die Effizienzschätzmethode. In empirischen Studien wird vorwiegend die TFP-Methode zur Schätzung der Effizienz eingesetzt. Die TFP-Methode bedient sich der ökonometrischen Methode der linearen Regression in Kombination mit einem Kontrollfunktionsansatz. Die Schätzung der Parameter erfolgt mit Hilfe der verallgemeinerten Momentenmethode. Die Ergebnisse der Effizienzschätzung gehen im fünften Kapitel in die Analyse fusionsbedinger Effizienzgewinne ein. Die Analyse erfolgt unter Zuhilfenahme der Difference-In-Difference (DID)-Methode und wird für Käufer und Gekaufte separat durchgeführt. Das sechste Kapitel beschäftigt sich mit einer alternativen Methode zur Effizienzschätzung, der Stochastic Frontier Analysis (SFA)-Methode. Vergleichbar zur TFP-Methode handelt es sich um eine stochastische Methode. Im Gegensatz zur TFP-Methode wird die Produktionsfunktion als Grenzfunktion und nicht als durchschnittliche Funktion geschätzt. So ist es möglich, Effizienz in Prozent auszudrücken. Es folgt im siebten Kapitel eine Analyse des Einflusses verschiedener fusions- und firmenspezifischer Faktoren auf die Effizienzveränderung bei Käufern und Gekauften. Die Analyse erfolgt mittels einer multiplen Regression und wird separat für kurz-, mittel- und langfristige Veränderung der Effizienz von Käufern und Gekauften durchgeführt. Im achten Kapitel folgt die Schlussbetrachtung. KW - Verarbeitende Industrie KW - Merger-specific Efficiency Gains KW - Mergers and Acquisitions KW - Effizienzsteigerung KW - Total Factor Productivity KW - Mergers KW - Efficiency Gains KW - TFP Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-183928 ER - TY - JOUR A1 - Kümmel, Reiner A1 - Lindenberger, Dietmar T1 - How energy conversion drives economic growth far from the equilibrium of neoclassical economics JF - New Journal of Physics N2 - Energy conversion in the machines and information processors of the capital stock drives the growth of modern economies. This is exemplified for Germany, Japan, and the USA during the second half of the 20th century: econometric analyses reveal that the output elasticity, i.e. the economic weight, of energy is much larger than energyʼs share in total factor cost, while for labor just the opposite is true. This is at variance with mainstream economic theory according to which an economy should operate in the neoclassical equilibrium, where output elasticities equal factor cost shares. The standard derivation of the neoclassical equilibrium from the maximization of profit or of time-integrated utility disregards technological constraints. We show that the inclusion of these constraints in our nonlinear-optimization calculus results in equilibrium conditions, where generalized shadow prices destroy the equality of output elasticities and cost shares. Consequently, at the prices of capital, labor, and energy we have known so far, industrial economies have evolved far from the neoclassical equilibrium. This is illustrated by the example of the German industrial sector evolving on the mountain of factor costs before and during the first and the second oil price explosion. It indicates the influence of the 'virtually binding' technological constraints on entrepreneurial decisions, and the existence of 'soft constraints' as well. Implications for employment and future economic growth are discussed. KW - economic growth KW - technological constraints KW - output elasticities KW - energy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-118102 SN - 1367-2630 VL - 16 IS - 125008 ER - TY - THES A1 - Siller, Benjamin T1 - Influence of Lead Time and Emission Policies on the Design of Supply Chains – Insights from Supply Chain Design Models T1 - Einfluss von Lieferzeiten und Emissionspolitiken auf das Design von Supply Chains – Erkenntnisse aus Supply Chain Design Modellen N2 - Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies. N2 - Von Unternehmen wird erwartet, dass sie international agieren und ihre Fähigkeiten nutzen, um schnell und effizient maßgeschneiderte Produkte und Dienstleistungen anzubieten. Verbraucher erwarten, dass ihre Anforderungen in kurzer Zeit und zu einem günstigen Preis erfüllt werden. Die Zeit von der Bestellung bis zur Lieferung hat für Verbraucher immer mehr an Bedeutung gewonnen. Darüber hinaus können Regierungen mit verschiedenen Emissionsrichtlinien Unternehmen und Kunden dazu zwingen, ihre Treibhausgasemissionen zu reduzieren. Diese Arbeit untersucht den Einfluss von Lieferzeiten und verschiedener Emissionsrichtlinien auf das Design einer Supply Chain. In dieser Arbeit werden verschiedene Supply-Chain-Design-Modelle entwickelt, um diese unterschiedlichen Einflüsse zu untersuchen. Das erste Modell berücksichtigt Vorlaufzeiten und Gesamtkosten, und verschiedene Emissionsrichtlinien werden implementiert, um den Kompromiss zwischen den verschiedenen Einflussgrößen zu veranschaulichen. Das zweite Modell spiegelt den Einfluss von Lieferzeit sensitiven Verbrauchern wider und es werden verschiedene Emissionsrichtlinien implementiert, um ihre Auswirkungen zu untersuchen. Die Analyse zeigt, dass der Anteil der Lieferzeit sensiblen Verbraucher einen erheblichen Einfluss auf die Gestaltung einer Lieferkette hat. Nachfrageunsicherheit und Unsicherheit bei der Gestaltung verschiedener Emissionspolitiken werden untersucht, indem ein geeignetes robustes mathematisches Optimierungsmodell entwickelt wird. Die Ergebnisse zeigen, dass insbesondere Unsicherheiten bei der Gestaltung einer Emissionsrichtlinie die Gesamtkosten einer Lieferkette erheblich beeinflussen können. Im vierten Modell werden die Auswirkungen unterschiedlich gestalteter Emissionspolitiken in verschiedenen Ländern untersucht. Die Analysen zeigen, dass sowohl Lieferzeiten als auch Emissionsrichtlinien die Offshoring- und Nearshoring-Strategien von Unternehmen stark beeinflussen können. KW - Supply Chain Management KW - Lineare Optimierung KW - Lieferzeit KW - Umweltpolitik / Kompensation KW - Supply Chain Design KW - Lead Time KW - Emission Policy KW - Mathematical Optimization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-296713 ER - TY - THES A1 - Stein, Nikolai Werner T1 - Advanced Analytics in Operations Management and Information Systems: Methods and Applications T1 - Advanced Analytics im Operations Management und Information Systems: Methoden und Anwendungen N2 - Die digitale Transformation der Gesellschaft birgt enorme Potenziale für Unternehmen aus allen Sektoren. Diese verfügen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivität über rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivität heben zu können müssen Unternehmen die verfügbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics“ und nur ein kleiner Teil der Unternehmen macht bereits heute von den Möglichkeiten der „predictive analytics“ und „prescriptive analytics“ Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzmöglichkeiten von „prescriptive analytics“ zu identifizieren. Da prädiktive Modelle eine wesentliche Voraussetzung für „prescriptive analytics“ sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics.“ Ausgehend von Verfahren des maschinellen Lernens wird zunächst die Entwicklung eines prädiktiven Modells am Beispiel der Kapazitäts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox für Data Science Anwendungen entwickelt. Diese stellt Entscheidungsträgern Richtlinien und bewährte Verfahren für die Modellierung, das Feature Engineering und die Modellinterpretation zur Verfügung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht. Verbesserten Prognosen, die von leistungsfähigen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungsträgern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verfügung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics“. Hierzu wird zunächst analysiert, wie die Vorhersagen prädiktiver Modelle in präskriptive Politiken zur Lösung eines „Optimal Searcher Path Problem“ übersetzt werden können. Trotz beeindruckender Fortschritte in der Forschung im Bereich künstlicher Intelligenz sind die Vorhersagen prädiktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schlägt einen präskriptiven Ansatz vor, der diese Unsicherheit berücksichtigt. Insbesondere wird ein datengetriebenes Verfahren für die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bezüglich der Erfolgswahrscheinlichkeiten und die Modellqualität des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem.“ N2 - The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts. As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company. Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules. KW - Operations Management KW - Managementinformationssystem KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Big Data KW - Advanced Analytics KW - Prescriptive Analytics KW - Predictive Analytics KW - Entscheidungsunterstützungssystem KW - Wirtschaftsinformatik KW - Tourenplanung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-192668 ER - TY - RPRT A1 - Albers, Thilo N. H. A1 - Kersting, Felix A1 - Kosse, Fabian T1 - Income misperception and populism N2 - We propose that false beliefs about own current economic status are an important factor for explaining populist attitudes. Eliciting subjects’ receptiveness to rightwing populism and their perceived relative income positions in a representative survey of German households, we find that people with pessimistic beliefs about their income position are more attuned to populist statements. Key to understanding the misperception-populism relationship are strong gender differences in the mechanism: men are much more likely to channel their discontent into affection for populist ideas. A simple information provision does neither sustainably reduce misperception nor curb populism. T3 - Würzburg Economic Papers (W. E. P.) - 104 KW - Populismus KW - Perception KW - Income KW - Populism Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-321696 ER - TY - THES A1 - de Graaf [geb. Buttler], Simone Linda T1 - From Small to Large Data: Leveraging Synthetic Data for Inventory Management T1 - Von kleinen zu großen Daten: Die Nutzung von synthetischen Daten für das Bestandsmanagement N2 - In a world of constant change, uncertainty has become a daily challenge for businesses. Rapidly shifting market conditions highlight the need for flexible responses to unforeseen events. Operations Management (OM) is crucial for optimizing business processes, including site planning, production control, and inventory management. Traditionally, companies have relied on theoretical models from microeconomics, game theory, optimization, and simulation. However, advancements in machine learning and mathematical optimization have led to a new research field: data-driven OM. Data-driven OM uses real data, especially time series data, to create more realistic models that better capture decision-making complexities. Despite the promise of this new research area, a significant challenge remains: the availability of extensive historical training data. Synthetic data, which mimics real data, has been used to address this issue in other machine learning applications. Therefore, this dissertation explores how synthetic data can be leveraged to improve decisions for data-driven inventory management, focusing on the single-period newsvendor problem, a classic stochastic optimization problem in inventory management. The first article, "A Meta Analysis of Data-Driven Newsvendor Approaches", presents a standardized evaluation framework for data-driven prescriptive approaches, tested through a numerical study. Findings suggest model performance is not robust, emphasizing the need for a standardized evaluation process. The second article, "Application of Generative Adversarial Networks in Inventory Management", examines using synthetic data generated by Generative Adversarial Networks (GANs) for the newsvendor problem. This study shows GANs can model complex demand relationships, offering a promising alternative to traditional methods. The third article, "Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management", proposes a method using Deep Reinforcement Learning (DRL) with synthetic and real data through transfer learning. This approach trains a generative model to learn demand distributions, generates synthetic data, and fine-tunes a DRL agent on a smaller real dataset. This method outperforms traditional approaches in controlled and practical settings, though further research is needed to generalize these findings. N2 - In einer Welt des ständigen Wandels ist Unsicherheit zu einer alltäglichen Herausforderung für Unternehmen geworden. Die Covid-19-Pandemie hat deutlich gezeigt, wie schnell sich Marktumfelder verändern können und wie wichtig es ist, flexibel auf unvorhersehbare Ereignisse zu reagieren. In diesem komplexen Entscheidungsumfeld spielt das Operations Management (OM) eine entscheidende Rolle. Das Ziel des OM besteht darin, die Geschäftsprozesse von Unternehmen zu optimieren. Von der Standortplanung über die Produktionssteuerung bis hin zum Bestandsmanagement —OM befasst sich mit den strategischen und operativen Entscheidungen, die erforderlich sind, um den betrieblichen Erfolg sicherzustellen. Traditionell haben Unternehmen bei der Entscheidungsfindung theoretische Modelle aus Bereichen wie Mikroökonomie, Spieltheorie, Optimierung und Simulation genutzt (Mišić und Perakis, 2020). Doch angesichts der Fortschritte im Bereich des maschinellen Lernens und der mathematischen Optimierung der letzten Jahre eröffnete sich ein neues Forschungsgebiet: das datengetriebene OM. Im datengetriebenen OM werden reale Daten, insbesondere Zeitreihendaten, herangezogen, um realistischere Modelle zu entwickeln, welche die Komplexität der Entscheidungsfindung besser erfassen können. Diese Daten können wertvolle Einblicke in vergangene Kundennachfrage und relevante Einflussfaktoren, wie Wetterbedingungen oder Börsentrends, liefern. Durch die Kombination von realen Daten mit Optimierungs- und maschinellen Lernverfahren können Unternehmen fundiertere und präzisere Entscheidungen treffen. Jedoch besteht im Rahmen dieses neuen Forschungsgebiets eine Herausforderung: Studien haben gezeigt, dass einige Modelle optimale Lösungen liefern können, wenn diese eine umfangreiche Menge historischer Trainingsdaten zur Verfügung haben. Jedoch sieht die Realität häufig anders aus. Insbesondere in Teildisziplinen des OM, wie dem Kapazitäts- oder Bestandsmanagement, existiert häufig nur eine begrenzte Anzahl von historischen Beobachtungen, da Entscheidungen über den Einsatz von Ressourcen oder die Auffüllung des Bestands hier nicht in Echtzeit getroffen werden, sondern täglich, wöchentlich oder sogar nur monatlich stattfinden. In anderen Anwendungsbereichen des maschinellen Lernens, in denen die Verfügbarkeit von Daten zum Trainieren von Modellen ebenfalls ein Problem darstellt, hat man damit begonnen, reale Daten durch synthetische Daten zu ergänzen oder sogar zu ersetzen. Synthetische Daten sind künstlich generierte Daten, die die Eigenschaften und Muster realer Daten nachahmen. Neuste Ansätze zur Generierung synthetischer Daten haben zum Ziel, den Entstehungsprozess echter Daten nachzuahmen. Das Verständnis des Entstehungsprozesses von Daten ist auch deshalb so wichtig, weil er kausale Zusammenhänge aufzeigen kann, die es ermöglichen, universellere Modelle zu entwickeln. Verstehen wir beispielsweise den Entstehungsprozess von Nachfragedaten für Bäckereiprodukte, kann dieses Wissen bei jeder Bäckerei der Welt angewandt werden, um beispielsweise die Menge der zu backenden Brötchen zu optimieren. Diese Dissertation untersucht in drei inhaltlich abgeschlossenen Teilen, wie synthetische Daten genutzt werden können, um Trainingsdaten im Bereich des OM anzureichern und dadurch datengetriebene Modelle zur Entscheidungsunterstützung zu verbessern. Der Fokus liegt dabei auf dem Zeitungsjungenproblem, einem klassischen Problem der Bestandsplanung. Hierbei handelt es sich um ein einperiodiges Planungsproblem, bei dem es gilt, die optimale Bestellmenge zu ermitteln, sodass der Gewinn maximiert wird. Dabei muss berücksichtigt werden, dass unverkaufte Produkte am Ende des Tages einen Verlust bedeuten, aber auch ein zu schneller Ausverkauf potenzielle Einnahmen verpassen lässt. Der erste Artikel, „A Meta Analysis of Data-Driven Newsvendor Approaches“, Kapitel 2, dient als Vorstudie zur Verwendung synthetischer Daten. Obwohl bisher in der Literatur mehrere datengetriebene, präskripviii tive Ansätze vorgeschlagen wurden, ist es unklar, wie diese im Vergleich zueinander abschneiden. In dem Artikel wird ein reproduzierbares und einheitliches Bewertungsverfahren für datengetriebene, präskriptive Ansätze präsentiert. Das vorgestellte Bewertungsverfahren kann sowohl von Praktikern zur Modellauswahl als auch von Forschern zum Benchmarking neuer Ansätze verwendet werden. In diesem Artikel wird es in einer umfangreichen numerischen Studie verwendet, die mit einem großen und heterogenen Datensatz durchgeführt wird. Teil dieser Studie ist eine Robustheitsanalyse, um den Einfluss verschiedener Problemparameter zu bewerten, die die Leistung des Modells potenziell beeinflussen können, wie z.B. Eigenschaften des Datensatzes oder des zu lösenden Planungsproblems. Die Ergebnisse deuten darauf hin, dass die Leistung der evaluierten Modelle wenig robust ist und das zu verwendende Modell auf der Grundlage eines standardisierten Evaluierungsprozesses ausgewählt werden sollte, um bestmögliche Ergebnisse zu gewährleisten. Im zweiten Artikel, „Application of Generative Adversarial Networks in Inventory Management“, Kapitel 3, wird die Verwendung synthetischer Daten, die durch Generative Adversarial Networks (GANs) erzeugt wurden, zur Lösung des Zeitungsjungenproblems untersucht. Der Einsatz datengetriebener, präskriptiver Verfahren hat zu einem wachsenden Bedarf an relevanten Trainingsdaten geführt, insbesondere wenn zusätzliche Informationen (Features) eingebunden werden. Daraus ergibt sich ein Bedarf an Techniken, die komplexe Beziehungen zwischen Nachfrage und Zusatzinformationen modellieren können und mit denen große Mengen synthetischer Daten erzeugt werden können. In diesem Artikel wird gezeigt, wie solche synthetischen Daten mit Hilfe von GANs - einem Ansatz des Deep Learning - erzeugt werden können. Da die Leistung von GANs häufig instabil ist, wird eine Selektionsstrategie als Vorstufe zur Anwendung der GAN-generierten Daten im Planungsproblem entwickelt. In numerischen Experimenten wird der vorgeschlagene Ansatz im Praxiskontext einer Bäckereikette angewandt und unter Variation verschiedener Experimentparameter untersucht. Er wird mit traditionelleren Ansätzen, wie dem Distribution Fitting und der Sample Average Approximation (SAA), verglichen. Die Ergebnisse legen nahe, dass die Anwendung von GANs eine vielversprechende Alternative zu diesen traditionellen Ansätzen darstellt. Im dritten Artikel, „Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management“, Kapitel 4, wird ein neuartiges, auf Deep Reinforcement Learning (DRL) basierendes Verfahren vorgeschlagen, das synthetische und reale Daten mittels Transfer Learning kombiniert, um OM-Entscheidungsprobleme zu lösen. Die Anwendung von DRL verspricht größere Flexibilität in der Problemdefinition als traditionellere, präskriptive Ansätze. Allerdings erfordert es auch große Mengen an Trainingsdaten. In diesem Artikel wird ein zweistufiges Verfahren vorgeschlagen, um mit weniger echten Trainingsdaten auszukommen. Zunächst wird ein generatives Modell trainiert, um die unbekannte gemeinsame Verteilung von Nachfrage und Features zu lernen. Dieses wird genutzt, um zusätzliche synthetische Trainingsdaten zu generieren. In einem zweiten Schritt wird ein DRL-Agent mit Hilfe des Transfer Learnings trainiert, wobei der DRL-Agent zunächst auf den synthetischen Daten vortrainiert wird und dann ein Feintuning auf der Grundlage eines kleineren realen Datensatzes erfolgt. Dieser Artikel evaluiert das vorgeschlagene Verfahren für ein Zeitungsjungenproblem in zwei verschiedenen numerischen Studiensettings. In dem kontrollierten Studiensetting ist die Verteilung der Daten bekannt, wodurch ein erster Schritt gemacht wird, zu verstehen, was die Leistung des vorgeschlagenen Verfahrens beeinflusst, z.B. die Qualität der generierten synthetischen Daten. Im Praxissetting, in dem die gemeinsame Verteilung der Daten unbekannt ist, wird das vorgeschlagene Verfahren auf Daten einer lokalen Bäckereikette angewandt. In beiden Fällen übertrifft das vorgeschlagene Verfahren die traditionelle präskriptive Methode. Es ist jedoch weitere Forschung erforderlich, um die Generalisierbarkeit dieser Ergebnisse zu beweisen. Insgesamt zeigen die Ergebnisse dieser Dissertation, dass der Einsatz von synthetischen Daten Potential hat, Praxisanwendungen des maschinellen Lernens zu unterstützen. Die untersuchte Methode der Datengenerierung mit GANs ermöglicht die Modellierung komplexer Zusammenhänge in den Daten und unterstützt damit selbst die Anwendung von datenhungrigen Verfahren, wie DRL, zur Lösung von Planungsproblemen. Die Wahl eines guten GAN-Modells ist jedoch mit hohem Aufwand verbunden, sodass Kosten und Nutzen synthetischer Daten bei jeder Anwendung abgewogen werden sollten. Weitere Forschung ist notwendig, um die Generalisierbarkeit der Ergebnisse zu gewährleisten. KW - Bestandsmanagement KW - Synthetische Daten KW - Maschinelles Lernen KW - Data-driven Operations Management KW - Generative Adversarial Networks KW - Reinforcement Learning Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-361364 ER - TY - THES A1 - Oberdorf, Felix T1 - Design and Evaluation of Data-Driven Enterprise Process Monitoring Systems T1 - Design und Evaluation von datengetriebenen Prozess Überwachungssystemen in Unternehmen N2 - Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios. To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming. To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network. Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement. N2 - Der zunehmende globale Wettbewerb zwingt Unternehmen zur Verbesserung ihrer Prozesse, um sich dadurch einen Wettbewerbsvorteil zu verschaffen. In der Fertigungsindustrie wird das durch die die digitale Transformation unterstützt. Grundlegende Komponenten in den entstehenden digitalisierten Umgebungen sind prozessorientierte Informationssysteme, die die Ausführung von Geschäftsprozessen aufzeichnen, bei der Prozessautomatisierung unterstützen und wiederum Potenzial zur Prozessanalyse freisetzen. Die meisten Informationssysteme in Unternehmen konzentrieren sich jedoch auf die Anzeige von Informationen, Prozessautomatisierung oder Datenerfassung, nutzen aber keine predictive analytics oder prescriptive analytics, um datengetriebene Entscheidungen zu unterstützen. Daher wird in dieser Dissertation der Aufbau von analytics-enabled Informationssystemen in fünf unabhängigen Teilen untersucht, die schrittweise analytische Methoden einführen und potenzielle Möglichkeiten zur Prozessverbesserung in realen Szenarien bewerten. Eine wesentliche Voraussetzung für den Auf- und Ausbau von analytics-enabled Informationssystemen ist die Identifikation von Erfolgsfaktoren, die wir im Kontext von Process Mining als deskriptive Methode untersuchen. Wir kombinieren einen etablierten Process Mining Framework und ein Process Mining Erfolgsmodell, um einen strukturierten Ansatz zur Bewertung von Erfolgsfaktoren zu ermöglichen, den wir aufbauend zur Identifizierung von Herausforderungen, Motivationen und des wahrgenommenen Mehrwerts (engl. Business Value) von Process Mining durch Mitarbeiter in Organisationen und Process Mining Experten nutzen. Auf Grundlage der gewonnenen Erkenntnisse erweitern wir das bestehende Erfolgsmodell und leiten Implikationen für die Generierung von Business Value durch Process Mining ab. Um die Realisierung des durch Process Mining ermöglichten Business Value zu unterstützen, entwickeln wir ein Artefakt für kontextbezogenes Process Mining. Das Artefakt kombiniert standard Prozessdaten mit zusätzlichen Kontextinformationen, um die automatische Identifizierung von Prozesspfaden, die mit den Kontextereignissen in Verbindung gebracht werden, zu unterstützen. Die entsprechende Realisierung ist jedoch eine herausfordernde Aufgabe, da die Transformation von Prozessen auf der Grundlage von Informationserkenntnissen zeitaufwendig ist. Um dies zu überwinden, stellen wir die Entwicklung eines predictive process monitoring Systems zur Automatisierung des Störungsmanagements in einer Produktionsumgebung vor. Das System nutzt etablierte Algorithmen des maschinellen Lernens zur Klassifizierung von Störungsarten und zur Vorhersage der Störungsdauer. Es kombiniert die Algorithmen mit zusätzlichen Datenquellen und einem einfachen Zuweisungsverfahren, um den Prozess der Störungsbearbeitung zu unterstützen. Die Entwicklung eines solchen Systems und entsprechender Modelle ist eine anspruchsvolle Aufgabe, die wir durch die Entwicklung einer Fünf-Phasen-Methode für predictive end-to-end process monitoring von Unternehmensprozessen unter Verwendung von multi-headed neural networks adressieren. Die Methode erleichtert die Integration heterogener Datenquellen durch dedizierte Modelle, die für eine Vorhersage kombiniert werden. Die Evaluation eines realen Anwendungsfalls unterstreicht die Kompetitivität des eines aus der entwickelten Methode resultierenden Modells. Allerdings sind auch die Ergebnisse des verbesserten Modells nicht perfekt. Somit muss die Entscheidung über die Zuweisung von Agenten zur Lösung von Störungen unter Unsicherheit getroffen werden. Dazu können zwar mathematische Modelle genutzt werden, allerdings steigt die Anzahl der möglichen Szenarien durch komplexe reale Bedingungen stark an und limitiert die Lösung mathematischer Modelle. Um dies zu überwinden und das Potenzial eines prescriptive process monitoring Systems zu beleuchten, haben wir einen datengetriebenen Ansatz zur Approximation eines dynamischen stochastischen Problems entwickelt, der mehrere Unsicherheiten bei der Zuweisung der Agenten berücksichtigt. Das resultierende Modell hat eine signifikant bessere Leistung und unterstreicht letztlich die besondere Bedeutung von analytics-enabled Informationssystemen für die Verbesserung von Organisationsprozessen. KW - Operations Management KW - Wirtschaftsinformatik KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Advanced Analytics KW - Predictive Analytics KW - Prescriptive Analytics Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298531 ER -