Refine
Has Fulltext
- yes (110)
Is part of the Bibliography
- yes (110)
Year of publication
Document Type
- Doctoral Thesis (78)
- Journal article (16)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (7)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
- Altersversorgung (4)
Institute
- Betriebswirtschaftliches Institut (110) (remove)
EU-Project number / Contract (GA) number
Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen.
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
Die Grundlage für eine hohe Bestandsgenauigkeit ist die unternehmensübergreifende Identifikation und Nachverfolgung von Waren, die mit automatisierten Identifizierungstechnologien (Auto-ID-Technologien) ermöglicht wird. Die Einführung der Auto-ID-Technologie des Barcodes hat die Industrie vor mehr als 30 Jahren fundamental verändert. Darauf aufbauend versprechen neuere Auto-ID-Technologien wie die „Radio Frequency Identification“ (RFID) Probleme wie die Nichtverfügbarkeit von Waren, eine intransparente Diebstahlrate oder Warenschwund durch eine bessere Nachverfolgung aller Waren und eine höhere Bestandsgenauigkeit zu lösen. Die Vorteile von RFID gegenüber dem Barcode sind unter anderem die höhere Datendichte, die größere Robustheit gegenüber Umwelteinflüssen sowie die schnellere und mehrfache Erfassung von Gegenständen.
Viele Unternehmen sehen sich jedoch vor allem nach der Implementierung einer RFID-Infrastruktur mit einer Vielzahl von Problemen konfrontiert. Aspekte wie wenig Unterstützung durch das Management, interner Widerstand durch Mitarbeiter, Probleme bei der Integration von Hardware und Software und vor allem eine mangelnde Datenqualität verhindern, dass die prognostizierten positiven Effekte erreicht werden können. Derartige Phänomene werden passend unter dem Begriff „Credibility Gap“ zusammengefasst. Dieser beschreibt die Problematik, dass es insgesamt an Verfahren, Methoden und gezielter Unterstützung mangelt, um die in der Literatur umfangreich versprochenen positiven Effekte tatsächlich und nachhaltig zu realisieren. Passend werden die erwarteten Einsparungen und Verbesserungen durch den RFID-Einsatz oftmals als Expertenschätzungen und sogar als größtenteils rein spekulativ bezeichnet.
Das Ziel dieser Dissertation ist es, Praktikern das Erreichen der positiven RFID-Effekte zu ermöglichen. Hierzu wurden vielfältige Untersuchungen auf Basis einer langfristigen Kooperation mit einem der weltweit größten Bekleidungshändler durchgeführt, indem ein RFID-Implementierungsprojekt begleitet und intensiv mitgestaltet wurde. Zunächst wird bestätigt, dass die prognostizierten Vorteile der RFID-Technologie tatsächlich nicht allein durch die Implementierung der benötigten Infrastruktur erreicht werden können. Als Grund werden hohe Bestandsungenauigkeiten der verwendeten Bestandssysteme identifiziert, die sowohl auf technische als auch auf menschlich verursachte Fehler zurückzuführen sind. Als Folge ist die RFID-Datenqualität nicht verlässlich.
Die Dissertation setzt an den Problemen des Credibility Gap an und diagnostiziert bei einer bereits implementierten RFID-Infrastruktur zunächst die Fehler und Ursachen der mangelnden Datenqualität. Darauf aufbauend werden Maßnahmen und Handlungsanweisungen vorgestellt, mit deren Hilfe die Fehler behoben und die Infrastruktur schließlich verbessert und überwacht werden kann.
Um insgesamt die Anforderungen der Praxis und der Wissenschaft erfolgreich miteinander zu verknüpfen, wird als Forschungsmethode eine neuartige Kombination zweier Ausprägungen der Aktionsforschung verwendet. Als Ergebnis werden einerseits für Praktiker hilfreiche Frameworks und Tests zur Fehlerbehebung, Überwachungskennzahlen sowie Regeln des effektiven RFID-Systemmanagements beschrieben. Alle durchgeführten und in der Dissertation vorgestellten Maßnahmen führen nachweislich zu einer erhöhten Datenqualität eines implementierten RFID-Systems und stellen Möglichkeiten zur kennzahlenbasierten Visualisierung der RFID-Prozessperformance bereit. Andererseits wird ein Modell für die Verwendung der Aktionsforschung vorgeschlagen sowie eine umfangreiche Validierung der Methodik durchgeführt. Auf diese Weise wird neben der Praxisrelevanz der Ergebnisse auch die Präzision der Forschungsergebnisse sichergestellt.
Sämtliche Ergebnisse dienen als Basis für vielfältige Forschungsansätze. So ermöglichen eine höhere Verlässlichkeit und Datenqualität der RFID-Informationen aussagekräftigere Analysen. Weiter sind durch fehlerkorrigierte Prozessdaten neuartige Methoden des RFID-Data-Mining denkbar. Dieser Forschungsbereich ist nach wie vor größtenteils unberührt und bietet enormes Potential, weitere durch RFID in Aussicht gestellte Vorteile zu realisieren.
In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht:
In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt.
In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind.
In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first.
In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume.
The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems.
The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
Das vorliegende Working Paper untersucht die Performancewirkung eines multi-dimensionalen Strategie-Alignments in der Beschaffung. Hierfür wird zunächst ein Systematischer Literatur Review durchgeführt und der Wissenstand im Forschungsfeld erhoben. Die systematische Klassifikation, Analyse, Bewertung und Synthese der identifizierten 29 empirischen Studien erfolgt dabei auf der Grundlage eines konzeptionellen Frameworks und zugehöriger Inhaltskategorien sowie weiterer methodischer Vergleichsgrößen. Die Ergebnisse dieser Untersuchung zeigen nachdrücklich auf, dass eine Abstimmung, Harmonisierung und Verbindung von Beschaffungsstrategien (1) mit den übergeordneten Unternehmenszielen und -strategien, (2) anderen funktionalen Teilbereichen, sowie (3) der Lieferantenbasis (unter Berücksichtigung der kontextbezogenen Anforderungen und Gegebenheiten) zu signifikant positiven Performance-Effekten beiträgt. Insofern sollten die Empfehlungen dieser Untersuchung für ein holistisches Strategie-Alignment im Einkauf herangezogen werden. Neben der Ableitung von Implikationen für die Unternehmenspraxis wird eine Forschungsagenda für interessierte Wissenschaftler erarbeitet, indem inhaltliche Wissenslücken und methodische Verbesserungspotenziale auf Basis des Bezugsrahmens und einschlägiger Referenztexte definiert sowie zukünftige Forschungsbedarfe aufgezeigt werden. Darauf aufbauend wird die zentrale (bis dato unbeantwortete) Forschungsfrage eines integrativen Strategie-Alignment-Index durch die Operationalisierung der zugehörigen Konstrukte sowie der Formulierung entsprechender Hypothesen als Grundlage für die Durchführung einer empirischen Studie adressiert.
This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things.
The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy.
The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness.
The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.