TY - THES A1 - Grub, Martin T1 - Verteilungswirkungen anreizorientierter Sozialpolitik : das deutsche Rentenversicherungs- und Steuersystem in der Perspektive dynamischer Lebenszyklusmodelle T1 - Distributional Effects of incentive-oriented social security N2 - Drei große Reformenpakete und eine Reihe kleinerer Begleitmaßnahmen prägen das renten¬politische Erbe der rot-grünen Bundesregierung. Einerseits greifen sie Trends in der Reformpolitik seit Beginn der 90er Jahre auf. So verstärkt die Rentenstrukturreform 2001 beispielsweise die rentenrechtliche Anerkennung von Erziehung und Pflege. Eine veränderte Rentenformel wird die Transitionslasten des demographischen Übergangs mittelfristig gleichmäßiger über die Jahrgänge verteilen – durch eine Eindämmung des Beitrags¬satz¬anstiegs auf Kosten eines langsamer wachsenden Rentenniveaus. Die Nachhaltig¬keitsreform 2004 verstärkt diesen Mechanismus auf der Grundlage neuer empirischer Erkenntnisse. Auch der Übergang zur überwiegend nachgelagerten Besteuerung mit dem Alterseinkünftegesetz 2004 wirkt in diese Richtung durch eine wachsende steuerliche Absetz¬barkeit der Alters¬sicherungsbeiträge bei konsekutiver Einbeziehung der Renten in die Besteuerung. Auf der anderen Seite leiten die Reformen nichts Geringeres als einen tief greifenden Paradigmen¬wechsel ein: den langfristigen Übergang eines umlagefinanzierten Pflichtversicherungs¬- zu einem Drei-Säulen-System, in dem Zulagen und Steuerabzugs¬mechanismen Anreize zur freiwilligen Ergänzungsvorsorge in kapitalgedeckten Sicherungs¬instrumenten bilden. Für die wissenschaftliche Gesetzesfolgenabschätzung stellen diese Reformen eine enorme Herausforderung dar. Es ist das Moment der Freiheit, das in jedweder kausalen Welt Verantwortung impliziert, und die politische Folgenabschätzung spannend und schwierig macht. Die ökonomische Fachliteratur hat Mikrosimulationsmodelle als ein leistungsfähiges Analysewerkzeug entwickelt, fiskalische und distributive Konsequenzen "für den Tag danach" sehr detailliert abschätzen zu können – ohne dabei Verhaltensreaktionen zu berücksichtigen. Verhaltensreaktionen hingegen stehen im Mittelpunkt der rasant wachsenden Literatur zu numerischen Gleichgewichtsmodellen. Angesichts begrenzter Rechenressourcen vereinfachen diese Modelle in der Regel die Risikostruktur des ökonomischen Entscheidungsproblems, um sich auf wenige Zustands- und Entscheidungsvariablen beschränken zu können. Sie abstrahieren häufig von Unstetigkeiten in Budgetrestriktionen und konzentrieren sich auf stationäre Zustandstransitionen. Viele dieser Instrumente sind daher wenig geeignet abzuschätzen, wie sich Menschen an eine Reformpolitik anpassen, die lange Übergangs¬pfade vorsieht über mehrdimensionale, zeitinvariate Risikostrukturen, deren imperfekte Korrelationen zu einer risikodiversifizierenden Vorsorgestrategie genutzt werden kann. Das vorliegende Buch stellt ein dynamisch stochastisches Simulationsmodell im partiellen Erwartungsgleichgewicht vor. Sein Ziel ist, Anreize in der komplexen Interaktion der Reformen mit dem umfangreichen Regulierungsrahmen in einer risikoreichen Umwelt zu identifizieren. Die einzelnen Reformen, ihre algorithmische Abbildung in das dynamische Entscheidungsmodell und die partiellen Wirkungsmechanismen sind detailliert erläutert. Eines der Hauptergebnisse zeigt sich überraschender Weise darin, die beobachtbare Zurück¬haltung niedrigerer Einkommensklassen gegenüber den neuen Sicherungs¬instrumenten ohne Rückgriff auf (im ökokomischen Sinne) eingeschränkte Rationalitäten erklären zu können. Das Modell lässt insbesondere in mittleren Lebenseinkommensbereichen hohe Ergänzungs¬versicherungsraten erwarten – trotz der "u"-förmigen Förderquoten in statischer Quer¬schnitts¬betrachtung. Diese auf den ersten Blickt wenig intuitive Eigenschaft des Modells lässt sich im Gesamtkontext des Alterssicherungs- und Steuersystems über den erwarteten Lebenshorizont erklären. Das Simulationsmodell wurde am Fraunhofer-Institut für Angewandte Informationstechnik FIT entwickelt und wird gegenwärtig beim Verband der Rentenversicherungsträger (VDR) angewandt. Ein großer Dank gilt der finanziellen Förderung durch das Forschungsnetzwerk Alterssicherung (FNA) beim VDR. N2 - The German old age security system has seen three major reforms under the red-green govern¬ment, accomplished by a few more minor steps. On the one hand they intensify reform efforts visible since the early 90s. The 2001 reform, for example, continued to strengthen family related subsidies and changed the pension formula in a way that will contribute to a more equal distribution of financial burdens in the demographic transition among generations – by lowering the replacement rate and limiting the growth of contribution rates in the long run. The 2004 sustainability reform intensified that way under new, less favourable future expectations. The 2004 pension tax reform contributes to the same direction by lowering tax burdens of the contributing generations and raising taxes on pension payments in a long lasting transition to a (nearby) complete deferred taxation. On the other hand these reforms introduced nothing less than a deep paradigmatic change: a long run transition from a mandatory PAYG to a three pillar system, where direct subsidies and tax allowances set up incentives to supplement PAYG pensions by voluntary contributions to funded, private or company pensions. These reforms pose an enormous challenge to scientific policy advice. It is the moment of extended freedom – implying extended responsibility in every casual world – that makes estimating consequences of legal reforms exciting and difficult. Economic literature develo¬ped microsimulation models as powerful means to estimating fiscal and distributional consequences of legal reforms in great detail – “at the day after” without taking behavioural reactions into account. Behavioural reactions on the other hand are of main interest in a growing branch of literature that discusses computational equilibrium models. Due to computational limitations these models usually simplify the risk structure of the economic planning problem, reduce state and decision variables, abstract from real world unsteadiness in the budget restriction and concentrate on steady-/stationary state analysis or transitions between such states. Non of these instruments is well suited to estimate how people adapt to a reform policy that exposes them to long run instationary transition paths over a multi dimensional, time varying risk structure in which they can make use of expected imperfections in risk correlations for planning their optimal precautionary strategy. This book presents a stochastic dynamic simulation model in a partial expectation equilibrium, which was developed to identify incentives of the interacting complexity of these reforms embedded in a complicated institutional framework within a risky world. Institutions, their mapping into a computable dynamic decision model and their partial effects on startegic adaption are discussed in great detail. One of the main findings is surprisingly that it can explain restrained use of the new insurance instruments in lower income classes. From a strict “rational” point of view it forecasts high insurance rates especially in the middle income classes – although the one-year subsidy rates show a clear “u”-fashioned matter over gross income. This counterintuitive fact becomes clear taking into account the interactions of the new subsidies with the whole social security and tax system. The model was developed by the Fraunhofer Institute for Applied Information Technology (FIT) and is now run by the German Social Security Administration (VDR). Financial support by the Forschungsnetzwerk Alterssicherung (FNA) is gratefully acknowledged. KW - Deutschland KW - Altersversorgung KW - Inzidenz KW - Dynamisches Modell KW - Alterssicherung KW - Sozialpolitik KW - Lebenszyklussimulation KW - dynamisch stochastische Optimierung KW - numerische Gleichgewichtsmodelle KW - old age security KW - social policy KW - life cycle simulation KW - dynamic stochastic optimisation KW - numerical economics Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16163 ER - TY - THES A1 - Ganz, Verena T1 - A comprehensive approach for currency crises theories stressing the role of the anchor country T1 - Ein umfassender Ansatz zur Integration von Währungskrisen-Theorien unter besonderer Berücksichtigung der Bedeutung des Ankerlandes N2 - The approach is based on the finding that new generations of currency crises theories always had developed ex post after popular currency crises. Discussing the main theories of currency crises shows their disparity: The First Generation of currency crises models argues based on the assumption of a chronic budget deficit that is being monetized by the domestic central bank. The result is a trade-off between an expansionary monetary policy that is focused on the internal economic balance and a fixed exchange rate which is depending on the rules of interest parity and purchasing power parity. This imbalance inevitably results in a currency crisis. Altogether, this theory argues with a disrupted external balance on the foreign exchange market. Second Generation currency crises models on the other side focus on the internal macroeconomic balance. The stability of a fixed exchange rate is depending on the economic benefit of the exchange rate system in relation to the social costs of maintaining it. As soon as social costs are increasing and showing up in deteriorating fundamentals, this leads to a speculative attack on the fixed exchange rate system. The term Third Generation of currency crises finally summarizes a variety of currency crises theories. These are also arguing psychologically to explain phenomena as contagion and spill-over effects to rationalize crises detached from the fundamental situation. Apart from the apparent inconsistency of the main theories of currency crises, a further observation is that these explanations focus on the crisis country only while international monetary transmission effects are left out of consideration. These however are a central parameter for the stability of fixed exchange rate systems, in exchange rate theory as well as in empirical observations. Altogether, these findings provide the motivation for developing a theoretical approach which integrates the main elements of the different generations of currency crises theories and which integrates international monetary transmission. Therefore a macroeconomic approach is chosen applying the concept of the Monetary Conditions Index (MCI), a linear combination of the real interest rate and the real exchange rate. This index firstly is extended for international monetary influences and called MCIfix. MCIfix illustrates the monetary conditions required for the stability of a fixed exchange rate system. The central assumption of this concept is that the uncovered interest parity is maintained. The main conclusion is that the MCIfix only depends on exogenous parameters. In a second step, the analysis integrates the monetary policy requirements for achieving an internal macroeconomic stability. By minimizing a loss function of social welfare, a MCI is derived which pictures the economically optimal monetary policy MCIopt. Instability in a fixed exchange rate system occurs as soon as the monetary conditions for an internal and external balance are deviating. For discussing macroeconomic imbalances, the central parameters determining the MCIfix (and therefore the relation of MCIfix to MCIopt) are discussed: the real interest rate of the anchor country, the real effective exchange rate and a risk premium. Applying this theory framework, four constellations are discussed where MCIfix and MCIopt fall apart in order to show the central bank’s possibilities for reacting and the consequences of that behaviour. The discussion shows that the integrative approach manages to incorporate the central elements of traditional currency crises theories and that it includes international monetary transmission instead of reducing the discussion on an inconsistent domestic monetary policy. The theory framework for fixed exchange rates is finally applied in four case studies: the currency crises in Argentina, the crisis in the Czech Republic, the Asian currency crisis and the crisis of the European Monetary System. The case studies show that the developed monetary framework achieves integration of different generations of crises theories and that the monetary policy of the anchor country plays a decisive role in destabilising fixed exchange rate systems. N2 - Die Arbeit baut auf dem Befund auf, dass zur Erklärung von Währungskrisen stets im Nachgang bedeutender Krisen eine neue Generation wissenschaftlicher Theorien entwickelt wurde. Eine Diskussion der bedeutendsten Theorien verdeutlicht, dass diese in ihrer Argumentation untereinander und in sich inkonsistent sind: Modelle Erster Generation bauen auf der Annahme chronischer Budgetdefizite auf, die die heimische Notenbank monetarisiert. Dieser Zielkonflikt zwischen einer expansiven, binnenwirtschaftlich ausgerichteten Geldpolitik und dem den Gesetzen der Zins- und Kaufkraftparität unterliegenden Wechselkursziel mündet unvermeidlich in einer Währungskrise. Die Theorie bezieht sich demnach klar auf das externe Gleichgewicht am Devisenmarkt. Währungskrisenmodelle der Zweiten Generation stellen dagegen das interne, binnenwirtschaftliche Gleichgewicht in den Mittelpunkt. Der Erfolg eines Wechselkurszieles hängt hiernach vom Nutzen des Festkurssystems in Relation zu den Kosten seiner Verteidigung ab. Steigen die sozialen Kosten in Form konjunktureller Belastungen, führt dies ab einem bestimmten Level über antizipierende Markterwartungen zu einer spekulativen Attacke auf den Festkurs. Unter dem Obergriff der Dritten Generation von Krisenmodellen schließlich werden verschiedene Modelle zusammengefasst, die psychologische Erklärungsansätze miteinbeziehen, um Phänomene wie Ansteckungseffekte zu erklären. Dadurch können Krisenentwicklungen losgelöst von der jeweiligen Fundamentaldatenlage rationalisiert werden. Neben der offensichtlichen Inkonsistenz der zentralen Argumente der jeweiligen Theorien ist eine weitere Beobachtung, dass die Erklärungen jeweils im betroffenen Land ansetzen, während eine grenzüberschreitende monetäre Transmission außer Acht gelassen wird. Diese ist jedoch sowohl in der Empirie als auch in der Theorie zu Wechselkurssystemen ein zentraler Einflussfaktor für die Stabilität von Festkurssystemen. Aus diesen Befunden leitet sich die Motivation für die vorliegende Arbeit ab, ein die verschiedenen Krisengenerationen integrierendes theoretisches Rahmenwerk zu entwickeln, in dem grenzüberschreitende monetäre Transmissionseffekte in die Diskussion mit einbezogen werden. Zu diesem Zweck wird ein makroökonomischer Ansatz gewählt, der das Konzept des Monetary Conditions Index (MCI) anwendet, einer Linearkombination aus Realzins und realem Wechselkurs. Dieser Index wird zum einen um internationale monetäre Einflüsse erweitert zu einem MCIfix, der die monetären Anforderungen an ein funktionierendes Festkurssystem wiederspiegelt. Zentrale Annahme hierfür ist die Einhaltung der ungedeckten Zinsparität. Die wesentliche Erkenntnis ist, dass alle Determinanten des MCIfix für die Notenbank exogene Parameter sind. In einem zweiten Schritt bezieht die Arbeit die binnenwirtschaftlichen Anforderungen einer Volkswirtschaft an die Geldpolitik in die Analyse ein. Dazu wird durch Minimierung einer Verlustfunktion an gesellschaftlicher Wohlfahrt ein MCI abgeleitet, der die binnenwirtschaftlich optimale Geldpolitik abbildet (MCIopt). Instabilität des Festkurssystems droht, sobald die geldpolitischen Bedingungen für das binnenwirtschaftliche und außenwirtschaftliche Gleichgewicht auseinanderfallen. Zur Diskussion makroökonomischer Ungleichgewichte werden die entscheidenden Parameter, die den MCIfix und damit die Relation von MCIfix und MCIopt bestimmen, diskutiert: der Realzins des Ankerlandes, der reale effektive Wechselkurs und eine Risikoprämie. Mit diesem Theorie-Instrumentarium stellt die Arbeit dann vier Konstellationen dar, in denen MCIfix und MCIopt auseinanderfallen, und diskutiert mögliche Verhaltensweisen der Notenbank und deren Folgen. Der MCI, für den sich die Notenbank tatsächlich entscheidet, wird als MCIact bezeichnet. Jeder der vier Fälle endet in einer Währungskrise. Es zeigt sich in der Diskussion, dass der hier verwendete Ansatz die zentralen Elemente traditioneller Krisentheorien integriert und die Diskussion monetärer Einflüsse von außen zulässt, anstatt ausschließlich von einem ursächlichen Verschulden der heimischen Notenbank auszugehen. Das theoretische Modell wird schließlich in vier Fallstudien angewandt: Der Argentinienkrise, dem Zusammenbruch des tschechischen Währungsregimes, der Asienkrise und der Krise des Europäischen Währungssystems. Die Fallstudien zeigen, dass sich mit dem entwickelten Modellrahmen Krisen verschiedener Generationen abbilden lassen und die Geldpolitik des Ankerlandes eine zentrale Rolle bei einer Destabilisierung eines Festkurssystems spielt. KW - Devisenmarkt KW - Wechselkurspolitik KW - Währungskrise KW - Fester Wechselkurs KW - Monetary Conditions Index KW - Ankerland KW - internes Gleichgewicht KW - externes Gleichgewicht KW - Monetary Conditions Index KW - anchor country KW - internal balance KW - external balance Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26853 ER - TY - THES A1 - Ahn, Young-Cheul T1 - Umweltverschmutzung als länderübergreifendes Problem am Beispiel der globalen Erwärmung T1 - xxx N2 - Diese Arbeit versucht, die wirtschaftliche Bedeutung der globalen Erwärmung zu erklären und die Lösung dieses Problems zu finden. Die globale Erwärmung als länderübergreifendes Problems kann durch das marktwirtschaftliche Preissystem gelöst werden, besonders durch den internationalen Handel der Schadstoffemission. Hierbei wird die dezentrale Lösungsprinzip betont. Die globale Erwärmung und Politik für die Lösung dieses Problem sind dauerhaft. Daher wird das intertemporale Wachstumsmodell zur Berechnung des Gewinns und der Kosten der Politik verlangt. Dabei wird ein Prinzip besagt, dass jede Generation verantwortlich auf ihre Generation ist. In dieser Arbeit wird versucht, die optimale Handelspolitik und die Kyoto-Politik zu vergleichen. KW - Umweltverschmutzung KW - Externalität KW - Internationaler Handel KW - Pollution KW - Externality KW - International Trade Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-22860 ER - TY - THES A1 - Mayer, Eric T1 - New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions N2 - No abstract available N2 - Die vorliegende Arbeit verwendet und erweitert einen neukeynesianischen Analyserahmen (Woodford, 2003), um zentrale Fragestellungen des geld- und fiskalpolitischen Designs in geschlossenen Währungsräumen und Währungsunionen zu thematisieren. Der Verfasser stellt dar, dass die neukeynesianische Theorie es möglich macht, mikrofundiert und keynesianisch zugleich zu denken. Ausgangspunkt ist eine stilisierte, dynamisch-stochastische Ökonomie, in der repräsentative Haushalte und Unternehmen in einem allgemeinen Gleichgewichtsrahmen interagieren. Die Einführung von Preisrigiditäten bei monopolistischer Konkurrenz ist von zentraler Bedeutung. Die Notenbank kann bei rigiden Preisen durch geschickte Zinspolitik jener Allokation nahe kommen, die sich ergeben hätte, wenn Preise flexible gewesen wären. Die Innovation in Kapital 2 besteht darin, dass das neukeynesianische Modell in einen statischen Modellrahmen überführt wird, ohne dass zentrale Einsichten verloren gehen. Der so abgeleitete Analyserahmen bietet eine Alternative zum IS/LM-AS/AD Model und ermöglicht eine überzeugende Analyse geldpolitischer Strategien, wie etwa der des „Inflation-Targetings“. In Kapitel 3 wird dieser Modellrahmen zur Analyse von geld- und fiskalpolitischer Interaktion mit dezentralen fiskalpolitischen Akteuren für den Euroraum herangezogen. Die Referenzliteratur ist Dixit und Lambertini (2003). Es wird gezeigt, dass nationale Autoritäten bei asymmetrischen Schocks und nicht integrierten Produktmärkten eine bedeutsame stabilisierungspolitische Aufgabe haben. Insbesondere Angebotschocks in einzelnen Teilnehmerstaaten haben dramatisch andere Wirkungen auf den Konjunkturzyklus, als in einem geschlossenen Währungsraum. Diese angebotsseitigen Effekte werden in der relevanten Literatur vollständig ausgeblendet. In Kapitel 4 werden neukeynesianische Makromodelle für relativ geschlossene Volkswirtschaften (USA) und Währungsräume (Europäische Währungsgemeinschaft) verwand, um ein geeignetes makroökonomisches Design aus neukeynesianischer Perspektive abzuleiten. Das Model wird mittels eines Minimum Distance Ansatzes geschätzt (Christiano, Eichnbaum, Evans, 2005). Es lassen sich folgende Ergebnisse zusammenfassen. Für die USA wurde gezeigt, dass das neukeynesianische Modell eine ausgewogene Mischung aus rückwertsschauenden und vorausschauenden Akteuren benötigt, um die Daten adäquat abzubilden. Der Schwerpunkt der amerikanischen Notenbankpolitik liegt auf der Stabilisierung der Inflationsrate um das Inflationsziel. Darüber hinaus führt die Implementierung einer stabilisierenden Regel zu sich selbst stabilisierenden Erwartungen und dadurch zu einem stabileren Konjunkturzyklus. Für den Euroraum wurde untersucht, ob der Stabilitäts- und Wachstumspakt die Risiken und Chancen die eine aktivistische Fiskalpolitik beinhaltet hinreichend austariert. Hierbei kommt der Verfasser zu dem Ergebnis, dass die gegenwärtige Ausgestaltung des Stabilitäts- und Wachstumspaktes keine tragfähige Lösung darstellt, da bei realistischen Annahmen über die Größe und Verteilung der Störgrößen es sehr wahrscheinlich ist, dass sachlich ungerechtfertigte Sanktionsmechanismen gegen einzelne Teilnehmerstaaten in Gang gesetzt werden. Insofern schlägt der Verfasser vor, den Stabilitäts- und Wachstumspakt dahingehend zu ändern, dass man nicht auf die fiskalpolitische Instrumentenebene abstellt, sondern auf die Zielebene. Sanktionen sollten demnach nur dann verhangen werden, wenn simultan hohe Inflationsraten und hohe Defizite attestiert werden können. Dieser „Inflation-Targeting“ Ansatz reduziert die Wahrscheinlichkeit, dass irrtümlicherweise Sanktionen verhangen werden. Im abschließenden Kapitel werden die zentralen Einsichten zusammengefasst. Hierbei wird noch einmal darauf verwiesen, dass Schätzungen darauf hindeuten (Canzoneri, Cumby and Diba, 2004), dass ein repräsentativer Haushalt bereit wäre bis zu drei Prozent seines Einkommens für eine wirksame Stabilisierungspolitik zu zahlen. Literaturhinweise CANZONERI, MATHEW B., ROBERT E CUMBY, AND BEHZAD T. DIBA (2004), The Costs of Nominal Inertia in NNS Models, NBER Working Paper No. 10889, November 2004. CHRISTIANO, J. LARRY, MARTIN EICHENBAUM, AND CHARLES EVANS (2005), Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy, Journal of Political Economy, vol.113, no.1, pp. 1-45. DIXIT, AVINASH K, AND LUISA LAMBERTINI (2003), Symbiosis of Monetary and Fiscal Policies in a Monetary Union, Journal of International Economics, vol. 60 no. 2, pp. 235-247. WOODFORD, MICHAEL (2003), Interest and Prices, Foundations of a Theory of Monetary Policy, Princeton University Press, Princeton 2003. KW - Geldtheorie KW - Neokeynesianismus KW - Neukeynesianisch KW - Währungsraum KW - Geld- und Fiskalpolitik KW - New Keynesian KW - monetary union KW - monetary and fiscal policy Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19499 ER - TY - THES A1 - Kleer, Robin T1 - Three Essays on Competition Policy and Innovation Incentives T1 - Drei Aufsätze über Wettbewerbspolitik und Innovationsanreize N2 - Diese Dissertation befasst sich mit dem Thema Innovationsökonomik. In einer allgemeinen Einführung werden wettbewerbspolitische Gesichtspunkte, die Innovationsanreize von Firmen beeinflussen, dargestellt. In drei einzelnen Arbeiten werden dann spezielle Fragestellungen intensiver analysiert. Die erste Arbeit behandelt die Wechselwirkungen von Firmenzusammenschlüssen und Innovationen, zwei zentrale Elemente der Wettbewerbsstrategie von Unternehmen. Der Schwerpunkt der Arbeit liegt dabei auf dem Einfluss von Firmenzusammenschlüssen auf die Innovationsaktivitäten und den Wettbewerb im Produktmarkt. Dabei werden auch mögliche Ineffizienzen, die sich durch Probleme bei der Integration der Firmen nach dem Zusammenschluss ergeben, untersucht. Es wird gezeigt, dass die optimale Investitionsaktivität sehr stark von der sich ergebenden Marktstruktur abhängt und es signifikante Unterschiede zwischen Insider und Outsider des Firmenzusammenschlusses gibt. In dem Modell mit linearer Nachfragefunktion und konstanten Grenzkosten steigern Zusammenschlüsse die soziale Wohlfahrt. Die zweite Arbeit betrachtet die unterschiedlichen Vorteile von kleinen und großen Firmen im Innovationswettbewerb. Während große Firmen typischerweise über einen besseren Zugang zu Produktmärkten verfügen, weisen kleine Firmen häufig eine bessere Forschungseffizienz auf. Diese verschiedenen Vorteile werfen unmittelbar die Frage nach Kooperationen auf. Im dargestellten Modell mit vier Unternehmen haben große Firmen die Möglichkeit kleine Firmen zu kaufen. Innovationen werden mittels Patentwettbewerb modelliert. Sequentielles Bieten ermöglicht es der ersten großen Firma strategisch zu handeln um eine Reaktion der zweiten großen Firma hervorzurufen. Ergeben sich hohe Effizienzen durch den Firmenzusammenschluss, so bevorzugen die großen Firmen eine unmittelbare Akquisition und es entsteht eine symmetrische Marktstruktur. Bei geringen Effizienzen wartet die erste Firma dagegen ab und zwingt die zweite Firma dadurch zum Kauf. Somit entsteht trotz symmetrischer Ausgangssituation eine asymmetrische Marktstruktur. Weiterhin wird gezeigt, dass Akquisitionen die Chancen für eine erfolgreiche Innovation erhöhen. Die dritte Arbeit befasst sich mit Forschungssubventionen. Dabei wird neben dem eigentlichen Ziel der Subvention -- der Förderung sozial erwünschter Projekte, die nicht genügend private Anreize zur Durchführung bieten -- die Signalwirkung einer Subvention betrachtet. Eine Staatsbehörde untersucht dabei die Projekte auf Risiken und Wohlfahrtswirkungen und entscheidet daraufhin über eine Förderung. Dies wird in einem einfachen Signalisierungsspiel mit zwei Risikoklassen von Forschungsprojekten modelliert. Die Staatsbehörde bevorzugt dabei riskante Projekte, die hohe erwartete soziale Gewinne versprechen, während Banken wenig riskante Projekte mit hohen privaten Gewinnen bevorzugen. Ermöglicht die Subvention lediglich die Unterscheidung von riskanten und weniger riskanten Projekten, so ist das Signal der Behörde wenig hilfreich für die Investitionsenscheidung der Banken. Bietet das Signal jedoch zusätzlich einen Hinweis auf die Qualität der Projekte, so können sich erhöhte, bzw. effizienter ausgewählte, private Investitionen ergeben. Im letzten Kapitel werden die wichtigsten Aussagen zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erläutert. N2 - This thesis deals with the economics of innovation. In a general introduction we illustrate how several aspects of competition policy are linked to firms' innovation incentives. In three individual essays we analyze more specific issues. The first essay deals with interdependencies of mergers and innovation incentives. This is particularly relevant as both topics are central elements of a firm's competitive strategy. The essay focuses on the impact of mergers on innovative activity and competition in the product market. Possible inefficiencies due to organizational problems of mergers are accounted for. We show that optimal investment strategies depend on the resulting market structure and differ significantly from insider to outsider. In our linear model mergers turn out to increase social surplus. The second essay analyzes the different competitive advantages of large and small firms in innovation competition. While large firms typically have a better access to product markets, small firms often have a superior research efficiency. These distinct advantages immediately lead to the question of cooperations between firms. In our model we allow large firms to acquire small firms. In a pre-contest acquisition game large firms bid sequentially for small firms in order to combine respective advantages. Innovation competition is modeled as a patent contest. Sequential bidding allows the first large firms to bid strategically to induce a reaction of its competitor. For high efficiencies large firms prefer to acquire immediately, leading to a symmetric market structure. For low efficiencies strategic waiting of the first large firm leads to an asymmetric market structure even though the initial situation is symmetric. Furthermore, acquisitions increase the chances for successful innovation. The third essay deals with government subsidies to innovation. Government subsidies for research and development are intended to promote projects with high returns to society but too little private returns to be beneficial for private investors. Apart from the direct funding of these projects, government grants may serve as a signal of good investments for private investors. We use a simple signaling model to capture this phenomenon and allow for two types of risk classes. The agency has a preference for high risk projects as they promise high expected social returns, whereas banks prefer low risk projects with high private returns. In a setup where the subsidy can only be used to distinguish between high and low risk projects, government agency's signal is not very helpful for banks' investment decision. However, if the subsidy is accompanied by a quality signal, it may lead to increased or better selected private investments. The last chapter summarizes the main findings and presents some concluding remarks on the results of the essays. KW - Wettbewerbspolitik KW - Innovation KW - Firmenzusammenschlüsse KW - Patentwettbewerb KW - Forschungssubventionen KW - Competition Policy KW - Innovation Incentives KW - Mergers and Acquisitions KW - Patent Contest KW - Subsidies Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-34763 ER - TY - GEN A1 - Fricke, Holger T1 - Deutschland dezentral - Potenziale, Probleme, politische Perspektiven T1 - Germany decentralized - potentials, problems, political perspectives N2 - Dezentrale, wettbewerblich organisierte föderale Ordnungen, bei denen zentrale Kompetenzen auf niedrigen institutionellen Ebenen liegen und in denen Gebietskörperschaften eine vergleichsweise geringe Größe aufweisen, sind mit beträchtlichen Vorteilen verbunden. So ist es besser möglich, den Präferenzen der Bürger gerecht zu werden. Außerdem wird ein höheres Wirtschaftswachstum angeregt. Die in der Theorie genannten Nachteile (unausgeschöpfte Größenvorteile, negative Auswirkungen externer Effekte, race to the bottom bei öffentlichen Leistungen und Sozialstaat) finden hingegen nur geringe empirische Bestätigung. Vor diesem Hintergrund ist der kooperative Föderalismus der Bundesrepublik Deutschland kritisch zu bewerten. Insbesondere der Länderfinanzausgleich als Kernelement der bundesstaatlichen Ordnung in Deutschland ist ineffizient und bremst das Wirtschaftswachstum. Um von den Vorteilen dezentraler, wettbewerblicher föderaler Ordnungen profitieren zu können, sollte den Bundesländern insbesondere substanzielle Finanzautonomie eingeräumt werden. Die Heterogenität politischer Präferenzen abhängig von gewählter staatlicher Ebene, Größe von Gebietskörperschaften und simulierten Länderneugliederungen wurde anhand von Bundestagswahlergebnissen untersucht. Die entsprechende Analyse befindet sich als Anhang an dieser Stelle, während die Dissertation in gedruckter Form erschienen ist. N2 - In addition to the dissertation, this appendix contains an analysis of elections in Germany. KW - Fiskalföderalismus KW - Ökonomische Theorie des Föderalismus KW - Deutschland KW - Deutschland <Östliche Länder> KW - Länderfinanzausgleich KW - Dezentralisation KW - Standortwettbewerb KW - fiscal federalism KW - locational competition Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36106 N1 - Die vollständige Arbeit ist im Verlag Dr. Kovac erschienen: http://www.verlagdrkovac.de/978-3-8300-4629-5.htm ER - TY - THES A1 - Stark, Peter T1 - Funktionalität, Effizienz und Deregulierungspotentiale der öffentlichen Straßeninfrastrukturbereitstellung T1 - Functionality, Efficiency and Potentials of Deregulation of Public Road Provision N2 - Innerhalb der Verkehrsinfrastrukturen ist das Straßenwesen mit seinen individualistischen und flexiblen Kraftfahrzeugen der große Gewinner des letzen Jahrhunderts. Trotz seines individualistischen Nutzungscharakters und privatwirtschaftlichen Beispielen in anderen Ländern ist in Deutschland heute keine andere Verkehrsinfrastruktur so weit von einer Deregulierung entfernt wie die Straßen. Den Ausgangspunkt der Erklärung dieser Rigidität bildet eine Situationsaufnahme der bestehenden Marktorganisation. Prägnant erweist sich die tiefe Integration der Straßenbereitstellung in die öffentliche Verwaltung und Entscheidungen über den politischen Prozess unter Beteiligung aller Gesellschaftsgruppierungen. Fragen wirft dabei unter anderen die kontroverse Diskussion um die Externalitäten der Straßen und ihres Verkehrs auf. Die Klärung verweist auf eine Effizienzbetrachtung des bestehenden Bereitstellungssystems. Problematisch zeigt sich hier aufgrund der politischen Heterogenität der Gesellschaftsgruppierungen insbesondere der politische Entscheidungsprozess. Die Suche nach einer Lösung verweist auf privatwirtschaftliche Bereitstellungsalternativen. Es zeigt sich, dass hierfür sowohl in rechtlicher wie auch technischer Hinsicht die notwendigen Rahmenbedingungen für eine privatwirtschaftliche Organisation ebenso bestehen wie auch erhebliche Effizienzgewinne zu erwarten wären. Als eigentliches Hindernis identifiziert sich auch hier eine Neuordnung, die notwendigerweise über den politischen Prozess stattfindenden muss. Der eigene Erfolg der Straßen mit seiner gewachsenen verkehrs- und fiskalpolitischen Bedeutung blockiert damit heute mehr denn je Hoffnungen auf eine Lösung der aufgelaufenen Probleme im Straßenwesen. N2 - Among the various transportation infrastructures it is the roadways which represent the great success story of the last century, allowing flexible and individual use of motor vehicles. Despite the empowerment of the individual and private-sector examples in other countries, no other part of the transportation infrastructure is so far removed from achieving deregulation as the roadways of today. Forming the starting point of any explanation of this rigidity is a consideration of the existing market organization. Proving to be of great significance is the fact that the provisioning of roadways has traditionally been deeply integrated within public administration and decision making by the political process with participation of all public groups. The question thereby raised is the controversial discussion of externalities in connection with roadways and motor vehicles. Clarification of this issue requires an efficiency analysis of the current system. Manifesting itself as particularly problematic is the political decision making process due to heterogeneous social groups. The attempt to localize a solution leads to the possibility of a private economic reorganization. It becomes apparent that the necessary juristic and technical frameworks for private reorganization exist and that significant gains in efficiency could be expected. The effective obstacle proves to be the necessary reorganisation by the political process. It is the very success itself of the roadway networks, with their ever growing transportation and fiscal-political importance, which hinders prospective solutions to the accrued problems of the road-based infrastructure. KW - OKSTRA KW - Öffentliches Straßenwesen KW - Deregulierung Verkehrsinfrastruktur KW - Public Road Provision KW - Deregulation of Infrastructur Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27479 ER - TY - THES A1 - Wollmershäuser, Timo T1 - A theory of managed floating T1 - Eine Theorie des Managed Floatings N2 - After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as ‘independent floaters’ in the IMF statistics were charaterised by a pronounced ‘fear of floating’ and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that – even though it is widely used in practice – has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few ‘middle-ground’ economists, John Williamson, who argued that “managed floating is not a regime with well-defined rules” (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank’s final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker’s quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank’s final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank’s effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables. N2 - Auf modelltheoretischer Ebene wird die Diskussion geld- und währungspolitischer Strategien von den beiden Randlösungen absolut fester Wechselkurse und frei-flexibler Wechselkurse geprägt. In der Realität allerdings stellen diese beiden Strategien eher die Ausnahme als die Regel dar. Während die traditionelle einseitige Wechselkursanbindung zunehmend an Bedeutung verliert, entscheidet sich eine wachsende Anzahl von Ländern, insbesondere kleine und offene Emerging Market Volkswirtschaften, für eine zunehmende Flexibilisierung ihres Wechselkursregimes. Allerdings ist die Bereitschaft, den Wechselkurs vollkommen den freien Kräften des Marktes zu überlassen, sehr eingeschränkt. Dafür sprechen insbesondere zwei stilisierte Fakten: Zum einen greifen Notenbanken direkt am Devisenmarkt mit sterilisierte Käufen und Verkäufen von Fremdwährung ein. Zum anderen versuchen Notenbanken indirekt mit ihrem Zinsinstrument Einfluss auf den Verlauf des Wechselkurses zu nehmen, indem sie auf seine Veränderungen mit Anpassungen der Zinsen reagieren. Während die Literatur in beiden Fällen von einem System des Managed Floatings spricht, wurde im Rahmen der vorliegenden Arbeit Ersteres als direktes Managed Floating, und Letzteres als indirektes Managed Floating bezeichnet. Gemeinsames Merkmal beider Formen des Managed Floatings ist, dass für sie im Rahmen makroökonomischer Modelle offener Volkswirtschaften keine Rechfertigung abzuleiten ist. Insbesondere Neukeynesianische bzw. Neokeynesianische Modelle, auf deren Grundlage moderne Geldpolitik diskutiert wird, kommen zu dem Ergebnis, dass eine geeignete Zinspolitik auf Basis frei-flexibler Wechselkurse (also ohne direkte Devisenmarktinterventionen und ohne indirekte Beeinflussung durch Zinsen) zu einer bestmöglichen Stabilisierung der Volkswirtschaft beiträgt. Die entscheidende Annahme, die diesem Ergebnis zugrunde liegt, ist, dass sich der Wechselkurs auf effizienten Devisenmärkten und gemäß eines klar definierten Wechselkursmodells bildet. Normalerweise wird daher in den meisten Modellen die Gültigkeit der ungedeckten Zinsparität unterstellt. Empirische Untersuchungen kommen allerdings regelmäßig und mit überraschender Eindeutigkeit zu dem Befund, dass der Zusammenhang zwischen Zinsen und Wechselkurs entsprechend der ungedeckten Zinsparität bei flexiblen Wechselkursen statistisch nicht nachweisbar ist, und sprechen daher gar von einer Anomalie des Devisenmarktes. Berücksichtigt man diese Anomalie bei der Modellierung geldpolitischer Entscheidungen, kehrt sich die Überlegenheit frei-flexibler Wechselkurse gegenüber den beiden Formen des Managed Floatings ins Gegenteil um. Dieses zentrale Ergebnis, das eine ökonomische Ratio für das beobachtete Verhalten vieler Notenbanken in kleinen und offenen Volkswirtschaften liefert, wird in zwei Schritten hergeleitet. Zum einen lässt sich durch die Berücksichtigung von Wechselkursunsicherheit die Strategie des indirekten Managed Floatings begründen. Wechselkursunsicherheit wird definiert als die (nicht quantifizierte) Wahrscheinlichkeit, dass anstelle der ungedeckten Zinsparität ein anderes Wechselkursmodell das tatsächliche Zusammenspiel zwischen den beiden Finanzmarktgrößen Zins und Wechselkurs bestimmt. In der vorliegenden Arbeit wird gezeigt, dass sich Zinsregeln, die neben der Inflationsrate und der Outputlücke (wie unter frei-flexiblen Wechselkursen) auch auf den zeitgleichen und den zeitverzögerten realen Wechselkurs reagieren, als äußerst robust gegenüber einem hohen Maß an Wechselkursunsicherheit erweisen. Zum anderen lassen sich durch Abweichungen von der ungedeckten Zinsparität direkte sterilisierte Devisenmarktinterventionen begründen. Neben dem Geldmarktzins können Notenbanken somit gleichzeitig und unabhängig vom Geldmarktzins den Wechselkurs steuern. Allerdings muss für die Wechselkurssteuerung – ebenso wie für die Zinssteuerung – ein geeignetes Steuerungssystem (Strategie) entworfen werden, dass der Notenbank klare Handlungsweisungen liefert. In der vorliegenden Arbeit werden zunächst die Wirkungskanäle sterilisierter Interventionen diskutiert. Anschließend wird eine geldpolitische Regel auf der Basis eines aus Geldmarktzins and Wechselkurs zusammengesetzten Operating Targets, des sog. Monetary Conditions Indexes, entworfen. Es zeigt sich, dass eine Strategie des direkten Managed Floatings bei entsprechendem Einsatz der beiden Notenbankinstrumente zu denselben Ergebnissen (gemessen am Stabilisierungsziel der Notenbank) führt, wie sie sich auch unter frei-flexiblen Wechselkursen bei Gültigkeit der ungedeckten Zinsparität ergeben würden. Sterilisierte Devisenmarktinterventionen stellen somit ein zusätzliches Instrument der Geldpolitik dar, dass die aus der Wechselkursunsicherheit resultierenden negativen Auswirkungen auf die geldpolitischen Endziele kompensiert. KW - Managed Floating KW - Devisenmarktinterventionen KW - Inflation Targeting KW - Zinsregeln KW - Monetary Conditions Index KW - managed floating KW - foreign exchange market interventions KW - inflation targeting KW - interest rate rules KW - monetary conditions index Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8676 ER - TY - THES A1 - Hülsewig, Oliver T1 - Bank lending and monetary policy transmission in Germany T1 - Kreditvergabe der Banken und geldpolitische Transmission in Deutschland N2 - This study investigates the credit channel in the transmission of monetary policy in Germany by means of a structural analysis of aggregate bank loan data. We base our analysis on a stylized model of the banking firm, which specifies the loan supply decisions of banks in the light of expectations about the future course of monetary policy. Using the model as a guide, we apply a vector error correction model (VECM), in which we identify long-run cointegration relationships that can be interpreted as loan supply and loan demand equations. In this way, the identification problem inherent in reduced form approaches based on aggregate data is explicitly addressed. The short-run dynamics is explored by means of innovation analysis, which displays the reaction of the variables in the system to a monetary policy shock. The main implication of our results is that the credit channel in Germany appears to be effective, as we find that loan supply effects in addition to loan demand effects contribute to the propagation of monetary policy measures. N2 - Die vorliegenden Arbeit untersucht die Existenz des Kreditkanals in der geldpolitischen Transmission in Deutschland im Rahmen einer strukturellen Analyse von aggregierten Kreditmarktdaten. Die Analyse stützt sich auf ein Modell des Bankenverhaltens, welches die Kreditvergabeentscheidungen der Banken vor dem Hintergrund zukünftig erwarteter geldpolitischer Maßnahmen beleuchtet. Mit Hilfe eines Vektorfehlerkorrekturmodells (VECM) werden Langfristbeziehungen, die als Kreditangebots- und Kreditnachfragegleichungen interpretiert werden können, durch die Wahl von Restriktionen auf Kointegrationsvektoren hergeleitet. Auf diese Weise wird das Identifikationsproblem, welches bei Schätzungen von reduzierten Formen auf der Basis von aggregierten Daten auftritt, explizit angegangen. Die kurzfristige Dynamik des VECM wird anhand von Impuls-Antwort-Funktionen und Varianzzerlegungen dargestellt, die den Einfluss eines geldpolitischen Schocks auf die Variablen des Systems beschreiben. Die empirischen Ergebnisse deuten auf die Relevanz des Kreditkanals in Deutschland hin, da Kreditangebotseffekte zusätzlich zu Kreditnachfrageeffekten einen Einfluss auf die Übertragung von geldpolitischen Maßnahmen haben. KW - Kreditvergabe KW - geldpolitische Transmission KW - Kreditkanal KW - Vektorfehlerkorrekturmodell KW - Bank lending KW - monetary policy transmission KW - credit channel KW - vector error correction model Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8686 ER - TY - THES A1 - Schlegtendal, Götz T1 - Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Berücksichtigung betriebswirtschaftlicher Aspekte T1 - The value of flexible payment components with regards to business aspects N2 - Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gründe ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit über verschiedene Theorien erklärt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, überhöhte Reallöhne zurückgeführt werden. Unterschiedliche Einflüsse verhindern dann ein Absinken des Lohnniveaus auf ein vollbeschäftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungenügenden Anpassungskapazitäten an veränderte Rahmenbedingungen sind eine weitere Begründung für die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer Höhe und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, können einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungslöhne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivitätsorientierten Entlohnung bei, mit positiven Effekten für Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman‘s kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erhöhter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitsplätze sichern. Neben diesen drei Hauptformen werden auch Investivlöhne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivlöhne (zur Überwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und Führungskräften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung ergänzt werden können. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige Lösung der Arbeitslosigkeit bietet. Vielmehr müssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die Höhe und Ausgestaltung der Lohnersatzleistungen sowie die Stärkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen. N2 - Subject of this study are the impacts of flexible compensation components (incentive wage, profit-sharing, employee share ownership) at the industry and economy level. Starting point is the analysis of existing unemployment with regards to original causes and the reasons for persistency. The conclusion is that existing unemployment can be explained by several theories and may be divided into various A major part of the unemployment can be explained by unflexible, exzessive real wages. Various influences prevent the wages to drop to a level conform with full employment.parts. Structural causes like misdevelopments at the labour market and insufficient capacities to adapt to a new environment are another reason for high and sustainable unemployment. Wages, which are flexible in their sectoral, regional and professional dimension, can have a major contribution to reduce unemployment. Following this economic approach the next chapter is focused on the industrial aspects of compensation in the view of enterprises and employees. Following these basis three different options to make compensation flexible with respect to industrial and economical effects will be analysed. Incentives wages respect either the quantity or the quality of work. In this sense they contribute to a compensation linked to productivity, with positive impact to companies and the total economy. Since Weitzman`s controversal "Share Economy" profit-sharing is viewed as a way to reduce unemployment. The linkage between company success and compensation seems to have positive results for employees, companies and the unemployed. Employee share ownership seems to be no way to influence unemployment directly. On the other hand positive relation between motivation and participation might reduce the risk of rising unemployment. The money raised by participation might secure employment depending on the rules. Investive wages (Investivlöhne) and stock options might be another way to make compensation more flexible. Investive wages (often used to overcome the lack of equity in companies) have similiar effects to profit-sharing and share ownership whereas stock options only adress smaller groups of employees and managers. The final chapter describes the optimal composition of a compensation model. It concludes a basic wage, an incentive wage and some kind of profit-sharing. Employee share ownership might be an optional part of it. Once again will be emphasized, that a flexible form of compensation is not an isolated way to reduce unemployment. In fact it must be accompagnied by structurell reforms as adressing the balance of power at the labour market, the level and rules of social welfare and the strengthening of economic growth. KW - Arbeitsmarkt KW - Lohnflexibilität KW - Arbeitslosigkeit KW - Entlohnung KW - Erfolgsbeteiligung KW - Leistungslohn KW - Kapitalbeteiligung KW - Unemployment KW - compensation KW - profit-sharing KW - incentive wage KW - employee share ownership Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-5277 ER - TY - THES A1 - Rönnberg, Michael T1 - Bedeutung der Spezifikation für Ratingmodelle T1 - Impact of model specification on credit rating models N2 - Ziel dieser Arbeit ist die Untersuchung der Bedeutung der Spezifikation für Ratingmodelle zur Prognose von Kreditausfallwahrscheinlichkeiten. Ausgehend von dem in der Bankenpraxis etablierten Logit-Modell werden verschiedene Modellerweiterungen diskutiert und hinsichtlich ihrer Eigenschaften als Ratingmodelle empirisch und simulationsbasiert untersucht. Die Interpretierbarkeit und die Prognosegüte der Modelle werden dabei gleichermaßen berücksichtigt. Besonderes Augenmerk wird auf Mixed Logit-Modelle zur Abbildung individueller Heterogenität gelegt. Die Ergebnisse zeigen, dass die Spezifikation einen wichtigen Einfluss auf die Eigenschaften von Ratingmodellen hat und dass insbesondere mit Hilfe von Mixed Logit-Ansätzen sinnvoll interpretierbare Ratingmodelle mit guten Prognoseeigenschaften erlangt werden können. N2 - This thesis aims at analyzing the impact of model specification on credit rating models as used by banks to forecast credit default probabilities. The well-established logit model is extended in various directions. Implications are discussed empirically and with the help of Monte Carlo studies. In this respect, interpretability and forecasting quality are considered simultaneously. A main focus is on mixed logit models that allow for modeling individual heterogeneity. Results indicate that proper model specification has a strong impact on the quality of rating models. In particular it is emphasized that mixed logit models offer well interpretable credit rating models with high forecasting power. KW - Bank KW - Kreditrisiko KW - Logit-Modell KW - Rating KW - Spezifikation KW - Mixed Logit KW - Spezifikationsanalyse KW - Kreditrisiko KW - Internes Rating KW - Basel II KW - Maximum-Likelihood-Schätzung KW - Mixed Logit KW - Specification Analysis KW - Credit Risk KW - Internal Rating KW - Basel II Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-48895 ER - TY - THES A1 - Wismer, Sebastian T1 - Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing T1 - Aufsätze in Industrieökonomik: Intermediation, Marketing und Strategische Preissetzung N2 - This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework. N2 - Die vorliegende Dissertation beschäftigt sich mit ausgewählten Unternehmensstrategien, die insbesondere mit der Entwicklung neuer Informationstechnologien verbreitet Anwendung finden. In der Einleitung wird die Motivation dargelegt und kurz auf Definitionsmöglichkeiten des Begriffs "zweiseitiger Markt" eingegangen sowie eine knappe Zusammenfassung der nachfolgenden Essays gegeben. Der erste Essay beschäftigt sich mit dem Einfluss von Produktinformationen auf die Preis- und Werbeentscheidung des Anbieters eines Erfahrungsgutes dessen Qualität potenzielle Käufer vor dem Kauf nicht kennen. In zwei Modellen, welche sich insbesondere in der vorherrschenden Rolle von Werbung unterscheiden, wird analysiert, wie sich die Verfügbarkeit von zusätzlichen Informationen, welche allerdings möglicherweise irreführend sein können, auf die von der tatsächlichen Produktqualität abhängige Preissetzung und Werbeinvestition auswirkt. Im ersten Modell, in welchem unterstellt wird, dass sowohl Werbung als auch andere Produktinformationen auf die Existenz von Produkten aufmerksam machen, stellt sich heraus, dass der vom Anbieter gewählte Preis positiv mit der tatsächlichen Qualität zusammenhängt, allerdings unter gewissen Umständen ein Anbieter eines Produkts niedriger Qualität profitabel einen hohen Preis setzen kann. Der Zusammenhang zwischen Produktqualität und Werbung hängt von der vorliegenden Parameterkonstellation ab. Im zweiten Modell wird - anders als zuvor - angenommen, dass die Preissetzungsentscheidung indirekt Informationen bzgl. der Produktqualität vermitteln kann, d.h. einige Konsumenten den Preis als Signal interpretieren, während andere Konsumenten ihre Einschätzung über Produktqualität direkt aus evtl. verfügbaren anderen Informationen beziehen. Einerseits ergibt sich unter bestimmten Umständen das aus der Signalisierungsliteratur bekannte Ergebnis, dass sich trotz asymmetrischer Information dieselben Preise wie unter vollständiger Information einstellen können. Andererseits zeigt sich, dass sich bei möglicherweise irreführender Produktinformation weitere Preissetzungsmuster ergeben können. Darüber hinaus wird unterstellt, dass Unternehmen durch unbeobachtbare Marketinginvestitionen Einfluss auf Produktinformationen nehmen können, was im Extremfall dazu führen kann, dass ein hoher Preis niedrige Produktqualität signalisiert, wobei bei diesem Preis nur ein Teil der Konsumenten einen Kauf in Betracht zieht. Im zweiten Essay werden Handelsplattformen untersucht, welche die spezielle Eigenschaft haben, dass deren Betreiber nicht nur Verkäufern die Möglichkeit einräumen, Käufern über die Plattform Produkte anzubieten, sondern auch selbst Produkte als Händler vertreiben können. Es wird zunächst aufgezeigt, dass im unterstellten Rahmen unter den bisher von der Literatur schwerpunktmäßig behandelten klassischen zweistufigen Tarifen das Problem besteht, dass der drohende Wettbewerb zwischen Plattformbetreiber und Verkäufern die Plattform unattraktiv macht. Produkte, auf die der Plattformbetreiber erst durch Beitritt von anderen Verkäufern aufmerksam wird, werden somit möglicherweise nicht angeboten, da sich zu wenige Verkäufer der Plattform anschließen. Es wird jedoch aufgezeigt, dass umsatzabhängige Gebühren dazu führen, dass der Plattformbetreiber seltener in Wettbewerb mit Händlern tritt, und deren Einsatz daher profitabel sein kann. Dies liefert eine neue Erklärung dafür, warum insbesondere Handelsplattformen tatsächlich umsatzabhängige Gebühren verlangen. Der dritte Essay beschäftigt sich wiederum mit Handelsplattformen, betont aber, dass Verkäufer parallel auch weitere Vertriebskanäle nutzen können. Nachdem im gegebenen Rahmen mögliche Ursachen dafür aufgezeigt wurden, dass Verkäufer in verschiedenen Vertriebskanälen unterschiedliche Preise setzen, wird die Tarifentscheidung des Plattformbetreibers und deren Einfluss auf die Nutzung der verschiedenen Vertriebswege untersucht. Insbesondere wird die Wirkung von sog. Nichtdiskriminierungsregeln analysiert, welche in der Realität zu beobachten, aber wettbewerbspolitisch umstritten sind. Es wird identifiziert, unter welchen Umständen der Plattformbetreiber die Preissetzung von Verkäufern mit einer solchen Regel einschränkt, welche ihm insbesondere erlaubt, die Nutzung der verschiedenen Vertriebswege direkt zu kontrollieren. Darüber hinaus wird gezeigt, dass diese Regeln im gegebenen Rahmen sowohl positive als auch negative Folgen haben können. KW - Industrieökonomie KW - Aufsatzsammlung KW - Intermediation KW - Platform Tariff KW - Price Parity Clause KW - Product Quality KW - Advertising KW - Intermediation KW - Plattformtarif KW - Produktqualität KW - Preisparitätsklausel KW - Werbung KW - Asymmetrische Information KW - Marktplatz KW - Mikroökonomie Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-99102 ER - TY - THES A1 - Donado Gomez, Alejandro T1 - Trade Unions and Occupational Health and Safety T1 - Gewerkschaften und Sicherheit am Arbeitsplatz N2 - This thesis comprises three essays that study the impact of trade unions on occupational health and safety (OHS). The first essay proposes a theoretical model that highlights the crucial role that unions have played throughout history in making workplaces safer. Firms traditionally oppose better health standards. Workplace safety is costly for firms but increases the average health of workers and thereby the aggregate labour supply. A laissez-faire approach in which firms set safety standards is suboptimal as workers are not fully informed of health risks associated with their jobs. Safety standards set by better-informed trade unions are output and welfare increasing. The second essay extends the model to a two-country world consisting of the capital-rich "North" and the capital-poor "South". The North has trade unions that set high OHS standards. There are no unions in the South and OHS standards are low. Trade between these two countries can imply a reduction in safety standards in the North, lowering the positive welfare effects of trade. Moreover, when trade unions are also established in the South, northern OHS standards might be further reduced. The third essay studies the impact of unions on OHS from an empirical perspective. It focuses on one component of OHS: occupational injuries. A literature summary including 25 empirical studies shows that most studies associate unions with less fatal occupational injuries. This is in perfect line with the anecdotal evidence and the basic model from the first essay. However, the literature summary also shows that most empirical studies associate unions with more nonfatal occupational injuries. This puzzling result has been explained in the literature by (1) lower underreporting in unionized workplaces, (2) unions being more able to organize hazardous workplaces, and (3) unionized workers preferring higher wages at the expense of better working conditions. Using individual-level panel data, this essay presents evidence against all these three explanations. However, it cannot reject the hypothesis that workers reduce their precautionary behaviour when they join a trade union. Hence, the puzzle seems to be due to a strong moral hazard effect. These empirical results suggest that the basic model from the first essay needs to be extended to account for this moral hazard effect. N2 - Diese Doktorarbeit besteht aus drei Aufsätzen, die die Auswirkungen von Gewerkschaften auf die Sicherheit am Arbeitsplatz untersuchen. Der erste Aufsatz schlägt ein theoretisches Modell vor, das die entscheidende Rolle von Gewerkschaften bei der Entwicklung sicherer Arbeitsplätze unterstreicht. Firmen sind traditionell gegen bessere Gesundheitsstandards. Sicherheit am Arbeitsplatz ist teuer für Firmen, erhöht aber die durchschnittliche Gesundheit der Arbeitskräfte und somit das aggregierte Arbeitsangebot. Ein Laissez-Faire-Ansatz, in dem Unternehmen die Sicherheitsstandards festlegen, ist suboptimal, da Arbeitnehmer nicht in vollem Umfang über die Gesundheitsrisiken informiert werden, die mit ihren Arbeitsplätzen verbunden sind. Sicherheitsstandards, die durch besser informierte Gewerkschaften festgelegt werden, steigern den Output und die Wohlfahrt. Der zweite Aufsatz erweitert das Modell um eine Zwei-Länder-Welt bestehend aus dem kapitalreichen "Norden" und dem kapitalarmen "Süden". Der Norden hat Gewerkschaften, die hohe Sicherheitsstandards festlegen. Im Süden gibt es keine Gewerkschaften, und die Sicherheitsstandards sind niedrig. Der Handel zwischen beiden Ländern kann zu einer Senkung der Sicherheitsstandards im Norden führen, was den positiven Wohlfahrtseffekt vom Handel reduziert. Wenn nun auch im Süden Gewerkschaften eingeführt werden, dann könnte dies zur noch stärkeren Reduzierung von Sicherheitsstandards im Norden führen. Der dritte Aufsatz untersucht den Einfluss von Gewerkschaften auf Sicherheit am Arbeitsplatz aus einer empirischen Perspektive. Er konzentriert sich auf eine Komponente von Sicherheit am Arbeitsplatz: Arbeitsunfälle. Eine aus 25 empirischen Studien bestehende Literaturzusammenfassung zeigt, dass die meisten Studien Gewerkschaften mit weniger tödlichen Arbeitsunfällen verbinden. Dies steht völlig in Einklang mit der anekdotischen Evidenz und dem Basismodell aus dem ersten Aufsatz. Erstaunlich ist jedoch, dass es -- den meisten empirischen Studien zufolge -- durch die Einführung von Gewerkschaften zu mehr nicht-tödlichen Arbeitsunfällen kommt. Dieses rätselhafte Phänomen wird in der Literatur damit erklärt, dass (1.) die Dunkelziffer der nicht-angezeigten Arbeitsunfälle in gewerkschaftlich organisierten Betrieben niedriger sei, dass (2.) Gewerkschaften sich vor allem in den Arbeitsbereichen konstituieren, in denen ein hohes Arbeitsunfallrisiko herrscht und dass (3.) gewerkschaftlich organisierte Arbeitnehmer höhere Löhne auf Kosten besserer Arbeitsbedingungen bevorzugen würden. Mit Hilfe von Paneldaten auf der Individualebene liefert dieser Aufsatz empirische Belege gegen alle diese drei Erklärungen. Die Daten deuten vielmehr sehr stark darauf hin, dass die Erklärung im Verhalten der Arbeitnehmer zu suchen ist. Diese reduzieren ihre Vorsichtsmaßnahmen, wenn sie einer Ge-werkschaft beitreten. Daher scheint ein starker Moral-Hazard-Effekt die Lösung des Rätsels zu sein. Dieses überraschende Ergebnis gibt den Anlass zu weiteren Forschungsaktivitäten. So müsste das Basismodell aus dem ersten Aufsatz nun erweitert werden, um diesen Effekt adäquat zu berücksichtigen. KW - Arbeitsschutz KW - Arbeitssicherheit KW - Gewerkschaft KW - Sicherheit am Arbeitsplatz KW - Paneldaten KW - Arbeitsplatzsicherung KW - Soziale Sicherheit KW - occupational health and safety KW - trade unions KW - international trade KW - labor unions KW - occupational injury Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-56076 ER - TY - THES A1 - Brause, Alexander F. T1 - Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets T1 - Devisenmarktinterventionen: Neue Empirische Ansichten von Schwellenländern N2 - Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research. N2 - Seit jeher haben Notenbanker eine Vielzahl von Maßnahmen zur Sicherstellung ihres Hauptziels der Preisniveaustabilität eingesetzt. Ein Instrument aus dem Werkzeugkasten von Notenbanken ist die Devisenmarktintervention. Der Großteil der akademischen Diskussion bezog sich bei der Analyse dieses Instruments bisher auf die Erfahrungen von Industrienationen. Die negativen Ergebnisse dieser Studien führten in den letzten Jahren zu der weitverbreiteten Meinung, dass Interventionen am Devisenmarkt kein geeignetes Instrument zur Steuerung von Wechselkursen darstellen. Folglich befasst sich die empirische Literatur mehr und mehr mit den Interventionserfahrungen von Emerging Markets. Geldpolitik in Emerging Markets zeichnet sich oftmals durch eine aktive Wechelkursteuerung aus. Die aktuelle akademische Diskussion über Interventionsdynamiken (Motive und Effektivität) hat bisher jedoch einen zentralen Aspekt vernachlässigt. Weder die Analysen von Industrienationen, noch aktuelle Studien zu Emerging Markets berücksichtigen die Möglichkeit, dass Interventionsmotive und die Effekte von Devisenmarkttransaktionen über die Zeit hinweg variieren. Diese Arbeit zielt darauf ab, dem Leser die elementaren Bestandteile der aktuellen Diskussion über Notenbankinterventionen am Devisenmarkt näher zu bringen und neue Aspekte in Bezug auf Emerging Markets zu diskutieren. Der Kernpunkt befasst sich mit der Frage, warum Notenbanken in Emerging Markets am Devisenmarkt intervenieren und ob diese Interventionen effektiv sind. Darüber hinaus wird der Aspekt der zeitlichen Veränderung von Interventionsmotiven und deren Auswirkungen auf den Wechselkurs untersucht. Die erzielten Ergebnisse werden danach vor dem Hintergund der ökonomischen und geldpolitischen Rahmenbedingungen diskutiert. Dieser letzte Punkt soll als Startschuss für die mögliche, zukünftige empirische Diskussion über die Gründe für Interventionsmotive und Interventionseffekte angesehen werden. KW - Schwellenländer KW - Wechselkurspolitik KW - Zentralbankintervention KW - Devisenmarkt KW - Interventionspolitik KW - Geldpolitik KW - Monetary Policy KW - Central Bank Intervention KW - Foreign Exchange Market KW - Rolling Estimation KW - Emerging Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-55207 ER - TY - THES A1 - Steinmetz, Alexander T1 - Essays on Strategic Behavior and Dynamic Oligopoly Competition T1 - Beiträge zu strategischem Verhalten und dynamischem oligopolistischem Wettbewerb N2 - This thesis deals with three selected dimensions of strategic behavior, namely investment in R&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays. N2 - Die Dissertation „Essays on Strategic Behavior and Dynamic Oligopoly Competition“ befasst sich mit strategischem Verhalten und dynamischem Wettbewerb in Oligopolen. In drei einzelnen Arbeiten werden spezielle Fragestellungen eingehend analysiert. Die erste Arbeit befasst sich mit der Frage, wie sich die Marktstruktur durch Forschungsaktivitäten der Unternehmen entwickelt, wenn die Forschungskompetenz der Unternehmen für mehrere Projekte von Bedeutung ist. Der Fokus der Arbeit liegt auf der Analyse der Effekte des Lernens und Vergessens bei Forschung und Entwicklung auf die Innovationsanreize der Unternehmen. Es wird ein dynamisches Innovationsmodell entwickelt, in dem Unternehmen durch Investitionen in Forschungsprojekte Erfahrungen sammeln können. Als Referenzfall wird im Modell ohne die Möglichkeit des Lernens gezeigt, dass die Lockerung der typischen, aber strengen Annahme, dass der Marktfolger die führende Technologie immer imitiert, zu neuen strategischen Effekten führt. Weil der Marktführer versucht starken Produktmarktwettbewerb in der Zukunft zu vermeiden, steigt sein Innovationsanreiz mit der Verbesserung seiner Position. Haben die Firmen dagegen die Möglichkeit durch Forschungsprojekte zu lernen, führt der daraus resultierende Effekt der Forschungswissensbildung dazu, dass sich der Marktführer auf seinen Lorbeeren ausruht, was dem Marktfolger ermöglicht aufzuholen. Im Gegensatz zum Referenzfall fällt der Innovationsanreiz des Marktführers mit der Verbesserung seiner Position. Dieses Verhalten führt zu einem Gleichgewicht, in dem die Innovationsanreize am höchsten sind, wenn der Produktmarktwettbewerb am stärksten ist. Mit Hilfe eines allgemeinen Gleichgewichtsmodells, welches die Modellierung oligopolistischen Wettbewerbs erlaubt, analysiert die zweite Arbeit die Integration von Ökonomien, die von grenzüberschreitenden Fusionswellen begleitet sein können. Die Untersuchung von Ökonomien, die sich vor der Integration in stabilen Gleichgewichten befunden haben, in denen keine profitablen Fusionen möglich waren, zeigt, dass Globalisierung grenzüberschreitende Fusionswellen auslöst, wenn die Unternehmen hinreichend heterogen bezüglich ihrer Kostenstruktur sind. Im partiellen Gleichgewicht profitieren Konsumenten von der Integration auch dann, wenn eine Fusionswelle ausgelöst wird und alle einheimischen Unternehmen übernommen werden und damit die Wettbewerbsintensität deutlich sinkt. Die Wohlfahrt steigt. Im Gegensatz dazu sind im allgemeinen Gleichgewicht, in dem das Zusammenspiel der Märkte und damit Effekte auf Faktorpreise berücksichtigt werden, Globalisierungsgewinne nur durch die Reallokation von Ressourcen möglich. Je größer die technologischen Unterschiede der Länder, umso besser können diese Effizienzgewinne der Integration im allgemeinen Gleichgewicht realisiert werden. Der Effekt der Globalisierung für die Wohlfahrt ist positiv, wenn alle Firmen im Markt aktiv bleiben, aber unbestimmt, wenn Firmen den Markt verlassen oder aufgekauft werden. Es ist möglich, dass der negative Wohlfahrtseffekt der fallenden Wettbewerbsintensität den positiven Effekt der effizienteren Ressourcenallokation dominiert. Das Zulassen von Eintritt verändert die Ergebnisse drastisch, da in diesem Fall Firmen unterschiedlicher Herkunft in einer integrierten Volkswirtschaft nicht koexistieren können. Komparative Vorteile in Bezug auf Eintrittsmöglichkeiten und Produktion sind dann umso wichtiger für die Realisierung von Wohlfahrtsgewinnen. Die dritte Arbeit analysiert das Zusammenspiel von Preis- und Lagerbestandsentscheidungen unter oligopolistischem Wettbewerb und dessen Implikationen für die Dynamik der Preise. Die Arbeit erweitert existierende Literatur um endogene Preise und unvollständigen strategischen Wettbewerb im Oligopol. Es wird gezeigt, dass bestellfixe Kosten dazu führen, dass selten bestellt wird und die optimale Bestellpolitik eine (S,s)-Politik ist. Für die Unternehmen bilden Preise und Lagerbestand strategische Substitute. Insgesamt erzeugt die (S,s)-Bestellpolitik zusammen mit der unsicheren Nachfrage bei strategischem Preiswettbewerb zyklische Preisschwankungen. Die Dissertation schließt mit einigen kurzen Bemerkungen zu den entwickelten Modellen und deren Ergebnissen. KW - Wettbewerbsstrategie KW - Oligopol KW - Oligopol KW - Innovationswettbewerb KW - Bestandsmanagement KW - Mergers and Acquisitions KW - Außenhandel KW - Wissenserwerb KW - Globalisierung KW - Preisänderung KW - Eink KW - Innovation Incentives KW - Knowledge KW - General Oligopolistic Equilibrium KW - Inventory Dynamics KW - (S KW - s) Order Policy KW - Commodity Markets Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-47934 ER - TY - THES A1 - Schumm, Irene T1 - Lessons Learned From Germany’s 2001-2006 Labor Market Reforms T1 - Lehren aus den Deutschen Arbeitsmarktreformen zwischen 2001 und 2006 N2 - In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zunächst wird ein Überblick über die wichtigsten Änderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, nämlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verkürzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte Ökonomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabhängiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise können die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden. N2 - This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed. KW - Hartz-Reform KW - Arbeitsmarkttheorie KW - Deutschland / Gesetz zu Reformen am Arbeitsmarkt KW - Evaluation KW - Simulation KW - Computersimulation KW - Semi-Markov-Prozess KW - Deutschland / Gesetz für moderne Dienstleistungen am Arbeitsmarkt 4 KW - Matching-Modell KW - optimale Suchleistung KW - matching model KW - evaluation KW - Germany KW - labor market reform Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-43705 ER - TY - JOUR A1 - Römeis, Fabio A1 - Herweg, Fabian A1 - Müller, Daniel T1 - Salience bias and overwork JF - Games N2 - In this study, we enrich a standard principal–agent model with hidden action by introducing salience-biased perception on the agent's side. The agent's misguided focus on salient payoffs, which leads the agent's and the principal's probability assessments to diverge, has two effects: First, the agent focuses too much on obtaining a bonus, which facilitates incentive provision. Second, the principal may exploit the diverging probability assessments to relax participation. We show that salience bias can reverse the nature of the inefficiency arising from moral hazard; i.e., the principal does not necessarily provide insufficient incentives that result in inefficiently low effort but instead may well provide excessive incentives that result in inefficiently high effort. KW - context-dependent preferences KW - hidden action KW - moral hazard KW - overwork KW - salience theory Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255213 SN - 2073-4336 VL - 13 IS - 1 ER - TY - THES A1 - Gründler, Klaus T1 - A Contribution to the Empirics of Economic Development - The Role of Technology, Inequality, and the State T1 - Eine empirische Untersuchung der wirtschaftlichen Entwicklung - Die Rolle von Technologien, Ungleichheit und dem Staat N2 - This dissertation contributes to the empirical analysis of economic development. The continuing poverty in many Sub-Saharan-African countries as well as the declining trend in growth in the advanced economies that was initiated around the turn of the millennium raises a number of new questions which have received little attention in recent empirical studies. Is culture a decisive factor for economic development? Do larger financial markets trigger positive stimuli with regard to incomes, or is the recent increase in their size in advanced economies detrimental to economic growth? What causes secular stagnation, i.e. the reduction in growth rates of the advanced economies observable over the past 20 years? What is the role of inequality in the growth process, and how do governmental attempts to equalize the income distribution affect economic development? And finally: Is the process of democratization accompanied by an increase in living standards? These are the central questions of this doctoral thesis. To facilitate the empirical analysis of the determinants of economic growth, this dissertation introduces a new method to compute classifications in the field of social sciences. The approach is based on mathematical algorithms of machine learning and pattern recognition. Whereas the construction of indices typically relies on arbitrary assumptions regarding the aggregation strategy of the underlying attributes, utilization of Support Vector Machines transfers the question of how to aggregate the individual components into a non-linear optimization problem. Following a brief overview of the theoretical models of economic growth provided in the first chapter, the second chapter illustrates the importance of culture in explaining the differences in incomes across the globe. In particular, if inhabitants have a lower average degree of risk-aversion, the implementation of new technology proceeds much faster compared with countries with a lower tendency towards risk. However, this effect depends on the legal and political framework of the countries, their average level of education, and their stage of development. The initial wealth of individuals is often not sufficient to cover the cost of investments in both education and new technologies. By providing loans, a developed financial sector may help to overcome this shortage. However, the investigations in the third chapter show that this mechanism is dependent on the development levels of the economies. In poor countries, growth of the financial sector leads to better education and higher investment levels. This effect diminishes along the development process, as intermediary activity is increasingly replaced by speculative transactions. Particularly in times of low technological innovation, an increasing financial sector has a negative impact on economic development. In fact, the world economy is currently in a phase of this kind. Since the turn of the millennium, growth rates in the advanced economies have experienced a multi-national decline, leading to an intense debate about "secular stagnation" initiated at the beginning of 2015. The fourth chapter deals with this phenomenon and shows that the growth potentials of new technologies have been gradually declining since the beginning of the 2000s. If incomes are unequally distributed, some individuals can invest less in education and technological innovations, which is why the fifth chapter identifies an overall negative effect of inequality on growth. This influence, however, depends on the development level of countries. While the negative effect is strongly pronounced in poor economies with a low degree of equality of opportunity, this influence disappears during the development process. Accordingly, redistributive polices of governments exert a growth-promoting effect in developing countries, while in advanced economies, the fostering of equal opportunities is much more decisive. The sixth chapter analyzes the growth effect of the political environment and shows that the ambiguity of earlier studies is mainly due to unsophisticated measurement of the degree of democratization. To solve this problem, the chapter introduces a new method based on mathematical algorithms of machine learning and pattern recognition. While the approach can be used for various classification problems in the field of social sciences, in this dissertation it is applied for the problem of democracy measurement. Based on different country examples, the chapter shows that the resulting SVMDI is superior to other indices in modeling the level of democracy. The subsequent empirical analysis emphasizes a significantly positive growth effect of democracy measured via SVMDI. N2 - Die Dissertation beschäftigt sich mit der statistischen und empirischen Analyse der Determinanten langfristiger Wachstumsprozesse. Die anhaltende Armut vieler Staaten in Subsahara-Afrika sowie die rückläufigen Wachstumsraten der reichen Volkswirtschaften seit Beginn des neuen Jahrtausends werfen eine Reihe neuer Fragen auf, die bislang wenig empirisch erforscht sind. Ist die Kultur eines Landes entscheidend für die Entwicklung der Wohlfahrt? Kann ein entwickelter Finanzsektor Wohlstandssteigerungen auslösen, oder ist der starke Zuwachs der Finanzmärkte, der in den Industrienationen beobachtet werden kann, schädlich für die Entwicklung? Warum wachsen reiche Volkswirtschaften heute so viel langsamer als noch vor 20 Jahren? Welchen Einfluss nimmt die zunehmende Einkommensungleichheit auf die wirtschaftliche Entwicklung und welchen Effekt haben staatliche Umverteilungsmaßnahmen? Und schließlich: Führen stärkere politische Rechte und mehr Demokratie zu einer Zunahme der Lebensstandards? Dies sind die zentralen Fragestellungen, denen sich die Kapitel dieser Doktorarbeit widmen. Um die Analyse der empirischen Ursachen der wirtschaftlichen Entwicklung zu erleichtern, leitet die Dissertation überdies ein neues Verfahren zur Lösung von Klassifikationsproblemen in den Sozialwissenschaften ab. Das Verfahren beruht auf mathematischen Algorithmen zur Mustererkennung und des maschinellen Lernens. Dies bietet neue Möglichkeiten für das Konstruieren von Indizes, die zumeist auf arbiträre Annahmen über die zugrundeliegende Aggregationsfunktion zurückgreifen. Das vorgestellte Verfahren löst dieses Problem, in dem die Aggregation durch Support Vector Machines in ein nicht-lineares Optimierungsproblem überführt wird. Nach einem kurzen Überblick über die theoretischen Erklärungsansätze der wirtschaftlichen Entwicklung im ersten Kapitel zeigt das zweite Kapitel, dass kulturelle Unterschieden einen Einfluss auf die ökonomische Entwicklung ausüben. Die Ergebnisse implizieren, dass Länder mit einer geringeren Aversion gegen Risiken höhere Wachstumsraten aufweisen, da in diesen Ländern die Implementierung neuer Technologien schneller voranschreitet. Der Effekt ist allerdings abhängig von den rechtlichen und politischen Rahmenbedingungen der Länder, vom durchschnittlichen Bildungsniveau sowie vom Entwicklungsstand. In vielen Fällen reichen die Vermögen der Individuen nicht aus, um Investitionen in Bildung, Kapital und neue Technologien zu stemmen. Durch die Bereitstellung von Krediten kann ein entwickelter Finanzsektor diesen Engpass überwinden. Die Untersuchungen des dritten Kapitels zeigen allerdings, dass dieser Mechanismus abhängig ist von den Entwicklungsniveaus der Volkswirtschaften. In armen Ländern führt ein Anstieg des Finanzsektors zu besserer Bildung und höheren Investitionen. Dieser Effekt nimmt jedoch über den Entwicklungsprozess ab, da die Intermediationstätigkeit zunehmend durch spekulative Geschäfte ersetzt wird. Insbesondere in Zeiten mit geringen technologischen Neuerungen wirkt ein wachsender Finanzsektor negativ auf die ökonomische Entwicklung. Aktuell befindet sich die Weltökonomie in einer solchen Phase, was verbunden mit einem multinationalen Rückgang der Wachstumsraten seit Anfang 2015 als "säkulare Stagnation" diskutiert wird. Das vierte Kapitel befasst sich intensiv mit diesem Phänomen und zeigt, dass die gegenwärtigen Wachstumspotenziale neuer Technologien seit Beginn der 2000er Jahre zunehmend auslaufen. Sind die Einkommen ungleich verteilt, so können einige Individuen weniger Investitionen in Bildung und technologische Neuerungen durchführen. Tatsächlich weist das fünfte Kapitel auf einen insgesamt negativen Effekt der Ungleichheit auf das Wachstum hin. Dieser Einfluss ist allerdings abhängig vom Entwicklungsstand der Länder. Während der negative Effekt in armen Volkswirtschaften mit einem geringen Maß an Chancengleichheit stark ausgeprägt ist, verschwindet dieser Einfluss mit zunehmendem Entwicklungsniveau. Entsprechend wirkt direkte staatliche Umverteilung vor allem in unterentwickelten Ländern wachstumsfördernd. In entwickelten Nationen ist hingegen die Schaffung von Chancengleichheit entscheidend. Das sechste Kapitel analysiert den Wachstumseffekt des politischen Umfelds und zeigt, dass die Ambivalenz früherer Studien auf die mangelhafte Abbildung des Demokratiegrades zurückzuführen ist. Zur Lösung dieses Problems wird ein neues Verfahren vorgeschlagen, das auf mathematischen Algorithmen des maschinellen Lernens basiert. Das Verfahren kann in verschiedenen Bereichen der Sozialwissenschaften eingesetzt werden und wird in der Arbeit zur Klassifikation des Demokratiegrades angewandt. Auf Basis verschiedener Länderbeispiele wird deutlich, dass der resultierende SVMDI anderen Indizes in der Modellierung des Demokratiegrades überlegen ist. Die anschließende empirische Analyse betont einen signifikant positiven Effekt des SVMDI auf das Wirtschaftswachstum. N2 - Why are some nations rich and others poor? What are the sources of long-run economic development and growth? How can living standards be increased? In this book, Klaus Gründler empirically analyses these central economic questions and puts a particular emphasis on the role of technology, inequality, and political institutions. To substantiate his empirical studies, he introduces a new method to compute composite measures and indices that is based on mathematical algorithms from the field of machine learning. KW - Wirtschaftsentwicklung KW - Wirtschaftsstruktur KW - Sozioökonomisches System KW - Inequality KW - Economic Growth KW - Machine Learning KW - Empirical Economics KW - Ungleichheit KW - Wirtschaftswachstum KW - Maschinelles Lernen KW - Makroökonomie KW - Empirische Wirtschaftsforschung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-141520 SN - 978-3-95826-072-6 (Print) SN - 978-3-95826-073-3 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-072-6, 41,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Schamberger, Tamara Svenja T1 - Methodological Advances in Composite-based Structural Equation Modeling T1 - Methodische Weiterentwicklungen in der kompositen-basierten Strukturgleichungsmodellierung N2 - This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package “cSEM” with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package “cSEM”. This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in “Human Development”. Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling. N2 - Diese Arbeit beschäftigt sich mit kompositen-basierter Strukturgleichungmodellierung. Strukturgleichungsmodellierung kann genutzt werden um sowohl theoretische Konzepte als auch deren Beziehungen untereinander zu modellieren. In der traditionellen faktor-basierten Strukturgleichungsmodellierung werden diese theoretischen Konzepte als “common factor”, d.h. als latente Variablen, die die Kovarianzstruktur ihrer beobachteten Variablen erklären, modelliert. Im Gegensatz dazu, können in kompositen-basierter Strukturgleichungsmodellierung die theoretischen Konzepte sowohl als “common factor” als auch als Komposite, also als Linearkombinationen beobachteter Variablen, die die gesamte Information zwischen ihren beobachteten Variablen und allen anderen Variablen im Modell übertragen, modelliert werden. Diese Arbeit stellt einige methodische Weiterentwicklungen im Bereich der kompositenbasierten Strukturgleichungsmodellierung vor. Sie besteht aus insgesamt 7 Kapiteln. Kapitel 1 gibt zunächst einen Überblick über das zugrundeliegende Modell sowie über die Definition des Begriffs der kompositen-basierten Strukturgleichungsmodellierung. In Kapitel 2 wird anschließend eine Anleitung dafür gegeben, wie Monte Carlo Simulationen in der Statistik Software R mittels des Pakets “cSEM” für verschiedene Schätzer, die der kompositen-basierten Strukturgleichungsmodellierung zugeordnet werden, durchgeführt werden können. Diese Anleitung wird anhand einer beispielhaften Simulationsstudie veranschaulicht, die das Verhalten von Partial Least Squares Path Modeling (PLS-PM) und consistent Partial Least Squares (PLSc) Schätzungen in endlichen Stichproben untersucht, insbesondere im Hinblick auf die Auswirkungen von Stichprobenkorrelationen zwischen Messfehlern auf statistische Inferenz. Im dritten Kapitel werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung vorgestellt, die robust gegenüber Ausreißern sind. Dafür werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung, PLS-PM und PLSc, angepasst. Im Gegensatz zu den ursprünglichen Schätzern, können mit diesen Anpassungen Verzerrungen, die durch zufällig entstandene Ausreißer in Stichproben entstehen können, vermieden werden, was anhand einer Simulationsstudie gezeigt wird. In Kapitel 4 wird eine Methode zur Durchführung von Vorhersagen auf Basis von Modellen vorgestellt, die mit ordinal Partial Least Squares und ordinal consistent Partial Least Squares geschätzt wurden. Die beobachteten Variablen sind dabei ordinal kategorial skaliert, was sowohl bei der Schätzung als auch der Vorhersage explizit berücksichtigt wird. Die Vorhersagegüte wird mittels einer Simulationsstudie untersucht. Zusätzlich wird eine Anleitung, wie solche Vorhersagen mittels des R Pakets “cSEM” durchgeführt werden können, gegeben. Diese wird anhand eines empirischen Beispiels demonstriert. In Kapitel 5 wird die konfirmatorische Kompositenanalyse für Forschung im Bereich von “Human Development” vorgestellt. Mittels konfirmatorischer Kompositenanalyse können Kompositenmodelle geschätzt und auch evaluiert werden. In diesem Kapitel wird die Henseler-Ogasawara Spezifikation für Kompositenmodelle verwendet, wodurch beispielsweise die Maximum Likelihood Methode zur Parameterschätzung verwendet werden kann. Da der auf der Henseler-Ogasawara Spezifikation basierende Maximum Likelihood Schätzer Nachteile aufweist, wird in Kapitel 6 eine andere Spezifikation des Kompositmodells vorgestellt, mit der Kompositenmodelle mit der Maximum Likelihood Methode geschätzt werden können. Die Ergebnisse dieses Maximum Likelihood Schätzers werden mit denen von PLS-PM verglichen und somit gezeigt, dass dieser Maximum Likelihood Schätzer auch in endlichen Stichproben valide Ergebnisse liefert. Das letzte Kapitel, Kapitel 7, gibt einen Überblick über die Entwicklung und die verschiedenen Stränge der kompositen-basierten Strukturgleichungsmodellierung. Darüber hinaus wird hier der Beitrag, den die vorangegangenen Kapitel zur weiteren Verbreitung kompositen-basierter Strukturgleichungsmodellierung leisten, aufgezeigt. KW - Structural Equation Modeling KW - Composites KW - Composite-based Structural Equation Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276794 SN - 978-90-365-5375-9 N1 - Die Dissertationen wurde im Rahmen einer Cotutelle Vereinbarung mit der University of Twente (The Netherlands) erstellt ER - TY - THES A1 - Schuberth, Florian T1 - Composite-based Methods in Structural Equation Modeling T1 - Kompositenbasierte Methoden in der Strukturgleichungsmodellierung N2 - This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples. N2 - Die vorliegende Dissertation beschäftigt sich mit kompositenbasierten Schätzverfahren für Strukturgleichungsmodelle mit latenten Variablen sowie deren Weiterentwicklung und einhergehenden Problemen bei deren Verwendung in empirischen Studien. Die Arbeit umfasst insgesamt fünf Kapitel. Neben einer kurzen Einleitung im ersten Kapitel beinhalten die verbleibenden Kapitel Teile der Ergebnisse meiner Promotion, die in Form von vier, teilweise schon veröffentlichten Aufsätzen präsentiert werden. Der erste Aufsatz befasst sich mit einer alternativen Modellierungsweise der theoretischen Konstrukte in der Strukturgleichungsmodellierung. Während in den Sozial- und Verhaltenswissenschaften die theoretischen Konstrukte klassischerweise durch sogenannte common factors modelliert werden, stellt dies in manchen Situationen bzw. in anderen Wissenschaftsbereichen eine unplausible Annahme dar. In diesem Teil der Arbeit wird eine abgewandelte Form der konfirmatorischen Faktorenanalyse, die konfirmatorische Kompositenanalyse, vorgestellt, in welcher die theoretischen Konstrukte anstatt durch common factors mit Hilfe von Kompositen modelliert werden. Neben der Ausführung der theoretischen Grundlage wird durch eine Monte Carlo Simulation gezeigt, dass die konfirmatorische Kompositenanalyse geeignet ist, Fehlspezifikationen im zugrundeliegenden Kompositenmodell aufzudecken. In der zweiten Studie wird die Frage aufgeworfen, wie Parameterunterschiede im Rahmen der partial least squares Pfadmodellierung getestet werden können. Da die Standardfehler des Schätzers keine analytisch-geschlossene Form besitzen, kann der aus der Regressionsanalyse bekannte t- bzw. F-Test nicht direkt für die Beantwortung dieser Frage verwendet werden. Einen Ausweg bietet das Bootstrapping, durch welches Konfidenzintervalle um den geschätzten Parameterunterschied konstruiert werden können. Mit Hife dieser können statistische Aussagen über den Parameterunterschied in der Grundgesamtheit gemacht werden. Das vorgestellte Verfahren wird anhand eines empirischen Beispiels demonstriert. Der dritte Aufsatz dieser Arbeit geht der Frage nach, wie ordinale Indikatoren mit festen Kategorien in der partial least squares Pfadmodellierung berücksichtigt werden können. Es wird ein neues, konsistentes Schätzverfahren vorgestellt, das den qualitativen Charakter der ordinalen Variablen mittels der polychorischen Korrelation bei der Schätzung berücksichtigt. Der neue Schätzer trägt den Namen „ordinal consistent partial least squares“ und kombiniert die Verfahren consistent partial least squares und ordinal partial least squares. Neben der Darbietung des Schätzverfahrens wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass das Verfahren ordinal consistent partial least squares geeignet ist, Modelle, die ordinale Indikatoren mit festen Kategorien enthalten, zu schätzen. Darüber hinaus wird ein empirisches Beispiel mit ordinal consistent partial least squares geschätzt. Das letzte Kapitel widmet sich der Schätzung nicht-linearer Strukturgleichungsmodelle mit latenten Variablen, wobei sich die Nichtlinearität auf die latenten Variablen und nicht auf deren Parameter bezieht. In diesem Kontext wird ein neues Schätzverfahren vorgestellt, welches ähnlich wie consistent partial least squares funktioniert und konsistente Parameterschätzungen für rekursive, nicht-lineare Gleichungssysteme liefert. Im Gegensatz zu consistent partial least squares benötigt der vorgestellte Momentenschätzer kein iteratives Verfahren, um die Gewichte für die Bildung der Kompositen zu bestimmen. Es wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass der Schätzer geeignet ist, nicht-lineare Strukturgleichungsmodelle mit latenten Variablen zu schätzen. KW - Strukturgleichungsmodell KW - Construct Modeling KW - Partial Least Squares Path Modeling KW - Ordinal Categorical Indictators KW - User-Guidelines KW - Polynomial Factor Models KW - Komponentenanalyse KW - Structural Equation Modeling Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154653 ER -