TY - THES A1 - Winkler, Erwin T1 - Essays on International Trade and Labor Market Outcomes T1 - Beiträge zum Verständnis der Arbeitsmarktwirkungen von Internationalem Handel N2 - This thesis contributes to the understanding of the labor market effects of international trade, with a focus on the effects on wage and earnings inequality. The thesis draws on high-quality micro data and applies modern econometric techniques and theoretical concepts to improve our understanding of the distributional effects of international trade. The thesis focuses on the effects in Germany and the USA. N2 - Diese Arbeit trägt zum Verständnis der Arbeitsmarktwirkungen von internationalem Handel bei. Ein Schwerpunkt liegt hierbei auf den Effekten auf Lohn und Einkommensungleichheit. Die Arbeit nutzt qualitativ hochwertige Mikrodaten und wendet moderne ökonometrische Methoden und theoretische Konzepte an, um das Verständnis der Verteilungswirkungen von internationalem Handel zu verbessern. Die Arbeit fokussiert sich hierbei auf die Effekte in Deutschland und den USA. KW - Arbeitsmarkt KW - Welthandel KW - International Trade KW - Labor Market KW - Internationaler Handel KW - Ungleichheit KW - Globalisierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-209832 ER - TY - THES A1 - Koch, Daniel Friedrich T1 - Wirksame Begrenzung von Staatsverschuldung unter Berücksichtigung (polit-)ökonomischer und ethischer Aspekte T1 - Limitation of public debt N2 - In den letzten Jahrzehnten griff die Staatsverschuldung in den meisten westlichen Staaten um sich wie ein wucherndes Krebsgeschwür. Die Ereignisse im Zuge der Euro-Krise haben ein Schlaglicht auf die Gefahren dieser Entwicklung geworfen. Diese Arbeit untersucht die Frage, wie sich Staatsverschuldung wirksam begrenzen lässt, wann dies nötig ist und welche Komponenten dafür berücksichtigt werden sollten. Sie betrachtet verschiedene Ansätze zur Begrenzung von Staatsverschuldung, evaluiert sie, und versucht aus ihren Stärken und Schwächen eine verbesserte Begrenzungsregel abzuleiten. Schließlich untermauert sie die gesellschaftliche Akzeptanz und Relevanz ihres Vorschlags, indem sie die Notwendigkeit und die mögliche Ausgestaltung einer Begrenzungsregel nicht nur unter Effizienzgesichtspunkten betrachtet, sondern auch eine normative Untersuchung vornimmt. Die erarbeiteten Evaluierungskriterien und Vorschläge sollen gleichermaßen mit ethischen und ökonomischen Anforderungen vereinbar sein. Es wird gezeigt, dass Staatsverschuldung aus Effizienzgründen wie auch aus ethischen Überlegungen begrenzt werden sollte. Sie zeigt, dass es ohne ein entsprechendes Reglement immer wieder zu einem staatsverschuldungsförderndem Politikversagen kommt. Andererseits teilt diese Arbeit aber nicht den weit verbreiteten Defätismus, dass der Kampf gegen die ansteigende Verschuldung aussichtslos sei. Vielmehr wird ein Vorschlag erarbeitet, wie sich dieses Politikversagen aushebeln und solide Staatsfinanzen erzwingen lassen. Neben einer Reihe kleinerer Aspekte werden folgende vier zentralen Ergebnisse erarbeitet: 1. Es wird erstmals ein umfassender Kriterienkatalog entwickelt, der alle relevanten Theoriebereiche abdeckt, die systematische Evaluierung verschiedener Budgetregeln ermöglicht und als Schema für die Entwicklung neuer Budgetregeln dienen kann. Dieser Katalog in Form einer Kriterienmatrix operationalisiert die Erkenntnisse der volkswirtschaftlichen Forschung zu Charakter, Wirkung und Ursachen von Staatsverschuldung. Erstmals werden in dieser Arbeit die unterschiedlichen Theoriestränge innerhalb eines Kriterienkataloges verknüpft. Denn nur so kann ein vollständiges Bild gezeichnet werden, nur so kann ein Prüfschema Anspruch auf Vollständigkeit erheben, und nur so können Begrenzungskonzepte entwickelt werden, die auch erfolgversprechend sind. Die hier ausgearbeitete Kriterienmatrix schließt damit gleich zwei Lücken, indem sie bisher isolierte Erkenntnisse vereint und diese gleich in ein Analyseinstrument umwandelt, das Ausgangspunkt für weitere Diskussion sein kann. 2. Literatur und politische Praxis halten eine Vielzahl von Vorschlägen zur Begrenzung von Staatsverschuldung bereit. Diese werden jedoch kaum verglichen und gegeneinander abgewogen. Dies mag auch an dem Fehlen eines geeigneten Analyseinstruments liegen. Dadurch gehen aber wertvolle Erkenntnisse verloren, die sich aus dem Abgleich von Stärken und Schwächen ergeben. Diese Arbeit nutzt den hier neu entwickelten Analyserahmen, um den Vergleich und die Evaluation verschiedener Budgetregeln vorzunehmen. Dabei werden systematisch Vor- und Nachteile der verschiedenen Konzepte herausgearbeitet. Dieser Vergleich ist nicht nur für sich genommen interessant und lange überfällig, sondern kann auch für die Weiterentwicklung der Diskussion wertvoll sein. So zeigen sich in der, alle relevanten Theorien umfassenden Kriterienmatrix, blinde Flecken, die allen Ansätzen gemein sind. 3. Ausgehend von der Kriterienmatrix und den Ergebnissen der Evaluierungen entwickelt diese Arbeit eine verbesserte Begrenzungsregel: die qualifizierte Lastenbremse. Diese basiert auf der Kriterienmatrix und den zuvor durchgeführten Evaluierungen. Dank dieser Analyse können einerseits die jeweils besten Elemente aus den bestehen Konzepten übernommen, bzw. durch Modifikationen optimiert werden, andererseits können die zuvor identifizierten Lücken durch neue Vorschläge geschlossen werden. Im Kern wird vorgeschlagen, die anderweitig eingeführten Ansätze des strukturellen Schuldenverbotes mit bestimmten Ausnahmen beizubehalten, und durch die hier neu entwickelten Konzepte der Staatsbilanz und der unabhängigen Kontrollinstanz mit Sanktionsrechten zu erweitern. Dieser Vorschlag erfüllt alle zuvor erarbeiteten Kriterien, d.h. er berücksichtig als einziger alle relevanten theoretischen Erkenntnisse zur Staatsverschuldung. Die qualifizierte Lastenbremse umfasst explizite und implizite Staatsverschuldung und begrenzt deren Anstieg nachhaltig. Dabei wahrt sie jedoch auch die nötige Flexibilität. Vor allem aber schlägt sie mehrere Sicherheitsmechanismen vor, welche die Wirksamkeit der Regel im politischen Alltag gewährleisten. So wird den Erkenntnissen der Neuen Politischen Ökonomie Rechnung getragen. 4. Schließlich bleibt diese Arbeit nicht dabei stehen, einen Vorschlag zu entwickeln, der allen ökonomischen Kriterien gerecht wird. Sie begnügt sich nicht damit, festzustellen, dass es effizient und wohlfahrtssteigernd wäre, wenn ihre Vorschläge umgesetzt würden. Sie geht einen Schritt weiter, wirft einen Blick über den Tellerrand der Volkswirtschaftslehre hinaus und fragt auch nach der Legitimität und dem ethischen Wert des Vorschlags. Dies geht von der Erkenntnis aus, dass eine solch tiefgreifende Maßnahme wie eine wirksame Schuldenbremse auch das normative Empfinden der Bürger widerspiegeln muss und dass die gesellschaftliche Relevanz und Durchsetzbarkeit einer Regel von einer Legitimität abhängt, die auf Effizienz und Ethik gleichermaßen fußt. Unbewusst wird diese Auffassung in weiten Teilen der Ökonomie geteilt, was sich daran zeigt, dass viele Arbeiten zur Staatsschuldbegrenzung auf Gerechtigkeitsaspekte und moralische Verpflichtungen Bezug nehmen. Sie kranken jedoch daran, dass ihre Annahme der ethischen Fragwürdigkeit von Staatsverschuldung unbegründet bleibt. Dadurch stehen sie auf wackeligen Füßen. Diese Lücke wird hier geschlossen. Eine Analyse auf Basis der katholischen Soziallehre belegt die Zielkongruenz von normativen und ökonomischen Anforderungen an die Fiskalpolitik. Es wird gezeigt, dass die hier vorgeschlagene Begrenzung von Staatsverschuldung nicht nur ökonomisch, sondern auch ethisch geboten ist. Unterm Strich lässt sich festhalten, dass diese Arbeit den weit verbreiteten Fatalismus im Bezug auf Politik und Staatsverschuldung nicht teilt. Ja, es stimmt, dass der politische Wettbewerb oft unerfreuliche fiskalpolitische Ergebnisse hervorbringt. Ja, es stimmt, dass die Entwicklung der Staatsfinanzen besorgniserregend ist. Ja, es besteht dringender Handlungsbedarf. Aber nein, diese Entwicklung ist nicht alternativlos. Nein, der Kampf gegen die Staatsverschuldung ist nicht aussichtslos. Und nein, die westlichen Demokratien sind nicht zwangsläufig dazu verdammt, immer weiter in die Schuldenfalle zu rutschen. Staatsverschuldung lässt sich wirksam begrenzen und es gibt Mechanismen, mit denen das Politikversagen umgangen werden kann. Das Ringen um bessere Regeln ist die Mühe wert. Für eine wirksame Begrenzung von Staatsverschuldung einzutreten ist das Gebot der ökonomischen Vernunft, wie auch ethische Verpflichtung. N2 - Public debt has turned into a major political and economical problem. This thesis studies possibilities of limiting the rise of public debt. It not only evaluates the classical economic theory, but also incorporates findings of the theory of political economics. Alongside it conducts a thorough study of the ethical aspects of public debt. The key findings are a new approach to the limitation of public debt, a catalogue of criteria for every limitation rule to fulfill, and an evaluation of existing budget rules. KW - Öffentliche Schulden KW - Beschränkung KW - Politische Ökonomie KW - Ethik KW - Christliche Sozialethik KW - Katholische Soziallehre KW - ökonomische Theorie der Verfassung KW - Public Debt Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67383 ER - TY - THES A1 - Geiger, Michael T1 - Monetary Policy in China: Institutions, Targets, Instruments and Strategies T1 - Geldpolitik in China: Institutionen, Ziele, Instrumente und Strategien N2 - China’s monetary policy aims to reach two final targets: a paramount economical target (i.e. price stability) and a less important political target (i.e. economic growth). The main actor of monetary policy is the central bank, the People’s Bank of China (PBC). But the PBC is a non-independent central bank. The State Council approves the goals of monetary policy. Very limited instrument independence means that interest rates cannot be set at the PBC’s discretion, and in-sufficient personal independence fails to insulate central bank officials from political influence. Monetary policy in China applies to two sets of monetary policy instruments: (i) instruments of the PBC; and (ii) non-central bank policy instruments. The instruments of the PBC include price-based indirect and quantity-based direct instruments. Non-central bank policy instruments include price and wage controls. The simultaneous usage of all these instruments leads to various distortions that ultimately prevent the interest rate channel of monetary transmission from functioning. Moreover, the strong influences of quantity-based direct instruments and non-central bank policy instruments bring into question the approach of indirect monetary policy in general. The PBC officially follows the monetary targeting approach with monetary aggregates as intermediate targets. Domestic loan growth and the exchange rate are defined as additional intermediate targets. In an in-depth analysis of the intermediate targets two main issues are primarily explored: (i) Are the intermediate targets of the Chinese monetary policy controllable? (ii) Is a sufficient relationship between these targets and the inflation rate observable? It is then shown that monetary aggregates are very difficult to control, but they have a satisfactory relationship with the inflation rate. Similarly, domestic loan growth is difficult to control – a fact largely attributed to the interest rate elasticity of loans – while there is a particularly close relationship between credit growth and the inflation rate. The exchange rate as an intermediate target can be controlled through foreign exchange market interventions; at the same time the exchange rate appears to have a significant relationship to the domestic inflation rate. Discussing the special issue of sterilizing foreign exchange inflows, the study concludes that between 2002 and 2008 not only no costs were incurred by sterilization operations, but that the central bank was actually able to realize a profit through foreign exchange market interventions. Based on this, it is concluded that the exchange rate target has not adversely affected the domestic orientation of monetary policy on the whole. The final part of the study examines whether there are any alternative monetary policy approaches that may be able to describe the policy approach in China; special focus is placed on nominal GDP targeting, the Taylor rule, and inflation targeting. A literature review reveals that the concept of nominal GDP targeting may be able to detect inflationary tendencies in the economy and, in combination with other indicators, it could be a suitable concept to assess the overall economic situation. The author calculates a Taylor rule for China from 1994 to 2008 and concludes that there is no close relationship between the PBC lending and the Taylor rate. The author then designs an augmented Taylor rule expanded to include a credit component (credit-augmented Taylor rule). The study shows that the augmented Taylor rule does not perform much better than the original one, but that it maps high inflationary periods relatively well. This is attributed to direct interventions into the credit markets, which have played a major role in combating inflationary cycles over the past decades. The analysis ends with an introduction of the concept of inflation targeting and an examination of whether this could describe monetary policy in China. It is clear that the PBC does not currently follow the inflation targeting approach, although the Chinese authorities could actually be able to influence inflation expectations effectively, not least through direct instruments such as price controls. The author notes that the PBC indeed had a good track record of fighting inflation between 1994 and 2008, and that this may now indicate a good time to think about introducing inflation targeting in China. The central conclusion of the study is that the proven gradual approach to economic and monetary reforms in China is reaching its limit. To break the vicious cycle that relies on the continuous use of quantity-based instruments to compensate for the ineffective price-based instruments – which in turn arises from the simultaneous use of both types of instruments – a complete shift away from quantity-based instruments is needed. Only then the approach of indirect monetary policy, which was officially introduced in 1998, could come into full play. N2 - Chinas Geldpolitik verfolgt zwei Endziele: Ein alles überragendes wirtschaftliches Ziel (d.h. Preisstabilität) und ein weniger wichtiges politisches Ziel (d.h. Wirtschaftswachstum). Der Hauptakteur der Geldpolitik ist die Zentralbank, die People's Bank of China (PBC). Aber die PBC ist eine nicht-unabhängige Zentralbank. Der Staatsrat genehmigt die Ziele der Geldpolitik, und eine sehr begrenzte Instrumenten-Unabhängigkeit bedeutet, dass die Zinsen nicht vollständig nach dem Ermessen der PBC festgelegt werden können. Die ungenügende personelle Unabhängigkeit der Zentralbank schafft es nicht, die Amtsträger dem politischen Einfluss zu entziehen. Der Geldpolitik in China stehen zwei Arten von geldpolitischen Instrumenten zur Verfügung: (i) Instrumente der PBC; und (ii) Politische nicht-Notenbank Instrumente. Die Instrumente der PBC beinhalten preis-basierte indirekte und quantität-basierte direkte Instrumente. Zu den politischen nicht-Notenbank Instrumenten zählen Preis- und Lohnkontrollen. Die gleichzeitige Nutzung dieser Instrumente führt zu vielerei Verzerrungen, die letztlich verhindern, dass der Zinskanal des monetären Transmissionsmechanismus funktionieren kann. Darüber hinaus stellen die starken Einflüsse der quantität-basierten direkten Instrumente und der politischen nicht-Notenbank Instrumente den Ansatz der indirekten Geldpolitik im Allgemeinen in Frage. KW - Geldpolitik KW - China KW - Geldmengenpolitik KW - Inflation Targeting KW - Preisberwachung KW - Lohnkontrolle KW - Taylor-Regel KW - Geldmengensteuerung KW - Notenbank KW - People's Bank of China KW - Monetary Policy KW - Window Guidance KW - China KW - Monetary Sterilisation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-69945 ER - TY - THES A1 - Campion, Marie-Geneviève T1 - Competition between Originators and Generics: Public Regulation and Incentives to Innovate T1 - Wettbewerb zwischen Originalpräparaten und Generika: öffentliche Regulierung und Innovationsanreize N2 - The aim of this thesis is to examine the competition patterns that exist between originators and generics by focusing on the articulations between regulation and incentives to innovate. Once the characteristics of regulation in pharmaceutical markets is reviewed in the first chapter and an analysis of some current challenges related to cost-containment measures and innovation issues is performed, then in the second chapter, an empirical study is performed to investigate substitution patterns. Based on the EC´s merger decisions in the pharmaceutical sector from 1989 to 2011, this study stresses the key criteria to define the scope of the relevant product market based on substitution patterns and shows the trend towards a narrower market in time. Chapters three and four aim to analyse in depth two widespread measures, the internal reference pricing system in off-patent markets, and risk-sharing schemes in patent-protected markets. By taking into account informational advantages of originators over generics, the third chapter shows the extent to which the implementation of a reference price for off-patent markets can contribute in promoting innovation. Finally, in the fourth chapter, the modeling of risk-sharing schemes explains how such schemes can help in solving moral hazard and adverse selection issues by continuously giving pharmaceutical companies incentives to innovate and supplying medicinal products of a higher quality. N2 - In dieser Arbeit werden erstmals die Merkmale der Regulierung auf Pharmamärkten beschrieben und die aktuellen Fragen bezüglich der verschiedenen Marktteilnehmer (Patienten, Ärzte, Krankenkassen) vorgestellt, die im Verlauf dieser Dissertation beantwortet werden: Was sind die Substitutionsmuster auf den Pharmamärkten? Wie kann Preiswettbewerb gefördert werden ohne die Innovationsanreize zu gefährden? Wie können Patienten mit innovativen Arzneimitteln versorgt werden ohne das Haushaltsbudget zu gefährden? Um die erste Frage zu beantworten wird in dem zweiten Teil dieser Dissertation die Definition der relevanten Marktabgrenzung auf Pharmamärkten untersucht. Hierbei wird die Praxis der Europäischen Kommission zur Marktabgrenzung im Bereich Fusionen durch eine ökonometrische Analyse untersucht, um die Substitutionskriterien ausführlich zu analysieren. Der dritte Teil dieser Arbeit untersucht die Funktion sowie die Auswirkungen eines internen Referenzpreissystems auf die Innovationsanreize von Pharmaunternehmen. Zu diesem Zweck werden zunächst die existierenden Verzerrungen im Wettbewerb zwischen Originalpräparaten und Generika betrachtet. Daraufhin sollen die Auswirkungen der Implementierung eines Referenzpreissystems erläutert werden. Die abschließenden Schlussfolgerungen unterstreichen die Relevanz eines solchen Systems, um Anreize für Innovationen zu setzen. Nach der Analyse des Referenzpreissystems für Produkte, die nicht mehr unter Patentschutz stehen, um den Preiswettbewerb zu stärken, bezieht sich der vierte und letzte Teil auf die Vereinbarungen zur Risikoteilung, die eine Alternative sind, um kosteneffiziente innovative Arzneimittel verfügbar zu machen. Zu diesem Zweck werden Vereinbarungen zur Risikoteilung theoretisch in Bezug auf Fragestellungen zu moralischem Risiko und adverser Selektion untersucht. Im weiteren Verlauf der Arbeit wird gezeigt, dass Vereinbarungen zur Risikoteilung wünschenswert sind, weil sie Firmen Anreize geben, im Laufe des Lebenszyklus eines Arzneimittels zu investieren. Dazu kann bewiesen werden, dass nur eine Firma mit einem effizienten Produkt eine Vereinbarung zur Risikoteilung anbieten würde. Als Schlussbemerkungen werden weitere Forschungsaspekte, vor allem biologische Präparate, angesprochen. KW - Pharmazeutische Industrie KW - Innovation KW - Originators KW - Pharmaceutical markets KW - Risk-sharing schemes KW - Reference pricing schemes KW - Relevant market KW - Arzneimittelforschung KW - Produktinnovation KW - Anreizsystem KW - Arzneimittelmarkt KW - Wettbewerb KW - Europäische Kommission / Generaldirektion Wettbewerb Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111701 ER - TY - THES A1 - Kempf, Stefan T1 - Das Optionswertmodell zur Erklärung der Rentenentscheidung T1 - The Retirement Decision According To The Option Value Model N2 - Diese empirische Arbeit untersucht Determinanten des Renteneintritts. Sie basiert auf einem Optionswertmodell, um die Bedeutung finanzieller Überlegungen für ein Aufschieben des Renteneintritts zu analysieren. Zusätzlich wird der Einfluss institutioneller Rahmenbedingungen betrachtet. Ein neu verfügbarer Datensatz des Verbands Deutscher Rentenversicherungsträger wird dazu verwendet. Die Ergebnisse zeigen, dass Arbeitslosigkeit und Krankheit zu einem großen Teil einen frühen Renteneintritt erklären. Zusätzlich hat der Optionswert einen großen Erklärungsgehalt. N2 - This paper empirically investigates determinants of retirement decisions. It is based on the option value approach to assess the importance of financial considerations for delaying immediate retirement. In addition, the impact of institutional conditions is considered. Newly available data from the data base of the statutory pension organization providing exact information about income, pension claims, and unemployment spells is used. The results indicate that unemployment and illness explain a great portion of early retirements. Additionally, the option value has explanatory power. KW - Rente KW - Rentenberechnung KW - Maximum-Likelihood-Schätzung KW - Rentenentscheidung KW - Simulierte Wahrscheinlichkeiten KW - GHK KW - Retirement Decision KW - Simulated Probabilities KW - GHK Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-25727 ER - TY - THES A1 - Behringer, Jan T1 - Essays on income distribution and macroeconomic imbalances T1 - Einkommensverteilung und makroökonomische Ungleichgewichte N2 - The contribution of this dissertation is to empirically analyze the link between income distribution, sectoral financial balances, and the current account. Firstly, it examines the relationship between the personal and the functional income distribution which may have rather different implications for aggregate demand and the current account. Secondly, it analyzes the importance of different sectors of the economy for current account balances and tests whether households are able to fully pierce the institutional veils of the corporate and the government sector. Thirdly, it investigates how changes in the personal and the functional income distribution affect the saving and investment decisions of the household and the corporate sector, and hence the current account. Finally, it shows how different growth regimes are linked to different patterns of personal and functional income distribution, and how differences in wage bargaining institutions contribute to explaining these different patterns of income distribution. N2 - Der Forschungsschwerpunkt der vorliegenden Dissertation ist die empirische Analyse des Zusammenhangs zwischen Einkommensverteilung, sektoralen Finanzierungssalden und der Leistungsbilanz. Erstens untersucht die Dissertation die Beziehung zwischen der personellen Einkommensverteilung und der funktionalen Einkommensverteilung, welche unterschiedliche Implikationen für die aggregierte Nachfrage und die Leistungsbilanz haben können. Zweitens wird die Rolle der unterschiedlichen Sektoren innerhalb einer Volkswirtschaft für die Entwicklung von Leistungsbilanzsalden analysiert. Es wird getestet, inwiefern die Ersparnisbildung der privaten Haushalte von der Ersparnis der anderen inländischen Sektoren (Unternehmen, Staat) abhängt. Drittens wird der Einfluss von Veränderungen in der personellen und funktionalen Einkommensverteilung auf das Spar- und Investitionsverhalten des privaten Haushaltssektors und des Unternehmenssektors sowie auf den Leistungsbilanzsaldo untersucht. Schließlich zeigt die Dissertation, wie unterschiedliche Ausprägungen in der Einkommensverteilung in einzelnen Ländern zur Entstehung von unterschiedlichen Wachstumsmodellen beitragen und wie sich Unterschiede in der Koordinierung von Lohnverhandlungen auf die Einkommensverteilung auswirken. KW - Einkommensverteilung KW - Makroökonomie KW - Sektorale Finanzierungssalden KW - Income distribution KW - Sectoral financial balances KW - Current account KW - Ungleichgewicht KW - Leistungsbilanz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217252 ER - TY - THES A1 - Simon, Camilla T1 - Financial Market Effects of Macroeconomic Policies T1 - Finanzmarkteffekte makroökonomischer Politikmaßnahmen N2 - Within three self-contained studies, this dissertation studies the impact and interactions between different macroeconomic policy measures in the context of financial markets empirically and quantitatively. The first study of this dissertation sheds light on the financial market effects of unconventional central bank asset purchase programs in the Eurozone, in particular sovereign bond asset purchase programs. The second study quantifies the direct implications of unconventional monetary policy on decisions by German public debt management regarding the maturity structure of gross issuance. The third study provides novel evidence on the role of private credit markets in the propagation of public spending toward private consumption in the U.S. economy. Across these three studies a set of different time-series econometric methods is applied including error correction models and event study frameworks to analyze contemporaneous interactions in financial and macroeconomic data in the context of unconventional monetary policy, as well as vector auto regressions (VARs) and local projections to trace the dynamic consequences of macroeconomic policies over time. N2 - Die vorliegende Dissertation untersucht in drei in sich geschlossenen Studien die Effekte und Wechselwirkungen verschiedener makroökonomischer Politikmaßnahmen an den Finanzmärkten empirisch und quantitativ. Die erste Studie dieser Dissertation beleuchtet dabei die Finanzmarkteffekte unkonventioneller geldpolitischer Programme - insbesondere Staatsanleihekäufe - der Europäischen Zentralbank. Die zweite Studie untersucht und quantifiziert die direkten Auswirkungen unkonventioneller Geldpolitik auf Entscheidungen des deutschen öffentlichen Schuldenmanagements hinsichtlich der Laufzeitenstruktur neuemittierter Wertpapiere. Die dritte Studie liefert neue Erkenntnisse über die Rolle der privaten Kreditmärkte bei der Transmission öffentlicher Ausgaben für den privaten Konsum in der US-Wirtschaft. Im Rahmen der enthaltenen Studien wird eine Reihe verschiedener zeitreihenökonometrischer Methoden angewandt, darunter Fehlerkorrekturmodelle und Ereignisstudien zur Analyse simultaner Wechselwirkungen von Finanz- und makroökonomischen Daten im Kontext unkonventioneller Geldpolitik sowie Vektor-Autoregressionen (VARs) und lokale Projektionen, um die dynamischen Folgen makroökonomischer Politiken im Zeitablauf zu verfolgen. KW - Geldpolitik KW - Notenbank KW - Kreditmarkt KW - Unkonventionelle Geldpolitik KW - Öffentliches Schuldenmanagement KW - Öffentliche Ausgaben KW - Unconventional Monetary Policy KW - Public Debt Meanagement KW - Public Spending KW - Europäische Zentralbank KW - Bundesrepublik Deutschland - Finanzagentur KW - Zeitreihenanalyse Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217654 ER - TY - THES A1 - Greer, Katja T1 - Essays in Industrial Organization: Vertical Agreements in a Dynamic View T1 - Aufsätze in Industrieökonomik: Vertikalvereinbarungen in einer dynamischen Sichtweise N2 - This dissertation deals with the contract choice of upstream suppliers as well as the consequences on competition and efficiency in a dynamic setting with inter-temporal externalities. The introduction explains the motivation of the analysis and the comparison of different contract types, as for example standard contracts like simple two-part tariffs and additional specifications as contracts referencing the quantity of the contract-offering firm or the relative purchase level. The features of specific market structures should be considered in the analysis of specific vertical agreements and their policy implications. In particular, the role of dynamic changes regarding demand and cost parameters may have an influence on the results observed. In the first model, a dominant upstream supplier and a non-strategic rival sell their products to a single downstream firm. The rival supplier faces learning effects which decrease the rival’s costs with respect to its previous sales. Therefore, learning effects represent a dynamic competitive threat to the dominant supplier. In this setup, the dominant supplier can react on inter-temporal externalities by specifying its contract to the downstream firm. The model shows that by offering market-share discounts, instead of simple two-part tariffs or quantity discounts, the dominant supplier maximizes long-run profits, and restricts the efficiency gains of its rival. If demand is linear, the market-share discount lowers consumer surplus and welfare. The second model analyzes the strategic use of bilateral contracts in a sequential bargaining game. A dominant upstream supplier and its rival sequentially negotiate with a single downstream firm. The contract choice of the dominant supplier as well as the rival supplier’s reaction are investigated. In a single-period sequential contracting game, menus of simple two-part tariffs achieve the industry profit maximizing outcome. In a dynamic setting where the suppliers sequentially negotiate in each period, the dominant supplier uses additional contractual terms that condition on the rival’s quantity. Due to the first-mover advantage of the first supplier, the rival supplier is restricted in its contract choice. The consequences of the dominant supplier’s contract choice depend on bargaining power. In particular, market-share contracts can be efficiency enhancing and welfare-improving whenever the second supplier has a relatively high bargaining position vis-`a-vis the downstream firm. For a relatively low bargaining position of the rival supplier, the result is similar to the one determined in the first model. We show that results depend on the considered negotiating structure. The third model studies the contract choice of two upstream competitors that simultaneously deal with a common buyer. In a complete information setting where both suppliers get to know whether further negotiations fail or succeed, a singleperiod model solves for the industry-profit maximizing outcome as long as contractual terms define at least a wholesale price and a fixed fee. In contrast, this collusive outcome cannot be achieved in a two-period model with inter-temporal externalities. We characterize the possible market scenarios, their outcomes and consequences on competition and efficiency. Our results demonstrate that in case a rival supplier is restricted in its contract choice, the contract specification of a dominant supplier can partially exclude the competitor. Whenever equally efficient suppliers can both strategically choose contract specifications, the rivals defend their market shares by adapting appropriate contractual conditions. The final chapter provides an overview of the main findings and presents some concluding remarks. N2 - Die vorliegende Dissertation beschäftigt sich mit vertraglichen Vereinbarungen von Unternehmen, welche auf unterschiedlichen Stufen der Wertschöpfungskette agieren. Insbesondere analysiert diese Arbeit die Besonderheiten der Vertragswahl als auch deren Konsequenzen, die im dynamischen Kontext mit intertemporalen Externalitäten entstehen können. In der Einleitung wird eine gemeinsame Motivation der darauf folgenden Aufsätze dargelegt. Wettbewerbspolitische Entscheidungen über die Anwendung von vertikalen Verträgen als auch die Beachtung einer dynamischen Sichtweise verdeutlichen die Thematik, welche in den drei folgenden Aufsätzen näher behandelt wird. Der erste Aufsatz analysiert die Vertragswahl eines dominanten Herstellers, welcher durch Lerneffekte seines Rivalen einem stärkeren Wettbewerb ausgesetzt wird. Als Lerneffekt wird hierbei die Tatsache bezeichnet, dass abhängig von den bereits verkauften Einheiten eines Produktes die Grenzkosten des Herstellers sinken. Der dominante Hersteller kann dem Einfluss dieser intertemporalen Externalitäten entgehen, indem er seine Preisstrategie anpasst. Marktanteilsverträge, welche den zu kaufenden Anteil der Gesamtnachfrage eines Käufers festlegen, haben gegenüber zwei-stufigen Tarifen oder Mengen-bezogenen Verträgen den Vorteil, dass sie den Gewinn des dominanten Herstellers optimieren. Diese Verträge führen dazu, dass die Lerneffekte des Rivalen geringer ausfallen als im Fall anderer Vertragsarten. Mithilfe einer Spezifikation der Nachfragefunktionen kann ferner nachgewiesen werden, dass die Verwendung von arktanteilsverträgen des dominanten Herstellers im Vergleich zu den anderen Vertragsarten die Konsumentenrente als auch die Wohlfahrt mindert. Während im ersten Aufsatz davon ausgegangen wird, dass es sich bei dem Rivalen um ein ’competitive fringe’ handelt, d.h. im Kontext ein Unternehmen, welches nicht strategisch handeln kann, wird diese Annahme in den folgenden zwei Aufsätzen angepasst. Der zweite Aufsatz thematisiert bilaterale, sequentielle Verhandlungen zweier strategischer Hersteller mit einem Händler. Es kann gezeigt werden, dass in einem ein-periodigen Modell bereits Vertragsmenüs zwei-stufiger Tarife zum Industriegewinn-maximierenden Ergebnis führen. Somit ist eine zusätzliche Vertragsspezifikation im ein-periodigen Modell hinfällig. In einem zwei-periodigen Modell mit intertemporalen Externalitäten können zwei-stufige Tarife dieses Ergebnis jedoch nicht erzielen. Es wird gezeigt, dass der erste verhandelnde Hersteller, abhängig von den Modellannahmen, Marktanteilsverträge präferiert, da diese ausreichend viele Vertragselemente festlegen können um das kollusive Ergebnis zu erzielen. Die Vertragswahl des strategischen zweiten Herstellers hat indes keinen Einfluss auf das Ergebnis. Unter der Annahme, dass beide Hersteller durch Lerneffekte profitieren können, ergibt sich, dass ein Marktanteilsvertrag des ersten Herstellers die Lerneffekte des Rivalen einschränken oder beschleunigen kann, abhängig von der Verhandlungsposition der Hersteller gegenüber dem Händler. In gleicher Weise werden Konsumentenrente und Wohlfahrt durch Marktanteilsverträge des dominanten Herstellers entweder gemindert oder gestärkt. Der dritte Aufsatz setzt sich mit der Vertragswahl von zwei simultan handelnden, strategischen Herstellern auseinander. Unter der Annahme vollständiger Information wird im ein-periodigen Modell gezeigt, dass das Industriegewinn-maximierende Ergebnis bereits mit Hilfe von zwei-stufigen Tarifen erreicht wird. Somit ist in einem statischen Rahmen die Verwendung von zusätzlichen Vertragsbedingungen unnötig. Im dynamischen Rahmen mit intertemporalen Externalitäten ergibt sich hingegen niemals das kollusive Ergebnis. Das Verhandeln von Marktanteilsverträgen oder aber Mengen-bezogenen Verträgen kann eine dominante Strategie für die Hersteller darstellen. Im Vergleich zu zwei-stufigen Tarifen nimmt der Wettbewerb abhängig davon, ob ein oder beide Hersteller Vertragsspezifizierungen vornehmen können, eine Stackelberg-ähnliche oder eine oligopolistische Form an. Vertragsspezifizierungen führen zu Gewinnsteigerungen, aber auch zu einer Wohlfahrtsverringerung. Im letzten Kapitel wird ein Überblick über die wichtigsten Ergebnisse der Aufsätze gegeben. Der Zusammenhang dieser Erkenntnisse wird abschließend verdeutlicht. KW - Unternehmenskooperation KW - vertical agreements KW - rebate systems KW - learning-by-doing KW - Lieferantenwahl KW - Kontrakttheorie KW - Unternehmen KW - Wettbewerbsstrategie KW - Marktstruktur KW - Vertikalvereinbarungen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-136939 ER - TY - THES A1 - Riedel, Robby T1 - Die 'Too Big to Fail'-Problematik - Quantitative Regulierung zur Reduzierung der Interbankenverflechtung und damit systemischen Risikos - T1 - 'Too Big to Fail' - Quantitative Regulation of Interconnectedness and Systemic Risk - N2 - Im Rahmen dieser Arbeit wird ein Modell entwickelt, welches auf Basis von länderübergreifenden Forderungs- und Verbindlichkeitsstrukturen die internationale Vernetzung der Banken abbildet. Die Analyse offenbart, dass systemische Risiken im Allgemeinen von wenigen Instituten ausgehen. Zudem wird aufgezeigt, dass solche Risiken vornehmlich in Banken aus Volkwirtschaften auftreten, in denen die Finanzindustrie eine exponierte Stellung einnimmt. Auf der anderen Seite sind die Institute aus diesen Ökonomien auch überproportional anfällig gegenüber systemischen Schocks und somit erhöhten Ansteckungsgefahren ausgesetzt. Systemische Risiken gehen nicht nur von Großbanken aus, sondern auch der Ausfall mittelgroßer oder gar kleiner Institute kann erhebliche Konsequenzen für das Gesamtsystem nach sich ziehen. Darüber hinaus ist ersichtlich, dass höhere systemische Risiken von Banken ausgehen, die einen hohen Verflechtungsgrad innerhalb des Bankensystems haben. Die potentiellen Schäden für das Gesamtsystem sind umso höher, je mehr signifikante Geschäftsbeziehungen eine Bank zu anderen Banken aufweist. Systemische Risiken können nicht grundsätzlich innerhalb eines nationalen Bankensystems isoliert werden, denn ein Großteil der Folgeausfälle erfolgt länderübergreifend. Die Analyse bringt zudem zu Tage, dass seit dem Jahr 2006 systemische Risiken im Allgemeinen zurückgingen. In der vorliegenden Arbeit werden zunächst regulatorische Instrumente zur Reduzierung systemischer Risiken für alle Banken vorgestellt. Es lässt sich konstatieren, dass Eigenkapitalerhöhungen die Widerstands- und Verlustabsorptionsfähigkeit der Banken maßgeblich stärken würden. Auch können durch geeignete Großkreditvorschriften Risiken für das Gesamtsystem reduziert werden. Um das System entscheidend zu stabilisieren, müssten diese Instrumente allerdings erheblich von den aktuellen Bestimmungen abweichen. Die Untersuchungen zeigen, dass eine Eigenkapitalausstattung der Banken von 12% der risikoungewichteten Bilanz (Leverage Ratio) oder Großkreditvorschriften für Exposures zu einzelnen Gegenparteien von höchstens 18% des haftenden Eigenkapitals maßgeblich zu einer adäquaten bzw. notwendigen Finanzmarktstabilität beitragen können. Diese Arbeit befasst sich ferner mit möglichen regulatorischen Ansätzen zur Reduzierung systemischer Risiken speziell für systemrelevante Banken. Eine mögliche regulatorische Alternative könnte eine Kombination sowohl höherer Eigenkapitalvorschriften als auch verschärfter Großkreditvorschriften darstellen. Durch eine Leverage Ratio von mindestens 9% für nicht-systemrelevante Institute und eine höhere Quote von 11% für systemrelevante Banken, kombiniert mit einem maximalen Exposure zwischen zwei Vertragsparteien von 23% sowie zu systemrelevanten Banken von maximal 18%, ließe sich das systemische Risiko im Bankensystem entscheidend senken. N2 - For this paper, a model has been educed, depicting the international network of banks on the basis of transnational receivable and liability structures. The analysis reveals that systemic risk originates from few institutions only. In addition, it is demonstrated that those risks mainly occur in banks of economies having a financial industry that occupies a prominent position. On the other hand, financial institutions within those economies are disproportionately vulnerable to systemic shocks and thus have increased risk of infection. Systemic risks can not only spring from major banks, but even the failure of medium-sized or small institutions may have substantial consequences for the entire system. Moreover, it is evident that higher systemic risks are caused by banks that have a large degree of entanglement within the banking system. The more significant the relations of a certain bank are to other banks, the greater the potential damage is for the entire system. Systemic risks cannot always be isolated within a national banking system. The analysis also brings to light that systemic risk has decreased in general since 2006. First, in this work some regulatory instruments to reduce systemic risk for all banks are derived. It can be stated that capital increases is an appropriate tool to strengthen the resistance and loss absorption capacity of banks considerably. A reduction of risk can also be achieved by suitable large exposures regimes. In order to stabilize the system sufficiently, these instruments should however be substantially different from the current regulations. The investigations show that a capital adequacy of banks from 12% of riskunweighted balance (leverage ratio) as well as large exposures restrictions to individual counterparties by less than 18% of the liable capital can contribute significantly to achieve adequate and necessary financial stability. This work also deals with possible regulatory approaches that are cut out for systemically important banks in particular. A possible regulatory alternative could be a combination of both higher capital requirements and stricter large exposures regime. A leverage ratio of at least 9% for non-systemically important institutions and a higher rate of 11% for systemically important banks is advisable. That should be combined with a maximum exposure between two parties of 23% as well as exposures to systemically important banks by at most 18%. Altogether those measures would lead to a vast reduction of systemic risk in the banking system. KW - Systemisches Risiko KW - Bankenregulierung KW - Basel III KW - Interbankenmarkt KW - Finanz- und Wirtschaftskrise KW - Interconnectedness KW - Geldmarkt KW - Bank KW - Unternehmensgröße KW - Insolvenz KW - Bankenaufsicht KW - Großbank KW - Strukturreform Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-138319 ER - TY - THES A1 - Rüth, Sebastian T1 - Monetary Policy, Housing Market Dynamics, and the Propagation of Shocks T1 - Geldpolitik, Dynamik in Immobilienmärkten und die Übertragung von Schocks N2 - This dissertation studies the interrelations between housing markets and monetary policy from three different perspectives. First, it identifies housing finance specific shocks and analyzes their impact on the broader economy and, most importantly, the systematic monetary policy reaction to such mortgage sector disturbances. Second, it investigates the implications of the institutional arrangement of a currency union for the potential buildup of a housing bubble in a member country of the monetary union by, inter alia, fostering border-crossing capital flows and ultimately residential investment activity. This dissertation, third, quantifies the effects of autonomous monetary policy shifts on the macroeconomy and, in particular, on housing markets by conditioning on financial sector conditions. From a methodological perspective, the dissertation draws on time-series econometrics like vector autoregressions (VARs) or local projections models. N2 - In dieser Dissertation werden die Wechselwirkungen zwischen Geldpolitik und Immobilienmärkten empirisch untersucht. Hierbei beleuchtet die Arbeit potentielle Interaktionen aus drei unterschiedlichen Perspektiven: Erstens wird die systematische Reaktion von Geldpolitik auf veränderte Immobilienfinanzierungskonditionen untersucht. Zweitens wird der Einfluss des institutionellen Rahmens einer Währungsunion auf die Entstehung von Immobilienblasen in Teilen der Währungsunion analysiert und drittens werden die Effekte exogener Zinsimpulse auf die Makroökonomie und vor allen Dingen auf Häusermärkte quantifiziert, wobei für die Analyse solcher Effekte explizit Interdependenzen mit Finanzmarktkonditionen Berücksichtigung finden. Methodisch kommen zum Zwecke dieser Analysen vor allem zeitreihenökonometrische Ansätze wie Vektor-Autoregressionen (VAR) oder lokale Projektions-Modelle zur Anwendung. KW - Geldpolitik KW - Immobilienmarkt KW - Wohnungsbau KW - Währungsunion KW - Housing markets KW - Monetary policy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-137221 ER - TY - THES A1 - Musaev, Abdumalik T1 - Geld- und Wechselkurspolitik in rohstoffreichen Ländern. Eine empirische Analyse am Beispiel der Volkswirtschaft Russlands. T1 - Monetary policy and exchange rate strategy in resource-rich countries. An empirical analysis on example of Russian economy N2 - Die Arbeit beschäftigt sich mit den speziellen Herausforderungen der Geld- und Wechselkurspolitik in rohstoffreichen Ländern. Die Auseinandersetzung mit der Thematik erfolgt dabei anhand einer empirischen Analyse der Wirtschaftsentwicklung Russlands im Zeitraum zwischen 2000 bis 2009. Diese Periode wurde durch eine hohe Volatilität des Ölpreises gekennzeichnet, die die Wirtschaftsentwicklung Russlands erheblich beeinflusste. Die aus dem Anstieg des Ölpreises resultierenden Rohstoffeinnahmen entfalteten einerseits positive wirtschaftliche Effekte. Der im Jahr 1998 für zahlungsunfähig erklärte Staat konnte sich wenige Jahre später eine expansive Haushaltspolitik leisten. Andererseits entstanden durch die Rohstoffeinnahmen auch negative wirtschaftliche Folgen. Infolge der starken realen Aufwertung des Rubels wurde die Wettbewerbsfähigkeit des Industriesektors deutlich belastet. Die Import- und Rohstoffabhängigkeit des Landes nahm deutlich zu. Unter der hohen Volatilität der Rohstoffpreise hat die Finanz- und Wirtschaftsstabilität stark gelitten. Die durch die Ölpreisschwankungen verursachten Wechselkursturbulenzen wurden zusätzlich durch spekulative Kapitalbewegungen verstärkt. Die realen Geldmarktzinssätze verliefen überwiegend in einem negativen Bereich. Die Inflationsrate konnte zwar reduziert werden, die angekündigten Inflationsziele konnten aber nicht eingehalten werden. Die unkontrollierte Geldbasisbildung kam durch die Devisenmarktinterventionen der Notenbank und eine stark expansiven Fiskalpolitik zustande. Auf dem Geldmarkt herrschte ein Angebotsüberhang. Darüber hinaus nutzten die Kreditinstitute die Verschuldung im Ausland als eine zusätzliche Quelle für ihre boomenden Kreditgeschäfte. Die Handlungsoptionen der Notenbank waren zusätzlich durch die rohstofffinanzierte expansive Fiskalpolitik eingeschränkt. Die Spielräume der Notenbank waren umso geringer, je höher der Ölpreis anstieg und je mehr der Staat die Rohstoffeinnahmen ausgab. Die Ölpreisentwicklung und die sich selbst verstärkenden Kapitalflüsse hatten entscheidenden Einfluss auf die Zinssätze und den Wechselkurs. Nach Meinung des Verfassers werden alle rohstoffreichen offenen Länder mit hohen Inflationsraten mit einer ähnlichen Problematik konfrontiert. Der Trade-off heißt: Entweder Wechselkursaufwertung oder Inflationsimport. Wie ist dieses Problem zu lösen? Welche Alternativen hatte die Notenbank Russlands? Nach dem IWF wäre ein Free Floating die beste Strategie. Demnach hätte eine hohe Wechselkursvolatilität den Kapitalanleger trotz der hohen Renditemöglichkeiten abgeschreckt. Der Verlauf des Wechselkurses hätte seinen Fundamentalfaktoren entsprochen. Dabei gilt nach dem IWF der volatile Ölpreis ebenfalls als ein fundamentaler Bestandteil des Gleichgewichtes. Der Verfasser widerspricht der Auffassung der IWF-Experten. Das Hauptproblem in diesem Ansatz ist die hohe mittelfristige Volatilität der Rohstoffpreise. Der Ölpreis entwickelte sich bis 2004 weitgehend stabil rund um die Marke von 30 USD/Barrel. Nach 2004 verzeichnete der Ölpreis im Laufe der 55 Monate (oder 4,5 Jahre) einen erkennbar ansteigenden Trend auf etwa 140 USD/Barrel und schrumpfte anschließend innerhalb von weiteren 6 Monaten auf 35 USD/Barrel zurück. So eine Entwicklung des Ölpreises hätte beim Free Floating verheerende Auswirkungen gehabt. Die Währung hätte parallel zu jedem Ölpreisanstieg aufgewertet. Der Kapitalzufluss hätte die Aufwertung zusätzlich verstärkt. Die Abwertung des Rubels im August 2008 infolge des Ölpreisverfalls und der massiven Kapitalflucht wäre so stark gewesen, dass dadurch die Finanz-, Preis- und Wirtschaftsstabilität stark gefährdet worden wären. Zur Lösung des Trade-offs zwischen Wechselkurs- und Geldpolitik bietet sich nach Meinung des Verfassers das Managed-Floating-Modell an. Das Modell widerspricht der bekannten „Unmöglichkeit“ des klassischen „Dreiecks“. Eine autonome Zins- und Wechselkurssteuerung in einer offenen Volkswirtschaft ist nicht nur möglich, sondern in den Fällen wie Russland die einzig richtige Lösung. Die Ausgangsgröße ist in diesem Modell der autonom zu steuernde Zinssatz, der im Fall Russland von der Notenbank hätte angehoben werden müssen, um die Inflationsrate möglichst schnell abzusenken. In der Wechselkurssteuerung wird auf den mittelfristig stabilen realeffektiven Wechselkurs abgestellt. Da die Inflationsrate in Russland deutlich höher war als im Ausland, wäre eine gesteuerte Abwertung des Rubels erforderlich gewesen. Dadurch wäre die Wettbewerbsfähigkeit der Industrie gefördert worden. Durch die Abwertung des Rubels wäre der Zufluss des kurz- und mittelfristigen Auslandskapitals selbst bei hohen Renditemöglichkeiten in Russland abgewendet worden. Eine wesentliche Gefahr für den Erfolg des Managed-Floating-Modells stellt aber eine stark expansive, rohstofffinanzierte Fiskalpolitik dar. Eine strenge Fiskaldisziplin spielt daher eine entscheidende Rolle. N2 - Monetary policy and exchange rate strategy in resource-rich countries. An empirical analysis on example of Russian economy KW - Wechselkurspolitik KW - Geldpolitik KW - Russland KW - Dutch Disease KW - Managed Floating KW - Inflation Targeting KW - Deviseninterventionen KW - Außenwirtschaftspolitik KW - Notenbank Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-130776 ER - TY - THES A1 - Stöhr, Holger Christian T1 - Die Zukunft der Wettbewerbspolitik - Zur Notwendigkeit und Form einer auf Wettbewerbschancen ausgerichteten wettbewerbspolitischen Revolution T1 - The Future of Competition Policy - The necessity and shape of an revolution in competition policy, based upon a framework of chances for competition N2 - Die grundlegende Idee dieser Abhandlung liegt in der Vorstellung begründet, dass sich Wettbewerbspolitik nicht auf den Wettkampf konzentrieren sollte. Die traditionelle Vorgehensweise analysiert Wettbewerbsbeschränkungen auf einzelnen Märkten und fordert gegebenenfalls ein wettbewerbspolitisches Eingreifen. Zumeist wird dabei die Existenz des 'spirit of competition' und damit ein aktiver Wettkampf gefordert. Diese Sichtweise ist jedoch symptomatisch auf den einzelnen Markt gerichtet. Stattdessen sollten die grundlegenden Rahmenbedingungen analysiert werden. Wettbewerbspolitik würde sich somit auf die Schaffung von Wettbewerbschancen konzentrieren. Gerade die Umsetzung einer derart gestalteten Wettbewerbspolitik dürfte schwierig sein und erfordert insbesondere ein politökonomisches Fundament. Daher wird hier ein konkreter Vorschlag konkretisiert, der Elemente der direkte Demokratie, der Gewaltenteilung und eine verstärkte politische Meinungsbildung beinhaltet. Die herkömmliche Wettbewerbspolitik unterliegt folglich drei grundlegenden Mängel: Zunächst ist sie durch eine mangelnde Zielorientierung und zahlreiche Zielkonflikte gekennzeichnet. Weiterhin ist sie symptomatisch auf Wettbewerbsbeschränkungen auf einzelnen Märkten konzentriert und vernachlässigt die jeweils relevanten Rahmenbedingungen. Schließlich wird die Wahl angemessener wettbewerbspolitischer Träger häufig vernachlässigt. Die Ziele dieser Arbeit sind darauf basierend die Begründung der Notwendigkeit einer Neuausrichtung, die Ausarbeitung der Grundzüge eines alternativen wettbewerbspolitischen Ansatzes und eine Abgrenzung dieses von geläufigen wettbewerbspolitischen Konzeptionen. Zur Analyse dient die Ableitung eines Referenzschemas auf fünf Ebenen der Wettbewerbspolitik. Dabei werden sieben Fallstudien in die Abhandlung integriert. N2 - Die basic Idea of this dissertation is that competition policy should not equalize competition and fights. The traditional competition policy analyzes restraints of competition on single markets and demands subsequent interventions. This requires an 'spirit of competition' and therefore an active fight between the rivals. This perception is fixed symptomatically upon single markets. A focus on the basic conditions would be a better choice. Competition Policy would therefore try to build chances for competition. Such a kind of competition policy is difficult to implement and requires a fundament in political economics. Hence here is a solution proposed, that comprises elements of direct democracy, separation of powers and an increasing formation of political opinion. Traditional competition policy is subject to three fundamental shortcomings: Initially it is characterized by a scarce orientation on targets and several trade offs within the basic aims. Another failure is the symptomatical view of restraints of competition on single markets and the disregard of the relevant framework. Finally, there is not enough accentuation on the choice of adequate responsibles. The aims of this thesis is therfore to consitute the necessity of a fundamental change in competition policy, the elaboration of the main features of an alternative approach to competition policy and the demarcation from other prevalent approaches. A scheme of reference is created upon five stages of competition policy. A far as possible, there are seven case scenarios integrated. KW - Wettbewerbspolitik KW - Wettbewerbskonzept KW - Wettbewerb KW - Rahmenbedingungen KW - Wettbewerbschancen KW - Konzeptionen der Wettbewerbspolitik KW - Direkte Demokratie KW - competition policy Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-33483 ER - TY - THES A1 - Jurgan, Jens T1 - Three Essays on Market Concentration and Welfare T1 - Drei Aufsätze über Marktkonzentration und Wohlfahrt N2 - This thesis analyzes the relationship between market concentration and efficiency of the market outcome in a differentiated good context from different points of view. The first chapter introduces the objectives of competition policy and antitrust authorities and outlines the importance of market concentration. Chapter 2 analyzes the relationship between social surplus and market heterogeneity in a differentiated Cournot oligopoly. Market heterogeneity is due to differently efficient firms, each of them producing one variety of a differentiated good. All firms exhibit constant but different marginal costs without fixed costs. Consumers preferences are given by standard quadratic utility originated by Dixit (1979). Since preferences are quasi-linear social surplus is the measure for Pareto-optimality. The main finding is that consumer suprlus as well as producer surplus increase with the variance of marginal costs. The third chapter analyzes the relationship between the cost structure and market concentration measured by the Herfindahl-Hirschman Index. Market concentration increases with the variance of marginal costs as well as the mean of marginal costs. Chapter four analyzes welfare implications of present antitrust enforcement policy on basis of the same theoretical model. European as well as the US Merger Guidelines presume a negative impact of market concentration on the competitiveness of the market and, therefore, on the efficiency of the market outcome. The results of the previous chapters indicate that this assumption is false. The main finding is that post-merger joint profit of the insider increase with the size of the merger. Moreover, there is a negative relationship between the size of the merger and efficiency of the market outcome. Present antitrust enforcement policy increases the disparity of output levels and enforces the removal of the least efficient firm of the market. The welfare gains can be traced back on these two effects. Therefore, neither a minimum of market concentration nor a maximum of product diversity is necessarily welfare enhancing even in absence of fixed costs. N2 - Die Dissertation untersucht den Zusammenhang zwischen der Marktkonzentration und der Effizienz des Marktergebnisses in einem differenzierten Güter Modell aus unterschiedlichen Gesichtspunkten. Das erste Kapitel gibt eine Einführung in die Ziele der Wettbewerbspolitik und macht hierin die Bedeutung der Marktkonzentration deutlich. Das zweite Kapitel analysiert den Zusammenhang zwischen sozialem Überschuss und der Marktheterogenität in einem differenzierten Güter Oligopol. Die Heterogenität ergibt sich hierbei aus unterschiedlich effizienten Unternehmen, die jeweils eine Variante eines differenzierten Gutes herstellen. Alle Unternehmen weisen konstante aber unterschiedliche Grenzkosten ohne Fixkosten auf. Die Präferenzen der Haushalte werden durch einen quadratischen Standard-Nutzen abgebildet, der auf Dixit (1979) zurückgeht. Da die Präferenzen quasi-linear sind, ist der soziale Überschuss Maßstab für die Paretianische Effizienz. Die zentrale Erkenntnis ist, dass sowohl die Konsumenten- als auch die Produzentenrente mit der Varianz der Grenzkosten steigen. Das dritte Kapitel untersucht den Zusammenhang zwischen der Kostenstruktur und der Marktkonzentration gemessen durch den Herfindahl-Hirschman Index. Es lässt sich zeigen, dass die Konzentration mit der Varianz der Grenzkosten und dem arithmetischen Mittel steigt. Kapitel vier analysiert wohlfahrtstheoretische Implikation der aktuellen Fusionsrichtlinien auf Grundlage des gleichen theoretischen Modells. Sowohl die Europäischen als auch die US Amerikanischen Fusionsrichtlinien gehen von einem negativen Einfluss der Konzentration auf die Wettbewerbsintensität und somit auf die Effizienz des Marktergebnisses aus. Die vorangegangenen Untersuchen zeigen, dass die Vermutung falsch ist. Die Untersuchungen zeigen, dass der Gewinn der am Zusammenschluss beteiligten Unternehmen tatsächlich mit der Größe des Zusammenschlusses steigt. Weiterhin besteht ein negativer Zusammenhang zwischen der Größe des Zusammenschlusses und der Effizienz des Marktergebnisses. Die aktuellen Fusionsrichtlinien erhöhen die Disparität der Ausbringungsmengen und führen unter gewissen Umständen zur Entfernung des ineffizientesten Unternehmens aus dem Markt. Die Effizienzgewinne beruhen genau auf diesen beiden Effekten. Abschließend lässt sich festhalten, dass weder eine größtmögliche Gleichverteilung der Marktanteil noch eine größtmögliche Produktvielfalt notwendigerweise Effizienz steigernd ist. KW - Konzentration KW - Soziale Wohlfahrt KW - Unternehmenszusammenschluss KW - Marktkonzentration KW - sozialer Überschuss KW - Horizontaler Unternehmenszusammenschluss KW - market concentration KW - welfare KW - horizontal merger Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-40374 ER - TY - THES A1 - Dechert, Andreas T1 - Fraktionale Integration und Kointegration in Theorie und Praxis T1 - Fractional integration and cointegration in theory and praxis N2 - Das Ziel der Arbeit ist eine Zusammenfassung über den Stand der Forschung über das Thema der fraktionalen Integration und Kointegration sowie Weiterentwicklungen der aktuellen Methoden im Hinblick darauf, dass sie robuster auf eine Reihe von empirischen Gegebenheiten anwendbar sind. Hierzu wurden insbesondere die Möglichkeiten von Strukturbrüchen in deterministischen Prozessanteilen vorgeschlagen sowie deren Auswirkungen auf Schätzeigenschaften analysiert. Mit diesem Wissen können Schätzstrategien entwickelt werden, die auch im empirischen Teil der Arbeit angewandt wurden. Der Aufbau der Arbeit gestaltet sich so, dass nach der Einleitung und Problemstellung im zweiten Kapitel der Arbeit zunächst in die Zeitreihenanalyse eingeführt wird. Hierbei wird auch eine intuitive Motivation für die Betrachtung von Long-Memory-Prozessen gegeben. Diese gestaltet sich so, dass der klassischerweise als ganzzahlig angenommene Integrationsgrad eines Prozesses nun jede beliebige Zahl, also auch Brüche, annehmen kann. Diese Annahme führt wiederum dazu, dass hiermit sehr langfristige Abhängigkeiten von Zeitreihen effizient beschrieben werden können, da diese lediglich von einem einzigen Parameter abhängen. Die Schätzung dieses nunmehr fraktionalen Integrationsgrads wird im dritten Kapitel ausführlich beschrieben und in mehreren Simulationsstudien ausgiebig analysiert. Hierzu werden neben parametrischen Schätzmethoden, die einer genauen Spezifizierung der Korrelationsstruktur von Zeitreihen bedürfen, auch semiparametrische Methoden angeführt, die in der Praxis robuster einsetzbar sind, da ihre Schätzgenauigkeit und Effizienz nicht von einer korrekten Klassifizierung von sog. Short-Memory-Komponenten beeinflusst werden. Die Analyse dieser Methode erfolgt in erster Linie im Hinblick auf eine empirische Anwendbarkeit und bietet auch als Ergebnis Empfehlungen für eine optimale Schätzstrategie. Das vierte Kapitel beschäftigt sich in erster Linie mit Integrationstests wie z.B. Einheitswurzeltests und deren Anwendbarkeit bei Existenz von Long-Memory-Prozessbestandteilen. Darüber hinaus werden auch Schätz- und Testmethoden für das Vorliegen von deterministischen Trends thematisiert, die wiederum auch die Möglichkeit von Strukturbrüchen zulassen. Eine multivariate Betrachtungsweise ermöglicht das fünfte Kapitel mit der Einführung der fraktionalen Kointegration. Auch liegt der Fokus der Arbeit darin, die empirische Anwendbarkeit zu verbessern, indem in Simulationsstudien Effekte von empirischen Gegebenheiten - wie Strukturbrüche - analysiert und optimale Schätzstrategien entwickelt werden. Im sechsten Kapitel der Arbeit wird im Rahmen der ökonomischen Theorie der Markterwartungshypothese die Verzinsung deutscher im Zeitraum Oktober 1998 bis November 2011 untersucht. Diese Hypothese impliziert, dass zwischen den einzelnen Zinssätzen eine multivariate Beziehung in Form von Kointegrationsbeziehungen bestehen sollte, da die Zinssatzdifferenzen einer Liquiditätsprämie entsprechen. Von dieser wurde in bisherigen Studien angenommen, dass sie stationär ist, d.h. dass sie allenfalls eine Short-Memory-Eigenschaft aufweist, welche nur relativ kurzfristige Abhängigkeit impliziert. Von dieser Sichtweise löst sich die Arbeit, indem sie die Möglichkeit von fraktionalen Kointegrationsbeziehungen ermöglicht, die eine Aussage über die Persistenz der Liquiditätsprämie ermöglicht. Im Rahmen dieser Analyse konnten eine Reihe interessanter Erkenntnisse gewonnen werden, wie z.B. dass das Ausmaß der Persistenz (d.h. die Trägheit der Anpassung auf ökonomische Schocks) mit ansteigender Laufzeitdifferenz sukzessive größer wird und auch nicht mehr durch klassisch angenommene Prozessstrukturen erklärt werden kann. Nichtsdestotrotz können die Ergebnisse der empirischen Analyse die Annahmen der Markterwartungshypothese nicht bestätigen, da insbesondere der Integrationsgrad für sehr lange Laufzeitdifferenzen so groß ausfällt, dass selbst eine relativ schwache fraktionale Kointegrationsbeziehung abgelehnt werden muss. N2 - Fractional integration and cointegration in theory and praxis KW - Zeitreihenanalyse KW - Ökonometrie KW - ARFIMA-Modell KW - ARMA-Modell KW - Fraktionale Integration KW - Multivariate Zeitreihenmodelle KW - Semi- und nichtparametrische Methoden KW - Kointegration KW - Long-Memory-Prozesse KW - Markterwartungshypothese KW - Zins KW - ARFIMA-Modelle Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110028 ER - TY - THES A1 - Gareis, Johannes T1 - Housing, Consumption Dynamics, and Monetary Policy T1 - Wohnbau, Konsum und Geldpolitik N2 - This dissertation provides both empirically and theoretically new insights into the economic effects of housing and housing finance within NK DSGE models. Chapter 1 studies the drivers of the recent housing cycle in Ireland by developing and estimating a two-country NK DSGE model of the European Economic and Monetary Union (EMU). It finds that housing preference (demand) and technology shocks are the most important drivers of real house prices and real residential investment. In particular, housing preference shocks account for about 87% of the variation in real house prices and explain about 60% of the variation in real residential investment. A robustness analysis finally shows that a good part of the variation of the estimated housing preference shocks can be explained by unmodeled demand factors that have been considered in the empirical literature as important determinants of Irish house prices. Chapter 2 deals with the implications of cross-country mortgage market heterogeneity for the EMU. The chapter shows that a change in cross-country institutional characteristics of mortgage markets, such as the loan-to-value (LTV) ratio, is likely to be an important driver of an asymmetric development in the housing market and real economic activity of member states. Chapter 3 asks whether monetary policy shocks can trigger boom-bust periods in house prices and create persistent business cycles. The chapter addresses this question by implementing behavioral expectations into an otherwise standard NK DSGE model with housing and a collateral constraint. Key to the approach in chapter 3 is that agents form heterogeneous and biased expectations on future real house prices. Model simulations and impulse response functions suggest that these assumptions have strong implications for the transmission of monetary policy shocks. It is shown that monetary policy shocks might trigger pronounced waves of optimism, respectively, pessimism that drive house prices and the broader economy, all in a self-reinforcing fashion. The chapter shows that in an environment in which behavioral mechanisms play a role an augmented Taylor rule that incorporates house prices is superior, because it limits the scope of self-fulfilling waves of optimism and pessimism to arise. Chapter 4 challenges the view that the observed negative correlation between the Federal Funds rate and the interest rate implied by consumption Euler equations is systematically linked to monetary policy. Using a Monte Carlo experiment based on an estimated NK DSGE model, this chapter shows that risk premium shocks have the capability to drive a wedge between the interest rate targeted by the central bank and the implied Euler equation interest rate, so that the correlation between actual and implied rates is negative. Chapter 4 concludes by arguing that the implementation of collateral constraints tied to housing values is a promising way to strengthen the empirical performance of consumption Euler equations. N2 - Die vorliegende Dissertation beschäftigt sich sowohl empirisch als auch theoretisch mit der Rolle von Immobilieninvestitionen und -finanzierung in der Makroökonomie im Rahmen von Neu-Keynesianischen dynamischen stochastischen allgemeinen Gleichgewichtsmodellen (DSGE). Das erste Kapitel untersucht die Ursachen des Immobilienbooms in Irland für die Zeit der Mitgliedschaft in der Europäischen Wirtschafts- und Währungsunion (EWWU). Dazu wird ein Zwei-Länder-Modell für Irland als Mitglied der EWWU entwickelt und mittels eines bayesianischen Verfahrens ökonometrisch geschätzt. Hauptergebnis der Untersuchung ist, dass Immobiliennachfrageschocks den zentralen Treiber des irischen Immobilienbooms darstellen - ein Resultat, das für die empirische Neu-Keynesianische DSGE-Literatur typisch ist. Eine Robustheitsanalyse zeigt schließlich, dass ein Teil der Variation der durch die Schätzung bestimmten Immobiliennachfrageschocks auf exogene Erklärungsvariablen zurückgeführt werden kann. Das zweite Kapitel baut auf dem im ersten Kapitel entwickelten Modellrahmen auf und beschäftigt sich mit der Auswirkung einer asymmetrischen Deregulierung von Hypothekenmärkten einzelner Mitgliedsländer der Europäischen Währungsunion. Es wird gezeigt, dass eine unmittelbare regulatorische Anhebung der Beleihungsgrenze von 65% auf 75% in einem Mitgliedsland der Größe Spaniens einen massiven Nachfrageboom in diesem Land auslöst, während der Rest der Währungsunion unter einer Rezession leidet. Die asymmetrische Entwicklung der nationalen Konjunkturzyklen spiegelt das Dilemma der Europäischen Zentralbank wider, die ihren Leitzinsentscheid an der durchschnittlichen Inflationsrate der Union ausrichtet. Neben der Betrachtung der Transitionsdynamik und der langen Frist analysiert das Kapitel 2 die Wohlfahrtswirkung der Regulierungsreform und kommt zu dem Ergebnis, dass das Heimatland, in dem die Reform beschlossen wird, Wohlfahrtsgewinne realisiert, während der Rest der Währungsunion Wohlfahrtsverluste erleidet, wobei sich die Höhe der Verluste nach der Größe des Heimatlandes richtet. In einem Ein-Länder-Modell wird im dritten Kapitel die Frage gestellt, ob die Geldpolitik durch temporäre Abweichungen von der Taylor-Regel persistente Boom-Bust-Zyklen auf dem Immobilienmarkt und konjunkturelle Zyklen auslösen kann. Zur Beantwortung dieser Fragestellung werden in einen ansonsten standardisierten Modellrahmen verhaltenstheoretische Erwartungsbildungsmechanismen (Heuristiken) eingebaut. Insbesondere wird unterstellt, dass die Akteure des Modells zwischen einer optimistischen und einer pessimistischen Prognoseregel für zukünftige Immobilienpreise wählen und ihre Entscheidung auf die relative Prognoseperformance der Regeln stützen. Mittels Modellsimulationen und Impulsantwortfunktionen werden die sich daraus ergebenden Implikationen für den geldpolitischen Transmissionsprozess untersucht und mit dem Standardmodell, das auf dem Paradigma der rationalen Erwartungen fußt, kontrastiert. Es wird gezeigt, dass im verhaltenstheoretischen Modell eine expansive Geldpolitik eine selbsterfüllende Welle von Optimismus bezüglich zukünftiger Immobilienpreise verursachen kann, welche wiederum durch eine steigende Verschuldung der Akteure und die damit verbundene Ausgabensteigerung die realwirtschaftliche Aktivität einer Volkswirtschaft bestimmt. Aufgrund dieser destabilisierenden Mechanismen kommt Kapitel 3 zu dem Schluss, dass die Immobilienpreisentwicklung bei der Leitzinsentscheidung einer Zentralbank Berücksichtigung finden sollte. Indem die Zentralbank das Zinsniveau einer Ökonomie gemäß makroökonomischen als auch finanziellen Bedingungen steuert, wird verhindert, dass Fehlbewertungen auf dem Immobilienmarkt die konjunkturelle Stabilität einer Volkswirtschaft gefährden. Im abschließenden Kapitel befasst sich die vorliegende Dissertation mit der empirischen Plausibilität der Konsum-Euler-Gleichung und nähert sich der Rolle von Immobilieninvestitionen und -finanzierung in der Makroökonomie im Rahmen von Neu-Keynesianischen DSGE-Modellen aus einer weitergefassten Perspektive. Im Besonderen beschäftigt sich das Kapitel mit dem Zusammenhang von monetären Bedingungen und dem Befund der negativen Korrelation zwischen der Federal Funds Rate und dem impliziten Zins von Konsum-Euler-Gleichungen. Es wird gezeigt, dass Risikoprämienschocks - im Gegensatz zu geldpolitischen Schocks - einen Keil zwischen die Federal Funds Rate und den impliziten Zins der Konsum-Euler-Gleichung treiben können, so dass beide Zinszeitreihen eine negative Korrelation aufweisen. Auf Grundlage dieses Befundes wird in Kapitel 4 abschließend argumentiert, dass die strukturelle Untermauerung der Konsum-Euler-Gleichung durch die Implementierung von finanziellen Friktionen auf dem Immobilienmarkt einen potentiellen Beitrag leisten kann, um die Federal Funds Rate und den impliziten Zins der Konsum-Euler-Gleichung in Einklang zu bringen. KW - Kreditmarkt KW - Geldpolitik KW - Wohnbau KW - Währungsunion KW - Housing KW - Bayesian Estimation KW - Monetary Policy KW - Monetary Union KW - Animal Spirits KW - Immobilienmarkt KW - Verbrauch Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70842 ER - TY - THES A1 - Plagens, Manfred T1 - Innovationsprozesse in der Medizintechnik in Deutschland T1 - Processes of economic innovation in the German medical device industry N2 - Diese Arbeit beschäftigt sich mit Innovationsprozessen der medizintechnischen Industrie in Deutschland am Beispiel der bildgebenden Verfahren. Einen geeigneten Analyserahmen, um die komplexen Verflechtungen und Erfolgs-determinanten zu erfassen, bietet der Clusteransatz Michael Porters. Der Clusteransatz wird um wachstumstheoretische, politökonomische Ansätze ergänzt und erweitert, um die Medizintechnikbranche quantitativ und qualitativ zu untersuchen und die Wechselwirkungen zwischen Medizintechniknetzwerk, Innovationen und staatlichem Sozialsystem in Deutschland aufzuzeigen. Es wird geklärt, welche Auswirkungen Innovationen für die medizintechnische Branche haben und welche institutionellen und politischen Bedingungen Innovationen begünstigen, welche wirtschaftspolitischen Handlungsempfehlungen daraus abgeleitet werden können und wie sich die Zukunft für diese Branche gestalten könnte. Kapitel 1 spezifiziert den Untersuchungsgegenstand auf die bildgebenden Verfahren. Kapitel 2 nimmt - anhand diverser Innovationsindikatoren - eine quantitative Eingruppierung der deutschen medizintechnischen Industrie vor. In Kapitel 3 werden die bislang gewonnen Erkenntnisse mit dem Clusterkonzept Porters einer qualitativen Analyse unterzogen. Es wird der Frage nachgegangen, was die Wettbewerbsfähigkeit der Medizintechnik ausmacht. Hierbei liegt ein Schwerpunkt auf den Wechselbeziehungen von Medizin-technikbranche und staatlichem Gesundheitssystem. Kapitel 4 ergänzt die Wettbewerbsfähigkeitsanalyse um einen inter-industriellen Vergleich. Weitere international erfolgreiche deutsche Branchen werden in ihren Erfolgsfaktoren mit der Medizintechnik verglichen. Das Konzept der "Langen Wellen" präzisiert die Spezifika der Medizintechnikbranche. Kapitel 5 fasst die Ergebnisse der Untersuchung zusammen und gibt eine Prognose für die mögliche Zukunftsentwicklung der Branche. N2 - The thesis deals with processes of economic innovation in the German medical device industry. Michael Porter`s „industrial cluster model“ is used as the relevant analytical framework to deal with the complex intercourses of the different economic determinants of success. Porter`s model is enhanced by aspects of the New Growth Theory as well as Public Choice aspects that allow the examination of the medical device industry. My main focus lies on the explanation of the interaction between the medical device industry cluster, innovations and the German health care system. It is showed which impact innovations generally have in the German medical device industry and furthermore how a certain institutional and political set-up promotes these innovations. In the next step economic recommodations are deduced from the results of the thesis and there will be a forecast on the future of the German medical device industry. Chapter 1 specifies and explains the concepts „innovation“, „cluster“ and „medical device industry“. In chapter 2 the German medical device industry is examined on its different innovation indicators. Chapter 3 uses Michael Porter`s enhanced economic cluster model as the framework for a qualitative examination of the industry. The main focus lies on the interaction between medical device industry and the German national health care system. Chapter 4 completes the analysis of the competitiveness of the medical device industry by an inter-industry comparison with other successful German industry clusters such as the optical industry. The economic concept of „long waves of innovation“ gives here a helpful completion. Chapter 5 sums up the results of the thesis and gives an outlook on the future of the German medical device industry. KW - Deutschland KW - Medizintechnische Industrie KW - Innovation KW - Innovation KW - Cluster KW - Medizintechnik KW - Gesundheitssystem KW - Deutschland KW - innovation KW - cluster KW - medical device industry KW - health care system Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-619 ER - TY - THES A1 - Hock, Thorsten T1 - Asymmetrische Effekte der Geldpolitik auf die Industrie in der Bundesrepublik Deutschland - eine Untersuchung auf Branchenebene T1 - Asymmetrical Industry Effects of Monetary Policy in Germany - an Analyses on the Subsector-Level N2 - Die Arbeit setzt sich mit Unterschieden des geldpolitischen Transmissionsprozesses im Verarbeitenden Gewerbe der Bundesrepublik Deutschland auseinander. Dazu wird der Sektor nach der Systematik der BACH-Datenbank der europäischen Kommission in 10 Branchen eingeteilt. An eine kurze Betrachtung der Industrie aus makro- und mikroökonomischer Sicht schließt sich die Beantwortung der ersten Frage an: Reagieren die Industriebranchen unterschiedlich auf geldpolitische Impulse? Monetäre Innovationen werden mit Anstiegen der kurzfristigen Geldmarktzinsen abgebildet. Damit konzentriert sich die Analyse auf die Auswirkungen von restriktiven Maßnahmen. Als Referenzgrößen wurden die Produktion und die Erzeugerpreise ausgewählt. Die Analyse der Auswirkungen auf die Produktionsentwicklung zeigt, dass ein Großteil der Industriezweige erwartungsgemäß mit Rückführungen auf Zinserhöhungen reagiert. Die stärksten Produktionseinbußen ergeben sich hierbei in der Branche Herstellung elektrischer Geräte, in der Grundlegenden Metallverarbeitung und im Industriezweig Metallerzeugnisse mit Maschinenbau. Dagegen sind die in vielen Branchen entdeckten kurzfristigen Preisanstiege auf den ersten Blick ein Rätsel. Denn die Notenbank verfolgt ihre Absicht – nämlich die Stabilisierung der Verbraucherpreise – mit einer restriktiven Ausrichtung, wenn die Preise Gefahr laufen, stärker als zielkonform anzusteigen. Die vorliegenden Ergebnisse sprechen daher dafür, dass in der kurzen Frist jedoch zusätzlicher Preisdruck auf vorgelagerter Stufe erzeugt wird. Wie können die unterschiedlichen Auswirkungen auf die Branchen erklärt werden? Dieser Frage widmet sich der zweite Hauptblock der Arbeit. In einem ersten Schritt werden die relevanten Transmissionstheorien diskutiert. Die empirische Überprüfung ausgewählter Transmissionstheorien mit Branchendaten hat dabei einige grundlegende Einsichten ans Licht gebracht. Erstens korreliert die Stärke der Outputveränderung deutlich mit der Zinssensitivität der Nachfrage nach den produzierten Gütern der Branche. Zweitens können die beobachteten Preisanstiege vereinzelt mit einer Dominanz der Geldpolitik als Angebotsschock erklärt werden. Zu einem großen Teil bleibt die identifizierte Preisreaktion aber ein Rätsel. Und drittens scheint der Bilanzkanal – zumindest gemäß der hier gewählten Identifikationsstrategie – nicht grundsätzlich geeignet zu sein, die Anpassungsprozesse in den untersuchten Branchen zu erklären. Dies sollte daran liegen, dass dieser Transmissionskanal Bonitätscharakteristika und -veränderungen auf Unternehmensebene als Vehikel der Übertragung sieht. N2 - The thesis analyzes the different monetary transmission mechanisms in the German manufacturing industry. According to the BACH database of the European Commission, that sector of the economy is divided into ten subsectors. After a quick glance at the manufacturing industry from the microeconomic and macroeconomic points of view, the dissertation tries to answer the first important question: Do the subsectors of the German manufacturing industry respond to monetary impulses in different ways? Monetary innovations are modeled through increases in the short-term money market rates. Hence the analysis concentrates on a restrictive monetary policy. Industrial output and producer prices are chosen as reference data. As expected, output decreases in most subsectors after a restrictive monetary shock. The sectors of electrical and electronic equipment, metal processing and metal article manufacturing show the most significant responses. The observed price increases in most subsectors are puzzling at first sight since the monetary authority tries to reduce inflationary pressures by raising the interest rate level. However, my results indicate that a restrictive monetary policy intensifies price pressure at the industry level in the short run. The second part of my thesis provides possible explanations for the differing reactions in the subsectors. As a first step, the relevant transmission theories are discussed. The empirical investigation of the theories then sheds some light on the transmission process on a subsector level. First, the strength of the subsectors' output reaction correlates significantly with the interest rate sensitivity of subsector demand. Second, the observed price increases can partly be explained by the fact that monetary policy works mainly as supply shock in some subsectors. But the identified price reactions remain largely inexplicable. Third, the balance sheet channel cannot explain the adjustment process of the analyzed subsectors, at least not given the used identification strategy. This could be due to the fact that this theory regards the financial situation on the firm level as a key driver of the monetary policy transmission. KW - Deutschland KW - Geldpolitik KW - Transmissionsmechanismus KW - Industrie KW - Geldpolitik KW - Monetärer Transmissionsprozess KW - Verarbeitendes Gewerbe KW - Schätzung KW - Monetary Policy KW - Monetary Policy Transmission KW - Manufacturing Industry KW - Estimation Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-7586 ER - TY - THES A1 - Gottberg, Hans-Döring von T1 - Wirkungsanalyse der gesetzlichen Buchpreisbindung in Deutschland T1 - Analysis of the effects of statutory retail price maintenance for books in Germany N2 - Untersuchungsgegenstand dieser Arbeit ist die Preisbindung auf dem deutschen Buchmarkt. Diese stellt eine absolute Ausnahmesituation dar, da sie für andere Wirtschaftszweige per se verboten ist. Das gilt umso mehr, als im Jahr 2002 das Preisbindungsgesetz eingeführt wurde und alle Verlage ihre Bücher – mit wenigen Ausnahmen – nunmehr preisbinden müssen. Unter Berücksichtigung dieser Rahmenbedingungen setzt eine Wirkungsanalyse bei den Auswirkungen der Preisbindung auf das Preis-, Serviceniveau und die Branchendynamik an. Die Gegenüberstellung einer Situation mit und ohne Preisbindung wird dadurch erschwert, dass empirische Belege spärlich sind, da die Preisbindung seit über 100 Jahren den deutschen Buchmarkt bestimmt. Zunächst werden Lücken im Preisbindungsgesetz herausgearbeitet, die den Spielraum für noch möglichen Preiswettbewerb aufzeigen. Als Kernstück der Arbeit werden stilisierte Aussagen zum Verhaltenspotential der Marktakteure durch ein eigenes theoretisches Modell ermittelt. Dabei sind im zentralen Vergleich der Preisbindung mit einer preisbindungsfreien Situation die Resultate nicht eindeutig. Eine Aufhebung der Preisbindung hat danach keine eindeutige Wirkung auf die Entwicklung von Preisen und Service. Je nach Bedeutung der Preis- und Servicesensitivitäten bei latenten versus fluktuierenden Nachfragesituationen können sich Preise und Service unterschiedlich entwickeln. Entgegen der häufigen Aussagen in der politischen Diskussion können nach Aufhebung der Preisbindung Preise und Serviceniveau auch ansteigen, wenn der Servicewettbewerb zur Gewinnung von Kunden einen hohen Stellenwert hat. Das Aussagenspektrum bekommt einen Branchenbezug durch Berücksichtigung von ökonomischen Prozessen, insbesondere produktions- und vertriebsspezifischen Besonderheiten des Buchmarktes. Dynamische, gerade auch preisbindungsabhängige Entwicklungen werden aufgezeigt, die mit einem positiven Effizienzbeitrag die grundsätzliche effizienzmindernde Wirkung einer Preisbindung zumindest abmildern. Zu nennen ist hier u.a. eine Transaktionskosten mindernde enge Verzahnung des stationären Bucheinzelhandels mit dem Großhandel. Erkennbar ist aber auch eine Entwicklung, in der ein zunehmender Marktanteil von Geschäftsmodellen mit niedrigpreisigen bzw. preisbindungsfreien Büchern. Konsumenten erhalten damit eine größere Wahlmöglichkeit zwischen preis- und serviceinduzierten Angeboten. Fallstudien von größeren Unternehmen des Buchhandels bekräftigen die Vermutung, dass trotz Preisbindung die Flanke „Konzentration im Buchhandel“ weiterhin offen ist. Gerade von Seite der Großunternehmen wird mittels spezifischen Geschäftsmodellen im Ergebnis die Preisbindung partiell außer Kraft gesetzt. N2 - The subject of this thesis is retail price maintenance (RPM) in the German book market. This is an exceptional situation, since the practice is forbidden in other sectors of the economy. This applies all the more, since new legislation in the year 2002 requires all publishers – with very few exceptions – to fix prices for their books. This analysis considers the effects of RPM on the price, the level of service and the market sector dynamics. A comparison of the situation with and without RPM is hampered by a lack of empirical research, since the German book market has been subject to price maintenance for over 100 years. Firstly, legal exceptions, allowing some margin for price competition are investigated. In the central part of the thesis, a theoretical model is developed in order to predict the behaviour of participants in the market. In the principal comparison between a regulated and an unregulated price system, this model does not lead to any unambiguous conclusions. Accordingly, the abolition of RPM would not have any clear cut effect on the levels of price or of service. The levels of price and service may develop differently in situations of latent or of fluctuating demand, depending on the relative importance of price and service. In contrast to frequently stated political opinions, levels of price and service may even rise after abolition of RPM, if competition in service proves important in winning new customers. The conclusions are reached under consideration of the specific economic processes, in particular production and marketing, in the book industry. Dynamic effects resulting from RPM are shown, whose positive impact on efficiency help to counteract the fundamental tendency of RPM to promote inefficiency in the market. Worthy of mention is the reduction of transaction costs resulting from the close coupling between the retail and wholesale markets. On the other hand, an increasing market share is being gained by business models dealing in books with low or unregulated prices. This results in a greater choice between service oriented and price oriented book dealers. Case studies by large book dealers have strengthened the assumption, that there is still scope for greater concentration in the book market. Furthermore, large book dealers are able to develop specific business models which partially undermine the statutory price maintenance. KW - Deutschland KW - Buchpreis KW - Preisbindung KW - Preisbindung KW - Buchmarkt KW - Wettbewerb KW - Service KW - Verlag KW - retail price maintenance KW - book market KW - competition KW - service KW - publishing house Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-13657 ER - TY - THES A1 - Schmidt, Robert T1 - The behavioral economics of foreign exchange markets - a psychological view on human expectation formation in foreign exchange markets T1 - Behavioral Economics und Devisenmarkt - Ein verhaltensorientierter Ansatz zur Erwartungsbildung am Devisenmarkt N2 - The development of free floating exchange rates can hardly be explained by macroeconomic fundamentals as supposed by traditional economic theories. Therefore, prominent economists yet conclude that there exists an ‘exchange rate disconnect puzzle’ (see Obstfeld and Rogoff [2000]). The observable exchange rate trends are often attributed to an excessive speculative trading behavior of foreign exchange market participants. In this study we deal with psychological factors, which may be important for understanding the observable exchange rate movements. Thus, our study belongs to the new research field of behavioral economics, which considers the relevance of psychological factors in economic contexts. The main objective of behavioral economists is to develop a more realistic view of the actual human behavior in the context of economics. Therefore, behavioral economists often refer to the work of behavioral decision theorists, who introduced new concepts under the general heading of bounded rationality. Central to the concept of bounded rationality is the assumption that humans’ actual behavior deviates from the ideal of economic rationality due to at least two reasons: first, decisions are usually based on an incomplete information basis (limited information) and, second, the information processing of human beings is limited by their computational capacities (limited cognitive resources). Due to these limitations people are forced to apply simplification mechanisms in information processing. Important simplification mechanisms, which play a decisive role in the process judgment and decision making, are simple heuristics. Simple heuristics can principally be characterized as simple rules of thumb, which allow quick and efficient decisions even under a high degree of uncertainty. In this study, our aim is to analyze the relevance of simple heuristics in the context of foreign exchange markets. In our view, the decision situation in foreign exchange markets can serve as a prime example for decision situations in which simple heuristics are especially relevant as the complexity of the decision situation is very high. The study is organized as follows. In Chapter II, we deal with the exchange rate disconnect puzzle. In particular, we discuss and check the main implications of the traditional economic approach for explaining exchange rate movements. The asset market theory of exchange rate determination implies that exchange rates are mainly driven by the development of macroeconomic fundamentals. Furthermore the asset market theory assumes that foreign exchange market participants form rational expectations concerning future exchange rate developments and that exchange rates are determined in efficient markets. Overall the empirical evidence suggests that the traditional approach for explaining exchange rate changes is at odds with the data. Chapter III addresses the existence of long and persistent trends in exchange rate time series. Overall, our empirical analysis reveals that exchange rates show a clear tendency to move in long and persistent trends. Furthermore, we discuss the relevance of speculation in foreign exchange markets. With regard to the impact of speculation, economic theory states that speculation can have either a stabilizing effect or a destabilizing effect on exchange rates. At the end of Chapter III, we examine the Keynesian view on the functioning of asset markets. In Chapter IV we explore the main insights from the new research field of behavioral economics. A main building block of behavioral economics is the concept of bounded rationality first introduced by Herbert Simon [1955]. In the centre of the concept of bounded rationality is a psychological analysis of the actual human judgment and decision behavior. In Chapter IV, we discuss the concept of bounded rationality in detail and illustrate important insights of behavioral decision theories. In particular, we deal with the relevance of simple heuristics in the context of foreign exchange markets. Chapter V provides experimental and empirical evidence for the suggested relevance of simple heuristics in foreign exchange markets. In the first experiment, we deal with the human expectation formation. We compare point forecasts of the EUR/USD exchange rate surveyed from professional analysts and experimentally generated point forecasts of students for a simulated exchange rate time series. The results show that the forecasting performance of both groups differs substantially. Afterwards we analyze the nature of expectation formation of both groups in detail to reveal similarities and differences, which allow us to draw reasonable explanations for the differences in the forecasting performances. In the second experiment, we analyze the expectation formation in an experimental foreign exchange market. This approach allows us to consider the relevance of expectation feedback as individuals’ expectations directly influence the actual realization of the time series. Thus, Keynes’ predictions on the importance of conventions in asset markets can be analyzed. Overall, both experiments reveal that the human beings tend to apply simple trend heuristics, when forming their expectations about future exchange rates. In the empirical part of Chapter V we deal with the usefulness of such simple trend heuristics in real world. Only if simple trend heuristics lead to profits in the specific environment of foreign exchange markets, their application can be recommended. Thus, we analyze the profitability of simple technical analysis tools in foreign exchange markets. Finally, Chapter VI provides concluding remarks. N2 - Ökonomische Wechselkursmodelle können die Entwicklung flexibler Wechselkurse nicht erklären. Dieser Befund veranlasst prominente Ökonomen zu schlussfolgern, dass im Bereich der Wirtschaftswissenschaften ein `exchange rate disconnect puzzle´ existiert (siehe Obstfeld und Rogoff [2000]). Die in der Realität beobachtbaren Trends in Wechselkurszeitreihen werden häufig auf spekulatives Verhalten der Marktteilnehmer zurückgeführt. Im Rahmen dieser Arbeit werden psychologische Faktoren behandelt, die wichtig sind, um die beobachtbaren Wechselkursbewegungen zu verstehen. Somit gehört diese Arbeit zum neuen Forschungszweig der Behavioral Economics, der die Relevanz psychologischer Faktoren im ökonomischen Kontext beleuchtet. Wesentliches Ziel der Behavioral Economics ist es im ökonomischen Kontext ein realistischeres Bild vom menschlichen Verhalten zu entwickeln. In diesem Zusammenhang greift die Behavioral Economics auf die Erkenntnisse der verhaltensorientierten Entscheidungstheorie zurück, die unter dem Schlagwort „Begrenzte Rationalität“ neue Konzepte vorlegt. Im Mittelpunkt dieser Konzepte steht die Annahme, dass das menschliche Verhalten aus zwei Gründen vom Ideal der ökonomischen Rationalität abweicht. Erstens müssen Entscheidungen in der Realität auf der Basis unvollkommener Information getroffen werden. Zweitens ist die menschliche Informationsverarbeitung aufgrund begrenzter Rechenkapazität beschränkt. Die genannten Limitationen zwingen Menschen bei der Informationsverarbeitung auf Vereinfachungsmechanismen zurückzugreifen. Wichtige Vereinfachungsmechanismen, die eine entscheidende Rolle im menschlichen Entscheidungsprozess spielen, sind einfache Heuristiken, die als Daumenregeln bezeichnet werden können, die unter Unsicherheit eine schnelle und effiziente Entscheidung ermöglichen. Ziel dieser Arbeit ist es die Relevanz von einfachen Heuristiken am Devisenmarkt zu untersuchen. Die Entscheidungssituation am Devisenmarkt kann aufgrund seiner Komplexität als ein gutes Beispiel für Entscheidungssituationen dienen in denen einfache Heuristiken relevant sind. Die Arbeit ist wie folgt gegliedert. In Kapitel II wird das `exchange rate disconnect puzzle´ untersucht. Hierzu werden die wesentlichen Implikationen der ökonomischen Wechselkurstheorie auf ihre empirische Validität hin überprüft. Die Vermögenspreistheorie des Wechselkurses impliziert vor allem, dass Wechselkursveränderungen durch die Entwicklung der makroökonomischen Fundamentalfaktoren determiniert werden. Darüber hinaus wird in dieser Theorie unterstellt, dass Marktteilnehmer rationale Erwartungen bezüglich der zukünftigen Wechselkurse bilden und dass der Devisenmarkt effizient ist. Insgesamt zeigen die eigenen empirischen Untersuchungen und der Literaturüberblick, dass die traditionelle, ökonomische Wechselkurstheorie nicht in der Lage ist die Realität zu erklären. Kapitel III setzt sich mit der Existenz von persistenten Trends in Wechselkurszeitreihen auseinander. Des Weiteren wird die Relevanz von Spekulation am Devisenmarkt diskutiert. Zum Schluss des Kapitels setzt sich der Autor mit der Sichtweise von John M. Keynes bezüglich der Funktionsweise von Finanzmärkten auseinander. In Kapitel IV wird die alternative Sichtweise der Behavioral Economics bezüglich des menschlichen Entscheidungsverhaltens dargelegt. Ein zentraler Baustein der Behaviroal Economics ist das Konzept der Begrenzten Rationalität, welches zuerst von Herbert Simon [1955] eingeführt wurde. In diesem Kapitel wird das Konzept der Begrenzten Rationalität detailliert diskutiert und die wichtigsten Erkenntnisse der verhaltensorientierten Entscheidungstheorie vorgestellt. Insbesondere geht der Autor auf die Relevanz von einfachen Entscheidungsregeln am Devisenmarkt ein. Kapitel V beinhaltet experimentelle und empirische Evidenz für die Relevanz von einfachen Heuristiken am Devisenmarkt. Das erste Experiment untersucht die Erwartungsbildung. Hierzu werden die Prognosen von Analysten für den EUR/USD Wechselkurs mit experimentellen Prognosen von Studenten für eine simulierte Zeitreihe verglichen. Die Ergebnisse zeigen, dass sich Güte der Prognosen beider Gruppen substantiell unterscheidet. Anschließend werden die verwendeten Erwartungsbildungsmechanismen untersucht, um die Unterschiede zwischen beiden Gruppen herauszuarbeiten. Dies ermöglicht uns Erklärungen für die unterschiedliche Prognosegüte abzuleiten. Im zweiten Experiment wird die Erwatungsbildung in einem experimentellen Devisenmarkt untersucht. Dieser Ansatz ermöglicht die Untersuchung von Feedbackschleifen auf die Erwartungsbildung, da die Erwartungen des einzelnen Marktteilnehmers direkten Einfluss auf die tatsächliche Realisation des experimentellen Wechselkurses haben. Somit kann anhand dieses Experiments die Bedeutung von Konventionen, wie sie von Keynes beschrieben wurde, untersucht werden. Insgesamt zeigen beide Experimente, dass Menschen dazu tendieren bei der Erwartungsbildung am Devisenmarkt auf einfache Trendheuristiken zurückzureifen. Im empirischen Teil des Kapitel V wird überprüft, ob die Verwendung von einfachen Trendheuristiken eine sinnvolle Entscheidung in der Realität ist. Hierzu wird am Schluss des Kapitel V die Profitabilität von einfachen Handelsregeln der Technischen Analyse am Devisenmarkt untersucht. Abschließend werden in Kapitel VI eine Zusammenfassung der Ergebnisse und ein Ausblick gegeben. KW - Devisenmarkt KW - Wechselkurs KW - Erwartungsbildung KW - Wechselkurs KW - Rationale Erwartungen KW - Effiziente Märkte KW - Behavioral Economics KW - Exchange rate KW - Rational Expectations KW - Efficient Markets KW - Behavioral Economics Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-14921 ER - TY - THES A1 - Beschorner, Patrick Frank Ernst T1 - Risikoklassifikation und Wettbewerb auf Versicherungsmärkten T1 - Risk Classification and Competition on Insurance Markets N2 - Mit der Schaffung des europäischen Versicherungsbinnenmarktes wurde 1994 auch der deutsche Versicherungsmarkt liberalisiert. Damit stehen seither den Unternehmen auf diesen Märkten mit der Produktgestaltung, der Prämienkalkulation und der Risikoklassifikation neue Wettbewerbsinstrumente zur Verfügung. Zusätzlich ist der Markteintritt nationaler Unternehmen in andere europäische Märkte erleichtert worden. Die Nutzung der neuen Instrumente im Rahmen von Unternehmensstrategien vor dem Hintergrund eingeschränkter Information und geringer Erfahrung der Marktteilnehmer sowie die Möglichkeiten wohlfahrtssteigernder Markteingriffe sind Inhalt der vorliegenden Untersuchung. Es zeigt sich, daß Informationsbeschränkungen und Marktmacht immanent sind. Die sich daraus ergebenden Marktunvollkommenheiten lassen sich durch einen eingeschränkt informierten Regulierer oder Staat nicht vollständig beheben. Dafür sind Eingriffe möglich, welche die negativen Effekte abzumildern vermögen und dabei einem sehr geringem Informationserfordernis unterliegen. Relevante Informationen beziehen sich in erster Linie auf die Schadenscharakteristika von Versicherungsnehmern. Ein einzelnes Unternehmen profitiert von einem Informationsvorsprung gegenüber seinen Konkurrenten, wenn es diesen für verstärkte Risikoklassifikation einsetzen kann. Aus sozialer Sicht ist es aber sinnvoller, wenn existierende Informationen allen Unternehmen zur Verfügung stehen, so daß eine einheitliche Risikoklassifikation möglich wird. Die hierfür erforderlichen Informationen können nur Beobachtung der Kunden gewonnen werden. Dann hat ein Unternehmen einen Informationsvorsprung gegenüber seinen Konkurrenten in Bezug auf die Charakteristika seiner Kunden. Dieses Effekte begründen, warum Informationsbeschränkungen und Marktmacht auf einem Versicherungsmarkt immanent sind. Versicherungsnehmer, die sich gegen ein Schadensrisiko absichern, stehen Versicherungsschutz und Prävention als substitutive Instrumente zur Verfügung. Die geeignete Wahl der Versicherungsprämie kann effiziente Prävention seitens der Versicherungsnehmer bewirken. Wenn wegen der Informationsbeschränkung verschiedene Risikoklassen nicht identifiziert werden können, kann nur eine einheitliche Prämie für alle Klassen erhoben werden. Dann kann effiziente Prävention nicht bei allen Risikoklassen vorliegen. Ein Eingriff, der diese negativen Wohlfahrtseffekte abmildern kann, besteht in der Vorgabe einer fixen Versicherungsdeckung, so daß die Anreize der verschiedenen Risikoklassen in die richtige Richtung gelenkt werden. Die Marktmacht eines Unternehmens ermöglicht ihm, risikoklassenspezifische Prämien über der fairen Prämie zu wählen. Ein Unternehmen hat stets den Anreiz zu Prämiendifferenzierung, da es ihm einen höheren Gewinn zu erzielen erlaubt. Dagegen ergibt eine Wohlfahrtsuntersuchung, daß eine einheitliche Prämie sozial wünschenswert ist. Ein Verbot der Prämiendifferenzierung ist ein einfaches Mittel, für welches bei einem staatlichen Eingriff nur sehr geringen Informationsanforderungen bestehen. Es zeigt sich, daß die negativen Auswirkungen der Marktmacht dadurch abzumildern sind, indem die Marktmacht eingeschränkt wird, und zwar indem dem Unternehmen nicht die Nutzung aller Wettbewerbsinstrumente gestattet wird. N2 - Along with the creation of the European single insurance market in 1994 the German insurance market was liberalized. Since then, the firms are free in their product design, their premium calculation, and their risk classification. Furthermore, market entry within European markets is facilitated. Firm strategies in applying the new instruments and also market interventions aiming at welfare improvements are subject matters of the present investigation. Both are analyzed for an environment with information constraints and sparse experience of the market participants. One result is that information constraints and market power are immanent. The resulting market imperfections cannot be eliminated completely by a regulatory or state authority which also suffers some information constraints. However, there exist some interventions which require a very low amount of information and which can mitigate the negative effects of the market imperfections. In general, relevant information refers to the loss characteristics of consumers. A single firm benefits from an informational advantage compared to its competitor when it intensifies its risk classification activities. From the social perspective, it would be more efficient when existing information is available to all firms on the market to arrange a uniform risk classification. The necessary information can be generated from observing the loss statistics of the customers. Then a firm gains an informational advantage compared to its competitors on the loss characteristics of its customers. These effects explain why informational constraints and market power are immanent on insurance markets. Insurance coverage and loss prevention are two substitute instruments which can be utilized by consumers facing a potential loss. The appropriate insurance premium will induce an efficient use of prevention by the customers. Information constraints may inhibit the identification of distinct risk classes. Then only a uniform premium for different risk classes will be possible and loss prevention cannot be efficient for all risk classes anymore. An intervention which will reduce the resulting welfare loss may consist in a fixed insurance coverage which has to be purchased by all risk classes. Then all risk classes have an incentive to correct the prevention activities towards the efficient level. Market power allows a firm to apply price discrimination. In the context of insurance markets this means that a firm prefers to ask a specific premium from each risk class. Conversely, a welfare analysis shows that a uniform premium may be socially preferable. Imposing a uniform premium is a simple measure with very low informational requirements. Such an intervention may reduce the welfare loss from price discrimination. This shows that the negative effects resulting from market power may be alleviated by restricting the instruments which can be applied by the firm which has market power. KW - Deutschland KW - Kraftfahrtversicherung KW - Versicherungsmarkt KW - Deregulierung KW - Versicherungsmarkt KW - Regulierung KW - Wettbewerb KW - Versicherungsaufsicht KW - Insurance KW - Regulation KW - Competition KW - Insurance Regulation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10122 ER - TY - THES A1 - Grub, Martin T1 - Verteilungswirkungen anreizorientierter Sozialpolitik : das deutsche Rentenversicherungs- und Steuersystem in der Perspektive dynamischer Lebenszyklusmodelle T1 - Distributional Effects of incentive-oriented social security N2 - Drei große Reformenpakete und eine Reihe kleinerer Begleitmaßnahmen prägen das renten¬politische Erbe der rot-grünen Bundesregierung. Einerseits greifen sie Trends in der Reformpolitik seit Beginn der 90er Jahre auf. So verstärkt die Rentenstrukturreform 2001 beispielsweise die rentenrechtliche Anerkennung von Erziehung und Pflege. Eine veränderte Rentenformel wird die Transitionslasten des demographischen Übergangs mittelfristig gleichmäßiger über die Jahrgänge verteilen – durch eine Eindämmung des Beitrags¬satz¬anstiegs auf Kosten eines langsamer wachsenden Rentenniveaus. Die Nachhaltig¬keitsreform 2004 verstärkt diesen Mechanismus auf der Grundlage neuer empirischer Erkenntnisse. Auch der Übergang zur überwiegend nachgelagerten Besteuerung mit dem Alterseinkünftegesetz 2004 wirkt in diese Richtung durch eine wachsende steuerliche Absetz¬barkeit der Alters¬sicherungsbeiträge bei konsekutiver Einbeziehung der Renten in die Besteuerung. Auf der anderen Seite leiten die Reformen nichts Geringeres als einen tief greifenden Paradigmen¬wechsel ein: den langfristigen Übergang eines umlagefinanzierten Pflichtversicherungs¬- zu einem Drei-Säulen-System, in dem Zulagen und Steuerabzugs¬mechanismen Anreize zur freiwilligen Ergänzungsvorsorge in kapitalgedeckten Sicherungs¬instrumenten bilden. Für die wissenschaftliche Gesetzesfolgenabschätzung stellen diese Reformen eine enorme Herausforderung dar. Es ist das Moment der Freiheit, das in jedweder kausalen Welt Verantwortung impliziert, und die politische Folgenabschätzung spannend und schwierig macht. Die ökonomische Fachliteratur hat Mikrosimulationsmodelle als ein leistungsfähiges Analysewerkzeug entwickelt, fiskalische und distributive Konsequenzen "für den Tag danach" sehr detailliert abschätzen zu können – ohne dabei Verhaltensreaktionen zu berücksichtigen. Verhaltensreaktionen hingegen stehen im Mittelpunkt der rasant wachsenden Literatur zu numerischen Gleichgewichtsmodellen. Angesichts begrenzter Rechenressourcen vereinfachen diese Modelle in der Regel die Risikostruktur des ökonomischen Entscheidungsproblems, um sich auf wenige Zustands- und Entscheidungsvariablen beschränken zu können. Sie abstrahieren häufig von Unstetigkeiten in Budgetrestriktionen und konzentrieren sich auf stationäre Zustandstransitionen. Viele dieser Instrumente sind daher wenig geeignet abzuschätzen, wie sich Menschen an eine Reformpolitik anpassen, die lange Übergangs¬pfade vorsieht über mehrdimensionale, zeitinvariate Risikostrukturen, deren imperfekte Korrelationen zu einer risikodiversifizierenden Vorsorgestrategie genutzt werden kann. Das vorliegende Buch stellt ein dynamisch stochastisches Simulationsmodell im partiellen Erwartungsgleichgewicht vor. Sein Ziel ist, Anreize in der komplexen Interaktion der Reformen mit dem umfangreichen Regulierungsrahmen in einer risikoreichen Umwelt zu identifizieren. Die einzelnen Reformen, ihre algorithmische Abbildung in das dynamische Entscheidungsmodell und die partiellen Wirkungsmechanismen sind detailliert erläutert. Eines der Hauptergebnisse zeigt sich überraschender Weise darin, die beobachtbare Zurück¬haltung niedrigerer Einkommensklassen gegenüber den neuen Sicherungs¬instrumenten ohne Rückgriff auf (im ökokomischen Sinne) eingeschränkte Rationalitäten erklären zu können. Das Modell lässt insbesondere in mittleren Lebenseinkommensbereichen hohe Ergänzungs¬versicherungsraten erwarten – trotz der "u"-förmigen Förderquoten in statischer Quer¬schnitts¬betrachtung. Diese auf den ersten Blickt wenig intuitive Eigenschaft des Modells lässt sich im Gesamtkontext des Alterssicherungs- und Steuersystems über den erwarteten Lebenshorizont erklären. Das Simulationsmodell wurde am Fraunhofer-Institut für Angewandte Informationstechnik FIT entwickelt und wird gegenwärtig beim Verband der Rentenversicherungsträger (VDR) angewandt. Ein großer Dank gilt der finanziellen Förderung durch das Forschungsnetzwerk Alterssicherung (FNA) beim VDR. N2 - The German old age security system has seen three major reforms under the red-green govern¬ment, accomplished by a few more minor steps. On the one hand they intensify reform efforts visible since the early 90s. The 2001 reform, for example, continued to strengthen family related subsidies and changed the pension formula in a way that will contribute to a more equal distribution of financial burdens in the demographic transition among generations – by lowering the replacement rate and limiting the growth of contribution rates in the long run. The 2004 sustainability reform intensified that way under new, less favourable future expectations. The 2004 pension tax reform contributes to the same direction by lowering tax burdens of the contributing generations and raising taxes on pension payments in a long lasting transition to a (nearby) complete deferred taxation. On the other hand these reforms introduced nothing less than a deep paradigmatic change: a long run transition from a mandatory PAYG to a three pillar system, where direct subsidies and tax allowances set up incentives to supplement PAYG pensions by voluntary contributions to funded, private or company pensions. These reforms pose an enormous challenge to scientific policy advice. It is the moment of extended freedom – implying extended responsibility in every casual world – that makes estimating consequences of legal reforms exciting and difficult. Economic literature develo¬ped microsimulation models as powerful means to estimating fiscal and distributional consequences of legal reforms in great detail – “at the day after” without taking behavioural reactions into account. Behavioural reactions on the other hand are of main interest in a growing branch of literature that discusses computational equilibrium models. Due to computational limitations these models usually simplify the risk structure of the economic planning problem, reduce state and decision variables, abstract from real world unsteadiness in the budget restriction and concentrate on steady-/stationary state analysis or transitions between such states. Non of these instruments is well suited to estimate how people adapt to a reform policy that exposes them to long run instationary transition paths over a multi dimensional, time varying risk structure in which they can make use of expected imperfections in risk correlations for planning their optimal precautionary strategy. This book presents a stochastic dynamic simulation model in a partial expectation equilibrium, which was developed to identify incentives of the interacting complexity of these reforms embedded in a complicated institutional framework within a risky world. Institutions, their mapping into a computable dynamic decision model and their partial effects on startegic adaption are discussed in great detail. One of the main findings is surprisingly that it can explain restrained use of the new insurance instruments in lower income classes. From a strict “rational” point of view it forecasts high insurance rates especially in the middle income classes – although the one-year subsidy rates show a clear “u”-fashioned matter over gross income. This counterintuitive fact becomes clear taking into account the interactions of the new subsidies with the whole social security and tax system. The model was developed by the Fraunhofer Institute for Applied Information Technology (FIT) and is now run by the German Social Security Administration (VDR). Financial support by the Forschungsnetzwerk Alterssicherung (FNA) is gratefully acknowledged. KW - Deutschland KW - Altersversorgung KW - Inzidenz KW - Dynamisches Modell KW - Alterssicherung KW - Sozialpolitik KW - Lebenszyklussimulation KW - dynamisch stochastische Optimierung KW - numerische Gleichgewichtsmodelle KW - old age security KW - social policy KW - life cycle simulation KW - dynamic stochastic optimisation KW - numerical economics Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16163 ER - TY - THES A1 - Ganz, Verena T1 - A comprehensive approach for currency crises theories stressing the role of the anchor country T1 - Ein umfassender Ansatz zur Integration von Währungskrisen-Theorien unter besonderer Berücksichtigung der Bedeutung des Ankerlandes N2 - The approach is based on the finding that new generations of currency crises theories always had developed ex post after popular currency crises. Discussing the main theories of currency crises shows their disparity: The First Generation of currency crises models argues based on the assumption of a chronic budget deficit that is being monetized by the domestic central bank. The result is a trade-off between an expansionary monetary policy that is focused on the internal economic balance and a fixed exchange rate which is depending on the rules of interest parity and purchasing power parity. This imbalance inevitably results in a currency crisis. Altogether, this theory argues with a disrupted external balance on the foreign exchange market. Second Generation currency crises models on the other side focus on the internal macroeconomic balance. The stability of a fixed exchange rate is depending on the economic benefit of the exchange rate system in relation to the social costs of maintaining it. As soon as social costs are increasing and showing up in deteriorating fundamentals, this leads to a speculative attack on the fixed exchange rate system. The term Third Generation of currency crises finally summarizes a variety of currency crises theories. These are also arguing psychologically to explain phenomena as contagion and spill-over effects to rationalize crises detached from the fundamental situation. Apart from the apparent inconsistency of the main theories of currency crises, a further observation is that these explanations focus on the crisis country only while international monetary transmission effects are left out of consideration. These however are a central parameter for the stability of fixed exchange rate systems, in exchange rate theory as well as in empirical observations. Altogether, these findings provide the motivation for developing a theoretical approach which integrates the main elements of the different generations of currency crises theories and which integrates international monetary transmission. Therefore a macroeconomic approach is chosen applying the concept of the Monetary Conditions Index (MCI), a linear combination of the real interest rate and the real exchange rate. This index firstly is extended for international monetary influences and called MCIfix. MCIfix illustrates the monetary conditions required for the stability of a fixed exchange rate system. The central assumption of this concept is that the uncovered interest parity is maintained. The main conclusion is that the MCIfix only depends on exogenous parameters. In a second step, the analysis integrates the monetary policy requirements for achieving an internal macroeconomic stability. By minimizing a loss function of social welfare, a MCI is derived which pictures the economically optimal monetary policy MCIopt. Instability in a fixed exchange rate system occurs as soon as the monetary conditions for an internal and external balance are deviating. For discussing macroeconomic imbalances, the central parameters determining the MCIfix (and therefore the relation of MCIfix to MCIopt) are discussed: the real interest rate of the anchor country, the real effective exchange rate and a risk premium. Applying this theory framework, four constellations are discussed where MCIfix and MCIopt fall apart in order to show the central bank’s possibilities for reacting and the consequences of that behaviour. The discussion shows that the integrative approach manages to incorporate the central elements of traditional currency crises theories and that it includes international monetary transmission instead of reducing the discussion on an inconsistent domestic monetary policy. The theory framework for fixed exchange rates is finally applied in four case studies: the currency crises in Argentina, the crisis in the Czech Republic, the Asian currency crisis and the crisis of the European Monetary System. The case studies show that the developed monetary framework achieves integration of different generations of crises theories and that the monetary policy of the anchor country plays a decisive role in destabilising fixed exchange rate systems. N2 - Die Arbeit baut auf dem Befund auf, dass zur Erklärung von Währungskrisen stets im Nachgang bedeutender Krisen eine neue Generation wissenschaftlicher Theorien entwickelt wurde. Eine Diskussion der bedeutendsten Theorien verdeutlicht, dass diese in ihrer Argumentation untereinander und in sich inkonsistent sind: Modelle Erster Generation bauen auf der Annahme chronischer Budgetdefizite auf, die die heimische Notenbank monetarisiert. Dieser Zielkonflikt zwischen einer expansiven, binnenwirtschaftlich ausgerichteten Geldpolitik und dem den Gesetzen der Zins- und Kaufkraftparität unterliegenden Wechselkursziel mündet unvermeidlich in einer Währungskrise. Die Theorie bezieht sich demnach klar auf das externe Gleichgewicht am Devisenmarkt. Währungskrisenmodelle der Zweiten Generation stellen dagegen das interne, binnenwirtschaftliche Gleichgewicht in den Mittelpunkt. Der Erfolg eines Wechselkurszieles hängt hiernach vom Nutzen des Festkurssystems in Relation zu den Kosten seiner Verteidigung ab. Steigen die sozialen Kosten in Form konjunktureller Belastungen, führt dies ab einem bestimmten Level über antizipierende Markterwartungen zu einer spekulativen Attacke auf den Festkurs. Unter dem Obergriff der Dritten Generation von Krisenmodellen schließlich werden verschiedene Modelle zusammengefasst, die psychologische Erklärungsansätze miteinbeziehen, um Phänomene wie Ansteckungseffekte zu erklären. Dadurch können Krisenentwicklungen losgelöst von der jeweiligen Fundamentaldatenlage rationalisiert werden. Neben der offensichtlichen Inkonsistenz der zentralen Argumente der jeweiligen Theorien ist eine weitere Beobachtung, dass die Erklärungen jeweils im betroffenen Land ansetzen, während eine grenzüberschreitende monetäre Transmission außer Acht gelassen wird. Diese ist jedoch sowohl in der Empirie als auch in der Theorie zu Wechselkurssystemen ein zentraler Einflussfaktor für die Stabilität von Festkurssystemen. Aus diesen Befunden leitet sich die Motivation für die vorliegende Arbeit ab, ein die verschiedenen Krisengenerationen integrierendes theoretisches Rahmenwerk zu entwickeln, in dem grenzüberschreitende monetäre Transmissionseffekte in die Diskussion mit einbezogen werden. Zu diesem Zweck wird ein makroökonomischer Ansatz gewählt, der das Konzept des Monetary Conditions Index (MCI) anwendet, einer Linearkombination aus Realzins und realem Wechselkurs. Dieser Index wird zum einen um internationale monetäre Einflüsse erweitert zu einem MCIfix, der die monetären Anforderungen an ein funktionierendes Festkurssystem wiederspiegelt. Zentrale Annahme hierfür ist die Einhaltung der ungedeckten Zinsparität. Die wesentliche Erkenntnis ist, dass alle Determinanten des MCIfix für die Notenbank exogene Parameter sind. In einem zweiten Schritt bezieht die Arbeit die binnenwirtschaftlichen Anforderungen einer Volkswirtschaft an die Geldpolitik in die Analyse ein. Dazu wird durch Minimierung einer Verlustfunktion an gesellschaftlicher Wohlfahrt ein MCI abgeleitet, der die binnenwirtschaftlich optimale Geldpolitik abbildet (MCIopt). Instabilität des Festkurssystems droht, sobald die geldpolitischen Bedingungen für das binnenwirtschaftliche und außenwirtschaftliche Gleichgewicht auseinanderfallen. Zur Diskussion makroökonomischer Ungleichgewichte werden die entscheidenden Parameter, die den MCIfix und damit die Relation von MCIfix und MCIopt bestimmen, diskutiert: der Realzins des Ankerlandes, der reale effektive Wechselkurs und eine Risikoprämie. Mit diesem Theorie-Instrumentarium stellt die Arbeit dann vier Konstellationen dar, in denen MCIfix und MCIopt auseinanderfallen, und diskutiert mögliche Verhaltensweisen der Notenbank und deren Folgen. Der MCI, für den sich die Notenbank tatsächlich entscheidet, wird als MCIact bezeichnet. Jeder der vier Fälle endet in einer Währungskrise. Es zeigt sich in der Diskussion, dass der hier verwendete Ansatz die zentralen Elemente traditioneller Krisentheorien integriert und die Diskussion monetärer Einflüsse von außen zulässt, anstatt ausschließlich von einem ursächlichen Verschulden der heimischen Notenbank auszugehen. Das theoretische Modell wird schließlich in vier Fallstudien angewandt: Der Argentinienkrise, dem Zusammenbruch des tschechischen Währungsregimes, der Asienkrise und der Krise des Europäischen Währungssystems. Die Fallstudien zeigen, dass sich mit dem entwickelten Modellrahmen Krisen verschiedener Generationen abbilden lassen und die Geldpolitik des Ankerlandes eine zentrale Rolle bei einer Destabilisierung eines Festkurssystems spielt. KW - Devisenmarkt KW - Wechselkurspolitik KW - Währungskrise KW - Fester Wechselkurs KW - Monetary Conditions Index KW - Ankerland KW - internes Gleichgewicht KW - externes Gleichgewicht KW - Monetary Conditions Index KW - anchor country KW - internal balance KW - external balance Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26853 ER - TY - THES A1 - Ahn, Young-Cheul T1 - Umweltverschmutzung als länderübergreifendes Problem am Beispiel der globalen Erwärmung T1 - xxx N2 - Diese Arbeit versucht, die wirtschaftliche Bedeutung der globalen Erwärmung zu erklären und die Lösung dieses Problems zu finden. Die globale Erwärmung als länderübergreifendes Problems kann durch das marktwirtschaftliche Preissystem gelöst werden, besonders durch den internationalen Handel der Schadstoffemission. Hierbei wird die dezentrale Lösungsprinzip betont. Die globale Erwärmung und Politik für die Lösung dieses Problem sind dauerhaft. Daher wird das intertemporale Wachstumsmodell zur Berechnung des Gewinns und der Kosten der Politik verlangt. Dabei wird ein Prinzip besagt, dass jede Generation verantwortlich auf ihre Generation ist. In dieser Arbeit wird versucht, die optimale Handelspolitik und die Kyoto-Politik zu vergleichen. KW - Umweltverschmutzung KW - Externalität KW - Internationaler Handel KW - Pollution KW - Externality KW - International Trade Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-22860 ER - TY - THES A1 - Mayer, Eric T1 - New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions N2 - No abstract available N2 - Die vorliegende Arbeit verwendet und erweitert einen neukeynesianischen Analyserahmen (Woodford, 2003), um zentrale Fragestellungen des geld- und fiskalpolitischen Designs in geschlossenen Währungsräumen und Währungsunionen zu thematisieren. Der Verfasser stellt dar, dass die neukeynesianische Theorie es möglich macht, mikrofundiert und keynesianisch zugleich zu denken. Ausgangspunkt ist eine stilisierte, dynamisch-stochastische Ökonomie, in der repräsentative Haushalte und Unternehmen in einem allgemeinen Gleichgewichtsrahmen interagieren. Die Einführung von Preisrigiditäten bei monopolistischer Konkurrenz ist von zentraler Bedeutung. Die Notenbank kann bei rigiden Preisen durch geschickte Zinspolitik jener Allokation nahe kommen, die sich ergeben hätte, wenn Preise flexible gewesen wären. Die Innovation in Kapital 2 besteht darin, dass das neukeynesianische Modell in einen statischen Modellrahmen überführt wird, ohne dass zentrale Einsichten verloren gehen. Der so abgeleitete Analyserahmen bietet eine Alternative zum IS/LM-AS/AD Model und ermöglicht eine überzeugende Analyse geldpolitischer Strategien, wie etwa der des „Inflation-Targetings“. In Kapitel 3 wird dieser Modellrahmen zur Analyse von geld- und fiskalpolitischer Interaktion mit dezentralen fiskalpolitischen Akteuren für den Euroraum herangezogen. Die Referenzliteratur ist Dixit und Lambertini (2003). Es wird gezeigt, dass nationale Autoritäten bei asymmetrischen Schocks und nicht integrierten Produktmärkten eine bedeutsame stabilisierungspolitische Aufgabe haben. Insbesondere Angebotschocks in einzelnen Teilnehmerstaaten haben dramatisch andere Wirkungen auf den Konjunkturzyklus, als in einem geschlossenen Währungsraum. Diese angebotsseitigen Effekte werden in der relevanten Literatur vollständig ausgeblendet. In Kapitel 4 werden neukeynesianische Makromodelle für relativ geschlossene Volkswirtschaften (USA) und Währungsräume (Europäische Währungsgemeinschaft) verwand, um ein geeignetes makroökonomisches Design aus neukeynesianischer Perspektive abzuleiten. Das Model wird mittels eines Minimum Distance Ansatzes geschätzt (Christiano, Eichnbaum, Evans, 2005). Es lassen sich folgende Ergebnisse zusammenfassen. Für die USA wurde gezeigt, dass das neukeynesianische Modell eine ausgewogene Mischung aus rückwertsschauenden und vorausschauenden Akteuren benötigt, um die Daten adäquat abzubilden. Der Schwerpunkt der amerikanischen Notenbankpolitik liegt auf der Stabilisierung der Inflationsrate um das Inflationsziel. Darüber hinaus führt die Implementierung einer stabilisierenden Regel zu sich selbst stabilisierenden Erwartungen und dadurch zu einem stabileren Konjunkturzyklus. Für den Euroraum wurde untersucht, ob der Stabilitäts- und Wachstumspakt die Risiken und Chancen die eine aktivistische Fiskalpolitik beinhaltet hinreichend austariert. Hierbei kommt der Verfasser zu dem Ergebnis, dass die gegenwärtige Ausgestaltung des Stabilitäts- und Wachstumspaktes keine tragfähige Lösung darstellt, da bei realistischen Annahmen über die Größe und Verteilung der Störgrößen es sehr wahrscheinlich ist, dass sachlich ungerechtfertigte Sanktionsmechanismen gegen einzelne Teilnehmerstaaten in Gang gesetzt werden. Insofern schlägt der Verfasser vor, den Stabilitäts- und Wachstumspakt dahingehend zu ändern, dass man nicht auf die fiskalpolitische Instrumentenebene abstellt, sondern auf die Zielebene. Sanktionen sollten demnach nur dann verhangen werden, wenn simultan hohe Inflationsraten und hohe Defizite attestiert werden können. Dieser „Inflation-Targeting“ Ansatz reduziert die Wahrscheinlichkeit, dass irrtümlicherweise Sanktionen verhangen werden. Im abschließenden Kapitel werden die zentralen Einsichten zusammengefasst. Hierbei wird noch einmal darauf verwiesen, dass Schätzungen darauf hindeuten (Canzoneri, Cumby and Diba, 2004), dass ein repräsentativer Haushalt bereit wäre bis zu drei Prozent seines Einkommens für eine wirksame Stabilisierungspolitik zu zahlen. Literaturhinweise CANZONERI, MATHEW B., ROBERT E CUMBY, AND BEHZAD T. DIBA (2004), The Costs of Nominal Inertia in NNS Models, NBER Working Paper No. 10889, November 2004. CHRISTIANO, J. LARRY, MARTIN EICHENBAUM, AND CHARLES EVANS (2005), Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy, Journal of Political Economy, vol.113, no.1, pp. 1-45. DIXIT, AVINASH K, AND LUISA LAMBERTINI (2003), Symbiosis of Monetary and Fiscal Policies in a Monetary Union, Journal of International Economics, vol. 60 no. 2, pp. 235-247. WOODFORD, MICHAEL (2003), Interest and Prices, Foundations of a Theory of Monetary Policy, Princeton University Press, Princeton 2003. KW - Geldtheorie KW - Neokeynesianismus KW - Neukeynesianisch KW - Währungsraum KW - Geld- und Fiskalpolitik KW - New Keynesian KW - monetary union KW - monetary and fiscal policy Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19499 ER - TY - THES A1 - Kleer, Robin T1 - Three Essays on Competition Policy and Innovation Incentives T1 - Drei Aufsätze über Wettbewerbspolitik und Innovationsanreize N2 - Diese Dissertation befasst sich mit dem Thema Innovationsökonomik. In einer allgemeinen Einführung werden wettbewerbspolitische Gesichtspunkte, die Innovationsanreize von Firmen beeinflussen, dargestellt. In drei einzelnen Arbeiten werden dann spezielle Fragestellungen intensiver analysiert. Die erste Arbeit behandelt die Wechselwirkungen von Firmenzusammenschlüssen und Innovationen, zwei zentrale Elemente der Wettbewerbsstrategie von Unternehmen. Der Schwerpunkt der Arbeit liegt dabei auf dem Einfluss von Firmenzusammenschlüssen auf die Innovationsaktivitäten und den Wettbewerb im Produktmarkt. Dabei werden auch mögliche Ineffizienzen, die sich durch Probleme bei der Integration der Firmen nach dem Zusammenschluss ergeben, untersucht. Es wird gezeigt, dass die optimale Investitionsaktivität sehr stark von der sich ergebenden Marktstruktur abhängt und es signifikante Unterschiede zwischen Insider und Outsider des Firmenzusammenschlusses gibt. In dem Modell mit linearer Nachfragefunktion und konstanten Grenzkosten steigern Zusammenschlüsse die soziale Wohlfahrt. Die zweite Arbeit betrachtet die unterschiedlichen Vorteile von kleinen und großen Firmen im Innovationswettbewerb. Während große Firmen typischerweise über einen besseren Zugang zu Produktmärkten verfügen, weisen kleine Firmen häufig eine bessere Forschungseffizienz auf. Diese verschiedenen Vorteile werfen unmittelbar die Frage nach Kooperationen auf. Im dargestellten Modell mit vier Unternehmen haben große Firmen die Möglichkeit kleine Firmen zu kaufen. Innovationen werden mittels Patentwettbewerb modelliert. Sequentielles Bieten ermöglicht es der ersten großen Firma strategisch zu handeln um eine Reaktion der zweiten großen Firma hervorzurufen. Ergeben sich hohe Effizienzen durch den Firmenzusammenschluss, so bevorzugen die großen Firmen eine unmittelbare Akquisition und es entsteht eine symmetrische Marktstruktur. Bei geringen Effizienzen wartet die erste Firma dagegen ab und zwingt die zweite Firma dadurch zum Kauf. Somit entsteht trotz symmetrischer Ausgangssituation eine asymmetrische Marktstruktur. Weiterhin wird gezeigt, dass Akquisitionen die Chancen für eine erfolgreiche Innovation erhöhen. Die dritte Arbeit befasst sich mit Forschungssubventionen. Dabei wird neben dem eigentlichen Ziel der Subvention -- der Förderung sozial erwünschter Projekte, die nicht genügend private Anreize zur Durchführung bieten -- die Signalwirkung einer Subvention betrachtet. Eine Staatsbehörde untersucht dabei die Projekte auf Risiken und Wohlfahrtswirkungen und entscheidet daraufhin über eine Förderung. Dies wird in einem einfachen Signalisierungsspiel mit zwei Risikoklassen von Forschungsprojekten modelliert. Die Staatsbehörde bevorzugt dabei riskante Projekte, die hohe erwartete soziale Gewinne versprechen, während Banken wenig riskante Projekte mit hohen privaten Gewinnen bevorzugen. Ermöglicht die Subvention lediglich die Unterscheidung von riskanten und weniger riskanten Projekten, so ist das Signal der Behörde wenig hilfreich für die Investitionsenscheidung der Banken. Bietet das Signal jedoch zusätzlich einen Hinweis auf die Qualität der Projekte, so können sich erhöhte, bzw. effizienter ausgewählte, private Investitionen ergeben. Im letzten Kapitel werden die wichtigsten Aussagen zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erläutert. N2 - This thesis deals with the economics of innovation. In a general introduction we illustrate how several aspects of competition policy are linked to firms' innovation incentives. In three individual essays we analyze more specific issues. The first essay deals with interdependencies of mergers and innovation incentives. This is particularly relevant as both topics are central elements of a firm's competitive strategy. The essay focuses on the impact of mergers on innovative activity and competition in the product market. Possible inefficiencies due to organizational problems of mergers are accounted for. We show that optimal investment strategies depend on the resulting market structure and differ significantly from insider to outsider. In our linear model mergers turn out to increase social surplus. The second essay analyzes the different competitive advantages of large and small firms in innovation competition. While large firms typically have a better access to product markets, small firms often have a superior research efficiency. These distinct advantages immediately lead to the question of cooperations between firms. In our model we allow large firms to acquire small firms. In a pre-contest acquisition game large firms bid sequentially for small firms in order to combine respective advantages. Innovation competition is modeled as a patent contest. Sequential bidding allows the first large firms to bid strategically to induce a reaction of its competitor. For high efficiencies large firms prefer to acquire immediately, leading to a symmetric market structure. For low efficiencies strategic waiting of the first large firm leads to an asymmetric market structure even though the initial situation is symmetric. Furthermore, acquisitions increase the chances for successful innovation. The third essay deals with government subsidies to innovation. Government subsidies for research and development are intended to promote projects with high returns to society but too little private returns to be beneficial for private investors. Apart from the direct funding of these projects, government grants may serve as a signal of good investments for private investors. We use a simple signaling model to capture this phenomenon and allow for two types of risk classes. The agency has a preference for high risk projects as they promise high expected social returns, whereas banks prefer low risk projects with high private returns. In a setup where the subsidy can only be used to distinguish between high and low risk projects, government agency's signal is not very helpful for banks' investment decision. However, if the subsidy is accompanied by a quality signal, it may lead to increased or better selected private investments. The last chapter summarizes the main findings and presents some concluding remarks on the results of the essays. KW - Wettbewerbspolitik KW - Innovation KW - Firmenzusammenschlüsse KW - Patentwettbewerb KW - Forschungssubventionen KW - Competition Policy KW - Innovation Incentives KW - Mergers and Acquisitions KW - Patent Contest KW - Subsidies Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-34763 ER - TY - GEN A1 - Fricke, Holger T1 - Deutschland dezentral - Potenziale, Probleme, politische Perspektiven T1 - Germany decentralized - potentials, problems, political perspectives N2 - Dezentrale, wettbewerblich organisierte föderale Ordnungen, bei denen zentrale Kompetenzen auf niedrigen institutionellen Ebenen liegen und in denen Gebietskörperschaften eine vergleichsweise geringe Größe aufweisen, sind mit beträchtlichen Vorteilen verbunden. So ist es besser möglich, den Präferenzen der Bürger gerecht zu werden. Außerdem wird ein höheres Wirtschaftswachstum angeregt. Die in der Theorie genannten Nachteile (unausgeschöpfte Größenvorteile, negative Auswirkungen externer Effekte, race to the bottom bei öffentlichen Leistungen und Sozialstaat) finden hingegen nur geringe empirische Bestätigung. Vor diesem Hintergrund ist der kooperative Föderalismus der Bundesrepublik Deutschland kritisch zu bewerten. Insbesondere der Länderfinanzausgleich als Kernelement der bundesstaatlichen Ordnung in Deutschland ist ineffizient und bremst das Wirtschaftswachstum. Um von den Vorteilen dezentraler, wettbewerblicher föderaler Ordnungen profitieren zu können, sollte den Bundesländern insbesondere substanzielle Finanzautonomie eingeräumt werden. Die Heterogenität politischer Präferenzen abhängig von gewählter staatlicher Ebene, Größe von Gebietskörperschaften und simulierten Länderneugliederungen wurde anhand von Bundestagswahlergebnissen untersucht. Die entsprechende Analyse befindet sich als Anhang an dieser Stelle, während die Dissertation in gedruckter Form erschienen ist. N2 - In addition to the dissertation, this appendix contains an analysis of elections in Germany. KW - Fiskalföderalismus KW - Ökonomische Theorie des Föderalismus KW - Deutschland KW - Deutschland <Östliche Länder> KW - Länderfinanzausgleich KW - Dezentralisation KW - Standortwettbewerb KW - fiscal federalism KW - locational competition Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36106 N1 - Die vollständige Arbeit ist im Verlag Dr. Kovac erschienen: http://www.verlagdrkovac.de/978-3-8300-4629-5.htm ER - TY - THES A1 - Stark, Peter T1 - Funktionalität, Effizienz und Deregulierungspotentiale der öffentlichen Straßeninfrastrukturbereitstellung T1 - Functionality, Efficiency and Potentials of Deregulation of Public Road Provision N2 - Innerhalb der Verkehrsinfrastrukturen ist das Straßenwesen mit seinen individualistischen und flexiblen Kraftfahrzeugen der große Gewinner des letzen Jahrhunderts. Trotz seines individualistischen Nutzungscharakters und privatwirtschaftlichen Beispielen in anderen Ländern ist in Deutschland heute keine andere Verkehrsinfrastruktur so weit von einer Deregulierung entfernt wie die Straßen. Den Ausgangspunkt der Erklärung dieser Rigidität bildet eine Situationsaufnahme der bestehenden Marktorganisation. Prägnant erweist sich die tiefe Integration der Straßenbereitstellung in die öffentliche Verwaltung und Entscheidungen über den politischen Prozess unter Beteiligung aller Gesellschaftsgruppierungen. Fragen wirft dabei unter anderen die kontroverse Diskussion um die Externalitäten der Straßen und ihres Verkehrs auf. Die Klärung verweist auf eine Effizienzbetrachtung des bestehenden Bereitstellungssystems. Problematisch zeigt sich hier aufgrund der politischen Heterogenität der Gesellschaftsgruppierungen insbesondere der politische Entscheidungsprozess. Die Suche nach einer Lösung verweist auf privatwirtschaftliche Bereitstellungsalternativen. Es zeigt sich, dass hierfür sowohl in rechtlicher wie auch technischer Hinsicht die notwendigen Rahmenbedingungen für eine privatwirtschaftliche Organisation ebenso bestehen wie auch erhebliche Effizienzgewinne zu erwarten wären. Als eigentliches Hindernis identifiziert sich auch hier eine Neuordnung, die notwendigerweise über den politischen Prozess stattfindenden muss. Der eigene Erfolg der Straßen mit seiner gewachsenen verkehrs- und fiskalpolitischen Bedeutung blockiert damit heute mehr denn je Hoffnungen auf eine Lösung der aufgelaufenen Probleme im Straßenwesen. N2 - Among the various transportation infrastructures it is the roadways which represent the great success story of the last century, allowing flexible and individual use of motor vehicles. Despite the empowerment of the individual and private-sector examples in other countries, no other part of the transportation infrastructure is so far removed from achieving deregulation as the roadways of today. Forming the starting point of any explanation of this rigidity is a consideration of the existing market organization. Proving to be of great significance is the fact that the provisioning of roadways has traditionally been deeply integrated within public administration and decision making by the political process with participation of all public groups. The question thereby raised is the controversial discussion of externalities in connection with roadways and motor vehicles. Clarification of this issue requires an efficiency analysis of the current system. Manifesting itself as particularly problematic is the political decision making process due to heterogeneous social groups. The attempt to localize a solution leads to the possibility of a private economic reorganization. It becomes apparent that the necessary juristic and technical frameworks for private reorganization exist and that significant gains in efficiency could be expected. The effective obstacle proves to be the necessary reorganisation by the political process. It is the very success itself of the roadway networks, with their ever growing transportation and fiscal-political importance, which hinders prospective solutions to the accrued problems of the road-based infrastructure. KW - OKSTRA KW - Öffentliches Straßenwesen KW - Deregulierung Verkehrsinfrastruktur KW - Public Road Provision KW - Deregulation of Infrastructur Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27479 ER - TY - THES A1 - Wollmershäuser, Timo T1 - A theory of managed floating T1 - Eine Theorie des Managed Floatings N2 - After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as ‘independent floaters’ in the IMF statistics were charaterised by a pronounced ‘fear of floating’ and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that – even though it is widely used in practice – has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few ‘middle-ground’ economists, John Williamson, who argued that “managed floating is not a regime with well-defined rules” (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank’s final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker’s quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank’s final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank’s effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables. N2 - Auf modelltheoretischer Ebene wird die Diskussion geld- und währungspolitischer Strategien von den beiden Randlösungen absolut fester Wechselkurse und frei-flexibler Wechselkurse geprägt. In der Realität allerdings stellen diese beiden Strategien eher die Ausnahme als die Regel dar. Während die traditionelle einseitige Wechselkursanbindung zunehmend an Bedeutung verliert, entscheidet sich eine wachsende Anzahl von Ländern, insbesondere kleine und offene Emerging Market Volkswirtschaften, für eine zunehmende Flexibilisierung ihres Wechselkursregimes. Allerdings ist die Bereitschaft, den Wechselkurs vollkommen den freien Kräften des Marktes zu überlassen, sehr eingeschränkt. Dafür sprechen insbesondere zwei stilisierte Fakten: Zum einen greifen Notenbanken direkt am Devisenmarkt mit sterilisierte Käufen und Verkäufen von Fremdwährung ein. Zum anderen versuchen Notenbanken indirekt mit ihrem Zinsinstrument Einfluss auf den Verlauf des Wechselkurses zu nehmen, indem sie auf seine Veränderungen mit Anpassungen der Zinsen reagieren. Während die Literatur in beiden Fällen von einem System des Managed Floatings spricht, wurde im Rahmen der vorliegenden Arbeit Ersteres als direktes Managed Floating, und Letzteres als indirektes Managed Floating bezeichnet. Gemeinsames Merkmal beider Formen des Managed Floatings ist, dass für sie im Rahmen makroökonomischer Modelle offener Volkswirtschaften keine Rechfertigung abzuleiten ist. Insbesondere Neukeynesianische bzw. Neokeynesianische Modelle, auf deren Grundlage moderne Geldpolitik diskutiert wird, kommen zu dem Ergebnis, dass eine geeignete Zinspolitik auf Basis frei-flexibler Wechselkurse (also ohne direkte Devisenmarktinterventionen und ohne indirekte Beeinflussung durch Zinsen) zu einer bestmöglichen Stabilisierung der Volkswirtschaft beiträgt. Die entscheidende Annahme, die diesem Ergebnis zugrunde liegt, ist, dass sich der Wechselkurs auf effizienten Devisenmärkten und gemäß eines klar definierten Wechselkursmodells bildet. Normalerweise wird daher in den meisten Modellen die Gültigkeit der ungedeckten Zinsparität unterstellt. Empirische Untersuchungen kommen allerdings regelmäßig und mit überraschender Eindeutigkeit zu dem Befund, dass der Zusammenhang zwischen Zinsen und Wechselkurs entsprechend der ungedeckten Zinsparität bei flexiblen Wechselkursen statistisch nicht nachweisbar ist, und sprechen daher gar von einer Anomalie des Devisenmarktes. Berücksichtigt man diese Anomalie bei der Modellierung geldpolitischer Entscheidungen, kehrt sich die Überlegenheit frei-flexibler Wechselkurse gegenüber den beiden Formen des Managed Floatings ins Gegenteil um. Dieses zentrale Ergebnis, das eine ökonomische Ratio für das beobachtete Verhalten vieler Notenbanken in kleinen und offenen Volkswirtschaften liefert, wird in zwei Schritten hergeleitet. Zum einen lässt sich durch die Berücksichtigung von Wechselkursunsicherheit die Strategie des indirekten Managed Floatings begründen. Wechselkursunsicherheit wird definiert als die (nicht quantifizierte) Wahrscheinlichkeit, dass anstelle der ungedeckten Zinsparität ein anderes Wechselkursmodell das tatsächliche Zusammenspiel zwischen den beiden Finanzmarktgrößen Zins und Wechselkurs bestimmt. In der vorliegenden Arbeit wird gezeigt, dass sich Zinsregeln, die neben der Inflationsrate und der Outputlücke (wie unter frei-flexiblen Wechselkursen) auch auf den zeitgleichen und den zeitverzögerten realen Wechselkurs reagieren, als äußerst robust gegenüber einem hohen Maß an Wechselkursunsicherheit erweisen. Zum anderen lassen sich durch Abweichungen von der ungedeckten Zinsparität direkte sterilisierte Devisenmarktinterventionen begründen. Neben dem Geldmarktzins können Notenbanken somit gleichzeitig und unabhängig vom Geldmarktzins den Wechselkurs steuern. Allerdings muss für die Wechselkurssteuerung – ebenso wie für die Zinssteuerung – ein geeignetes Steuerungssystem (Strategie) entworfen werden, dass der Notenbank klare Handlungsweisungen liefert. In der vorliegenden Arbeit werden zunächst die Wirkungskanäle sterilisierter Interventionen diskutiert. Anschließend wird eine geldpolitische Regel auf der Basis eines aus Geldmarktzins and Wechselkurs zusammengesetzten Operating Targets, des sog. Monetary Conditions Indexes, entworfen. Es zeigt sich, dass eine Strategie des direkten Managed Floatings bei entsprechendem Einsatz der beiden Notenbankinstrumente zu denselben Ergebnissen (gemessen am Stabilisierungsziel der Notenbank) führt, wie sie sich auch unter frei-flexiblen Wechselkursen bei Gültigkeit der ungedeckten Zinsparität ergeben würden. Sterilisierte Devisenmarktinterventionen stellen somit ein zusätzliches Instrument der Geldpolitik dar, dass die aus der Wechselkursunsicherheit resultierenden negativen Auswirkungen auf die geldpolitischen Endziele kompensiert. KW - Managed Floating KW - Devisenmarktinterventionen KW - Inflation Targeting KW - Zinsregeln KW - Monetary Conditions Index KW - managed floating KW - foreign exchange market interventions KW - inflation targeting KW - interest rate rules KW - monetary conditions index Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8676 ER - TY - THES A1 - Hülsewig, Oliver T1 - Bank lending and monetary policy transmission in Germany T1 - Kreditvergabe der Banken und geldpolitische Transmission in Deutschland N2 - This study investigates the credit channel in the transmission of monetary policy in Germany by means of a structural analysis of aggregate bank loan data. We base our analysis on a stylized model of the banking firm, which specifies the loan supply decisions of banks in the light of expectations about the future course of monetary policy. Using the model as a guide, we apply a vector error correction model (VECM), in which we identify long-run cointegration relationships that can be interpreted as loan supply and loan demand equations. In this way, the identification problem inherent in reduced form approaches based on aggregate data is explicitly addressed. The short-run dynamics is explored by means of innovation analysis, which displays the reaction of the variables in the system to a monetary policy shock. The main implication of our results is that the credit channel in Germany appears to be effective, as we find that loan supply effects in addition to loan demand effects contribute to the propagation of monetary policy measures. N2 - Die vorliegenden Arbeit untersucht die Existenz des Kreditkanals in der geldpolitischen Transmission in Deutschland im Rahmen einer strukturellen Analyse von aggregierten Kreditmarktdaten. Die Analyse stützt sich auf ein Modell des Bankenverhaltens, welches die Kreditvergabeentscheidungen der Banken vor dem Hintergrund zukünftig erwarteter geldpolitischer Maßnahmen beleuchtet. Mit Hilfe eines Vektorfehlerkorrekturmodells (VECM) werden Langfristbeziehungen, die als Kreditangebots- und Kreditnachfragegleichungen interpretiert werden können, durch die Wahl von Restriktionen auf Kointegrationsvektoren hergeleitet. Auf diese Weise wird das Identifikationsproblem, welches bei Schätzungen von reduzierten Formen auf der Basis von aggregierten Daten auftritt, explizit angegangen. Die kurzfristige Dynamik des VECM wird anhand von Impuls-Antwort-Funktionen und Varianzzerlegungen dargestellt, die den Einfluss eines geldpolitischen Schocks auf die Variablen des Systems beschreiben. Die empirischen Ergebnisse deuten auf die Relevanz des Kreditkanals in Deutschland hin, da Kreditangebotseffekte zusätzlich zu Kreditnachfrageeffekten einen Einfluss auf die Übertragung von geldpolitischen Maßnahmen haben. KW - Kreditvergabe KW - geldpolitische Transmission KW - Kreditkanal KW - Vektorfehlerkorrekturmodell KW - Bank lending KW - monetary policy transmission KW - credit channel KW - vector error correction model Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8686 ER - TY - THES A1 - Schlegtendal, Götz T1 - Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Berücksichtigung betriebswirtschaftlicher Aspekte T1 - The value of flexible payment components with regards to business aspects N2 - Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gründe ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit über verschiedene Theorien erklärt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, überhöhte Reallöhne zurückgeführt werden. Unterschiedliche Einflüsse verhindern dann ein Absinken des Lohnniveaus auf ein vollbeschäftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungenügenden Anpassungskapazitäten an veränderte Rahmenbedingungen sind eine weitere Begründung für die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer Höhe und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, können einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungslöhne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivitätsorientierten Entlohnung bei, mit positiven Effekten für Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman‘s kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erhöhter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitsplätze sichern. Neben diesen drei Hauptformen werden auch Investivlöhne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivlöhne (zur Überwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und Führungskräften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung ergänzt werden können. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige Lösung der Arbeitslosigkeit bietet. Vielmehr müssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die Höhe und Ausgestaltung der Lohnersatzleistungen sowie die Stärkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen. N2 - Subject of this study are the impacts of flexible compensation components (incentive wage, profit-sharing, employee share ownership) at the industry and economy level. Starting point is the analysis of existing unemployment with regards to original causes and the reasons for persistency. The conclusion is that existing unemployment can be explained by several theories and may be divided into various A major part of the unemployment can be explained by unflexible, exzessive real wages. Various influences prevent the wages to drop to a level conform with full employment.parts. Structural causes like misdevelopments at the labour market and insufficient capacities to adapt to a new environment are another reason for high and sustainable unemployment. Wages, which are flexible in their sectoral, regional and professional dimension, can have a major contribution to reduce unemployment. Following this economic approach the next chapter is focused on the industrial aspects of compensation in the view of enterprises and employees. Following these basis three different options to make compensation flexible with respect to industrial and economical effects will be analysed. Incentives wages respect either the quantity or the quality of work. In this sense they contribute to a compensation linked to productivity, with positive impact to companies and the total economy. Since Weitzman`s controversal "Share Economy" profit-sharing is viewed as a way to reduce unemployment. The linkage between company success and compensation seems to have positive results for employees, companies and the unemployed. Employee share ownership seems to be no way to influence unemployment directly. On the other hand positive relation between motivation and participation might reduce the risk of rising unemployment. The money raised by participation might secure employment depending on the rules. Investive wages (Investivlöhne) and stock options might be another way to make compensation more flexible. Investive wages (often used to overcome the lack of equity in companies) have similiar effects to profit-sharing and share ownership whereas stock options only adress smaller groups of employees and managers. The final chapter describes the optimal composition of a compensation model. It concludes a basic wage, an incentive wage and some kind of profit-sharing. Employee share ownership might be an optional part of it. Once again will be emphasized, that a flexible form of compensation is not an isolated way to reduce unemployment. In fact it must be accompagnied by structurell reforms as adressing the balance of power at the labour market, the level and rules of social welfare and the strengthening of economic growth. KW - Arbeitsmarkt KW - Lohnflexibilität KW - Arbeitslosigkeit KW - Entlohnung KW - Erfolgsbeteiligung KW - Leistungslohn KW - Kapitalbeteiligung KW - Unemployment KW - compensation KW - profit-sharing KW - incentive wage KW - employee share ownership Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-5277 ER - TY - THES A1 - Rönnberg, Michael T1 - Bedeutung der Spezifikation für Ratingmodelle T1 - Impact of model specification on credit rating models N2 - Ziel dieser Arbeit ist die Untersuchung der Bedeutung der Spezifikation für Ratingmodelle zur Prognose von Kreditausfallwahrscheinlichkeiten. Ausgehend von dem in der Bankenpraxis etablierten Logit-Modell werden verschiedene Modellerweiterungen diskutiert und hinsichtlich ihrer Eigenschaften als Ratingmodelle empirisch und simulationsbasiert untersucht. Die Interpretierbarkeit und die Prognosegüte der Modelle werden dabei gleichermaßen berücksichtigt. Besonderes Augenmerk wird auf Mixed Logit-Modelle zur Abbildung individueller Heterogenität gelegt. Die Ergebnisse zeigen, dass die Spezifikation einen wichtigen Einfluss auf die Eigenschaften von Ratingmodellen hat und dass insbesondere mit Hilfe von Mixed Logit-Ansätzen sinnvoll interpretierbare Ratingmodelle mit guten Prognoseeigenschaften erlangt werden können. N2 - This thesis aims at analyzing the impact of model specification on credit rating models as used by banks to forecast credit default probabilities. The well-established logit model is extended in various directions. Implications are discussed empirically and with the help of Monte Carlo studies. In this respect, interpretability and forecasting quality are considered simultaneously. A main focus is on mixed logit models that allow for modeling individual heterogeneity. Results indicate that proper model specification has a strong impact on the quality of rating models. In particular it is emphasized that mixed logit models offer well interpretable credit rating models with high forecasting power. KW - Bank KW - Kreditrisiko KW - Logit-Modell KW - Rating KW - Spezifikation KW - Mixed Logit KW - Spezifikationsanalyse KW - Kreditrisiko KW - Internes Rating KW - Basel II KW - Maximum-Likelihood-Schätzung KW - Mixed Logit KW - Specification Analysis KW - Credit Risk KW - Internal Rating KW - Basel II Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-48895 ER - TY - THES A1 - Wismer, Sebastian T1 - Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing T1 - Aufsätze in Industrieökonomik: Intermediation, Marketing und Strategische Preissetzung N2 - This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework. N2 - Die vorliegende Dissertation beschäftigt sich mit ausgewählten Unternehmensstrategien, die insbesondere mit der Entwicklung neuer Informationstechnologien verbreitet Anwendung finden. In der Einleitung wird die Motivation dargelegt und kurz auf Definitionsmöglichkeiten des Begriffs "zweiseitiger Markt" eingegangen sowie eine knappe Zusammenfassung der nachfolgenden Essays gegeben. Der erste Essay beschäftigt sich mit dem Einfluss von Produktinformationen auf die Preis- und Werbeentscheidung des Anbieters eines Erfahrungsgutes dessen Qualität potenzielle Käufer vor dem Kauf nicht kennen. In zwei Modellen, welche sich insbesondere in der vorherrschenden Rolle von Werbung unterscheiden, wird analysiert, wie sich die Verfügbarkeit von zusätzlichen Informationen, welche allerdings möglicherweise irreführend sein können, auf die von der tatsächlichen Produktqualität abhängige Preissetzung und Werbeinvestition auswirkt. Im ersten Modell, in welchem unterstellt wird, dass sowohl Werbung als auch andere Produktinformationen auf die Existenz von Produkten aufmerksam machen, stellt sich heraus, dass der vom Anbieter gewählte Preis positiv mit der tatsächlichen Qualität zusammenhängt, allerdings unter gewissen Umständen ein Anbieter eines Produkts niedriger Qualität profitabel einen hohen Preis setzen kann. Der Zusammenhang zwischen Produktqualität und Werbung hängt von der vorliegenden Parameterkonstellation ab. Im zweiten Modell wird - anders als zuvor - angenommen, dass die Preissetzungsentscheidung indirekt Informationen bzgl. der Produktqualität vermitteln kann, d.h. einige Konsumenten den Preis als Signal interpretieren, während andere Konsumenten ihre Einschätzung über Produktqualität direkt aus evtl. verfügbaren anderen Informationen beziehen. Einerseits ergibt sich unter bestimmten Umständen das aus der Signalisierungsliteratur bekannte Ergebnis, dass sich trotz asymmetrischer Information dieselben Preise wie unter vollständiger Information einstellen können. Andererseits zeigt sich, dass sich bei möglicherweise irreführender Produktinformation weitere Preissetzungsmuster ergeben können. Darüber hinaus wird unterstellt, dass Unternehmen durch unbeobachtbare Marketinginvestitionen Einfluss auf Produktinformationen nehmen können, was im Extremfall dazu führen kann, dass ein hoher Preis niedrige Produktqualität signalisiert, wobei bei diesem Preis nur ein Teil der Konsumenten einen Kauf in Betracht zieht. Im zweiten Essay werden Handelsplattformen untersucht, welche die spezielle Eigenschaft haben, dass deren Betreiber nicht nur Verkäufern die Möglichkeit einräumen, Käufern über die Plattform Produkte anzubieten, sondern auch selbst Produkte als Händler vertreiben können. Es wird zunächst aufgezeigt, dass im unterstellten Rahmen unter den bisher von der Literatur schwerpunktmäßig behandelten klassischen zweistufigen Tarifen das Problem besteht, dass der drohende Wettbewerb zwischen Plattformbetreiber und Verkäufern die Plattform unattraktiv macht. Produkte, auf die der Plattformbetreiber erst durch Beitritt von anderen Verkäufern aufmerksam wird, werden somit möglicherweise nicht angeboten, da sich zu wenige Verkäufer der Plattform anschließen. Es wird jedoch aufgezeigt, dass umsatzabhängige Gebühren dazu führen, dass der Plattformbetreiber seltener in Wettbewerb mit Händlern tritt, und deren Einsatz daher profitabel sein kann. Dies liefert eine neue Erklärung dafür, warum insbesondere Handelsplattformen tatsächlich umsatzabhängige Gebühren verlangen. Der dritte Essay beschäftigt sich wiederum mit Handelsplattformen, betont aber, dass Verkäufer parallel auch weitere Vertriebskanäle nutzen können. Nachdem im gegebenen Rahmen mögliche Ursachen dafür aufgezeigt wurden, dass Verkäufer in verschiedenen Vertriebskanälen unterschiedliche Preise setzen, wird die Tarifentscheidung des Plattformbetreibers und deren Einfluss auf die Nutzung der verschiedenen Vertriebswege untersucht. Insbesondere wird die Wirkung von sog. Nichtdiskriminierungsregeln analysiert, welche in der Realität zu beobachten, aber wettbewerbspolitisch umstritten sind. Es wird identifiziert, unter welchen Umständen der Plattformbetreiber die Preissetzung von Verkäufern mit einer solchen Regel einschränkt, welche ihm insbesondere erlaubt, die Nutzung der verschiedenen Vertriebswege direkt zu kontrollieren. Darüber hinaus wird gezeigt, dass diese Regeln im gegebenen Rahmen sowohl positive als auch negative Folgen haben können. KW - Industrieökonomie KW - Aufsatzsammlung KW - Intermediation KW - Platform Tariff KW - Price Parity Clause KW - Product Quality KW - Advertising KW - Intermediation KW - Plattformtarif KW - Produktqualität KW - Preisparitätsklausel KW - Werbung KW - Asymmetrische Information KW - Marktplatz KW - Mikroökonomie Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-99102 ER - TY - THES A1 - Donado Gomez, Alejandro T1 - Trade Unions and Occupational Health and Safety T1 - Gewerkschaften und Sicherheit am Arbeitsplatz N2 - This thesis comprises three essays that study the impact of trade unions on occupational health and safety (OHS). The first essay proposes a theoretical model that highlights the crucial role that unions have played throughout history in making workplaces safer. Firms traditionally oppose better health standards. Workplace safety is costly for firms but increases the average health of workers and thereby the aggregate labour supply. A laissez-faire approach in which firms set safety standards is suboptimal as workers are not fully informed of health risks associated with their jobs. Safety standards set by better-informed trade unions are output and welfare increasing. The second essay extends the model to a two-country world consisting of the capital-rich "North" and the capital-poor "South". The North has trade unions that set high OHS standards. There are no unions in the South and OHS standards are low. Trade between these two countries can imply a reduction in safety standards in the North, lowering the positive welfare effects of trade. Moreover, when trade unions are also established in the South, northern OHS standards might be further reduced. The third essay studies the impact of unions on OHS from an empirical perspective. It focuses on one component of OHS: occupational injuries. A literature summary including 25 empirical studies shows that most studies associate unions with less fatal occupational injuries. This is in perfect line with the anecdotal evidence and the basic model from the first essay. However, the literature summary also shows that most empirical studies associate unions with more nonfatal occupational injuries. This puzzling result has been explained in the literature by (1) lower underreporting in unionized workplaces, (2) unions being more able to organize hazardous workplaces, and (3) unionized workers preferring higher wages at the expense of better working conditions. Using individual-level panel data, this essay presents evidence against all these three explanations. However, it cannot reject the hypothesis that workers reduce their precautionary behaviour when they join a trade union. Hence, the puzzle seems to be due to a strong moral hazard effect. These empirical results suggest that the basic model from the first essay needs to be extended to account for this moral hazard effect. N2 - Diese Doktorarbeit besteht aus drei Aufsätzen, die die Auswirkungen von Gewerkschaften auf die Sicherheit am Arbeitsplatz untersuchen. Der erste Aufsatz schlägt ein theoretisches Modell vor, das die entscheidende Rolle von Gewerkschaften bei der Entwicklung sicherer Arbeitsplätze unterstreicht. Firmen sind traditionell gegen bessere Gesundheitsstandards. Sicherheit am Arbeitsplatz ist teuer für Firmen, erhöht aber die durchschnittliche Gesundheit der Arbeitskräfte und somit das aggregierte Arbeitsangebot. Ein Laissez-Faire-Ansatz, in dem Unternehmen die Sicherheitsstandards festlegen, ist suboptimal, da Arbeitnehmer nicht in vollem Umfang über die Gesundheitsrisiken informiert werden, die mit ihren Arbeitsplätzen verbunden sind. Sicherheitsstandards, die durch besser informierte Gewerkschaften festgelegt werden, steigern den Output und die Wohlfahrt. Der zweite Aufsatz erweitert das Modell um eine Zwei-Länder-Welt bestehend aus dem kapitalreichen "Norden" und dem kapitalarmen "Süden". Der Norden hat Gewerkschaften, die hohe Sicherheitsstandards festlegen. Im Süden gibt es keine Gewerkschaften, und die Sicherheitsstandards sind niedrig. Der Handel zwischen beiden Ländern kann zu einer Senkung der Sicherheitsstandards im Norden führen, was den positiven Wohlfahrtseffekt vom Handel reduziert. Wenn nun auch im Süden Gewerkschaften eingeführt werden, dann könnte dies zur noch stärkeren Reduzierung von Sicherheitsstandards im Norden führen. Der dritte Aufsatz untersucht den Einfluss von Gewerkschaften auf Sicherheit am Arbeitsplatz aus einer empirischen Perspektive. Er konzentriert sich auf eine Komponente von Sicherheit am Arbeitsplatz: Arbeitsunfälle. Eine aus 25 empirischen Studien bestehende Literaturzusammenfassung zeigt, dass die meisten Studien Gewerkschaften mit weniger tödlichen Arbeitsunfällen verbinden. Dies steht völlig in Einklang mit der anekdotischen Evidenz und dem Basismodell aus dem ersten Aufsatz. Erstaunlich ist jedoch, dass es -- den meisten empirischen Studien zufolge -- durch die Einführung von Gewerkschaften zu mehr nicht-tödlichen Arbeitsunfällen kommt. Dieses rätselhafte Phänomen wird in der Literatur damit erklärt, dass (1.) die Dunkelziffer der nicht-angezeigten Arbeitsunfälle in gewerkschaftlich organisierten Betrieben niedriger sei, dass (2.) Gewerkschaften sich vor allem in den Arbeitsbereichen konstituieren, in denen ein hohes Arbeitsunfallrisiko herrscht und dass (3.) gewerkschaftlich organisierte Arbeitnehmer höhere Löhne auf Kosten besserer Arbeitsbedingungen bevorzugen würden. Mit Hilfe von Paneldaten auf der Individualebene liefert dieser Aufsatz empirische Belege gegen alle diese drei Erklärungen. Die Daten deuten vielmehr sehr stark darauf hin, dass die Erklärung im Verhalten der Arbeitnehmer zu suchen ist. Diese reduzieren ihre Vorsichtsmaßnahmen, wenn sie einer Ge-werkschaft beitreten. Daher scheint ein starker Moral-Hazard-Effekt die Lösung des Rätsels zu sein. Dieses überraschende Ergebnis gibt den Anlass zu weiteren Forschungsaktivitäten. So müsste das Basismodell aus dem ersten Aufsatz nun erweitert werden, um diesen Effekt adäquat zu berücksichtigen. KW - Arbeitsschutz KW - Arbeitssicherheit KW - Gewerkschaft KW - Sicherheit am Arbeitsplatz KW - Paneldaten KW - Arbeitsplatzsicherung KW - Soziale Sicherheit KW - occupational health and safety KW - trade unions KW - international trade KW - labor unions KW - occupational injury Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-56076 ER - TY - THES A1 - Brause, Alexander F. T1 - Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets T1 - Devisenmarktinterventionen: Neue Empirische Ansichten von Schwellenländern N2 - Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research. N2 - Seit jeher haben Notenbanker eine Vielzahl von Maßnahmen zur Sicherstellung ihres Hauptziels der Preisniveaustabilität eingesetzt. Ein Instrument aus dem Werkzeugkasten von Notenbanken ist die Devisenmarktintervention. Der Großteil der akademischen Diskussion bezog sich bei der Analyse dieses Instruments bisher auf die Erfahrungen von Industrienationen. Die negativen Ergebnisse dieser Studien führten in den letzten Jahren zu der weitverbreiteten Meinung, dass Interventionen am Devisenmarkt kein geeignetes Instrument zur Steuerung von Wechselkursen darstellen. Folglich befasst sich die empirische Literatur mehr und mehr mit den Interventionserfahrungen von Emerging Markets. Geldpolitik in Emerging Markets zeichnet sich oftmals durch eine aktive Wechelkursteuerung aus. Die aktuelle akademische Diskussion über Interventionsdynamiken (Motive und Effektivität) hat bisher jedoch einen zentralen Aspekt vernachlässigt. Weder die Analysen von Industrienationen, noch aktuelle Studien zu Emerging Markets berücksichtigen die Möglichkeit, dass Interventionsmotive und die Effekte von Devisenmarkttransaktionen über die Zeit hinweg variieren. Diese Arbeit zielt darauf ab, dem Leser die elementaren Bestandteile der aktuellen Diskussion über Notenbankinterventionen am Devisenmarkt näher zu bringen und neue Aspekte in Bezug auf Emerging Markets zu diskutieren. Der Kernpunkt befasst sich mit der Frage, warum Notenbanken in Emerging Markets am Devisenmarkt intervenieren und ob diese Interventionen effektiv sind. Darüber hinaus wird der Aspekt der zeitlichen Veränderung von Interventionsmotiven und deren Auswirkungen auf den Wechselkurs untersucht. Die erzielten Ergebnisse werden danach vor dem Hintergund der ökonomischen und geldpolitischen Rahmenbedingungen diskutiert. Dieser letzte Punkt soll als Startschuss für die mögliche, zukünftige empirische Diskussion über die Gründe für Interventionsmotive und Interventionseffekte angesehen werden. KW - Schwellenländer KW - Wechselkurspolitik KW - Zentralbankintervention KW - Devisenmarkt KW - Interventionspolitik KW - Geldpolitik KW - Monetary Policy KW - Central Bank Intervention KW - Foreign Exchange Market KW - Rolling Estimation KW - Emerging Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-55207 ER - TY - THES A1 - Steinmetz, Alexander T1 - Essays on Strategic Behavior and Dynamic Oligopoly Competition T1 - Beiträge zu strategischem Verhalten und dynamischem oligopolistischem Wettbewerb N2 - This thesis deals with three selected dimensions of strategic behavior, namely investment in R&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays. N2 - Die Dissertation „Essays on Strategic Behavior and Dynamic Oligopoly Competition“ befasst sich mit strategischem Verhalten und dynamischem Wettbewerb in Oligopolen. In drei einzelnen Arbeiten werden spezielle Fragestellungen eingehend analysiert. Die erste Arbeit befasst sich mit der Frage, wie sich die Marktstruktur durch Forschungsaktivitäten der Unternehmen entwickelt, wenn die Forschungskompetenz der Unternehmen für mehrere Projekte von Bedeutung ist. Der Fokus der Arbeit liegt auf der Analyse der Effekte des Lernens und Vergessens bei Forschung und Entwicklung auf die Innovationsanreize der Unternehmen. Es wird ein dynamisches Innovationsmodell entwickelt, in dem Unternehmen durch Investitionen in Forschungsprojekte Erfahrungen sammeln können. Als Referenzfall wird im Modell ohne die Möglichkeit des Lernens gezeigt, dass die Lockerung der typischen, aber strengen Annahme, dass der Marktfolger die führende Technologie immer imitiert, zu neuen strategischen Effekten führt. Weil der Marktführer versucht starken Produktmarktwettbewerb in der Zukunft zu vermeiden, steigt sein Innovationsanreiz mit der Verbesserung seiner Position. Haben die Firmen dagegen die Möglichkeit durch Forschungsprojekte zu lernen, führt der daraus resultierende Effekt der Forschungswissensbildung dazu, dass sich der Marktführer auf seinen Lorbeeren ausruht, was dem Marktfolger ermöglicht aufzuholen. Im Gegensatz zum Referenzfall fällt der Innovationsanreiz des Marktführers mit der Verbesserung seiner Position. Dieses Verhalten führt zu einem Gleichgewicht, in dem die Innovationsanreize am höchsten sind, wenn der Produktmarktwettbewerb am stärksten ist. Mit Hilfe eines allgemeinen Gleichgewichtsmodells, welches die Modellierung oligopolistischen Wettbewerbs erlaubt, analysiert die zweite Arbeit die Integration von Ökonomien, die von grenzüberschreitenden Fusionswellen begleitet sein können. Die Untersuchung von Ökonomien, die sich vor der Integration in stabilen Gleichgewichten befunden haben, in denen keine profitablen Fusionen möglich waren, zeigt, dass Globalisierung grenzüberschreitende Fusionswellen auslöst, wenn die Unternehmen hinreichend heterogen bezüglich ihrer Kostenstruktur sind. Im partiellen Gleichgewicht profitieren Konsumenten von der Integration auch dann, wenn eine Fusionswelle ausgelöst wird und alle einheimischen Unternehmen übernommen werden und damit die Wettbewerbsintensität deutlich sinkt. Die Wohlfahrt steigt. Im Gegensatz dazu sind im allgemeinen Gleichgewicht, in dem das Zusammenspiel der Märkte und damit Effekte auf Faktorpreise berücksichtigt werden, Globalisierungsgewinne nur durch die Reallokation von Ressourcen möglich. Je größer die technologischen Unterschiede der Länder, umso besser können diese Effizienzgewinne der Integration im allgemeinen Gleichgewicht realisiert werden. Der Effekt der Globalisierung für die Wohlfahrt ist positiv, wenn alle Firmen im Markt aktiv bleiben, aber unbestimmt, wenn Firmen den Markt verlassen oder aufgekauft werden. Es ist möglich, dass der negative Wohlfahrtseffekt der fallenden Wettbewerbsintensität den positiven Effekt der effizienteren Ressourcenallokation dominiert. Das Zulassen von Eintritt verändert die Ergebnisse drastisch, da in diesem Fall Firmen unterschiedlicher Herkunft in einer integrierten Volkswirtschaft nicht koexistieren können. Komparative Vorteile in Bezug auf Eintrittsmöglichkeiten und Produktion sind dann umso wichtiger für die Realisierung von Wohlfahrtsgewinnen. Die dritte Arbeit analysiert das Zusammenspiel von Preis- und Lagerbestandsentscheidungen unter oligopolistischem Wettbewerb und dessen Implikationen für die Dynamik der Preise. Die Arbeit erweitert existierende Literatur um endogene Preise und unvollständigen strategischen Wettbewerb im Oligopol. Es wird gezeigt, dass bestellfixe Kosten dazu führen, dass selten bestellt wird und die optimale Bestellpolitik eine (S,s)-Politik ist. Für die Unternehmen bilden Preise und Lagerbestand strategische Substitute. Insgesamt erzeugt die (S,s)-Bestellpolitik zusammen mit der unsicheren Nachfrage bei strategischem Preiswettbewerb zyklische Preisschwankungen. Die Dissertation schließt mit einigen kurzen Bemerkungen zu den entwickelten Modellen und deren Ergebnissen. KW - Wettbewerbsstrategie KW - Oligopol KW - Oligopol KW - Innovationswettbewerb KW - Bestandsmanagement KW - Mergers and Acquisitions KW - Außenhandel KW - Wissenserwerb KW - Globalisierung KW - Preisänderung KW - Eink KW - Innovation Incentives KW - Knowledge KW - General Oligopolistic Equilibrium KW - Inventory Dynamics KW - (S KW - s) Order Policy KW - Commodity Markets Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-47934 ER - TY - THES A1 - Schumm, Irene T1 - Lessons Learned From Germany’s 2001-2006 Labor Market Reforms T1 - Lehren aus den Deutschen Arbeitsmarktreformen zwischen 2001 und 2006 N2 - In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zunächst wird ein Überblick über die wichtigsten Änderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, nämlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verkürzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte Ökonomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabhängiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise können die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden. N2 - This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed. KW - Hartz-Reform KW - Arbeitsmarkttheorie KW - Deutschland / Gesetz zu Reformen am Arbeitsmarkt KW - Evaluation KW - Simulation KW - Computersimulation KW - Semi-Markov-Prozess KW - Deutschland / Gesetz für moderne Dienstleistungen am Arbeitsmarkt 4 KW - Matching-Modell KW - optimale Suchleistung KW - matching model KW - evaluation KW - Germany KW - labor market reform Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-43705 ER - TY - JOUR A1 - Römeis, Fabio A1 - Herweg, Fabian A1 - Müller, Daniel T1 - Salience bias and overwork JF - Games N2 - In this study, we enrich a standard principal–agent model with hidden action by introducing salience-biased perception on the agent's side. The agent's misguided focus on salient payoffs, which leads the agent's and the principal's probability assessments to diverge, has two effects: First, the agent focuses too much on obtaining a bonus, which facilitates incentive provision. Second, the principal may exploit the diverging probability assessments to relax participation. We show that salience bias can reverse the nature of the inefficiency arising from moral hazard; i.e., the principal does not necessarily provide insufficient incentives that result in inefficiently low effort but instead may well provide excessive incentives that result in inefficiently high effort. KW - context-dependent preferences KW - hidden action KW - moral hazard KW - overwork KW - salience theory Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255213 SN - 2073-4336 VL - 13 IS - 1 ER - TY - THES A1 - Gründler, Klaus T1 - A Contribution to the Empirics of Economic Development - The Role of Technology, Inequality, and the State T1 - Eine empirische Untersuchung der wirtschaftlichen Entwicklung - Die Rolle von Technologien, Ungleichheit und dem Staat N2 - This dissertation contributes to the empirical analysis of economic development. The continuing poverty in many Sub-Saharan-African countries as well as the declining trend in growth in the advanced economies that was initiated around the turn of the millennium raises a number of new questions which have received little attention in recent empirical studies. Is culture a decisive factor for economic development? Do larger financial markets trigger positive stimuli with regard to incomes, or is the recent increase in their size in advanced economies detrimental to economic growth? What causes secular stagnation, i.e. the reduction in growth rates of the advanced economies observable over the past 20 years? What is the role of inequality in the growth process, and how do governmental attempts to equalize the income distribution affect economic development? And finally: Is the process of democratization accompanied by an increase in living standards? These are the central questions of this doctoral thesis. To facilitate the empirical analysis of the determinants of economic growth, this dissertation introduces a new method to compute classifications in the field of social sciences. The approach is based on mathematical algorithms of machine learning and pattern recognition. Whereas the construction of indices typically relies on arbitrary assumptions regarding the aggregation strategy of the underlying attributes, utilization of Support Vector Machines transfers the question of how to aggregate the individual components into a non-linear optimization problem. Following a brief overview of the theoretical models of economic growth provided in the first chapter, the second chapter illustrates the importance of culture in explaining the differences in incomes across the globe. In particular, if inhabitants have a lower average degree of risk-aversion, the implementation of new technology proceeds much faster compared with countries with a lower tendency towards risk. However, this effect depends on the legal and political framework of the countries, their average level of education, and their stage of development. The initial wealth of individuals is often not sufficient to cover the cost of investments in both education and new technologies. By providing loans, a developed financial sector may help to overcome this shortage. However, the investigations in the third chapter show that this mechanism is dependent on the development levels of the economies. In poor countries, growth of the financial sector leads to better education and higher investment levels. This effect diminishes along the development process, as intermediary activity is increasingly replaced by speculative transactions. Particularly in times of low technological innovation, an increasing financial sector has a negative impact on economic development. In fact, the world economy is currently in a phase of this kind. Since the turn of the millennium, growth rates in the advanced economies have experienced a multi-national decline, leading to an intense debate about "secular stagnation" initiated at the beginning of 2015. The fourth chapter deals with this phenomenon and shows that the growth potentials of new technologies have been gradually declining since the beginning of the 2000s. If incomes are unequally distributed, some individuals can invest less in education and technological innovations, which is why the fifth chapter identifies an overall negative effect of inequality on growth. This influence, however, depends on the development level of countries. While the negative effect is strongly pronounced in poor economies with a low degree of equality of opportunity, this influence disappears during the development process. Accordingly, redistributive polices of governments exert a growth-promoting effect in developing countries, while in advanced economies, the fostering of equal opportunities is much more decisive. The sixth chapter analyzes the growth effect of the political environment and shows that the ambiguity of earlier studies is mainly due to unsophisticated measurement of the degree of democratization. To solve this problem, the chapter introduces a new method based on mathematical algorithms of machine learning and pattern recognition. While the approach can be used for various classification problems in the field of social sciences, in this dissertation it is applied for the problem of democracy measurement. Based on different country examples, the chapter shows that the resulting SVMDI is superior to other indices in modeling the level of democracy. The subsequent empirical analysis emphasizes a significantly positive growth effect of democracy measured via SVMDI. N2 - Die Dissertation beschäftigt sich mit der statistischen und empirischen Analyse der Determinanten langfristiger Wachstumsprozesse. Die anhaltende Armut vieler Staaten in Subsahara-Afrika sowie die rückläufigen Wachstumsraten der reichen Volkswirtschaften seit Beginn des neuen Jahrtausends werfen eine Reihe neuer Fragen auf, die bislang wenig empirisch erforscht sind. Ist die Kultur eines Landes entscheidend für die Entwicklung der Wohlfahrt? Kann ein entwickelter Finanzsektor Wohlstandssteigerungen auslösen, oder ist der starke Zuwachs der Finanzmärkte, der in den Industrienationen beobachtet werden kann, schädlich für die Entwicklung? Warum wachsen reiche Volkswirtschaften heute so viel langsamer als noch vor 20 Jahren? Welchen Einfluss nimmt die zunehmende Einkommensungleichheit auf die wirtschaftliche Entwicklung und welchen Effekt haben staatliche Umverteilungsmaßnahmen? Und schließlich: Führen stärkere politische Rechte und mehr Demokratie zu einer Zunahme der Lebensstandards? Dies sind die zentralen Fragestellungen, denen sich die Kapitel dieser Doktorarbeit widmen. Um die Analyse der empirischen Ursachen der wirtschaftlichen Entwicklung zu erleichtern, leitet die Dissertation überdies ein neues Verfahren zur Lösung von Klassifikationsproblemen in den Sozialwissenschaften ab. Das Verfahren beruht auf mathematischen Algorithmen zur Mustererkennung und des maschinellen Lernens. Dies bietet neue Möglichkeiten für das Konstruieren von Indizes, die zumeist auf arbiträre Annahmen über die zugrundeliegende Aggregationsfunktion zurückgreifen. Das vorgestellte Verfahren löst dieses Problem, in dem die Aggregation durch Support Vector Machines in ein nicht-lineares Optimierungsproblem überführt wird. Nach einem kurzen Überblick über die theoretischen Erklärungsansätze der wirtschaftlichen Entwicklung im ersten Kapitel zeigt das zweite Kapitel, dass kulturelle Unterschieden einen Einfluss auf die ökonomische Entwicklung ausüben. Die Ergebnisse implizieren, dass Länder mit einer geringeren Aversion gegen Risiken höhere Wachstumsraten aufweisen, da in diesen Ländern die Implementierung neuer Technologien schneller voranschreitet. Der Effekt ist allerdings abhängig von den rechtlichen und politischen Rahmenbedingungen der Länder, vom durchschnittlichen Bildungsniveau sowie vom Entwicklungsstand. In vielen Fällen reichen die Vermögen der Individuen nicht aus, um Investitionen in Bildung, Kapital und neue Technologien zu stemmen. Durch die Bereitstellung von Krediten kann ein entwickelter Finanzsektor diesen Engpass überwinden. Die Untersuchungen des dritten Kapitels zeigen allerdings, dass dieser Mechanismus abhängig ist von den Entwicklungsniveaus der Volkswirtschaften. In armen Ländern führt ein Anstieg des Finanzsektors zu besserer Bildung und höheren Investitionen. Dieser Effekt nimmt jedoch über den Entwicklungsprozess ab, da die Intermediationstätigkeit zunehmend durch spekulative Geschäfte ersetzt wird. Insbesondere in Zeiten mit geringen technologischen Neuerungen wirkt ein wachsender Finanzsektor negativ auf die ökonomische Entwicklung. Aktuell befindet sich die Weltökonomie in einer solchen Phase, was verbunden mit einem multinationalen Rückgang der Wachstumsraten seit Anfang 2015 als "säkulare Stagnation" diskutiert wird. Das vierte Kapitel befasst sich intensiv mit diesem Phänomen und zeigt, dass die gegenwärtigen Wachstumspotenziale neuer Technologien seit Beginn der 2000er Jahre zunehmend auslaufen. Sind die Einkommen ungleich verteilt, so können einige Individuen weniger Investitionen in Bildung und technologische Neuerungen durchführen. Tatsächlich weist das fünfte Kapitel auf einen insgesamt negativen Effekt der Ungleichheit auf das Wachstum hin. Dieser Einfluss ist allerdings abhängig vom Entwicklungsstand der Länder. Während der negative Effekt in armen Volkswirtschaften mit einem geringen Maß an Chancengleichheit stark ausgeprägt ist, verschwindet dieser Einfluss mit zunehmendem Entwicklungsniveau. Entsprechend wirkt direkte staatliche Umverteilung vor allem in unterentwickelten Ländern wachstumsfördernd. In entwickelten Nationen ist hingegen die Schaffung von Chancengleichheit entscheidend. Das sechste Kapitel analysiert den Wachstumseffekt des politischen Umfelds und zeigt, dass die Ambivalenz früherer Studien auf die mangelhafte Abbildung des Demokratiegrades zurückzuführen ist. Zur Lösung dieses Problems wird ein neues Verfahren vorgeschlagen, das auf mathematischen Algorithmen des maschinellen Lernens basiert. Das Verfahren kann in verschiedenen Bereichen der Sozialwissenschaften eingesetzt werden und wird in der Arbeit zur Klassifikation des Demokratiegrades angewandt. Auf Basis verschiedener Länderbeispiele wird deutlich, dass der resultierende SVMDI anderen Indizes in der Modellierung des Demokratiegrades überlegen ist. Die anschließende empirische Analyse betont einen signifikant positiven Effekt des SVMDI auf das Wirtschaftswachstum. N2 - Why are some nations rich and others poor? What are the sources of long-run economic development and growth? How can living standards be increased? In this book, Klaus Gründler empirically analyses these central economic questions and puts a particular emphasis on the role of technology, inequality, and political institutions. To substantiate his empirical studies, he introduces a new method to compute composite measures and indices that is based on mathematical algorithms from the field of machine learning. KW - Wirtschaftsentwicklung KW - Wirtschaftsstruktur KW - Sozioökonomisches System KW - Inequality KW - Economic Growth KW - Machine Learning KW - Empirical Economics KW - Ungleichheit KW - Wirtschaftswachstum KW - Maschinelles Lernen KW - Makroökonomie KW - Empirische Wirtschaftsforschung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-141520 SN - 978-3-95826-072-6 (Print) SN - 978-3-95826-073-3 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-072-6, 41,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Schamberger, Tamara Svenja T1 - Methodological Advances in Composite-based Structural Equation Modeling T1 - Methodische Weiterentwicklungen in der kompositen-basierten Strukturgleichungsmodellierung N2 - This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package “cSEM” with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package “cSEM”. This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in “Human Development”. Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling. N2 - Diese Arbeit beschäftigt sich mit kompositen-basierter Strukturgleichungmodellierung. Strukturgleichungsmodellierung kann genutzt werden um sowohl theoretische Konzepte als auch deren Beziehungen untereinander zu modellieren. In der traditionellen faktor-basierten Strukturgleichungsmodellierung werden diese theoretischen Konzepte als “common factor”, d.h. als latente Variablen, die die Kovarianzstruktur ihrer beobachteten Variablen erklären, modelliert. Im Gegensatz dazu, können in kompositen-basierter Strukturgleichungsmodellierung die theoretischen Konzepte sowohl als “common factor” als auch als Komposite, also als Linearkombinationen beobachteter Variablen, die die gesamte Information zwischen ihren beobachteten Variablen und allen anderen Variablen im Modell übertragen, modelliert werden. Diese Arbeit stellt einige methodische Weiterentwicklungen im Bereich der kompositenbasierten Strukturgleichungsmodellierung vor. Sie besteht aus insgesamt 7 Kapiteln. Kapitel 1 gibt zunächst einen Überblick über das zugrundeliegende Modell sowie über die Definition des Begriffs der kompositen-basierten Strukturgleichungsmodellierung. In Kapitel 2 wird anschließend eine Anleitung dafür gegeben, wie Monte Carlo Simulationen in der Statistik Software R mittels des Pakets “cSEM” für verschiedene Schätzer, die der kompositen-basierten Strukturgleichungsmodellierung zugeordnet werden, durchgeführt werden können. Diese Anleitung wird anhand einer beispielhaften Simulationsstudie veranschaulicht, die das Verhalten von Partial Least Squares Path Modeling (PLS-PM) und consistent Partial Least Squares (PLSc) Schätzungen in endlichen Stichproben untersucht, insbesondere im Hinblick auf die Auswirkungen von Stichprobenkorrelationen zwischen Messfehlern auf statistische Inferenz. Im dritten Kapitel werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung vorgestellt, die robust gegenüber Ausreißern sind. Dafür werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung, PLS-PM und PLSc, angepasst. Im Gegensatz zu den ursprünglichen Schätzern, können mit diesen Anpassungen Verzerrungen, die durch zufällig entstandene Ausreißer in Stichproben entstehen können, vermieden werden, was anhand einer Simulationsstudie gezeigt wird. In Kapitel 4 wird eine Methode zur Durchführung von Vorhersagen auf Basis von Modellen vorgestellt, die mit ordinal Partial Least Squares und ordinal consistent Partial Least Squares geschätzt wurden. Die beobachteten Variablen sind dabei ordinal kategorial skaliert, was sowohl bei der Schätzung als auch der Vorhersage explizit berücksichtigt wird. Die Vorhersagegüte wird mittels einer Simulationsstudie untersucht. Zusätzlich wird eine Anleitung, wie solche Vorhersagen mittels des R Pakets “cSEM” durchgeführt werden können, gegeben. Diese wird anhand eines empirischen Beispiels demonstriert. In Kapitel 5 wird die konfirmatorische Kompositenanalyse für Forschung im Bereich von “Human Development” vorgestellt. Mittels konfirmatorischer Kompositenanalyse können Kompositenmodelle geschätzt und auch evaluiert werden. In diesem Kapitel wird die Henseler-Ogasawara Spezifikation für Kompositenmodelle verwendet, wodurch beispielsweise die Maximum Likelihood Methode zur Parameterschätzung verwendet werden kann. Da der auf der Henseler-Ogasawara Spezifikation basierende Maximum Likelihood Schätzer Nachteile aufweist, wird in Kapitel 6 eine andere Spezifikation des Kompositmodells vorgestellt, mit der Kompositenmodelle mit der Maximum Likelihood Methode geschätzt werden können. Die Ergebnisse dieses Maximum Likelihood Schätzers werden mit denen von PLS-PM verglichen und somit gezeigt, dass dieser Maximum Likelihood Schätzer auch in endlichen Stichproben valide Ergebnisse liefert. Das letzte Kapitel, Kapitel 7, gibt einen Überblick über die Entwicklung und die verschiedenen Stränge der kompositen-basierten Strukturgleichungsmodellierung. Darüber hinaus wird hier der Beitrag, den die vorangegangenen Kapitel zur weiteren Verbreitung kompositen-basierter Strukturgleichungsmodellierung leisten, aufgezeigt. KW - Structural Equation Modeling KW - Composites KW - Composite-based Structural Equation Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276794 SN - 978-90-365-5375-9 N1 - Die Dissertationen wurde im Rahmen einer Cotutelle Vereinbarung mit der University of Twente (The Netherlands) erstellt ER - TY - THES A1 - Schuberth, Florian T1 - Composite-based Methods in Structural Equation Modeling T1 - Kompositenbasierte Methoden in der Strukturgleichungsmodellierung N2 - This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples. N2 - Die vorliegende Dissertation beschäftigt sich mit kompositenbasierten Schätzverfahren für Strukturgleichungsmodelle mit latenten Variablen sowie deren Weiterentwicklung und einhergehenden Problemen bei deren Verwendung in empirischen Studien. Die Arbeit umfasst insgesamt fünf Kapitel. Neben einer kurzen Einleitung im ersten Kapitel beinhalten die verbleibenden Kapitel Teile der Ergebnisse meiner Promotion, die in Form von vier, teilweise schon veröffentlichten Aufsätzen präsentiert werden. Der erste Aufsatz befasst sich mit einer alternativen Modellierungsweise der theoretischen Konstrukte in der Strukturgleichungsmodellierung. Während in den Sozial- und Verhaltenswissenschaften die theoretischen Konstrukte klassischerweise durch sogenannte common factors modelliert werden, stellt dies in manchen Situationen bzw. in anderen Wissenschaftsbereichen eine unplausible Annahme dar. In diesem Teil der Arbeit wird eine abgewandelte Form der konfirmatorischen Faktorenanalyse, die konfirmatorische Kompositenanalyse, vorgestellt, in welcher die theoretischen Konstrukte anstatt durch common factors mit Hilfe von Kompositen modelliert werden. Neben der Ausführung der theoretischen Grundlage wird durch eine Monte Carlo Simulation gezeigt, dass die konfirmatorische Kompositenanalyse geeignet ist, Fehlspezifikationen im zugrundeliegenden Kompositenmodell aufzudecken. In der zweiten Studie wird die Frage aufgeworfen, wie Parameterunterschiede im Rahmen der partial least squares Pfadmodellierung getestet werden können. Da die Standardfehler des Schätzers keine analytisch-geschlossene Form besitzen, kann der aus der Regressionsanalyse bekannte t- bzw. F-Test nicht direkt für die Beantwortung dieser Frage verwendet werden. Einen Ausweg bietet das Bootstrapping, durch welches Konfidenzintervalle um den geschätzten Parameterunterschied konstruiert werden können. Mit Hife dieser können statistische Aussagen über den Parameterunterschied in der Grundgesamtheit gemacht werden. Das vorgestellte Verfahren wird anhand eines empirischen Beispiels demonstriert. Der dritte Aufsatz dieser Arbeit geht der Frage nach, wie ordinale Indikatoren mit festen Kategorien in der partial least squares Pfadmodellierung berücksichtigt werden können. Es wird ein neues, konsistentes Schätzverfahren vorgestellt, das den qualitativen Charakter der ordinalen Variablen mittels der polychorischen Korrelation bei der Schätzung berücksichtigt. Der neue Schätzer trägt den Namen „ordinal consistent partial least squares“ und kombiniert die Verfahren consistent partial least squares und ordinal partial least squares. Neben der Darbietung des Schätzverfahrens wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass das Verfahren ordinal consistent partial least squares geeignet ist, Modelle, die ordinale Indikatoren mit festen Kategorien enthalten, zu schätzen. Darüber hinaus wird ein empirisches Beispiel mit ordinal consistent partial least squares geschätzt. Das letzte Kapitel widmet sich der Schätzung nicht-linearer Strukturgleichungsmodelle mit latenten Variablen, wobei sich die Nichtlinearität auf die latenten Variablen und nicht auf deren Parameter bezieht. In diesem Kontext wird ein neues Schätzverfahren vorgestellt, welches ähnlich wie consistent partial least squares funktioniert und konsistente Parameterschätzungen für rekursive, nicht-lineare Gleichungssysteme liefert. Im Gegensatz zu consistent partial least squares benötigt der vorgestellte Momentenschätzer kein iteratives Verfahren, um die Gewichte für die Bildung der Kompositen zu bestimmen. Es wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass der Schätzer geeignet ist, nicht-lineare Strukturgleichungsmodelle mit latenten Variablen zu schätzen. KW - Strukturgleichungsmodell KW - Construct Modeling KW - Partial Least Squares Path Modeling KW - Ordinal Categorical Indictators KW - User-Guidelines KW - Polynomial Factor Models KW - Komponentenanalyse KW - Structural Equation Modeling Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154653 ER - TY - RPRT A1 - Grunewald, Andreas A1 - Klockmann, Victor A1 - von Schenk, Alicia A1 - von Siemens, Ferdinand A. T1 - Are Biases Contagious? The Influence of Communication on Motivated Beliefs N2 - This paper examines the potential reinforcement of motivated beliefs when individuals with identical biases communicate. We propose a controlled online experiment that allows to manipulate belief biases and the communication environment. We find that communication, even among like-minded individuals, diminishes motivated beliefs if it takes place in an environment without previously declared external opinions. In the presence of external plural opinions, however, communication does not reduce but rather aggravates motivated beliefs. Our results indicate a potential drawback of the plurality of opinions - it may create communication environments wherein motivated beliefs not only persist but also become contagious within social networks. T3 - Würzburg Economic Papers (W. E. P.) - 109 KW - Bias KW - belief bias KW - social interaction KW - motivated beliefs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-348936 ER - TY - JOUR A1 - Gründler, Daniel A1 - Mayer, Eric A1 - Scharler, Johann T1 - Monetary policy announcements, information shocks, and exchange rate dynamics JF - Open Economies Review N2 - We study nominal exchange rate dynamics in the aftermath of U.S. monetary policy announcements. Using high-frequency interest rate and stock price movements around FOMC announcements, we distinguish between pure monetary policy shocks and information shocks, which are associated with new information contained in the announcements. Contractionary pure policy shocks give rise to a strong, but transitory, appreciation on impact. Information shocks also appreciate the exchange rate, but the effect builds up only slowly over time and is highly persistent. Thus, we conclude that although the short-run effects on the exchange rate are primarily due to pure policy shocks, the medium-run response is driven by information effects. KW - central bank information KW - high-frequency identification KW - proxy VAR KW - exchange rate dynamics Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-325175 SN - 0923-7992 VL - 34 IS - 2 ER - TY - RPRT A1 - Albers, Thilo N. H. A1 - Kersting, Felix A1 - Kosse, Fabian T1 - Income misperception and populism N2 - We propose that false beliefs about own current economic status are an important factor for explaining populist attitudes. Eliciting subjects’ receptiveness to rightwing populism and their perceived relative income positions in a representative survey of German households, we find that people with pessimistic beliefs about their income position are more attuned to populist statements. Key to understanding the misperception-populism relationship are strong gender differences in the mechanism: men are much more likely to channel their discontent into affection for populist ideas. A simple information provision does neither sustainably reduce misperception nor curb populism. T3 - Würzburg Economic Papers (W. E. P.) - 104 KW - Populismus KW - Perception KW - Income KW - Populism Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-321696 ER - TY - RPRT A1 - Bofinger, Peter A1 - Haas, Thomas T1 - R-Star: A new approach to estimate the polar star of monetary policy N2 - The necessary adjustments to prominent measures of the neutral rate of interest following the COVID pandemic sparked a wide-ranging debate on the measurement and usefulness of r-star. Due to high uncertainty about relevant determinants, trend patterns and the correct estimation method, we propose in this paper a simple alternative approach derived from a standard macro model. Starting from a loss function, neutral periods can be determined in which a neutral real interest rate is observable. Using these values, a medium-term trend for a neutral interest rate can be determined. An application to the USA shows that our simple calculation of a neutral interest rate delivers comparable results to existing studies. A Taylor rule based on our neutral interest rate also does a fairly good job of explaining US monetary policy over the past 60 years. T3 - Würzburg Economic Papers (W. E. P.) - 106 KW - Zins KW - Neutral rate of interest KW - Geldpolitik KW - equilibrium real interest rate KW - monetary policy rules Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-327394 ER - TY - RPRT A1 - Bofinger, Peter A1 - Geißendörfer, Lisa A1 - Haas, Thomas A1 - Mayer, Fabian T1 - Credit as an Instrument for Growth: A Monetary Explanation of the Chinese Growth Story N2 - This study describes the Chinese growth model over the past 40 years. We show that China's growth model, with its dominant role of the banking system and "the banker", is a perfect illustration of the necessity and power of Schumpeter's "monetary analysis". This approach has allowed us to elaborate theoretically and empirically the uniqueness of the Chinese model. In our empirical analysis, we use a new dataset of Chinese provincial data to analyze the impact of the financial system, especially banks, on Chinese economic development. We also empirically assess the role of the financial system in Chinese industrial policy and provide case studies of the effects of industrial policy in specific sectors. Finally, we also discuss macroeconomic dimensions of the Chinese growth process and lessons that can be drawn from the Chinese experience for other countries. T3 - Würzburg Economic Papers (W. E. P.) - 107 KW - Industriepolitik KW - Bank-led Growth KW - China KW - Wirtschaftswachstum KW - Wirtschaftsentwicklung KW - Industrial Policy KW - China KW - Strategic Emerging Industries KW - Finance-growth nexus KW - Finance KW - Economic growth KW - Economic development KW - Bank credit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-328804 ER - TY - THES A1 - Oeffner, Marc T1 - AGENT–BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent–Based Computer Simulation T1 - AGENTEN-BASIERTE KEYNESIANISCHE MAKROÖKONOMIK - Ein Evolutorisches Modell Eingebettet in eine Agenten-Basierte Computersimualtion N2 - Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading). N2 - Gegenstand der vorliegenden makroökonomischen Untersuchung ist Agent Island. Agent Island ist eine agentenbasierte Computersimulation, welche im Gebiet der Geldtheorie anzusiedeln ist. Agentenbasierte Computersimulationen sind innovative Werkzeuge, die bereits in vielen anderen Forschungsfeldern, wie der Medizinforschung oder der Erforschung komplexer Logistiksysteme, Verwendung finden. Im Fach Volkswirtschaftslehre ist der Einsatz dieser Technik allerdings noch recht neu, und im Gebiet der monetären Makroökonomik ist bis heute praktisch noch kein agentenbasiertes Simulationsmodell entwickelt worden. Diese Lücke soll durch die vorliegende Arbeit zumindest ein Stück weit geschlossen werden. Angestrebt wird deshalb die Ausarbeitung eines validierten Simulationsmodells für geldpolitische Anwendungen. Zu diesem Zweck wird als Innovation in einem agentenbasierten Makro-Modell – neben den Sektoren der privaten Haushalte, der Konsum- und Kapitalgüterunternehmen – ein Bankensystem, die Notenbank und ein Geldkreislauf (auf einfache Weise) integriert. Die Notenbank kontrolliert dabei die Konjunktur durch Zinspolitik; der entsprechende Transmissionsmechanismus knüpft an die Arbeiten Knut Wicksells im Bereich der Geldtheorie an. Darüber hinaus beinhaltet das Modell viele Keynesianische Elemente sowie eine Geldvermögensrechnung in der Tradition von Wolfgang Stützel. Im Rahmen der Validierung spielt insbesondere der Zusammenhang zwischen Mikro- und Makroebene eine besondere Rolle, wobei wir einen Bottom-Up-Ansatz wählen. Die Idee der Validierung, wie wir sie anwenden, besteht demnach darin, die individuellen Regeln der Agenten so einzustellen, dass auf der aggregierten Ebene Ergebnisse entstehen, die für ein monetäres Makro-Modell sinnvoll erscheinen. Im Ergebnis des validierten Modells sind alle Phänomene auf der aggregierten Ebene (z. B. einige stilisierte Fakten, die Wirkung des Transmissionsmechanismus, der Phillips-Kurven-Zusammenhang, das Spar-Paradoxon oder der Konjunkturverlauf von Agent Island) alleine durch die Handlungen und Interaktionen der vielen tausend Agenten auf der Mikroebene erzeugt. Es erfolgt – im Gegensatz zu Modellen mit einem repräsentativen Agenten – keine Modellierung auf der aggregierten Ebene. Im Rahmen der Mikrostruktur von Agent Island gilt es, die drei vorkommenden Typen von Agenten, d.h. die private Haushalte, Unternehmen sowie die Notenbank, mit einem geeigneten Regelwerk auszustatten. Dementsprechend ist die Arbeit so aufgebaut, dass im ersten Kapitel der methodischen Rahmen für die Entwicklung des Modells (d.h. der Regeln) sowie für die Validierung des Modells (d.h. die Einstellung der Regeln) dargestellt wird. Außerdem erfolgt eine Ausarbeitung der Vorteile des agentenbasierten Ansatzes gegenüber den Allgemeinen Gleichgewichts-Modellen. Im darauffolgenden zweiten Kapitel erfolgt die Darstellung des Modells, welche die Beschreibung aller Regeln und Variablen umfasst. Da es bis heute keine vergleichbare Arbeit auf dem Gebiet der Geldtheorie gibt, musste sich das Modell von Agent Island an verwandte, bereits existierende agentenbasierte Modelle orientieren, sowie in vielen Bereichen an nicht-agentenbasierten Ansätze. Im zweiten Kapitel erfolgt ebenfalls die Verknüpfung des Modells mit der relevanten Literatur. Es liegt in der Natur der Sache, dass die Darstellung von Agent Island zunächst auf der Mikroebene erfolgt. Somit befasst sich der größte Teil von Kapitel 2 mit der Ausarbeitung der Regeln auf der Mikroebene. Erst am Ende des Kapitels wechselt die Darstellung auf die Makroebene – und legt hierbei auch die Grundlagen für den späteren Validierungsprozess. Dort werden makroökonomische Zusammenhänge erläutert, die für Agent Island relevant sein sollten und die im darauffolgenden dritten Kapitel dann auch untersucht bzw. angewandt werden. In Kapitel 3 erfolgt die Validierung des Modells. Hier erfolgen Sensitivitäts-Analysen, Kalibrierungen sowie weitere (z.T. statistische) Untersuchungen des Modells bzw. der Modellergebnisse. Ziel ist es dabei, sinnvolle Ergebnisse auf der Makroebene für verschiedene Zeitreihen zu generieren. Am Ende von Kapitel 3 liegt ein vernünftig validiertes Modell vor. Dies könnte beispielsweise als Ausgangsbasis für die Fortentwicklung eines weiter verfeinerten Modells dienen. KW - Mehragentensystem KW - Computersimulation KW - Mehrebenensimulation KW - Makrosimulation KW - Agent KW - Makroökonomie KW - Geldtheorie KW - Keynessche Theorie KW - Monetäre Wachstumstheorie KW - Geldkreislauf KW - Wirtschaftskreislauf KW - Wicksell-Effekt KW - Agenten-basierte Computersimulation KW - Geschlossenes Kreislaufsystem KW - konsistente Verknüpfung von Strom- und Bestandsgrößen KW - Multi-agent system KW - agent-based macroeconomic computer simulation KW - stock-flow consistent KW - monetary theory KW - Keynesian model KW - Wicksellian model Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-39277 ER - TY - RPRT A1 - Mahlkow, Hendrik A1 - Wanner, Joschka T1 - The Carbon Footprint of Global Trade Imbalances N2 - International trade is highly imbalanced both in terms of values and in terms of embodied carbon emissions. We show that the persistent current value trade imbalance patterns contribute to a higher level of global emissions compared to a world of balanced international trade. Specifically, we build a Ricardian quantitative trade model including sectoral input-output linkages, trade imbalances, fossil fuel extraction, and carbon emissions from fossil fuel combustion and use this framework to simulate counterfactual changes to countries' trade balances. For individual countries, the emission effects of removing their trade imbalances depend on the carbon intensities of their production and consumption patterns, as well as on their fossil resource abundance. Eliminating the Russian trade surplus and the US trade deficit would lead to the largest environmental benefits in terms of lower global emissions. Globally, the simultaneous removal of all trade imbalances would lower world carbon emissions by 0.9 percent or 295 million tons of carbon dioxide. T3 - Würzburg Economic Papers (W. E. P.) - 108 KW - carbon emissions KW - international trade KW - gravity Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330410 ER - TY - THES A1 - Feldman, Maria T1 - Gesundheitssystem und Gesundheitsreform in Deutschland: Eine Simulationsstudie T1 - Healthcare System and Healthcare Reform in Germany: A Simulation Study N2 - Diese Arbeit präsentiert ein stochastisches Überlappungsmodell von Generationen mit endogenen Gesundheitsinvestitionen und endogenem Mortalitätsrisiko. Dieses Modell ermöglicht es, makroökonomische und Auswirkungen von Gesundheitsreformen in Deutschland zu quantifizieren. Zusätzlich werden Wohlfahrtsaspekte solcher Reformen beleuchtet. Zu Beginn der Arbeit wird ein Ausgangsgleichgewicht dargestellt, welches die Situation in Deutschland im Jahr 2020 abbildet. Hierbei sind Individuen entweder gesetzlich oder privat krankenversichert. Die Versicherungen unterscheiden sich hinsichtlich der Finanzierung sowie der Behandlungskosten und -qualität. Die Arbeit untersucht den Übergang zu einem einheitlichen System, welches entweder umlagefinanziert ist oder mit dem Kapitaldeckungsverfahren arbeitet. Die Simulationsergebnisse deuten darauf hin, dass die gesetzliche Krankenversicherung und somit einkommensabhängige Beiträge mit besseren Versicherungseigenschaften verbunden sind, die die Verzerrungen bei der Arbeitsangebotsmenge kompensieren können, jedoch auf Kosten eines höheren moralischen Risikos gehen. Prämienmodelle hingegen führen zu einem höheren Arbeitsangebot und besserem Vorsorge-Verhalten in Form von Ersparnissen oder Gesundheitsinvestitionen. Ich stellen auch fest, dass obligatorische Selbstbehalte das aggregierte Wohlergehen in Deutschland verringern würden, obwohl sie das moralische Risiko reduzieren und private Gesundheitsinvestitionen erhöhen. Schließlich ist der Übergang zu einer reinen privat Versicherung für Übergangskohorten kostspielig, was auf eine Präferenz für kostengünstigere umlagefinanzierte Prämien aufgrund von Effizienzüberlegungen hinweist. N2 - This book presents a stochastic overlapping generations model with endogenous health investments and endogenous mortality risk. This model allows for quantifying the macroeconomic impacts of healthcare reforms in Germany. Additionally, the welfare aspects of such reforms are examined. The present book aims to evaluate these reform proposals concerning their induced intra- and intergenerational income redistribution, as well as the implied overall efficiency effects. Starting from an initial long-run equilibrium that features the existing healthcare system, reforms are introduced without announcement, and the full transition path to the new steady state is computed together with the individual welfare changes and an aggregated welfare measure. My simulation results indicate that universal payroll financing would provide better insurance, which may even compensate for the induced labor supply distortions. However, this comes at the expense of higher moral hazard costs and a loss in life expectancy for those previously privately insured due to the lower treatment quality. The latter also applies to universal premium financing, although it would induce greater individual health investment. Universal-funded private insurance provides better treatment quality, which leads to higher life expectancies, but the higher costs induce an overall welfare loss. Finally, we find that compulsory deductibles would reduce aggregate welfare in Germany, although they increase private health investment. Overall, the results of the model provide valuable insights into the trade-offs as well as the potential distributional and welfare consequences of various healthcare reform proposals. KW - Private Krankenversicherung KW - Gesetzliche Krankenversicherung KW - Allgemeines Gleichgewichtsmodell KW - Reform der deutschen Krankenversicherung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330837 ER - TY - THES A1 - Fröhlich, Adrian T1 - Endogene Rentenentscheidungen mit Gesundheitsschocks in einem OLG-Modell T1 - Endogenous pension decisions with health shocks in an an OLG model N2 - Der demografische Wandel im Zusammenhang mit einer alternden Bevölkerung sorgt dafür, dass Regierungen weltweit zur Reformierung ihrer Rentensysteme gezwungen werden. Ein beliebtes Mittel hierbei ist die Anhebung der Regelaltersgrenze. Diese Maßnahme ist jedoch in der Bevölkerung unbeliebt, weshalb hier nach alternativen Wegen gesucht wird, um frühzeitig in den Ruhestand einzutreten. Eine Möglichkeit, solchen angepassten Altersrentenregelungen zu entgehen, ist der Bezug einer Erwerbsminderungsrente. Deutschland schuf hier neue Anreize, in die Erwerbsminderung einzutreten, indem es die erwarteten Rentenzahlbeträge anhob. Dies ist der Ausgangspunkt der vorliegenden Arbeit, in der das Renteneintrittsverhalten und die daraus resultierenden makroökonomischen Effekte von Rentenreformen unter Verwendung eines allgemeinen Gleichgewichtsmodells untersucht werden. In diesem können Haushalte sowohl über den Zeitpunkt als auch die Art ihres Renteneintritts entscheiden, wobei sie zwischen einer Erwerbsminderungs- und einer Altersrente wählen können. Bei der Bewertung der tatsächlich realisierten Rentenreformen von 2007 und 2018 wird ersichtlich, dass die Anhebung der Regelaltersgrenze zu positiven Effekten sowohl mit Blick auf die Tragfähigkeit des Rentensystems als auch die gesamtwirtschaftliche Wohlfahrt geführt hätte. Die Realisierung dieser Gewinne wird jedoch durch die 2018 realisierte Anhebung der Zurechnungszeiten beinahe komplett zunichte gemacht. Allein die fiskalischen Auswirkungen, bei denen von Verhaltensreaktionen von Seiten der Haushalte abgesehen wird, würden fiskalische Kosten erzeugen, die ungefähr ein Drittel der zuvor generierten positiven Effekte eliminieren. Können die Haushalte komplett frei über ihre Ruhestandsentscheidung verfügen, verschwinden die zuvor generierten Wohlfahrtsgewinne sogar beinahe vollständig, und das Rentensystem sowie die makroökonomischen Größen befinden sich auf einem Niveau, das vergleichbar mit dem des Ausgangsgleichgewichts ist. Alternative Rentenreformen, basierend auf der Gesetzeslage von 2018, verdeutlichen, dass effektive Rentenpolitik nur dann funktionieren kann, wenn Alters- und Erwerbsminderungsrente als Gesamtpaket betrachtet werden. Hierdurch werden Erkenntnisse für die Gestaltung zukünftiger Rentenreformen gewonnen und die Bedeutung eines ganzheitlichen Ansatzes betont, der die verschiedenen Aspekte des Rentensystems berücksichtigt. N2 - Demographic change in connection with an ageing population is forcing governments around the world to reform their pension systems. A popular way of doing this is to raise the standard retirement age. However, this measure is unpopular with the population, which is why alternative ways of retiring early are being sought. One way of avoiding such adjusted old-age pension regulations is to draw a reduced earning capacity pension. Germany created new incentives to enter reduced earning capacity by increasing the expected pension payment amounts. This is the starting point of the present study, in which the retirement behaviour and the resulting macroeconomic effects of pension reforms are examined using a general equilibrium model. In this model, households can decide on both the time and the type of their retirement, whereby they can choose between a reduced earning capacity pension and an old-age pension. When evaluating the pension reforms actually implemented in 2007 and 2018, it becomes clear that raising the standard retirement age would have led to positive effects in terms of both the sustainability of the pension system and overall economic welfare. However, the realisation of these gains will be almost completely wiped out by the increase in the qualifying periods implemented in 2018. The fiscal effects alone, excluding behavioural reactions on the part of households, would generate fiscal costs that would eliminate around a third of the previously generated positive effects. If households are completely free to make their own retirement decisions, the previously generated welfare gains disappear almost completely and the pension system and macroeconomic variables are at a level comparable to that of the initial equilibrium. Alternative pension reforms based on the legal situation in 2018 make it clear that effective pension policy can only work if old-age and disability pensions are considered as a complete package. This provides insights for the design of future pension reforms and emphasises the importance of a holistic approach that takes into account the various aspects of the pension system. KW - Erwerbsminderungsrente KW - Allgemeines Gleichgewichtsmodell KW - Rentenreform KW - Altersrente KW - Altersruhegeld Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330827 ER - TY - THES A1 - Maas, Daniel Peter T1 - Currency Areas, Monetary Policy, and the Macroeconomy T1 - Währungsräume, Geldpolitik und die Makroökonomie N2 - Hauptgegenstand der Dissertation ist die Analyse der makroökonomischen Auswirkungen der Gründung der Eurozone auf die Mitgliedsstaaten. Diese Analyse umfasst zwei Studien, die sich der Fragestellung aus verschiedenen Perspektiven nähern. Die erste Studie unternimmt einen Vergleich der Geldpolitik von EZB und von ausgewählten Zentralbanken des Europäischen Währungssystems (EWS). Es wird untersucht, inwiefern sich bei makroökonomischen Nachfrage- und Angebotsschocks die systematischen Reaktionen der EZB von denen der vier wichtigsten nationalen Zentralbanken des EWS (Deutschland, Frankreich, Italien und Spanien) unterscheiden. In der zweiten Studie werden die Ursachen für den Aufbau interner und externer Ungleichgewichte in Spanien, d.h. auf dem Immobilienmarkt und in der Leistungsbilanz, im Vorfeld der Finanzkrise 2007/08 analysiert. Dabei wird zwischen Spanien-spezifischen und Eurozonen-spezifischen Ursachen unterschieden und deren Erklärungsgehalt empirisch quantifiziert. In der dritten und letzten Studie der Dissertation wird ein preistheoretisches Kreditangebotsmodell entwickelt und empirisch geschätzt. Als Basis für die empirische Schätzung werden Daten des Kreditmarktes für deutsche Unternehmen verwendet. Die methodische Vorgehensweise beinhaltet in allen Studien zeitreihenökonometrische Ansätze wie beispielsweise (Mehrländer-)Vektorautoregressionen (VARs) und Zeitreihenregressionen. N2 - The main subject of this dissertation is the analysis of the impact of the creation of the Eurozone on its member countries. This analysis comprises two studies that analyze this research agenda from different perspectives. The first study compares the monetary policy of the ECB with the respective monetary policy of selected central banks of the European Monetary System (EMS). More precisely, conditional on aggregate demand and supply shocks, are there differences in the systematic central bank reaction function of the ECB and the four most important central banks of the EMS (Germany, France, Italy and Spain). The second study analyzes the built-up of internal and external imbalances in Spain, i.e., on the housing market and in the current account, during the run-up to the financial crisis in 2007/08. The analysis differentiates between domestic Spain-specific factors and foreign Eurozone-factors that led to the macroeconomic imbalances. The third and last study develops a price-theoretic credit supply model. In order to validate the model empirically, a credit market is estimated on the basis of data from the German credit market for enterprises. Finally, the results from the empirical exercise are compared to the predictions of the theoretic model. Methodologically, all studies draw heavily on time series methods such as (multi-country) vector autoregressions (VARs) and time series regressions. KW - Geldpolitik KW - Europäische Zentralbank KW - Währungsunion KW - Monetary Policy KW - Housing Markets KW - Bank Credit Market KW - Europäische Union KW - Mitgliedsstaaten KW - Notenbank KW - Makroökonomie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-168037 ER -