TY - THES A1 - Ries, Mathias T1 - The Role of the Central Bank, Banks and the Bond Market in the Paradigm of Monetary Analysis T1 - Die Rolle von Zentralbanken, Banken und des Anleihemarktes im geldwirtschaftlichen Paradigma N2 - Als Folge der Finanzkrise 2008/09 sind unter einigen Ökonomen Zweifel an der Adäquanz der theoretischen Modelle aufgekommen, insbesondere über diejenigen, die den Anspruch erheben, Finanzmärkte und Banken zu modellieren. Aufgrund dieser Zweifel folgen einige Ökonomen einer neuen Strömung, indem sie versuchen, ein neues Paradigma zu entwickeln, das auf einer geldwirtschaftlichen anstatt auf einer güterwirtschaftlichen Theorie beruht. Der Hauptunterschied zwischen diesen beiden Sichtweisen ist, dass in einer Güterwirtschaft Geld keine essentielle Rolle spielt, wohingegen bei einer Geldwirtschaft jede Transaktion mit Geld abgewickelt wird. Grundlegend ist es deshalb wichtig zu klären, ob eine Theorie, die Geld miteinschließt, zu anderen Schlussfolgerungen kommt als eine Theorie, die Geld außen vor lässt. Ausgehend von dieser Problemstellung stelle ich im zweiten Kapitel die Schlussfolgerungen aus der güterwirtschaftlichen Logik des Finanzsystems - modelliert durch die Loanable Funds-Theorie - der geldwirtschaftlichen Logik gegenüber. Im Anschluss an die Überprüfung der Schlussfolgerungen beschreibe ich drei Theorien über Banken. Hierbei beschreibt die sog. endogene Geldschöfpungstheorie, in der die Zentralbanken die Kreditvergabe der Banken durch Preise steuern, unsere Welt am besten. Die endogene Geldschöpfungstheorie ist die Basis für das theoretische Modell im dritten Kapitel. In diesem Modell handeln die Banken nach einem Gewinnmaximierungskalkül, wobei die Erträge aus dem Kreditgeschäft erzielt werden und Kosten des Kreditausfallrisikos sowie Kosten durch die Refinanzierung (inklusive regulatorischer Vorschriften) enstehen. Hieraus leitet sich das Kreditangebot ab, das auf dem Kreditmarkt auf die Kreditnachfrage trifft. Die Kreditnachfrage wird durch die Kreditnehmer bestimmt, die für Konsumzwecke bzw. Investitionen Kredite bei Banken aufnehmen. Aus dem Zusammenspiel von Kreditangebot und Kreditnachfrage ergibt sich der gleichgewichtige Kreditzins sowie das gleichgewichtige Kreditvolumen, das Banken an Nichtbanken vergeben. Die Angebots- und Nachfrageseite, die auf dem Kreditmarkt miteinander interagieren, werden ausgehend vom theoretischen Modell empirisch für Deutschland im Zeitraum von 1999-2014 mit Hilfe eines Ungleichgewichtsmodells geschätzt, wobei sich zeigt, dass die Determinanten aus dem theoretischen Modell statistisch signifikant sind. Aufbauend auf dem theoretischen Bankenmodell wird das Modell im vierten Kapitel um den Bondmarkt erweitert. Der Bankenkredit- und der Bondmarkt sind im Gegensatz zur Beschreibung in der güterwirtschaftlichen Analyse fundamental unterschiedlich. Zum Einen schaffen Banken Geld gemäß der endogenen Geldschöpfungstheorie. Sobald das Geld im Umlauf ist, können Nichtbanken dieses Geld umverteilen, indem sie es entweder für den Güterkauf verwenden oder längerfristig ausleihen. Aufgrund des Fokusses auf das Finanzsystem in dieser Dissertation wird der Fall betrachtet, in dem Geld längerfristig ausgeliehen wird. Das Motiv der Anbieter auf dem Bondmarkt, d.h. derjenigen, die Geld verleihen möchten, ist ähnlich wie bei Banken getrieben von der Gewinnmaximierung. Erträge können die Anbieter durch die Zinsen auf Bonds erwirtschaften. Kosten entstehen durch die Opportunitätskosten der Geldhaltung als Depositen, den Kreditausfall des Schuldners sowie Kursverluste aufgrund von Zinsveränderungen. Die geschilderte Logik basiert auf der Idee, dass Banken Geld schaffen, d.h. Originatoren von Geld sind, und das Geld auf dem Bondmarkt umverteilt wird und somit mehrfache Verwendung findet. Die beiden Märkte sind sowohl angebots- als auch nachfrageseitig miteinander verknüpft. Zum Einen refinanzieren sich Banken auf dem Bondmarkt, um die Fristentransformation, die durch die Kreditvergabe ensteht, zu reduzieren. Des Weiteren haben Kreditnachfrager die Möglichkeit, entweder Bankkredite oder Kredite auf dem Bondmarkt nachzufragen. Nach der theoretischen Darstellung des Finanzsystems bestehend aus dem Banken- und Bondmarkt folgt im fünften Kapitel die Anwendung des Modells bei Quantitative Easing. Hier ist festzustellen, dass Quantitative Easing bereits bei der Ankündigung der Zentralbank das Verhalten der Marktakteure beeinflusst. Die vier großen Zentralbanken (Bank of Japan, Bank of England, Federal Reserve Bank und Europäische Zentralbank) haben aufgrund der anhaltenden Rezession und der bereits niedrigen kurzfristigen Zinsen das unkonventionelle Instrument des Aufkaufs von Anleihen angewandt. Im theoretischen Modell beeinflusst die Zentralbank bereits durch die Ankündigung die Akteuere auf dem Bondmarkt, sodass es zu sinkenden Risikoprämien, da die Zentralbank als sog. 'lender of confidence' auftritt, zu (zumindest kurzfristig) sinkenden Zinserwartungen sowie insgesamt zu sinkenden langfristigen Zinsen kommt. Diese drei Hypothesen werden anhand empirischer Methoden für die Eurozone überprüft. N2 - As a consequence of the financial crisis in 2008/09, some economists have expressed doubts about the adequacy of theoretical models, especially those that claim to model financial markets and banks. Because of these doubts, some economists are following a new paradigm based on a monetary theory rather than a commodity theory. The main difference between these two views is that in the commodity theory money does not play an essential role, whereas in a money economy every transaction is settled with money. It is therefore essential to clarify whether a theory that includes money comes to other conclusions than a theory that leaves money out. Based on this problem, the second chapter compares the conclusions from the commodity logic of the financial system - modeled by the loanable funds theory - with the monetary logic. Following the review of the conclusions, I describe three theories about banks. The so-called endogenous money creation theory, in which the central banks control the lending of banks through prices, describes our world best. In the third chapter, I use the endogenous money creation theory for modelling the bank credit market. In this model, banks act according to profit maximization, whereby income from lending business is generated and the costs of credit default risk and refinancing costs (including regulatory requirements) are incurred. These are the determinants of the supply of credit, which meets the demand for credit on the credit market. Credit demand is determined by borrowers who borrow from banks for consumption or investment purposes. The interplay between loan supply and demand for credit results in the equilibrium loan interest rate and the equilibrium loan volume that banks grant to non-banks. The supply and demand sides interacting on the credit market are empirically estimated for Germany over the period 1999-2014 based on the theoretical model using a disequilibirum framework, showing that the determinants from the theoretical model are statistically significant. Building on the theoretical banking model, the fourth chapter extends the model to include the bond market. In contrast to the description in the commodity theory, the bank loan market and the bond market are fundamentally different. On the one hand, banks create money according to the endogenous money creation theory. Once the money is in circulation, non-banks can redistribute it by either using it for the purchase of goods or borrowing it for longer periods. Due to the focus on the financial system in this dissertation, the case is considered in which money is lent over the longer term. The motive of the suppliers in the bond market, i.e. those who want to lend money, is similar to that of banks, driven by profit maximization. Suppliers can generate income from interest on bonds. Costs arise from the opportunity costs of holding money as deposits, the credit default of the debtor and price losses due to changes in interest rates. The logic described is based on the idea that banks create money, i.e. they are originators of money, and the money is redistributed on the bond market and thus used several times. The two markets are linked on both the supply and demand sides. On the one hand, banks refinance themselves on the bond market in order to reduce the maturity transformation resulting from lending. In addition, consumers of credit have the option of requesting either bank loans or loans on the bond market. After the description of the theoretical framework of the financial system consisting of the banking and bond market, the fifth chapter follows the application of the model for Quantitative Easing. It should be noted here that Quantitative Easing already influences the behaviour of credit consumers and suppliers when the central bank announces it. The four major central banks (Bank of Japan, Bank of England, Federal Reserve Bank and European Central Bank) have used the unconventional instrument of buying up bonds due to the continuing recession and the already low short-term interest rates. In the theoretical model, the central bank already influences bond market rates through the announcement, resulting in decreasing risk premiums, as the central bank acts as a lender of confidence, decreasing interest expectations (at least in the short term) and decreasing long-term interest rates overall. These three hypotheses are tested using empirical methods for the Euro area. KW - monetary economy KW - bank credit market KW - bond market KW - loanable funds theory Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-162997 ER - TY - THES A1 - Scheuermeyer, Philipp T1 - Macroeconomic Consequences of Income Inequality: Evidence from Panel Data Econometrics T1 - Makroökonomische Folgen der Einkommensungleichheit: Erkenntnisse aus der Panel-Daten Ökonometrie N2 - Within three self-contained chapters, this dissertation provides new insights into the macroeconomic consequences of income inequality from a global perspective. Following an introduction, which summarizes the main findings and offers a brief overview of trends in income distribution, Chapter 2 evaluates the relationship between the labor share of income and the evolution of aggregate demand. Chapter 3 analyzes the link between income inequality and aggregate saving; and Chapter 4 directly estimates the effect of inequality and public redistribution on economic growth. N2 - Seit den 1980er Jahren ist es in den meisten hochentwickelten Volkswirtschaften, aber auch in vielen Entwicklungs- und Schwellenländern, zu einem ausgeprägten Anstieg der Einkommensungleichheit gekommen. Die vorliegende Dissertation untersucht die makroökonomischen Auswirkungen dieser Entwicklung anhand von Methoden der Panel-Daten Ökonometrie. Die Arbeit baut dabei auf drei eigenständigen Studien auf, die verschiedene Effekte einer sich verändernden Einkommensverteilung beleuchten. Im Mittelpunkt steht insbesondere die Frage, ob eine zunehmende Ungleichheit nachhaltiges Wachstum verhindert. KW - Panelanalyse KW - Einkommensverteilung KW - Panel-Data Econometrics KW - Ökonometrisches Modell KW - Makroökonomie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161452 ER - TY - THES A1 - Köllner, Sebastian T1 - Essays on trade, inequality, and redistribution T1 - Aufsätze zu Handel, Ungleichheit und Umverteilung N2 - Die vorliegende Dissertation beschäftigt sich mit den Auswirkungen der Globalisierung auf den Arbeitsmarkt sowie der Analyse der Determinanten staatlicher Umverteilung. Im Mittelpunkt steht dabei die empirische Auseinandersetzung mit diesen beiden Aspekten. Die in den letzten Jahrzehnten zu beobachtende Öffnung der Märkte und die damit einhergehende steigende internationale Verflechtung wird in der Literatur neben dem technischen Fortschritt als Haupttreiber der wirtschaftlichen Entwicklung gesehen. In letzter Zeit jedoch ist die Globalisierung zunehmend in den Ruf geraten, verstärkt negative Konsequenzen mit sich zu bringen, z.B. in Form höherer Ungleichheit bzw. einer höheren Volatilität der Beschäftigung. Das zweite Kapitel untersucht den Einfluss der zunehmenden Importpenetration (in Form steigender importierter Vorprodukte) auf die Beschäftigung im verarbeitenden Gewerbe in 12 OECD-Staaten. Die Ergebnisse deuten auf einen insgesamt leicht positiven Beschäftigungseffekt der zunehmenden internationalen Verflechtung, wobei auf eine Vielzahl an zusätzlichen Einflusskanälen, verschiedene Modellspezifikationen sowie unterschiedliche Maße der Importpenetration kontrolliert wird. In Abhängigkeit vom Ursprungsland der importierten Vorprodukte differieren die Arbeitsmarkteffekte jedoch deutlich. Während Importe aus den alten EU-Mitgliedsstaaten komplementär zur Industriebeschäftigung in den beobachteten OECD-Ländern wirken, kann eine substitutive Beziehung für importierte Vorprodukte aus China und den neuen EU-Mitgliedsstaaten beobachtet werden. Die Resultate unterscheiden sich für die einzelnen Volkswirtschaften zum Teil spürbar. Darüber hinaus wird deutlich, dass die hierarchische Struktur der Daten nur eine untergeordnete Rolle spielt, während die Berücksichtigung von Endogenitätsproblemen die Ergebnisse unberührt lässt. Die ambivalenten Folgen der Globalisierung auf die Beschäftigung verstärken die Nachfrage nach dem Sozialstaat. Das folgende Kapitel analysiert daher die Bestimmungsgründe staatlicher Umverteilung für ein breites Ländersample. Dabei geht es um die Frage, an welchen Faktoren sich staatliche Entscheidungsträger orientieren, wenn sie umverteilende Maßnahmen durchführen. Die Meltzer-Richard-Hypothese kann empirisch bestätigt werden, wobei der Einfluss abhängig vom Entwicklungsstand der Länder ist. In reichen Nationen mit ausgeprägten politischen Rechten ist der Zusammenhang zwischen Ungleichheit und Umverteilung sehr robust, wohingegen dies für ärmere Länder mit weniger entwickelten politischen Rechten in weitaus geringerem Maße gilt. Darüber hinaus ist auch die Form der Einkommensverteilung entscheidend für die Höhe der staatlichen Umverteilung. Während die Mittelschicht ein Mehr an Umverteilungsmaßnahmen befürwortet, üben Top-Einkommensbezieher ebenfalls einen signifikanten, jedoch negativen Einfluss auf die Höhe der staatlichen Umverteilung aus. Niedrigeinkommensbezieher als eigentliche Hauptprofiteure von Umverteilungsmaßnahmen spielen hingegen keine zentrale Rolle im Entscheidungskalkül der Politiker. Die Ergebnisse weisen zudem darauf hin, dass die Höhe der gefühlten Ungleichheit der Individuen für die Nachfrage nach Umverteilung wichtiger ist als die tatsächliche Höhe der Ungleichheit. Im nächsten Kapitel wird der im vorangegangenen Kapitel aufgestellte Untersuchungsrahmen um kulturelle Aspekte erweitert. Hintergrund ist der in den letzten Jahren zu beobachtende Anstieg von Migrationsströmen und dessen mögliche Auswirkungen auf die Sozialstaaten in den Aufnahmeländern. Dieses Kapitel analysiert die Auswirkungen von Kultur und ethnischer, religiöser sowie kultureller Diversität auf die Höhe der staatlichen Umverteilung für ein breites Ländersample. Ausgangspunkt für die Messung von Kultur sind die Kulturdimensionen nach Hofstede, die um zusätzliche kulturelle Indikatoren sowie verschiedene Maße von Diversität erweitert werden. Um kulturelle Charakteristika von institutionellen Gegebenheiten zu trennen, werden sowohl regionale als auch externe Instrumente verwendet. Die Ergebnisse deuten auf einen ambivalenten Einfluss von Kultur auf die Höhe staatlicher Umverteilung. Während in Ländern mit einem hohen Maß an Individualismus und gegenseitigem Vertrauen sowie geringen familiären Bindungen mehr umverteilt wird, kann das Gegenteil für Länder mit hoher Machtdistanz und der Vorstellung, dass persönlicher Erfolg das Ergebnis harter Arbeit ist, beobachtet werden. Die empirischen Befunde weisen zudem auf einen negativen, jedoch nicht-linearen Zusammenhang zwischen Umverteilung und Diversität. N2 - This dissertation is concerned with the empirical investigation of the link between globalization and labor market outcomes as well as the determinants of governmental redistribution, with a special focus on the effects of culture and diversity on the welfare state. In recent years, globalization has been criticized for adverse structural effects, e.g. increasing employment volatility and higher inequality. Following the introduction, the second chapter investigates the relationship between growing import penetration and manufacturing employment growth in 12 OECD countries between 1995 and 2011, accounting for various model specifications, different measures of import penetration, and alternative estimation strategies. The application of the latest version of the World Input-Output Database (WIOD), which has only recently become available, enables measurement of the effect of increases in imported intermediates according to their country of origin. The findings emphasize a weak positive overall impact of growing trade on manufacturing employment. However, while intermediate inputs from China and the new EU members are substitutes for manufacturing employment in highly developed countries, imports from the EU-27 complement domestic manufacturing production. The three-level mixed model utilized implies that the hierarchical structure of the data plays only a minor role, and controlling for endogeneity leaves the results unchanged. The findings point to ambiguous effects of globalization on labor market outcomes which increase the demand for equalizing public policies. Accordingly, the following chapter examines the relationship between income inequality and redistribution, accounting for the shape of the income distribution, different development levels, and subjective perceptions. Cross-national inequality datasets that have become available only recently allow for the assessment of the link for various sample compositions and several model specifications. The empirical results confirm the Meltzer-Richard hypothesis, but suggest that the relationship between market inequality and redistribution is even stronger when using perceived inequality measures. The findings emphasize a decisive role of the middle class, while also identifying a negative impact of top incomes. The Meltzer-Richard effect is less pronounced in developing economies with less sophisticated political rights, illustrating that it is the political channel through which higher inequality translates into more redistribution. Chapter (4) extends the framework developed in the preceding chapter by studying the effects of culture and diversity on governmental redistribution for a large sample of countries. To disentangle culture from institutions, the analysis employs regional instruments as well as data on linguistic differences, the frequency of blood types, and the prevalence of the pathogen Toxoplasma Gondii. Redistribution is higher in countries with (1) loose family ties and individualistic attitudes, (2) a high prevalence of trust and tolerance, (3) low acceptance of unequally distributed power and obedience, and (4) a prevalent belief that success is the result of luck and connections. Apart from their direct effects, these traits also exert an indirect impact by influencing the transmission of inequality to redistribution. Finally, the findings indicate that redistribution and diversity in terms of culture, ethnic groups, and religion stand in a non-linear relationship, where moderate levels of diversity impede redistribution and higher levels offset the generally negative effect. KW - Globalisierung KW - Arbeitsmarkt KW - Verteilungspolitik KW - Importwettbewerb KW - Kultur KW - Umverteilung KW - Ungleichheit KW - Sozialstaat Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-152471 ER - TY - THES A1 - Muthers, Johannes T1 - Essays in Industrial Organization T1 - Aufsätze aus der Industrieökonomik N2 - The dissertation deals with the market and welfare effects of different business practices and the firm's incentives to use them: resale price maintenance, revenue sharing of a platform operator, membership fees to buyers using a platform and patent licensing. In the second chapter we investigate the incentives of two manufacturers with common retailers to use resale price maintenance (RPM). Retailers provide product specific services that increase demand and manufacturers use minimum RPM to compete for favorable services for their products. Minimum RPM increases consumer pricesby voiding retailer price competition and can create a prisoner’s dilemma for manufacturers without increasing, and possibly even decreasing the overall service level. If manufacturer market power is asymmetric, minimum RPM tends to distort the allocation of sales services towards the high-priced products of the manufacturer with more market power. These results challenge the service argument as an efficiency defense for minimum RPM. The third chapter deals with trade platforms whose operators not only allow third party sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he uses classical two-part tariffs only (which previous literature on two-sided markets has focused on) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, some products that are not known to the platform operator will not be offered at all. We discuss the effects of different platform tariffs on this hold-up problem. We find that revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed charge proportional fees. The fourth chapter investigates the optimal tariff system in a model in which buyers are heterogeneous. A platform model is presented in which transactions are modeled explicitly and buyers can differ in their expected valuations when they decide to join the platform. The main effect that the model identifies is that the participation decision sorts buyers according to their expected valuations. This affects the pricing of sellers. Furthermore diffing form the usual approach, in which buyers are ex-ante homogeneous, the platform does not internalize the full transaction surplus. Hence it does not implement the socially efficient price on the platform, also it has control of the price with the transaction fee. The fifth chapter investigates the effects of licensing on the market outcome after the patent has expired. In a setting with endogenous entry, a licensee has a head start over the competition which translated into a first mover advantage if strategies are strategic substitutes. As competitive strategies quantities and informative advertising are considered explicitly. We find that although licensing increases the joint profit of the patentee and licensee, this does not necessarily come from a reduction in consumer surplus or other firms profits. For the case of quantity competition we show that licensing is welfare improving. For the case of informative advertising, however, we show that licensing increases prices and is thus detrimental to consumer surplus. N2 - Diese Dissertation befasst sich mit Markt- und Wohlfahrtseffekten folgenden, verschiedener Geschäftspraktiken sowie mit den Anreizen der Unternehmen diese zu verwenden: Preisbindung, Umsatzbeteiligungen eines Plattformbetreibers, Mitgliedsbeiträgen für Verkäufer auf einer Plattform und Patent-Lizensierung. Im zweiten Kapitel werden die Anreize von zwei Herstellern untersucht, die gemeinsame Händler haben, eine Preisbindung zu verwenden. Die Händler bieten produktspezifische Leistungen an, die die Nachfrage nach dem Produkt erhöhen. Hersteller verwenden Preisbindung damit Händler mit ihrer Leistung das Herstellerprodukt bevorzugt bedenken. Eine Mindestpreisbindung führt dabei dazu, dass Konsumentenpreise steigen und kann ein Gefangenendilemma zwischen Herstellern verursachen, ohne dass die Dienstleistungen der Händler zunehmen, möglicherweise kann das Service-Niveau sogar sinken. Falls die Marktmacht der Hersteller ungleich ist, führt eine Mindestpreisbindung zu einer Verzerrung der Serviceallokation zum Vorteil des höherpreisigen Produktes des Herstellers mit der größeren Marktmacht. Diese Ergebnisse fordern das Service-Argument als Verteidigung für Mindestpreisbindung heraus. Das dritte Kapitel befasst sich mit Handelsplattformen bei denen der Betreiber der Plattform nicht nur weiteren Verkäufern den Zugang zu Kunden über seine Plattform ermöglicht sondern auch selbst Produkte anbietet. Dabei wird der Interessenkonflikt zwischen Verkäufern und Plattformbetreiber thematisiert, der daher rührt, dass der Plattformbetreiber erfolgreiche Produkte lieber selbst vertreibt. Dieser Interessenkonflikt macht die Plattform für Verkäufer unattraktiv. Die Analyse zeigt, dass umsatzbasierte Verträge den Interessenkonflikt anders als zweistufige Tarife abmildern können. Im vierten Kapitel werden optimale Tarifmodelle einer Handelsplattform betrachtet, wenn die Verkäufer heterogen sind. Dazu wird ein Modell einer Plattform präsentiert in dem Transaktionen zwischen den Seiten explizit modelliert sind und die Käufer sich in ihrer erwarteten Wertschätzung für Produkte unterscheiden während sie sich für eine Plattform entscheiden. Die Analyse legt frei, dass es einen Sortierungseffekt bei den Käufern gibt, nur solche mit einer relativ hohen erwarteten Wertschätzung sind auf der Plattform vertreten. Diese Sortierung beeinflusst die Preissetzung der Verkäufer. In diesem Modell internalisiert die Plattform nicht mehr den vollen Überschuss aus Transaktionen und implementiert deshalb auch nicht das sozial wünschenswerte Tarifsystem auf der Plattform. Das fünfte Kapitel untersucht den Effekt von Lizenzvereinbarungen auf das Marktergebnis nach Patentablauf. In einem Rahmen mit endogenem Eintritt hat ein Lizenznehmer einen zeitlichen Vorsprung vor den anderen Wettbewerbern. Dieser Vorsprung übersetzt sich in einen strategischen Vorteil, wenn die Wettbewerbsstrategien strategische Substitute sind. Als solche Wettbewerbsstrategien werden explizit Mengen und informative Werbung berücksichtigt. Es zeigt sich dass der Gewinn aus der Lizensierung, den Patentinhaber und Lizenznehmer einstreichen nicht notwendigerweise zum Nachteil der Kunden sein muss. KW - Wettbewerbsverhalten KW - Preisbindung KW - Lizenzvertrag KW - Werbung KW - Industrial Organization Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-141671 ER - TY - THES A1 - Coban, Mustafa T1 - Contributions to the Empirics of Immigration, Redistribution and Social Mobility T1 - Beiträge zur Empirie der Einwanderung, der Umverteilung und der sozialen Mobilität N2 - In recent decades the international migration has increased worldwide. The influx of people from different cultures and ethnic groups poses new challenges to the labor market and the welfare state of the host countries and causes changes in the social fabric. In general, immigration benefits the economy of the host country. However, these gains from immigration are unevenly distributed among the native population. Natives who are in direct competition with the new workers expect wage losses and a higher probability of getting unemployed, whereas remaining natives foresee either no feedback effects or even wage gains. On the other hand, the tax and transfer system benefits disproportionally from an influx of highly skilled immigrants. Examinations of 20 European countries in 2010 show that a higher proportion of low-skilled immigrants in the immediate neighborhood of the natives increases the difference in the demand for redistribution between high-skilled and low-skilled natives. Thus, high-skilled natives are more opposed to an expansion of the governmental redistribution. On the one hand, a higher proportion of low-skilled immigrants generates a higher fiscal burden on the welfare state. On the other hand, high-skilled natives' wages increase due to an influx of low-skilled immigrants, since relative supply of high-skilled labor increases. In addition to the economic impact of immigration, the inflow of new citizens is accompanied by natives' fear of changes in the social environment as well as in symbolic values, such as cultural identity or natives' set of values. The latter might generate negative attitudes towards immigrants and increase the demand for a more restrictive immigration policy. On the other hand, more interethnic contact due to a higher ethnic diversity could reduce natives' information gaps, prejudices and stereotypes. This, in turn, could enhance more tolerance and solidarity towards immigrants among natives. Examinations of 18 European countries in 2014 show that more interethnic contact during everyday life reduces both the natives' social distance from immigrants and their fear of social upheaval by the presence of immigrants. However, natives' social distance from immigrants has no effect on their preference for redistribution, but their perceived threat to the national culture and social life by the presence of immigrants has a significantly negative impact on their demand for redistribution. Thus, natives’ concern about the preservation of symbolic norms and values affects the solidarity channel of their redistribution preference. An individual's upward mobility over time or in relation to his or her parents determines his or her attitude towards the welfare state as well as the transfer of his or her opinions to his or her own children. With regard to intergenerational income mobility, Germany shows a value in the international midfield; higher than the United States (lower mobility) and lower than the Scandinavian countries (higher mobility). For example, if a father's lifetime income increases by 10 percent, his son's lifetime income increases by 4.9 percent in the United States and by 3.1 percent in Germany. Additionally, in Germany, fathers' lifetime income tends to show a higher impact on their sons' income if their incomes are higher. In the United States, fathers' lifetime incomes have a stronger influence on their sons' income at the lower and the upper end of the income distribution compared to the middle. Taking a closer look at the intragenerational wage mobility and wage inequality in Germany, the development at the current edge is rather sobering. Since 2000 there is a steady decline in wage mobility. Furthermore, wage mobility in the services sector has been significantly lower than in the manufacturing sector since the beginning of the 2000s. This result is mainly driven by the decrease of wage mobility in the health care and social services sector. Moreover, a worker's unemployment spells and occupation have become more important in the meantime. Since 2006 the increase in the German wage inequality has markedly slowed down and wage growth between 2006 and 2013 has been even polarized, i.e. wages at the lower and at the upper end of the wage distribution have increased more than wages in the middle. However, this development can be partly attributed to the computerization and automation of the production processes. Although, there was substitution of manual routine tasks between 2001 and 2013, cognitive routine tasks are still more pronounced in the middle and at the upper end of the wage distribution. Furthermore, the latter experienced an increase in wage mobility since 2000. On the other hand, manual non-routine tasks are localized disproportionally in the middle and at the lower end of the wage distribution. Thus, the wage gains of these occupations at the lower end were compensated for by the wage losses in the middle. N2 - Die internationale Migration hat in den letzten Jahrzehnten weltweit zugenommen. Der Zufluss an Menschen aus anderen Kulturen und Ethnien stellt neue Herausforderungen für den Arbeitsmarkt und den Sozialstaat dar und bewirkt Veränderungen im bestehenden sozialen Gefüge. Für die Wirtschaft des Einwanderungslandes gehen mit der Immigration Wohlfahrtssteigerungen einher, wenn auch diese nicht gleichmäßig über die Einheimischen hinweg verteilt werden. Einheimische, die im direkten Wettbewerb zu den neuen Arbeitnehmern stehen, werden Lohnabschläge und den Verlust des Arbeitsplatzes erwarten, während die Übrigen entweder mit keinen Rückwirkungen oder sogar mit Lohnsteigerungen rechnen. Der Sozialstaat hingegen profitiert, wenn hauptsächlich hochqualifizierte Arbeitnehmer einwandern. Die Untersuchungen für 20 europäische Länder in 2010 zeigen auf, dass der Unterschied in der Nachfrage nach Umverteilung zwischen hoch- und geringqualifizierten Einheimischen größer wird, je größer der Anteil an geringqualifizierten Einwanderern in der unmittelbaren Nachbarschaft ausfällt. Hochqualifizierte Einheimische opponieren stärker gegen eine Ausweitung des Sozialstaats, da zum einen der höhere Anteil an geringqualifizierten Immigranten den Wohlfahrtsstaat stärker belastet und zum anderen die Löhne der Hochqualifizierten aufgrund eines geringeren relativen Arbeitsangebots steigen. Neben den ökonomischen Konsequenzen der Einwanderung, geht mit dem Zufluss an neuen Bürgern auch die Angst vor Umwälzungen in der sozialen Umgebung und vor der Verwässerung bisher geltender Normen- und Wertevorstellungen einher. Letztere können eine Ablehnung von Immigranten seitens der Einheimischen nach sich ziehen und die Forderung nach einer restriktiven Einwanderungspolitik stärken. Andererseits kann der vermehrte Kontakt zu Mitgliedern anderer Ethnien dazu beitragen Informationslücken und Ressentiments abzubauen und im Gegenzug die Toleranz und Solidarität gegenüber Minderheiten stärken. Die Untersuchungen für 18 europäische Länder in 2014 zeigen auf, dass vermehrter interethnischer Kontakt im Alltag sowohl die soziale Distanz der Einheimischen zu Immigranten als auch ihre Ängste vor gesellschaftlichen Umwälzungen senkt. Allerdings schlägt sich die Größe der sozialen Distanz der Einheimischen nicht in ihrer Nachfrage nach Umverteilung nieder, sondern die abstrakten Ängste vor dem Verlust der nationalen Kultur und der Verschlechterung des sozialen Zusammenlebens senken die Präferenz für Umverteilung der Einheimischen. Die Aufstiegschancen eines Bürgers über die Zeit hinweg oder im Vergleich zu den eigenen Eltern bestimmen mitunter seine Einstellung gegenüber dem Sozialstaat sowie die Weitergabe seiner Ansichten an die eigenen Kinder. Bezüglich der intergenerativen Einkommensmobilität befindet sich Deutschland im internationalen Mittelfeld; vor den Vereinigten Staaten (geringere Mobilität) und hinter den skandinavischen Ländern (höhere Mobilität). Fällt beispielsweise das Lebenseinkommen eines Vaters um 10 Prozent höher aus, so ist das Lebenseinkommen seines Sohnes in den Vereinigten Staaten um 4,9 Prozent und in Deutschland um 3,1 Prozent höher. Außerdem zeigt sich in Deutschland tendenziell ein zunehmender Einfluss des väterlichen Einkommens je höher das Einkommen des Sohnes ausfällt. In den Vereinigten Staaten ist der Einfluss des väterlichen Einkommens für Söhne mit geringem und hohem Einkommen höher als für Söhne mit einem mittleren Einkommen. Richtet man den Fokus auf die intragenerative Lohnmobilität und die Lohnungleichheit sind die Entwicklungen am aktuellen Rand eher ernüchternd. Indes wird seit 2000 ein steter Rückgang der Lohnmobilität beobachtet. Auffällig ist, dass seit Beginn der 2000er Jahre die Lohnmobilität im Dienstleistungssektor signifikant kleiner als im Verarbeitenden Gewerbe ausfällt. Dieses Ergebnis ist hauptsächlich von einer sinkenden Lohnmobilität im Gesundheits- und Sozialwesen getrieben. Des Weiteren haben die Dauer der Arbeitslosigkeit und der ausgeübte Beruf eines Arbeitnehmers an Bedeutung gewonnen. Seit 2006 hat der Anstieg der Lohnungleichheit an Geschwindigkeit verloren und das Lohnwachstum zwischen 2006 und 2013 ist sogar polarisiert, d.h. die Löhne der Arbeitnehmer am unteren und am oberen Ende der Lohnverteilung sind relativ zu den Löhnen in der Mitte stärker angestiegen. Diese Entwicklung ist jedoch nur teilweise auf die Computerisierung und die Automatisierung der Produktionsprozesse zurückzuführen. Zwar erfolgte zwischen 2001 und 2013 eine Verdrängung manueller Routinetätigkeiten, aber kognitive Routinetätigkeiten befinden sich weiterhin verstärkt am oberen Ende der Lohnverteilung und erfuhren sogar Zugewinne in ihrer Lohnmobilität. Manuelle nicht-routinemäßige Berufe wiederum befinden sich überproportional häufig am unteren Ende und in der Mitte der Lohnverteilung, so dass die Lohngewinne dieser Berufe am unteren Ende der Lohnverteilung durch die Lohneinbußen in der Mitte kompensiert wurden. KW - Einwanderung KW - Umverteilung KW - Soziale Mobilität KW - Umverteilungspräferenz KW - Einstellung gegenüber Immigranten KW - Intergenerative Einkommensmobilität KW - Intragenerative Lohnmobilität KW - Preference for redistribution KW - Attitudes towards immigrants KW - Intergenerational income mobility KW - Intragenerational wage mobility Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-148934 ER - TY - JOUR A1 - Schuberth, Florian A1 - Henseler, Jörg A1 - Dijkstra, Theo K. T1 - Partial least squares path modeling using ordinal categorical indicators JF - Quality & Quantity N2 - This article introduces a new consistent variance-based estimator called ordinal consistent partial least squares (OrdPLSc). OrdPLSc completes the family of variance-based estimators consisting of PLS, PLSc, and OrdPLS and permits to estimate structural equation models of composites and common factors if some or all indicators are measured on an ordinal categorical scale. A Monte Carlo simulation (N =500) with different population models shows that OrdPLSc provides almost unbiased estimates. If all constructs are modeled as common factors, OrdPLSc yields estimates close to those of its covariance-based counterpart, WLSMV, but is less efficient. If some constructs are modeled as composites, OrdPLSc is virtually without competition. KW - polychoric correlation KW - composites KW - common factors KW - ordinal categorical indicators KW - consistent partial least squares KW - structural equation models Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-144016 ER - TY - THES A1 - Koepke, Robin T1 - Capital Flows and Financial Stability in Emerging Markets: the Role of U.S. Monetary Policy T1 - Kapitalflüsse und Finanzstabilität in Schwellenländern: die Rolle der US-Geldpolitik N2 - Die Dissertation beschäftigt sich mit den Triebkräften der internationalen Kapitalströme in Schwellenländer sowie den Determinanten von Krisen in Schwellenländern. Besonderes Augenmerk liegt dabei auf der Rolle der Geldpolitik in den USA. Die Dissertation besteht aus drei eigenständigen Kapiteln. Kapitel 1 nimmt eine Bestandsaufnahme der umfangreichen empirischen Literatur zu den Triebkräften von Kapitalströmen in Schwellenländer vor. Die empirische Evidenz hinsichtlich dieser Triebkräfte ist entlang mehrer Dimensionen strukturiert. So werden die Triebkräfte entsprechend des etablierten Paradigmas eingeordnet, nachdem zwischen externen Faktoren (z.B. US-Geldpolitik) und internen Faktoren (z.B. Wachstum in Schwellenländern) unterschieden wird (Calvo et al. 1993). Eine umfassende Auswertung der empirischen Literatur zeigt, dass externe Faktoren Portfolioinvestitionen am meisten beeinflussen, gefolgt von Zuflüssen von Banken. Für Direktinvestitionen hingegen ist die empirische Evidenz hinsichtlich einer Reihe externer Faktoren nicht eindeutig. Interne Faktoren sind für alle drei Arten von Kapitalströmen von erheblicher Bedeutung, insbesondere für Zuflüsse von Banken. Darüber hinaus unterscheidet die vorliegende Studie zwischen zyklischen und strukturellen Faktoren, die Kapitalströme beeinflussen. Eine historische Analyse deutet darauf hin, dass die Literatur die Bedeutung von zyklischen Faktoren zulasten längerfristiger struktureller Trends überbewertet hat. Kapitel 2 nimmt eine empirische Analyse der Triebkräfte von Portfolioinvestitionen in Schwellenländern vor, mit besonderem Fokus auf die Rolle der Geldpolitik der US-Zentralbank. Dabei werden zwei unterschiedliche Datensätze zu hochfrequenten Portfolioinvestitionen mit Hilfe eines Zeitreihenmodells analysiert. Die empirische Analyse zeigt, dass Portfolioinvestitionen erheblich vom Überraschungsmoment der US-Geldpolitik getrieben werden. Wenn Marktteilnehmer ihre Erwartungen bezüglich des künftigen Pfades der Leitzinsen verändern, dann hat dies direkte Auswirkungen auf das Verhalten von Portfolio-Kapitalströmen. Eine Verschiebung der erwarteten Leitzinsen nach unten [nach oben] erhöht [vermindert] die Portfoliozuflüsse in Schwellenländer. Dieses Ergebnis legt eine neue Interpretation der Rolle der US-Geldpolitik nahe. In der gegenwärtigen Literatur besteht die zentrale Überzeugung hinsichtlich der Rolle der US-Geldpolitik darin, dass sich eine Erhöhung der Leitzinsen negativ auf Kapitalflüsse in Schwellenländer auswirkt, unabhängig davon wie schnell die Leitzinsen erhöht werden (z.B. Fernandez-Arias 1996). Die Ergebnisse der vorliegenden Arbeit hingegen deuten darauf hin, dass eine Straffung der US-Geldpolitik sich nicht notwendigerweise negativ auf Portfolioinvestitionen auswirkt. Negative Effekte bleiben insbesondere dann aus, wenn eine Zinserhöhung von den Marktteilnehmern bereits erwartetet und somit eingepreist war. Eine Erhöhung der Leitzinsen kann sogar mit positiven Effekten auf Kapitalströme einhergehen, nämlich dann, wenn sie von einer Abwärtsbewegung im erwarteten Pfad der Leitzinsen begleitet ist (zum Beispiel weil die Zentralbank signalisiert, dass weitere Zinserhöhungen nicht zu erwarten sind). Umgekehrt kann die US-Geldpolitik Portfolioinvestitionen auch ohne eine Erhöhung der Leitzinsen beeinträchtigen, nämlich dann, wenn Marktteilnehmer ihre Erwartungen hinsichtlich der künftigen Leitzinsen nach oben revidieren. Kapitel 3 untersucht die Rolle der US-Geldpolitik hinsichtlich ihres Einflusses auf das Auftreten von Krisen in Schwellenländern. Es werden ein negativ-binomisches Zählmodell und ein Panel-Logitmodell ökonometrisch geschätzt, um die Determinanten von Währungskrisen, Bankenkrisen und Staatsbankrotten in 27 Schwellenländern zu analysieren. Die Schätzergebnisse deuten darauf hin, dass die Wahrscheinlichkeit von Krisen wesentlich höher ist, (1) wenn die US-Leitzinsen über ihrem natürlichen Niveau liegen, (2) während Zinsanhebungszyklen, und (3) wenn Marktteilnehmer von Signalen überrascht werden, dass die US-Zentralbank die Leitzinsen schneller als erwartet anheben wird. Diese Ergebnisse stehen im Gegensatz zur bestehenden Literatur, die interne Faktoren in Schwellenländern als die dominante Ursache von Krisen ansieht (z.B. Gourinchas und Obstfeld 2012). Die Ergebnisse dieser Studie weisen auch auf ein erhöhtes Risiko von Krisen in Schwellenländern in den kommenden Jahren hin, wenn die US-Zentralbank wie erwartet die Leitzinsen weiterhin graduell anheben wird. N2 - This dissertation focuses on the drivers of international capital flows to emerging markets, as well as the determinants of crises in emerging markets. Particular emphasis is devoted to the role of U.S. monetary policy. The dissertation consists of three independent chapters. Chapter 1 is a survey of the voluminous empirical literature on the drivers of capital flows to emerging markets. The contribution of the survey is to provide a comprehensive assessment of what we can say with relative confidence about the empirical drivers of EM capital flows. The evidence is structured based on the recognition that the drivers of capital flows vary over time and across different types of capital flows. The drivers are classified using the traditional framework for external and domestic factors (often referred to as “push versus pull” drivers), which is augmented by a distinction between cyclical and structural factors. Push factors are found to matter most for portfolio flows, somewhat less for banking flows, and least for foreign direct investment (FDI). Pull factors matter for all three components, but most for banking flows. A historical perspective suggests that the recent literature may have overemphasized the importance of cyclical factors at the expense of longer-term structural trends. Chapter 2 undertakes an empirical analysis of the drivers of portfolio flows to emerging markets, focusing on the role of Fed policy. A time series model is estimated to analyze two different concepts of high frequency portfolio flows, including monthly data on flows into investment funds and a novel dataset on monthly portfolio flows obtained from individual national sources. The evidence presented in this chapter suggests a more nuanced interpretation of the role of U.S. monetary policy. In the existing literature, it is traditionally argued that Fed policy tightening is unambiguously negative for capital flows to emerging markets. By contrast, the findings presented in this dissertation suggest that it is the surprise element of monetary policy that affects EM portfolio inflows. A shift in market expectations towards easier future U.S. monetary policy leads to greater foreign portfolio inflows and vice versa. Given current market expectations of sustained increases in the federal funds rate in coming years, EM portfolio flows could be boosted by a slower pace of Fed tightening than currently expected or could be reduced by a faster pace of Fed tightening. Chapter 3 examines the role of U.S. monetary policy in determining the incidence of emerging market crises. A negative binomial count model and a panel logit model are estimated to analyze the determinants of currency crises, banking crises, and sovereign defaults in a group of 27 emerging economies. The estimation results suggest that the probability of crises is substantially higher (1) when the federal funds rate is above its natural level, (2) during Fed policy tightening cycles, and (3) when market participants are surprised by signals that the Fed will tighten policy faster than previously expected. These findings contrast with the existing literature, which generally views domestic factors as the dominant determinants of emerging market crises. The findings also point to a heightened risk of emerging market crises in the coming years if the Fed continues to tighten monetary policy. KW - Internationale Kapitalbewegung KW - Entwicklungsländer KW - USA KW - Geldpolitik KW - emerging markets KW - capital flows KW - financial crises KW - monetary policy KW - Federal Reserve KW - Schwellenländer KW - Kapitalbewegung KW - Finanzkrise Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140524 ER - TY - JOUR A1 - Berthold, Norbert A1 - Brunner, Alexander T1 - Wie ungleich ist die Welt? Eine empirische Analyse JF - Perspektiven der Wirtschaftspolitik N2 - Kein Abstract verfügbar. KW - Ungleichheit KW - empirische Analyse Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-194171 SN - 1468-2516 SN - 1465-6493 N1 - Dieser Beitrag ist mit Zustimmung des Rechteinhabers aufgrund einer (DFG-geförderten) Allianz- bzw. Nationallizenz frei zugänglich. VL - 12 IS - 4 ER - TY - THES A1 - Krebs, Oliver T1 - Essays on International Trade, Regional Change and Structural Growth T1 - Aufsätze zu Internationalem Handel, Regionalem Wandel und Strukturellem Wachstum N2 - Diese Dissertationsschrift befasst sich mit der ökonomischen Bedeutung von Regionen innerhalb Deutschlands. Regionen sind dabei aus zweierlei Sicht ein wichtiges Untersuchungsobjekt. Dies gilt zum Einen, da makroökonomische Schocks über Regionen Hinweg zu substantiell unterschiedlichen Effekten führen. Dringliche Themen wie die Robotisierung und die Verwendung künstlicher Intelligenz, der Brexit, oder US-amerikanische Zölle werden Würzburg anders Beeinflussen als Berlin und implizieren somit unterschiedliche Interessen bei der jeweiligen Bevölkerung, den jeweiligen Firmen und Politikern. Zum Anderen können regionale ökonomische Schocks wie Erfindungen, Insolvenzen, oder die Ansiedlung eines bedeutenden Betriebs durch Handel und „input-output“ Verbindungen zu Schocks von makroökonomischer Bedeutung anwachsen. Allerdings sind regionale Heterogenitäten innerhalb Deutschlands und die komplizierten Netzwerke verschiedenster Art zwischen Regionen weder gut dokumentiert noch ausreichenden verstanden. Dies gilt insbesondere auch für lokale Arbeitsmärkte welche ein Kerninteressen der Regionalpolitik darstellen und ebenfalls von bedeutenden Heterogenitäten geprägt sind. Die vorliegende Arbeit analysiert und quantifiziert das regionale Produktions- und Handelsnetzwerk innerhalb Deutschlands und untersucht welche Aspekte für die beobachteten breiten Unterschiede bei der Anpassung lokaler Arbeitsmärkte an ökonomische Schocks verantwortlich sind. Der erste Aufsatz, „How deep is your love? A quantitative spatial analysis of the transatlantic trade partnership“, setzt sich dabei mit der Prognose von Effekten eines konkreten Schocks in Form des vorgeschlagenen transatlantischen Freihandelsabkommens (TTIP) auseinander. Die Arbeit findet einerseits nur mäßige Wohlfahrtseffekte, sowohl für die Vereinigten Staaten als auch für die Europäische Union und Drittstaaten, andererseits zeigt sie, dass alle Landkreise in Deutschland Wohlfahrtsgewinne erzielen und es somit zumindest regional keine Verlierer des Abkommens geben würde. Der zweite Aufsatz, „RIOTs in Germany - Constructing an interregional input-output table for Germany“, nutzt einen einzigartigen Datensatz von Gütersendungen per LKW, Zug oder Schiff zwischen allen 402 deutschen Landkreisen im Jahr 2010 um, mit Hilfe weiterer Daten, eine interregionale input-output Tabelle für Deutschland zu erstellen und die Verflechtungen lokaler Märkte zu untersuchen. Der dritte Aufsatz, „On the Road (Again): Commuting and Local Employment Elasticities in Germany“, analysiert die Bedeutung des Pendelns für lokale Arbeitsmärkte. Es zeigt sich dabei, dass Pendelströme eine zentrale Marge bei der Anpassung an lokale Schocks darstellen und dass deutsche Arbeitsmärkte wesentlich flexibler und anpassungsfähiger sind als weitläufig angenommen. Der vierte Aufsatz, „Shocking Germany - A spatial analysis of German regional labor markets“, integriert Arbeitslosigkeit in die zur Prognose lokaler Schocks verwendeten quantitativen Modelle. Dadurch kann er den Effekte von durch Schocks ausgelöster Migration innerhalb Deutschland auf lokale Arbeitsmärkte quantifizieren. Es zeigt sich, dass die Änderung lokaler Arbeitslosigkeitsraten als Antwort auf lokale Produktivitätsschocks durch Migration im Durchschnitt um 70 Prozent gedämpft wird. Strukturelle Anpassung führen langfristig zu einer im Vergleich wesentliche geringeren Änderung dieser Raten. N2 - Economists (should) care about regions! On the one hand this is true because macroeconomic shocks have vastly different effects across regions. The pressing topics of robotization and artificial intelligence, Brexit, or U.S. tariffs will affect Würzburg differently than Berlin, implying varying interests among its population, firms and politicians. On the other hand, shocks in individual regions, such as inventions, bankruptcies or the attraction of a major plant can, through trade and input-output linkages, magnify to aggregate effects of macroe- conomic importance. Yet, regional heterogeneities in Germany and the complicated network of linkages that connect regions are still not well documented nor understood. A fact that is especially true for local labor markets that are of core interest to regional policy makers and that also feature substantial heterogeneity. This thesis provides a thorough quantification of such heterogeneities and an in-depth analysis of the sources and mechanisms that drive these differences. KW - Außenhandel KW - Deutschland KW - Wirtschaftliche Integration KW - Regionaler Arbeitsmarkt KW - Regionalpolitik KW - Regional trade KW - Regionaler Handel KW - Commuting KW - Pendeln KW - Regionalwirtschaft KW - Input-Output-Tabelle KW - Regionaler Arbeitsmarkt KW - Arbeitsmobilität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174954 ER - TY - THES A1 - Demmer, Claudia T1 - Merger-specific Efficiency Gains T1 - Fusionsbedingte Effizienzsteigerungen N2 - The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014. The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited. However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger. The present study is structured as follows. Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process. Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers. Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification. Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach. The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach. Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent. Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets. Chapter 8 concludes. N2 - Die Dissertation mit dem Titel 'Merger-specific Efficiency Gains' beschäftigt sich mit der Frage, ob und inwieweit Fusionen zu Effizienzsteigerungen der beteiligten Parteien beitragen. Die Analyse konzentriert sich dabei auf europäische Firmen im verarbeitenden Gewerbe, die im Zeitraum von 2005 bis einschließlich 2014 entweder als Käufer oder als Kaufobjekt an einer horizontalen Fusion beteiligt waren. Ergebnis dieser Dissertation ist, dass Fusionen einzigartige Prozesse sind. Allgemeingültige Aussagen hinsichtlich Zeitpunkt, Zeitraum und Umfang fusionsbedingter Effizienzgewinne sind daher nur bedingt möglich. Die Ergebnisse dieser Dissertation deuten darauf hin, dass Effienzgewinne als direkte Konsequenz einer Fusion möglich sind. Effizienzveränderungen können mithilfe einer Total Factor Productivity (TFP)-Methode gemessen werden. Signifikante fusionsbedingte Effizienzgewinne sind für gekaufte Unternehmen wahrscheinlicher als für Käufer. Desweiteren treten sie frühestens ab dem zweiten Jahr nach einer Fusion auf. Die Verschmelzung von zwei Unternehmen, die beide im gleichen Hauptsegment tätig sind, führt allerdings eher zu Effizienzverlusten als Effizienzgewinnen. Effizienzgewinne werden vor allem kurz- bis mittelfristig durch Veränderungen in den Material- und Personalkosten herbeigeführt. Insgesamt sind fusionsbedingte Effizienzgewinne eher von der Art der Firmen als von der Art der Fusion abhängig. Die Analyse der Gründe für fusionsbedingte Effizienzgewinne zeigt, dass Firmen, die die Information über die Fusion selber veröffentlichen, kurz- bis mittelfristig Effizienzgewinne generieren. Des Weiteren sind mittelgroße Käufer eher in der Lage Effizienzgewinne zu generieren als kleine oder große Käufer. Zudem zeigt die Untersuchung, dass kapitalintensivere Unternehmen häufig Effizienzgewinne nach einer Fusion generieren. Die Arbeit ist wie folgt strukturiert. In der Einleitung werden die Gründe für eine Beschäftigung mit der Frage nach fusionsbedingten Effizienzgewinnen dargelegt. Die Herausarbeitung von Faktoren, anhand derer sich der Zeitpunkt, der Umfang und der Zeitraum fusionsbedingter Effizienzgewinne bestimmen ließe, kann in der Praxis die Entscheidung für oder gegen eine Fusion erleichtern. Das zweite Kapitel beinhaltet einen Literaturüberblick über ausgewählte empirische Studien, die sich mit der Frage nach fusionsbedingten Effizienzgewinnen bereits befasst haben. Eine Studie, die horizontale Fusionen von europäischen Firmen im verarbeitenden Gewerbe zwischen 2005 und 2014 untersucht, liegt bisher nicht vor. Die vorliegende Arbeit leistet mit der Analyse von Effizienzgewinnen eben solcher Fusionen einen Beitrag zur vorhandenen Literatur. Das dritte Kapitel beschäftigt sich mit der Identifizierung von Fusionen. Die Fusionsdefinition entstammt der Europäischen Zusammenschlusskontrolle sowie den Richtlinien zur Bewertung horizontaler Fusionen. Anhand von Begriffsbestimmungen und festgelegten Kriterien schafft der europäische Gesetzgeber einen Rahmen zur Identifizierung von Fusionen. Im Fokus des vierten Kapitels steht die Effizienzschätzmethode. In empirischen Studien wird vorwiegend die TFP-Methode zur Schätzung der Effizienz eingesetzt. Die TFP-Methode bedient sich der ökonometrischen Methode der linearen Regression in Kombination mit einem Kontrollfunktionsansatz. Die Schätzung der Parameter erfolgt mit Hilfe der verallgemeinerten Momentenmethode. Die Ergebnisse der Effizienzschätzung gehen im fünften Kapitel in die Analyse fusionsbedinger Effizienzgewinne ein. Die Analyse erfolgt unter Zuhilfenahme der Difference-In-Difference (DID)-Methode und wird für Käufer und Gekaufte separat durchgeführt. Das sechste Kapitel beschäftigt sich mit einer alternativen Methode zur Effizienzschätzung, der Stochastic Frontier Analysis (SFA)-Methode. Vergleichbar zur TFP-Methode handelt es sich um eine stochastische Methode. Im Gegensatz zur TFP-Methode wird die Produktionsfunktion als Grenzfunktion und nicht als durchschnittliche Funktion geschätzt. So ist es möglich, Effizienz in Prozent auszudrücken. Es folgt im siebten Kapitel eine Analyse des Einflusses verschiedener fusions- und firmenspezifischer Faktoren auf die Effizienzveränderung bei Käufern und Gekauften. Die Analyse erfolgt mittels einer multiplen Regression und wird separat für kurz-, mittel- und langfristige Veränderung der Effizienz von Käufern und Gekauften durchgeführt. Im achten Kapitel folgt die Schlussbetrachtung. KW - Verarbeitende Industrie KW - Merger-specific Efficiency Gains KW - Mergers and Acquisitions KW - Effizienzsteigerung KW - Total Factor Productivity KW - Mergers KW - Efficiency Gains KW - TFP Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-183928 ER - TY - THES A1 - Winkler, Erwin T1 - Essays on International Trade and Labor Market Outcomes T1 - Beiträge zum Verständnis der Arbeitsmarktwirkungen von Internationalem Handel N2 - This thesis contributes to the understanding of the labor market effects of international trade, with a focus on the effects on wage and earnings inequality. The thesis draws on high-quality micro data and applies modern econometric techniques and theoretical concepts to improve our understanding of the distributional effects of international trade. The thesis focuses on the effects in Germany and the USA. N2 - Diese Arbeit trägt zum Verständnis der Arbeitsmarktwirkungen von internationalem Handel bei. Ein Schwerpunkt liegt hierbei auf den Effekten auf Lohn und Einkommensungleichheit. Die Arbeit nutzt qualitativ hochwertige Mikrodaten und wendet moderne ökonometrische Methoden und theoretische Konzepte an, um das Verständnis der Verteilungswirkungen von internationalem Handel zu verbessern. Die Arbeit fokussiert sich hierbei auf die Effekte in Deutschland und den USA. KW - Arbeitsmarkt KW - Welthandel KW - International Trade KW - Labor Market KW - Internationaler Handel KW - Ungleichheit KW - Globalisierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-209832 ER - TY - THES A1 - Koch, Daniel Friedrich T1 - Wirksame Begrenzung von Staatsverschuldung unter Berücksichtigung (polit-)ökonomischer und ethischer Aspekte T1 - Limitation of public debt N2 - In den letzten Jahrzehnten griff die Staatsverschuldung in den meisten westlichen Staaten um sich wie ein wucherndes Krebsgeschwür. Die Ereignisse im Zuge der Euro-Krise haben ein Schlaglicht auf die Gefahren dieser Entwicklung geworfen. Diese Arbeit untersucht die Frage, wie sich Staatsverschuldung wirksam begrenzen lässt, wann dies nötig ist und welche Komponenten dafür berücksichtigt werden sollten. Sie betrachtet verschiedene Ansätze zur Begrenzung von Staatsverschuldung, evaluiert sie, und versucht aus ihren Stärken und Schwächen eine verbesserte Begrenzungsregel abzuleiten. Schließlich untermauert sie die gesellschaftliche Akzeptanz und Relevanz ihres Vorschlags, indem sie die Notwendigkeit und die mögliche Ausgestaltung einer Begrenzungsregel nicht nur unter Effizienzgesichtspunkten betrachtet, sondern auch eine normative Untersuchung vornimmt. Die erarbeiteten Evaluierungskriterien und Vorschläge sollen gleichermaßen mit ethischen und ökonomischen Anforderungen vereinbar sein. Es wird gezeigt, dass Staatsverschuldung aus Effizienzgründen wie auch aus ethischen Überlegungen begrenzt werden sollte. Sie zeigt, dass es ohne ein entsprechendes Reglement immer wieder zu einem staatsverschuldungsförderndem Politikversagen kommt. Andererseits teilt diese Arbeit aber nicht den weit verbreiteten Defätismus, dass der Kampf gegen die ansteigende Verschuldung aussichtslos sei. Vielmehr wird ein Vorschlag erarbeitet, wie sich dieses Politikversagen aushebeln und solide Staatsfinanzen erzwingen lassen. Neben einer Reihe kleinerer Aspekte werden folgende vier zentralen Ergebnisse erarbeitet: 1. Es wird erstmals ein umfassender Kriterienkatalog entwickelt, der alle relevanten Theoriebereiche abdeckt, die systematische Evaluierung verschiedener Budgetregeln ermöglicht und als Schema für die Entwicklung neuer Budgetregeln dienen kann. Dieser Katalog in Form einer Kriterienmatrix operationalisiert die Erkenntnisse der volkswirtschaftlichen Forschung zu Charakter, Wirkung und Ursachen von Staatsverschuldung. Erstmals werden in dieser Arbeit die unterschiedlichen Theoriestränge innerhalb eines Kriterienkataloges verknüpft. Denn nur so kann ein vollständiges Bild gezeichnet werden, nur so kann ein Prüfschema Anspruch auf Vollständigkeit erheben, und nur so können Begrenzungskonzepte entwickelt werden, die auch erfolgversprechend sind. Die hier ausgearbeitete Kriterienmatrix schließt damit gleich zwei Lücken, indem sie bisher isolierte Erkenntnisse vereint und diese gleich in ein Analyseinstrument umwandelt, das Ausgangspunkt für weitere Diskussion sein kann. 2. Literatur und politische Praxis halten eine Vielzahl von Vorschlägen zur Begrenzung von Staatsverschuldung bereit. Diese werden jedoch kaum verglichen und gegeneinander abgewogen. Dies mag auch an dem Fehlen eines geeigneten Analyseinstruments liegen. Dadurch gehen aber wertvolle Erkenntnisse verloren, die sich aus dem Abgleich von Stärken und Schwächen ergeben. Diese Arbeit nutzt den hier neu entwickelten Analyserahmen, um den Vergleich und die Evaluation verschiedener Budgetregeln vorzunehmen. Dabei werden systematisch Vor- und Nachteile der verschiedenen Konzepte herausgearbeitet. Dieser Vergleich ist nicht nur für sich genommen interessant und lange überfällig, sondern kann auch für die Weiterentwicklung der Diskussion wertvoll sein. So zeigen sich in der, alle relevanten Theorien umfassenden Kriterienmatrix, blinde Flecken, die allen Ansätzen gemein sind. 3. Ausgehend von der Kriterienmatrix und den Ergebnissen der Evaluierungen entwickelt diese Arbeit eine verbesserte Begrenzungsregel: die qualifizierte Lastenbremse. Diese basiert auf der Kriterienmatrix und den zuvor durchgeführten Evaluierungen. Dank dieser Analyse können einerseits die jeweils besten Elemente aus den bestehen Konzepten übernommen, bzw. durch Modifikationen optimiert werden, andererseits können die zuvor identifizierten Lücken durch neue Vorschläge geschlossen werden. Im Kern wird vorgeschlagen, die anderweitig eingeführten Ansätze des strukturellen Schuldenverbotes mit bestimmten Ausnahmen beizubehalten, und durch die hier neu entwickelten Konzepte der Staatsbilanz und der unabhängigen Kontrollinstanz mit Sanktionsrechten zu erweitern. Dieser Vorschlag erfüllt alle zuvor erarbeiteten Kriterien, d.h. er berücksichtig als einziger alle relevanten theoretischen Erkenntnisse zur Staatsverschuldung. Die qualifizierte Lastenbremse umfasst explizite und implizite Staatsverschuldung und begrenzt deren Anstieg nachhaltig. Dabei wahrt sie jedoch auch die nötige Flexibilität. Vor allem aber schlägt sie mehrere Sicherheitsmechanismen vor, welche die Wirksamkeit der Regel im politischen Alltag gewährleisten. So wird den Erkenntnissen der Neuen Politischen Ökonomie Rechnung getragen. 4. Schließlich bleibt diese Arbeit nicht dabei stehen, einen Vorschlag zu entwickeln, der allen ökonomischen Kriterien gerecht wird. Sie begnügt sich nicht damit, festzustellen, dass es effizient und wohlfahrtssteigernd wäre, wenn ihre Vorschläge umgesetzt würden. Sie geht einen Schritt weiter, wirft einen Blick über den Tellerrand der Volkswirtschaftslehre hinaus und fragt auch nach der Legitimität und dem ethischen Wert des Vorschlags. Dies geht von der Erkenntnis aus, dass eine solch tiefgreifende Maßnahme wie eine wirksame Schuldenbremse auch das normative Empfinden der Bürger widerspiegeln muss und dass die gesellschaftliche Relevanz und Durchsetzbarkeit einer Regel von einer Legitimität abhängt, die auf Effizienz und Ethik gleichermaßen fußt. Unbewusst wird diese Auffassung in weiten Teilen der Ökonomie geteilt, was sich daran zeigt, dass viele Arbeiten zur Staatsschuldbegrenzung auf Gerechtigkeitsaspekte und moralische Verpflichtungen Bezug nehmen. Sie kranken jedoch daran, dass ihre Annahme der ethischen Fragwürdigkeit von Staatsverschuldung unbegründet bleibt. Dadurch stehen sie auf wackeligen Füßen. Diese Lücke wird hier geschlossen. Eine Analyse auf Basis der katholischen Soziallehre belegt die Zielkongruenz von normativen und ökonomischen Anforderungen an die Fiskalpolitik. Es wird gezeigt, dass die hier vorgeschlagene Begrenzung von Staatsverschuldung nicht nur ökonomisch, sondern auch ethisch geboten ist. Unterm Strich lässt sich festhalten, dass diese Arbeit den weit verbreiteten Fatalismus im Bezug auf Politik und Staatsverschuldung nicht teilt. Ja, es stimmt, dass der politische Wettbewerb oft unerfreuliche fiskalpolitische Ergebnisse hervorbringt. Ja, es stimmt, dass die Entwicklung der Staatsfinanzen besorgniserregend ist. Ja, es besteht dringender Handlungsbedarf. Aber nein, diese Entwicklung ist nicht alternativlos. Nein, der Kampf gegen die Staatsverschuldung ist nicht aussichtslos. Und nein, die westlichen Demokratien sind nicht zwangsläufig dazu verdammt, immer weiter in die Schuldenfalle zu rutschen. Staatsverschuldung lässt sich wirksam begrenzen und es gibt Mechanismen, mit denen das Politikversagen umgangen werden kann. Das Ringen um bessere Regeln ist die Mühe wert. Für eine wirksame Begrenzung von Staatsverschuldung einzutreten ist das Gebot der ökonomischen Vernunft, wie auch ethische Verpflichtung. N2 - Public debt has turned into a major political and economical problem. This thesis studies possibilities of limiting the rise of public debt. It not only evaluates the classical economic theory, but also incorporates findings of the theory of political economics. Alongside it conducts a thorough study of the ethical aspects of public debt. The key findings are a new approach to the limitation of public debt, a catalogue of criteria for every limitation rule to fulfill, and an evaluation of existing budget rules. KW - Öffentliche Schulden KW - Beschränkung KW - Politische Ökonomie KW - Ethik KW - Christliche Sozialethik KW - Katholische Soziallehre KW - ökonomische Theorie der Verfassung KW - Public Debt Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67383 ER - TY - THES A1 - Geiger, Michael T1 - Monetary Policy in China: Institutions, Targets, Instruments and Strategies T1 - Geldpolitik in China: Institutionen, Ziele, Instrumente und Strategien N2 - China’s monetary policy aims to reach two final targets: a paramount economical target (i.e. price stability) and a less important political target (i.e. economic growth). The main actor of monetary policy is the central bank, the People’s Bank of China (PBC). But the PBC is a non-independent central bank. The State Council approves the goals of monetary policy. Very limited instrument independence means that interest rates cannot be set at the PBC’s discretion, and in-sufficient personal independence fails to insulate central bank officials from political influence. Monetary policy in China applies to two sets of monetary policy instruments: (i) instruments of the PBC; and (ii) non-central bank policy instruments. The instruments of the PBC include price-based indirect and quantity-based direct instruments. Non-central bank policy instruments include price and wage controls. The simultaneous usage of all these instruments leads to various distortions that ultimately prevent the interest rate channel of monetary transmission from functioning. Moreover, the strong influences of quantity-based direct instruments and non-central bank policy instruments bring into question the approach of indirect monetary policy in general. The PBC officially follows the monetary targeting approach with monetary aggregates as intermediate targets. Domestic loan growth and the exchange rate are defined as additional intermediate targets. In an in-depth analysis of the intermediate targets two main issues are primarily explored: (i) Are the intermediate targets of the Chinese monetary policy controllable? (ii) Is a sufficient relationship between these targets and the inflation rate observable? It is then shown that monetary aggregates are very difficult to control, but they have a satisfactory relationship with the inflation rate. Similarly, domestic loan growth is difficult to control – a fact largely attributed to the interest rate elasticity of loans – while there is a particularly close relationship between credit growth and the inflation rate. The exchange rate as an intermediate target can be controlled through foreign exchange market interventions; at the same time the exchange rate appears to have a significant relationship to the domestic inflation rate. Discussing the special issue of sterilizing foreign exchange inflows, the study concludes that between 2002 and 2008 not only no costs were incurred by sterilization operations, but that the central bank was actually able to realize a profit through foreign exchange market interventions. Based on this, it is concluded that the exchange rate target has not adversely affected the domestic orientation of monetary policy on the whole. The final part of the study examines whether there are any alternative monetary policy approaches that may be able to describe the policy approach in China; special focus is placed on nominal GDP targeting, the Taylor rule, and inflation targeting. A literature review reveals that the concept of nominal GDP targeting may be able to detect inflationary tendencies in the economy and, in combination with other indicators, it could be a suitable concept to assess the overall economic situation. The author calculates a Taylor rule for China from 1994 to 2008 and concludes that there is no close relationship between the PBC lending and the Taylor rate. The author then designs an augmented Taylor rule expanded to include a credit component (credit-augmented Taylor rule). The study shows that the augmented Taylor rule does not perform much better than the original one, but that it maps high inflationary periods relatively well. This is attributed to direct interventions into the credit markets, which have played a major role in combating inflationary cycles over the past decades. The analysis ends with an introduction of the concept of inflation targeting and an examination of whether this could describe monetary policy in China. It is clear that the PBC does not currently follow the inflation targeting approach, although the Chinese authorities could actually be able to influence inflation expectations effectively, not least through direct instruments such as price controls. The author notes that the PBC indeed had a good track record of fighting inflation between 1994 and 2008, and that this may now indicate a good time to think about introducing inflation targeting in China. The central conclusion of the study is that the proven gradual approach to economic and monetary reforms in China is reaching its limit. To break the vicious cycle that relies on the continuous use of quantity-based instruments to compensate for the ineffective price-based instruments – which in turn arises from the simultaneous use of both types of instruments – a complete shift away from quantity-based instruments is needed. Only then the approach of indirect monetary policy, which was officially introduced in 1998, could come into full play. N2 - Chinas Geldpolitik verfolgt zwei Endziele: Ein alles überragendes wirtschaftliches Ziel (d.h. Preisstabilität) und ein weniger wichtiges politisches Ziel (d.h. Wirtschaftswachstum). Der Hauptakteur der Geldpolitik ist die Zentralbank, die People's Bank of China (PBC). Aber die PBC ist eine nicht-unabhängige Zentralbank. Der Staatsrat genehmigt die Ziele der Geldpolitik, und eine sehr begrenzte Instrumenten-Unabhängigkeit bedeutet, dass die Zinsen nicht vollständig nach dem Ermessen der PBC festgelegt werden können. Die ungenügende personelle Unabhängigkeit der Zentralbank schafft es nicht, die Amtsträger dem politischen Einfluss zu entziehen. Der Geldpolitik in China stehen zwei Arten von geldpolitischen Instrumenten zur Verfügung: (i) Instrumente der PBC; und (ii) Politische nicht-Notenbank Instrumente. Die Instrumente der PBC beinhalten preis-basierte indirekte und quantität-basierte direkte Instrumente. Zu den politischen nicht-Notenbank Instrumenten zählen Preis- und Lohnkontrollen. Die gleichzeitige Nutzung dieser Instrumente führt zu vielerei Verzerrungen, die letztlich verhindern, dass der Zinskanal des monetären Transmissionsmechanismus funktionieren kann. Darüber hinaus stellen die starken Einflüsse der quantität-basierten direkten Instrumente und der politischen nicht-Notenbank Instrumente den Ansatz der indirekten Geldpolitik im Allgemeinen in Frage. KW - Geldpolitik KW - China KW - Geldmengenpolitik KW - Inflation Targeting KW - Preisberwachung KW - Lohnkontrolle KW - Taylor-Regel KW - Geldmengensteuerung KW - Notenbank KW - People's Bank of China KW - Monetary Policy KW - Window Guidance KW - China KW - Monetary Sterilisation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-69945 ER - TY - THES A1 - Campion, Marie-Geneviève T1 - Competition between Originators and Generics: Public Regulation and Incentives to Innovate T1 - Wettbewerb zwischen Originalpräparaten und Generika: öffentliche Regulierung und Innovationsanreize N2 - The aim of this thesis is to examine the competition patterns that exist between originators and generics by focusing on the articulations between regulation and incentives to innovate. Once the characteristics of regulation in pharmaceutical markets is reviewed in the first chapter and an analysis of some current challenges related to cost-containment measures and innovation issues is performed, then in the second chapter, an empirical study is performed to investigate substitution patterns. Based on the EC´s merger decisions in the pharmaceutical sector from 1989 to 2011, this study stresses the key criteria to define the scope of the relevant product market based on substitution patterns and shows the trend towards a narrower market in time. Chapters three and four aim to analyse in depth two widespread measures, the internal reference pricing system in off-patent markets, and risk-sharing schemes in patent-protected markets. By taking into account informational advantages of originators over generics, the third chapter shows the extent to which the implementation of a reference price for off-patent markets can contribute in promoting innovation. Finally, in the fourth chapter, the modeling of risk-sharing schemes explains how such schemes can help in solving moral hazard and adverse selection issues by continuously giving pharmaceutical companies incentives to innovate and supplying medicinal products of a higher quality. N2 - In dieser Arbeit werden erstmals die Merkmale der Regulierung auf Pharmamärkten beschrieben und die aktuellen Fragen bezüglich der verschiedenen Marktteilnehmer (Patienten, Ärzte, Krankenkassen) vorgestellt, die im Verlauf dieser Dissertation beantwortet werden: Was sind die Substitutionsmuster auf den Pharmamärkten? Wie kann Preiswettbewerb gefördert werden ohne die Innovationsanreize zu gefährden? Wie können Patienten mit innovativen Arzneimitteln versorgt werden ohne das Haushaltsbudget zu gefährden? Um die erste Frage zu beantworten wird in dem zweiten Teil dieser Dissertation die Definition der relevanten Marktabgrenzung auf Pharmamärkten untersucht. Hierbei wird die Praxis der Europäischen Kommission zur Marktabgrenzung im Bereich Fusionen durch eine ökonometrische Analyse untersucht, um die Substitutionskriterien ausführlich zu analysieren. Der dritte Teil dieser Arbeit untersucht die Funktion sowie die Auswirkungen eines internen Referenzpreissystems auf die Innovationsanreize von Pharmaunternehmen. Zu diesem Zweck werden zunächst die existierenden Verzerrungen im Wettbewerb zwischen Originalpräparaten und Generika betrachtet. Daraufhin sollen die Auswirkungen der Implementierung eines Referenzpreissystems erläutert werden. Die abschließenden Schlussfolgerungen unterstreichen die Relevanz eines solchen Systems, um Anreize für Innovationen zu setzen. Nach der Analyse des Referenzpreissystems für Produkte, die nicht mehr unter Patentschutz stehen, um den Preiswettbewerb zu stärken, bezieht sich der vierte und letzte Teil auf die Vereinbarungen zur Risikoteilung, die eine Alternative sind, um kosteneffiziente innovative Arzneimittel verfügbar zu machen. Zu diesem Zweck werden Vereinbarungen zur Risikoteilung theoretisch in Bezug auf Fragestellungen zu moralischem Risiko und adverser Selektion untersucht. Im weiteren Verlauf der Arbeit wird gezeigt, dass Vereinbarungen zur Risikoteilung wünschenswert sind, weil sie Firmen Anreize geben, im Laufe des Lebenszyklus eines Arzneimittels zu investieren. Dazu kann bewiesen werden, dass nur eine Firma mit einem effizienten Produkt eine Vereinbarung zur Risikoteilung anbieten würde. Als Schlussbemerkungen werden weitere Forschungsaspekte, vor allem biologische Präparate, angesprochen. KW - Pharmazeutische Industrie KW - Innovation KW - Originators KW - Pharmaceutical markets KW - Risk-sharing schemes KW - Reference pricing schemes KW - Relevant market KW - Arzneimittelforschung KW - Produktinnovation KW - Anreizsystem KW - Arzneimittelmarkt KW - Wettbewerb KW - Europäische Kommission / Generaldirektion Wettbewerb Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111701 ER - TY - THES A1 - Kempf, Stefan T1 - Das Optionswertmodell zur Erklärung der Rentenentscheidung T1 - The Retirement Decision According To The Option Value Model N2 - Diese empirische Arbeit untersucht Determinanten des Renteneintritts. Sie basiert auf einem Optionswertmodell, um die Bedeutung finanzieller Überlegungen für ein Aufschieben des Renteneintritts zu analysieren. Zusätzlich wird der Einfluss institutioneller Rahmenbedingungen betrachtet. Ein neu verfügbarer Datensatz des Verbands Deutscher Rentenversicherungsträger wird dazu verwendet. Die Ergebnisse zeigen, dass Arbeitslosigkeit und Krankheit zu einem großen Teil einen frühen Renteneintritt erklären. Zusätzlich hat der Optionswert einen großen Erklärungsgehalt. N2 - This paper empirically investigates determinants of retirement decisions. It is based on the option value approach to assess the importance of financial considerations for delaying immediate retirement. In addition, the impact of institutional conditions is considered. Newly available data from the data base of the statutory pension organization providing exact information about income, pension claims, and unemployment spells is used. The results indicate that unemployment and illness explain a great portion of early retirements. Additionally, the option value has explanatory power. KW - Rente KW - Rentenberechnung KW - Maximum-Likelihood-Schätzung KW - Rentenentscheidung KW - Simulierte Wahrscheinlichkeiten KW - GHK KW - Retirement Decision KW - Simulated Probabilities KW - GHK Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-25727 ER - TY - THES A1 - Behringer, Jan T1 - Essays on income distribution and macroeconomic imbalances T1 - Einkommensverteilung und makroökonomische Ungleichgewichte N2 - The contribution of this dissertation is to empirically analyze the link between income distribution, sectoral financial balances, and the current account. Firstly, it examines the relationship between the personal and the functional income distribution which may have rather different implications for aggregate demand and the current account. Secondly, it analyzes the importance of different sectors of the economy for current account balances and tests whether households are able to fully pierce the institutional veils of the corporate and the government sector. Thirdly, it investigates how changes in the personal and the functional income distribution affect the saving and investment decisions of the household and the corporate sector, and hence the current account. Finally, it shows how different growth regimes are linked to different patterns of personal and functional income distribution, and how differences in wage bargaining institutions contribute to explaining these different patterns of income distribution. N2 - Der Forschungsschwerpunkt der vorliegenden Dissertation ist die empirische Analyse des Zusammenhangs zwischen Einkommensverteilung, sektoralen Finanzierungssalden und der Leistungsbilanz. Erstens untersucht die Dissertation die Beziehung zwischen der personellen Einkommensverteilung und der funktionalen Einkommensverteilung, welche unterschiedliche Implikationen für die aggregierte Nachfrage und die Leistungsbilanz haben können. Zweitens wird die Rolle der unterschiedlichen Sektoren innerhalb einer Volkswirtschaft für die Entwicklung von Leistungsbilanzsalden analysiert. Es wird getestet, inwiefern die Ersparnisbildung der privaten Haushalte von der Ersparnis der anderen inländischen Sektoren (Unternehmen, Staat) abhängt. Drittens wird der Einfluss von Veränderungen in der personellen und funktionalen Einkommensverteilung auf das Spar- und Investitionsverhalten des privaten Haushaltssektors und des Unternehmenssektors sowie auf den Leistungsbilanzsaldo untersucht. Schließlich zeigt die Dissertation, wie unterschiedliche Ausprägungen in der Einkommensverteilung in einzelnen Ländern zur Entstehung von unterschiedlichen Wachstumsmodellen beitragen und wie sich Unterschiede in der Koordinierung von Lohnverhandlungen auf die Einkommensverteilung auswirken. KW - Einkommensverteilung KW - Makroökonomie KW - Sektorale Finanzierungssalden KW - Income distribution KW - Sectoral financial balances KW - Current account KW - Ungleichgewicht KW - Leistungsbilanz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217252 ER - TY - THES A1 - Simon, Camilla T1 - Financial Market Effects of Macroeconomic Policies T1 - Finanzmarkteffekte makroökonomischer Politikmaßnahmen N2 - Within three self-contained studies, this dissertation studies the impact and interactions between different macroeconomic policy measures in the context of financial markets empirically and quantitatively. The first study of this dissertation sheds light on the financial market effects of unconventional central bank asset purchase programs in the Eurozone, in particular sovereign bond asset purchase programs. The second study quantifies the direct implications of unconventional monetary policy on decisions by German public debt management regarding the maturity structure of gross issuance. The third study provides novel evidence on the role of private credit markets in the propagation of public spending toward private consumption in the U.S. economy. Across these three studies a set of different time-series econometric methods is applied including error correction models and event study frameworks to analyze contemporaneous interactions in financial and macroeconomic data in the context of unconventional monetary policy, as well as vector auto regressions (VARs) and local projections to trace the dynamic consequences of macroeconomic policies over time. N2 - Die vorliegende Dissertation untersucht in drei in sich geschlossenen Studien die Effekte und Wechselwirkungen verschiedener makroökonomischer Politikmaßnahmen an den Finanzmärkten empirisch und quantitativ. Die erste Studie dieser Dissertation beleuchtet dabei die Finanzmarkteffekte unkonventioneller geldpolitischer Programme - insbesondere Staatsanleihekäufe - der Europäischen Zentralbank. Die zweite Studie untersucht und quantifiziert die direkten Auswirkungen unkonventioneller Geldpolitik auf Entscheidungen des deutschen öffentlichen Schuldenmanagements hinsichtlich der Laufzeitenstruktur neuemittierter Wertpapiere. Die dritte Studie liefert neue Erkenntnisse über die Rolle der privaten Kreditmärkte bei der Transmission öffentlicher Ausgaben für den privaten Konsum in der US-Wirtschaft. Im Rahmen der enthaltenen Studien wird eine Reihe verschiedener zeitreihenökonometrischer Methoden angewandt, darunter Fehlerkorrekturmodelle und Ereignisstudien zur Analyse simultaner Wechselwirkungen von Finanz- und makroökonomischen Daten im Kontext unkonventioneller Geldpolitik sowie Vektor-Autoregressionen (VARs) und lokale Projektionen, um die dynamischen Folgen makroökonomischer Politiken im Zeitablauf zu verfolgen. KW - Geldpolitik KW - Notenbank KW - Kreditmarkt KW - Unkonventionelle Geldpolitik KW - Öffentliches Schuldenmanagement KW - Öffentliche Ausgaben KW - Unconventional Monetary Policy KW - Public Debt Meanagement KW - Public Spending KW - Europäische Zentralbank KW - Bundesrepublik Deutschland - Finanzagentur KW - Zeitreihenanalyse Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217654 ER - TY - THES A1 - Greer, Katja T1 - Essays in Industrial Organization: Vertical Agreements in a Dynamic View T1 - Aufsätze in Industrieökonomik: Vertikalvereinbarungen in einer dynamischen Sichtweise N2 - This dissertation deals with the contract choice of upstream suppliers as well as the consequences on competition and efficiency in a dynamic setting with inter-temporal externalities. The introduction explains the motivation of the analysis and the comparison of different contract types, as for example standard contracts like simple two-part tariffs and additional specifications as contracts referencing the quantity of the contract-offering firm or the relative purchase level. The features of specific market structures should be considered in the analysis of specific vertical agreements and their policy implications. In particular, the role of dynamic changes regarding demand and cost parameters may have an influence on the results observed. In the first model, a dominant upstream supplier and a non-strategic rival sell their products to a single downstream firm. The rival supplier faces learning effects which decrease the rival’s costs with respect to its previous sales. Therefore, learning effects represent a dynamic competitive threat to the dominant supplier. In this setup, the dominant supplier can react on inter-temporal externalities by specifying its contract to the downstream firm. The model shows that by offering market-share discounts, instead of simple two-part tariffs or quantity discounts, the dominant supplier maximizes long-run profits, and restricts the efficiency gains of its rival. If demand is linear, the market-share discount lowers consumer surplus and welfare. The second model analyzes the strategic use of bilateral contracts in a sequential bargaining game. A dominant upstream supplier and its rival sequentially negotiate with a single downstream firm. The contract choice of the dominant supplier as well as the rival supplier’s reaction are investigated. In a single-period sequential contracting game, menus of simple two-part tariffs achieve the industry profit maximizing outcome. In a dynamic setting where the suppliers sequentially negotiate in each period, the dominant supplier uses additional contractual terms that condition on the rival’s quantity. Due to the first-mover advantage of the first supplier, the rival supplier is restricted in its contract choice. The consequences of the dominant supplier’s contract choice depend on bargaining power. In particular, market-share contracts can be efficiency enhancing and welfare-improving whenever the second supplier has a relatively high bargaining position vis-`a-vis the downstream firm. For a relatively low bargaining position of the rival supplier, the result is similar to the one determined in the first model. We show that results depend on the considered negotiating structure. The third model studies the contract choice of two upstream competitors that simultaneously deal with a common buyer. In a complete information setting where both suppliers get to know whether further negotiations fail or succeed, a singleperiod model solves for the industry-profit maximizing outcome as long as contractual terms define at least a wholesale price and a fixed fee. In contrast, this collusive outcome cannot be achieved in a two-period model with inter-temporal externalities. We characterize the possible market scenarios, their outcomes and consequences on competition and efficiency. Our results demonstrate that in case a rival supplier is restricted in its contract choice, the contract specification of a dominant supplier can partially exclude the competitor. Whenever equally efficient suppliers can both strategically choose contract specifications, the rivals defend their market shares by adapting appropriate contractual conditions. The final chapter provides an overview of the main findings and presents some concluding remarks. N2 - Die vorliegende Dissertation beschäftigt sich mit vertraglichen Vereinbarungen von Unternehmen, welche auf unterschiedlichen Stufen der Wertschöpfungskette agieren. Insbesondere analysiert diese Arbeit die Besonderheiten der Vertragswahl als auch deren Konsequenzen, die im dynamischen Kontext mit intertemporalen Externalitäten entstehen können. In der Einleitung wird eine gemeinsame Motivation der darauf folgenden Aufsätze dargelegt. Wettbewerbspolitische Entscheidungen über die Anwendung von vertikalen Verträgen als auch die Beachtung einer dynamischen Sichtweise verdeutlichen die Thematik, welche in den drei folgenden Aufsätzen näher behandelt wird. Der erste Aufsatz analysiert die Vertragswahl eines dominanten Herstellers, welcher durch Lerneffekte seines Rivalen einem stärkeren Wettbewerb ausgesetzt wird. Als Lerneffekt wird hierbei die Tatsache bezeichnet, dass abhängig von den bereits verkauften Einheiten eines Produktes die Grenzkosten des Herstellers sinken. Der dominante Hersteller kann dem Einfluss dieser intertemporalen Externalitäten entgehen, indem er seine Preisstrategie anpasst. Marktanteilsverträge, welche den zu kaufenden Anteil der Gesamtnachfrage eines Käufers festlegen, haben gegenüber zwei-stufigen Tarifen oder Mengen-bezogenen Verträgen den Vorteil, dass sie den Gewinn des dominanten Herstellers optimieren. Diese Verträge führen dazu, dass die Lerneffekte des Rivalen geringer ausfallen als im Fall anderer Vertragsarten. Mithilfe einer Spezifikation der Nachfragefunktionen kann ferner nachgewiesen werden, dass die Verwendung von arktanteilsverträgen des dominanten Herstellers im Vergleich zu den anderen Vertragsarten die Konsumentenrente als auch die Wohlfahrt mindert. Während im ersten Aufsatz davon ausgegangen wird, dass es sich bei dem Rivalen um ein ’competitive fringe’ handelt, d.h. im Kontext ein Unternehmen, welches nicht strategisch handeln kann, wird diese Annahme in den folgenden zwei Aufsätzen angepasst. Der zweite Aufsatz thematisiert bilaterale, sequentielle Verhandlungen zweier strategischer Hersteller mit einem Händler. Es kann gezeigt werden, dass in einem ein-periodigen Modell bereits Vertragsmenüs zwei-stufiger Tarife zum Industriegewinn-maximierenden Ergebnis führen. Somit ist eine zusätzliche Vertragsspezifikation im ein-periodigen Modell hinfällig. In einem zwei-periodigen Modell mit intertemporalen Externalitäten können zwei-stufige Tarife dieses Ergebnis jedoch nicht erzielen. Es wird gezeigt, dass der erste verhandelnde Hersteller, abhängig von den Modellannahmen, Marktanteilsverträge präferiert, da diese ausreichend viele Vertragselemente festlegen können um das kollusive Ergebnis zu erzielen. Die Vertragswahl des strategischen zweiten Herstellers hat indes keinen Einfluss auf das Ergebnis. Unter der Annahme, dass beide Hersteller durch Lerneffekte profitieren können, ergibt sich, dass ein Marktanteilsvertrag des ersten Herstellers die Lerneffekte des Rivalen einschränken oder beschleunigen kann, abhängig von der Verhandlungsposition der Hersteller gegenüber dem Händler. In gleicher Weise werden Konsumentenrente und Wohlfahrt durch Marktanteilsverträge des dominanten Herstellers entweder gemindert oder gestärkt. Der dritte Aufsatz setzt sich mit der Vertragswahl von zwei simultan handelnden, strategischen Herstellern auseinander. Unter der Annahme vollständiger Information wird im ein-periodigen Modell gezeigt, dass das Industriegewinn-maximierende Ergebnis bereits mit Hilfe von zwei-stufigen Tarifen erreicht wird. Somit ist in einem statischen Rahmen die Verwendung von zusätzlichen Vertragsbedingungen unnötig. Im dynamischen Rahmen mit intertemporalen Externalitäten ergibt sich hingegen niemals das kollusive Ergebnis. Das Verhandeln von Marktanteilsverträgen oder aber Mengen-bezogenen Verträgen kann eine dominante Strategie für die Hersteller darstellen. Im Vergleich zu zwei-stufigen Tarifen nimmt der Wettbewerb abhängig davon, ob ein oder beide Hersteller Vertragsspezifizierungen vornehmen können, eine Stackelberg-ähnliche oder eine oligopolistische Form an. Vertragsspezifizierungen führen zu Gewinnsteigerungen, aber auch zu einer Wohlfahrtsverringerung. Im letzten Kapitel wird ein Überblick über die wichtigsten Ergebnisse der Aufsätze gegeben. Der Zusammenhang dieser Erkenntnisse wird abschließend verdeutlicht. KW - Unternehmenskooperation KW - vertical agreements KW - rebate systems KW - learning-by-doing KW - Lieferantenwahl KW - Kontrakttheorie KW - Unternehmen KW - Wettbewerbsstrategie KW - Marktstruktur KW - Vertikalvereinbarungen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-136939 ER - TY - THES A1 - Riedel, Robby T1 - Die 'Too Big to Fail'-Problematik - Quantitative Regulierung zur Reduzierung der Interbankenverflechtung und damit systemischen Risikos - T1 - 'Too Big to Fail' - Quantitative Regulation of Interconnectedness and Systemic Risk - N2 - Im Rahmen dieser Arbeit wird ein Modell entwickelt, welches auf Basis von länderübergreifenden Forderungs- und Verbindlichkeitsstrukturen die internationale Vernetzung der Banken abbildet. Die Analyse offenbart, dass systemische Risiken im Allgemeinen von wenigen Instituten ausgehen. Zudem wird aufgezeigt, dass solche Risiken vornehmlich in Banken aus Volkwirtschaften auftreten, in denen die Finanzindustrie eine exponierte Stellung einnimmt. Auf der anderen Seite sind die Institute aus diesen Ökonomien auch überproportional anfällig gegenüber systemischen Schocks und somit erhöhten Ansteckungsgefahren ausgesetzt. Systemische Risiken gehen nicht nur von Großbanken aus, sondern auch der Ausfall mittelgroßer oder gar kleiner Institute kann erhebliche Konsequenzen für das Gesamtsystem nach sich ziehen. Darüber hinaus ist ersichtlich, dass höhere systemische Risiken von Banken ausgehen, die einen hohen Verflechtungsgrad innerhalb des Bankensystems haben. Die potentiellen Schäden für das Gesamtsystem sind umso höher, je mehr signifikante Geschäftsbeziehungen eine Bank zu anderen Banken aufweist. Systemische Risiken können nicht grundsätzlich innerhalb eines nationalen Bankensystems isoliert werden, denn ein Großteil der Folgeausfälle erfolgt länderübergreifend. Die Analyse bringt zudem zu Tage, dass seit dem Jahr 2006 systemische Risiken im Allgemeinen zurückgingen. In der vorliegenden Arbeit werden zunächst regulatorische Instrumente zur Reduzierung systemischer Risiken für alle Banken vorgestellt. Es lässt sich konstatieren, dass Eigenkapitalerhöhungen die Widerstands- und Verlustabsorptionsfähigkeit der Banken maßgeblich stärken würden. Auch können durch geeignete Großkreditvorschriften Risiken für das Gesamtsystem reduziert werden. Um das System entscheidend zu stabilisieren, müssten diese Instrumente allerdings erheblich von den aktuellen Bestimmungen abweichen. Die Untersuchungen zeigen, dass eine Eigenkapitalausstattung der Banken von 12% der risikoungewichteten Bilanz (Leverage Ratio) oder Großkreditvorschriften für Exposures zu einzelnen Gegenparteien von höchstens 18% des haftenden Eigenkapitals maßgeblich zu einer adäquaten bzw. notwendigen Finanzmarktstabilität beitragen können. Diese Arbeit befasst sich ferner mit möglichen regulatorischen Ansätzen zur Reduzierung systemischer Risiken speziell für systemrelevante Banken. Eine mögliche regulatorische Alternative könnte eine Kombination sowohl höherer Eigenkapitalvorschriften als auch verschärfter Großkreditvorschriften darstellen. Durch eine Leverage Ratio von mindestens 9% für nicht-systemrelevante Institute und eine höhere Quote von 11% für systemrelevante Banken, kombiniert mit einem maximalen Exposure zwischen zwei Vertragsparteien von 23% sowie zu systemrelevanten Banken von maximal 18%, ließe sich das systemische Risiko im Bankensystem entscheidend senken. N2 - For this paper, a model has been educed, depicting the international network of banks on the basis of transnational receivable and liability structures. The analysis reveals that systemic risk originates from few institutions only. In addition, it is demonstrated that those risks mainly occur in banks of economies having a financial industry that occupies a prominent position. On the other hand, financial institutions within those economies are disproportionately vulnerable to systemic shocks and thus have increased risk of infection. Systemic risks can not only spring from major banks, but even the failure of medium-sized or small institutions may have substantial consequences for the entire system. Moreover, it is evident that higher systemic risks are caused by banks that have a large degree of entanglement within the banking system. The more significant the relations of a certain bank are to other banks, the greater the potential damage is for the entire system. Systemic risks cannot always be isolated within a national banking system. The analysis also brings to light that systemic risk has decreased in general since 2006. First, in this work some regulatory instruments to reduce systemic risk for all banks are derived. It can be stated that capital increases is an appropriate tool to strengthen the resistance and loss absorption capacity of banks considerably. A reduction of risk can also be achieved by suitable large exposures regimes. In order to stabilize the system sufficiently, these instruments should however be substantially different from the current regulations. The investigations show that a capital adequacy of banks from 12% of riskunweighted balance (leverage ratio) as well as large exposures restrictions to individual counterparties by less than 18% of the liable capital can contribute significantly to achieve adequate and necessary financial stability. This work also deals with possible regulatory approaches that are cut out for systemically important banks in particular. A possible regulatory alternative could be a combination of both higher capital requirements and stricter large exposures regime. A leverage ratio of at least 9% for non-systemically important institutions and a higher rate of 11% for systemically important banks is advisable. That should be combined with a maximum exposure between two parties of 23% as well as exposures to systemically important banks by at most 18%. Altogether those measures would lead to a vast reduction of systemic risk in the banking system. KW - Systemisches Risiko KW - Bankenregulierung KW - Basel III KW - Interbankenmarkt KW - Finanz- und Wirtschaftskrise KW - Interconnectedness KW - Geldmarkt KW - Bank KW - Unternehmensgröße KW - Insolvenz KW - Bankenaufsicht KW - Großbank KW - Strukturreform Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-138319 ER - TY - THES A1 - Rüth, Sebastian T1 - Monetary Policy, Housing Market Dynamics, and the Propagation of Shocks T1 - Geldpolitik, Dynamik in Immobilienmärkten und die Übertragung von Schocks N2 - This dissertation studies the interrelations between housing markets and monetary policy from three different perspectives. First, it identifies housing finance specific shocks and analyzes their impact on the broader economy and, most importantly, the systematic monetary policy reaction to such mortgage sector disturbances. Second, it investigates the implications of the institutional arrangement of a currency union for the potential buildup of a housing bubble in a member country of the monetary union by, inter alia, fostering border-crossing capital flows and ultimately residential investment activity. This dissertation, third, quantifies the effects of autonomous monetary policy shifts on the macroeconomy and, in particular, on housing markets by conditioning on financial sector conditions. From a methodological perspective, the dissertation draws on time-series econometrics like vector autoregressions (VARs) or local projections models. N2 - In dieser Dissertation werden die Wechselwirkungen zwischen Geldpolitik und Immobilienmärkten empirisch untersucht. Hierbei beleuchtet die Arbeit potentielle Interaktionen aus drei unterschiedlichen Perspektiven: Erstens wird die systematische Reaktion von Geldpolitik auf veränderte Immobilienfinanzierungskonditionen untersucht. Zweitens wird der Einfluss des institutionellen Rahmens einer Währungsunion auf die Entstehung von Immobilienblasen in Teilen der Währungsunion analysiert und drittens werden die Effekte exogener Zinsimpulse auf die Makroökonomie und vor allen Dingen auf Häusermärkte quantifiziert, wobei für die Analyse solcher Effekte explizit Interdependenzen mit Finanzmarktkonditionen Berücksichtigung finden. Methodisch kommen zum Zwecke dieser Analysen vor allem zeitreihenökonometrische Ansätze wie Vektor-Autoregressionen (VAR) oder lokale Projektions-Modelle zur Anwendung. KW - Geldpolitik KW - Immobilienmarkt KW - Wohnungsbau KW - Währungsunion KW - Housing markets KW - Monetary policy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-137221 ER - TY - THES A1 - Musaev, Abdumalik T1 - Geld- und Wechselkurspolitik in rohstoffreichen Ländern. Eine empirische Analyse am Beispiel der Volkswirtschaft Russlands. T1 - Monetary policy and exchange rate strategy in resource-rich countries. An empirical analysis on example of Russian economy N2 - Die Arbeit beschäftigt sich mit den speziellen Herausforderungen der Geld- und Wechselkurspolitik in rohstoffreichen Ländern. Die Auseinandersetzung mit der Thematik erfolgt dabei anhand einer empirischen Analyse der Wirtschaftsentwicklung Russlands im Zeitraum zwischen 2000 bis 2009. Diese Periode wurde durch eine hohe Volatilität des Ölpreises gekennzeichnet, die die Wirtschaftsentwicklung Russlands erheblich beeinflusste. Die aus dem Anstieg des Ölpreises resultierenden Rohstoffeinnahmen entfalteten einerseits positive wirtschaftliche Effekte. Der im Jahr 1998 für zahlungsunfähig erklärte Staat konnte sich wenige Jahre später eine expansive Haushaltspolitik leisten. Andererseits entstanden durch die Rohstoffeinnahmen auch negative wirtschaftliche Folgen. Infolge der starken realen Aufwertung des Rubels wurde die Wettbewerbsfähigkeit des Industriesektors deutlich belastet. Die Import- und Rohstoffabhängigkeit des Landes nahm deutlich zu. Unter der hohen Volatilität der Rohstoffpreise hat die Finanz- und Wirtschaftsstabilität stark gelitten. Die durch die Ölpreisschwankungen verursachten Wechselkursturbulenzen wurden zusätzlich durch spekulative Kapitalbewegungen verstärkt. Die realen Geldmarktzinssätze verliefen überwiegend in einem negativen Bereich. Die Inflationsrate konnte zwar reduziert werden, die angekündigten Inflationsziele konnten aber nicht eingehalten werden. Die unkontrollierte Geldbasisbildung kam durch die Devisenmarktinterventionen der Notenbank und eine stark expansiven Fiskalpolitik zustande. Auf dem Geldmarkt herrschte ein Angebotsüberhang. Darüber hinaus nutzten die Kreditinstitute die Verschuldung im Ausland als eine zusätzliche Quelle für ihre boomenden Kreditgeschäfte. Die Handlungsoptionen der Notenbank waren zusätzlich durch die rohstofffinanzierte expansive Fiskalpolitik eingeschränkt. Die Spielräume der Notenbank waren umso geringer, je höher der Ölpreis anstieg und je mehr der Staat die Rohstoffeinnahmen ausgab. Die Ölpreisentwicklung und die sich selbst verstärkenden Kapitalflüsse hatten entscheidenden Einfluss auf die Zinssätze und den Wechselkurs. Nach Meinung des Verfassers werden alle rohstoffreichen offenen Länder mit hohen Inflationsraten mit einer ähnlichen Problematik konfrontiert. Der Trade-off heißt: Entweder Wechselkursaufwertung oder Inflationsimport. Wie ist dieses Problem zu lösen? Welche Alternativen hatte die Notenbank Russlands? Nach dem IWF wäre ein Free Floating die beste Strategie. Demnach hätte eine hohe Wechselkursvolatilität den Kapitalanleger trotz der hohen Renditemöglichkeiten abgeschreckt. Der Verlauf des Wechselkurses hätte seinen Fundamentalfaktoren entsprochen. Dabei gilt nach dem IWF der volatile Ölpreis ebenfalls als ein fundamentaler Bestandteil des Gleichgewichtes. Der Verfasser widerspricht der Auffassung der IWF-Experten. Das Hauptproblem in diesem Ansatz ist die hohe mittelfristige Volatilität der Rohstoffpreise. Der Ölpreis entwickelte sich bis 2004 weitgehend stabil rund um die Marke von 30 USD/Barrel. Nach 2004 verzeichnete der Ölpreis im Laufe der 55 Monate (oder 4,5 Jahre) einen erkennbar ansteigenden Trend auf etwa 140 USD/Barrel und schrumpfte anschließend innerhalb von weiteren 6 Monaten auf 35 USD/Barrel zurück. So eine Entwicklung des Ölpreises hätte beim Free Floating verheerende Auswirkungen gehabt. Die Währung hätte parallel zu jedem Ölpreisanstieg aufgewertet. Der Kapitalzufluss hätte die Aufwertung zusätzlich verstärkt. Die Abwertung des Rubels im August 2008 infolge des Ölpreisverfalls und der massiven Kapitalflucht wäre so stark gewesen, dass dadurch die Finanz-, Preis- und Wirtschaftsstabilität stark gefährdet worden wären. Zur Lösung des Trade-offs zwischen Wechselkurs- und Geldpolitik bietet sich nach Meinung des Verfassers das Managed-Floating-Modell an. Das Modell widerspricht der bekannten „Unmöglichkeit“ des klassischen „Dreiecks“. Eine autonome Zins- und Wechselkurssteuerung in einer offenen Volkswirtschaft ist nicht nur möglich, sondern in den Fällen wie Russland die einzig richtige Lösung. Die Ausgangsgröße ist in diesem Modell der autonom zu steuernde Zinssatz, der im Fall Russland von der Notenbank hätte angehoben werden müssen, um die Inflationsrate möglichst schnell abzusenken. In der Wechselkurssteuerung wird auf den mittelfristig stabilen realeffektiven Wechselkurs abgestellt. Da die Inflationsrate in Russland deutlich höher war als im Ausland, wäre eine gesteuerte Abwertung des Rubels erforderlich gewesen. Dadurch wäre die Wettbewerbsfähigkeit der Industrie gefördert worden. Durch die Abwertung des Rubels wäre der Zufluss des kurz- und mittelfristigen Auslandskapitals selbst bei hohen Renditemöglichkeiten in Russland abgewendet worden. Eine wesentliche Gefahr für den Erfolg des Managed-Floating-Modells stellt aber eine stark expansive, rohstofffinanzierte Fiskalpolitik dar. Eine strenge Fiskaldisziplin spielt daher eine entscheidende Rolle. N2 - Monetary policy and exchange rate strategy in resource-rich countries. An empirical analysis on example of Russian economy KW - Wechselkurspolitik KW - Geldpolitik KW - Russland KW - Dutch Disease KW - Managed Floating KW - Inflation Targeting KW - Deviseninterventionen KW - Außenwirtschaftspolitik KW - Notenbank Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-130776 ER - TY - THES A1 - Stöhr, Holger Christian T1 - Die Zukunft der Wettbewerbspolitik - Zur Notwendigkeit und Form einer auf Wettbewerbschancen ausgerichteten wettbewerbspolitischen Revolution T1 - The Future of Competition Policy - The necessity and shape of an revolution in competition policy, based upon a framework of chances for competition N2 - Die grundlegende Idee dieser Abhandlung liegt in der Vorstellung begründet, dass sich Wettbewerbspolitik nicht auf den Wettkampf konzentrieren sollte. Die traditionelle Vorgehensweise analysiert Wettbewerbsbeschränkungen auf einzelnen Märkten und fordert gegebenenfalls ein wettbewerbspolitisches Eingreifen. Zumeist wird dabei die Existenz des 'spirit of competition' und damit ein aktiver Wettkampf gefordert. Diese Sichtweise ist jedoch symptomatisch auf den einzelnen Markt gerichtet. Stattdessen sollten die grundlegenden Rahmenbedingungen analysiert werden. Wettbewerbspolitik würde sich somit auf die Schaffung von Wettbewerbschancen konzentrieren. Gerade die Umsetzung einer derart gestalteten Wettbewerbspolitik dürfte schwierig sein und erfordert insbesondere ein politökonomisches Fundament. Daher wird hier ein konkreter Vorschlag konkretisiert, der Elemente der direkte Demokratie, der Gewaltenteilung und eine verstärkte politische Meinungsbildung beinhaltet. Die herkömmliche Wettbewerbspolitik unterliegt folglich drei grundlegenden Mängel: Zunächst ist sie durch eine mangelnde Zielorientierung und zahlreiche Zielkonflikte gekennzeichnet. Weiterhin ist sie symptomatisch auf Wettbewerbsbeschränkungen auf einzelnen Märkten konzentriert und vernachlässigt die jeweils relevanten Rahmenbedingungen. Schließlich wird die Wahl angemessener wettbewerbspolitischer Träger häufig vernachlässigt. Die Ziele dieser Arbeit sind darauf basierend die Begründung der Notwendigkeit einer Neuausrichtung, die Ausarbeitung der Grundzüge eines alternativen wettbewerbspolitischen Ansatzes und eine Abgrenzung dieses von geläufigen wettbewerbspolitischen Konzeptionen. Zur Analyse dient die Ableitung eines Referenzschemas auf fünf Ebenen der Wettbewerbspolitik. Dabei werden sieben Fallstudien in die Abhandlung integriert. N2 - Die basic Idea of this dissertation is that competition policy should not equalize competition and fights. The traditional competition policy analyzes restraints of competition on single markets and demands subsequent interventions. This requires an 'spirit of competition' and therefore an active fight between the rivals. This perception is fixed symptomatically upon single markets. A focus on the basic conditions would be a better choice. Competition Policy would therefore try to build chances for competition. Such a kind of competition policy is difficult to implement and requires a fundament in political economics. Hence here is a solution proposed, that comprises elements of direct democracy, separation of powers and an increasing formation of political opinion. Traditional competition policy is subject to three fundamental shortcomings: Initially it is characterized by a scarce orientation on targets and several trade offs within the basic aims. Another failure is the symptomatical view of restraints of competition on single markets and the disregard of the relevant framework. Finally, there is not enough accentuation on the choice of adequate responsibles. The aims of this thesis is therfore to consitute the necessity of a fundamental change in competition policy, the elaboration of the main features of an alternative approach to competition policy and the demarcation from other prevalent approaches. A scheme of reference is created upon five stages of competition policy. A far as possible, there are seven case scenarios integrated. KW - Wettbewerbspolitik KW - Wettbewerbskonzept KW - Wettbewerb KW - Rahmenbedingungen KW - Wettbewerbschancen KW - Konzeptionen der Wettbewerbspolitik KW - Direkte Demokratie KW - competition policy Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-33483 ER - TY - THES A1 - Jurgan, Jens T1 - Three Essays on Market Concentration and Welfare T1 - Drei Aufsätze über Marktkonzentration und Wohlfahrt N2 - This thesis analyzes the relationship between market concentration and efficiency of the market outcome in a differentiated good context from different points of view. The first chapter introduces the objectives of competition policy and antitrust authorities and outlines the importance of market concentration. Chapter 2 analyzes the relationship between social surplus and market heterogeneity in a differentiated Cournot oligopoly. Market heterogeneity is due to differently efficient firms, each of them producing one variety of a differentiated good. All firms exhibit constant but different marginal costs without fixed costs. Consumers preferences are given by standard quadratic utility originated by Dixit (1979). Since preferences are quasi-linear social surplus is the measure for Pareto-optimality. The main finding is that consumer suprlus as well as producer surplus increase with the variance of marginal costs. The third chapter analyzes the relationship between the cost structure and market concentration measured by the Herfindahl-Hirschman Index. Market concentration increases with the variance of marginal costs as well as the mean of marginal costs. Chapter four analyzes welfare implications of present antitrust enforcement policy on basis of the same theoretical model. European as well as the US Merger Guidelines presume a negative impact of market concentration on the competitiveness of the market and, therefore, on the efficiency of the market outcome. The results of the previous chapters indicate that this assumption is false. The main finding is that post-merger joint profit of the insider increase with the size of the merger. Moreover, there is a negative relationship between the size of the merger and efficiency of the market outcome. Present antitrust enforcement policy increases the disparity of output levels and enforces the removal of the least efficient firm of the market. The welfare gains can be traced back on these two effects. Therefore, neither a minimum of market concentration nor a maximum of product diversity is necessarily welfare enhancing even in absence of fixed costs. N2 - Die Dissertation untersucht den Zusammenhang zwischen der Marktkonzentration und der Effizienz des Marktergebnisses in einem differenzierten Güter Modell aus unterschiedlichen Gesichtspunkten. Das erste Kapitel gibt eine Einführung in die Ziele der Wettbewerbspolitik und macht hierin die Bedeutung der Marktkonzentration deutlich. Das zweite Kapitel analysiert den Zusammenhang zwischen sozialem Überschuss und der Marktheterogenität in einem differenzierten Güter Oligopol. Die Heterogenität ergibt sich hierbei aus unterschiedlich effizienten Unternehmen, die jeweils eine Variante eines differenzierten Gutes herstellen. Alle Unternehmen weisen konstante aber unterschiedliche Grenzkosten ohne Fixkosten auf. Die Präferenzen der Haushalte werden durch einen quadratischen Standard-Nutzen abgebildet, der auf Dixit (1979) zurückgeht. Da die Präferenzen quasi-linear sind, ist der soziale Überschuss Maßstab für die Paretianische Effizienz. Die zentrale Erkenntnis ist, dass sowohl die Konsumenten- als auch die Produzentenrente mit der Varianz der Grenzkosten steigen. Das dritte Kapitel untersucht den Zusammenhang zwischen der Kostenstruktur und der Marktkonzentration gemessen durch den Herfindahl-Hirschman Index. Es lässt sich zeigen, dass die Konzentration mit der Varianz der Grenzkosten und dem arithmetischen Mittel steigt. Kapitel vier analysiert wohlfahrtstheoretische Implikation der aktuellen Fusionsrichtlinien auf Grundlage des gleichen theoretischen Modells. Sowohl die Europäischen als auch die US Amerikanischen Fusionsrichtlinien gehen von einem negativen Einfluss der Konzentration auf die Wettbewerbsintensität und somit auf die Effizienz des Marktergebnisses aus. Die vorangegangenen Untersuchen zeigen, dass die Vermutung falsch ist. Die Untersuchungen zeigen, dass der Gewinn der am Zusammenschluss beteiligten Unternehmen tatsächlich mit der Größe des Zusammenschlusses steigt. Weiterhin besteht ein negativer Zusammenhang zwischen der Größe des Zusammenschlusses und der Effizienz des Marktergebnisses. Die aktuellen Fusionsrichtlinien erhöhen die Disparität der Ausbringungsmengen und führen unter gewissen Umständen zur Entfernung des ineffizientesten Unternehmens aus dem Markt. Die Effizienzgewinne beruhen genau auf diesen beiden Effekten. Abschließend lässt sich festhalten, dass weder eine größtmögliche Gleichverteilung der Marktanteil noch eine größtmögliche Produktvielfalt notwendigerweise Effizienz steigernd ist. KW - Konzentration KW - Soziale Wohlfahrt KW - Unternehmenszusammenschluss KW - Marktkonzentration KW - sozialer Überschuss KW - Horizontaler Unternehmenszusammenschluss KW - market concentration KW - welfare KW - horizontal merger Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-40374 ER - TY - THES A1 - Dechert, Andreas T1 - Fraktionale Integration und Kointegration in Theorie und Praxis T1 - Fractional integration and cointegration in theory and praxis N2 - Das Ziel der Arbeit ist eine Zusammenfassung über den Stand der Forschung über das Thema der fraktionalen Integration und Kointegration sowie Weiterentwicklungen der aktuellen Methoden im Hinblick darauf, dass sie robuster auf eine Reihe von empirischen Gegebenheiten anwendbar sind. Hierzu wurden insbesondere die Möglichkeiten von Strukturbrüchen in deterministischen Prozessanteilen vorgeschlagen sowie deren Auswirkungen auf Schätzeigenschaften analysiert. Mit diesem Wissen können Schätzstrategien entwickelt werden, die auch im empirischen Teil der Arbeit angewandt wurden. Der Aufbau der Arbeit gestaltet sich so, dass nach der Einleitung und Problemstellung im zweiten Kapitel der Arbeit zunächst in die Zeitreihenanalyse eingeführt wird. Hierbei wird auch eine intuitive Motivation für die Betrachtung von Long-Memory-Prozessen gegeben. Diese gestaltet sich so, dass der klassischerweise als ganzzahlig angenommene Integrationsgrad eines Prozesses nun jede beliebige Zahl, also auch Brüche, annehmen kann. Diese Annahme führt wiederum dazu, dass hiermit sehr langfristige Abhängigkeiten von Zeitreihen effizient beschrieben werden können, da diese lediglich von einem einzigen Parameter abhängen. Die Schätzung dieses nunmehr fraktionalen Integrationsgrads wird im dritten Kapitel ausführlich beschrieben und in mehreren Simulationsstudien ausgiebig analysiert. Hierzu werden neben parametrischen Schätzmethoden, die einer genauen Spezifizierung der Korrelationsstruktur von Zeitreihen bedürfen, auch semiparametrische Methoden angeführt, die in der Praxis robuster einsetzbar sind, da ihre Schätzgenauigkeit und Effizienz nicht von einer korrekten Klassifizierung von sog. Short-Memory-Komponenten beeinflusst werden. Die Analyse dieser Methode erfolgt in erster Linie im Hinblick auf eine empirische Anwendbarkeit und bietet auch als Ergebnis Empfehlungen für eine optimale Schätzstrategie. Das vierte Kapitel beschäftigt sich in erster Linie mit Integrationstests wie z.B. Einheitswurzeltests und deren Anwendbarkeit bei Existenz von Long-Memory-Prozessbestandteilen. Darüber hinaus werden auch Schätz- und Testmethoden für das Vorliegen von deterministischen Trends thematisiert, die wiederum auch die Möglichkeit von Strukturbrüchen zulassen. Eine multivariate Betrachtungsweise ermöglicht das fünfte Kapitel mit der Einführung der fraktionalen Kointegration. Auch liegt der Fokus der Arbeit darin, die empirische Anwendbarkeit zu verbessern, indem in Simulationsstudien Effekte von empirischen Gegebenheiten - wie Strukturbrüche - analysiert und optimale Schätzstrategien entwickelt werden. Im sechsten Kapitel der Arbeit wird im Rahmen der ökonomischen Theorie der Markterwartungshypothese die Verzinsung deutscher im Zeitraum Oktober 1998 bis November 2011 untersucht. Diese Hypothese impliziert, dass zwischen den einzelnen Zinssätzen eine multivariate Beziehung in Form von Kointegrationsbeziehungen bestehen sollte, da die Zinssatzdifferenzen einer Liquiditätsprämie entsprechen. Von dieser wurde in bisherigen Studien angenommen, dass sie stationär ist, d.h. dass sie allenfalls eine Short-Memory-Eigenschaft aufweist, welche nur relativ kurzfristige Abhängigkeit impliziert. Von dieser Sichtweise löst sich die Arbeit, indem sie die Möglichkeit von fraktionalen Kointegrationsbeziehungen ermöglicht, die eine Aussage über die Persistenz der Liquiditätsprämie ermöglicht. Im Rahmen dieser Analyse konnten eine Reihe interessanter Erkenntnisse gewonnen werden, wie z.B. dass das Ausmaß der Persistenz (d.h. die Trägheit der Anpassung auf ökonomische Schocks) mit ansteigender Laufzeitdifferenz sukzessive größer wird und auch nicht mehr durch klassisch angenommene Prozessstrukturen erklärt werden kann. Nichtsdestotrotz können die Ergebnisse der empirischen Analyse die Annahmen der Markterwartungshypothese nicht bestätigen, da insbesondere der Integrationsgrad für sehr lange Laufzeitdifferenzen so groß ausfällt, dass selbst eine relativ schwache fraktionale Kointegrationsbeziehung abgelehnt werden muss. N2 - Fractional integration and cointegration in theory and praxis KW - Zeitreihenanalyse KW - Ökonometrie KW - ARFIMA-Modell KW - ARMA-Modell KW - Fraktionale Integration KW - Multivariate Zeitreihenmodelle KW - Semi- und nichtparametrische Methoden KW - Kointegration KW - Long-Memory-Prozesse KW - Markterwartungshypothese KW - Zins KW - ARFIMA-Modelle Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110028 ER - TY - THES A1 - Gareis, Johannes T1 - Housing, Consumption Dynamics, and Monetary Policy T1 - Wohnbau, Konsum und Geldpolitik N2 - This dissertation provides both empirically and theoretically new insights into the economic effects of housing and housing finance within NK DSGE models. Chapter 1 studies the drivers of the recent housing cycle in Ireland by developing and estimating a two-country NK DSGE model of the European Economic and Monetary Union (EMU). It finds that housing preference (demand) and technology shocks are the most important drivers of real house prices and real residential investment. In particular, housing preference shocks account for about 87% of the variation in real house prices and explain about 60% of the variation in real residential investment. A robustness analysis finally shows that a good part of the variation of the estimated housing preference shocks can be explained by unmodeled demand factors that have been considered in the empirical literature as important determinants of Irish house prices. Chapter 2 deals with the implications of cross-country mortgage market heterogeneity for the EMU. The chapter shows that a change in cross-country institutional characteristics of mortgage markets, such as the loan-to-value (LTV) ratio, is likely to be an important driver of an asymmetric development in the housing market and real economic activity of member states. Chapter 3 asks whether monetary policy shocks can trigger boom-bust periods in house prices and create persistent business cycles. The chapter addresses this question by implementing behavioral expectations into an otherwise standard NK DSGE model with housing and a collateral constraint. Key to the approach in chapter 3 is that agents form heterogeneous and biased expectations on future real house prices. Model simulations and impulse response functions suggest that these assumptions have strong implications for the transmission of monetary policy shocks. It is shown that monetary policy shocks might trigger pronounced waves of optimism, respectively, pessimism that drive house prices and the broader economy, all in a self-reinforcing fashion. The chapter shows that in an environment in which behavioral mechanisms play a role an augmented Taylor rule that incorporates house prices is superior, because it limits the scope of self-fulfilling waves of optimism and pessimism to arise. Chapter 4 challenges the view that the observed negative correlation between the Federal Funds rate and the interest rate implied by consumption Euler equations is systematically linked to monetary policy. Using a Monte Carlo experiment based on an estimated NK DSGE model, this chapter shows that risk premium shocks have the capability to drive a wedge between the interest rate targeted by the central bank and the implied Euler equation interest rate, so that the correlation between actual and implied rates is negative. Chapter 4 concludes by arguing that the implementation of collateral constraints tied to housing values is a promising way to strengthen the empirical performance of consumption Euler equations. N2 - Die vorliegende Dissertation beschäftigt sich sowohl empirisch als auch theoretisch mit der Rolle von Immobilieninvestitionen und -finanzierung in der Makroökonomie im Rahmen von Neu-Keynesianischen dynamischen stochastischen allgemeinen Gleichgewichtsmodellen (DSGE). Das erste Kapitel untersucht die Ursachen des Immobilienbooms in Irland für die Zeit der Mitgliedschaft in der Europäischen Wirtschafts- und Währungsunion (EWWU). Dazu wird ein Zwei-Länder-Modell für Irland als Mitglied der EWWU entwickelt und mittels eines bayesianischen Verfahrens ökonometrisch geschätzt. Hauptergebnis der Untersuchung ist, dass Immobiliennachfrageschocks den zentralen Treiber des irischen Immobilienbooms darstellen - ein Resultat, das für die empirische Neu-Keynesianische DSGE-Literatur typisch ist. Eine Robustheitsanalyse zeigt schließlich, dass ein Teil der Variation der durch die Schätzung bestimmten Immobiliennachfrageschocks auf exogene Erklärungsvariablen zurückgeführt werden kann. Das zweite Kapitel baut auf dem im ersten Kapitel entwickelten Modellrahmen auf und beschäftigt sich mit der Auswirkung einer asymmetrischen Deregulierung von Hypothekenmärkten einzelner Mitgliedsländer der Europäischen Währungsunion. Es wird gezeigt, dass eine unmittelbare regulatorische Anhebung der Beleihungsgrenze von 65% auf 75% in einem Mitgliedsland der Größe Spaniens einen massiven Nachfrageboom in diesem Land auslöst, während der Rest der Währungsunion unter einer Rezession leidet. Die asymmetrische Entwicklung der nationalen Konjunkturzyklen spiegelt das Dilemma der Europäischen Zentralbank wider, die ihren Leitzinsentscheid an der durchschnittlichen Inflationsrate der Union ausrichtet. Neben der Betrachtung der Transitionsdynamik und der langen Frist analysiert das Kapitel 2 die Wohlfahrtswirkung der Regulierungsreform und kommt zu dem Ergebnis, dass das Heimatland, in dem die Reform beschlossen wird, Wohlfahrtsgewinne realisiert, während der Rest der Währungsunion Wohlfahrtsverluste erleidet, wobei sich die Höhe der Verluste nach der Größe des Heimatlandes richtet. In einem Ein-Länder-Modell wird im dritten Kapitel die Frage gestellt, ob die Geldpolitik durch temporäre Abweichungen von der Taylor-Regel persistente Boom-Bust-Zyklen auf dem Immobilienmarkt und konjunkturelle Zyklen auslösen kann. Zur Beantwortung dieser Fragestellung werden in einen ansonsten standardisierten Modellrahmen verhaltenstheoretische Erwartungsbildungsmechanismen (Heuristiken) eingebaut. Insbesondere wird unterstellt, dass die Akteure des Modells zwischen einer optimistischen und einer pessimistischen Prognoseregel für zukünftige Immobilienpreise wählen und ihre Entscheidung auf die relative Prognoseperformance der Regeln stützen. Mittels Modellsimulationen und Impulsantwortfunktionen werden die sich daraus ergebenden Implikationen für den geldpolitischen Transmissionsprozess untersucht und mit dem Standardmodell, das auf dem Paradigma der rationalen Erwartungen fußt, kontrastiert. Es wird gezeigt, dass im verhaltenstheoretischen Modell eine expansive Geldpolitik eine selbsterfüllende Welle von Optimismus bezüglich zukünftiger Immobilienpreise verursachen kann, welche wiederum durch eine steigende Verschuldung der Akteure und die damit verbundene Ausgabensteigerung die realwirtschaftliche Aktivität einer Volkswirtschaft bestimmt. Aufgrund dieser destabilisierenden Mechanismen kommt Kapitel 3 zu dem Schluss, dass die Immobilienpreisentwicklung bei der Leitzinsentscheidung einer Zentralbank Berücksichtigung finden sollte. Indem die Zentralbank das Zinsniveau einer Ökonomie gemäß makroökonomischen als auch finanziellen Bedingungen steuert, wird verhindert, dass Fehlbewertungen auf dem Immobilienmarkt die konjunkturelle Stabilität einer Volkswirtschaft gefährden. Im abschließenden Kapitel befasst sich die vorliegende Dissertation mit der empirischen Plausibilität der Konsum-Euler-Gleichung und nähert sich der Rolle von Immobilieninvestitionen und -finanzierung in der Makroökonomie im Rahmen von Neu-Keynesianischen DSGE-Modellen aus einer weitergefassten Perspektive. Im Besonderen beschäftigt sich das Kapitel mit dem Zusammenhang von monetären Bedingungen und dem Befund der negativen Korrelation zwischen der Federal Funds Rate und dem impliziten Zins von Konsum-Euler-Gleichungen. Es wird gezeigt, dass Risikoprämienschocks - im Gegensatz zu geldpolitischen Schocks - einen Keil zwischen die Federal Funds Rate und den impliziten Zins der Konsum-Euler-Gleichung treiben können, so dass beide Zinszeitreihen eine negative Korrelation aufweisen. Auf Grundlage dieses Befundes wird in Kapitel 4 abschließend argumentiert, dass die strukturelle Untermauerung der Konsum-Euler-Gleichung durch die Implementierung von finanziellen Friktionen auf dem Immobilienmarkt einen potentiellen Beitrag leisten kann, um die Federal Funds Rate und den impliziten Zins der Konsum-Euler-Gleichung in Einklang zu bringen. KW - Kreditmarkt KW - Geldpolitik KW - Wohnbau KW - Währungsunion KW - Housing KW - Bayesian Estimation KW - Monetary Policy KW - Monetary Union KW - Animal Spirits KW - Immobilienmarkt KW - Verbrauch Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70842 ER - TY - THES A1 - Plagens, Manfred T1 - Innovationsprozesse in der Medizintechnik in Deutschland T1 - Processes of economic innovation in the German medical device industry N2 - Diese Arbeit beschäftigt sich mit Innovationsprozessen der medizintechnischen Industrie in Deutschland am Beispiel der bildgebenden Verfahren. Einen geeigneten Analyserahmen, um die komplexen Verflechtungen und Erfolgs-determinanten zu erfassen, bietet der Clusteransatz Michael Porters. Der Clusteransatz wird um wachstumstheoretische, politökonomische Ansätze ergänzt und erweitert, um die Medizintechnikbranche quantitativ und qualitativ zu untersuchen und die Wechselwirkungen zwischen Medizintechniknetzwerk, Innovationen und staatlichem Sozialsystem in Deutschland aufzuzeigen. Es wird geklärt, welche Auswirkungen Innovationen für die medizintechnische Branche haben und welche institutionellen und politischen Bedingungen Innovationen begünstigen, welche wirtschaftspolitischen Handlungsempfehlungen daraus abgeleitet werden können und wie sich die Zukunft für diese Branche gestalten könnte. Kapitel 1 spezifiziert den Untersuchungsgegenstand auf die bildgebenden Verfahren. Kapitel 2 nimmt - anhand diverser Innovationsindikatoren - eine quantitative Eingruppierung der deutschen medizintechnischen Industrie vor. In Kapitel 3 werden die bislang gewonnen Erkenntnisse mit dem Clusterkonzept Porters einer qualitativen Analyse unterzogen. Es wird der Frage nachgegangen, was die Wettbewerbsfähigkeit der Medizintechnik ausmacht. Hierbei liegt ein Schwerpunkt auf den Wechselbeziehungen von Medizin-technikbranche und staatlichem Gesundheitssystem. Kapitel 4 ergänzt die Wettbewerbsfähigkeitsanalyse um einen inter-industriellen Vergleich. Weitere international erfolgreiche deutsche Branchen werden in ihren Erfolgsfaktoren mit der Medizintechnik verglichen. Das Konzept der "Langen Wellen" präzisiert die Spezifika der Medizintechnikbranche. Kapitel 5 fasst die Ergebnisse der Untersuchung zusammen und gibt eine Prognose für die mögliche Zukunftsentwicklung der Branche. N2 - The thesis deals with processes of economic innovation in the German medical device industry. Michael Porter`s „industrial cluster model“ is used as the relevant analytical framework to deal with the complex intercourses of the different economic determinants of success. Porter`s model is enhanced by aspects of the New Growth Theory as well as Public Choice aspects that allow the examination of the medical device industry. My main focus lies on the explanation of the interaction between the medical device industry cluster, innovations and the German health care system. It is showed which impact innovations generally have in the German medical device industry and furthermore how a certain institutional and political set-up promotes these innovations. In the next step economic recommodations are deduced from the results of the thesis and there will be a forecast on the future of the German medical device industry. Chapter 1 specifies and explains the concepts „innovation“, „cluster“ and „medical device industry“. In chapter 2 the German medical device industry is examined on its different innovation indicators. Chapter 3 uses Michael Porter`s enhanced economic cluster model as the framework for a qualitative examination of the industry. The main focus lies on the interaction between medical device industry and the German national health care system. Chapter 4 completes the analysis of the competitiveness of the medical device industry by an inter-industry comparison with other successful German industry clusters such as the optical industry. The economic concept of „long waves of innovation“ gives here a helpful completion. Chapter 5 sums up the results of the thesis and gives an outlook on the future of the German medical device industry. KW - Deutschland KW - Medizintechnische Industrie KW - Innovation KW - Innovation KW - Cluster KW - Medizintechnik KW - Gesundheitssystem KW - Deutschland KW - innovation KW - cluster KW - medical device industry KW - health care system Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-619 ER - TY - THES A1 - Hock, Thorsten T1 - Asymmetrische Effekte der Geldpolitik auf die Industrie in der Bundesrepublik Deutschland - eine Untersuchung auf Branchenebene T1 - Asymmetrical Industry Effects of Monetary Policy in Germany - an Analyses on the Subsector-Level N2 - Die Arbeit setzt sich mit Unterschieden des geldpolitischen Transmissionsprozesses im Verarbeitenden Gewerbe der Bundesrepublik Deutschland auseinander. Dazu wird der Sektor nach der Systematik der BACH-Datenbank der europäischen Kommission in 10 Branchen eingeteilt. An eine kurze Betrachtung der Industrie aus makro- und mikroökonomischer Sicht schließt sich die Beantwortung der ersten Frage an: Reagieren die Industriebranchen unterschiedlich auf geldpolitische Impulse? Monetäre Innovationen werden mit Anstiegen der kurzfristigen Geldmarktzinsen abgebildet. Damit konzentriert sich die Analyse auf die Auswirkungen von restriktiven Maßnahmen. Als Referenzgrößen wurden die Produktion und die Erzeugerpreise ausgewählt. Die Analyse der Auswirkungen auf die Produktionsentwicklung zeigt, dass ein Großteil der Industriezweige erwartungsgemäß mit Rückführungen auf Zinserhöhungen reagiert. Die stärksten Produktionseinbußen ergeben sich hierbei in der Branche Herstellung elektrischer Geräte, in der Grundlegenden Metallverarbeitung und im Industriezweig Metallerzeugnisse mit Maschinenbau. Dagegen sind die in vielen Branchen entdeckten kurzfristigen Preisanstiege auf den ersten Blick ein Rätsel. Denn die Notenbank verfolgt ihre Absicht – nämlich die Stabilisierung der Verbraucherpreise – mit einer restriktiven Ausrichtung, wenn die Preise Gefahr laufen, stärker als zielkonform anzusteigen. Die vorliegenden Ergebnisse sprechen daher dafür, dass in der kurzen Frist jedoch zusätzlicher Preisdruck auf vorgelagerter Stufe erzeugt wird. Wie können die unterschiedlichen Auswirkungen auf die Branchen erklärt werden? Dieser Frage widmet sich der zweite Hauptblock der Arbeit. In einem ersten Schritt werden die relevanten Transmissionstheorien diskutiert. Die empirische Überprüfung ausgewählter Transmissionstheorien mit Branchendaten hat dabei einige grundlegende Einsichten ans Licht gebracht. Erstens korreliert die Stärke der Outputveränderung deutlich mit der Zinssensitivität der Nachfrage nach den produzierten Gütern der Branche. Zweitens können die beobachteten Preisanstiege vereinzelt mit einer Dominanz der Geldpolitik als Angebotsschock erklärt werden. Zu einem großen Teil bleibt die identifizierte Preisreaktion aber ein Rätsel. Und drittens scheint der Bilanzkanal – zumindest gemäß der hier gewählten Identifikationsstrategie – nicht grundsätzlich geeignet zu sein, die Anpassungsprozesse in den untersuchten Branchen zu erklären. Dies sollte daran liegen, dass dieser Transmissionskanal Bonitätscharakteristika und -veränderungen auf Unternehmensebene als Vehikel der Übertragung sieht. N2 - The thesis analyzes the different monetary transmission mechanisms in the German manufacturing industry. According to the BACH database of the European Commission, that sector of the economy is divided into ten subsectors. After a quick glance at the manufacturing industry from the microeconomic and macroeconomic points of view, the dissertation tries to answer the first important question: Do the subsectors of the German manufacturing industry respond to monetary impulses in different ways? Monetary innovations are modeled through increases in the short-term money market rates. Hence the analysis concentrates on a restrictive monetary policy. Industrial output and producer prices are chosen as reference data. As expected, output decreases in most subsectors after a restrictive monetary shock. The sectors of electrical and electronic equipment, metal processing and metal article manufacturing show the most significant responses. The observed price increases in most subsectors are puzzling at first sight since the monetary authority tries to reduce inflationary pressures by raising the interest rate level. However, my results indicate that a restrictive monetary policy intensifies price pressure at the industry level in the short run. The second part of my thesis provides possible explanations for the differing reactions in the subsectors. As a first step, the relevant transmission theories are discussed. The empirical investigation of the theories then sheds some light on the transmission process on a subsector level. First, the strength of the subsectors' output reaction correlates significantly with the interest rate sensitivity of subsector demand. Second, the observed price increases can partly be explained by the fact that monetary policy works mainly as supply shock in some subsectors. But the identified price reactions remain largely inexplicable. Third, the balance sheet channel cannot explain the adjustment process of the analyzed subsectors, at least not given the used identification strategy. This could be due to the fact that this theory regards the financial situation on the firm level as a key driver of the monetary policy transmission. KW - Deutschland KW - Geldpolitik KW - Transmissionsmechanismus KW - Industrie KW - Geldpolitik KW - Monetärer Transmissionsprozess KW - Verarbeitendes Gewerbe KW - Schätzung KW - Monetary Policy KW - Monetary Policy Transmission KW - Manufacturing Industry KW - Estimation Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-7586 ER - TY - THES A1 - Gottberg, Hans-Döring von T1 - Wirkungsanalyse der gesetzlichen Buchpreisbindung in Deutschland T1 - Analysis of the effects of statutory retail price maintenance for books in Germany N2 - Untersuchungsgegenstand dieser Arbeit ist die Preisbindung auf dem deutschen Buchmarkt. Diese stellt eine absolute Ausnahmesituation dar, da sie für andere Wirtschaftszweige per se verboten ist. Das gilt umso mehr, als im Jahr 2002 das Preisbindungsgesetz eingeführt wurde und alle Verlage ihre Bücher – mit wenigen Ausnahmen – nunmehr preisbinden müssen. Unter Berücksichtigung dieser Rahmenbedingungen setzt eine Wirkungsanalyse bei den Auswirkungen der Preisbindung auf das Preis-, Serviceniveau und die Branchendynamik an. Die Gegenüberstellung einer Situation mit und ohne Preisbindung wird dadurch erschwert, dass empirische Belege spärlich sind, da die Preisbindung seit über 100 Jahren den deutschen Buchmarkt bestimmt. Zunächst werden Lücken im Preisbindungsgesetz herausgearbeitet, die den Spielraum für noch möglichen Preiswettbewerb aufzeigen. Als Kernstück der Arbeit werden stilisierte Aussagen zum Verhaltenspotential der Marktakteure durch ein eigenes theoretisches Modell ermittelt. Dabei sind im zentralen Vergleich der Preisbindung mit einer preisbindungsfreien Situation die Resultate nicht eindeutig. Eine Aufhebung der Preisbindung hat danach keine eindeutige Wirkung auf die Entwicklung von Preisen und Service. Je nach Bedeutung der Preis- und Servicesensitivitäten bei latenten versus fluktuierenden Nachfragesituationen können sich Preise und Service unterschiedlich entwickeln. Entgegen der häufigen Aussagen in der politischen Diskussion können nach Aufhebung der Preisbindung Preise und Serviceniveau auch ansteigen, wenn der Servicewettbewerb zur Gewinnung von Kunden einen hohen Stellenwert hat. Das Aussagenspektrum bekommt einen Branchenbezug durch Berücksichtigung von ökonomischen Prozessen, insbesondere produktions- und vertriebsspezifischen Besonderheiten des Buchmarktes. Dynamische, gerade auch preisbindungsabhängige Entwicklungen werden aufgezeigt, die mit einem positiven Effizienzbeitrag die grundsätzliche effizienzmindernde Wirkung einer Preisbindung zumindest abmildern. Zu nennen ist hier u.a. eine Transaktionskosten mindernde enge Verzahnung des stationären Bucheinzelhandels mit dem Großhandel. Erkennbar ist aber auch eine Entwicklung, in der ein zunehmender Marktanteil von Geschäftsmodellen mit niedrigpreisigen bzw. preisbindungsfreien Büchern. Konsumenten erhalten damit eine größere Wahlmöglichkeit zwischen preis- und serviceinduzierten Angeboten. Fallstudien von größeren Unternehmen des Buchhandels bekräftigen die Vermutung, dass trotz Preisbindung die Flanke „Konzentration im Buchhandel“ weiterhin offen ist. Gerade von Seite der Großunternehmen wird mittels spezifischen Geschäftsmodellen im Ergebnis die Preisbindung partiell außer Kraft gesetzt. N2 - The subject of this thesis is retail price maintenance (RPM) in the German book market. This is an exceptional situation, since the practice is forbidden in other sectors of the economy. This applies all the more, since new legislation in the year 2002 requires all publishers – with very few exceptions – to fix prices for their books. This analysis considers the effects of RPM on the price, the level of service and the market sector dynamics. A comparison of the situation with and without RPM is hampered by a lack of empirical research, since the German book market has been subject to price maintenance for over 100 years. Firstly, legal exceptions, allowing some margin for price competition are investigated. In the central part of the thesis, a theoretical model is developed in order to predict the behaviour of participants in the market. In the principal comparison between a regulated and an unregulated price system, this model does not lead to any unambiguous conclusions. Accordingly, the abolition of RPM would not have any clear cut effect on the levels of price or of service. The levels of price and service may develop differently in situations of latent or of fluctuating demand, depending on the relative importance of price and service. In contrast to frequently stated political opinions, levels of price and service may even rise after abolition of RPM, if competition in service proves important in winning new customers. The conclusions are reached under consideration of the specific economic processes, in particular production and marketing, in the book industry. Dynamic effects resulting from RPM are shown, whose positive impact on efficiency help to counteract the fundamental tendency of RPM to promote inefficiency in the market. Worthy of mention is the reduction of transaction costs resulting from the close coupling between the retail and wholesale markets. On the other hand, an increasing market share is being gained by business models dealing in books with low or unregulated prices. This results in a greater choice between service oriented and price oriented book dealers. Case studies by large book dealers have strengthened the assumption, that there is still scope for greater concentration in the book market. Furthermore, large book dealers are able to develop specific business models which partially undermine the statutory price maintenance. KW - Deutschland KW - Buchpreis KW - Preisbindung KW - Preisbindung KW - Buchmarkt KW - Wettbewerb KW - Service KW - Verlag KW - retail price maintenance KW - book market KW - competition KW - service KW - publishing house Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-13657 ER - TY - THES A1 - Schmidt, Robert T1 - The behavioral economics of foreign exchange markets - a psychological view on human expectation formation in foreign exchange markets T1 - Behavioral Economics und Devisenmarkt - Ein verhaltensorientierter Ansatz zur Erwartungsbildung am Devisenmarkt N2 - The development of free floating exchange rates can hardly be explained by macroeconomic fundamentals as supposed by traditional economic theories. Therefore, prominent economists yet conclude that there exists an ‘exchange rate disconnect puzzle’ (see Obstfeld and Rogoff [2000]). The observable exchange rate trends are often attributed to an excessive speculative trading behavior of foreign exchange market participants. In this study we deal with psychological factors, which may be important for understanding the observable exchange rate movements. Thus, our study belongs to the new research field of behavioral economics, which considers the relevance of psychological factors in economic contexts. The main objective of behavioral economists is to develop a more realistic view of the actual human behavior in the context of economics. Therefore, behavioral economists often refer to the work of behavioral decision theorists, who introduced new concepts under the general heading of bounded rationality. Central to the concept of bounded rationality is the assumption that humans’ actual behavior deviates from the ideal of economic rationality due to at least two reasons: first, decisions are usually based on an incomplete information basis (limited information) and, second, the information processing of human beings is limited by their computational capacities (limited cognitive resources). Due to these limitations people are forced to apply simplification mechanisms in information processing. Important simplification mechanisms, which play a decisive role in the process judgment and decision making, are simple heuristics. Simple heuristics can principally be characterized as simple rules of thumb, which allow quick and efficient decisions even under a high degree of uncertainty. In this study, our aim is to analyze the relevance of simple heuristics in the context of foreign exchange markets. In our view, the decision situation in foreign exchange markets can serve as a prime example for decision situations in which simple heuristics are especially relevant as the complexity of the decision situation is very high. The study is organized as follows. In Chapter II, we deal with the exchange rate disconnect puzzle. In particular, we discuss and check the main implications of the traditional economic approach for explaining exchange rate movements. The asset market theory of exchange rate determination implies that exchange rates are mainly driven by the development of macroeconomic fundamentals. Furthermore the asset market theory assumes that foreign exchange market participants form rational expectations concerning future exchange rate developments and that exchange rates are determined in efficient markets. Overall the empirical evidence suggests that the traditional approach for explaining exchange rate changes is at odds with the data. Chapter III addresses the existence of long and persistent trends in exchange rate time series. Overall, our empirical analysis reveals that exchange rates show a clear tendency to move in long and persistent trends. Furthermore, we discuss the relevance of speculation in foreign exchange markets. With regard to the impact of speculation, economic theory states that speculation can have either a stabilizing effect or a destabilizing effect on exchange rates. At the end of Chapter III, we examine the Keynesian view on the functioning of asset markets. In Chapter IV we explore the main insights from the new research field of behavioral economics. A main building block of behavioral economics is the concept of bounded rationality first introduced by Herbert Simon [1955]. In the centre of the concept of bounded rationality is a psychological analysis of the actual human judgment and decision behavior. In Chapter IV, we discuss the concept of bounded rationality in detail and illustrate important insights of behavioral decision theories. In particular, we deal with the relevance of simple heuristics in the context of foreign exchange markets. Chapter V provides experimental and empirical evidence for the suggested relevance of simple heuristics in foreign exchange markets. In the first experiment, we deal with the human expectation formation. We compare point forecasts of the EUR/USD exchange rate surveyed from professional analysts and experimentally generated point forecasts of students for a simulated exchange rate time series. The results show that the forecasting performance of both groups differs substantially. Afterwards we analyze the nature of expectation formation of both groups in detail to reveal similarities and differences, which allow us to draw reasonable explanations for the differences in the forecasting performances. In the second experiment, we analyze the expectation formation in an experimental foreign exchange market. This approach allows us to consider the relevance of expectation feedback as individuals’ expectations directly influence the actual realization of the time series. Thus, Keynes’ predictions on the importance of conventions in asset markets can be analyzed. Overall, both experiments reveal that the human beings tend to apply simple trend heuristics, when forming their expectations about future exchange rates. In the empirical part of Chapter V we deal with the usefulness of such simple trend heuristics in real world. Only if simple trend heuristics lead to profits in the specific environment of foreign exchange markets, their application can be recommended. Thus, we analyze the profitability of simple technical analysis tools in foreign exchange markets. Finally, Chapter VI provides concluding remarks. N2 - Ökonomische Wechselkursmodelle können die Entwicklung flexibler Wechselkurse nicht erklären. Dieser Befund veranlasst prominente Ökonomen zu schlussfolgern, dass im Bereich der Wirtschaftswissenschaften ein `exchange rate disconnect puzzle´ existiert (siehe Obstfeld und Rogoff [2000]). Die in der Realität beobachtbaren Trends in Wechselkurszeitreihen werden häufig auf spekulatives Verhalten der Marktteilnehmer zurückgeführt. Im Rahmen dieser Arbeit werden psychologische Faktoren behandelt, die wichtig sind, um die beobachtbaren Wechselkursbewegungen zu verstehen. Somit gehört diese Arbeit zum neuen Forschungszweig der Behavioral Economics, der die Relevanz psychologischer Faktoren im ökonomischen Kontext beleuchtet. Wesentliches Ziel der Behavioral Economics ist es im ökonomischen Kontext ein realistischeres Bild vom menschlichen Verhalten zu entwickeln. In diesem Zusammenhang greift die Behavioral Economics auf die Erkenntnisse der verhaltensorientierten Entscheidungstheorie zurück, die unter dem Schlagwort „Begrenzte Rationalität“ neue Konzepte vorlegt. Im Mittelpunkt dieser Konzepte steht die Annahme, dass das menschliche Verhalten aus zwei Gründen vom Ideal der ökonomischen Rationalität abweicht. Erstens müssen Entscheidungen in der Realität auf der Basis unvollkommener Information getroffen werden. Zweitens ist die menschliche Informationsverarbeitung aufgrund begrenzter Rechenkapazität beschränkt. Die genannten Limitationen zwingen Menschen bei der Informationsverarbeitung auf Vereinfachungsmechanismen zurückzugreifen. Wichtige Vereinfachungsmechanismen, die eine entscheidende Rolle im menschlichen Entscheidungsprozess spielen, sind einfache Heuristiken, die als Daumenregeln bezeichnet werden können, die unter Unsicherheit eine schnelle und effiziente Entscheidung ermöglichen. Ziel dieser Arbeit ist es die Relevanz von einfachen Heuristiken am Devisenmarkt zu untersuchen. Die Entscheidungssituation am Devisenmarkt kann aufgrund seiner Komplexität als ein gutes Beispiel für Entscheidungssituationen dienen in denen einfache Heuristiken relevant sind. Die Arbeit ist wie folgt gegliedert. In Kapitel II wird das `exchange rate disconnect puzzle´ untersucht. Hierzu werden die wesentlichen Implikationen der ökonomischen Wechselkurstheorie auf ihre empirische Validität hin überprüft. Die Vermögenspreistheorie des Wechselkurses impliziert vor allem, dass Wechselkursveränderungen durch die Entwicklung der makroökonomischen Fundamentalfaktoren determiniert werden. Darüber hinaus wird in dieser Theorie unterstellt, dass Marktteilnehmer rationale Erwartungen bezüglich der zukünftigen Wechselkurse bilden und dass der Devisenmarkt effizient ist. Insgesamt zeigen die eigenen empirischen Untersuchungen und der Literaturüberblick, dass die traditionelle, ökonomische Wechselkurstheorie nicht in der Lage ist die Realität zu erklären. Kapitel III setzt sich mit der Existenz von persistenten Trends in Wechselkurszeitreihen auseinander. Des Weiteren wird die Relevanz von Spekulation am Devisenmarkt diskutiert. Zum Schluss des Kapitels setzt sich der Autor mit der Sichtweise von John M. Keynes bezüglich der Funktionsweise von Finanzmärkten auseinander. In Kapitel IV wird die alternative Sichtweise der Behavioral Economics bezüglich des menschlichen Entscheidungsverhaltens dargelegt. Ein zentraler Baustein der Behaviroal Economics ist das Konzept der Begrenzten Rationalität, welches zuerst von Herbert Simon [1955] eingeführt wurde. In diesem Kapitel wird das Konzept der Begrenzten Rationalität detailliert diskutiert und die wichtigsten Erkenntnisse der verhaltensorientierten Entscheidungstheorie vorgestellt. Insbesondere geht der Autor auf die Relevanz von einfachen Entscheidungsregeln am Devisenmarkt ein. Kapitel V beinhaltet experimentelle und empirische Evidenz für die Relevanz von einfachen Heuristiken am Devisenmarkt. Das erste Experiment untersucht die Erwartungsbildung. Hierzu werden die Prognosen von Analysten für den EUR/USD Wechselkurs mit experimentellen Prognosen von Studenten für eine simulierte Zeitreihe verglichen. Die Ergebnisse zeigen, dass sich Güte der Prognosen beider Gruppen substantiell unterscheidet. Anschließend werden die verwendeten Erwartungsbildungsmechanismen untersucht, um die Unterschiede zwischen beiden Gruppen herauszuarbeiten. Dies ermöglicht uns Erklärungen für die unterschiedliche Prognosegüte abzuleiten. Im zweiten Experiment wird die Erwatungsbildung in einem experimentellen Devisenmarkt untersucht. Dieser Ansatz ermöglicht die Untersuchung von Feedbackschleifen auf die Erwartungsbildung, da die Erwartungen des einzelnen Marktteilnehmers direkten Einfluss auf die tatsächliche Realisation des experimentellen Wechselkurses haben. Somit kann anhand dieses Experiments die Bedeutung von Konventionen, wie sie von Keynes beschrieben wurde, untersucht werden. Insgesamt zeigen beide Experimente, dass Menschen dazu tendieren bei der Erwartungsbildung am Devisenmarkt auf einfache Trendheuristiken zurückzureifen. Im empirischen Teil des Kapitel V wird überprüft, ob die Verwendung von einfachen Trendheuristiken eine sinnvolle Entscheidung in der Realität ist. Hierzu wird am Schluss des Kapitel V die Profitabilität von einfachen Handelsregeln der Technischen Analyse am Devisenmarkt untersucht. Abschließend werden in Kapitel VI eine Zusammenfassung der Ergebnisse und ein Ausblick gegeben. KW - Devisenmarkt KW - Wechselkurs KW - Erwartungsbildung KW - Wechselkurs KW - Rationale Erwartungen KW - Effiziente Märkte KW - Behavioral Economics KW - Exchange rate KW - Rational Expectations KW - Efficient Markets KW - Behavioral Economics Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-14921 ER - TY - THES A1 - Beschorner, Patrick Frank Ernst T1 - Risikoklassifikation und Wettbewerb auf Versicherungsmärkten T1 - Risk Classification and Competition on Insurance Markets N2 - Mit der Schaffung des europäischen Versicherungsbinnenmarktes wurde 1994 auch der deutsche Versicherungsmarkt liberalisiert. Damit stehen seither den Unternehmen auf diesen Märkten mit der Produktgestaltung, der Prämienkalkulation und der Risikoklassifikation neue Wettbewerbsinstrumente zur Verfügung. Zusätzlich ist der Markteintritt nationaler Unternehmen in andere europäische Märkte erleichtert worden. Die Nutzung der neuen Instrumente im Rahmen von Unternehmensstrategien vor dem Hintergrund eingeschränkter Information und geringer Erfahrung der Marktteilnehmer sowie die Möglichkeiten wohlfahrtssteigernder Markteingriffe sind Inhalt der vorliegenden Untersuchung. Es zeigt sich, daß Informationsbeschränkungen und Marktmacht immanent sind. Die sich daraus ergebenden Marktunvollkommenheiten lassen sich durch einen eingeschränkt informierten Regulierer oder Staat nicht vollständig beheben. Dafür sind Eingriffe möglich, welche die negativen Effekte abzumildern vermögen und dabei einem sehr geringem Informationserfordernis unterliegen. Relevante Informationen beziehen sich in erster Linie auf die Schadenscharakteristika von Versicherungsnehmern. Ein einzelnes Unternehmen profitiert von einem Informationsvorsprung gegenüber seinen Konkurrenten, wenn es diesen für verstärkte Risikoklassifikation einsetzen kann. Aus sozialer Sicht ist es aber sinnvoller, wenn existierende Informationen allen Unternehmen zur Verfügung stehen, so daß eine einheitliche Risikoklassifikation möglich wird. Die hierfür erforderlichen Informationen können nur Beobachtung der Kunden gewonnen werden. Dann hat ein Unternehmen einen Informationsvorsprung gegenüber seinen Konkurrenten in Bezug auf die Charakteristika seiner Kunden. Dieses Effekte begründen, warum Informationsbeschränkungen und Marktmacht auf einem Versicherungsmarkt immanent sind. Versicherungsnehmer, die sich gegen ein Schadensrisiko absichern, stehen Versicherungsschutz und Prävention als substitutive Instrumente zur Verfügung. Die geeignete Wahl der Versicherungsprämie kann effiziente Prävention seitens der Versicherungsnehmer bewirken. Wenn wegen der Informationsbeschränkung verschiedene Risikoklassen nicht identifiziert werden können, kann nur eine einheitliche Prämie für alle Klassen erhoben werden. Dann kann effiziente Prävention nicht bei allen Risikoklassen vorliegen. Ein Eingriff, der diese negativen Wohlfahrtseffekte abmildern kann, besteht in der Vorgabe einer fixen Versicherungsdeckung, so daß die Anreize der verschiedenen Risikoklassen in die richtige Richtung gelenkt werden. Die Marktmacht eines Unternehmens ermöglicht ihm, risikoklassenspezifische Prämien über der fairen Prämie zu wählen. Ein Unternehmen hat stets den Anreiz zu Prämiendifferenzierung, da es ihm einen höheren Gewinn zu erzielen erlaubt. Dagegen ergibt eine Wohlfahrtsuntersuchung, daß eine einheitliche Prämie sozial wünschenswert ist. Ein Verbot der Prämiendifferenzierung ist ein einfaches Mittel, für welches bei einem staatlichen Eingriff nur sehr geringen Informationsanforderungen bestehen. Es zeigt sich, daß die negativen Auswirkungen der Marktmacht dadurch abzumildern sind, indem die Marktmacht eingeschränkt wird, und zwar indem dem Unternehmen nicht die Nutzung aller Wettbewerbsinstrumente gestattet wird. N2 - Along with the creation of the European single insurance market in 1994 the German insurance market was liberalized. Since then, the firms are free in their product design, their premium calculation, and their risk classification. Furthermore, market entry within European markets is facilitated. Firm strategies in applying the new instruments and also market interventions aiming at welfare improvements are subject matters of the present investigation. Both are analyzed for an environment with information constraints and sparse experience of the market participants. One result is that information constraints and market power are immanent. The resulting market imperfections cannot be eliminated completely by a regulatory or state authority which also suffers some information constraints. However, there exist some interventions which require a very low amount of information and which can mitigate the negative effects of the market imperfections. In general, relevant information refers to the loss characteristics of consumers. A single firm benefits from an informational advantage compared to its competitor when it intensifies its risk classification activities. From the social perspective, it would be more efficient when existing information is available to all firms on the market to arrange a uniform risk classification. The necessary information can be generated from observing the loss statistics of the customers. Then a firm gains an informational advantage compared to its competitors on the loss characteristics of its customers. These effects explain why informational constraints and market power are immanent on insurance markets. Insurance coverage and loss prevention are two substitute instruments which can be utilized by consumers facing a potential loss. The appropriate insurance premium will induce an efficient use of prevention by the customers. Information constraints may inhibit the identification of distinct risk classes. Then only a uniform premium for different risk classes will be possible and loss prevention cannot be efficient for all risk classes anymore. An intervention which will reduce the resulting welfare loss may consist in a fixed insurance coverage which has to be purchased by all risk classes. Then all risk classes have an incentive to correct the prevention activities towards the efficient level. Market power allows a firm to apply price discrimination. In the context of insurance markets this means that a firm prefers to ask a specific premium from each risk class. Conversely, a welfare analysis shows that a uniform premium may be socially preferable. Imposing a uniform premium is a simple measure with very low informational requirements. Such an intervention may reduce the welfare loss from price discrimination. This shows that the negative effects resulting from market power may be alleviated by restricting the instruments which can be applied by the firm which has market power. KW - Deutschland KW - Kraftfahrtversicherung KW - Versicherungsmarkt KW - Deregulierung KW - Versicherungsmarkt KW - Regulierung KW - Wettbewerb KW - Versicherungsaufsicht KW - Insurance KW - Regulation KW - Competition KW - Insurance Regulation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10122 ER - TY - THES A1 - Grub, Martin T1 - Verteilungswirkungen anreizorientierter Sozialpolitik : das deutsche Rentenversicherungs- und Steuersystem in der Perspektive dynamischer Lebenszyklusmodelle T1 - Distributional Effects of incentive-oriented social security N2 - Drei große Reformenpakete und eine Reihe kleinerer Begleitmaßnahmen prägen das renten¬politische Erbe der rot-grünen Bundesregierung. Einerseits greifen sie Trends in der Reformpolitik seit Beginn der 90er Jahre auf. So verstärkt die Rentenstrukturreform 2001 beispielsweise die rentenrechtliche Anerkennung von Erziehung und Pflege. Eine veränderte Rentenformel wird die Transitionslasten des demographischen Übergangs mittelfristig gleichmäßiger über die Jahrgänge verteilen – durch eine Eindämmung des Beitrags¬satz¬anstiegs auf Kosten eines langsamer wachsenden Rentenniveaus. Die Nachhaltig¬keitsreform 2004 verstärkt diesen Mechanismus auf der Grundlage neuer empirischer Erkenntnisse. Auch der Übergang zur überwiegend nachgelagerten Besteuerung mit dem Alterseinkünftegesetz 2004 wirkt in diese Richtung durch eine wachsende steuerliche Absetz¬barkeit der Alters¬sicherungsbeiträge bei konsekutiver Einbeziehung der Renten in die Besteuerung. Auf der anderen Seite leiten die Reformen nichts Geringeres als einen tief greifenden Paradigmen¬wechsel ein: den langfristigen Übergang eines umlagefinanzierten Pflichtversicherungs¬- zu einem Drei-Säulen-System, in dem Zulagen und Steuerabzugs¬mechanismen Anreize zur freiwilligen Ergänzungsvorsorge in kapitalgedeckten Sicherungs¬instrumenten bilden. Für die wissenschaftliche Gesetzesfolgenabschätzung stellen diese Reformen eine enorme Herausforderung dar. Es ist das Moment der Freiheit, das in jedweder kausalen Welt Verantwortung impliziert, und die politische Folgenabschätzung spannend und schwierig macht. Die ökonomische Fachliteratur hat Mikrosimulationsmodelle als ein leistungsfähiges Analysewerkzeug entwickelt, fiskalische und distributive Konsequenzen "für den Tag danach" sehr detailliert abschätzen zu können – ohne dabei Verhaltensreaktionen zu berücksichtigen. Verhaltensreaktionen hingegen stehen im Mittelpunkt der rasant wachsenden Literatur zu numerischen Gleichgewichtsmodellen. Angesichts begrenzter Rechenressourcen vereinfachen diese Modelle in der Regel die Risikostruktur des ökonomischen Entscheidungsproblems, um sich auf wenige Zustands- und Entscheidungsvariablen beschränken zu können. Sie abstrahieren häufig von Unstetigkeiten in Budgetrestriktionen und konzentrieren sich auf stationäre Zustandstransitionen. Viele dieser Instrumente sind daher wenig geeignet abzuschätzen, wie sich Menschen an eine Reformpolitik anpassen, die lange Übergangs¬pfade vorsieht über mehrdimensionale, zeitinvariate Risikostrukturen, deren imperfekte Korrelationen zu einer risikodiversifizierenden Vorsorgestrategie genutzt werden kann. Das vorliegende Buch stellt ein dynamisch stochastisches Simulationsmodell im partiellen Erwartungsgleichgewicht vor. Sein Ziel ist, Anreize in der komplexen Interaktion der Reformen mit dem umfangreichen Regulierungsrahmen in einer risikoreichen Umwelt zu identifizieren. Die einzelnen Reformen, ihre algorithmische Abbildung in das dynamische Entscheidungsmodell und die partiellen Wirkungsmechanismen sind detailliert erläutert. Eines der Hauptergebnisse zeigt sich überraschender Weise darin, die beobachtbare Zurück¬haltung niedrigerer Einkommensklassen gegenüber den neuen Sicherungs¬instrumenten ohne Rückgriff auf (im ökokomischen Sinne) eingeschränkte Rationalitäten erklären zu können. Das Modell lässt insbesondere in mittleren Lebenseinkommensbereichen hohe Ergänzungs¬versicherungsraten erwarten – trotz der "u"-förmigen Förderquoten in statischer Quer¬schnitts¬betrachtung. Diese auf den ersten Blickt wenig intuitive Eigenschaft des Modells lässt sich im Gesamtkontext des Alterssicherungs- und Steuersystems über den erwarteten Lebenshorizont erklären. Das Simulationsmodell wurde am Fraunhofer-Institut für Angewandte Informationstechnik FIT entwickelt und wird gegenwärtig beim Verband der Rentenversicherungsträger (VDR) angewandt. Ein großer Dank gilt der finanziellen Förderung durch das Forschungsnetzwerk Alterssicherung (FNA) beim VDR. N2 - The German old age security system has seen three major reforms under the red-green govern¬ment, accomplished by a few more minor steps. On the one hand they intensify reform efforts visible since the early 90s. The 2001 reform, for example, continued to strengthen family related subsidies and changed the pension formula in a way that will contribute to a more equal distribution of financial burdens in the demographic transition among generations – by lowering the replacement rate and limiting the growth of contribution rates in the long run. The 2004 sustainability reform intensified that way under new, less favourable future expectations. The 2004 pension tax reform contributes to the same direction by lowering tax burdens of the contributing generations and raising taxes on pension payments in a long lasting transition to a (nearby) complete deferred taxation. On the other hand these reforms introduced nothing less than a deep paradigmatic change: a long run transition from a mandatory PAYG to a three pillar system, where direct subsidies and tax allowances set up incentives to supplement PAYG pensions by voluntary contributions to funded, private or company pensions. These reforms pose an enormous challenge to scientific policy advice. It is the moment of extended freedom – implying extended responsibility in every casual world – that makes estimating consequences of legal reforms exciting and difficult. Economic literature develo¬ped microsimulation models as powerful means to estimating fiscal and distributional consequences of legal reforms in great detail – “at the day after” without taking behavioural reactions into account. Behavioural reactions on the other hand are of main interest in a growing branch of literature that discusses computational equilibrium models. Due to computational limitations these models usually simplify the risk structure of the economic planning problem, reduce state and decision variables, abstract from real world unsteadiness in the budget restriction and concentrate on steady-/stationary state analysis or transitions between such states. Non of these instruments is well suited to estimate how people adapt to a reform policy that exposes them to long run instationary transition paths over a multi dimensional, time varying risk structure in which they can make use of expected imperfections in risk correlations for planning their optimal precautionary strategy. This book presents a stochastic dynamic simulation model in a partial expectation equilibrium, which was developed to identify incentives of the interacting complexity of these reforms embedded in a complicated institutional framework within a risky world. Institutions, their mapping into a computable dynamic decision model and their partial effects on startegic adaption are discussed in great detail. One of the main findings is surprisingly that it can explain restrained use of the new insurance instruments in lower income classes. From a strict “rational” point of view it forecasts high insurance rates especially in the middle income classes – although the one-year subsidy rates show a clear “u”-fashioned matter over gross income. This counterintuitive fact becomes clear taking into account the interactions of the new subsidies with the whole social security and tax system. The model was developed by the Fraunhofer Institute for Applied Information Technology (FIT) and is now run by the German Social Security Administration (VDR). Financial support by the Forschungsnetzwerk Alterssicherung (FNA) is gratefully acknowledged. KW - Deutschland KW - Altersversorgung KW - Inzidenz KW - Dynamisches Modell KW - Alterssicherung KW - Sozialpolitik KW - Lebenszyklussimulation KW - dynamisch stochastische Optimierung KW - numerische Gleichgewichtsmodelle KW - old age security KW - social policy KW - life cycle simulation KW - dynamic stochastic optimisation KW - numerical economics Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16163 ER - TY - THES A1 - Ganz, Verena T1 - A comprehensive approach for currency crises theories stressing the role of the anchor country T1 - Ein umfassender Ansatz zur Integration von Währungskrisen-Theorien unter besonderer Berücksichtigung der Bedeutung des Ankerlandes N2 - The approach is based on the finding that new generations of currency crises theories always had developed ex post after popular currency crises. Discussing the main theories of currency crises shows their disparity: The First Generation of currency crises models argues based on the assumption of a chronic budget deficit that is being monetized by the domestic central bank. The result is a trade-off between an expansionary monetary policy that is focused on the internal economic balance and a fixed exchange rate which is depending on the rules of interest parity and purchasing power parity. This imbalance inevitably results in a currency crisis. Altogether, this theory argues with a disrupted external balance on the foreign exchange market. Second Generation currency crises models on the other side focus on the internal macroeconomic balance. The stability of a fixed exchange rate is depending on the economic benefit of the exchange rate system in relation to the social costs of maintaining it. As soon as social costs are increasing and showing up in deteriorating fundamentals, this leads to a speculative attack on the fixed exchange rate system. The term Third Generation of currency crises finally summarizes a variety of currency crises theories. These are also arguing psychologically to explain phenomena as contagion and spill-over effects to rationalize crises detached from the fundamental situation. Apart from the apparent inconsistency of the main theories of currency crises, a further observation is that these explanations focus on the crisis country only while international monetary transmission effects are left out of consideration. These however are a central parameter for the stability of fixed exchange rate systems, in exchange rate theory as well as in empirical observations. Altogether, these findings provide the motivation for developing a theoretical approach which integrates the main elements of the different generations of currency crises theories and which integrates international monetary transmission. Therefore a macroeconomic approach is chosen applying the concept of the Monetary Conditions Index (MCI), a linear combination of the real interest rate and the real exchange rate. This index firstly is extended for international monetary influences and called MCIfix. MCIfix illustrates the monetary conditions required for the stability of a fixed exchange rate system. The central assumption of this concept is that the uncovered interest parity is maintained. The main conclusion is that the MCIfix only depends on exogenous parameters. In a second step, the analysis integrates the monetary policy requirements for achieving an internal macroeconomic stability. By minimizing a loss function of social welfare, a MCI is derived which pictures the economically optimal monetary policy MCIopt. Instability in a fixed exchange rate system occurs as soon as the monetary conditions for an internal and external balance are deviating. For discussing macroeconomic imbalances, the central parameters determining the MCIfix (and therefore the relation of MCIfix to MCIopt) are discussed: the real interest rate of the anchor country, the real effective exchange rate and a risk premium. Applying this theory framework, four constellations are discussed where MCIfix and MCIopt fall apart in order to show the central bank’s possibilities for reacting and the consequences of that behaviour. The discussion shows that the integrative approach manages to incorporate the central elements of traditional currency crises theories and that it includes international monetary transmission instead of reducing the discussion on an inconsistent domestic monetary policy. The theory framework for fixed exchange rates is finally applied in four case studies: the currency crises in Argentina, the crisis in the Czech Republic, the Asian currency crisis and the crisis of the European Monetary System. The case studies show that the developed monetary framework achieves integration of different generations of crises theories and that the monetary policy of the anchor country plays a decisive role in destabilising fixed exchange rate systems. N2 - Die Arbeit baut auf dem Befund auf, dass zur Erklärung von Währungskrisen stets im Nachgang bedeutender Krisen eine neue Generation wissenschaftlicher Theorien entwickelt wurde. Eine Diskussion der bedeutendsten Theorien verdeutlicht, dass diese in ihrer Argumentation untereinander und in sich inkonsistent sind: Modelle Erster Generation bauen auf der Annahme chronischer Budgetdefizite auf, die die heimische Notenbank monetarisiert. Dieser Zielkonflikt zwischen einer expansiven, binnenwirtschaftlich ausgerichteten Geldpolitik und dem den Gesetzen der Zins- und Kaufkraftparität unterliegenden Wechselkursziel mündet unvermeidlich in einer Währungskrise. Die Theorie bezieht sich demnach klar auf das externe Gleichgewicht am Devisenmarkt. Währungskrisenmodelle der Zweiten Generation stellen dagegen das interne, binnenwirtschaftliche Gleichgewicht in den Mittelpunkt. Der Erfolg eines Wechselkurszieles hängt hiernach vom Nutzen des Festkurssystems in Relation zu den Kosten seiner Verteidigung ab. Steigen die sozialen Kosten in Form konjunktureller Belastungen, führt dies ab einem bestimmten Level über antizipierende Markterwartungen zu einer spekulativen Attacke auf den Festkurs. Unter dem Obergriff der Dritten Generation von Krisenmodellen schließlich werden verschiedene Modelle zusammengefasst, die psychologische Erklärungsansätze miteinbeziehen, um Phänomene wie Ansteckungseffekte zu erklären. Dadurch können Krisenentwicklungen losgelöst von der jeweiligen Fundamentaldatenlage rationalisiert werden. Neben der offensichtlichen Inkonsistenz der zentralen Argumente der jeweiligen Theorien ist eine weitere Beobachtung, dass die Erklärungen jeweils im betroffenen Land ansetzen, während eine grenzüberschreitende monetäre Transmission außer Acht gelassen wird. Diese ist jedoch sowohl in der Empirie als auch in der Theorie zu Wechselkurssystemen ein zentraler Einflussfaktor für die Stabilität von Festkurssystemen. Aus diesen Befunden leitet sich die Motivation für die vorliegende Arbeit ab, ein die verschiedenen Krisengenerationen integrierendes theoretisches Rahmenwerk zu entwickeln, in dem grenzüberschreitende monetäre Transmissionseffekte in die Diskussion mit einbezogen werden. Zu diesem Zweck wird ein makroökonomischer Ansatz gewählt, der das Konzept des Monetary Conditions Index (MCI) anwendet, einer Linearkombination aus Realzins und realem Wechselkurs. Dieser Index wird zum einen um internationale monetäre Einflüsse erweitert zu einem MCIfix, der die monetären Anforderungen an ein funktionierendes Festkurssystem wiederspiegelt. Zentrale Annahme hierfür ist die Einhaltung der ungedeckten Zinsparität. Die wesentliche Erkenntnis ist, dass alle Determinanten des MCIfix für die Notenbank exogene Parameter sind. In einem zweiten Schritt bezieht die Arbeit die binnenwirtschaftlichen Anforderungen einer Volkswirtschaft an die Geldpolitik in die Analyse ein. Dazu wird durch Minimierung einer Verlustfunktion an gesellschaftlicher Wohlfahrt ein MCI abgeleitet, der die binnenwirtschaftlich optimale Geldpolitik abbildet (MCIopt). Instabilität des Festkurssystems droht, sobald die geldpolitischen Bedingungen für das binnenwirtschaftliche und außenwirtschaftliche Gleichgewicht auseinanderfallen. Zur Diskussion makroökonomischer Ungleichgewichte werden die entscheidenden Parameter, die den MCIfix und damit die Relation von MCIfix und MCIopt bestimmen, diskutiert: der Realzins des Ankerlandes, der reale effektive Wechselkurs und eine Risikoprämie. Mit diesem Theorie-Instrumentarium stellt die Arbeit dann vier Konstellationen dar, in denen MCIfix und MCIopt auseinanderfallen, und diskutiert mögliche Verhaltensweisen der Notenbank und deren Folgen. Der MCI, für den sich die Notenbank tatsächlich entscheidet, wird als MCIact bezeichnet. Jeder der vier Fälle endet in einer Währungskrise. Es zeigt sich in der Diskussion, dass der hier verwendete Ansatz die zentralen Elemente traditioneller Krisentheorien integriert und die Diskussion monetärer Einflüsse von außen zulässt, anstatt ausschließlich von einem ursächlichen Verschulden der heimischen Notenbank auszugehen. Das theoretische Modell wird schließlich in vier Fallstudien angewandt: Der Argentinienkrise, dem Zusammenbruch des tschechischen Währungsregimes, der Asienkrise und der Krise des Europäischen Währungssystems. Die Fallstudien zeigen, dass sich mit dem entwickelten Modellrahmen Krisen verschiedener Generationen abbilden lassen und die Geldpolitik des Ankerlandes eine zentrale Rolle bei einer Destabilisierung eines Festkurssystems spielt. KW - Devisenmarkt KW - Wechselkurspolitik KW - Währungskrise KW - Fester Wechselkurs KW - Monetary Conditions Index KW - Ankerland KW - internes Gleichgewicht KW - externes Gleichgewicht KW - Monetary Conditions Index KW - anchor country KW - internal balance KW - external balance Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26853 ER - TY - THES A1 - Ahn, Young-Cheul T1 - Umweltverschmutzung als länderübergreifendes Problem am Beispiel der globalen Erwärmung T1 - xxx N2 - Diese Arbeit versucht, die wirtschaftliche Bedeutung der globalen Erwärmung zu erklären und die Lösung dieses Problems zu finden. Die globale Erwärmung als länderübergreifendes Problems kann durch das marktwirtschaftliche Preissystem gelöst werden, besonders durch den internationalen Handel der Schadstoffemission. Hierbei wird die dezentrale Lösungsprinzip betont. Die globale Erwärmung und Politik für die Lösung dieses Problem sind dauerhaft. Daher wird das intertemporale Wachstumsmodell zur Berechnung des Gewinns und der Kosten der Politik verlangt. Dabei wird ein Prinzip besagt, dass jede Generation verantwortlich auf ihre Generation ist. In dieser Arbeit wird versucht, die optimale Handelspolitik und die Kyoto-Politik zu vergleichen. KW - Umweltverschmutzung KW - Externalität KW - Internationaler Handel KW - Pollution KW - Externality KW - International Trade Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-22860 ER - TY - THES A1 - Mayer, Eric T1 - New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions N2 - No abstract available N2 - Die vorliegende Arbeit verwendet und erweitert einen neukeynesianischen Analyserahmen (Woodford, 2003), um zentrale Fragestellungen des geld- und fiskalpolitischen Designs in geschlossenen Währungsräumen und Währungsunionen zu thematisieren. Der Verfasser stellt dar, dass die neukeynesianische Theorie es möglich macht, mikrofundiert und keynesianisch zugleich zu denken. Ausgangspunkt ist eine stilisierte, dynamisch-stochastische Ökonomie, in der repräsentative Haushalte und Unternehmen in einem allgemeinen Gleichgewichtsrahmen interagieren. Die Einführung von Preisrigiditäten bei monopolistischer Konkurrenz ist von zentraler Bedeutung. Die Notenbank kann bei rigiden Preisen durch geschickte Zinspolitik jener Allokation nahe kommen, die sich ergeben hätte, wenn Preise flexible gewesen wären. Die Innovation in Kapital 2 besteht darin, dass das neukeynesianische Modell in einen statischen Modellrahmen überführt wird, ohne dass zentrale Einsichten verloren gehen. Der so abgeleitete Analyserahmen bietet eine Alternative zum IS/LM-AS/AD Model und ermöglicht eine überzeugende Analyse geldpolitischer Strategien, wie etwa der des „Inflation-Targetings“. In Kapitel 3 wird dieser Modellrahmen zur Analyse von geld- und fiskalpolitischer Interaktion mit dezentralen fiskalpolitischen Akteuren für den Euroraum herangezogen. Die Referenzliteratur ist Dixit und Lambertini (2003). Es wird gezeigt, dass nationale Autoritäten bei asymmetrischen Schocks und nicht integrierten Produktmärkten eine bedeutsame stabilisierungspolitische Aufgabe haben. Insbesondere Angebotschocks in einzelnen Teilnehmerstaaten haben dramatisch andere Wirkungen auf den Konjunkturzyklus, als in einem geschlossenen Währungsraum. Diese angebotsseitigen Effekte werden in der relevanten Literatur vollständig ausgeblendet. In Kapitel 4 werden neukeynesianische Makromodelle für relativ geschlossene Volkswirtschaften (USA) und Währungsräume (Europäische Währungsgemeinschaft) verwand, um ein geeignetes makroökonomisches Design aus neukeynesianischer Perspektive abzuleiten. Das Model wird mittels eines Minimum Distance Ansatzes geschätzt (Christiano, Eichnbaum, Evans, 2005). Es lassen sich folgende Ergebnisse zusammenfassen. Für die USA wurde gezeigt, dass das neukeynesianische Modell eine ausgewogene Mischung aus rückwertsschauenden und vorausschauenden Akteuren benötigt, um die Daten adäquat abzubilden. Der Schwerpunkt der amerikanischen Notenbankpolitik liegt auf der Stabilisierung der Inflationsrate um das Inflationsziel. Darüber hinaus führt die Implementierung einer stabilisierenden Regel zu sich selbst stabilisierenden Erwartungen und dadurch zu einem stabileren Konjunkturzyklus. Für den Euroraum wurde untersucht, ob der Stabilitäts- und Wachstumspakt die Risiken und Chancen die eine aktivistische Fiskalpolitik beinhaltet hinreichend austariert. Hierbei kommt der Verfasser zu dem Ergebnis, dass die gegenwärtige Ausgestaltung des Stabilitäts- und Wachstumspaktes keine tragfähige Lösung darstellt, da bei realistischen Annahmen über die Größe und Verteilung der Störgrößen es sehr wahrscheinlich ist, dass sachlich ungerechtfertigte Sanktionsmechanismen gegen einzelne Teilnehmerstaaten in Gang gesetzt werden. Insofern schlägt der Verfasser vor, den Stabilitäts- und Wachstumspakt dahingehend zu ändern, dass man nicht auf die fiskalpolitische Instrumentenebene abstellt, sondern auf die Zielebene. Sanktionen sollten demnach nur dann verhangen werden, wenn simultan hohe Inflationsraten und hohe Defizite attestiert werden können. Dieser „Inflation-Targeting“ Ansatz reduziert die Wahrscheinlichkeit, dass irrtümlicherweise Sanktionen verhangen werden. Im abschließenden Kapitel werden die zentralen Einsichten zusammengefasst. Hierbei wird noch einmal darauf verwiesen, dass Schätzungen darauf hindeuten (Canzoneri, Cumby and Diba, 2004), dass ein repräsentativer Haushalt bereit wäre bis zu drei Prozent seines Einkommens für eine wirksame Stabilisierungspolitik zu zahlen. Literaturhinweise CANZONERI, MATHEW B., ROBERT E CUMBY, AND BEHZAD T. DIBA (2004), The Costs of Nominal Inertia in NNS Models, NBER Working Paper No. 10889, November 2004. CHRISTIANO, J. LARRY, MARTIN EICHENBAUM, AND CHARLES EVANS (2005), Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy, Journal of Political Economy, vol.113, no.1, pp. 1-45. DIXIT, AVINASH K, AND LUISA LAMBERTINI (2003), Symbiosis of Monetary and Fiscal Policies in a Monetary Union, Journal of International Economics, vol. 60 no. 2, pp. 235-247. WOODFORD, MICHAEL (2003), Interest and Prices, Foundations of a Theory of Monetary Policy, Princeton University Press, Princeton 2003. KW - Geldtheorie KW - Neokeynesianismus KW - Neukeynesianisch KW - Währungsraum KW - Geld- und Fiskalpolitik KW - New Keynesian KW - monetary union KW - monetary and fiscal policy Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19499 ER - TY - THES A1 - Kleer, Robin T1 - Three Essays on Competition Policy and Innovation Incentives T1 - Drei Aufsätze über Wettbewerbspolitik und Innovationsanreize N2 - Diese Dissertation befasst sich mit dem Thema Innovationsökonomik. In einer allgemeinen Einführung werden wettbewerbspolitische Gesichtspunkte, die Innovationsanreize von Firmen beeinflussen, dargestellt. In drei einzelnen Arbeiten werden dann spezielle Fragestellungen intensiver analysiert. Die erste Arbeit behandelt die Wechselwirkungen von Firmenzusammenschlüssen und Innovationen, zwei zentrale Elemente der Wettbewerbsstrategie von Unternehmen. Der Schwerpunkt der Arbeit liegt dabei auf dem Einfluss von Firmenzusammenschlüssen auf die Innovationsaktivitäten und den Wettbewerb im Produktmarkt. Dabei werden auch mögliche Ineffizienzen, die sich durch Probleme bei der Integration der Firmen nach dem Zusammenschluss ergeben, untersucht. Es wird gezeigt, dass die optimale Investitionsaktivität sehr stark von der sich ergebenden Marktstruktur abhängt und es signifikante Unterschiede zwischen Insider und Outsider des Firmenzusammenschlusses gibt. In dem Modell mit linearer Nachfragefunktion und konstanten Grenzkosten steigern Zusammenschlüsse die soziale Wohlfahrt. Die zweite Arbeit betrachtet die unterschiedlichen Vorteile von kleinen und großen Firmen im Innovationswettbewerb. Während große Firmen typischerweise über einen besseren Zugang zu Produktmärkten verfügen, weisen kleine Firmen häufig eine bessere Forschungseffizienz auf. Diese verschiedenen Vorteile werfen unmittelbar die Frage nach Kooperationen auf. Im dargestellten Modell mit vier Unternehmen haben große Firmen die Möglichkeit kleine Firmen zu kaufen. Innovationen werden mittels Patentwettbewerb modelliert. Sequentielles Bieten ermöglicht es der ersten großen Firma strategisch zu handeln um eine Reaktion der zweiten großen Firma hervorzurufen. Ergeben sich hohe Effizienzen durch den Firmenzusammenschluss, so bevorzugen die großen Firmen eine unmittelbare Akquisition und es entsteht eine symmetrische Marktstruktur. Bei geringen Effizienzen wartet die erste Firma dagegen ab und zwingt die zweite Firma dadurch zum Kauf. Somit entsteht trotz symmetrischer Ausgangssituation eine asymmetrische Marktstruktur. Weiterhin wird gezeigt, dass Akquisitionen die Chancen für eine erfolgreiche Innovation erhöhen. Die dritte Arbeit befasst sich mit Forschungssubventionen. Dabei wird neben dem eigentlichen Ziel der Subvention -- der Förderung sozial erwünschter Projekte, die nicht genügend private Anreize zur Durchführung bieten -- die Signalwirkung einer Subvention betrachtet. Eine Staatsbehörde untersucht dabei die Projekte auf Risiken und Wohlfahrtswirkungen und entscheidet daraufhin über eine Förderung. Dies wird in einem einfachen Signalisierungsspiel mit zwei Risikoklassen von Forschungsprojekten modelliert. Die Staatsbehörde bevorzugt dabei riskante Projekte, die hohe erwartete soziale Gewinne versprechen, während Banken wenig riskante Projekte mit hohen privaten Gewinnen bevorzugen. Ermöglicht die Subvention lediglich die Unterscheidung von riskanten und weniger riskanten Projekten, so ist das Signal der Behörde wenig hilfreich für die Investitionsenscheidung der Banken. Bietet das Signal jedoch zusätzlich einen Hinweis auf die Qualität der Projekte, so können sich erhöhte, bzw. effizienter ausgewählte, private Investitionen ergeben. Im letzten Kapitel werden die wichtigsten Aussagen zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erläutert. N2 - This thesis deals with the economics of innovation. In a general introduction we illustrate how several aspects of competition policy are linked to firms' innovation incentives. In three individual essays we analyze more specific issues. The first essay deals with interdependencies of mergers and innovation incentives. This is particularly relevant as both topics are central elements of a firm's competitive strategy. The essay focuses on the impact of mergers on innovative activity and competition in the product market. Possible inefficiencies due to organizational problems of mergers are accounted for. We show that optimal investment strategies depend on the resulting market structure and differ significantly from insider to outsider. In our linear model mergers turn out to increase social surplus. The second essay analyzes the different competitive advantages of large and small firms in innovation competition. While large firms typically have a better access to product markets, small firms often have a superior research efficiency. These distinct advantages immediately lead to the question of cooperations between firms. In our model we allow large firms to acquire small firms. In a pre-contest acquisition game large firms bid sequentially for small firms in order to combine respective advantages. Innovation competition is modeled as a patent contest. Sequential bidding allows the first large firms to bid strategically to induce a reaction of its competitor. For high efficiencies large firms prefer to acquire immediately, leading to a symmetric market structure. For low efficiencies strategic waiting of the first large firm leads to an asymmetric market structure even though the initial situation is symmetric. Furthermore, acquisitions increase the chances for successful innovation. The third essay deals with government subsidies to innovation. Government subsidies for research and development are intended to promote projects with high returns to society but too little private returns to be beneficial for private investors. Apart from the direct funding of these projects, government grants may serve as a signal of good investments for private investors. We use a simple signaling model to capture this phenomenon and allow for two types of risk classes. The agency has a preference for high risk projects as they promise high expected social returns, whereas banks prefer low risk projects with high private returns. In a setup where the subsidy can only be used to distinguish between high and low risk projects, government agency's signal is not very helpful for banks' investment decision. However, if the subsidy is accompanied by a quality signal, it may lead to increased or better selected private investments. The last chapter summarizes the main findings and presents some concluding remarks on the results of the essays. KW - Wettbewerbspolitik KW - Innovation KW - Firmenzusammenschlüsse KW - Patentwettbewerb KW - Forschungssubventionen KW - Competition Policy KW - Innovation Incentives KW - Mergers and Acquisitions KW - Patent Contest KW - Subsidies Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-34763 ER - TY - GEN A1 - Fricke, Holger T1 - Deutschland dezentral - Potenziale, Probleme, politische Perspektiven T1 - Germany decentralized - potentials, problems, political perspectives N2 - Dezentrale, wettbewerblich organisierte föderale Ordnungen, bei denen zentrale Kompetenzen auf niedrigen institutionellen Ebenen liegen und in denen Gebietskörperschaften eine vergleichsweise geringe Größe aufweisen, sind mit beträchtlichen Vorteilen verbunden. So ist es besser möglich, den Präferenzen der Bürger gerecht zu werden. Außerdem wird ein höheres Wirtschaftswachstum angeregt. Die in der Theorie genannten Nachteile (unausgeschöpfte Größenvorteile, negative Auswirkungen externer Effekte, race to the bottom bei öffentlichen Leistungen und Sozialstaat) finden hingegen nur geringe empirische Bestätigung. Vor diesem Hintergrund ist der kooperative Föderalismus der Bundesrepublik Deutschland kritisch zu bewerten. Insbesondere der Länderfinanzausgleich als Kernelement der bundesstaatlichen Ordnung in Deutschland ist ineffizient und bremst das Wirtschaftswachstum. Um von den Vorteilen dezentraler, wettbewerblicher föderaler Ordnungen profitieren zu können, sollte den Bundesländern insbesondere substanzielle Finanzautonomie eingeräumt werden. Die Heterogenität politischer Präferenzen abhängig von gewählter staatlicher Ebene, Größe von Gebietskörperschaften und simulierten Länderneugliederungen wurde anhand von Bundestagswahlergebnissen untersucht. Die entsprechende Analyse befindet sich als Anhang an dieser Stelle, während die Dissertation in gedruckter Form erschienen ist. N2 - In addition to the dissertation, this appendix contains an analysis of elections in Germany. KW - Fiskalföderalismus KW - Ökonomische Theorie des Föderalismus KW - Deutschland KW - Deutschland <Östliche Länder> KW - Länderfinanzausgleich KW - Dezentralisation KW - Standortwettbewerb KW - fiscal federalism KW - locational competition Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36106 N1 - Die vollständige Arbeit ist im Verlag Dr. Kovac erschienen: http://www.verlagdrkovac.de/978-3-8300-4629-5.htm ER - TY - THES A1 - Stark, Peter T1 - Funktionalität, Effizienz und Deregulierungspotentiale der öffentlichen Straßeninfrastrukturbereitstellung T1 - Functionality, Efficiency and Potentials of Deregulation of Public Road Provision N2 - Innerhalb der Verkehrsinfrastrukturen ist das Straßenwesen mit seinen individualistischen und flexiblen Kraftfahrzeugen der große Gewinner des letzen Jahrhunderts. Trotz seines individualistischen Nutzungscharakters und privatwirtschaftlichen Beispielen in anderen Ländern ist in Deutschland heute keine andere Verkehrsinfrastruktur so weit von einer Deregulierung entfernt wie die Straßen. Den Ausgangspunkt der Erklärung dieser Rigidität bildet eine Situationsaufnahme der bestehenden Marktorganisation. Prägnant erweist sich die tiefe Integration der Straßenbereitstellung in die öffentliche Verwaltung und Entscheidungen über den politischen Prozess unter Beteiligung aller Gesellschaftsgruppierungen. Fragen wirft dabei unter anderen die kontroverse Diskussion um die Externalitäten der Straßen und ihres Verkehrs auf. Die Klärung verweist auf eine Effizienzbetrachtung des bestehenden Bereitstellungssystems. Problematisch zeigt sich hier aufgrund der politischen Heterogenität der Gesellschaftsgruppierungen insbesondere der politische Entscheidungsprozess. Die Suche nach einer Lösung verweist auf privatwirtschaftliche Bereitstellungsalternativen. Es zeigt sich, dass hierfür sowohl in rechtlicher wie auch technischer Hinsicht die notwendigen Rahmenbedingungen für eine privatwirtschaftliche Organisation ebenso bestehen wie auch erhebliche Effizienzgewinne zu erwarten wären. Als eigentliches Hindernis identifiziert sich auch hier eine Neuordnung, die notwendigerweise über den politischen Prozess stattfindenden muss. Der eigene Erfolg der Straßen mit seiner gewachsenen verkehrs- und fiskalpolitischen Bedeutung blockiert damit heute mehr denn je Hoffnungen auf eine Lösung der aufgelaufenen Probleme im Straßenwesen. N2 - Among the various transportation infrastructures it is the roadways which represent the great success story of the last century, allowing flexible and individual use of motor vehicles. Despite the empowerment of the individual and private-sector examples in other countries, no other part of the transportation infrastructure is so far removed from achieving deregulation as the roadways of today. Forming the starting point of any explanation of this rigidity is a consideration of the existing market organization. Proving to be of great significance is the fact that the provisioning of roadways has traditionally been deeply integrated within public administration and decision making by the political process with participation of all public groups. The question thereby raised is the controversial discussion of externalities in connection with roadways and motor vehicles. Clarification of this issue requires an efficiency analysis of the current system. Manifesting itself as particularly problematic is the political decision making process due to heterogeneous social groups. The attempt to localize a solution leads to the possibility of a private economic reorganization. It becomes apparent that the necessary juristic and technical frameworks for private reorganization exist and that significant gains in efficiency could be expected. The effective obstacle proves to be the necessary reorganisation by the political process. It is the very success itself of the roadway networks, with their ever growing transportation and fiscal-political importance, which hinders prospective solutions to the accrued problems of the road-based infrastructure. KW - OKSTRA KW - Öffentliches Straßenwesen KW - Deregulierung Verkehrsinfrastruktur KW - Public Road Provision KW - Deregulation of Infrastructur Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27479 ER - TY - THES A1 - Wollmershäuser, Timo T1 - A theory of managed floating T1 - Eine Theorie des Managed Floatings N2 - After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as ‘independent floaters’ in the IMF statistics were charaterised by a pronounced ‘fear of floating’ and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that – even though it is widely used in practice – has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few ‘middle-ground’ economists, John Williamson, who argued that “managed floating is not a regime with well-defined rules” (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank’s final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker’s quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank’s final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank’s effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables. N2 - Auf modelltheoretischer Ebene wird die Diskussion geld- und währungspolitischer Strategien von den beiden Randlösungen absolut fester Wechselkurse und frei-flexibler Wechselkurse geprägt. In der Realität allerdings stellen diese beiden Strategien eher die Ausnahme als die Regel dar. Während die traditionelle einseitige Wechselkursanbindung zunehmend an Bedeutung verliert, entscheidet sich eine wachsende Anzahl von Ländern, insbesondere kleine und offene Emerging Market Volkswirtschaften, für eine zunehmende Flexibilisierung ihres Wechselkursregimes. Allerdings ist die Bereitschaft, den Wechselkurs vollkommen den freien Kräften des Marktes zu überlassen, sehr eingeschränkt. Dafür sprechen insbesondere zwei stilisierte Fakten: Zum einen greifen Notenbanken direkt am Devisenmarkt mit sterilisierte Käufen und Verkäufen von Fremdwährung ein. Zum anderen versuchen Notenbanken indirekt mit ihrem Zinsinstrument Einfluss auf den Verlauf des Wechselkurses zu nehmen, indem sie auf seine Veränderungen mit Anpassungen der Zinsen reagieren. Während die Literatur in beiden Fällen von einem System des Managed Floatings spricht, wurde im Rahmen der vorliegenden Arbeit Ersteres als direktes Managed Floating, und Letzteres als indirektes Managed Floating bezeichnet. Gemeinsames Merkmal beider Formen des Managed Floatings ist, dass für sie im Rahmen makroökonomischer Modelle offener Volkswirtschaften keine Rechfertigung abzuleiten ist. Insbesondere Neukeynesianische bzw. Neokeynesianische Modelle, auf deren Grundlage moderne Geldpolitik diskutiert wird, kommen zu dem Ergebnis, dass eine geeignete Zinspolitik auf Basis frei-flexibler Wechselkurse (also ohne direkte Devisenmarktinterventionen und ohne indirekte Beeinflussung durch Zinsen) zu einer bestmöglichen Stabilisierung der Volkswirtschaft beiträgt. Die entscheidende Annahme, die diesem Ergebnis zugrunde liegt, ist, dass sich der Wechselkurs auf effizienten Devisenmärkten und gemäß eines klar definierten Wechselkursmodells bildet. Normalerweise wird daher in den meisten Modellen die Gültigkeit der ungedeckten Zinsparität unterstellt. Empirische Untersuchungen kommen allerdings regelmäßig und mit überraschender Eindeutigkeit zu dem Befund, dass der Zusammenhang zwischen Zinsen und Wechselkurs entsprechend der ungedeckten Zinsparität bei flexiblen Wechselkursen statistisch nicht nachweisbar ist, und sprechen daher gar von einer Anomalie des Devisenmarktes. Berücksichtigt man diese Anomalie bei der Modellierung geldpolitischer Entscheidungen, kehrt sich die Überlegenheit frei-flexibler Wechselkurse gegenüber den beiden Formen des Managed Floatings ins Gegenteil um. Dieses zentrale Ergebnis, das eine ökonomische Ratio für das beobachtete Verhalten vieler Notenbanken in kleinen und offenen Volkswirtschaften liefert, wird in zwei Schritten hergeleitet. Zum einen lässt sich durch die Berücksichtigung von Wechselkursunsicherheit die Strategie des indirekten Managed Floatings begründen. Wechselkursunsicherheit wird definiert als die (nicht quantifizierte) Wahrscheinlichkeit, dass anstelle der ungedeckten Zinsparität ein anderes Wechselkursmodell das tatsächliche Zusammenspiel zwischen den beiden Finanzmarktgrößen Zins und Wechselkurs bestimmt. In der vorliegenden Arbeit wird gezeigt, dass sich Zinsregeln, die neben der Inflationsrate und der Outputlücke (wie unter frei-flexiblen Wechselkursen) auch auf den zeitgleichen und den zeitverzögerten realen Wechselkurs reagieren, als äußerst robust gegenüber einem hohen Maß an Wechselkursunsicherheit erweisen. Zum anderen lassen sich durch Abweichungen von der ungedeckten Zinsparität direkte sterilisierte Devisenmarktinterventionen begründen. Neben dem Geldmarktzins können Notenbanken somit gleichzeitig und unabhängig vom Geldmarktzins den Wechselkurs steuern. Allerdings muss für die Wechselkurssteuerung – ebenso wie für die Zinssteuerung – ein geeignetes Steuerungssystem (Strategie) entworfen werden, dass der Notenbank klare Handlungsweisungen liefert. In der vorliegenden Arbeit werden zunächst die Wirkungskanäle sterilisierter Interventionen diskutiert. Anschließend wird eine geldpolitische Regel auf der Basis eines aus Geldmarktzins and Wechselkurs zusammengesetzten Operating Targets, des sog. Monetary Conditions Indexes, entworfen. Es zeigt sich, dass eine Strategie des direkten Managed Floatings bei entsprechendem Einsatz der beiden Notenbankinstrumente zu denselben Ergebnissen (gemessen am Stabilisierungsziel der Notenbank) führt, wie sie sich auch unter frei-flexiblen Wechselkursen bei Gültigkeit der ungedeckten Zinsparität ergeben würden. Sterilisierte Devisenmarktinterventionen stellen somit ein zusätzliches Instrument der Geldpolitik dar, dass die aus der Wechselkursunsicherheit resultierenden negativen Auswirkungen auf die geldpolitischen Endziele kompensiert. KW - Managed Floating KW - Devisenmarktinterventionen KW - Inflation Targeting KW - Zinsregeln KW - Monetary Conditions Index KW - managed floating KW - foreign exchange market interventions KW - inflation targeting KW - interest rate rules KW - monetary conditions index Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8676 ER - TY - THES A1 - Hülsewig, Oliver T1 - Bank lending and monetary policy transmission in Germany T1 - Kreditvergabe der Banken und geldpolitische Transmission in Deutschland N2 - This study investigates the credit channel in the transmission of monetary policy in Germany by means of a structural analysis of aggregate bank loan data. We base our analysis on a stylized model of the banking firm, which specifies the loan supply decisions of banks in the light of expectations about the future course of monetary policy. Using the model as a guide, we apply a vector error correction model (VECM), in which we identify long-run cointegration relationships that can be interpreted as loan supply and loan demand equations. In this way, the identification problem inherent in reduced form approaches based on aggregate data is explicitly addressed. The short-run dynamics is explored by means of innovation analysis, which displays the reaction of the variables in the system to a monetary policy shock. The main implication of our results is that the credit channel in Germany appears to be effective, as we find that loan supply effects in addition to loan demand effects contribute to the propagation of monetary policy measures. N2 - Die vorliegenden Arbeit untersucht die Existenz des Kreditkanals in der geldpolitischen Transmission in Deutschland im Rahmen einer strukturellen Analyse von aggregierten Kreditmarktdaten. Die Analyse stützt sich auf ein Modell des Bankenverhaltens, welches die Kreditvergabeentscheidungen der Banken vor dem Hintergrund zukünftig erwarteter geldpolitischer Maßnahmen beleuchtet. Mit Hilfe eines Vektorfehlerkorrekturmodells (VECM) werden Langfristbeziehungen, die als Kreditangebots- und Kreditnachfragegleichungen interpretiert werden können, durch die Wahl von Restriktionen auf Kointegrationsvektoren hergeleitet. Auf diese Weise wird das Identifikationsproblem, welches bei Schätzungen von reduzierten Formen auf der Basis von aggregierten Daten auftritt, explizit angegangen. Die kurzfristige Dynamik des VECM wird anhand von Impuls-Antwort-Funktionen und Varianzzerlegungen dargestellt, die den Einfluss eines geldpolitischen Schocks auf die Variablen des Systems beschreiben. Die empirischen Ergebnisse deuten auf die Relevanz des Kreditkanals in Deutschland hin, da Kreditangebotseffekte zusätzlich zu Kreditnachfrageeffekten einen Einfluss auf die Übertragung von geldpolitischen Maßnahmen haben. KW - Kreditvergabe KW - geldpolitische Transmission KW - Kreditkanal KW - Vektorfehlerkorrekturmodell KW - Bank lending KW - monetary policy transmission KW - credit channel KW - vector error correction model Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8686 ER - TY - THES A1 - Schlegtendal, Götz T1 - Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Berücksichtigung betriebswirtschaftlicher Aspekte T1 - The value of flexible payment components with regards to business aspects N2 - Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gründe ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit über verschiedene Theorien erklärt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, überhöhte Reallöhne zurückgeführt werden. Unterschiedliche Einflüsse verhindern dann ein Absinken des Lohnniveaus auf ein vollbeschäftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungenügenden Anpassungskapazitäten an veränderte Rahmenbedingungen sind eine weitere Begründung für die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer Höhe und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, können einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungslöhne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivitätsorientierten Entlohnung bei, mit positiven Effekten für Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman‘s kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erhöhter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitsplätze sichern. Neben diesen drei Hauptformen werden auch Investivlöhne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivlöhne (zur Überwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und Führungskräften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung ergänzt werden können. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige Lösung der Arbeitslosigkeit bietet. Vielmehr müssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die Höhe und Ausgestaltung der Lohnersatzleistungen sowie die Stärkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen. N2 - Subject of this study are the impacts of flexible compensation components (incentive wage, profit-sharing, employee share ownership) at the industry and economy level. Starting point is the analysis of existing unemployment with regards to original causes and the reasons for persistency. The conclusion is that existing unemployment can be explained by several theories and may be divided into various A major part of the unemployment can be explained by unflexible, exzessive real wages. Various influences prevent the wages to drop to a level conform with full employment.parts. Structural causes like misdevelopments at the labour market and insufficient capacities to adapt to a new environment are another reason for high and sustainable unemployment. Wages, which are flexible in their sectoral, regional and professional dimension, can have a major contribution to reduce unemployment. Following this economic approach the next chapter is focused on the industrial aspects of compensation in the view of enterprises and employees. Following these basis three different options to make compensation flexible with respect to industrial and economical effects will be analysed. Incentives wages respect either the quantity or the quality of work. In this sense they contribute to a compensation linked to productivity, with positive impact to companies and the total economy. Since Weitzman`s controversal "Share Economy" profit-sharing is viewed as a way to reduce unemployment. The linkage between company success and compensation seems to have positive results for employees, companies and the unemployed. Employee share ownership seems to be no way to influence unemployment directly. On the other hand positive relation between motivation and participation might reduce the risk of rising unemployment. The money raised by participation might secure employment depending on the rules. Investive wages (Investivlöhne) and stock options might be another way to make compensation more flexible. Investive wages (often used to overcome the lack of equity in companies) have similiar effects to profit-sharing and share ownership whereas stock options only adress smaller groups of employees and managers. The final chapter describes the optimal composition of a compensation model. It concludes a basic wage, an incentive wage and some kind of profit-sharing. Employee share ownership might be an optional part of it. Once again will be emphasized, that a flexible form of compensation is not an isolated way to reduce unemployment. In fact it must be accompagnied by structurell reforms as adressing the balance of power at the labour market, the level and rules of social welfare and the strengthening of economic growth. KW - Arbeitsmarkt KW - Lohnflexibilität KW - Arbeitslosigkeit KW - Entlohnung KW - Erfolgsbeteiligung KW - Leistungslohn KW - Kapitalbeteiligung KW - Unemployment KW - compensation KW - profit-sharing KW - incentive wage KW - employee share ownership Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-5277 ER - TY - THES A1 - Rönnberg, Michael T1 - Bedeutung der Spezifikation für Ratingmodelle T1 - Impact of model specification on credit rating models N2 - Ziel dieser Arbeit ist die Untersuchung der Bedeutung der Spezifikation für Ratingmodelle zur Prognose von Kreditausfallwahrscheinlichkeiten. Ausgehend von dem in der Bankenpraxis etablierten Logit-Modell werden verschiedene Modellerweiterungen diskutiert und hinsichtlich ihrer Eigenschaften als Ratingmodelle empirisch und simulationsbasiert untersucht. Die Interpretierbarkeit und die Prognosegüte der Modelle werden dabei gleichermaßen berücksichtigt. Besonderes Augenmerk wird auf Mixed Logit-Modelle zur Abbildung individueller Heterogenität gelegt. Die Ergebnisse zeigen, dass die Spezifikation einen wichtigen Einfluss auf die Eigenschaften von Ratingmodellen hat und dass insbesondere mit Hilfe von Mixed Logit-Ansätzen sinnvoll interpretierbare Ratingmodelle mit guten Prognoseeigenschaften erlangt werden können. N2 - This thesis aims at analyzing the impact of model specification on credit rating models as used by banks to forecast credit default probabilities. The well-established logit model is extended in various directions. Implications are discussed empirically and with the help of Monte Carlo studies. In this respect, interpretability and forecasting quality are considered simultaneously. A main focus is on mixed logit models that allow for modeling individual heterogeneity. Results indicate that proper model specification has a strong impact on the quality of rating models. In particular it is emphasized that mixed logit models offer well interpretable credit rating models with high forecasting power. KW - Bank KW - Kreditrisiko KW - Logit-Modell KW - Rating KW - Spezifikation KW - Mixed Logit KW - Spezifikationsanalyse KW - Kreditrisiko KW - Internes Rating KW - Basel II KW - Maximum-Likelihood-Schätzung KW - Mixed Logit KW - Specification Analysis KW - Credit Risk KW - Internal Rating KW - Basel II Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-48895 ER - TY - THES A1 - Wismer, Sebastian T1 - Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing T1 - Aufsätze in Industrieökonomik: Intermediation, Marketing und Strategische Preissetzung N2 - This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework. N2 - Die vorliegende Dissertation beschäftigt sich mit ausgewählten Unternehmensstrategien, die insbesondere mit der Entwicklung neuer Informationstechnologien verbreitet Anwendung finden. In der Einleitung wird die Motivation dargelegt und kurz auf Definitionsmöglichkeiten des Begriffs "zweiseitiger Markt" eingegangen sowie eine knappe Zusammenfassung der nachfolgenden Essays gegeben. Der erste Essay beschäftigt sich mit dem Einfluss von Produktinformationen auf die Preis- und Werbeentscheidung des Anbieters eines Erfahrungsgutes dessen Qualität potenzielle Käufer vor dem Kauf nicht kennen. In zwei Modellen, welche sich insbesondere in der vorherrschenden Rolle von Werbung unterscheiden, wird analysiert, wie sich die Verfügbarkeit von zusätzlichen Informationen, welche allerdings möglicherweise irreführend sein können, auf die von der tatsächlichen Produktqualität abhängige Preissetzung und Werbeinvestition auswirkt. Im ersten Modell, in welchem unterstellt wird, dass sowohl Werbung als auch andere Produktinformationen auf die Existenz von Produkten aufmerksam machen, stellt sich heraus, dass der vom Anbieter gewählte Preis positiv mit der tatsächlichen Qualität zusammenhängt, allerdings unter gewissen Umständen ein Anbieter eines Produkts niedriger Qualität profitabel einen hohen Preis setzen kann. Der Zusammenhang zwischen Produktqualität und Werbung hängt von der vorliegenden Parameterkonstellation ab. Im zweiten Modell wird - anders als zuvor - angenommen, dass die Preissetzungsentscheidung indirekt Informationen bzgl. der Produktqualität vermitteln kann, d.h. einige Konsumenten den Preis als Signal interpretieren, während andere Konsumenten ihre Einschätzung über Produktqualität direkt aus evtl. verfügbaren anderen Informationen beziehen. Einerseits ergibt sich unter bestimmten Umständen das aus der Signalisierungsliteratur bekannte Ergebnis, dass sich trotz asymmetrischer Information dieselben Preise wie unter vollständiger Information einstellen können. Andererseits zeigt sich, dass sich bei möglicherweise irreführender Produktinformation weitere Preissetzungsmuster ergeben können. Darüber hinaus wird unterstellt, dass Unternehmen durch unbeobachtbare Marketinginvestitionen Einfluss auf Produktinformationen nehmen können, was im Extremfall dazu führen kann, dass ein hoher Preis niedrige Produktqualität signalisiert, wobei bei diesem Preis nur ein Teil der Konsumenten einen Kauf in Betracht zieht. Im zweiten Essay werden Handelsplattformen untersucht, welche die spezielle Eigenschaft haben, dass deren Betreiber nicht nur Verkäufern die Möglichkeit einräumen, Käufern über die Plattform Produkte anzubieten, sondern auch selbst Produkte als Händler vertreiben können. Es wird zunächst aufgezeigt, dass im unterstellten Rahmen unter den bisher von der Literatur schwerpunktmäßig behandelten klassischen zweistufigen Tarifen das Problem besteht, dass der drohende Wettbewerb zwischen Plattformbetreiber und Verkäufern die Plattform unattraktiv macht. Produkte, auf die der Plattformbetreiber erst durch Beitritt von anderen Verkäufern aufmerksam wird, werden somit möglicherweise nicht angeboten, da sich zu wenige Verkäufer der Plattform anschließen. Es wird jedoch aufgezeigt, dass umsatzabhängige Gebühren dazu führen, dass der Plattformbetreiber seltener in Wettbewerb mit Händlern tritt, und deren Einsatz daher profitabel sein kann. Dies liefert eine neue Erklärung dafür, warum insbesondere Handelsplattformen tatsächlich umsatzabhängige Gebühren verlangen. Der dritte Essay beschäftigt sich wiederum mit Handelsplattformen, betont aber, dass Verkäufer parallel auch weitere Vertriebskanäle nutzen können. Nachdem im gegebenen Rahmen mögliche Ursachen dafür aufgezeigt wurden, dass Verkäufer in verschiedenen Vertriebskanälen unterschiedliche Preise setzen, wird die Tarifentscheidung des Plattformbetreibers und deren Einfluss auf die Nutzung der verschiedenen Vertriebswege untersucht. Insbesondere wird die Wirkung von sog. Nichtdiskriminierungsregeln analysiert, welche in der Realität zu beobachten, aber wettbewerbspolitisch umstritten sind. Es wird identifiziert, unter welchen Umständen der Plattformbetreiber die Preissetzung von Verkäufern mit einer solchen Regel einschränkt, welche ihm insbesondere erlaubt, die Nutzung der verschiedenen Vertriebswege direkt zu kontrollieren. Darüber hinaus wird gezeigt, dass diese Regeln im gegebenen Rahmen sowohl positive als auch negative Folgen haben können. KW - Industrieökonomie KW - Aufsatzsammlung KW - Intermediation KW - Platform Tariff KW - Price Parity Clause KW - Product Quality KW - Advertising KW - Intermediation KW - Plattformtarif KW - Produktqualität KW - Preisparitätsklausel KW - Werbung KW - Asymmetrische Information KW - Marktplatz KW - Mikroökonomie Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-99102 ER - TY - THES A1 - Donado Gomez, Alejandro T1 - Trade Unions and Occupational Health and Safety T1 - Gewerkschaften und Sicherheit am Arbeitsplatz N2 - This thesis comprises three essays that study the impact of trade unions on occupational health and safety (OHS). The first essay proposes a theoretical model that highlights the crucial role that unions have played throughout history in making workplaces safer. Firms traditionally oppose better health standards. Workplace safety is costly for firms but increases the average health of workers and thereby the aggregate labour supply. A laissez-faire approach in which firms set safety standards is suboptimal as workers are not fully informed of health risks associated with their jobs. Safety standards set by better-informed trade unions are output and welfare increasing. The second essay extends the model to a two-country world consisting of the capital-rich "North" and the capital-poor "South". The North has trade unions that set high OHS standards. There are no unions in the South and OHS standards are low. Trade between these two countries can imply a reduction in safety standards in the North, lowering the positive welfare effects of trade. Moreover, when trade unions are also established in the South, northern OHS standards might be further reduced. The third essay studies the impact of unions on OHS from an empirical perspective. It focuses on one component of OHS: occupational injuries. A literature summary including 25 empirical studies shows that most studies associate unions with less fatal occupational injuries. This is in perfect line with the anecdotal evidence and the basic model from the first essay. However, the literature summary also shows that most empirical studies associate unions with more nonfatal occupational injuries. This puzzling result has been explained in the literature by (1) lower underreporting in unionized workplaces, (2) unions being more able to organize hazardous workplaces, and (3) unionized workers preferring higher wages at the expense of better working conditions. Using individual-level panel data, this essay presents evidence against all these three explanations. However, it cannot reject the hypothesis that workers reduce their precautionary behaviour when they join a trade union. Hence, the puzzle seems to be due to a strong moral hazard effect. These empirical results suggest that the basic model from the first essay needs to be extended to account for this moral hazard effect. N2 - Diese Doktorarbeit besteht aus drei Aufsätzen, die die Auswirkungen von Gewerkschaften auf die Sicherheit am Arbeitsplatz untersuchen. Der erste Aufsatz schlägt ein theoretisches Modell vor, das die entscheidende Rolle von Gewerkschaften bei der Entwicklung sicherer Arbeitsplätze unterstreicht. Firmen sind traditionell gegen bessere Gesundheitsstandards. Sicherheit am Arbeitsplatz ist teuer für Firmen, erhöht aber die durchschnittliche Gesundheit der Arbeitskräfte und somit das aggregierte Arbeitsangebot. Ein Laissez-Faire-Ansatz, in dem Unternehmen die Sicherheitsstandards festlegen, ist suboptimal, da Arbeitnehmer nicht in vollem Umfang über die Gesundheitsrisiken informiert werden, die mit ihren Arbeitsplätzen verbunden sind. Sicherheitsstandards, die durch besser informierte Gewerkschaften festgelegt werden, steigern den Output und die Wohlfahrt. Der zweite Aufsatz erweitert das Modell um eine Zwei-Länder-Welt bestehend aus dem kapitalreichen "Norden" und dem kapitalarmen "Süden". Der Norden hat Gewerkschaften, die hohe Sicherheitsstandards festlegen. Im Süden gibt es keine Gewerkschaften, und die Sicherheitsstandards sind niedrig. Der Handel zwischen beiden Ländern kann zu einer Senkung der Sicherheitsstandards im Norden führen, was den positiven Wohlfahrtseffekt vom Handel reduziert. Wenn nun auch im Süden Gewerkschaften eingeführt werden, dann könnte dies zur noch stärkeren Reduzierung von Sicherheitsstandards im Norden führen. Der dritte Aufsatz untersucht den Einfluss von Gewerkschaften auf Sicherheit am Arbeitsplatz aus einer empirischen Perspektive. Er konzentriert sich auf eine Komponente von Sicherheit am Arbeitsplatz: Arbeitsunfälle. Eine aus 25 empirischen Studien bestehende Literaturzusammenfassung zeigt, dass die meisten Studien Gewerkschaften mit weniger tödlichen Arbeitsunfällen verbinden. Dies steht völlig in Einklang mit der anekdotischen Evidenz und dem Basismodell aus dem ersten Aufsatz. Erstaunlich ist jedoch, dass es -- den meisten empirischen Studien zufolge -- durch die Einführung von Gewerkschaften zu mehr nicht-tödlichen Arbeitsunfällen kommt. Dieses rätselhafte Phänomen wird in der Literatur damit erklärt, dass (1.) die Dunkelziffer der nicht-angezeigten Arbeitsunfälle in gewerkschaftlich organisierten Betrieben niedriger sei, dass (2.) Gewerkschaften sich vor allem in den Arbeitsbereichen konstituieren, in denen ein hohes Arbeitsunfallrisiko herrscht und dass (3.) gewerkschaftlich organisierte Arbeitnehmer höhere Löhne auf Kosten besserer Arbeitsbedingungen bevorzugen würden. Mit Hilfe von Paneldaten auf der Individualebene liefert dieser Aufsatz empirische Belege gegen alle diese drei Erklärungen. Die Daten deuten vielmehr sehr stark darauf hin, dass die Erklärung im Verhalten der Arbeitnehmer zu suchen ist. Diese reduzieren ihre Vorsichtsmaßnahmen, wenn sie einer Ge-werkschaft beitreten. Daher scheint ein starker Moral-Hazard-Effekt die Lösung des Rätsels zu sein. Dieses überraschende Ergebnis gibt den Anlass zu weiteren Forschungsaktivitäten. So müsste das Basismodell aus dem ersten Aufsatz nun erweitert werden, um diesen Effekt adäquat zu berücksichtigen. KW - Arbeitsschutz KW - Arbeitssicherheit KW - Gewerkschaft KW - Sicherheit am Arbeitsplatz KW - Paneldaten KW - Arbeitsplatzsicherung KW - Soziale Sicherheit KW - occupational health and safety KW - trade unions KW - international trade KW - labor unions KW - occupational injury Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-56076 ER - TY - THES A1 - Brause, Alexander F. T1 - Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets T1 - Devisenmarktinterventionen: Neue Empirische Ansichten von Schwellenländern N2 - Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research. N2 - Seit jeher haben Notenbanker eine Vielzahl von Maßnahmen zur Sicherstellung ihres Hauptziels der Preisniveaustabilität eingesetzt. Ein Instrument aus dem Werkzeugkasten von Notenbanken ist die Devisenmarktintervention. Der Großteil der akademischen Diskussion bezog sich bei der Analyse dieses Instruments bisher auf die Erfahrungen von Industrienationen. Die negativen Ergebnisse dieser Studien führten in den letzten Jahren zu der weitverbreiteten Meinung, dass Interventionen am Devisenmarkt kein geeignetes Instrument zur Steuerung von Wechselkursen darstellen. Folglich befasst sich die empirische Literatur mehr und mehr mit den Interventionserfahrungen von Emerging Markets. Geldpolitik in Emerging Markets zeichnet sich oftmals durch eine aktive Wechelkursteuerung aus. Die aktuelle akademische Diskussion über Interventionsdynamiken (Motive und Effektivität) hat bisher jedoch einen zentralen Aspekt vernachlässigt. Weder die Analysen von Industrienationen, noch aktuelle Studien zu Emerging Markets berücksichtigen die Möglichkeit, dass Interventionsmotive und die Effekte von Devisenmarkttransaktionen über die Zeit hinweg variieren. Diese Arbeit zielt darauf ab, dem Leser die elementaren Bestandteile der aktuellen Diskussion über Notenbankinterventionen am Devisenmarkt näher zu bringen und neue Aspekte in Bezug auf Emerging Markets zu diskutieren. Der Kernpunkt befasst sich mit der Frage, warum Notenbanken in Emerging Markets am Devisenmarkt intervenieren und ob diese Interventionen effektiv sind. Darüber hinaus wird der Aspekt der zeitlichen Veränderung von Interventionsmotiven und deren Auswirkungen auf den Wechselkurs untersucht. Die erzielten Ergebnisse werden danach vor dem Hintergund der ökonomischen und geldpolitischen Rahmenbedingungen diskutiert. Dieser letzte Punkt soll als Startschuss für die mögliche, zukünftige empirische Diskussion über die Gründe für Interventionsmotive und Interventionseffekte angesehen werden. KW - Schwellenländer KW - Wechselkurspolitik KW - Zentralbankintervention KW - Devisenmarkt KW - Interventionspolitik KW - Geldpolitik KW - Monetary Policy KW - Central Bank Intervention KW - Foreign Exchange Market KW - Rolling Estimation KW - Emerging Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-55207 ER - TY - THES A1 - Steinmetz, Alexander T1 - Essays on Strategic Behavior and Dynamic Oligopoly Competition T1 - Beiträge zu strategischem Verhalten und dynamischem oligopolistischem Wettbewerb N2 - This thesis deals with three selected dimensions of strategic behavior, namely investment in R&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays. N2 - Die Dissertation „Essays on Strategic Behavior and Dynamic Oligopoly Competition“ befasst sich mit strategischem Verhalten und dynamischem Wettbewerb in Oligopolen. In drei einzelnen Arbeiten werden spezielle Fragestellungen eingehend analysiert. Die erste Arbeit befasst sich mit der Frage, wie sich die Marktstruktur durch Forschungsaktivitäten der Unternehmen entwickelt, wenn die Forschungskompetenz der Unternehmen für mehrere Projekte von Bedeutung ist. Der Fokus der Arbeit liegt auf der Analyse der Effekte des Lernens und Vergessens bei Forschung und Entwicklung auf die Innovationsanreize der Unternehmen. Es wird ein dynamisches Innovationsmodell entwickelt, in dem Unternehmen durch Investitionen in Forschungsprojekte Erfahrungen sammeln können. Als Referenzfall wird im Modell ohne die Möglichkeit des Lernens gezeigt, dass die Lockerung der typischen, aber strengen Annahme, dass der Marktfolger die führende Technologie immer imitiert, zu neuen strategischen Effekten führt. Weil der Marktführer versucht starken Produktmarktwettbewerb in der Zukunft zu vermeiden, steigt sein Innovationsanreiz mit der Verbesserung seiner Position. Haben die Firmen dagegen die Möglichkeit durch Forschungsprojekte zu lernen, führt der daraus resultierende Effekt der Forschungswissensbildung dazu, dass sich der Marktführer auf seinen Lorbeeren ausruht, was dem Marktfolger ermöglicht aufzuholen. Im Gegensatz zum Referenzfall fällt der Innovationsanreiz des Marktführers mit der Verbesserung seiner Position. Dieses Verhalten führt zu einem Gleichgewicht, in dem die Innovationsanreize am höchsten sind, wenn der Produktmarktwettbewerb am stärksten ist. Mit Hilfe eines allgemeinen Gleichgewichtsmodells, welches die Modellierung oligopolistischen Wettbewerbs erlaubt, analysiert die zweite Arbeit die Integration von Ökonomien, die von grenzüberschreitenden Fusionswellen begleitet sein können. Die Untersuchung von Ökonomien, die sich vor der Integration in stabilen Gleichgewichten befunden haben, in denen keine profitablen Fusionen möglich waren, zeigt, dass Globalisierung grenzüberschreitende Fusionswellen auslöst, wenn die Unternehmen hinreichend heterogen bezüglich ihrer Kostenstruktur sind. Im partiellen Gleichgewicht profitieren Konsumenten von der Integration auch dann, wenn eine Fusionswelle ausgelöst wird und alle einheimischen Unternehmen übernommen werden und damit die Wettbewerbsintensität deutlich sinkt. Die Wohlfahrt steigt. Im Gegensatz dazu sind im allgemeinen Gleichgewicht, in dem das Zusammenspiel der Märkte und damit Effekte auf Faktorpreise berücksichtigt werden, Globalisierungsgewinne nur durch die Reallokation von Ressourcen möglich. Je größer die technologischen Unterschiede der Länder, umso besser können diese Effizienzgewinne der Integration im allgemeinen Gleichgewicht realisiert werden. Der Effekt der Globalisierung für die Wohlfahrt ist positiv, wenn alle Firmen im Markt aktiv bleiben, aber unbestimmt, wenn Firmen den Markt verlassen oder aufgekauft werden. Es ist möglich, dass der negative Wohlfahrtseffekt der fallenden Wettbewerbsintensität den positiven Effekt der effizienteren Ressourcenallokation dominiert. Das Zulassen von Eintritt verändert die Ergebnisse drastisch, da in diesem Fall Firmen unterschiedlicher Herkunft in einer integrierten Volkswirtschaft nicht koexistieren können. Komparative Vorteile in Bezug auf Eintrittsmöglichkeiten und Produktion sind dann umso wichtiger für die Realisierung von Wohlfahrtsgewinnen. Die dritte Arbeit analysiert das Zusammenspiel von Preis- und Lagerbestandsentscheidungen unter oligopolistischem Wettbewerb und dessen Implikationen für die Dynamik der Preise. Die Arbeit erweitert existierende Literatur um endogene Preise und unvollständigen strategischen Wettbewerb im Oligopol. Es wird gezeigt, dass bestellfixe Kosten dazu führen, dass selten bestellt wird und die optimale Bestellpolitik eine (S,s)-Politik ist. Für die Unternehmen bilden Preise und Lagerbestand strategische Substitute. Insgesamt erzeugt die (S,s)-Bestellpolitik zusammen mit der unsicheren Nachfrage bei strategischem Preiswettbewerb zyklische Preisschwankungen. Die Dissertation schließt mit einigen kurzen Bemerkungen zu den entwickelten Modellen und deren Ergebnissen. KW - Wettbewerbsstrategie KW - Oligopol KW - Oligopol KW - Innovationswettbewerb KW - Bestandsmanagement KW - Mergers and Acquisitions KW - Außenhandel KW - Wissenserwerb KW - Globalisierung KW - Preisänderung KW - Eink KW - Innovation Incentives KW - Knowledge KW - General Oligopolistic Equilibrium KW - Inventory Dynamics KW - (S KW - s) Order Policy KW - Commodity Markets Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-47934 ER - TY - THES A1 - Schumm, Irene T1 - Lessons Learned From Germany’s 2001-2006 Labor Market Reforms T1 - Lehren aus den Deutschen Arbeitsmarktreformen zwischen 2001 und 2006 N2 - In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zunächst wird ein Überblick über die wichtigsten Änderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, nämlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verkürzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte Ökonomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabhängiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise können die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden. N2 - This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed. KW - Hartz-Reform KW - Arbeitsmarkttheorie KW - Deutschland / Gesetz zu Reformen am Arbeitsmarkt KW - Evaluation KW - Simulation KW - Computersimulation KW - Semi-Markov-Prozess KW - Deutschland / Gesetz für moderne Dienstleistungen am Arbeitsmarkt 4 KW - Matching-Modell KW - optimale Suchleistung KW - matching model KW - evaluation KW - Germany KW - labor market reform Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-43705 ER - TY - JOUR A1 - Römeis, Fabio A1 - Herweg, Fabian A1 - Müller, Daniel T1 - Salience bias and overwork JF - Games N2 - In this study, we enrich a standard principal–agent model with hidden action by introducing salience-biased perception on the agent's side. The agent's misguided focus on salient payoffs, which leads the agent's and the principal's probability assessments to diverge, has two effects: First, the agent focuses too much on obtaining a bonus, which facilitates incentive provision. Second, the principal may exploit the diverging probability assessments to relax participation. We show that salience bias can reverse the nature of the inefficiency arising from moral hazard; i.e., the principal does not necessarily provide insufficient incentives that result in inefficiently low effort but instead may well provide excessive incentives that result in inefficiently high effort. KW - context-dependent preferences KW - hidden action KW - moral hazard KW - overwork KW - salience theory Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255213 SN - 2073-4336 VL - 13 IS - 1 ER - TY - THES A1 - Gründler, Klaus T1 - A Contribution to the Empirics of Economic Development - The Role of Technology, Inequality, and the State T1 - Eine empirische Untersuchung der wirtschaftlichen Entwicklung - Die Rolle von Technologien, Ungleichheit und dem Staat N2 - This dissertation contributes to the empirical analysis of economic development. The continuing poverty in many Sub-Saharan-African countries as well as the declining trend in growth in the advanced economies that was initiated around the turn of the millennium raises a number of new questions which have received little attention in recent empirical studies. Is culture a decisive factor for economic development? Do larger financial markets trigger positive stimuli with regard to incomes, or is the recent increase in their size in advanced economies detrimental to economic growth? What causes secular stagnation, i.e. the reduction in growth rates of the advanced economies observable over the past 20 years? What is the role of inequality in the growth process, and how do governmental attempts to equalize the income distribution affect economic development? And finally: Is the process of democratization accompanied by an increase in living standards? These are the central questions of this doctoral thesis. To facilitate the empirical analysis of the determinants of economic growth, this dissertation introduces a new method to compute classifications in the field of social sciences. The approach is based on mathematical algorithms of machine learning and pattern recognition. Whereas the construction of indices typically relies on arbitrary assumptions regarding the aggregation strategy of the underlying attributes, utilization of Support Vector Machines transfers the question of how to aggregate the individual components into a non-linear optimization problem. Following a brief overview of the theoretical models of economic growth provided in the first chapter, the second chapter illustrates the importance of culture in explaining the differences in incomes across the globe. In particular, if inhabitants have a lower average degree of risk-aversion, the implementation of new technology proceeds much faster compared with countries with a lower tendency towards risk. However, this effect depends on the legal and political framework of the countries, their average level of education, and their stage of development. The initial wealth of individuals is often not sufficient to cover the cost of investments in both education and new technologies. By providing loans, a developed financial sector may help to overcome this shortage. However, the investigations in the third chapter show that this mechanism is dependent on the development levels of the economies. In poor countries, growth of the financial sector leads to better education and higher investment levels. This effect diminishes along the development process, as intermediary activity is increasingly replaced by speculative transactions. Particularly in times of low technological innovation, an increasing financial sector has a negative impact on economic development. In fact, the world economy is currently in a phase of this kind. Since the turn of the millennium, growth rates in the advanced economies have experienced a multi-national decline, leading to an intense debate about "secular stagnation" initiated at the beginning of 2015. The fourth chapter deals with this phenomenon and shows that the growth potentials of new technologies have been gradually declining since the beginning of the 2000s. If incomes are unequally distributed, some individuals can invest less in education and technological innovations, which is why the fifth chapter identifies an overall negative effect of inequality on growth. This influence, however, depends on the development level of countries. While the negative effect is strongly pronounced in poor economies with a low degree of equality of opportunity, this influence disappears during the development process. Accordingly, redistributive polices of governments exert a growth-promoting effect in developing countries, while in advanced economies, the fostering of equal opportunities is much more decisive. The sixth chapter analyzes the growth effect of the political environment and shows that the ambiguity of earlier studies is mainly due to unsophisticated measurement of the degree of democratization. To solve this problem, the chapter introduces a new method based on mathematical algorithms of machine learning and pattern recognition. While the approach can be used for various classification problems in the field of social sciences, in this dissertation it is applied for the problem of democracy measurement. Based on different country examples, the chapter shows that the resulting SVMDI is superior to other indices in modeling the level of democracy. The subsequent empirical analysis emphasizes a significantly positive growth effect of democracy measured via SVMDI. N2 - Die Dissertation beschäftigt sich mit der statistischen und empirischen Analyse der Determinanten langfristiger Wachstumsprozesse. Die anhaltende Armut vieler Staaten in Subsahara-Afrika sowie die rückläufigen Wachstumsraten der reichen Volkswirtschaften seit Beginn des neuen Jahrtausends werfen eine Reihe neuer Fragen auf, die bislang wenig empirisch erforscht sind. Ist die Kultur eines Landes entscheidend für die Entwicklung der Wohlfahrt? Kann ein entwickelter Finanzsektor Wohlstandssteigerungen auslösen, oder ist der starke Zuwachs der Finanzmärkte, der in den Industrienationen beobachtet werden kann, schädlich für die Entwicklung? Warum wachsen reiche Volkswirtschaften heute so viel langsamer als noch vor 20 Jahren? Welchen Einfluss nimmt die zunehmende Einkommensungleichheit auf die wirtschaftliche Entwicklung und welchen Effekt haben staatliche Umverteilungsmaßnahmen? Und schließlich: Führen stärkere politische Rechte und mehr Demokratie zu einer Zunahme der Lebensstandards? Dies sind die zentralen Fragestellungen, denen sich die Kapitel dieser Doktorarbeit widmen. Um die Analyse der empirischen Ursachen der wirtschaftlichen Entwicklung zu erleichtern, leitet die Dissertation überdies ein neues Verfahren zur Lösung von Klassifikationsproblemen in den Sozialwissenschaften ab. Das Verfahren beruht auf mathematischen Algorithmen zur Mustererkennung und des maschinellen Lernens. Dies bietet neue Möglichkeiten für das Konstruieren von Indizes, die zumeist auf arbiträre Annahmen über die zugrundeliegende Aggregationsfunktion zurückgreifen. Das vorgestellte Verfahren löst dieses Problem, in dem die Aggregation durch Support Vector Machines in ein nicht-lineares Optimierungsproblem überführt wird. Nach einem kurzen Überblick über die theoretischen Erklärungsansätze der wirtschaftlichen Entwicklung im ersten Kapitel zeigt das zweite Kapitel, dass kulturelle Unterschieden einen Einfluss auf die ökonomische Entwicklung ausüben. Die Ergebnisse implizieren, dass Länder mit einer geringeren Aversion gegen Risiken höhere Wachstumsraten aufweisen, da in diesen Ländern die Implementierung neuer Technologien schneller voranschreitet. Der Effekt ist allerdings abhängig von den rechtlichen und politischen Rahmenbedingungen der Länder, vom durchschnittlichen Bildungsniveau sowie vom Entwicklungsstand. In vielen Fällen reichen die Vermögen der Individuen nicht aus, um Investitionen in Bildung, Kapital und neue Technologien zu stemmen. Durch die Bereitstellung von Krediten kann ein entwickelter Finanzsektor diesen Engpass überwinden. Die Untersuchungen des dritten Kapitels zeigen allerdings, dass dieser Mechanismus abhängig ist von den Entwicklungsniveaus der Volkswirtschaften. In armen Ländern führt ein Anstieg des Finanzsektors zu besserer Bildung und höheren Investitionen. Dieser Effekt nimmt jedoch über den Entwicklungsprozess ab, da die Intermediationstätigkeit zunehmend durch spekulative Geschäfte ersetzt wird. Insbesondere in Zeiten mit geringen technologischen Neuerungen wirkt ein wachsender Finanzsektor negativ auf die ökonomische Entwicklung. Aktuell befindet sich die Weltökonomie in einer solchen Phase, was verbunden mit einem multinationalen Rückgang der Wachstumsraten seit Anfang 2015 als "säkulare Stagnation" diskutiert wird. Das vierte Kapitel befasst sich intensiv mit diesem Phänomen und zeigt, dass die gegenwärtigen Wachstumspotenziale neuer Technologien seit Beginn der 2000er Jahre zunehmend auslaufen. Sind die Einkommen ungleich verteilt, so können einige Individuen weniger Investitionen in Bildung und technologische Neuerungen durchführen. Tatsächlich weist das fünfte Kapitel auf einen insgesamt negativen Effekt der Ungleichheit auf das Wachstum hin. Dieser Einfluss ist allerdings abhängig vom Entwicklungsstand der Länder. Während der negative Effekt in armen Volkswirtschaften mit einem geringen Maß an Chancengleichheit stark ausgeprägt ist, verschwindet dieser Einfluss mit zunehmendem Entwicklungsniveau. Entsprechend wirkt direkte staatliche Umverteilung vor allem in unterentwickelten Ländern wachstumsfördernd. In entwickelten Nationen ist hingegen die Schaffung von Chancengleichheit entscheidend. Das sechste Kapitel analysiert den Wachstumseffekt des politischen Umfelds und zeigt, dass die Ambivalenz früherer Studien auf die mangelhafte Abbildung des Demokratiegrades zurückzuführen ist. Zur Lösung dieses Problems wird ein neues Verfahren vorgeschlagen, das auf mathematischen Algorithmen des maschinellen Lernens basiert. Das Verfahren kann in verschiedenen Bereichen der Sozialwissenschaften eingesetzt werden und wird in der Arbeit zur Klassifikation des Demokratiegrades angewandt. Auf Basis verschiedener Länderbeispiele wird deutlich, dass der resultierende SVMDI anderen Indizes in der Modellierung des Demokratiegrades überlegen ist. Die anschließende empirische Analyse betont einen signifikant positiven Effekt des SVMDI auf das Wirtschaftswachstum. N2 - Why are some nations rich and others poor? What are the sources of long-run economic development and growth? How can living standards be increased? In this book, Klaus Gründler empirically analyses these central economic questions and puts a particular emphasis on the role of technology, inequality, and political institutions. To substantiate his empirical studies, he introduces a new method to compute composite measures and indices that is based on mathematical algorithms from the field of machine learning. KW - Wirtschaftsentwicklung KW - Wirtschaftsstruktur KW - Sozioökonomisches System KW - Inequality KW - Economic Growth KW - Machine Learning KW - Empirical Economics KW - Ungleichheit KW - Wirtschaftswachstum KW - Maschinelles Lernen KW - Makroökonomie KW - Empirische Wirtschaftsforschung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-141520 SN - 978-3-95826-072-6 (Print) SN - 978-3-95826-073-3 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-072-6, 41,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Schamberger, Tamara Svenja T1 - Methodological Advances in Composite-based Structural Equation Modeling T1 - Methodische Weiterentwicklungen in der kompositen-basierten Strukturgleichungsmodellierung N2 - This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package “cSEM” with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package “cSEM”. This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in “Human Development”. Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling. N2 - Diese Arbeit beschäftigt sich mit kompositen-basierter Strukturgleichungmodellierung. Strukturgleichungsmodellierung kann genutzt werden um sowohl theoretische Konzepte als auch deren Beziehungen untereinander zu modellieren. In der traditionellen faktor-basierten Strukturgleichungsmodellierung werden diese theoretischen Konzepte als “common factor”, d.h. als latente Variablen, die die Kovarianzstruktur ihrer beobachteten Variablen erklären, modelliert. Im Gegensatz dazu, können in kompositen-basierter Strukturgleichungsmodellierung die theoretischen Konzepte sowohl als “common factor” als auch als Komposite, also als Linearkombinationen beobachteter Variablen, die die gesamte Information zwischen ihren beobachteten Variablen und allen anderen Variablen im Modell übertragen, modelliert werden. Diese Arbeit stellt einige methodische Weiterentwicklungen im Bereich der kompositenbasierten Strukturgleichungsmodellierung vor. Sie besteht aus insgesamt 7 Kapiteln. Kapitel 1 gibt zunächst einen Überblick über das zugrundeliegende Modell sowie über die Definition des Begriffs der kompositen-basierten Strukturgleichungsmodellierung. In Kapitel 2 wird anschließend eine Anleitung dafür gegeben, wie Monte Carlo Simulationen in der Statistik Software R mittels des Pakets “cSEM” für verschiedene Schätzer, die der kompositen-basierten Strukturgleichungsmodellierung zugeordnet werden, durchgeführt werden können. Diese Anleitung wird anhand einer beispielhaften Simulationsstudie veranschaulicht, die das Verhalten von Partial Least Squares Path Modeling (PLS-PM) und consistent Partial Least Squares (PLSc) Schätzungen in endlichen Stichproben untersucht, insbesondere im Hinblick auf die Auswirkungen von Stichprobenkorrelationen zwischen Messfehlern auf statistische Inferenz. Im dritten Kapitel werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung vorgestellt, die robust gegenüber Ausreißern sind. Dafür werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung, PLS-PM und PLSc, angepasst. Im Gegensatz zu den ursprünglichen Schätzern, können mit diesen Anpassungen Verzerrungen, die durch zufällig entstandene Ausreißer in Stichproben entstehen können, vermieden werden, was anhand einer Simulationsstudie gezeigt wird. In Kapitel 4 wird eine Methode zur Durchführung von Vorhersagen auf Basis von Modellen vorgestellt, die mit ordinal Partial Least Squares und ordinal consistent Partial Least Squares geschätzt wurden. Die beobachteten Variablen sind dabei ordinal kategorial skaliert, was sowohl bei der Schätzung als auch der Vorhersage explizit berücksichtigt wird. Die Vorhersagegüte wird mittels einer Simulationsstudie untersucht. Zusätzlich wird eine Anleitung, wie solche Vorhersagen mittels des R Pakets “cSEM” durchgeführt werden können, gegeben. Diese wird anhand eines empirischen Beispiels demonstriert. In Kapitel 5 wird die konfirmatorische Kompositenanalyse für Forschung im Bereich von “Human Development” vorgestellt. Mittels konfirmatorischer Kompositenanalyse können Kompositenmodelle geschätzt und auch evaluiert werden. In diesem Kapitel wird die Henseler-Ogasawara Spezifikation für Kompositenmodelle verwendet, wodurch beispielsweise die Maximum Likelihood Methode zur Parameterschätzung verwendet werden kann. Da der auf der Henseler-Ogasawara Spezifikation basierende Maximum Likelihood Schätzer Nachteile aufweist, wird in Kapitel 6 eine andere Spezifikation des Kompositmodells vorgestellt, mit der Kompositenmodelle mit der Maximum Likelihood Methode geschätzt werden können. Die Ergebnisse dieses Maximum Likelihood Schätzers werden mit denen von PLS-PM verglichen und somit gezeigt, dass dieser Maximum Likelihood Schätzer auch in endlichen Stichproben valide Ergebnisse liefert. Das letzte Kapitel, Kapitel 7, gibt einen Überblick über die Entwicklung und die verschiedenen Stränge der kompositen-basierten Strukturgleichungsmodellierung. Darüber hinaus wird hier der Beitrag, den die vorangegangenen Kapitel zur weiteren Verbreitung kompositen-basierter Strukturgleichungsmodellierung leisten, aufgezeigt. KW - Structural Equation Modeling KW - Composites KW - Composite-based Structural Equation Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276794 SN - 978-90-365-5375-9 N1 - Die Dissertationen wurde im Rahmen einer Cotutelle Vereinbarung mit der University of Twente (The Netherlands) erstellt ER - TY - THES A1 - Schuberth, Florian T1 - Composite-based Methods in Structural Equation Modeling T1 - Kompositenbasierte Methoden in der Strukturgleichungsmodellierung N2 - This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples. N2 - Die vorliegende Dissertation beschäftigt sich mit kompositenbasierten Schätzverfahren für Strukturgleichungsmodelle mit latenten Variablen sowie deren Weiterentwicklung und einhergehenden Problemen bei deren Verwendung in empirischen Studien. Die Arbeit umfasst insgesamt fünf Kapitel. Neben einer kurzen Einleitung im ersten Kapitel beinhalten die verbleibenden Kapitel Teile der Ergebnisse meiner Promotion, die in Form von vier, teilweise schon veröffentlichten Aufsätzen präsentiert werden. Der erste Aufsatz befasst sich mit einer alternativen Modellierungsweise der theoretischen Konstrukte in der Strukturgleichungsmodellierung. Während in den Sozial- und Verhaltenswissenschaften die theoretischen Konstrukte klassischerweise durch sogenannte common factors modelliert werden, stellt dies in manchen Situationen bzw. in anderen Wissenschaftsbereichen eine unplausible Annahme dar. In diesem Teil der Arbeit wird eine abgewandelte Form der konfirmatorischen Faktorenanalyse, die konfirmatorische Kompositenanalyse, vorgestellt, in welcher die theoretischen Konstrukte anstatt durch common factors mit Hilfe von Kompositen modelliert werden. Neben der Ausführung der theoretischen Grundlage wird durch eine Monte Carlo Simulation gezeigt, dass die konfirmatorische Kompositenanalyse geeignet ist, Fehlspezifikationen im zugrundeliegenden Kompositenmodell aufzudecken. In der zweiten Studie wird die Frage aufgeworfen, wie Parameterunterschiede im Rahmen der partial least squares Pfadmodellierung getestet werden können. Da die Standardfehler des Schätzers keine analytisch-geschlossene Form besitzen, kann der aus der Regressionsanalyse bekannte t- bzw. F-Test nicht direkt für die Beantwortung dieser Frage verwendet werden. Einen Ausweg bietet das Bootstrapping, durch welches Konfidenzintervalle um den geschätzten Parameterunterschied konstruiert werden können. Mit Hife dieser können statistische Aussagen über den Parameterunterschied in der Grundgesamtheit gemacht werden. Das vorgestellte Verfahren wird anhand eines empirischen Beispiels demonstriert. Der dritte Aufsatz dieser Arbeit geht der Frage nach, wie ordinale Indikatoren mit festen Kategorien in der partial least squares Pfadmodellierung berücksichtigt werden können. Es wird ein neues, konsistentes Schätzverfahren vorgestellt, das den qualitativen Charakter der ordinalen Variablen mittels der polychorischen Korrelation bei der Schätzung berücksichtigt. Der neue Schätzer trägt den Namen „ordinal consistent partial least squares“ und kombiniert die Verfahren consistent partial least squares und ordinal partial least squares. Neben der Darbietung des Schätzverfahrens wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass das Verfahren ordinal consistent partial least squares geeignet ist, Modelle, die ordinale Indikatoren mit festen Kategorien enthalten, zu schätzen. Darüber hinaus wird ein empirisches Beispiel mit ordinal consistent partial least squares geschätzt. Das letzte Kapitel widmet sich der Schätzung nicht-linearer Strukturgleichungsmodelle mit latenten Variablen, wobei sich die Nichtlinearität auf die latenten Variablen und nicht auf deren Parameter bezieht. In diesem Kontext wird ein neues Schätzverfahren vorgestellt, welches ähnlich wie consistent partial least squares funktioniert und konsistente Parameterschätzungen für rekursive, nicht-lineare Gleichungssysteme liefert. Im Gegensatz zu consistent partial least squares benötigt der vorgestellte Momentenschätzer kein iteratives Verfahren, um die Gewichte für die Bildung der Kompositen zu bestimmen. Es wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass der Schätzer geeignet ist, nicht-lineare Strukturgleichungsmodelle mit latenten Variablen zu schätzen. KW - Strukturgleichungsmodell KW - Construct Modeling KW - Partial Least Squares Path Modeling KW - Ordinal Categorical Indictators KW - User-Guidelines KW - Polynomial Factor Models KW - Komponentenanalyse KW - Structural Equation Modeling Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154653 ER -