@phdthesis{Ries2018, author = {Ries, Mathias}, title = {The Role of the Central Bank, Banks and the Bond Market in the Paradigm of Monetary Analysis}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-162997}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Als Folge der Finanzkrise 2008/09 sind unter einigen {\"O}konomen Zweifel an der Ad{\"a}quanz der theoretischen Modelle aufgekommen, insbesondere {\"u}ber diejenigen, die den Anspruch erheben, Finanzm{\"a}rkte und Banken zu modellieren. Aufgrund dieser Zweifel folgen einige {\"O}konomen einer neuen Str{\"o}mung, indem sie versuchen, ein neues Paradigma zu entwickeln, das auf einer geldwirtschaftlichen anstatt auf einer g{\"u}terwirtschaftlichen Theorie beruht. Der Hauptunterschied zwischen diesen beiden Sichtweisen ist, dass in einer G{\"u}terwirtschaft Geld keine essentielle Rolle spielt, wohingegen bei einer Geldwirtschaft jede Transaktion mit Geld abgewickelt wird. Grundlegend ist es deshalb wichtig zu kl{\"a}ren, ob eine Theorie, die Geld miteinschließt, zu anderen Schlussfolgerungen kommt als eine Theorie, die Geld außen vor l{\"a}sst. Ausgehend von dieser Problemstellung stelle ich im zweiten Kapitel die Schlussfolgerungen aus der g{\"u}terwirtschaftlichen Logik des Finanzsystems - modelliert durch die Loanable Funds-Theorie - der geldwirtschaftlichen Logik gegen{\"u}ber. Im Anschluss an die {\"U}berpr{\"u}fung der Schlussfolgerungen beschreibe ich drei Theorien {\"u}ber Banken. Hierbei beschreibt die sog. endogene Geldsch{\"o}fpungstheorie, in der die Zentralbanken die Kreditvergabe der Banken durch Preise steuern, unsere Welt am besten. Die endogene Geldsch{\"o}pfungstheorie ist die Basis f{\"u}r das theoretische Modell im dritten Kapitel. In diesem Modell handeln die Banken nach einem Gewinnmaximierungskalk{\"u}l, wobei die Ertr{\"a}ge aus dem Kreditgesch{\"a}ft erzielt werden und Kosten des Kreditausfallrisikos sowie Kosten durch die Refinanzierung (inklusive regulatorischer Vorschriften) enstehen. Hieraus leitet sich das Kreditangebot ab, das auf dem Kreditmarkt auf die Kreditnachfrage trifft. Die Kreditnachfrage wird durch die Kreditnehmer bestimmt, die f{\"u}r Konsumzwecke bzw. Investitionen Kredite bei Banken aufnehmen. Aus dem Zusammenspiel von Kreditangebot und Kreditnachfrage ergibt sich der gleichgewichtige Kreditzins sowie das gleichgewichtige Kreditvolumen, das Banken an Nichtbanken vergeben. Die Angebots- und Nachfrageseite, die auf dem Kreditmarkt miteinander interagieren, werden ausgehend vom theoretischen Modell empirisch f{\"u}r Deutschland im Zeitraum von 1999-2014 mit Hilfe eines Ungleichgewichtsmodells gesch{\"a}tzt, wobei sich zeigt, dass die Determinanten aus dem theoretischen Modell statistisch signifikant sind. Aufbauend auf dem theoretischen Bankenmodell wird das Modell im vierten Kapitel um den Bondmarkt erweitert. Der Bankenkredit- und der Bondmarkt sind im Gegensatz zur Beschreibung in der g{\"u}terwirtschaftlichen Analyse fundamental unterschiedlich. Zum Einen schaffen Banken Geld gem{\"a}ß der endogenen Geldsch{\"o}pfungstheorie. Sobald das Geld im Umlauf ist, k{\"o}nnen Nichtbanken dieses Geld umverteilen, indem sie es entweder f{\"u}r den G{\"u}terkauf verwenden oder l{\"a}ngerfristig ausleihen. Aufgrund des Fokusses auf das Finanzsystem in dieser Dissertation wird der Fall betrachtet, in dem Geld l{\"a}ngerfristig ausgeliehen wird. Das Motiv der Anbieter auf dem Bondmarkt, d.h. derjenigen, die Geld verleihen m{\"o}chten, ist {\"a}hnlich wie bei Banken getrieben von der Gewinnmaximierung. Ertr{\"a}ge k{\"o}nnen die Anbieter durch die Zinsen auf Bonds erwirtschaften. Kosten entstehen durch die Opportunit{\"a}tskosten der Geldhaltung als Depositen, den Kreditausfall des Schuldners sowie Kursverluste aufgrund von Zinsver{\"a}nderungen. Die geschilderte Logik basiert auf der Idee, dass Banken Geld schaffen, d.h. Originatoren von Geld sind, und das Geld auf dem Bondmarkt umverteilt wird und somit mehrfache Verwendung findet. Die beiden M{\"a}rkte sind sowohl angebots- als auch nachfrageseitig miteinander verkn{\"u}pft. Zum Einen refinanzieren sich Banken auf dem Bondmarkt, um die Fristentransformation, die durch die Kreditvergabe ensteht, zu reduzieren. Des Weiteren haben Kreditnachfrager die M{\"o}glichkeit, entweder Bankkredite oder Kredite auf dem Bondmarkt nachzufragen. Nach der theoretischen Darstellung des Finanzsystems bestehend aus dem Banken- und Bondmarkt folgt im f{\"u}nften Kapitel die Anwendung des Modells bei Quantitative Easing. Hier ist festzustellen, dass Quantitative Easing bereits bei der Ank{\"u}ndigung der Zentralbank das Verhalten der Marktakteure beeinflusst. Die vier großen Zentralbanken (Bank of Japan, Bank of England, Federal Reserve Bank und Europ{\"a}ische Zentralbank) haben aufgrund der anhaltenden Rezession und der bereits niedrigen kurzfristigen Zinsen das unkonventionelle Instrument des Aufkaufs von Anleihen angewandt. Im theoretischen Modell beeinflusst die Zentralbank bereits durch die Ank{\"u}ndigung die Akteuere auf dem Bondmarkt, sodass es zu sinkenden Risikopr{\"a}mien, da die Zentralbank als sog. 'lender of confidence' auftritt, zu (zumindest kurzfristig) sinkenden Zinserwartungen sowie insgesamt zu sinkenden langfristigen Zinsen kommt. Diese drei Hypothesen werden anhand empirischer Methoden f{\"u}r die Eurozone {\"u}berpr{\"u}ft.}, language = {en} } @phdthesis{Scheuermeyer2018, author = {Scheuermeyer, Philipp}, title = {Macroeconomic Consequences of Income Inequality: Evidence from Panel Data Econometrics}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-161452}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Within three self-contained chapters, this dissertation provides new insights into the macroeconomic consequences of income inequality from a global perspective. Following an introduction, which summarizes the main findings and offers a brief overview of trends in income distribution, Chapter 2 evaluates the relationship between the labor share of income and the evolution of aggregate demand. Chapter 3 analyzes the link between income inequality and aggregate saving; and Chapter 4 directly estimates the effect of inequality and public redistribution on economic growth.}, subject = {Panelanalyse}, language = {en} } @phdthesis{Koellner2018, author = {K{\"o}llner, Sebastian}, title = {Essays on trade, inequality, and redistribution}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-152471}, school = {Universit{\"a}t W{\"u}rzburg}, pages = {203}, year = {2018}, abstract = {Die vorliegende Dissertation besch{\"a}ftigt sich mit den Auswirkungen der Globalisierung auf den Arbeitsmarkt sowie der Analyse der Determinanten staatlicher Umverteilung. Im Mittelpunkt steht dabei die empirische Auseinandersetzung mit diesen beiden Aspekten. Die in den letzten Jahrzehnten zu beobachtende {\"O}ffnung der M{\"a}rkte und die damit einhergehende steigende internationale Verflechtung wird in der Literatur neben dem technischen Fortschritt als Haupttreiber der wirtschaftlichen Entwicklung gesehen. In letzter Zeit jedoch ist die Globalisierung zunehmend in den Ruf geraten, verst{\"a}rkt negative Konsequenzen mit sich zu bringen, z.B. in Form h{\"o}herer Ungleichheit bzw. einer h{\"o}heren Volatilit{\"a}t der Besch{\"a}ftigung. Das zweite Kapitel untersucht den Einfluss der zunehmenden Importpenetration (in Form steigender importierter Vorprodukte) auf die Besch{\"a}ftigung im verarbeitenden Gewerbe in 12 OECD-Staaten. Die Ergebnisse deuten auf einen insgesamt leicht positiven Besch{\"a}ftigungseffekt der zunehmenden internationalen Verflechtung, wobei auf eine Vielzahl an zus{\"a}tzlichen Einflusskan{\"a}len, verschiedene Modellspezifikationen sowie unterschiedliche Maße der Importpenetration kontrolliert wird. In Abh{\"a}ngigkeit vom Ursprungsland der importierten Vorprodukte differieren die Arbeitsmarkteffekte jedoch deutlich. W{\"a}hrend Importe aus den alten EU-Mitgliedsstaaten komplement{\"a}r zur Industriebesch{\"a}ftigung in den beobachteten OECD-L{\"a}ndern wirken, kann eine substitutive Beziehung f{\"u}r importierte Vorprodukte aus China und den neuen EU-Mitgliedsstaaten beobachtet werden. Die Resultate unterscheiden sich f{\"u}r die einzelnen Volkswirtschaften zum Teil sp{\"u}rbar. Dar{\"u}ber hinaus wird deutlich, dass die hierarchische Struktur der Daten nur eine untergeordnete Rolle spielt, w{\"a}hrend die Ber{\"u}cksichtigung von Endogenit{\"a}tsproblemen die Ergebnisse unber{\"u}hrt l{\"a}sst. Die ambivalenten Folgen der Globalisierung auf die Besch{\"a}ftigung verst{\"a}rken die Nachfrage nach dem Sozialstaat. Das folgende Kapitel analysiert daher die Bestimmungsgr{\"u}nde staatlicher Umverteilung f{\"u}r ein breites L{\"a}ndersample. Dabei geht es um die Frage, an welchen Faktoren sich staatliche Entscheidungstr{\"a}ger orientieren, wenn sie umverteilende Maßnahmen durchf{\"u}hren. Die Meltzer-Richard-Hypothese kann empirisch best{\"a}tigt werden, wobei der Einfluss abh{\"a}ngig vom Entwicklungsstand der L{\"a}nder ist. In reichen Nationen mit ausgepr{\"a}gten politischen Rechten ist der Zusammenhang zwischen Ungleichheit und Umverteilung sehr robust, wohingegen dies f{\"u}r {\"a}rmere L{\"a}nder mit weniger entwickelten politischen Rechten in weitaus geringerem Maße gilt. Dar{\"u}ber hinaus ist auch die Form der Einkommensverteilung entscheidend f{\"u}r die H{\"o}he der staatlichen Umverteilung. W{\"a}hrend die Mittelschicht ein Mehr an Umverteilungsmaßnahmen bef{\"u}rwortet, {\"u}ben Top-Einkommensbezieher ebenfalls einen signifikanten, jedoch negativen Einfluss auf die H{\"o}he der staatlichen Umverteilung aus. Niedrigeinkommensbezieher als eigentliche Hauptprofiteure von Umverteilungsmaßnahmen spielen hingegen keine zentrale Rolle im Entscheidungskalk{\"u}l der Politiker. Die Ergebnisse weisen zudem darauf hin, dass die H{\"o}he der gef{\"u}hlten Ungleichheit der Individuen f{\"u}r die Nachfrage nach Umverteilung wichtiger ist als die tats{\"a}chliche H{\"o}he der Ungleichheit. Im n{\"a}chsten Kapitel wird der im vorangegangenen Kapitel aufgestellte Untersuchungsrahmen um kulturelle Aspekte erweitert. Hintergrund ist der in den letzten Jahren zu beobachtende Anstieg von Migrationsstr{\"o}men und dessen m{\"o}gliche Auswirkungen auf die Sozialstaaten in den Aufnahmel{\"a}ndern. Dieses Kapitel analysiert die Auswirkungen von Kultur und ethnischer, religi{\"o}ser sowie kultureller Diversit{\"a}t auf die H{\"o}he der staatlichen Umverteilung f{\"u}r ein breites L{\"a}ndersample. Ausgangspunkt f{\"u}r die Messung von Kultur sind die Kulturdimensionen nach Hofstede, die um zus{\"a}tzliche kulturelle Indikatoren sowie verschiedene Maße von Diversit{\"a}t erweitert werden. Um kulturelle Charakteristika von institutionellen Gegebenheiten zu trennen, werden sowohl regionale als auch externe Instrumente verwendet. Die Ergebnisse deuten auf einen ambivalenten Einfluss von Kultur auf die H{\"o}he staatlicher Umverteilung. W{\"a}hrend in L{\"a}ndern mit einem hohen Maß an Individualismus und gegenseitigem Vertrauen sowie geringen famili{\"a}ren Bindungen mehr umverteilt wird, kann das Gegenteil f{\"u}r L{\"a}nder mit hoher Machtdistanz und der Vorstellung, dass pers{\"o}nlicher Erfolg das Ergebnis harter Arbeit ist, beobachtet werden. Die empirischen Befunde weisen zudem auf einen negativen, jedoch nicht-linearen Zusammenhang zwischen Umverteilung und Diversit{\"a}t.}, subject = {Globalisierung}, language = {en} } @phdthesis{Muthers2017, author = {Muthers, Johannes}, title = {Essays in Industrial Organization}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-141671}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {The dissertation deals with the market and welfare effects of different business practices and the firm's incentives to use them: resale price maintenance, revenue sharing of a platform operator, membership fees to buyers using a platform and patent licensing. In the second chapter we investigate the incentives of two manufacturers with common retailers to use resale price maintenance (RPM). Retailers provide product specific services that increase demand and manufacturers use minimum RPM to compete for favorable services for their products. Minimum RPM increases consumer pricesby voiding retailer price competition and can create a prisoner's dilemma for manufacturers without increasing, and possibly even decreasing the overall service level. If manufacturer market power is asymmetric, minimum RPM tends to distort the allocation of sales services towards the high-priced products of the manufacturer with more market power. These results challenge the service argument as an efficiency defense for minimum RPM. The third chapter deals with trade platforms whose operators not only allow third party sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he uses classical two-part tariffs only (which previous literature on two-sided markets has focused on) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, some products that are not known to the platform operator will not be offered at all. We discuss the effects of different platform tariffs on this hold-up problem. We find that revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed charge proportional fees. The fourth chapter investigates the optimal tariff system in a model in which buyers are heterogeneous. A platform model is presented in which transactions are modeled explicitly and buyers can differ in their expected valuations when they decide to join the platform. The main effect that the model identifies is that the participation decision sorts buyers according to their expected valuations. This affects the pricing of sellers. Furthermore diffing form the usual approach, in which buyers are ex-ante homogeneous, the platform does not internalize the full transaction surplus. Hence it does not implement the socially efficient price on the platform, also it has control of the price with the transaction fee. The fifth chapter investigates the effects of licensing on the market outcome after the patent has expired. In a setting with endogenous entry, a licensee has a head start over the competition which translated into a first mover advantage if strategies are strategic substitutes. As competitive strategies quantities and informative advertising are considered explicitly. We find that although licensing increases the joint profit of the patentee and licensee, this does not necessarily come from a reduction in consumer surplus or other firms profits. For the case of quantity competition we show that licensing is welfare improving. For the case of informative advertising, however, we show that licensing increases prices and is thus detrimental to consumer surplus.}, subject = {Wettbewerbsverhalten}, language = {en} } @phdthesis{Coban2018, author = {Coban, Mustafa}, title = {Contributions to the Empirics of Immigration, Redistribution and Social Mobility}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-148934}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {In recent decades the international migration has increased worldwide. The influx of people from different cultures and ethnic groups poses new challenges to the labor market and the welfare state of the host countries and causes changes in the social fabric. In general, immigration benefits the economy of the host country. However, these gains from immigration are unevenly distributed among the native population. Natives who are in direct competition with the new workers expect wage losses and a higher probability of getting unemployed, whereas remaining natives foresee either no feedback effects or even wage gains. On the other hand, the tax and transfer system benefits disproportionally from an influx of highly skilled immigrants. Examinations of 20 European countries in 2010 show that a higher proportion of low-skilled immigrants in the immediate neighborhood of the natives increases the difference in the demand for redistribution between high-skilled and low-skilled natives. Thus, high-skilled natives are more opposed to an expansion of the governmental redistribution. On the one hand, a higher proportion of low-skilled immigrants generates a higher fiscal burden on the welfare state. On the other hand, high-skilled natives' wages increase due to an influx of low-skilled immigrants, since relative supply of high-skilled labor increases. In addition to the economic impact of immigration, the inflow of new citizens is accompanied by natives' fear of changes in the social environment as well as in symbolic values, such as cultural identity or natives' set of values. The latter might generate negative attitudes towards immigrants and increase the demand for a more restrictive immigration policy. On the other hand, more interethnic contact due to a higher ethnic diversity could reduce natives' information gaps, prejudices and stereotypes. This, in turn, could enhance more tolerance and solidarity towards immigrants among natives. Examinations of 18 European countries in 2014 show that more interethnic contact during everyday life reduces both the natives' social distance from immigrants and their fear of social upheaval by the presence of immigrants. However, natives' social distance from immigrants has no effect on their preference for redistribution, but their perceived threat to the national culture and social life by the presence of immigrants has a significantly negative impact on their demand for redistribution. Thus, natives' concern about the preservation of symbolic norms and values affects the solidarity channel of their redistribution preference. An individual's upward mobility over time or in relation to his or her parents determines his or her attitude towards the welfare state as well as the transfer of his or her opinions to his or her own children. With regard to intergenerational income mobility, Germany shows a value in the international midfield; higher than the United States (lower mobility) and lower than the Scandinavian countries (higher mobility). For example, if a father's lifetime income increases by 10 percent, his son's lifetime income increases by 4.9 percent in the United States and by 3.1 percent in Germany. Additionally, in Germany, fathers' lifetime income tends to show a higher impact on their sons' income if their incomes are higher. In the United States, fathers' lifetime incomes have a stronger influence on their sons' income at the lower and the upper end of the income distribution compared to the middle. Taking a closer look at the intragenerational wage mobility and wage inequality in Germany, the development at the current edge is rather sobering. Since 2000 there is a steady decline in wage mobility. Furthermore, wage mobility in the services sector has been significantly lower than in the manufacturing sector since the beginning of the 2000s. This result is mainly driven by the decrease of wage mobility in the health care and social services sector. Moreover, a worker's unemployment spells and occupation have become more important in the meantime. Since 2006 the increase in the German wage inequality has markedly slowed down and wage growth between 2006 and 2013 has been even polarized, i.e. wages at the lower and at the upper end of the wage distribution have increased more than wages in the middle. However, this development can be partly attributed to the computerization and automation of the production processes. Although, there was substitution of manual routine tasks between 2001 and 2013, cognitive routine tasks are still more pronounced in the middle and at the upper end of the wage distribution. Furthermore, the latter experienced an increase in wage mobility since 2000. On the other hand, manual non-routine tasks are localized disproportionally in the middle and at the lower end of the wage distribution. Thus, the wage gains of these occupations at the lower end were compensated for by the wage losses in the middle.}, subject = {Einwanderung}, language = {en} } @article{SchuberthHenselerDijkstra2016, author = {Schuberth, Florian and Henseler, J{\"o}rg and Dijkstra, Theo K.}, title = {Partial least squares path modeling using ordinal categorical indicators}, series = {Quality \& Quantity}, journal = {Quality \& Quantity}, doi = {10.1007/s11135-016-0401-7}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-144016}, year = {2016}, abstract = {This article introduces a new consistent variance-based estimator called ordinal consistent partial least squares (OrdPLSc). OrdPLSc completes the family of variance-based estimators consisting of PLS, PLSc, and OrdPLS and permits to estimate structural equation models of composites and common factors if some or all indicators are measured on an ordinal categorical scale. A Monte Carlo simulation (N =500) with different population models shows that OrdPLSc provides almost unbiased estimates. If all constructs are modeled as common factors, OrdPLSc yields estimates close to those of its covariance-based counterpart, WLSMV, but is less efficient. If some constructs are modeled as composites, OrdPLSc is virtually without competition.}, language = {en} } @phdthesis{Koepke2016, author = {Koepke, Robin}, title = {Capital Flows and Financial Stability in Emerging Markets: the Role of U.S. Monetary Policy}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-140524}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Die Dissertation besch{\"a}ftigt sich mit den Triebkr{\"a}ften der internationalen Kapitalstr{\"o}me in Schwellenl{\"a}nder sowie den Determinanten von Krisen in Schwellenl{\"a}ndern. Besonderes Augenmerk liegt dabei auf der Rolle der Geldpolitik in den USA. Die Dissertation besteht aus drei eigenst{\"a}ndigen Kapiteln. Kapitel 1 nimmt eine Bestandsaufnahme der umfangreichen empirischen Literatur zu den Triebkr{\"a}ften von Kapitalstr{\"o}men in Schwellenl{\"a}nder vor. Die empirische Evidenz hinsichtlich dieser Triebkr{\"a}fte ist entlang mehrer Dimensionen strukturiert. So werden die Triebkr{\"a}fte entsprechend des etablierten Paradigmas eingeordnet, nachdem zwischen externen Faktoren (z.B. US-Geldpolitik) und internen Faktoren (z.B. Wachstum in Schwellenl{\"a}ndern) unterschieden wird (Calvo et al. 1993). Eine umfassende Auswertung der empirischen Literatur zeigt, dass externe Faktoren Portfolioinvestitionen am meisten beeinflussen, gefolgt von Zufl{\"u}ssen von Banken. F{\"u}r Direktinvestitionen hingegen ist die empirische Evidenz hinsichtlich einer Reihe externer Faktoren nicht eindeutig. Interne Faktoren sind f{\"u}r alle drei Arten von Kapitalstr{\"o}men von erheblicher Bedeutung, insbesondere f{\"u}r Zufl{\"u}sse von Banken. Dar{\"u}ber hinaus unterscheidet die vorliegende Studie zwischen zyklischen und strukturellen Faktoren, die Kapitalstr{\"o}me beeinflussen. Eine historische Analyse deutet darauf hin, dass die Literatur die Bedeutung von zyklischen Faktoren zulasten l{\"a}ngerfristiger struktureller Trends {\"u}berbewertet hat. Kapitel 2 nimmt eine empirische Analyse der Triebkr{\"a}fte von Portfolioinvestitionen in Schwellenl{\"a}ndern vor, mit besonderem Fokus auf die Rolle der Geldpolitik der US-Zentralbank. Dabei werden zwei unterschiedliche Datens{\"a}tze zu hochfrequenten Portfolioinvestitionen mit Hilfe eines Zeitreihenmodells analysiert. Die empirische Analyse zeigt, dass Portfolioinvestitionen erheblich vom {\"U}berraschungsmoment der US-Geldpolitik getrieben werden. Wenn Marktteilnehmer ihre Erwartungen bez{\"u}glich des k{\"u}nftigen Pfades der Leitzinsen ver{\"a}ndern, dann hat dies direkte Auswirkungen auf das Verhalten von Portfolio-Kapitalstr{\"o}men. Eine Verschiebung der erwarteten Leitzinsen nach unten [nach oben] erh{\"o}ht [vermindert] die Portfoliozufl{\"u}sse in Schwellenl{\"a}nder. Dieses Ergebnis legt eine neue Interpretation der Rolle der US-Geldpolitik nahe. In der gegenw{\"a}rtigen Literatur besteht die zentrale {\"U}berzeugung hinsichtlich der Rolle der US-Geldpolitik darin, dass sich eine Erh{\"o}hung der Leitzinsen negativ auf Kapitalfl{\"u}sse in Schwellenl{\"a}nder auswirkt, unabh{\"a}ngig davon wie schnell die Leitzinsen erh{\"o}ht werden (z.B. Fernandez-Arias 1996). Die Ergebnisse der vorliegenden Arbeit hingegen deuten darauf hin, dass eine Straffung der US-Geldpolitik sich nicht notwendigerweise negativ auf Portfolioinvestitionen auswirkt. Negative Effekte bleiben insbesondere dann aus, wenn eine Zinserh{\"o}hung von den Marktteilnehmern bereits erwartetet und somit eingepreist war. Eine Erh{\"o}hung der Leitzinsen kann sogar mit positiven Effekten auf Kapitalstr{\"o}me einhergehen, n{\"a}mlich dann, wenn sie von einer Abw{\"a}rtsbewegung im erwarteten Pfad der Leitzinsen begleitet ist (zum Beispiel weil die Zentralbank signalisiert, dass weitere Zinserh{\"o}hungen nicht zu erwarten sind). Umgekehrt kann die US-Geldpolitik Portfolioinvestitionen auch ohne eine Erh{\"o}hung der Leitzinsen beeintr{\"a}chtigen, n{\"a}mlich dann, wenn Marktteilnehmer ihre Erwartungen hinsichtlich der k{\"u}nftigen Leitzinsen nach oben revidieren. Kapitel 3 untersucht die Rolle der US-Geldpolitik hinsichtlich ihres Einflusses auf das Auftreten von Krisen in Schwellenl{\"a}ndern. Es werden ein negativ-binomisches Z{\"a}hlmodell und ein Panel-Logitmodell {\"o}konometrisch gesch{\"a}tzt, um die Determinanten von W{\"a}hrungskrisen, Bankenkrisen und Staatsbankrotten in 27 Schwellenl{\"a}ndern zu analysieren. Die Sch{\"a}tzergebnisse deuten darauf hin, dass die Wahrscheinlichkeit von Krisen wesentlich h{\"o}her ist, (1) wenn die US-Leitzinsen {\"u}ber ihrem nat{\"u}rlichen Niveau liegen, (2) w{\"a}hrend Zinsanhebungszyklen, und (3) wenn Marktteilnehmer von Signalen {\"u}berrascht werden, dass die US-Zentralbank die Leitzinsen schneller als erwartet anheben wird. Diese Ergebnisse stehen im Gegensatz zur bestehenden Literatur, die interne Faktoren in Schwellenl{\"a}ndern als die dominante Ursache von Krisen ansieht (z.B. Gourinchas und Obstfeld 2012). Die Ergebnisse dieser Studie weisen auch auf ein erh{\"o}htes Risiko von Krisen in Schwellenl{\"a}ndern in den kommenden Jahren hin, wenn die US-Zentralbank wie erwartet die Leitzinsen weiterhin graduell anheben wird.}, subject = {Internationale Kapitalbewegung}, language = {en} } @article{BertholdBrunner2012, author = {Berthold, Norbert and Brunner, Alexander}, title = {Wie ungleich ist die Welt? Eine empirische Analyse}, series = {Perspektiven der Wirtschaftspolitik}, volume = {12}, journal = {Perspektiven der Wirtschaftspolitik}, number = {4}, issn = {1468-2516}, doi = {10.1111/j.1468-2516.2012.00377.x}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-194171}, pages = {372-396}, year = {2012}, abstract = {Kein Abstract verf{\"u}gbar.}, language = {de} } @phdthesis{Krebs2019, author = {Krebs, Oliver}, title = {Essays on International Trade, Regional Change and Structural Growth}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-174954}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Diese Dissertationsschrift befasst sich mit der {\"o}konomischen Bedeutung von Regionen innerhalb Deutschlands. Regionen sind dabei aus zweierlei Sicht ein wichtiges Untersuchungsobjekt. Dies gilt zum Einen, da makro{\"o}konomische Schocks {\"u}ber Regionen Hinweg zu substantiell unterschiedlichen Effekten f{\"u}hren. Dringliche Themen wie die Robotisierung und die Verwendung k{\"u}nstlicher Intelligenz, der Brexit, oder US-amerikanische Z{\"o}lle werden W{\"u}rzburg anders Beeinflussen als Berlin und implizieren somit unterschiedliche Interessen bei der jeweiligen Bev{\"o}lkerung, den jeweiligen Firmen und Politikern. Zum Anderen k{\"o}nnen regionale {\"o}konomische Schocks wie Erfindungen, Insolvenzen, oder die Ansiedlung eines bedeutenden Betriebs durch Handel und „input-output" Verbindungen zu Schocks von makro{\"o}konomischer Bedeutung anwachsen. Allerdings sind regionale Heterogenit{\"a}ten innerhalb Deutschlands und die komplizierten Netzwerke verschiedenster Art zwischen Regionen weder gut dokumentiert noch ausreichenden verstanden. Dies gilt insbesondere auch f{\"u}r lokale Arbeitsm{\"a}rkte welche ein Kerninteressen der Regionalpolitik darstellen und ebenfalls von bedeutenden Heterogenit{\"a}ten gepr{\"a}gt sind. Die vorliegende Arbeit analysiert und quantifiziert das regionale Produktions- und Handelsnetzwerk innerhalb Deutschlands und untersucht welche Aspekte f{\"u}r die beobachteten breiten Unterschiede bei der Anpassung lokaler Arbeitsm{\"a}rkte an {\"o}konomische Schocks verantwortlich sind. Der erste Aufsatz, „How deep is your love? A quantitative spatial analysis of the transatlantic trade partnership", setzt sich dabei mit der Prognose von Effekten eines konkreten Schocks in Form des vorgeschlagenen transatlantischen Freihandelsabkommens (TTIP) auseinander. Die Arbeit findet einerseits nur m{\"a}ßige Wohlfahrtseffekte, sowohl f{\"u}r die Vereinigten Staaten als auch f{\"u}r die Europ{\"a}ische Union und Drittstaaten, andererseits zeigt sie, dass alle Landkreise in Deutschland Wohlfahrtsgewinne erzielen und es somit zumindest regional keine Verlierer des Abkommens geben w{\"u}rde. Der zweite Aufsatz, „RIOTs in Germany - Constructing an interregional input-output table for Germany", nutzt einen einzigartigen Datensatz von G{\"u}tersendungen per LKW, Zug oder Schiff zwischen allen 402 deutschen Landkreisen im Jahr 2010 um, mit Hilfe weiterer Daten, eine interregionale input-output Tabelle f{\"u}r Deutschland zu erstellen und die Verflechtungen lokaler M{\"a}rkte zu untersuchen. Der dritte Aufsatz, „On the Road (Again): Commuting and Local Employment Elasticities in Germany", analysiert die Bedeutung des Pendelns f{\"u}r lokale Arbeitsm{\"a}rkte. Es zeigt sich dabei, dass Pendelstr{\"o}me eine zentrale Marge bei der Anpassung an lokale Schocks darstellen und dass deutsche Arbeitsm{\"a}rkte wesentlich flexibler und anpassungsf{\"a}higer sind als weitl{\"a}ufig angenommen. Der vierte Aufsatz, „Shocking Germany - A spatial analysis of German regional labor markets", integriert Arbeitslosigkeit in die zur Prognose lokaler Schocks verwendeten quantitativen Modelle. Dadurch kann er den Effekte von durch Schocks ausgel{\"o}ster Migration innerhalb Deutschland auf lokale Arbeitsm{\"a}rkte quantifizieren. Es zeigt sich, dass die {\"A}nderung lokaler Arbeitslosigkeitsraten als Antwort auf lokale Produktivit{\"a}tsschocks durch Migration im Durchschnitt um 70 Prozent ged{\"a}mpft wird. Strukturelle Anpassung f{\"u}hren langfristig zu einer im Vergleich wesentliche geringeren {\"A}nderung dieser Raten.}, subject = {Außenhandel}, language = {en} } @phdthesis{Demmer2019, author = {Demmer, Claudia}, title = {Merger-specific Efficiency Gains}, doi = {10.25972/OPUS-18392}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-183928}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014. The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited. However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger. The present study is structured as follows. Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process. Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers. Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification. Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach. The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach. Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent. Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets. Chapter 8 concludes.}, subject = {Verarbeitende Industrie}, language = {en} } @phdthesis{Winkler2020, author = {Winkler, Erwin}, title = {Essays on International Trade and Labor Market Outcomes}, doi = {10.25972/OPUS-20983}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-209832}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {This thesis contributes to the understanding of the labor market effects of international trade, with a focus on the effects on wage and earnings inequality. The thesis draws on high-quality micro data and applies modern econometric techniques and theoretical concepts to improve our understanding of the distributional effects of international trade. The thesis focuses on the effects in Germany and the USA.}, subject = {Arbeitsmarkt}, language = {en} } @phdthesis{Koch2011, author = {Koch, Daniel Friedrich}, title = {Wirksame Begrenzung von Staatsverschuldung unter Ber{\"u}cksichtigung (polit-){\"o}konomischer und ethischer Aspekte}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-67383}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {In den letzten Jahrzehnten griff die Staatsverschuldung in den meisten westlichen Staaten um sich wie ein wucherndes Krebsgeschw{\"u}r. Die Ereignisse im Zuge der Euro-Krise haben ein Schlaglicht auf die Gefahren dieser Entwicklung geworfen. Diese Arbeit untersucht die Frage, wie sich Staatsverschuldung wirksam begrenzen l{\"a}sst, wann dies n{\"o}tig ist und welche Komponenten daf{\"u}r ber{\"u}cksichtigt werden sollten. Sie betrachtet verschiedene Ans{\"a}tze zur Begrenzung von Staatsverschuldung, evaluiert sie, und versucht aus ihren St{\"a}rken und Schw{\"a}chen eine verbesserte Begrenzungsregel abzuleiten. Schließlich untermauert sie die gesellschaftliche Akzeptanz und Relevanz ihres Vorschlags, indem sie die Notwendigkeit und die m{\"o}gliche Ausgestaltung einer Begrenzungsregel nicht nur unter Effizienzgesichtspunkten betrachtet, sondern auch eine normative Untersuchung vornimmt. Die erarbeiteten Evaluierungskriterien und Vorschl{\"a}ge sollen gleichermaßen mit ethischen und {\"o}konomischen Anforderungen vereinbar sein. Es wird gezeigt, dass Staatsverschuldung aus Effizienzgr{\"u}nden wie auch aus ethischen {\"U}berlegungen begrenzt werden sollte. Sie zeigt, dass es ohne ein entsprechendes Reglement immer wieder zu einem staatsverschuldungsf{\"o}rderndem Politikversagen kommt. Andererseits teilt diese Arbeit aber nicht den weit verbreiteten Def{\"a}tismus, dass der Kampf gegen die ansteigende Verschuldung aussichtslos sei. Vielmehr wird ein Vorschlag erarbeitet, wie sich dieses Politikversagen aushebeln und solide Staatsfinanzen erzwingen lassen. Neben einer Reihe kleinerer Aspekte werden folgende vier zentralen Ergebnisse erarbeitet: 1. Es wird erstmals ein umfassender Kriterienkatalog entwickelt, der alle relevanten Theoriebereiche abdeckt, die systematische Evaluierung verschiedener Budgetregeln erm{\"o}glicht und als Schema f{\"u}r die Entwicklung neuer Budgetregeln dienen kann. Dieser Katalog in Form einer Kriterienmatrix operationalisiert die Erkenntnisse der volkswirtschaftlichen Forschung zu Charakter, Wirkung und Ursachen von Staatsverschuldung. Erstmals werden in dieser Arbeit die unterschiedlichen Theoriestr{\"a}nge innerhalb eines Kriterienkataloges verkn{\"u}pft. Denn nur so kann ein vollst{\"a}ndiges Bild gezeichnet werden, nur so kann ein Pr{\"u}fschema Anspruch auf Vollst{\"a}ndigkeit erheben, und nur so k{\"o}nnen Begrenzungskonzepte entwickelt werden, die auch erfolgversprechend sind. Die hier ausgearbeitete Kriterienmatrix schließt damit gleich zwei L{\"u}cken, indem sie bisher isolierte Erkenntnisse vereint und diese gleich in ein Analyseinstrument umwandelt, das Ausgangspunkt f{\"u}r weitere Diskussion sein kann. 2. Literatur und politische Praxis halten eine Vielzahl von Vorschl{\"a}gen zur Begrenzung von Staatsverschuldung bereit. Diese werden jedoch kaum verglichen und gegeneinander abgewogen. Dies mag auch an dem Fehlen eines geeigneten Analyseinstruments liegen. Dadurch gehen aber wertvolle Erkenntnisse verloren, die sich aus dem Abgleich von St{\"a}rken und Schw{\"a}chen ergeben. Diese Arbeit nutzt den hier neu entwickelten Analyserahmen, um den Vergleich und die Evaluation verschiedener Budgetregeln vorzunehmen. Dabei werden systematisch Vor- und Nachteile der verschiedenen Konzepte herausgearbeitet. Dieser Vergleich ist nicht nur f{\"u}r sich genommen interessant und lange {\"u}berf{\"a}llig, sondern kann auch f{\"u}r die Weiterentwicklung der Diskussion wertvoll sein. So zeigen sich in der, alle relevanten Theorien umfassenden Kriterienmatrix, blinde Flecken, die allen Ans{\"a}tzen gemein sind. 3. Ausgehend von der Kriterienmatrix und den Ergebnissen der Evaluierungen entwickelt diese Arbeit eine verbesserte Begrenzungsregel: die qualifizierte Lastenbremse. Diese basiert auf der Kriterienmatrix und den zuvor durchgef{\"u}hrten Evaluierungen. Dank dieser Analyse k{\"o}nnen einerseits die jeweils besten Elemente aus den bestehen Konzepten {\"u}bernommen, bzw. durch Modifikationen optimiert werden, andererseits k{\"o}nnen die zuvor identifizierten L{\"u}cken durch neue Vorschl{\"a}ge geschlossen werden. Im Kern wird vorgeschlagen, die anderweitig eingef{\"u}hrten Ans{\"a}tze des strukturellen Schuldenverbotes mit bestimmten Ausnahmen beizubehalten, und durch die hier neu entwickelten Konzepte der Staatsbilanz und der unabh{\"a}ngigen Kontrollinstanz mit Sanktionsrechten zu erweitern. Dieser Vorschlag erf{\"u}llt alle zuvor erarbeiteten Kriterien, d.h. er ber{\"u}cksichtig als einziger alle relevanten theoretischen Erkenntnisse zur Staatsverschuldung. Die qualifizierte Lastenbremse umfasst explizite und implizite Staatsverschuldung und begrenzt deren Anstieg nachhaltig. Dabei wahrt sie jedoch auch die n{\"o}tige Flexibilit{\"a}t. Vor allem aber schl{\"a}gt sie mehrere Sicherheitsmechanismen vor, welche die Wirksamkeit der Regel im politischen Alltag gew{\"a}hrleisten. So wird den Erkenntnissen der Neuen Politischen {\"O}konomie Rechnung getragen. 4. Schließlich bleibt diese Arbeit nicht dabei stehen, einen Vorschlag zu entwickeln, der allen {\"o}konomischen Kriterien gerecht wird. Sie begn{\"u}gt sich nicht damit, festzustellen, dass es effizient und wohlfahrtssteigernd w{\"a}re, wenn ihre Vorschl{\"a}ge umgesetzt w{\"u}rden. Sie geht einen Schritt weiter, wirft einen Blick {\"u}ber den Tellerrand der Volkswirtschaftslehre hinaus und fragt auch nach der Legitimit{\"a}t und dem ethischen Wert des Vorschlags. Dies geht von der Erkenntnis aus, dass eine solch tiefgreifende Maßnahme wie eine wirksame Schuldenbremse auch das normative Empfinden der B{\"u}rger widerspiegeln muss und dass die gesellschaftliche Relevanz und Durchsetzbarkeit einer Regel von einer Legitimit{\"a}t abh{\"a}ngt, die auf Effizienz und Ethik gleichermaßen fußt. Unbewusst wird diese Auffassung in weiten Teilen der {\"O}konomie geteilt, was sich daran zeigt, dass viele Arbeiten zur Staatsschuldbegrenzung auf Gerechtigkeitsaspekte und moralische Verpflichtungen Bezug nehmen. Sie kranken jedoch daran, dass ihre Annahme der ethischen Fragw{\"u}rdigkeit von Staatsverschuldung unbegr{\"u}ndet bleibt. Dadurch stehen sie auf wackeligen F{\"u}ßen. Diese L{\"u}cke wird hier geschlossen. Eine Analyse auf Basis der katholischen Soziallehre belegt die Zielkongruenz von normativen und {\"o}konomischen Anforderungen an die Fiskalpolitik. Es wird gezeigt, dass die hier vorgeschlagene Begrenzung von Staatsverschuldung nicht nur {\"o}konomisch, sondern auch ethisch geboten ist. Unterm Strich l{\"a}sst sich festhalten, dass diese Arbeit den weit verbreiteten Fatalismus im Bezug auf Politik und Staatsverschuldung nicht teilt. Ja, es stimmt, dass der politische Wettbewerb oft unerfreuliche fiskalpolitische Ergebnisse hervorbringt. Ja, es stimmt, dass die Entwicklung der Staatsfinanzen besorgniserregend ist. Ja, es besteht dringender Handlungsbedarf. Aber nein, diese Entwicklung ist nicht alternativlos. Nein, der Kampf gegen die Staatsverschuldung ist nicht aussichtslos. Und nein, die westlichen Demokratien sind nicht zwangsl{\"a}ufig dazu verdammt, immer weiter in die Schuldenfalle zu rutschen. Staatsverschuldung l{\"a}sst sich wirksam begrenzen und es gibt Mechanismen, mit denen das Politikversagen umgangen werden kann. Das Ringen um bessere Regeln ist die M{\"u}he wert. F{\"u}r eine wirksame Begrenzung von Staatsverschuldung einzutreten ist das Gebot der {\"o}konomischen Vernunft, wie auch ethische Verpflichtung.}, subject = {{\"O}ffentliche Schulden}, language = {de} } @phdthesis{Geiger2010, author = {Geiger, Michael}, title = {Monetary Policy in China: Institutions, Targets, Instruments and Strategies}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-69945}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {China's monetary policy aims to reach two final targets: a paramount economical target (i.e. price stability) and a less important political target (i.e. economic growth). The main actor of monetary policy is the central bank, the People's Bank of China (PBC). But the PBC is a non-independent central bank. The State Council approves the goals of monetary policy. Very limited instrument independence means that interest rates cannot be set at the PBC's discretion, and in-sufficient personal independence fails to insulate central bank officials from political influence. Monetary policy in China applies to two sets of monetary policy instruments: (i) instruments of the PBC; and (ii) non-central bank policy instruments. The instruments of the PBC include price-based indirect and quantity-based direct instruments. Non-central bank policy instruments include price and wage controls. The simultaneous usage of all these instruments leads to various distortions that ultimately prevent the interest rate channel of monetary transmission from functioning. Moreover, the strong influences of quantity-based direct instruments and non-central bank policy instruments bring into question the approach of indirect monetary policy in general. The PBC officially follows the monetary targeting approach with monetary aggregates as intermediate targets. Domestic loan growth and the exchange rate are defined as additional intermediate targets. In an in-depth analysis of the intermediate targets two main issues are primarily explored: (i) Are the intermediate targets of the Chinese monetary policy controllable? (ii) Is a sufficient relationship between these targets and the inflation rate observable? It is then shown that monetary aggregates are very difficult to control, but they have a satisfactory relationship with the inflation rate. Similarly, domestic loan growth is difficult to control - a fact largely attributed to the interest rate elasticity of loans - while there is a particularly close relationship between credit growth and the inflation rate. The exchange rate as an intermediate target can be controlled through foreign exchange market interventions; at the same time the exchange rate appears to have a significant relationship to the domestic inflation rate. Discussing the special issue of sterilizing foreign exchange inflows, the study concludes that between 2002 and 2008 not only no costs were incurred by sterilization operations, but that the central bank was actually able to realize a profit through foreign exchange market interventions. Based on this, it is concluded that the exchange rate target has not adversely affected the domestic orientation of monetary policy on the whole. The final part of the study examines whether there are any alternative monetary policy approaches that may be able to describe the policy approach in China; special focus is placed on nominal GDP targeting, the Taylor rule, and inflation targeting. A literature review reveals that the concept of nominal GDP targeting may be able to detect inflationary tendencies in the economy and, in combination with other indicators, it could be a suitable concept to assess the overall economic situation. The author calculates a Taylor rule for China from 1994 to 2008 and concludes that there is no close relationship between the PBC lending and the Taylor rate. The author then designs an augmented Taylor rule expanded to include a credit component (credit-augmented Taylor rule). The study shows that the augmented Taylor rule does not perform much better than the original one, but that it maps high inflationary periods relatively well. This is attributed to direct interventions into the credit markets, which have played a major role in combating inflationary cycles over the past decades. The analysis ends with an introduction of the concept of inflation targeting and an examination of whether this could describe monetary policy in China. It is clear that the PBC does not currently follow the inflation targeting approach, although the Chinese authorities could actually be able to influence inflation expectations effectively, not least through direct instruments such as price controls. The author notes that the PBC indeed had a good track record of fighting inflation between 1994 and 2008, and that this may now indicate a good time to think about introducing inflation targeting in China. The central conclusion of the study is that the proven gradual approach to economic and monetary reforms in China is reaching its limit. To break the vicious cycle that relies on the continuous use of quantity-based instruments to compensate for the ineffective price-based instruments - which in turn arises from the simultaneous use of both types of instruments - a complete shift away from quantity-based instruments is needed. Only then the approach of indirect monetary policy, which was officially introduced in 1998, could come into full play.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Campion2015, author = {Campion, Marie-Genevi{\`e}ve}, title = {Competition between Originators and Generics: Public Regulation and Incentives to Innovate}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-111701}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {The aim of this thesis is to examine the competition patterns that exist between originators and generics by focusing on the articulations between regulation and incentives to innovate. Once the characteristics of regulation in pharmaceutical markets is reviewed in the first chapter and an analysis of some current challenges related to cost-containment measures and innovation issues is performed, then in the second chapter, an empirical study is performed to investigate substitution patterns. Based on the EC´s merger decisions in the pharmaceutical sector from 1989 to 2011, this study stresses the key criteria to define the scope of the relevant product market based on substitution patterns and shows the trend towards a narrower market in time. Chapters three and four aim to analyse in depth two widespread measures, the internal reference pricing system in off-patent markets, and risk-sharing schemes in patent-protected markets. By taking into account informational advantages of originators over generics, the third chapter shows the extent to which the implementation of a reference price for off-patent markets can contribute in promoting innovation. Finally, in the fourth chapter, the modeling of risk-sharing schemes explains how such schemes can help in solving moral hazard and adverse selection issues by continuously giving pharmaceutical companies incentives to innovate and supplying medicinal products of a higher quality.}, subject = {Pharmazeutische Industrie}, language = {en} } @phdthesis{Kempf2007, author = {Kempf, Stefan}, title = {Das Optionswertmodell zur Erkl{\"a}rung der Rentenentscheidung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-25727}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Diese empirische Arbeit untersucht Determinanten des Renteneintritts. Sie basiert auf einem Optionswertmodell, um die Bedeutung finanzieller {\"U}berlegungen f{\"u}r ein Aufschieben des Renteneintritts zu analysieren. Zus{\"a}tzlich wird der Einfluss institutioneller Rahmenbedingungen betrachtet. Ein neu verf{\"u}gbarer Datensatz des Verbands Deutscher Rentenversicherungstr{\"a}ger wird dazu verwendet. Die Ergebnisse zeigen, dass Arbeitslosigkeit und Krankheit zu einem großen Teil einen fr{\"u}hen Renteneintritt erkl{\"a}ren. Zus{\"a}tzlich hat der Optionswert einen großen Erkl{\"a}rungsgehalt.}, subject = {Rente}, language = {de} } @phdthesis{Behringer2020, author = {Behringer, Jan}, title = {Essays on income distribution and macroeconomic imbalances}, doi = {10.25972/OPUS-21725}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-217252}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {The contribution of this dissertation is to empirically analyze the link between income distribution, sectoral financial balances, and the current account. Firstly, it examines the relationship between the personal and the functional income distribution which may have rather different implications for aggregate demand and the current account. Secondly, it analyzes the importance of different sectors of the economy for current account balances and tests whether households are able to fully pierce the institutional veils of the corporate and the government sector. Thirdly, it investigates how changes in the personal and the functional income distribution affect the saving and investment decisions of the household and the corporate sector, and hence the current account. Finally, it shows how different growth regimes are linked to different patterns of personal and functional income distribution, and how differences in wage bargaining institutions contribute to explaining these different patterns of income distribution.}, subject = {Einkommensverteilung}, language = {en} } @phdthesis{Simon2021, author = {Simon, Camilla}, title = {Financial Market Effects of Macroeconomic Policies}, doi = {10.25972/OPUS-21765}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-217654}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {Within three self-contained studies, this dissertation studies the impact and interactions between different macroeconomic policy measures in the context of financial markets empirically and quantitatively. The first study of this dissertation sheds light on the financial market effects of unconventional central bank asset purchase programs in the Eurozone, in particular sovereign bond asset purchase programs. The second study quantifies the direct implications of unconventional monetary policy on decisions by German public debt management regarding the maturity structure of gross issuance. The third study provides novel evidence on the role of private credit markets in the propagation of public spending toward private consumption in the U.S. economy. Across these three studies a set of different time-series econometric methods is applied including error correction models and event study frameworks to analyze contemporaneous interactions in financial and macroeconomic data in the context of unconventional monetary policy, as well as vector auto regressions (VARs) and local projections to trace the dynamic consequences of macroeconomic policies over time.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Greer2015, author = {Greer, Katja}, title = {Essays in Industrial Organization: Vertical Agreements in a Dynamic View}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-136939}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {This dissertation deals with the contract choice of upstream suppliers as well as the consequences on competition and efficiency in a dynamic setting with inter-temporal externalities. The introduction explains the motivation of the analysis and the comparison of different contract types, as for example standard contracts like simple two-part tariffs and additional specifications as contracts referencing the quantity of the contract-offering firm or the relative purchase level. The features of specific market structures should be considered in the analysis of specific vertical agreements and their policy implications. In particular, the role of dynamic changes regarding demand and cost parameters may have an influence on the results observed. In the first model, a dominant upstream supplier and a non-strategic rival sell their products to a single downstream firm. The rival supplier faces learning effects which decrease the rival's costs with respect to its previous sales. Therefore, learning effects represent a dynamic competitive threat to the dominant supplier. In this setup, the dominant supplier can react on inter-temporal externalities by specifying its contract to the downstream firm. The model shows that by offering market-share discounts, instead of simple two-part tariffs or quantity discounts, the dominant supplier maximizes long-run profits, and restricts the efficiency gains of its rival. If demand is linear, the market-share discount lowers consumer surplus and welfare. The second model analyzes the strategic use of bilateral contracts in a sequential bargaining game. A dominant upstream supplier and its rival sequentially negotiate with a single downstream firm. The contract choice of the dominant supplier as well as the rival supplier's reaction are investigated. In a single-period sequential contracting game, menus of simple two-part tariffs achieve the industry profit maximizing outcome. In a dynamic setting where the suppliers sequentially negotiate in each period, the dominant supplier uses additional contractual terms that condition on the rival's quantity. Due to the first-mover advantage of the first supplier, the rival supplier is restricted in its contract choice. The consequences of the dominant supplier's contract choice depend on bargaining power. In particular, market-share contracts can be efficiency enhancing and welfare-improving whenever the second supplier has a relatively high bargaining position vis-`a-vis the downstream firm. For a relatively low bargaining position of the rival supplier, the result is similar to the one determined in the first model. We show that results depend on the considered negotiating structure. The third model studies the contract choice of two upstream competitors that simultaneously deal with a common buyer. In a complete information setting where both suppliers get to know whether further negotiations fail or succeed, a singleperiod model solves for the industry-profit maximizing outcome as long as contractual terms define at least a wholesale price and a fixed fee. In contrast, this collusive outcome cannot be achieved in a two-period model with inter-temporal externalities. We characterize the possible market scenarios, their outcomes and consequences on competition and efficiency. Our results demonstrate that in case a rival supplier is restricted in its contract choice, the contract specification of a dominant supplier can partially exclude the competitor. Whenever equally efficient suppliers can both strategically choose contract specifications, the rivals defend their market shares by adapting appropriate contractual conditions. The final chapter provides an overview of the main findings and presents some concluding remarks.}, subject = {Unternehmenskooperation}, language = {en} } @phdthesis{Riedel2016, author = {Riedel, Robby}, title = {Die 'Too Big to Fail'-Problematik - Quantitative Regulierung zur Reduzierung der Interbankenverflechtung und damit systemischen Risikos -}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-138319}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Im Rahmen dieser Arbeit wird ein Modell entwickelt, welches auf Basis von l{\"a}nder{\"u}bergreifenden Forderungs- und Verbindlichkeitsstrukturen die internationale Vernetzung der Banken abbildet. Die Analyse offenbart, dass systemische Risiken im Allgemeinen von wenigen Instituten ausgehen. Zudem wird aufgezeigt, dass solche Risiken vornehmlich in Banken aus Volkwirtschaften auftreten, in denen die Finanzindustrie eine exponierte Stellung einnimmt. Auf der anderen Seite sind die Institute aus diesen {\"O}konomien auch {\"u}berproportional anf{\"a}llig gegen{\"u}ber systemischen Schocks und somit erh{\"o}hten Ansteckungsgefahren ausgesetzt. Systemische Risiken gehen nicht nur von Großbanken aus, sondern auch der Ausfall mittelgroßer oder gar kleiner Institute kann erhebliche Konsequenzen f{\"u}r das Gesamtsystem nach sich ziehen. Dar{\"u}ber hinaus ist ersichtlich, dass h{\"o}here systemische Risiken von Banken ausgehen, die einen hohen Verflechtungsgrad innerhalb des Bankensystems haben. Die potentiellen Sch{\"a}den f{\"u}r das Gesamtsystem sind umso h{\"o}her, je mehr signifikante Gesch{\"a}ftsbeziehungen eine Bank zu anderen Banken aufweist. Systemische Risiken k{\"o}nnen nicht grunds{\"a}tzlich innerhalb eines nationalen Bankensystems isoliert werden, denn ein Großteil der Folgeausf{\"a}lle erfolgt l{\"a}nder{\"u}bergreifend. Die Analyse bringt zudem zu Tage, dass seit dem Jahr 2006 systemische Risiken im Allgemeinen zur{\"u}ckgingen. In der vorliegenden Arbeit werden zun{\"a}chst regulatorische Instrumente zur Reduzierung systemischer Risiken f{\"u}r alle Banken vorgestellt. Es l{\"a}sst sich konstatieren, dass Eigenkapitalerh{\"o}hungen die Widerstands- und Verlustabsorptionsf{\"a}higkeit der Banken maßgeblich st{\"a}rken w{\"u}rden. Auch k{\"o}nnen durch geeignete Großkreditvorschriften Risiken f{\"u}r das Gesamtsystem reduziert werden. Um das System entscheidend zu stabilisieren, m{\"u}ssten diese Instrumente allerdings erheblich von den aktuellen Bestimmungen abweichen. Die Untersuchungen zeigen, dass eine Eigenkapitalausstattung der Banken von 12\% der risikoungewichteten Bilanz (Leverage Ratio) oder Großkreditvorschriften f{\"u}r Exposures zu einzelnen Gegenparteien von h{\"o}chstens 18\% des haftenden Eigenkapitals maßgeblich zu einer ad{\"a}quaten bzw. notwendigen Finanzmarktstabilit{\"a}t beitragen k{\"o}nnen. Diese Arbeit befasst sich ferner mit m{\"o}glichen regulatorischen Ans{\"a}tzen zur Reduzierung systemischer Risiken speziell f{\"u}r systemrelevante Banken. Eine m{\"o}gliche regulatorische Alternative k{\"o}nnte eine Kombination sowohl h{\"o}herer Eigenkapitalvorschriften als auch versch{\"a}rfter Großkreditvorschriften darstellen. Durch eine Leverage Ratio von mindestens 9\% f{\"u}r nicht-systemrelevante Institute und eine h{\"o}here Quote von 11\% f{\"u}r systemrelevante Banken, kombiniert mit einem maximalen Exposure zwischen zwei Vertragsparteien von 23\% sowie zu systemrelevanten Banken von maximal 18\%, ließe sich das systemische Risiko im Bankensystem entscheidend senken.}, subject = {Bank}, language = {de} } @phdthesis{Rueth2017, author = {R{\"u}th, Sebastian}, title = {Monetary Policy, Housing Market Dynamics, and the Propagation of Shocks}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-137221}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {This dissertation studies the interrelations between housing markets and monetary policy from three different perspectives. First, it identifies housing finance specific shocks and analyzes their impact on the broader economy and, most importantly, the systematic monetary policy reaction to such mortgage sector disturbances. Second, it investigates the implications of the institutional arrangement of a currency union for the potential buildup of a housing bubble in a member country of the monetary union by, inter alia, fostering border-crossing capital flows and ultimately residential investment activity. This dissertation, third, quantifies the effects of autonomous monetary policy shifts on the macroeconomy and, in particular, on housing markets by conditioning on financial sector conditions. From a methodological perspective, the dissertation draws on time-series econometrics like vector autoregressions (VARs) or local projections models.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Musaev2014, author = {Musaev, Abdumalik}, title = {Geld- und Wechselkurspolitik in rohstoffreichen L{\"a}ndern. Eine empirische Analyse am Beispiel der Volkswirtschaft Russlands.}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-130776}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Die Arbeit besch{\"a}ftigt sich mit den speziellen Herausforderungen der Geld- und Wechselkurspolitik in rohstoffreichen L{\"a}ndern. Die Auseinandersetzung mit der Thematik erfolgt dabei anhand einer empirischen Analyse der Wirtschaftsentwicklung Russlands im Zeitraum zwischen 2000 bis 2009. Diese Periode wurde durch eine hohe Volatilit{\"a}t des {\"O}lpreises gekennzeichnet, die die Wirtschaftsentwicklung Russlands erheblich beeinflusste. Die aus dem Anstieg des {\"O}lpreises resultierenden Rohstoffeinnahmen entfalteten einerseits positive wirtschaftliche Effekte. Der im Jahr 1998 f{\"u}r zahlungsunf{\"a}hig erkl{\"a}rte Staat konnte sich wenige Jahre sp{\"a}ter eine expansive Haushaltspolitik leisten. Andererseits entstanden durch die Rohstoffeinnahmen auch negative wirtschaftliche Folgen. Infolge der starken realen Aufwertung des Rubels wurde die Wettbewerbsf{\"a}higkeit des Industriesektors deutlich belastet. Die Import- und Rohstoffabh{\"a}ngigkeit des Landes nahm deutlich zu. Unter der hohen Volatilit{\"a}t der Rohstoffpreise hat die Finanz- und Wirtschaftsstabilit{\"a}t stark gelitten. Die durch die {\"O}lpreisschwankungen verursachten Wechselkursturbulenzen wurden zus{\"a}tzlich durch spekulative Kapitalbewegungen verst{\"a}rkt. Die realen Geldmarktzinss{\"a}tze verliefen {\"u}berwiegend in einem negativen Bereich. Die Inflationsrate konnte zwar reduziert werden, die angek{\"u}ndigten Inflationsziele konnten aber nicht eingehalten werden. Die unkontrollierte Geldbasisbildung kam durch die Devisenmarktinterventionen der Notenbank und eine stark expansiven Fiskalpolitik zustande. Auf dem Geldmarkt herrschte ein Angebots{\"u}berhang. Dar{\"u}ber hinaus nutzten die Kreditinstitute die Verschuldung im Ausland als eine zus{\"a}tzliche Quelle f{\"u}r ihre boomenden Kreditgesch{\"a}fte. Die Handlungsoptionen der Notenbank waren zus{\"a}tzlich durch die rohstofffinanzierte expansive Fiskalpolitik eingeschr{\"a}nkt. Die Spielr{\"a}ume der Notenbank waren umso geringer, je h{\"o}her der {\"O}lpreis anstieg und je mehr der Staat die Rohstoffeinnahmen ausgab. Die {\"O}lpreisentwicklung und die sich selbst verst{\"a}rkenden Kapitalfl{\"u}sse hatten entscheidenden Einfluss auf die Zinss{\"a}tze und den Wechselkurs. Nach Meinung des Verfassers werden alle rohstoffreichen offenen L{\"a}nder mit hohen Inflationsraten mit einer {\"a}hnlichen Problematik konfrontiert. Der Trade-off heißt: Entweder Wechselkursaufwertung oder Inflationsimport. Wie ist dieses Problem zu l{\"o}sen? Welche Alternativen hatte die Notenbank Russlands? Nach dem IWF w{\"a}re ein Free Floating die beste Strategie. Demnach h{\"a}tte eine hohe Wechselkursvolatilit{\"a}t den Kapitalanleger trotz der hohen Renditem{\"o}glichkeiten abgeschreckt. Der Verlauf des Wechselkurses h{\"a}tte seinen Fundamentalfaktoren entsprochen. Dabei gilt nach dem IWF der volatile {\"O}lpreis ebenfalls als ein fundamentaler Bestandteil des Gleichgewichtes. Der Verfasser widerspricht der Auffassung der IWF-Experten. Das Hauptproblem in diesem Ansatz ist die hohe mittelfristige Volatilit{\"a}t der Rohstoffpreise. Der {\"O}lpreis entwickelte sich bis 2004 weitgehend stabil rund um die Marke von 30 USD/Barrel. Nach 2004 verzeichnete der {\"O}lpreis im Laufe der 55 Monate (oder 4,5 Jahre) einen erkennbar ansteigenden Trend auf etwa 140 USD/Barrel und schrumpfte anschließend innerhalb von weiteren 6 Monaten auf 35 USD/Barrel zur{\"u}ck. So eine Entwicklung des {\"O}lpreises h{\"a}tte beim Free Floating verheerende Auswirkungen gehabt. Die W{\"a}hrung h{\"a}tte parallel zu jedem {\"O}lpreisanstieg aufgewertet. Der Kapitalzufluss h{\"a}tte die Aufwertung zus{\"a}tzlich verst{\"a}rkt. Die Abwertung des Rubels im August 2008 infolge des {\"O}lpreisverfalls und der massiven Kapitalflucht w{\"a}re so stark gewesen, dass dadurch die Finanz-, Preis- und Wirtschaftsstabilit{\"a}t stark gef{\"a}hrdet worden w{\"a}ren. Zur L{\"o}sung des Trade-offs zwischen Wechselkurs- und Geldpolitik bietet sich nach Meinung des Verfassers das Managed-Floating-Modell an. Das Modell widerspricht der bekannten „Unm{\"o}glichkeit" des klassischen „Dreiecks". Eine autonome Zins- und Wechselkurssteuerung in einer offenen Volkswirtschaft ist nicht nur m{\"o}glich, sondern in den F{\"a}llen wie Russland die einzig richtige L{\"o}sung. Die Ausgangsgr{\"o}ße ist in diesem Modell der autonom zu steuernde Zinssatz, der im Fall Russland von der Notenbank h{\"a}tte angehoben werden m{\"u}ssen, um die Inflationsrate m{\"o}glichst schnell abzusenken. In der Wechselkurssteuerung wird auf den mittelfristig stabilen realeffektiven Wechselkurs abgestellt. Da die Inflationsrate in Russland deutlich h{\"o}her war als im Ausland, w{\"a}re eine gesteuerte Abwertung des Rubels erforderlich gewesen. Dadurch w{\"a}re die Wettbewerbsf{\"a}higkeit der Industrie gef{\"o}rdert worden. Durch die Abwertung des Rubels w{\"a}re der Zufluss des kurz- und mittelfristigen Auslandskapitals selbst bei hohen Renditem{\"o}glichkeiten in Russland abgewendet worden. Eine wesentliche Gefahr f{\"u}r den Erfolg des Managed-Floating-Modells stellt aber eine stark expansive, rohstofffinanzierte Fiskalpolitik dar. Eine strenge Fiskaldisziplin spielt daher eine entscheidende Rolle.}, subject = {Wechselkurspolitik}, language = {de} } @phdthesis{Stoehr2008, author = {St{\"o}hr, Holger Christian}, title = {Die Zukunft der Wettbewerbspolitik - Zur Notwendigkeit und Form einer auf Wettbewerbschancen ausgerichteten wettbewerbspolitischen Revolution}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-33483}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Die grundlegende Idee dieser Abhandlung liegt in der Vorstellung begr{\"u}ndet, dass sich Wettbewerbspolitik nicht auf den Wettkampf konzentrieren sollte. Die traditionelle Vorgehensweise analysiert Wettbewerbsbeschr{\"a}nkungen auf einzelnen M{\"a}rkten und fordert gegebenenfalls ein wettbewerbspolitisches Eingreifen. Zumeist wird dabei die Existenz des 'spirit of competition' und damit ein aktiver Wettkampf gefordert. Diese Sichtweise ist jedoch symptomatisch auf den einzelnen Markt gerichtet. Stattdessen sollten die grundlegenden Rahmenbedingungen analysiert werden. Wettbewerbspolitik w{\"u}rde sich somit auf die Schaffung von Wettbewerbschancen konzentrieren. Gerade die Umsetzung einer derart gestalteten Wettbewerbspolitik d{\"u}rfte schwierig sein und erfordert insbesondere ein polit{\"o}konomisches Fundament. Daher wird hier ein konkreter Vorschlag konkretisiert, der Elemente der direkte Demokratie, der Gewaltenteilung und eine verst{\"a}rkte politische Meinungsbildung beinhaltet. Die herk{\"o}mmliche Wettbewerbspolitik unterliegt folglich drei grundlegenden M{\"a}ngel: Zun{\"a}chst ist sie durch eine mangelnde Zielorientierung und zahlreiche Zielkonflikte gekennzeichnet. Weiterhin ist sie symptomatisch auf Wettbewerbsbeschr{\"a}nkungen auf einzelnen M{\"a}rkten konzentriert und vernachl{\"a}ssigt die jeweils relevanten Rahmenbedingungen. Schließlich wird die Wahl angemessener wettbewerbspolitischer Tr{\"a}ger h{\"a}ufig vernachl{\"a}ssigt. Die Ziele dieser Arbeit sind darauf basierend die Begr{\"u}ndung der Notwendigkeit einer Neuausrichtung, die Ausarbeitung der Grundz{\"u}ge eines alternativen wettbewerbspolitischen Ansatzes und eine Abgrenzung dieses von gel{\"a}ufigen wettbewerbspolitischen Konzeptionen. Zur Analyse dient die Ableitung eines Referenzschemas auf f{\"u}nf Ebenen der Wettbewerbspolitik. Dabei werden sieben Fallstudien in die Abhandlung integriert.}, subject = {Wettbewerbspolitik}, language = {de} } @phdthesis{Jurgan2009, author = {Jurgan, Jens}, title = {Three Essays on Market Concentration and Welfare}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-40374}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {This thesis analyzes the relationship between market concentration and efficiency of the market outcome in a differentiated good context from different points of view. The first chapter introduces the objectives of competition policy and antitrust authorities and outlines the importance of market concentration. Chapter 2 analyzes the relationship between social surplus and market heterogeneity in a differentiated Cournot oligopoly. Market heterogeneity is due to differently efficient firms, each of them producing one variety of a differentiated good. All firms exhibit constant but different marginal costs without fixed costs. Consumers preferences are given by standard quadratic utility originated by Dixit (1979). Since preferences are quasi-linear social surplus is the measure for Pareto-optimality. The main finding is that consumer suprlus as well as producer surplus increase with the variance of marginal costs. The third chapter analyzes the relationship between the cost structure and market concentration measured by the Herfindahl-Hirschman Index. Market concentration increases with the variance of marginal costs as well as the mean of marginal costs. Chapter four analyzes welfare implications of present antitrust enforcement policy on basis of the same theoretical model. European as well as the US Merger Guidelines presume a negative impact of market concentration on the competitiveness of the market and, therefore, on the efficiency of the market outcome. The results of the previous chapters indicate that this assumption is false. The main finding is that post-merger joint profit of the insider increase with the size of the merger. Moreover, there is a negative relationship between the size of the merger and efficiency of the market outcome. Present antitrust enforcement policy increases the disparity of output levels and enforces the removal of the least efficient firm of the market. The welfare gains can be traced back on these two effects. Therefore, neither a minimum of market concentration nor a maximum of product diversity is necessarily welfare enhancing even in absence of fixed costs.}, subject = {Konzentration }, language = {en} } @phdthesis{Dechert2014, author = {Dechert, Andreas}, title = {Fraktionale Integration und Kointegration in Theorie und Praxis}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-110028}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Das Ziel der Arbeit ist eine Zusammenfassung {\"u}ber den Stand der Forschung {\"u}ber das Thema der fraktionalen Integration und Kointegration sowie Weiterentwicklungen der aktuellen Methoden im Hinblick darauf, dass sie robuster auf eine Reihe von empirischen Gegebenheiten anwendbar sind. Hierzu wurden insbesondere die M{\"o}glichkeiten von Strukturbr{\"u}chen in deterministischen Prozessanteilen vorgeschlagen sowie deren Auswirkungen auf Sch{\"a}tzeigenschaften analysiert. Mit diesem Wissen k{\"o}nnen Sch{\"a}tzstrategien entwickelt werden, die auch im empirischen Teil der Arbeit angewandt wurden. Der Aufbau der Arbeit gestaltet sich so, dass nach der Einleitung und Problemstellung im zweiten Kapitel der Arbeit zun{\"a}chst in die Zeitreihenanalyse eingef{\"u}hrt wird. Hierbei wird auch eine intuitive Motivation f{\"u}r die Betrachtung von Long-Memory-Prozessen gegeben. Diese gestaltet sich so, dass der klassischerweise als ganzzahlig angenommene Integrationsgrad eines Prozesses nun jede beliebige Zahl, also auch Br{\"u}che, annehmen kann. Diese Annahme f{\"u}hrt wiederum dazu, dass hiermit sehr langfristige Abh{\"a}ngigkeiten von Zeitreihen effizient beschrieben werden k{\"o}nnen, da diese lediglich von einem einzigen Parameter abh{\"a}ngen. Die Sch{\"a}tzung dieses nunmehr fraktionalen Integrationsgrads wird im dritten Kapitel ausf{\"u}hrlich beschrieben und in mehreren Simulationsstudien ausgiebig analysiert. Hierzu werden neben parametrischen Sch{\"a}tzmethoden, die einer genauen Spezifizierung der Korrelationsstruktur von Zeitreihen bed{\"u}rfen, auch semiparametrische Methoden angef{\"u}hrt, die in der Praxis robuster einsetzbar sind, da ihre Sch{\"a}tzgenauigkeit und Effizienz nicht von einer korrekten Klassifizierung von sog. Short-Memory-Komponenten beeinflusst werden. Die Analyse dieser Methode erfolgt in erster Linie im Hinblick auf eine empirische Anwendbarkeit und bietet auch als Ergebnis Empfehlungen f{\"u}r eine optimale Sch{\"a}tzstrategie. Das vierte Kapitel besch{\"a}ftigt sich in erster Linie mit Integrationstests wie z.B. Einheitswurzeltests und deren Anwendbarkeit bei Existenz von Long-Memory-Prozessbestandteilen. Dar{\"u}ber hinaus werden auch Sch{\"a}tz- und Testmethoden f{\"u}r das Vorliegen von deterministischen Trends thematisiert, die wiederum auch die M{\"o}glichkeit von Strukturbr{\"u}chen zulassen. Eine multivariate Betrachtungsweise erm{\"o}glicht das f{\"u}nfte Kapitel mit der Einf{\"u}hrung der fraktionalen Kointegration. Auch liegt der Fokus der Arbeit darin, die empirische Anwendbarkeit zu verbessern, indem in Simulationsstudien Effekte von empirischen Gegebenheiten - wie Strukturbr{\"u}che - analysiert und optimale Sch{\"a}tzstrategien entwickelt werden. Im sechsten Kapitel der Arbeit wird im Rahmen der {\"o}konomischen Theorie der Markterwartungshypothese die Verzinsung deutscher im Zeitraum Oktober 1998 bis November 2011 untersucht. Diese Hypothese impliziert, dass zwischen den einzelnen Zinss{\"a}tzen eine multivariate Beziehung in Form von Kointegrationsbeziehungen bestehen sollte, da die Zinssatzdifferenzen einer Liquidit{\"a}tspr{\"a}mie entsprechen. Von dieser wurde in bisherigen Studien angenommen, dass sie station{\"a}r ist, d.h. dass sie allenfalls eine Short-Memory-Eigenschaft aufweist, welche nur relativ kurzfristige Abh{\"a}ngigkeit impliziert. Von dieser Sichtweise l{\"o}st sich die Arbeit, indem sie die M{\"o}glichkeit von fraktionalen Kointegrationsbeziehungen erm{\"o}glicht, die eine Aussage {\"u}ber die Persistenz der Liquidit{\"a}tspr{\"a}mie erm{\"o}glicht. Im Rahmen dieser Analyse konnten eine Reihe interessanter Erkenntnisse gewonnen werden, wie z.B. dass das Ausmaß der Persistenz (d.h. die Tr{\"a}gheit der Anpassung auf {\"o}konomische Schocks) mit ansteigender Laufzeitdifferenz sukzessive gr{\"o}ßer wird und auch nicht mehr durch klassisch angenommene Prozessstrukturen erkl{\"a}rt werden kann. Nichtsdestotrotz k{\"o}nnen die Ergebnisse der empirischen Analyse die Annahmen der Markterwartungshypothese nicht best{\"a}tigen, da insbesondere der Integrationsgrad f{\"u}r sehr lange Laufzeitdifferenzen so groß ausf{\"a}llt, dass selbst eine relativ schwache fraktionale Kointegrationsbeziehung abgelehnt werden muss.}, subject = {Zeitreihenanalyse}, language = {de} } @phdthesis{Gareis2012, author = {Gareis, Johannes}, title = {Housing, Consumption Dynamics, and Monetary Policy}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-70842}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {This dissertation provides both empirically and theoretically new insights into the economic effects of housing and housing finance within NK DSGE models. Chapter 1 studies the drivers of the recent housing cycle in Ireland by developing and estimating a two-country NK DSGE model of the European Economic and Monetary Union (EMU). It finds that housing preference (demand) and technology shocks are the most important drivers of real house prices and real residential investment. In particular, housing preference shocks account for about 87\% of the variation in real house prices and explain about 60\% of the variation in real residential investment. A robustness analysis finally shows that a good part of the variation of the estimated housing preference shocks can be explained by unmodeled demand factors that have been considered in the empirical literature as important determinants of Irish house prices. Chapter 2 deals with the implications of cross-country mortgage market heterogeneity for the EMU. The chapter shows that a change in cross-country institutional characteristics of mortgage markets, such as the loan-to-value (LTV) ratio, is likely to be an important driver of an asymmetric development in the housing market and real economic activity of member states. Chapter 3 asks whether monetary policy shocks can trigger boom-bust periods in house prices and create persistent business cycles. The chapter addresses this question by implementing behavioral expectations into an otherwise standard NK DSGE model with housing and a collateral constraint. Key to the approach in chapter 3 is that agents form heterogeneous and biased expectations on future real house prices. Model simulations and impulse response functions suggest that these assumptions have strong implications for the transmission of monetary policy shocks. It is shown that monetary policy shocks might trigger pronounced waves of optimism, respectively, pessimism that drive house prices and the broader economy, all in a self-reinforcing fashion. The chapter shows that in an environment in which behavioral mechanisms play a role an augmented Taylor rule that incorporates house prices is superior, because it limits the scope of self-fulfilling waves of optimism and pessimism to arise. Chapter 4 challenges the view that the observed negative correlation between the Federal Funds rate and the interest rate implied by consumption Euler equations is systematically linked to monetary policy. Using a Monte Carlo experiment based on an estimated NK DSGE model, this chapter shows that risk premium shocks have the capability to drive a wedge between the interest rate targeted by the central bank and the implied Euler equation interest rate, so that the correlation between actual and implied rates is negative. Chapter 4 concludes by arguing that the implementation of collateral constraints tied to housing values is a promising way to strengthen the empirical performance of consumption Euler equations.}, subject = {Kreditmarkt}, language = {en} } @phdthesis{Plagens2001, author = {Plagens, Manfred}, title = {Innovationsprozesse in der Medizintechnik in Deutschland}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-619}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2001}, abstract = {Diese Arbeit besch{\"a}ftigt sich mit Innovationsprozessen der medizintechnischen Industrie in Deutschland am Beispiel der bildgebenden Verfahren. Einen geeigneten Analyserahmen, um die komplexen Verflechtungen und Erfolgs-determinanten zu erfassen, bietet der Clusteransatz Michael Porters. Der Clusteransatz wird um wachstumstheoretische, polit{\"o}konomische Ans{\"a}tze erg{\"a}nzt und erweitert, um die Medizintechnikbranche quantitativ und qualitativ zu untersuchen und die Wechselwirkungen zwischen Medizintechniknetzwerk, Innovationen und staatlichem Sozialsystem in Deutschland aufzuzeigen. Es wird gekl{\"a}rt, welche Auswirkungen Innovationen f{\"u}r die medizintechnische Branche haben und welche institutionellen und politischen Bedingungen Innovationen beg{\"u}nstigen, welche wirtschaftspolitischen Handlungsempfehlungen daraus abgeleitet werden k{\"o}nnen und wie sich die Zukunft f{\"u}r diese Branche gestalten k{\"o}nnte. Kapitel 1 spezifiziert den Untersuchungsgegenstand auf die bildgebenden Verfahren. Kapitel 2 nimmt - anhand diverser Innovationsindikatoren - eine quantitative Eingruppierung der deutschen medizintechnischen Industrie vor. In Kapitel 3 werden die bislang gewonnen Erkenntnisse mit dem Clusterkonzept Porters einer qualitativen Analyse unterzogen. Es wird der Frage nachgegangen, was die Wettbewerbsf{\"a}higkeit der Medizintechnik ausmacht. Hierbei liegt ein Schwerpunkt auf den Wechselbeziehungen von Medizin-technikbranche und staatlichem Gesundheitssystem. Kapitel 4 erg{\"a}nzt die Wettbewerbsf{\"a}higkeitsanalyse um einen inter-industriellen Vergleich. Weitere international erfolgreiche deutsche Branchen werden in ihren Erfolgsfaktoren mit der Medizintechnik verglichen. Das Konzept der "Langen Wellen" pr{\"a}zisiert die Spezifika der Medizintechnikbranche. Kapitel 5 fasst die Ergebnisse der Untersuchung zusammen und gibt eine Prognose f{\"u}r die m{\"o}gliche Zukunftsentwicklung der Branche.}, subject = {Deutschland}, language = {de} } @phdthesis{Hock2003, author = {Hock, Thorsten}, title = {Asymmetrische Effekte der Geldpolitik auf die Industrie in der Bundesrepublik Deutschland - eine Untersuchung auf Branchenebene}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-7586}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Die Arbeit setzt sich mit Unterschieden des geldpolitischen Transmissionsprozesses im Verarbeitenden Gewerbe der Bundesrepublik Deutschland auseinander. Dazu wird der Sektor nach der Systematik der BACH-Datenbank der europ{\"a}ischen Kommission in 10 Branchen eingeteilt. An eine kurze Betrachtung der Industrie aus makro- und mikro{\"o}konomischer Sicht schließt sich die Beantwortung der ersten Frage an: Reagieren die Industriebranchen unterschiedlich auf geldpolitische Impulse? Monet{\"a}re Innovationen werden mit Anstiegen der kurzfristigen Geldmarktzinsen abgebildet. Damit konzentriert sich die Analyse auf die Auswirkungen von restriktiven Maßnahmen. Als Referenzgr{\"o}ßen wurden die Produktion und die Erzeugerpreise ausgew{\"a}hlt. Die Analyse der Auswirkungen auf die Produktionsentwicklung zeigt, dass ein Großteil der Industriezweige erwartungsgem{\"a}ß mit R{\"u}ckf{\"u}hrungen auf Zinserh{\"o}hungen reagiert. Die st{\"a}rksten Produktionseinbußen ergeben sich hierbei in der Branche Herstellung elektrischer Ger{\"a}te, in der Grundlegenden Metallverarbeitung und im Industriezweig Metallerzeugnisse mit Maschinenbau. Dagegen sind die in vielen Branchen entdeckten kurzfristigen Preisanstiege auf den ersten Blick ein R{\"a}tsel. Denn die Notenbank verfolgt ihre Absicht - n{\"a}mlich die Stabilisierung der Verbraucherpreise - mit einer restriktiven Ausrichtung, wenn die Preise Gefahr laufen, st{\"a}rker als zielkonform anzusteigen. Die vorliegenden Ergebnisse sprechen daher daf{\"u}r, dass in der kurzen Frist jedoch zus{\"a}tzlicher Preisdruck auf vorgelagerter Stufe erzeugt wird. Wie k{\"o}nnen die unterschiedlichen Auswirkungen auf die Branchen erkl{\"a}rt werden? Dieser Frage widmet sich der zweite Hauptblock der Arbeit. In einem ersten Schritt werden die relevanten Transmissionstheorien diskutiert. Die empirische {\"U}berpr{\"u}fung ausgew{\"a}hlter Transmissionstheorien mit Branchendaten hat dabei einige grundlegende Einsichten ans Licht gebracht. Erstens korreliert die St{\"a}rke der Outputver{\"a}nderung deutlich mit der Zinssensitivit{\"a}t der Nachfrage nach den produzierten G{\"u}tern der Branche. Zweitens k{\"o}nnen die beobachteten Preisanstiege vereinzelt mit einer Dominanz der Geldpolitik als Angebotsschock erkl{\"a}rt werden. Zu einem großen Teil bleibt die identifizierte Preisreaktion aber ein R{\"a}tsel. Und drittens scheint der Bilanzkanal - zumindest gem{\"a}ß der hier gew{\"a}hlten Identifikationsstrategie - nicht grunds{\"a}tzlich geeignet zu sein, die Anpassungsprozesse in den untersuchten Branchen zu erkl{\"a}ren. Dies sollte daran liegen, dass dieser Transmissionskanal Bonit{\"a}tscharakteristika und -ver{\"a}nderungen auf Unternehmensebene als Vehikel der {\"U}bertragung sieht.}, subject = {Deutschland}, language = {de} } @phdthesis{Gottberg2004, author = {Gottberg, Hans-D{\"o}ring von}, title = {Wirkungsanalyse der gesetzlichen Buchpreisbindung in Deutschland}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-13657}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Untersuchungsgegenstand dieser Arbeit ist die Preisbindung auf dem deutschen Buchmarkt. Diese stellt eine absolute Ausnahmesituation dar, da sie f{\"u}r andere Wirtschaftszweige per se verboten ist. Das gilt umso mehr, als im Jahr 2002 das Preisbindungsgesetz eingef{\"u}hrt wurde und alle Verlage ihre B{\"u}cher - mit wenigen Ausnahmen - nunmehr preisbinden m{\"u}ssen. Unter Ber{\"u}cksichtigung dieser Rahmenbedingungen setzt eine Wirkungsanalyse bei den Auswirkungen der Preisbindung auf das Preis-, Serviceniveau und die Branchendynamik an. Die Gegen{\"u}berstellung einer Situation mit und ohne Preisbindung wird dadurch erschwert, dass empirische Belege sp{\"a}rlich sind, da die Preisbindung seit {\"u}ber 100 Jahren den deutschen Buchmarkt bestimmt. Zun{\"a}chst werden L{\"u}cken im Preisbindungsgesetz herausgearbeitet, die den Spielraum f{\"u}r noch m{\"o}glichen Preiswettbewerb aufzeigen. Als Kernst{\"u}ck der Arbeit werden stilisierte Aussagen zum Verhaltenspotential der Marktakteure durch ein eigenes theoretisches Modell ermittelt. Dabei sind im zentralen Vergleich der Preisbindung mit einer preisbindungsfreien Situation die Resultate nicht eindeutig. Eine Aufhebung der Preisbindung hat danach keine eindeutige Wirkung auf die Entwicklung von Preisen und Service. Je nach Bedeutung der Preis- und Servicesensitivit{\"a}ten bei latenten versus fluktuierenden Nachfragesituationen k{\"o}nnen sich Preise und Service unterschiedlich entwickeln. Entgegen der h{\"a}ufigen Aussagen in der politischen Diskussion k{\"o}nnen nach Aufhebung der Preisbindung Preise und Serviceniveau auch ansteigen, wenn der Servicewettbewerb zur Gewinnung von Kunden einen hohen Stellenwert hat. Das Aussagenspektrum bekommt einen Branchenbezug durch Ber{\"u}cksichtigung von {\"o}konomischen Prozessen, insbesondere produktions- und vertriebsspezifischen Besonderheiten des Buchmarktes. Dynamische, gerade auch preisbindungsabh{\"a}ngige Entwicklungen werden aufgezeigt, die mit einem positiven Effizienzbeitrag die grunds{\"a}tzliche effizienzmindernde Wirkung einer Preisbindung zumindest abmildern. Zu nennen ist hier u.a. eine Transaktionskosten mindernde enge Verzahnung des station{\"a}ren Bucheinzelhandels mit dem Großhandel. Erkennbar ist aber auch eine Entwicklung, in der ein zunehmender Marktanteil von Gesch{\"a}ftsmodellen mit niedrigpreisigen bzw. preisbindungsfreien B{\"u}chern. Konsumenten erhalten damit eine gr{\"o}ßere Wahlm{\"o}glichkeit zwischen preis- und serviceinduzierten Angeboten. Fallstudien von gr{\"o}ßeren Unternehmen des Buchhandels bekr{\"a}ftigen die Vermutung, dass trotz Preisbindung die Flanke „Konzentration im Buchhandel" weiterhin offen ist. Gerade von Seite der Großunternehmen wird mittels spezifischen Gesch{\"a}ftsmodellen im Ergebnis die Preisbindung partiell außer Kraft gesetzt.}, subject = {Deutschland}, language = {de} } @phdthesis{Schmidt2004, author = {Schmidt, Robert}, title = {The behavioral economics of foreign exchange markets - a psychological view on human expectation formation in foreign exchange markets}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-14921}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {The development of free floating exchange rates can hardly be explained by macroeconomic fundamentals as supposed by traditional economic theories. Therefore, prominent economists yet conclude that there exists an 'exchange rate disconnect puzzle' (see Obstfeld and Rogoff [2000]). The observable exchange rate trends are often attributed to an excessive speculative trading behavior of foreign exchange market participants. In this study we deal with psychological factors, which may be important for understanding the observable exchange rate movements. Thus, our study belongs to the new research field of behavioral economics, which considers the relevance of psychological factors in economic contexts. The main objective of behavioral economists is to develop a more realistic view of the actual human behavior in the context of economics. Therefore, behavioral economists often refer to the work of behavioral decision theorists, who introduced new concepts under the general heading of bounded rationality. Central to the concept of bounded rationality is the assumption that humans' actual behavior deviates from the ideal of economic rationality due to at least two reasons: first, decisions are usually based on an incomplete information basis (limited information) and, second, the information processing of human beings is limited by their computational capacities (limited cognitive resources). Due to these limitations people are forced to apply simplification mechanisms in information processing. Important simplification mechanisms, which play a decisive role in the process judgment and decision making, are simple heuristics. Simple heuristics can principally be characterized as simple rules of thumb, which allow quick and efficient decisions even under a high degree of uncertainty. In this study, our aim is to analyze the relevance of simple heuristics in the context of foreign exchange markets. In our view, the decision situation in foreign exchange markets can serve as a prime example for decision situations in which simple heuristics are especially relevant as the complexity of the decision situation is very high. The study is organized as follows. In Chapter II, we deal with the exchange rate disconnect puzzle. In particular, we discuss and check the main implications of the traditional economic approach for explaining exchange rate movements. The asset market theory of exchange rate determination implies that exchange rates are mainly driven by the development of macroeconomic fundamentals. Furthermore the asset market theory assumes that foreign exchange market participants form rational expectations concerning future exchange rate developments and that exchange rates are determined in efficient markets. Overall the empirical evidence suggests that the traditional approach for explaining exchange rate changes is at odds with the data. Chapter III addresses the existence of long and persistent trends in exchange rate time series. Overall, our empirical analysis reveals that exchange rates show a clear tendency to move in long and persistent trends. Furthermore, we discuss the relevance of speculation in foreign exchange markets. With regard to the impact of speculation, economic theory states that speculation can have either a stabilizing effect or a destabilizing effect on exchange rates. At the end of Chapter III, we examine the Keynesian view on the functioning of asset markets. In Chapter IV we explore the main insights from the new research field of behavioral economics. A main building block of behavioral economics is the concept of bounded rationality first introduced by Herbert Simon [1955]. In the centre of the concept of bounded rationality is a psychological analysis of the actual human judgment and decision behavior. In Chapter IV, we discuss the concept of bounded rationality in detail and illustrate important insights of behavioral decision theories. In particular, we deal with the relevance of simple heuristics in the context of foreign exchange markets. Chapter V provides experimental and empirical evidence for the suggested relevance of simple heuristics in foreign exchange markets. In the first experiment, we deal with the human expectation formation. We compare point forecasts of the EUR/USD exchange rate surveyed from professional analysts and experimentally generated point forecasts of students for a simulated exchange rate time series. The results show that the forecasting performance of both groups differs substantially. Afterwards we analyze the nature of expectation formation of both groups in detail to reveal similarities and differences, which allow us to draw reasonable explanations for the differences in the forecasting performances. In the second experiment, we analyze the expectation formation in an experimental foreign exchange market. This approach allows us to consider the relevance of expectation feedback as individuals' expectations directly influence the actual realization of the time series. Thus, Keynes' predictions on the importance of conventions in asset markets can be analyzed. Overall, both experiments reveal that the human beings tend to apply simple trend heuristics, when forming their expectations about future exchange rates. In the empirical part of Chapter V we deal with the usefulness of such simple trend heuristics in real world. Only if simple trend heuristics lead to profits in the specific environment of foreign exchange markets, their application can be recommended. Thus, we analyze the profitability of simple technical analysis tools in foreign exchange markets. Finally, Chapter VI provides concluding remarks.}, subject = {Devisenmarkt}, language = {en} } @phdthesis{Beschorner2004, author = {Beschorner, Patrick Frank Ernst}, title = {Risikoklassifikation und Wettbewerb auf Versicherungsm{\"a}rkten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10122}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Mit der Schaffung des europ{\"a}ischen Versicherungsbinnenmarktes wurde 1994 auch der deutsche Versicherungsmarkt liberalisiert. Damit stehen seither den Unternehmen auf diesen M{\"a}rkten mit der Produktgestaltung, der Pr{\"a}mienkalkulation und der Risikoklassifikation neue Wettbewerbsinstrumente zur Verf{\"u}gung. Zus{\"a}tzlich ist der Markteintritt nationaler Unternehmen in andere europ{\"a}ische M{\"a}rkte erleichtert worden. Die Nutzung der neuen Instrumente im Rahmen von Unternehmensstrategien vor dem Hintergrund eingeschr{\"a}nkter Information und geringer Erfahrung der Marktteilnehmer sowie die M{\"o}glichkeiten wohlfahrtssteigernder Markteingriffe sind Inhalt der vorliegenden Untersuchung. Es zeigt sich, daß Informationsbeschr{\"a}nkungen und Marktmacht immanent sind. Die sich daraus ergebenden Marktunvollkommenheiten lassen sich durch einen eingeschr{\"a}nkt informierten Regulierer oder Staat nicht vollst{\"a}ndig beheben. Daf{\"u}r sind Eingriffe m{\"o}glich, welche die negativen Effekte abzumildern verm{\"o}gen und dabei einem sehr geringem Informationserfordernis unterliegen. Relevante Informationen beziehen sich in erster Linie auf die Schadenscharakteristika von Versicherungsnehmern. Ein einzelnes Unternehmen profitiert von einem Informationsvorsprung gegen{\"u}ber seinen Konkurrenten, wenn es diesen f{\"u}r verst{\"a}rkte Risikoklassifikation einsetzen kann. Aus sozialer Sicht ist es aber sinnvoller, wenn existierende Informationen allen Unternehmen zur Verf{\"u}gung stehen, so daß eine einheitliche Risikoklassifikation m{\"o}glich wird. Die hierf{\"u}r erforderlichen Informationen k{\"o}nnen nur Beobachtung der Kunden gewonnen werden. Dann hat ein Unternehmen einen Informationsvorsprung gegen{\"u}ber seinen Konkurrenten in Bezug auf die Charakteristika seiner Kunden. Dieses Effekte begr{\"u}nden, warum Informationsbeschr{\"a}nkungen und Marktmacht auf einem Versicherungsmarkt immanent sind. Versicherungsnehmer, die sich gegen ein Schadensrisiko absichern, stehen Versicherungsschutz und Pr{\"a}vention als substitutive Instrumente zur Verf{\"u}gung. Die geeignete Wahl der Versicherungspr{\"a}mie kann effiziente Pr{\"a}vention seitens der Versicherungsnehmer bewirken. Wenn wegen der Informationsbeschr{\"a}nkung verschiedene Risikoklassen nicht identifiziert werden k{\"o}nnen, kann nur eine einheitliche Pr{\"a}mie f{\"u}r alle Klassen erhoben werden. Dann kann effiziente Pr{\"a}vention nicht bei allen Risikoklassen vorliegen. Ein Eingriff, der diese negativen Wohlfahrtseffekte abmildern kann, besteht in der Vorgabe einer fixen Versicherungsdeckung, so daß die Anreize der verschiedenen Risikoklassen in die richtige Richtung gelenkt werden. Die Marktmacht eines Unternehmens erm{\"o}glicht ihm, risikoklassenspezifische Pr{\"a}mien {\"u}ber der fairen Pr{\"a}mie zu w{\"a}hlen. Ein Unternehmen hat stets den Anreiz zu Pr{\"a}miendifferenzierung, da es ihm einen h{\"o}heren Gewinn zu erzielen erlaubt. Dagegen ergibt eine Wohlfahrtsuntersuchung, daß eine einheitliche Pr{\"a}mie sozial w{\"u}nschenswert ist. Ein Verbot der Pr{\"a}miendifferenzierung ist ein einfaches Mittel, f{\"u}r welches bei einem staatlichen Eingriff nur sehr geringen Informationsanforderungen bestehen. Es zeigt sich, daß die negativen Auswirkungen der Marktmacht dadurch abzumildern sind, indem die Marktmacht eingeschr{\"a}nkt wird, und zwar indem dem Unternehmen nicht die Nutzung aller Wettbewerbsinstrumente gestattet wird.}, subject = {Deutschland}, language = {de} } @phdthesis{Grub2005, author = {Grub, Martin}, title = {Verteilungswirkungen anreizorientierter Sozialpolitik : das deutsche Rentenversicherungs- und Steuersystem in der Perspektive dynamischer Lebenszyklusmodelle}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-16163}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Drei große Reformenpakete und eine Reihe kleinerer Begleitmaßnahmen pr{\"a}gen das renten¬politische Erbe der rot-gr{\"u}nen Bundesregierung. Einerseits greifen sie Trends in der Reformpolitik seit Beginn der 90er Jahre auf. So verst{\"a}rkt die Rentenstrukturreform 2001 beispielsweise die rentenrechtliche Anerkennung von Erziehung und Pflege. Eine ver{\"a}nderte Rentenformel wird die Transitionslasten des demographischen {\"U}bergangs mittelfristig gleichm{\"a}ßiger {\"u}ber die Jahrg{\"a}nge verteilen - durch eine Eind{\"a}mmung des Beitrags¬satz¬anstiegs auf Kosten eines langsamer wachsenden Rentenniveaus. Die Nachhaltig¬keitsreform 2004 verst{\"a}rkt diesen Mechanismus auf der Grundlage neuer empirischer Erkenntnisse. Auch der {\"U}bergang zur {\"u}berwiegend nachgelagerten Besteuerung mit dem Alterseink{\"u}nftegesetz 2004 wirkt in diese Richtung durch eine wachsende steuerliche Absetz¬barkeit der Alters¬sicherungsbeitr{\"a}ge bei konsekutiver Einbeziehung der Renten in die Besteuerung. Auf der anderen Seite leiten die Reformen nichts Geringeres als einen tief greifenden Paradigmen¬wechsel ein: den langfristigen {\"U}bergang eines umlagefinanzierten Pflichtversicherungs¬- zu einem Drei-S{\"a}ulen-System, in dem Zulagen und Steuerabzugs¬mechanismen Anreize zur freiwilligen Erg{\"a}nzungsvorsorge in kapitalgedeckten Sicherungs¬instrumenten bilden. F{\"u}r die wissenschaftliche Gesetzesfolgenabsch{\"a}tzung stellen diese Reformen eine enorme Herausforderung dar. Es ist das Moment der Freiheit, das in jedweder kausalen Welt Verantwortung impliziert, und die politische Folgenabsch{\"a}tzung spannend und schwierig macht. Die {\"o}konomische Fachliteratur hat Mikrosimulationsmodelle als ein leistungsf{\"a}higes Analysewerkzeug entwickelt, fiskalische und distributive Konsequenzen "f{\"u}r den Tag danach" sehr detailliert absch{\"a}tzen zu k{\"o}nnen - ohne dabei Verhaltensreaktionen zu ber{\"u}cksichtigen. Verhaltensreaktionen hingegen stehen im Mittelpunkt der rasant wachsenden Literatur zu numerischen Gleichgewichtsmodellen. Angesichts begrenzter Rechenressourcen vereinfachen diese Modelle in der Regel die Risikostruktur des {\"o}konomischen Entscheidungsproblems, um sich auf wenige Zustands- und Entscheidungsvariablen beschr{\"a}nken zu k{\"o}nnen. Sie abstrahieren h{\"a}ufig von Unstetigkeiten in Budgetrestriktionen und konzentrieren sich auf station{\"a}re Zustandstransitionen. Viele dieser Instrumente sind daher wenig geeignet abzusch{\"a}tzen, wie sich Menschen an eine Reformpolitik anpassen, die lange {\"U}bergangs¬pfade vorsieht {\"u}ber mehrdimensionale, zeitinvariate Risikostrukturen, deren imperfekte Korrelationen zu einer risikodiversifizierenden Vorsorgestrategie genutzt werden kann. Das vorliegende Buch stellt ein dynamisch stochastisches Simulationsmodell im partiellen Erwartungsgleichgewicht vor. Sein Ziel ist, Anreize in der komplexen Interaktion der Reformen mit dem umfangreichen Regulierungsrahmen in einer risikoreichen Umwelt zu identifizieren. Die einzelnen Reformen, ihre algorithmische Abbildung in das dynamische Entscheidungsmodell und die partiellen Wirkungsmechanismen sind detailliert erl{\"a}utert. Eines der Hauptergebnisse zeigt sich {\"u}berraschender Weise darin, die beobachtbare Zur{\"u}ck¬haltung niedrigerer Einkommensklassen gegen{\"u}ber den neuen Sicherungs¬instrumenten ohne R{\"u}ckgriff auf (im {\"o}kokomischen Sinne) eingeschr{\"a}nkte Rationalit{\"a}ten erkl{\"a}ren zu k{\"o}nnen. Das Modell l{\"a}sst insbesondere in mittleren Lebenseinkommensbereichen hohe Erg{\"a}nzungs¬versicherungsraten erwarten - trotz der "u"-f{\"o}rmigen F{\"o}rderquoten in statischer Quer¬schnitts¬betrachtung. Diese auf den ersten Blickt wenig intuitive Eigenschaft des Modells l{\"a}sst sich im Gesamtkontext des Alterssicherungs- und Steuersystems {\"u}ber den erwarteten Lebenshorizont erkl{\"a}ren. Das Simulationsmodell wurde am Fraunhofer-Institut f{\"u}r Angewandte Informationstechnik FIT entwickelt und wird gegenw{\"a}rtig beim Verband der Rentenversicherungstr{\"a}ger (VDR) angewandt. Ein großer Dank gilt der finanziellen F{\"o}rderung durch das Forschungsnetzwerk Alterssicherung (FNA) beim VDR.}, subject = {Deutschland}, language = {de} } @phdthesis{Ganz2008, author = {Ganz, Verena}, title = {A comprehensive approach for currency crises theories stressing the role of the anchor country}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-26853}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {The approach is based on the finding that new generations of currency crises theories always had developed ex post after popular currency crises. Discussing the main theories of currency crises shows their disparity: The First Generation of currency crises models argues based on the assumption of a chronic budget deficit that is being monetized by the domestic central bank. The result is a trade-off between an expansionary monetary policy that is focused on the internal economic balance and a fixed exchange rate which is depending on the rules of interest parity and purchasing power parity. This imbalance inevitably results in a currency crisis. Altogether, this theory argues with a disrupted external balance on the foreign exchange market. Second Generation currency crises models on the other side focus on the internal macroeconomic balance. The stability of a fixed exchange rate is depending on the economic benefit of the exchange rate system in relation to the social costs of maintaining it. As soon as social costs are increasing and showing up in deteriorating fundamentals, this leads to a speculative attack on the fixed exchange rate system. The term Third Generation of currency crises finally summarizes a variety of currency crises theories. These are also arguing psychologically to explain phenomena as contagion and spill-over effects to rationalize crises detached from the fundamental situation. Apart from the apparent inconsistency of the main theories of currency crises, a further observation is that these explanations focus on the crisis country only while international monetary transmission effects are left out of consideration. These however are a central parameter for the stability of fixed exchange rate systems, in exchange rate theory as well as in empirical observations. Altogether, these findings provide the motivation for developing a theoretical approach which integrates the main elements of the different generations of currency crises theories and which integrates international monetary transmission. Therefore a macroeconomic approach is chosen applying the concept of the Monetary Conditions Index (MCI), a linear combination of the real interest rate and the real exchange rate. This index firstly is extended for international monetary influences and called MCIfix. MCIfix illustrates the monetary conditions required for the stability of a fixed exchange rate system. The central assumption of this concept is that the uncovered interest parity is maintained. The main conclusion is that the MCIfix only depends on exogenous parameters. In a second step, the analysis integrates the monetary policy requirements for achieving an internal macroeconomic stability. By minimizing a loss function of social welfare, a MCI is derived which pictures the economically optimal monetary policy MCIopt. Instability in a fixed exchange rate system occurs as soon as the monetary conditions for an internal and external balance are deviating. For discussing macroeconomic imbalances, the central parameters determining the MCIfix (and therefore the relation of MCIfix to MCIopt) are discussed: the real interest rate of the anchor country, the real effective exchange rate and a risk premium. Applying this theory framework, four constellations are discussed where MCIfix and MCIopt fall apart in order to show the central bank's possibilities for reacting and the consequences of that behaviour. The discussion shows that the integrative approach manages to incorporate the central elements of traditional currency crises theories and that it includes international monetary transmission instead of reducing the discussion on an inconsistent domestic monetary policy. The theory framework for fixed exchange rates is finally applied in four case studies: the currency crises in Argentina, the crisis in the Czech Republic, the Asian currency crisis and the crisis of the European Monetary System. The case studies show that the developed monetary framework achieves integration of different generations of crises theories and that the monetary policy of the anchor country plays a decisive role in destabilising fixed exchange rate systems.}, subject = {Devisenmarkt}, language = {en} } @phdthesis{Ahn2007, author = {Ahn, Young-Cheul}, title = {Umweltverschmutzung als l{\"a}nder{\"u}bergreifendes Problem am Beispiel der globalen Erw{\"a}rmung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-22860}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Diese Arbeit versucht, die wirtschaftliche Bedeutung der globalen Erw{\"a}rmung zu erkl{\"a}ren und die L{\"o}sung dieses Problems zu finden. Die globale Erw{\"a}rmung als l{\"a}nder{\"u}bergreifendes Problems kann durch das marktwirtschaftliche Preissystem gel{\"o}st werden, besonders durch den internationalen Handel der Schadstoffemission. Hierbei wird die dezentrale L{\"o}sungsprinzip betont. Die globale Erw{\"a}rmung und Politik f{\"u}r die L{\"o}sung dieses Problem sind dauerhaft. Daher wird das intertemporale Wachstumsmodell zur Berechnung des Gewinns und der Kosten der Politik verlangt. Dabei wird ein Prinzip besagt, dass jede Generation verantwortlich auf ihre Generation ist. In dieser Arbeit wird versucht, die optimale Handelspolitik und die Kyoto-Politik zu vergleichen.}, language = {de} } @phdthesis{Mayer2006, author = {Mayer, Eric}, title = {New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19499}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {No abstract available}, subject = {Geldtheorie}, language = {en} } @phdthesis{Kleer2008, author = {Kleer, Robin}, title = {Three Essays on Competition Policy and Innovation Incentives}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-34763}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Diese Dissertation befasst sich mit dem Thema Innovations{\"o}konomik. In einer allgemeinen Einf{\"u}hrung werden wettbewerbspolitische Gesichtspunkte, die Innovationsanreize von Firmen beeinflussen, dargestellt. In drei einzelnen Arbeiten werden dann spezielle Fragestellungen intensiver analysiert. Die erste Arbeit behandelt die Wechselwirkungen von Firmenzusammenschl{\"u}ssen und Innovationen, zwei zentrale Elemente der Wettbewerbsstrategie von Unternehmen. Der Schwerpunkt der Arbeit liegt dabei auf dem Einfluss von Firmenzusammenschl{\"u}ssen auf die Innovationsaktivit{\"a}ten und den Wettbewerb im Produktmarkt. Dabei werden auch m{\"o}gliche Ineffizienzen, die sich durch Probleme bei der Integration der Firmen nach dem Zusammenschluss ergeben, untersucht. Es wird gezeigt, dass die optimale Investitionsaktivit{\"a}t sehr stark von der sich ergebenden Marktstruktur abh{\"a}ngt und es signifikante Unterschiede zwischen Insider und Outsider des Firmenzusammenschlusses gibt. In dem Modell mit linearer Nachfragefunktion und konstanten Grenzkosten steigern Zusammenschl{\"u}sse die soziale Wohlfahrt. Die zweite Arbeit betrachtet die unterschiedlichen Vorteile von kleinen und großen Firmen im Innovationswettbewerb. W{\"a}hrend große Firmen typischerweise {\"u}ber einen besseren Zugang zu Produktm{\"a}rkten verf{\"u}gen, weisen kleine Firmen h{\"a}ufig eine bessere Forschungseffizienz auf. Diese verschiedenen Vorteile werfen unmittelbar die Frage nach Kooperationen auf. Im dargestellten Modell mit vier Unternehmen haben große Firmen die M{\"o}glichkeit kleine Firmen zu kaufen. Innovationen werden mittels Patentwettbewerb modelliert. Sequentielles Bieten erm{\"o}glicht es der ersten großen Firma strategisch zu handeln um eine Reaktion der zweiten großen Firma hervorzurufen. Ergeben sich hohe Effizienzen durch den Firmenzusammenschluss, so bevorzugen die großen Firmen eine unmittelbare Akquisition und es entsteht eine symmetrische Marktstruktur. Bei geringen Effizienzen wartet die erste Firma dagegen ab und zwingt die zweite Firma dadurch zum Kauf. Somit entsteht trotz symmetrischer Ausgangssituation eine asymmetrische Marktstruktur. Weiterhin wird gezeigt, dass Akquisitionen die Chancen f{\"u}r eine erfolgreiche Innovation erh{\"o}hen. Die dritte Arbeit befasst sich mit Forschungssubventionen. Dabei wird neben dem eigentlichen Ziel der Subvention -- der F{\"o}rderung sozial erw{\"u}nschter Projekte, die nicht gen{\"u}gend private Anreize zur Durchf{\"u}hrung bieten -- die Signalwirkung einer Subvention betrachtet. Eine Staatsbeh{\"o}rde untersucht dabei die Projekte auf Risiken und Wohlfahrtswirkungen und entscheidet daraufhin {\"u}ber eine F{\"o}rderung. Dies wird in einem einfachen Signalisierungsspiel mit zwei Risikoklassen von Forschungsprojekten modelliert. Die Staatsbeh{\"o}rde bevorzugt dabei riskante Projekte, die hohe erwartete soziale Gewinne versprechen, w{\"a}hrend Banken wenig riskante Projekte mit hohen privaten Gewinnen bevorzugen. Erm{\"o}glicht die Subvention lediglich die Unterscheidung von riskanten und weniger riskanten Projekten, so ist das Signal der Beh{\"o}rde wenig hilfreich f{\"u}r die Investitionsenscheidung der Banken. Bietet das Signal jedoch zus{\"a}tzlich einen Hinweis auf die Qualit{\"a}t der Projekte, so k{\"o}nnen sich erh{\"o}hte, bzw. effizienter ausgew{\"a}hlte, private Investitionen ergeben. Im letzten Kapitel werden die wichtigsten Aussagen zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erl{\"a}utert.}, subject = {Wettbewerbspolitik}, language = {en} } @misc{Fricke2008, author = {Fricke, Holger}, title = {Deutschland dezentral - Potenziale, Probleme, politische Perspektiven}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-36106}, year = {2008}, abstract = {Dezentrale, wettbewerblich organisierte f{\"o}derale Ordnungen, bei denen zentrale Kompetenzen auf niedrigen institutionellen Ebenen liegen und in denen Gebietsk{\"o}rperschaften eine vergleichsweise geringe Gr{\"o}ße aufweisen, sind mit betr{\"a}chtlichen Vorteilen verbunden. So ist es besser m{\"o}glich, den Pr{\"a}ferenzen der B{\"u}rger gerecht zu werden. Außerdem wird ein h{\"o}heres Wirtschaftswachstum angeregt. Die in der Theorie genannten Nachteile (unausgesch{\"o}pfte Gr{\"o}ßenvorteile, negative Auswirkungen externer Effekte, race to the bottom bei {\"o}ffentlichen Leistungen und Sozialstaat) finden hingegen nur geringe empirische Best{\"a}tigung. Vor diesem Hintergrund ist der kooperative F{\"o}deralismus der Bundesrepublik Deutschland kritisch zu bewerten. Insbesondere der L{\"a}nderfinanzausgleich als Kernelement der bundesstaatlichen Ordnung in Deutschland ist ineffizient und bremst das Wirtschaftswachstum. Um von den Vorteilen dezentraler, wettbewerblicher f{\"o}deraler Ordnungen profitieren zu k{\"o}nnen, sollte den Bundesl{\"a}ndern insbesondere substanzielle Finanzautonomie einger{\"a}umt werden. Die Heterogenit{\"a}t politischer Pr{\"a}ferenzen abh{\"a}ngig von gew{\"a}hlter staatlicher Ebene, Gr{\"o}ße von Gebietsk{\"o}rperschaften und simulierten L{\"a}nderneugliederungen wurde anhand von Bundestagswahlergebnissen untersucht. Die entsprechende Analyse befindet sich als Anhang an dieser Stelle, w{\"a}hrend die Dissertation in gedruckter Form erschienen ist.}, subject = {Fiskalf{\"o}deralismus}, language = {de} } @phdthesis{Stark2006, author = {Stark, Peter}, title = {Funktionalit{\"a}t, Effizienz und Deregulierungspotentiale der {\"o}ffentlichen Straßeninfrastrukturbereitstellung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-27479}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Innerhalb der Verkehrsinfrastrukturen ist das Straßenwesen mit seinen individualistischen und flexiblen Kraftfahrzeugen der große Gewinner des letzen Jahrhunderts. Trotz seines individualistischen Nutzungscharakters und privatwirtschaftlichen Beispielen in anderen L{\"a}ndern ist in Deutschland heute keine andere Verkehrsinfrastruktur so weit von einer Deregulierung entfernt wie die Straßen. Den Ausgangspunkt der Erkl{\"a}rung dieser Rigidit{\"a}t bildet eine Situationsaufnahme der bestehenden Marktorganisation. Pr{\"a}gnant erweist sich die tiefe Integration der Straßenbereitstellung in die {\"o}ffentliche Verwaltung und Entscheidungen {\"u}ber den politischen Prozess unter Beteiligung aller Gesellschaftsgruppierungen. Fragen wirft dabei unter anderen die kontroverse Diskussion um die Externalit{\"a}ten der Straßen und ihres Verkehrs auf. Die Kl{\"a}rung verweist auf eine Effizienzbetrachtung des bestehenden Bereitstellungssystems. Problematisch zeigt sich hier aufgrund der politischen Heterogenit{\"a}t der Gesellschaftsgruppierungen insbesondere der politische Entscheidungsprozess. Die Suche nach einer L{\"o}sung verweist auf privatwirtschaftliche Bereitstellungsalternativen. Es zeigt sich, dass hierf{\"u}r sowohl in rechtlicher wie auch technischer Hinsicht die notwendigen Rahmenbedingungen f{\"u}r eine privatwirtschaftliche Organisation ebenso bestehen wie auch erhebliche Effizienzgewinne zu erwarten w{\"a}ren. Als eigentliches Hindernis identifiziert sich auch hier eine Neuordnung, die notwendigerweise {\"u}ber den politischen Prozess stattfindenden muss. Der eigene Erfolg der Straßen mit seiner gewachsenen verkehrs- und fiskalpolitischen Bedeutung blockiert damit heute mehr denn je Hoffnungen auf eine L{\"o}sung der aufgelaufenen Probleme im Straßenwesen.}, subject = {OKSTRA}, language = {de} } @phdthesis{Wollmershaeuser2003, author = {Wollmersh{\"a}user, Timo}, title = {A theory of managed floating}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8676}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as 'independent floaters' in the IMF statistics were charaterised by a pronounced 'fear of floating' and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that - even though it is widely used in practice - has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few 'middle-ground' economists, John Williamson, who argued that "managed floating is not a regime with well-defined rules" (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank's final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker's quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank's final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank's effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables.}, language = {en} } @phdthesis{Huelsewig2003, author = {H{\"u}lsewig, Oliver}, title = {Bank lending and monetary policy transmission in Germany}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8686}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {This study investigates the credit channel in the transmission of monetary policy in Germany by means of a structural analysis of aggregate bank loan data. We base our analysis on a stylized model of the banking firm, which specifies the loan supply decisions of banks in the light of expectations about the future course of monetary policy. Using the model as a guide, we apply a vector error correction model (VECM), in which we identify long-run cointegration relationships that can be interpreted as loan supply and loan demand equations. In this way, the identification problem inherent in reduced form approaches based on aggregate data is explicitly addressed. The short-run dynamics is explored by means of innovation analysis, which displays the reaction of the variables in the system to a monetary policy shock. The main implication of our results is that the credit channel in Germany appears to be effective, as we find that loan supply effects in addition to loan demand effects contribute to the propagation of monetary policy measures.}, language = {en} } @phdthesis{Schlegtendal2003, author = {Schlegtendal, G{\"o}tz}, title = {Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Ber{\"u}cksichtigung betriebswirtschaftlicher Aspekte}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-5277}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gr{\"u}nde ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit {\"u}ber verschiedene Theorien erkl{\"a}rt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, {\"u}berh{\"o}hte Reall{\"o}hne zur{\"u}ckgef{\"u}hrt werden. Unterschiedliche Einfl{\"u}sse verhindern dann ein Absinken des Lohnniveaus auf ein vollbesch{\"a}ftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungen{\"u}genden Anpassungskapazit{\"a}ten an ver{\"a}nderte Rahmenbedingungen sind eine weitere Begr{\"u}ndung f{\"u}r die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer H{\"o}he und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, k{\"o}nnen einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungsl{\"o}hne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivit{\"a}tsorientierten Entlohnung bei, mit positiven Effekten f{\"u}r Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman's kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erh{\"o}hter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitspl{\"a}tze sichern. Neben diesen drei Hauptformen werden auch Investivl{\"o}hne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivl{\"o}hne (zur {\"U}berwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und F{\"u}hrungskr{\"a}ften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung erg{\"a}nzt werden k{\"o}nnen. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige L{\"o}sung der Arbeitslosigkeit bietet. Vielmehr m{\"u}ssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die H{\"o}he und Ausgestaltung der Lohnersatzleistungen sowie die St{\"a}rkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen.}, subject = {Arbeitsmarkt}, language = {de} } @phdthesis{Roennberg2010, author = {R{\"o}nnberg, Michael}, title = {Bedeutung der Spezifikation f{\"u}r Ratingmodelle}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-48895}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {Ziel dieser Arbeit ist die Untersuchung der Bedeutung der Spezifikation f{\"u}r Ratingmodelle zur Prognose von Kreditausfallwahrscheinlichkeiten. Ausgehend von dem in der Bankenpraxis etablierten Logit-Modell werden verschiedene Modellerweiterungen diskutiert und hinsichtlich ihrer Eigenschaften als Ratingmodelle empirisch und simulationsbasiert untersucht. Die Interpretierbarkeit und die Prognoseg{\"u}te der Modelle werden dabei gleichermaßen ber{\"u}cksichtigt. Besonderes Augenmerk wird auf Mixed Logit-Modelle zur Abbildung individueller Heterogenit{\"a}t gelegt. Die Ergebnisse zeigen, dass die Spezifikation einen wichtigen Einfluss auf die Eigenschaften von Ratingmodellen hat und dass insbesondere mit Hilfe von Mixed Logit-Ans{\"a}tzen sinnvoll interpretierbare Ratingmodelle mit guten Prognoseeigenschaften erlangt werden k{\"o}nnen.}, subject = {Bank}, language = {de} } @phdthesis{Wismer2013, author = {Wismer, Sebastian}, title = {Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-99102}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework.}, subject = {Industrie{\"o}konomie}, language = {en} } @phdthesis{DonadoGomez2011, author = {Donado Gomez, Alejandro}, title = {Trade Unions and Occupational Health and Safety}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-56076}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {This thesis comprises three essays that study the impact of trade unions on occupational health and safety (OHS). The first essay proposes a theoretical model that highlights the crucial role that unions have played throughout history in making workplaces safer. Firms traditionally oppose better health standards. Workplace safety is costly for firms but increases the average health of workers and thereby the aggregate labour supply. A laissez-faire approach in which firms set safety standards is suboptimal as workers are not fully informed of health risks associated with their jobs. Safety standards set by better-informed trade unions are output and welfare increasing. The second essay extends the model to a two-country world consisting of the capital-rich "North" and the capital-poor "South". The North has trade unions that set high OHS standards. There are no unions in the South and OHS standards are low. Trade between these two countries can imply a reduction in safety standards in the North, lowering the positive welfare effects of trade. Moreover, when trade unions are also established in the South, northern OHS standards might be further reduced. The third essay studies the impact of unions on OHS from an empirical perspective. It focuses on one component of OHS: occupational injuries. A literature summary including 25 empirical studies shows that most studies associate unions with less fatal occupational injuries. This is in perfect line with the anecdotal evidence and the basic model from the first essay. However, the literature summary also shows that most empirical studies associate unions with more nonfatal occupational injuries. This puzzling result has been explained in the literature by (1) lower underreporting in unionized workplaces, (2) unions being more able to organize hazardous workplaces, and (3) unionized workers preferring higher wages at the expense of better working conditions. Using individual-level panel data, this essay presents evidence against all these three explanations. However, it cannot reject the hypothesis that workers reduce their precautionary behaviour when they join a trade union. Hence, the puzzle seems to be due to a strong moral hazard effect. These empirical results suggest that the basic model from the first essay needs to be extended to account for this moral hazard effect.}, subject = {Arbeitsschutz}, language = {en} } @phdthesis{Brause2010, author = {Brause, Alexander F.}, title = {Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-55207}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research.}, subject = {Schwellenl{\"a}nder}, language = {en} } @phdthesis{Steinmetz2009, author = {Steinmetz, Alexander}, title = {Essays on Strategic Behavior and Dynamic Oligopoly Competition}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-47934}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {This thesis deals with three selected dimensions of strategic behavior, namely investment in R\&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R\&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R\&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R\&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R\&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays.}, subject = {Wettbewerbsstrategie}, language = {en} } @phdthesis{Schumm2009, author = {Schumm, Irene}, title = {Lessons Learned From Germany's 2001-2006 Labor Market Reforms}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-43705}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zun{\"a}chst wird ein {\"U}berblick {\"u}ber die wichtigsten {\"A}nderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, n{\"a}mlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verk{\"u}rzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte {\"O}konomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabh{\"a}ngiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise k{\"o}nnen die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden.}, subject = {Hartz-Reform}, language = {en} } @article{RoemeisHerwegMueller2022, author = {R{\"o}meis, Fabio and Herweg, Fabian and M{\"u}ller, Daniel}, title = {Salience bias and overwork}, series = {Games}, volume = {13}, journal = {Games}, number = {1}, issn = {2073-4336}, doi = {10.3390/g13010015}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-255213}, year = {2022}, abstract = {In this study, we enrich a standard principal-agent model with hidden action by introducing salience-biased perception on the agent's side. The agent's misguided focus on salient payoffs, which leads the agent's and the principal's probability assessments to diverge, has two effects: First, the agent focuses too much on obtaining a bonus, which facilitates incentive provision. Second, the principal may exploit the diverging probability assessments to relax participation. We show that salience bias can reverse the nature of the inefficiency arising from moral hazard; i.e., the principal does not necessarily provide insufficient incentives that result in inefficiently low effort but instead may well provide excessive incentives that result in inefficiently high effort.}, language = {en} } @phdthesis{Gruendler2018, author = {Gr{\"u}ndler, Klaus}, title = {A Contribution to the Empirics of Economic Development - The Role of Technology, Inequality, and the State}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-072-6 (Print)}, doi = {10.25972/WUP-978-3-95826-073-3}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-141520}, school = {W{\"u}rzburg University Press}, pages = {300}, year = {2018}, abstract = {This dissertation contributes to the empirical analysis of economic development. The continuing poverty in many Sub-Saharan-African countries as well as the declining trend in growth in the advanced economies that was initiated around the turn of the millennium raises a number of new questions which have received little attention in recent empirical studies. Is culture a decisive factor for economic development? Do larger financial markets trigger positive stimuli with regard to incomes, or is the recent increase in their size in advanced economies detrimental to economic growth? What causes secular stagnation, i.e. the reduction in growth rates of the advanced economies observable over the past 20 years? What is the role of inequality in the growth process, and how do governmental attempts to equalize the income distribution affect economic development? And finally: Is the process of democratization accompanied by an increase in living standards? These are the central questions of this doctoral thesis. To facilitate the empirical analysis of the determinants of economic growth, this dissertation introduces a new method to compute classifications in the field of social sciences. The approach is based on mathematical algorithms of machine learning and pattern recognition. Whereas the construction of indices typically relies on arbitrary assumptions regarding the aggregation strategy of the underlying attributes, utilization of Support Vector Machines transfers the question of how to aggregate the individual components into a non-linear optimization problem. Following a brief overview of the theoretical models of economic growth provided in the first chapter, the second chapter illustrates the importance of culture in explaining the differences in incomes across the globe. In particular, if inhabitants have a lower average degree of risk-aversion, the implementation of new technology proceeds much faster compared with countries with a lower tendency towards risk. However, this effect depends on the legal and political framework of the countries, their average level of education, and their stage of development. The initial wealth of individuals is often not sufficient to cover the cost of investments in both education and new technologies. By providing loans, a developed financial sector may help to overcome this shortage. However, the investigations in the third chapter show that this mechanism is dependent on the development levels of the economies. In poor countries, growth of the financial sector leads to better education and higher investment levels. This effect diminishes along the development process, as intermediary activity is increasingly replaced by speculative transactions. Particularly in times of low technological innovation, an increasing financial sector has a negative impact on economic development. In fact, the world economy is currently in a phase of this kind. Since the turn of the millennium, growth rates in the advanced economies have experienced a multi-national decline, leading to an intense debate about "secular stagnation" initiated at the beginning of 2015. The fourth chapter deals with this phenomenon and shows that the growth potentials of new technologies have been gradually declining since the beginning of the 2000s. If incomes are unequally distributed, some individuals can invest less in education and technological innovations, which is why the fifth chapter identifies an overall negative effect of inequality on growth. This influence, however, depends on the development level of countries. While the negative effect is strongly pronounced in poor economies with a low degree of equality of opportunity, this influence disappears during the development process. Accordingly, redistributive polices of governments exert a growth-promoting effect in developing countries, while in advanced economies, the fostering of equal opportunities is much more decisive. The sixth chapter analyzes the growth effect of the political environment and shows that the ambiguity of earlier studies is mainly due to unsophisticated measurement of the degree of democratization. To solve this problem, the chapter introduces a new method based on mathematical algorithms of machine learning and pattern recognition. While the approach can be used for various classification problems in the field of social sciences, in this dissertation it is applied for the problem of democracy measurement. Based on different country examples, the chapter shows that the resulting SVMDI is superior to other indices in modeling the level of democracy. The subsequent empirical analysis emphasizes a significantly positive growth effect of democracy measured via SVMDI.}, subject = {Wirtschaftsentwicklung}, language = {en} } @phdthesis{Schamberger2022, author = {Schamberger, Tamara Svenja}, title = {Methodological Advances in Composite-based Structural Equation Modeling}, isbn = {978-90-365-5375-9}, doi = {10.3990/1.9789036553759}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-276794}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package "cSEM" with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package "cSEM". This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in "Human Development". Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling.}, subject = {Structural Equation Modeling}, language = {en} } @phdthesis{Schuberth2019, author = {Schuberth, Florian}, title = {Composite-based Methods in Structural Equation Modeling}, doi = {10.25972/OPUS-15465}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-154653}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples.}, subject = {Strukturgleichungsmodell}, language = {en} }