@phdthesis{Ries2018, author = {Ries, Mathias}, title = {The Role of the Central Bank, Banks and the Bond Market in the Paradigm of Monetary Analysis}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-162997}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Als Folge der Finanzkrise 2008/09 sind unter einigen {\"O}konomen Zweifel an der Ad{\"a}quanz der theoretischen Modelle aufgekommen, insbesondere {\"u}ber diejenigen, die den Anspruch erheben, Finanzm{\"a}rkte und Banken zu modellieren. Aufgrund dieser Zweifel folgen einige {\"O}konomen einer neuen Str{\"o}mung, indem sie versuchen, ein neues Paradigma zu entwickeln, das auf einer geldwirtschaftlichen anstatt auf einer g{\"u}terwirtschaftlichen Theorie beruht. Der Hauptunterschied zwischen diesen beiden Sichtweisen ist, dass in einer G{\"u}terwirtschaft Geld keine essentielle Rolle spielt, wohingegen bei einer Geldwirtschaft jede Transaktion mit Geld abgewickelt wird. Grundlegend ist es deshalb wichtig zu kl{\"a}ren, ob eine Theorie, die Geld miteinschließt, zu anderen Schlussfolgerungen kommt als eine Theorie, die Geld außen vor l{\"a}sst. Ausgehend von dieser Problemstellung stelle ich im zweiten Kapitel die Schlussfolgerungen aus der g{\"u}terwirtschaftlichen Logik des Finanzsystems - modelliert durch die Loanable Funds-Theorie - der geldwirtschaftlichen Logik gegen{\"u}ber. Im Anschluss an die {\"U}berpr{\"u}fung der Schlussfolgerungen beschreibe ich drei Theorien {\"u}ber Banken. Hierbei beschreibt die sog. endogene Geldsch{\"o}fpungstheorie, in der die Zentralbanken die Kreditvergabe der Banken durch Preise steuern, unsere Welt am besten. Die endogene Geldsch{\"o}pfungstheorie ist die Basis f{\"u}r das theoretische Modell im dritten Kapitel. In diesem Modell handeln die Banken nach einem Gewinnmaximierungskalk{\"u}l, wobei die Ertr{\"a}ge aus dem Kreditgesch{\"a}ft erzielt werden und Kosten des Kreditausfallrisikos sowie Kosten durch die Refinanzierung (inklusive regulatorischer Vorschriften) enstehen. Hieraus leitet sich das Kreditangebot ab, das auf dem Kreditmarkt auf die Kreditnachfrage trifft. Die Kreditnachfrage wird durch die Kreditnehmer bestimmt, die f{\"u}r Konsumzwecke bzw. Investitionen Kredite bei Banken aufnehmen. Aus dem Zusammenspiel von Kreditangebot und Kreditnachfrage ergibt sich der gleichgewichtige Kreditzins sowie das gleichgewichtige Kreditvolumen, das Banken an Nichtbanken vergeben. Die Angebots- und Nachfrageseite, die auf dem Kreditmarkt miteinander interagieren, werden ausgehend vom theoretischen Modell empirisch f{\"u}r Deutschland im Zeitraum von 1999-2014 mit Hilfe eines Ungleichgewichtsmodells gesch{\"a}tzt, wobei sich zeigt, dass die Determinanten aus dem theoretischen Modell statistisch signifikant sind. Aufbauend auf dem theoretischen Bankenmodell wird das Modell im vierten Kapitel um den Bondmarkt erweitert. Der Bankenkredit- und der Bondmarkt sind im Gegensatz zur Beschreibung in der g{\"u}terwirtschaftlichen Analyse fundamental unterschiedlich. Zum Einen schaffen Banken Geld gem{\"a}ß der endogenen Geldsch{\"o}pfungstheorie. Sobald das Geld im Umlauf ist, k{\"o}nnen Nichtbanken dieses Geld umverteilen, indem sie es entweder f{\"u}r den G{\"u}terkauf verwenden oder l{\"a}ngerfristig ausleihen. Aufgrund des Fokusses auf das Finanzsystem in dieser Dissertation wird der Fall betrachtet, in dem Geld l{\"a}ngerfristig ausgeliehen wird. Das Motiv der Anbieter auf dem Bondmarkt, d.h. derjenigen, die Geld verleihen m{\"o}chten, ist {\"a}hnlich wie bei Banken getrieben von der Gewinnmaximierung. Ertr{\"a}ge k{\"o}nnen die Anbieter durch die Zinsen auf Bonds erwirtschaften. Kosten entstehen durch die Opportunit{\"a}tskosten der Geldhaltung als Depositen, den Kreditausfall des Schuldners sowie Kursverluste aufgrund von Zinsver{\"a}nderungen. Die geschilderte Logik basiert auf der Idee, dass Banken Geld schaffen, d.h. Originatoren von Geld sind, und das Geld auf dem Bondmarkt umverteilt wird und somit mehrfache Verwendung findet. Die beiden M{\"a}rkte sind sowohl angebots- als auch nachfrageseitig miteinander verkn{\"u}pft. Zum Einen refinanzieren sich Banken auf dem Bondmarkt, um die Fristentransformation, die durch die Kreditvergabe ensteht, zu reduzieren. Des Weiteren haben Kreditnachfrager die M{\"o}glichkeit, entweder Bankkredite oder Kredite auf dem Bondmarkt nachzufragen. Nach der theoretischen Darstellung des Finanzsystems bestehend aus dem Banken- und Bondmarkt folgt im f{\"u}nften Kapitel die Anwendung des Modells bei Quantitative Easing. Hier ist festzustellen, dass Quantitative Easing bereits bei der Ank{\"u}ndigung der Zentralbank das Verhalten der Marktakteure beeinflusst. Die vier großen Zentralbanken (Bank of Japan, Bank of England, Federal Reserve Bank und Europ{\"a}ische Zentralbank) haben aufgrund der anhaltenden Rezession und der bereits niedrigen kurzfristigen Zinsen das unkonventionelle Instrument des Aufkaufs von Anleihen angewandt. Im theoretischen Modell beeinflusst die Zentralbank bereits durch die Ank{\"u}ndigung die Akteuere auf dem Bondmarkt, sodass es zu sinkenden Risikopr{\"a}mien, da die Zentralbank als sog. 'lender of confidence' auftritt, zu (zumindest kurzfristig) sinkenden Zinserwartungen sowie insgesamt zu sinkenden langfristigen Zinsen kommt. Diese drei Hypothesen werden anhand empirischer Methoden f{\"u}r die Eurozone {\"u}berpr{\"u}ft.}, language = {en} } @phdthesis{Scheuermeyer2018, author = {Scheuermeyer, Philipp}, title = {Macroeconomic Consequences of Income Inequality: Evidence from Panel Data Econometrics}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-161452}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Within three self-contained chapters, this dissertation provides new insights into the macroeconomic consequences of income inequality from a global perspective. Following an introduction, which summarizes the main findings and offers a brief overview of trends in income distribution, Chapter 2 evaluates the relationship between the labor share of income and the evolution of aggregate demand. Chapter 3 analyzes the link between income inequality and aggregate saving; and Chapter 4 directly estimates the effect of inequality and public redistribution on economic growth.}, subject = {Panelanalyse}, language = {en} } @phdthesis{Koellner2018, author = {K{\"o}llner, Sebastian}, title = {Essays on trade, inequality, and redistribution}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-152471}, school = {Universit{\"a}t W{\"u}rzburg}, pages = {203}, year = {2018}, abstract = {Die vorliegende Dissertation besch{\"a}ftigt sich mit den Auswirkungen der Globalisierung auf den Arbeitsmarkt sowie der Analyse der Determinanten staatlicher Umverteilung. Im Mittelpunkt steht dabei die empirische Auseinandersetzung mit diesen beiden Aspekten. Die in den letzten Jahrzehnten zu beobachtende {\"O}ffnung der M{\"a}rkte und die damit einhergehende steigende internationale Verflechtung wird in der Literatur neben dem technischen Fortschritt als Haupttreiber der wirtschaftlichen Entwicklung gesehen. In letzter Zeit jedoch ist die Globalisierung zunehmend in den Ruf geraten, verst{\"a}rkt negative Konsequenzen mit sich zu bringen, z.B. in Form h{\"o}herer Ungleichheit bzw. einer h{\"o}heren Volatilit{\"a}t der Besch{\"a}ftigung. Das zweite Kapitel untersucht den Einfluss der zunehmenden Importpenetration (in Form steigender importierter Vorprodukte) auf die Besch{\"a}ftigung im verarbeitenden Gewerbe in 12 OECD-Staaten. Die Ergebnisse deuten auf einen insgesamt leicht positiven Besch{\"a}ftigungseffekt der zunehmenden internationalen Verflechtung, wobei auf eine Vielzahl an zus{\"a}tzlichen Einflusskan{\"a}len, verschiedene Modellspezifikationen sowie unterschiedliche Maße der Importpenetration kontrolliert wird. In Abh{\"a}ngigkeit vom Ursprungsland der importierten Vorprodukte differieren die Arbeitsmarkteffekte jedoch deutlich. W{\"a}hrend Importe aus den alten EU-Mitgliedsstaaten komplement{\"a}r zur Industriebesch{\"a}ftigung in den beobachteten OECD-L{\"a}ndern wirken, kann eine substitutive Beziehung f{\"u}r importierte Vorprodukte aus China und den neuen EU-Mitgliedsstaaten beobachtet werden. Die Resultate unterscheiden sich f{\"u}r die einzelnen Volkswirtschaften zum Teil sp{\"u}rbar. Dar{\"u}ber hinaus wird deutlich, dass die hierarchische Struktur der Daten nur eine untergeordnete Rolle spielt, w{\"a}hrend die Ber{\"u}cksichtigung von Endogenit{\"a}tsproblemen die Ergebnisse unber{\"u}hrt l{\"a}sst. Die ambivalenten Folgen der Globalisierung auf die Besch{\"a}ftigung verst{\"a}rken die Nachfrage nach dem Sozialstaat. Das folgende Kapitel analysiert daher die Bestimmungsgr{\"u}nde staatlicher Umverteilung f{\"u}r ein breites L{\"a}ndersample. Dabei geht es um die Frage, an welchen Faktoren sich staatliche Entscheidungstr{\"a}ger orientieren, wenn sie umverteilende Maßnahmen durchf{\"u}hren. Die Meltzer-Richard-Hypothese kann empirisch best{\"a}tigt werden, wobei der Einfluss abh{\"a}ngig vom Entwicklungsstand der L{\"a}nder ist. In reichen Nationen mit ausgepr{\"a}gten politischen Rechten ist der Zusammenhang zwischen Ungleichheit und Umverteilung sehr robust, wohingegen dies f{\"u}r {\"a}rmere L{\"a}nder mit weniger entwickelten politischen Rechten in weitaus geringerem Maße gilt. Dar{\"u}ber hinaus ist auch die Form der Einkommensverteilung entscheidend f{\"u}r die H{\"o}he der staatlichen Umverteilung. W{\"a}hrend die Mittelschicht ein Mehr an Umverteilungsmaßnahmen bef{\"u}rwortet, {\"u}ben Top-Einkommensbezieher ebenfalls einen signifikanten, jedoch negativen Einfluss auf die H{\"o}he der staatlichen Umverteilung aus. Niedrigeinkommensbezieher als eigentliche Hauptprofiteure von Umverteilungsmaßnahmen spielen hingegen keine zentrale Rolle im Entscheidungskalk{\"u}l der Politiker. Die Ergebnisse weisen zudem darauf hin, dass die H{\"o}he der gef{\"u}hlten Ungleichheit der Individuen f{\"u}r die Nachfrage nach Umverteilung wichtiger ist als die tats{\"a}chliche H{\"o}he der Ungleichheit. Im n{\"a}chsten Kapitel wird der im vorangegangenen Kapitel aufgestellte Untersuchungsrahmen um kulturelle Aspekte erweitert. Hintergrund ist der in den letzten Jahren zu beobachtende Anstieg von Migrationsstr{\"o}men und dessen m{\"o}gliche Auswirkungen auf die Sozialstaaten in den Aufnahmel{\"a}ndern. Dieses Kapitel analysiert die Auswirkungen von Kultur und ethnischer, religi{\"o}ser sowie kultureller Diversit{\"a}t auf die H{\"o}he der staatlichen Umverteilung f{\"u}r ein breites L{\"a}ndersample. Ausgangspunkt f{\"u}r die Messung von Kultur sind die Kulturdimensionen nach Hofstede, die um zus{\"a}tzliche kulturelle Indikatoren sowie verschiedene Maße von Diversit{\"a}t erweitert werden. Um kulturelle Charakteristika von institutionellen Gegebenheiten zu trennen, werden sowohl regionale als auch externe Instrumente verwendet. Die Ergebnisse deuten auf einen ambivalenten Einfluss von Kultur auf die H{\"o}he staatlicher Umverteilung. W{\"a}hrend in L{\"a}ndern mit einem hohen Maß an Individualismus und gegenseitigem Vertrauen sowie geringen famili{\"a}ren Bindungen mehr umverteilt wird, kann das Gegenteil f{\"u}r L{\"a}nder mit hoher Machtdistanz und der Vorstellung, dass pers{\"o}nlicher Erfolg das Ergebnis harter Arbeit ist, beobachtet werden. Die empirischen Befunde weisen zudem auf einen negativen, jedoch nicht-linearen Zusammenhang zwischen Umverteilung und Diversit{\"a}t.}, subject = {Globalisierung}, language = {en} } @phdthesis{Muthers2017, author = {Muthers, Johannes}, title = {Essays in Industrial Organization}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-141671}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {The dissertation deals with the market and welfare effects of different business practices and the firm's incentives to use them: resale price maintenance, revenue sharing of a platform operator, membership fees to buyers using a platform and patent licensing. In the second chapter we investigate the incentives of two manufacturers with common retailers to use resale price maintenance (RPM). Retailers provide product specific services that increase demand and manufacturers use minimum RPM to compete for favorable services for their products. Minimum RPM increases consumer pricesby voiding retailer price competition and can create a prisoner's dilemma for manufacturers without increasing, and possibly even decreasing the overall service level. If manufacturer market power is asymmetric, minimum RPM tends to distort the allocation of sales services towards the high-priced products of the manufacturer with more market power. These results challenge the service argument as an efficiency defense for minimum RPM. The third chapter deals with trade platforms whose operators not only allow third party sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he uses classical two-part tariffs only (which previous literature on two-sided markets has focused on) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, some products that are not known to the platform operator will not be offered at all. We discuss the effects of different platform tariffs on this hold-up problem. We find that revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed charge proportional fees. The fourth chapter investigates the optimal tariff system in a model in which buyers are heterogeneous. A platform model is presented in which transactions are modeled explicitly and buyers can differ in their expected valuations when they decide to join the platform. The main effect that the model identifies is that the participation decision sorts buyers according to their expected valuations. This affects the pricing of sellers. Furthermore diffing form the usual approach, in which buyers are ex-ante homogeneous, the platform does not internalize the full transaction surplus. Hence it does not implement the socially efficient price on the platform, also it has control of the price with the transaction fee. The fifth chapter investigates the effects of licensing on the market outcome after the patent has expired. In a setting with endogenous entry, a licensee has a head start over the competition which translated into a first mover advantage if strategies are strategic substitutes. As competitive strategies quantities and informative advertising are considered explicitly. We find that although licensing increases the joint profit of the patentee and licensee, this does not necessarily come from a reduction in consumer surplus or other firms profits. For the case of quantity competition we show that licensing is welfare improving. For the case of informative advertising, however, we show that licensing increases prices and is thus detrimental to consumer surplus.}, subject = {Wettbewerbsverhalten}, language = {en} } @phdthesis{Coban2018, author = {Coban, Mustafa}, title = {Contributions to the Empirics of Immigration, Redistribution and Social Mobility}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-148934}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {In recent decades the international migration has increased worldwide. The influx of people from different cultures and ethnic groups poses new challenges to the labor market and the welfare state of the host countries and causes changes in the social fabric. In general, immigration benefits the economy of the host country. However, these gains from immigration are unevenly distributed among the native population. Natives who are in direct competition with the new workers expect wage losses and a higher probability of getting unemployed, whereas remaining natives foresee either no feedback effects or even wage gains. On the other hand, the tax and transfer system benefits disproportionally from an influx of highly skilled immigrants. Examinations of 20 European countries in 2010 show that a higher proportion of low-skilled immigrants in the immediate neighborhood of the natives increases the difference in the demand for redistribution between high-skilled and low-skilled natives. Thus, high-skilled natives are more opposed to an expansion of the governmental redistribution. On the one hand, a higher proportion of low-skilled immigrants generates a higher fiscal burden on the welfare state. On the other hand, high-skilled natives' wages increase due to an influx of low-skilled immigrants, since relative supply of high-skilled labor increases. In addition to the economic impact of immigration, the inflow of new citizens is accompanied by natives' fear of changes in the social environment as well as in symbolic values, such as cultural identity or natives' set of values. The latter might generate negative attitudes towards immigrants and increase the demand for a more restrictive immigration policy. On the other hand, more interethnic contact due to a higher ethnic diversity could reduce natives' information gaps, prejudices and stereotypes. This, in turn, could enhance more tolerance and solidarity towards immigrants among natives. Examinations of 18 European countries in 2014 show that more interethnic contact during everyday life reduces both the natives' social distance from immigrants and their fear of social upheaval by the presence of immigrants. However, natives' social distance from immigrants has no effect on their preference for redistribution, but their perceived threat to the national culture and social life by the presence of immigrants has a significantly negative impact on their demand for redistribution. Thus, natives' concern about the preservation of symbolic norms and values affects the solidarity channel of their redistribution preference. An individual's upward mobility over time or in relation to his or her parents determines his or her attitude towards the welfare state as well as the transfer of his or her opinions to his or her own children. With regard to intergenerational income mobility, Germany shows a value in the international midfield; higher than the United States (lower mobility) and lower than the Scandinavian countries (higher mobility). For example, if a father's lifetime income increases by 10 percent, his son's lifetime income increases by 4.9 percent in the United States and by 3.1 percent in Germany. Additionally, in Germany, fathers' lifetime income tends to show a higher impact on their sons' income if their incomes are higher. In the United States, fathers' lifetime incomes have a stronger influence on their sons' income at the lower and the upper end of the income distribution compared to the middle. Taking a closer look at the intragenerational wage mobility and wage inequality in Germany, the development at the current edge is rather sobering. Since 2000 there is a steady decline in wage mobility. Furthermore, wage mobility in the services sector has been significantly lower than in the manufacturing sector since the beginning of the 2000s. This result is mainly driven by the decrease of wage mobility in the health care and social services sector. Moreover, a worker's unemployment spells and occupation have become more important in the meantime. Since 2006 the increase in the German wage inequality has markedly slowed down and wage growth between 2006 and 2013 has been even polarized, i.e. wages at the lower and at the upper end of the wage distribution have increased more than wages in the middle. However, this development can be partly attributed to the computerization and automation of the production processes. Although, there was substitution of manual routine tasks between 2001 and 2013, cognitive routine tasks are still more pronounced in the middle and at the upper end of the wage distribution. Furthermore, the latter experienced an increase in wage mobility since 2000. On the other hand, manual non-routine tasks are localized disproportionally in the middle and at the lower end of the wage distribution. Thus, the wage gains of these occupations at the lower end were compensated for by the wage losses in the middle.}, subject = {Einwanderung}, language = {en} } @article{SchuberthHenselerDijkstra2016, author = {Schuberth, Florian and Henseler, J{\"o}rg and Dijkstra, Theo K.}, title = {Partial least squares path modeling using ordinal categorical indicators}, series = {Quality \& Quantity}, journal = {Quality \& Quantity}, doi = {10.1007/s11135-016-0401-7}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-144016}, year = {2016}, abstract = {This article introduces a new consistent variance-based estimator called ordinal consistent partial least squares (OrdPLSc). OrdPLSc completes the family of variance-based estimators consisting of PLS, PLSc, and OrdPLS and permits to estimate structural equation models of composites and common factors if some or all indicators are measured on an ordinal categorical scale. A Monte Carlo simulation (N =500) with different population models shows that OrdPLSc provides almost unbiased estimates. If all constructs are modeled as common factors, OrdPLSc yields estimates close to those of its covariance-based counterpart, WLSMV, but is less efficient. If some constructs are modeled as composites, OrdPLSc is virtually without competition.}, language = {en} } @phdthesis{Koepke2016, author = {Koepke, Robin}, title = {Capital Flows and Financial Stability in Emerging Markets: the Role of U.S. Monetary Policy}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-140524}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Die Dissertation besch{\"a}ftigt sich mit den Triebkr{\"a}ften der internationalen Kapitalstr{\"o}me in Schwellenl{\"a}nder sowie den Determinanten von Krisen in Schwellenl{\"a}ndern. Besonderes Augenmerk liegt dabei auf der Rolle der Geldpolitik in den USA. Die Dissertation besteht aus drei eigenst{\"a}ndigen Kapiteln. Kapitel 1 nimmt eine Bestandsaufnahme der umfangreichen empirischen Literatur zu den Triebkr{\"a}ften von Kapitalstr{\"o}men in Schwellenl{\"a}nder vor. Die empirische Evidenz hinsichtlich dieser Triebkr{\"a}fte ist entlang mehrer Dimensionen strukturiert. So werden die Triebkr{\"a}fte entsprechend des etablierten Paradigmas eingeordnet, nachdem zwischen externen Faktoren (z.B. US-Geldpolitik) und internen Faktoren (z.B. Wachstum in Schwellenl{\"a}ndern) unterschieden wird (Calvo et al. 1993). Eine umfassende Auswertung der empirischen Literatur zeigt, dass externe Faktoren Portfolioinvestitionen am meisten beeinflussen, gefolgt von Zufl{\"u}ssen von Banken. F{\"u}r Direktinvestitionen hingegen ist die empirische Evidenz hinsichtlich einer Reihe externer Faktoren nicht eindeutig. Interne Faktoren sind f{\"u}r alle drei Arten von Kapitalstr{\"o}men von erheblicher Bedeutung, insbesondere f{\"u}r Zufl{\"u}sse von Banken. Dar{\"u}ber hinaus unterscheidet die vorliegende Studie zwischen zyklischen und strukturellen Faktoren, die Kapitalstr{\"o}me beeinflussen. Eine historische Analyse deutet darauf hin, dass die Literatur die Bedeutung von zyklischen Faktoren zulasten l{\"a}ngerfristiger struktureller Trends {\"u}berbewertet hat. Kapitel 2 nimmt eine empirische Analyse der Triebkr{\"a}fte von Portfolioinvestitionen in Schwellenl{\"a}ndern vor, mit besonderem Fokus auf die Rolle der Geldpolitik der US-Zentralbank. Dabei werden zwei unterschiedliche Datens{\"a}tze zu hochfrequenten Portfolioinvestitionen mit Hilfe eines Zeitreihenmodells analysiert. Die empirische Analyse zeigt, dass Portfolioinvestitionen erheblich vom {\"U}berraschungsmoment der US-Geldpolitik getrieben werden. Wenn Marktteilnehmer ihre Erwartungen bez{\"u}glich des k{\"u}nftigen Pfades der Leitzinsen ver{\"a}ndern, dann hat dies direkte Auswirkungen auf das Verhalten von Portfolio-Kapitalstr{\"o}men. Eine Verschiebung der erwarteten Leitzinsen nach unten [nach oben] erh{\"o}ht [vermindert] die Portfoliozufl{\"u}sse in Schwellenl{\"a}nder. Dieses Ergebnis legt eine neue Interpretation der Rolle der US-Geldpolitik nahe. In der gegenw{\"a}rtigen Literatur besteht die zentrale {\"U}berzeugung hinsichtlich der Rolle der US-Geldpolitik darin, dass sich eine Erh{\"o}hung der Leitzinsen negativ auf Kapitalfl{\"u}sse in Schwellenl{\"a}nder auswirkt, unabh{\"a}ngig davon wie schnell die Leitzinsen erh{\"o}ht werden (z.B. Fernandez-Arias 1996). Die Ergebnisse der vorliegenden Arbeit hingegen deuten darauf hin, dass eine Straffung der US-Geldpolitik sich nicht notwendigerweise negativ auf Portfolioinvestitionen auswirkt. Negative Effekte bleiben insbesondere dann aus, wenn eine Zinserh{\"o}hung von den Marktteilnehmern bereits erwartetet und somit eingepreist war. Eine Erh{\"o}hung der Leitzinsen kann sogar mit positiven Effekten auf Kapitalstr{\"o}me einhergehen, n{\"a}mlich dann, wenn sie von einer Abw{\"a}rtsbewegung im erwarteten Pfad der Leitzinsen begleitet ist (zum Beispiel weil die Zentralbank signalisiert, dass weitere Zinserh{\"o}hungen nicht zu erwarten sind). Umgekehrt kann die US-Geldpolitik Portfolioinvestitionen auch ohne eine Erh{\"o}hung der Leitzinsen beeintr{\"a}chtigen, n{\"a}mlich dann, wenn Marktteilnehmer ihre Erwartungen hinsichtlich der k{\"u}nftigen Leitzinsen nach oben revidieren. Kapitel 3 untersucht die Rolle der US-Geldpolitik hinsichtlich ihres Einflusses auf das Auftreten von Krisen in Schwellenl{\"a}ndern. Es werden ein negativ-binomisches Z{\"a}hlmodell und ein Panel-Logitmodell {\"o}konometrisch gesch{\"a}tzt, um die Determinanten von W{\"a}hrungskrisen, Bankenkrisen und Staatsbankrotten in 27 Schwellenl{\"a}ndern zu analysieren. Die Sch{\"a}tzergebnisse deuten darauf hin, dass die Wahrscheinlichkeit von Krisen wesentlich h{\"o}her ist, (1) wenn die US-Leitzinsen {\"u}ber ihrem nat{\"u}rlichen Niveau liegen, (2) w{\"a}hrend Zinsanhebungszyklen, und (3) wenn Marktteilnehmer von Signalen {\"u}berrascht werden, dass die US-Zentralbank die Leitzinsen schneller als erwartet anheben wird. Diese Ergebnisse stehen im Gegensatz zur bestehenden Literatur, die interne Faktoren in Schwellenl{\"a}ndern als die dominante Ursache von Krisen ansieht (z.B. Gourinchas und Obstfeld 2012). Die Ergebnisse dieser Studie weisen auch auf ein erh{\"o}htes Risiko von Krisen in Schwellenl{\"a}ndern in den kommenden Jahren hin, wenn die US-Zentralbank wie erwartet die Leitzinsen weiterhin graduell anheben wird.}, subject = {Internationale Kapitalbewegung}, language = {en} } @article{BertholdBrunner2012, author = {Berthold, Norbert and Brunner, Alexander}, title = {Wie ungleich ist die Welt? Eine empirische Analyse}, series = {Perspektiven der Wirtschaftspolitik}, volume = {12}, journal = {Perspektiven der Wirtschaftspolitik}, number = {4}, issn = {1468-2516}, doi = {10.1111/j.1468-2516.2012.00377.x}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-194171}, pages = {372-396}, year = {2012}, abstract = {Kein Abstract verf{\"u}gbar.}, language = {de} } @phdthesis{Krebs2019, author = {Krebs, Oliver}, title = {Essays on International Trade, Regional Change and Structural Growth}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-174954}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {Diese Dissertationsschrift befasst sich mit der {\"o}konomischen Bedeutung von Regionen innerhalb Deutschlands. Regionen sind dabei aus zweierlei Sicht ein wichtiges Untersuchungsobjekt. Dies gilt zum Einen, da makro{\"o}konomische Schocks {\"u}ber Regionen Hinweg zu substantiell unterschiedlichen Effekten f{\"u}hren. Dringliche Themen wie die Robotisierung und die Verwendung k{\"u}nstlicher Intelligenz, der Brexit, oder US-amerikanische Z{\"o}lle werden W{\"u}rzburg anders Beeinflussen als Berlin und implizieren somit unterschiedliche Interessen bei der jeweiligen Bev{\"o}lkerung, den jeweiligen Firmen und Politikern. Zum Anderen k{\"o}nnen regionale {\"o}konomische Schocks wie Erfindungen, Insolvenzen, oder die Ansiedlung eines bedeutenden Betriebs durch Handel und „input-output" Verbindungen zu Schocks von makro{\"o}konomischer Bedeutung anwachsen. Allerdings sind regionale Heterogenit{\"a}ten innerhalb Deutschlands und die komplizierten Netzwerke verschiedenster Art zwischen Regionen weder gut dokumentiert noch ausreichenden verstanden. Dies gilt insbesondere auch f{\"u}r lokale Arbeitsm{\"a}rkte welche ein Kerninteressen der Regionalpolitik darstellen und ebenfalls von bedeutenden Heterogenit{\"a}ten gepr{\"a}gt sind. Die vorliegende Arbeit analysiert und quantifiziert das regionale Produktions- und Handelsnetzwerk innerhalb Deutschlands und untersucht welche Aspekte f{\"u}r die beobachteten breiten Unterschiede bei der Anpassung lokaler Arbeitsm{\"a}rkte an {\"o}konomische Schocks verantwortlich sind. Der erste Aufsatz, „How deep is your love? A quantitative spatial analysis of the transatlantic trade partnership", setzt sich dabei mit der Prognose von Effekten eines konkreten Schocks in Form des vorgeschlagenen transatlantischen Freihandelsabkommens (TTIP) auseinander. Die Arbeit findet einerseits nur m{\"a}ßige Wohlfahrtseffekte, sowohl f{\"u}r die Vereinigten Staaten als auch f{\"u}r die Europ{\"a}ische Union und Drittstaaten, andererseits zeigt sie, dass alle Landkreise in Deutschland Wohlfahrtsgewinne erzielen und es somit zumindest regional keine Verlierer des Abkommens geben w{\"u}rde. Der zweite Aufsatz, „RIOTs in Germany - Constructing an interregional input-output table for Germany", nutzt einen einzigartigen Datensatz von G{\"u}tersendungen per LKW, Zug oder Schiff zwischen allen 402 deutschen Landkreisen im Jahr 2010 um, mit Hilfe weiterer Daten, eine interregionale input-output Tabelle f{\"u}r Deutschland zu erstellen und die Verflechtungen lokaler M{\"a}rkte zu untersuchen. Der dritte Aufsatz, „On the Road (Again): Commuting and Local Employment Elasticities in Germany", analysiert die Bedeutung des Pendelns f{\"u}r lokale Arbeitsm{\"a}rkte. Es zeigt sich dabei, dass Pendelstr{\"o}me eine zentrale Marge bei der Anpassung an lokale Schocks darstellen und dass deutsche Arbeitsm{\"a}rkte wesentlich flexibler und anpassungsf{\"a}higer sind als weitl{\"a}ufig angenommen. Der vierte Aufsatz, „Shocking Germany - A spatial analysis of German regional labor markets", integriert Arbeitslosigkeit in die zur Prognose lokaler Schocks verwendeten quantitativen Modelle. Dadurch kann er den Effekte von durch Schocks ausgel{\"o}ster Migration innerhalb Deutschland auf lokale Arbeitsm{\"a}rkte quantifizieren. Es zeigt sich, dass die {\"A}nderung lokaler Arbeitslosigkeitsraten als Antwort auf lokale Produktivit{\"a}tsschocks durch Migration im Durchschnitt um 70 Prozent ged{\"a}mpft wird. Strukturelle Anpassung f{\"u}hren langfristig zu einer im Vergleich wesentliche geringeren {\"A}nderung dieser Raten.}, subject = {Außenhandel}, language = {en} } @phdthesis{Demmer2019, author = {Demmer, Claudia}, title = {Merger-specific Efficiency Gains}, doi = {10.25972/OPUS-18392}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-183928}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {The present thesis analyzes whether and - if so - under which conditions mergers result in merger-specific efficiency gains. The analysis concentrates on manufacturing firms in Europe that participate in horizontal mergers as either buyer or target in the years 2005 to 2014. The result of the present study is that mergers are idiosyncratic processes. Thus, the possibilities to define general conditions that predict merger-specific efficiency gains are limited. However, the results of the present study indicate that efficiency gains are possible as a direct consequence of a merger. Efficiency changes can be measured by a Total Factor Productivity (TFP) approach. Significant merger-specific efficiency gains are more likely for targets than for buyers. Moreover, mergers of firms that mainly operate in the same segment are likely to generate efficiency losses. Efficiency gains most likely result from reductions in material and labor costs, especially on a short- and mid-term perspective. The analysis of conditions that predict efficiency gains indicates that firm that announce the merger themselves are capable to generate efficiency gains in a short- and mid-term perspective. Furthermore, buyers that are mid-sized firms are more likely to generate efficiency gains than small or large buyers. Results also indicate that capital intense firms are likely to generate efficiency gains after a merger. The present study is structured as follows. Chapter 1 motivates the analysis of merger-specific efficiency gains. The definition of conditions that reasonably likely predict when and to which extent mergers will result in merger-specific efficiency gains, would improve the merger approval or denial process. Chapter 2 gives a literature review of some relevant empirical studies that analyzed merger-specific efficiency gains. None of the empirical studies have analyzed horizontal mergers of European firms in the manufacturing sector in the years 2005 to 2014. Thus, the present study contributes to the existing literature by analyzing efficiency gains from those mergers. Chapter 3 focuses on the identification of mergers. The merger term is defined according to the EC Merger Regulation and the Horizontal Merger Guidelines. The definition and the requirements of mergers according to legislation provides the framework of merger identification. Chapter 4 concentrates on the efficiency measurement methodology. Most empirical studies apply a Total Factor Productivity (TFP) approach to estimate efficiency. The TFP approach uses linear regression in combination with a control function approach. The estimation of coefficients is done by a General Method of Moments approach. The resulting efficiency estimates are used in the analysis of merger-specific efficiency gains in chapter 5. This analysis is done separately for buyers and targets by applying a Difference-In-Difference (DID) approach. Chapter 6 concentrates on an alternative approach to estimate efficiency, that is a Stochastic Frontier Analysis (SFA) approach. Comparable to the TFP approach, the SFA approach is a stochastic efficiency estimation methodology. In contrast to TFP, SFA estimates the production function as a frontier function instead of an average function. The frontier function allows to estimate efficiency in percent. Chapter 7 analyses the impact of different merger- and firm-specific characteristics on efficiency changes of buyers and targets. The analysis is based on a multiple regression, which is applied for short-, mid- and long-term efficiency changes of buyers and targets. Chapter 8 concludes.}, subject = {Verarbeitende Industrie}, language = {en} } @phdthesis{Winkler2020, author = {Winkler, Erwin}, title = {Essays on International Trade and Labor Market Outcomes}, doi = {10.25972/OPUS-20983}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-209832}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {This thesis contributes to the understanding of the labor market effects of international trade, with a focus on the effects on wage and earnings inequality. The thesis draws on high-quality micro data and applies modern econometric techniques and theoretical concepts to improve our understanding of the distributional effects of international trade. The thesis focuses on the effects in Germany and the USA.}, subject = {Arbeitsmarkt}, language = {en} } @phdthesis{Koch2011, author = {Koch, Daniel Friedrich}, title = {Wirksame Begrenzung von Staatsverschuldung unter Ber{\"u}cksichtigung (polit-){\"o}konomischer und ethischer Aspekte}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-67383}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {In den letzten Jahrzehnten griff die Staatsverschuldung in den meisten westlichen Staaten um sich wie ein wucherndes Krebsgeschw{\"u}r. Die Ereignisse im Zuge der Euro-Krise haben ein Schlaglicht auf die Gefahren dieser Entwicklung geworfen. Diese Arbeit untersucht die Frage, wie sich Staatsverschuldung wirksam begrenzen l{\"a}sst, wann dies n{\"o}tig ist und welche Komponenten daf{\"u}r ber{\"u}cksichtigt werden sollten. Sie betrachtet verschiedene Ans{\"a}tze zur Begrenzung von Staatsverschuldung, evaluiert sie, und versucht aus ihren St{\"a}rken und Schw{\"a}chen eine verbesserte Begrenzungsregel abzuleiten. Schließlich untermauert sie die gesellschaftliche Akzeptanz und Relevanz ihres Vorschlags, indem sie die Notwendigkeit und die m{\"o}gliche Ausgestaltung einer Begrenzungsregel nicht nur unter Effizienzgesichtspunkten betrachtet, sondern auch eine normative Untersuchung vornimmt. Die erarbeiteten Evaluierungskriterien und Vorschl{\"a}ge sollen gleichermaßen mit ethischen und {\"o}konomischen Anforderungen vereinbar sein. Es wird gezeigt, dass Staatsverschuldung aus Effizienzgr{\"u}nden wie auch aus ethischen {\"U}berlegungen begrenzt werden sollte. Sie zeigt, dass es ohne ein entsprechendes Reglement immer wieder zu einem staatsverschuldungsf{\"o}rderndem Politikversagen kommt. Andererseits teilt diese Arbeit aber nicht den weit verbreiteten Def{\"a}tismus, dass der Kampf gegen die ansteigende Verschuldung aussichtslos sei. Vielmehr wird ein Vorschlag erarbeitet, wie sich dieses Politikversagen aushebeln und solide Staatsfinanzen erzwingen lassen. Neben einer Reihe kleinerer Aspekte werden folgende vier zentralen Ergebnisse erarbeitet: 1. Es wird erstmals ein umfassender Kriterienkatalog entwickelt, der alle relevanten Theoriebereiche abdeckt, die systematische Evaluierung verschiedener Budgetregeln erm{\"o}glicht und als Schema f{\"u}r die Entwicklung neuer Budgetregeln dienen kann. Dieser Katalog in Form einer Kriterienmatrix operationalisiert die Erkenntnisse der volkswirtschaftlichen Forschung zu Charakter, Wirkung und Ursachen von Staatsverschuldung. Erstmals werden in dieser Arbeit die unterschiedlichen Theoriestr{\"a}nge innerhalb eines Kriterienkataloges verkn{\"u}pft. Denn nur so kann ein vollst{\"a}ndiges Bild gezeichnet werden, nur so kann ein Pr{\"u}fschema Anspruch auf Vollst{\"a}ndigkeit erheben, und nur so k{\"o}nnen Begrenzungskonzepte entwickelt werden, die auch erfolgversprechend sind. Die hier ausgearbeitete Kriterienmatrix schließt damit gleich zwei L{\"u}cken, indem sie bisher isolierte Erkenntnisse vereint und diese gleich in ein Analyseinstrument umwandelt, das Ausgangspunkt f{\"u}r weitere Diskussion sein kann. 2. Literatur und politische Praxis halten eine Vielzahl von Vorschl{\"a}gen zur Begrenzung von Staatsverschuldung bereit. Diese werden jedoch kaum verglichen und gegeneinander abgewogen. Dies mag auch an dem Fehlen eines geeigneten Analyseinstruments liegen. Dadurch gehen aber wertvolle Erkenntnisse verloren, die sich aus dem Abgleich von St{\"a}rken und Schw{\"a}chen ergeben. Diese Arbeit nutzt den hier neu entwickelten Analyserahmen, um den Vergleich und die Evaluation verschiedener Budgetregeln vorzunehmen. Dabei werden systematisch Vor- und Nachteile der verschiedenen Konzepte herausgearbeitet. Dieser Vergleich ist nicht nur f{\"u}r sich genommen interessant und lange {\"u}berf{\"a}llig, sondern kann auch f{\"u}r die Weiterentwicklung der Diskussion wertvoll sein. So zeigen sich in der, alle relevanten Theorien umfassenden Kriterienmatrix, blinde Flecken, die allen Ans{\"a}tzen gemein sind. 3. Ausgehend von der Kriterienmatrix und den Ergebnissen der Evaluierungen entwickelt diese Arbeit eine verbesserte Begrenzungsregel: die qualifizierte Lastenbremse. Diese basiert auf der Kriterienmatrix und den zuvor durchgef{\"u}hrten Evaluierungen. Dank dieser Analyse k{\"o}nnen einerseits die jeweils besten Elemente aus den bestehen Konzepten {\"u}bernommen, bzw. durch Modifikationen optimiert werden, andererseits k{\"o}nnen die zuvor identifizierten L{\"u}cken durch neue Vorschl{\"a}ge geschlossen werden. Im Kern wird vorgeschlagen, die anderweitig eingef{\"u}hrten Ans{\"a}tze des strukturellen Schuldenverbotes mit bestimmten Ausnahmen beizubehalten, und durch die hier neu entwickelten Konzepte der Staatsbilanz und der unabh{\"a}ngigen Kontrollinstanz mit Sanktionsrechten zu erweitern. Dieser Vorschlag erf{\"u}llt alle zuvor erarbeiteten Kriterien, d.h. er ber{\"u}cksichtig als einziger alle relevanten theoretischen Erkenntnisse zur Staatsverschuldung. Die qualifizierte Lastenbremse umfasst explizite und implizite Staatsverschuldung und begrenzt deren Anstieg nachhaltig. Dabei wahrt sie jedoch auch die n{\"o}tige Flexibilit{\"a}t. Vor allem aber schl{\"a}gt sie mehrere Sicherheitsmechanismen vor, welche die Wirksamkeit der Regel im politischen Alltag gew{\"a}hrleisten. So wird den Erkenntnissen der Neuen Politischen {\"O}konomie Rechnung getragen. 4. Schließlich bleibt diese Arbeit nicht dabei stehen, einen Vorschlag zu entwickeln, der allen {\"o}konomischen Kriterien gerecht wird. Sie begn{\"u}gt sich nicht damit, festzustellen, dass es effizient und wohlfahrtssteigernd w{\"a}re, wenn ihre Vorschl{\"a}ge umgesetzt w{\"u}rden. Sie geht einen Schritt weiter, wirft einen Blick {\"u}ber den Tellerrand der Volkswirtschaftslehre hinaus und fragt auch nach der Legitimit{\"a}t und dem ethischen Wert des Vorschlags. Dies geht von der Erkenntnis aus, dass eine solch tiefgreifende Maßnahme wie eine wirksame Schuldenbremse auch das normative Empfinden der B{\"u}rger widerspiegeln muss und dass die gesellschaftliche Relevanz und Durchsetzbarkeit einer Regel von einer Legitimit{\"a}t abh{\"a}ngt, die auf Effizienz und Ethik gleichermaßen fußt. Unbewusst wird diese Auffassung in weiten Teilen der {\"O}konomie geteilt, was sich daran zeigt, dass viele Arbeiten zur Staatsschuldbegrenzung auf Gerechtigkeitsaspekte und moralische Verpflichtungen Bezug nehmen. Sie kranken jedoch daran, dass ihre Annahme der ethischen Fragw{\"u}rdigkeit von Staatsverschuldung unbegr{\"u}ndet bleibt. Dadurch stehen sie auf wackeligen F{\"u}ßen. Diese L{\"u}cke wird hier geschlossen. Eine Analyse auf Basis der katholischen Soziallehre belegt die Zielkongruenz von normativen und {\"o}konomischen Anforderungen an die Fiskalpolitik. Es wird gezeigt, dass die hier vorgeschlagene Begrenzung von Staatsverschuldung nicht nur {\"o}konomisch, sondern auch ethisch geboten ist. Unterm Strich l{\"a}sst sich festhalten, dass diese Arbeit den weit verbreiteten Fatalismus im Bezug auf Politik und Staatsverschuldung nicht teilt. Ja, es stimmt, dass der politische Wettbewerb oft unerfreuliche fiskalpolitische Ergebnisse hervorbringt. Ja, es stimmt, dass die Entwicklung der Staatsfinanzen besorgniserregend ist. Ja, es besteht dringender Handlungsbedarf. Aber nein, diese Entwicklung ist nicht alternativlos. Nein, der Kampf gegen die Staatsverschuldung ist nicht aussichtslos. Und nein, die westlichen Demokratien sind nicht zwangsl{\"a}ufig dazu verdammt, immer weiter in die Schuldenfalle zu rutschen. Staatsverschuldung l{\"a}sst sich wirksam begrenzen und es gibt Mechanismen, mit denen das Politikversagen umgangen werden kann. Das Ringen um bessere Regeln ist die M{\"u}he wert. F{\"u}r eine wirksame Begrenzung von Staatsverschuldung einzutreten ist das Gebot der {\"o}konomischen Vernunft, wie auch ethische Verpflichtung.}, subject = {{\"O}ffentliche Schulden}, language = {de} } @phdthesis{Geiger2010, author = {Geiger, Michael}, title = {Monetary Policy in China: Institutions, Targets, Instruments and Strategies}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-69945}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {China's monetary policy aims to reach two final targets: a paramount economical target (i.e. price stability) and a less important political target (i.e. economic growth). The main actor of monetary policy is the central bank, the People's Bank of China (PBC). But the PBC is a non-independent central bank. The State Council approves the goals of monetary policy. Very limited instrument independence means that interest rates cannot be set at the PBC's discretion, and in-sufficient personal independence fails to insulate central bank officials from political influence. Monetary policy in China applies to two sets of monetary policy instruments: (i) instruments of the PBC; and (ii) non-central bank policy instruments. The instruments of the PBC include price-based indirect and quantity-based direct instruments. Non-central bank policy instruments include price and wage controls. The simultaneous usage of all these instruments leads to various distortions that ultimately prevent the interest rate channel of monetary transmission from functioning. Moreover, the strong influences of quantity-based direct instruments and non-central bank policy instruments bring into question the approach of indirect monetary policy in general. The PBC officially follows the monetary targeting approach with monetary aggregates as intermediate targets. Domestic loan growth and the exchange rate are defined as additional intermediate targets. In an in-depth analysis of the intermediate targets two main issues are primarily explored: (i) Are the intermediate targets of the Chinese monetary policy controllable? (ii) Is a sufficient relationship between these targets and the inflation rate observable? It is then shown that monetary aggregates are very difficult to control, but they have a satisfactory relationship with the inflation rate. Similarly, domestic loan growth is difficult to control - a fact largely attributed to the interest rate elasticity of loans - while there is a particularly close relationship between credit growth and the inflation rate. The exchange rate as an intermediate target can be controlled through foreign exchange market interventions; at the same time the exchange rate appears to have a significant relationship to the domestic inflation rate. Discussing the special issue of sterilizing foreign exchange inflows, the study concludes that between 2002 and 2008 not only no costs were incurred by sterilization operations, but that the central bank was actually able to realize a profit through foreign exchange market interventions. Based on this, it is concluded that the exchange rate target has not adversely affected the domestic orientation of monetary policy on the whole. The final part of the study examines whether there are any alternative monetary policy approaches that may be able to describe the policy approach in China; special focus is placed on nominal GDP targeting, the Taylor rule, and inflation targeting. A literature review reveals that the concept of nominal GDP targeting may be able to detect inflationary tendencies in the economy and, in combination with other indicators, it could be a suitable concept to assess the overall economic situation. The author calculates a Taylor rule for China from 1994 to 2008 and concludes that there is no close relationship between the PBC lending and the Taylor rate. The author then designs an augmented Taylor rule expanded to include a credit component (credit-augmented Taylor rule). The study shows that the augmented Taylor rule does not perform much better than the original one, but that it maps high inflationary periods relatively well. This is attributed to direct interventions into the credit markets, which have played a major role in combating inflationary cycles over the past decades. The analysis ends with an introduction of the concept of inflation targeting and an examination of whether this could describe monetary policy in China. It is clear that the PBC does not currently follow the inflation targeting approach, although the Chinese authorities could actually be able to influence inflation expectations effectively, not least through direct instruments such as price controls. The author notes that the PBC indeed had a good track record of fighting inflation between 1994 and 2008, and that this may now indicate a good time to think about introducing inflation targeting in China. The central conclusion of the study is that the proven gradual approach to economic and monetary reforms in China is reaching its limit. To break the vicious cycle that relies on the continuous use of quantity-based instruments to compensate for the ineffective price-based instruments - which in turn arises from the simultaneous use of both types of instruments - a complete shift away from quantity-based instruments is needed. Only then the approach of indirect monetary policy, which was officially introduced in 1998, could come into full play.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Campion2015, author = {Campion, Marie-Genevi{\`e}ve}, title = {Competition between Originators and Generics: Public Regulation and Incentives to Innovate}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-111701}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {The aim of this thesis is to examine the competition patterns that exist between originators and generics by focusing on the articulations between regulation and incentives to innovate. Once the characteristics of regulation in pharmaceutical markets is reviewed in the first chapter and an analysis of some current challenges related to cost-containment measures and innovation issues is performed, then in the second chapter, an empirical study is performed to investigate substitution patterns. Based on the EC´s merger decisions in the pharmaceutical sector from 1989 to 2011, this study stresses the key criteria to define the scope of the relevant product market based on substitution patterns and shows the trend towards a narrower market in time. Chapters three and four aim to analyse in depth two widespread measures, the internal reference pricing system in off-patent markets, and risk-sharing schemes in patent-protected markets. By taking into account informational advantages of originators over generics, the third chapter shows the extent to which the implementation of a reference price for off-patent markets can contribute in promoting innovation. Finally, in the fourth chapter, the modeling of risk-sharing schemes explains how such schemes can help in solving moral hazard and adverse selection issues by continuously giving pharmaceutical companies incentives to innovate and supplying medicinal products of a higher quality.}, subject = {Pharmazeutische Industrie}, language = {en} } @phdthesis{Kempf2007, author = {Kempf, Stefan}, title = {Das Optionswertmodell zur Erkl{\"a}rung der Rentenentscheidung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-25727}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Diese empirische Arbeit untersucht Determinanten des Renteneintritts. Sie basiert auf einem Optionswertmodell, um die Bedeutung finanzieller {\"U}berlegungen f{\"u}r ein Aufschieben des Renteneintritts zu analysieren. Zus{\"a}tzlich wird der Einfluss institutioneller Rahmenbedingungen betrachtet. Ein neu verf{\"u}gbarer Datensatz des Verbands Deutscher Rentenversicherungstr{\"a}ger wird dazu verwendet. Die Ergebnisse zeigen, dass Arbeitslosigkeit und Krankheit zu einem großen Teil einen fr{\"u}hen Renteneintritt erkl{\"a}ren. Zus{\"a}tzlich hat der Optionswert einen großen Erkl{\"a}rungsgehalt.}, subject = {Rente}, language = {de} } @phdthesis{Behringer2020, author = {Behringer, Jan}, title = {Essays on income distribution and macroeconomic imbalances}, doi = {10.25972/OPUS-21725}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-217252}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {The contribution of this dissertation is to empirically analyze the link between income distribution, sectoral financial balances, and the current account. Firstly, it examines the relationship between the personal and the functional income distribution which may have rather different implications for aggregate demand and the current account. Secondly, it analyzes the importance of different sectors of the economy for current account balances and tests whether households are able to fully pierce the institutional veils of the corporate and the government sector. Thirdly, it investigates how changes in the personal and the functional income distribution affect the saving and investment decisions of the household and the corporate sector, and hence the current account. Finally, it shows how different growth regimes are linked to different patterns of personal and functional income distribution, and how differences in wage bargaining institutions contribute to explaining these different patterns of income distribution.}, subject = {Einkommensverteilung}, language = {en} } @phdthesis{Simon2021, author = {Simon, Camilla}, title = {Financial Market Effects of Macroeconomic Policies}, doi = {10.25972/OPUS-21765}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-217654}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {Within three self-contained studies, this dissertation studies the impact and interactions between different macroeconomic policy measures in the context of financial markets empirically and quantitatively. The first study of this dissertation sheds light on the financial market effects of unconventional central bank asset purchase programs in the Eurozone, in particular sovereign bond asset purchase programs. The second study quantifies the direct implications of unconventional monetary policy on decisions by German public debt management regarding the maturity structure of gross issuance. The third study provides novel evidence on the role of private credit markets in the propagation of public spending toward private consumption in the U.S. economy. Across these three studies a set of different time-series econometric methods is applied including error correction models and event study frameworks to analyze contemporaneous interactions in financial and macroeconomic data in the context of unconventional monetary policy, as well as vector auto regressions (VARs) and local projections to trace the dynamic consequences of macroeconomic policies over time.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Greer2015, author = {Greer, Katja}, title = {Essays in Industrial Organization: Vertical Agreements in a Dynamic View}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-136939}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {This dissertation deals with the contract choice of upstream suppliers as well as the consequences on competition and efficiency in a dynamic setting with inter-temporal externalities. The introduction explains the motivation of the analysis and the comparison of different contract types, as for example standard contracts like simple two-part tariffs and additional specifications as contracts referencing the quantity of the contract-offering firm or the relative purchase level. The features of specific market structures should be considered in the analysis of specific vertical agreements and their policy implications. In particular, the role of dynamic changes regarding demand and cost parameters may have an influence on the results observed. In the first model, a dominant upstream supplier and a non-strategic rival sell their products to a single downstream firm. The rival supplier faces learning effects which decrease the rival's costs with respect to its previous sales. Therefore, learning effects represent a dynamic competitive threat to the dominant supplier. In this setup, the dominant supplier can react on inter-temporal externalities by specifying its contract to the downstream firm. The model shows that by offering market-share discounts, instead of simple two-part tariffs or quantity discounts, the dominant supplier maximizes long-run profits, and restricts the efficiency gains of its rival. If demand is linear, the market-share discount lowers consumer surplus and welfare. The second model analyzes the strategic use of bilateral contracts in a sequential bargaining game. A dominant upstream supplier and its rival sequentially negotiate with a single downstream firm. The contract choice of the dominant supplier as well as the rival supplier's reaction are investigated. In a single-period sequential contracting game, menus of simple two-part tariffs achieve the industry profit maximizing outcome. In a dynamic setting where the suppliers sequentially negotiate in each period, the dominant supplier uses additional contractual terms that condition on the rival's quantity. Due to the first-mover advantage of the first supplier, the rival supplier is restricted in its contract choice. The consequences of the dominant supplier's contract choice depend on bargaining power. In particular, market-share contracts can be efficiency enhancing and welfare-improving whenever the second supplier has a relatively high bargaining position vis-`a-vis the downstream firm. For a relatively low bargaining position of the rival supplier, the result is similar to the one determined in the first model. We show that results depend on the considered negotiating structure. The third model studies the contract choice of two upstream competitors that simultaneously deal with a common buyer. In a complete information setting where both suppliers get to know whether further negotiations fail or succeed, a singleperiod model solves for the industry-profit maximizing outcome as long as contractual terms define at least a wholesale price and a fixed fee. In contrast, this collusive outcome cannot be achieved in a two-period model with inter-temporal externalities. We characterize the possible market scenarios, their outcomes and consequences on competition and efficiency. Our results demonstrate that in case a rival supplier is restricted in its contract choice, the contract specification of a dominant supplier can partially exclude the competitor. Whenever equally efficient suppliers can both strategically choose contract specifications, the rivals defend their market shares by adapting appropriate contractual conditions. The final chapter provides an overview of the main findings and presents some concluding remarks.}, subject = {Unternehmenskooperation}, language = {en} } @phdthesis{Riedel2016, author = {Riedel, Robby}, title = {Die 'Too Big to Fail'-Problematik - Quantitative Regulierung zur Reduzierung der Interbankenverflechtung und damit systemischen Risikos -}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-138319}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Im Rahmen dieser Arbeit wird ein Modell entwickelt, welches auf Basis von l{\"a}nder{\"u}bergreifenden Forderungs- und Verbindlichkeitsstrukturen die internationale Vernetzung der Banken abbildet. Die Analyse offenbart, dass systemische Risiken im Allgemeinen von wenigen Instituten ausgehen. Zudem wird aufgezeigt, dass solche Risiken vornehmlich in Banken aus Volkwirtschaften auftreten, in denen die Finanzindustrie eine exponierte Stellung einnimmt. Auf der anderen Seite sind die Institute aus diesen {\"O}konomien auch {\"u}berproportional anf{\"a}llig gegen{\"u}ber systemischen Schocks und somit erh{\"o}hten Ansteckungsgefahren ausgesetzt. Systemische Risiken gehen nicht nur von Großbanken aus, sondern auch der Ausfall mittelgroßer oder gar kleiner Institute kann erhebliche Konsequenzen f{\"u}r das Gesamtsystem nach sich ziehen. Dar{\"u}ber hinaus ist ersichtlich, dass h{\"o}here systemische Risiken von Banken ausgehen, die einen hohen Verflechtungsgrad innerhalb des Bankensystems haben. Die potentiellen Sch{\"a}den f{\"u}r das Gesamtsystem sind umso h{\"o}her, je mehr signifikante Gesch{\"a}ftsbeziehungen eine Bank zu anderen Banken aufweist. Systemische Risiken k{\"o}nnen nicht grunds{\"a}tzlich innerhalb eines nationalen Bankensystems isoliert werden, denn ein Großteil der Folgeausf{\"a}lle erfolgt l{\"a}nder{\"u}bergreifend. Die Analyse bringt zudem zu Tage, dass seit dem Jahr 2006 systemische Risiken im Allgemeinen zur{\"u}ckgingen. In der vorliegenden Arbeit werden zun{\"a}chst regulatorische Instrumente zur Reduzierung systemischer Risiken f{\"u}r alle Banken vorgestellt. Es l{\"a}sst sich konstatieren, dass Eigenkapitalerh{\"o}hungen die Widerstands- und Verlustabsorptionsf{\"a}higkeit der Banken maßgeblich st{\"a}rken w{\"u}rden. Auch k{\"o}nnen durch geeignete Großkreditvorschriften Risiken f{\"u}r das Gesamtsystem reduziert werden. Um das System entscheidend zu stabilisieren, m{\"u}ssten diese Instrumente allerdings erheblich von den aktuellen Bestimmungen abweichen. Die Untersuchungen zeigen, dass eine Eigenkapitalausstattung der Banken von 12\% der risikoungewichteten Bilanz (Leverage Ratio) oder Großkreditvorschriften f{\"u}r Exposures zu einzelnen Gegenparteien von h{\"o}chstens 18\% des haftenden Eigenkapitals maßgeblich zu einer ad{\"a}quaten bzw. notwendigen Finanzmarktstabilit{\"a}t beitragen k{\"o}nnen. Diese Arbeit befasst sich ferner mit m{\"o}glichen regulatorischen Ans{\"a}tzen zur Reduzierung systemischer Risiken speziell f{\"u}r systemrelevante Banken. Eine m{\"o}gliche regulatorische Alternative k{\"o}nnte eine Kombination sowohl h{\"o}herer Eigenkapitalvorschriften als auch versch{\"a}rfter Großkreditvorschriften darstellen. Durch eine Leverage Ratio von mindestens 9\% f{\"u}r nicht-systemrelevante Institute und eine h{\"o}here Quote von 11\% f{\"u}r systemrelevante Banken, kombiniert mit einem maximalen Exposure zwischen zwei Vertragsparteien von 23\% sowie zu systemrelevanten Banken von maximal 18\%, ließe sich das systemische Risiko im Bankensystem entscheidend senken.}, subject = {Bank}, language = {de} } @phdthesis{Rueth2017, author = {R{\"u}th, Sebastian}, title = {Monetary Policy, Housing Market Dynamics, and the Propagation of Shocks}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-137221}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {This dissertation studies the interrelations between housing markets and monetary policy from three different perspectives. First, it identifies housing finance specific shocks and analyzes their impact on the broader economy and, most importantly, the systematic monetary policy reaction to such mortgage sector disturbances. Second, it investigates the implications of the institutional arrangement of a currency union for the potential buildup of a housing bubble in a member country of the monetary union by, inter alia, fostering border-crossing capital flows and ultimately residential investment activity. This dissertation, third, quantifies the effects of autonomous monetary policy shifts on the macroeconomy and, in particular, on housing markets by conditioning on financial sector conditions. From a methodological perspective, the dissertation draws on time-series econometrics like vector autoregressions (VARs) or local projections models.}, subject = {Geldpolitik}, language = {en} } @phdthesis{Musaev2014, author = {Musaev, Abdumalik}, title = {Geld- und Wechselkurspolitik in rohstoffreichen L{\"a}ndern. Eine empirische Analyse am Beispiel der Volkswirtschaft Russlands.}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-130776}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Die Arbeit besch{\"a}ftigt sich mit den speziellen Herausforderungen der Geld- und Wechselkurspolitik in rohstoffreichen L{\"a}ndern. Die Auseinandersetzung mit der Thematik erfolgt dabei anhand einer empirischen Analyse der Wirtschaftsentwicklung Russlands im Zeitraum zwischen 2000 bis 2009. Diese Periode wurde durch eine hohe Volatilit{\"a}t des {\"O}lpreises gekennzeichnet, die die Wirtschaftsentwicklung Russlands erheblich beeinflusste. Die aus dem Anstieg des {\"O}lpreises resultierenden Rohstoffeinnahmen entfalteten einerseits positive wirtschaftliche Effekte. Der im Jahr 1998 f{\"u}r zahlungsunf{\"a}hig erkl{\"a}rte Staat konnte sich wenige Jahre sp{\"a}ter eine expansive Haushaltspolitik leisten. Andererseits entstanden durch die Rohstoffeinnahmen auch negative wirtschaftliche Folgen. Infolge der starken realen Aufwertung des Rubels wurde die Wettbewerbsf{\"a}higkeit des Industriesektors deutlich belastet. Die Import- und Rohstoffabh{\"a}ngigkeit des Landes nahm deutlich zu. Unter der hohen Volatilit{\"a}t der Rohstoffpreise hat die Finanz- und Wirtschaftsstabilit{\"a}t stark gelitten. Die durch die {\"O}lpreisschwankungen verursachten Wechselkursturbulenzen wurden zus{\"a}tzlich durch spekulative Kapitalbewegungen verst{\"a}rkt. Die realen Geldmarktzinss{\"a}tze verliefen {\"u}berwiegend in einem negativen Bereich. Die Inflationsrate konnte zwar reduziert werden, die angek{\"u}ndigten Inflationsziele konnten aber nicht eingehalten werden. Die unkontrollierte Geldbasisbildung kam durch die Devisenmarktinterventionen der Notenbank und eine stark expansiven Fiskalpolitik zustande. Auf dem Geldmarkt herrschte ein Angebots{\"u}berhang. Dar{\"u}ber hinaus nutzten die Kreditinstitute die Verschuldung im Ausland als eine zus{\"a}tzliche Quelle f{\"u}r ihre boomenden Kreditgesch{\"a}fte. Die Handlungsoptionen der Notenbank waren zus{\"a}tzlich durch die rohstofffinanzierte expansive Fiskalpolitik eingeschr{\"a}nkt. Die Spielr{\"a}ume der Notenbank waren umso geringer, je h{\"o}her der {\"O}lpreis anstieg und je mehr der Staat die Rohstoffeinnahmen ausgab. Die {\"O}lpreisentwicklung und die sich selbst verst{\"a}rkenden Kapitalfl{\"u}sse hatten entscheidenden Einfluss auf die Zinss{\"a}tze und den Wechselkurs. Nach Meinung des Verfassers werden alle rohstoffreichen offenen L{\"a}nder mit hohen Inflationsraten mit einer {\"a}hnlichen Problematik konfrontiert. Der Trade-off heißt: Entweder Wechselkursaufwertung oder Inflationsimport. Wie ist dieses Problem zu l{\"o}sen? Welche Alternativen hatte die Notenbank Russlands? Nach dem IWF w{\"a}re ein Free Floating die beste Strategie. Demnach h{\"a}tte eine hohe Wechselkursvolatilit{\"a}t den Kapitalanleger trotz der hohen Renditem{\"o}glichkeiten abgeschreckt. Der Verlauf des Wechselkurses h{\"a}tte seinen Fundamentalfaktoren entsprochen. Dabei gilt nach dem IWF der volatile {\"O}lpreis ebenfalls als ein fundamentaler Bestandteil des Gleichgewichtes. Der Verfasser widerspricht der Auffassung der IWF-Experten. Das Hauptproblem in diesem Ansatz ist die hohe mittelfristige Volatilit{\"a}t der Rohstoffpreise. Der {\"O}lpreis entwickelte sich bis 2004 weitgehend stabil rund um die Marke von 30 USD/Barrel. Nach 2004 verzeichnete der {\"O}lpreis im Laufe der 55 Monate (oder 4,5 Jahre) einen erkennbar ansteigenden Trend auf etwa 140 USD/Barrel und schrumpfte anschließend innerhalb von weiteren 6 Monaten auf 35 USD/Barrel zur{\"u}ck. So eine Entwicklung des {\"O}lpreises h{\"a}tte beim Free Floating verheerende Auswirkungen gehabt. Die W{\"a}hrung h{\"a}tte parallel zu jedem {\"O}lpreisanstieg aufgewertet. Der Kapitalzufluss h{\"a}tte die Aufwertung zus{\"a}tzlich verst{\"a}rkt. Die Abwertung des Rubels im August 2008 infolge des {\"O}lpreisverfalls und der massiven Kapitalflucht w{\"a}re so stark gewesen, dass dadurch die Finanz-, Preis- und Wirtschaftsstabilit{\"a}t stark gef{\"a}hrdet worden w{\"a}ren. Zur L{\"o}sung des Trade-offs zwischen Wechselkurs- und Geldpolitik bietet sich nach Meinung des Verfassers das Managed-Floating-Modell an. Das Modell widerspricht der bekannten „Unm{\"o}glichkeit" des klassischen „Dreiecks". Eine autonome Zins- und Wechselkurssteuerung in einer offenen Volkswirtschaft ist nicht nur m{\"o}glich, sondern in den F{\"a}llen wie Russland die einzig richtige L{\"o}sung. Die Ausgangsgr{\"o}ße ist in diesem Modell der autonom zu steuernde Zinssatz, der im Fall Russland von der Notenbank h{\"a}tte angehoben werden m{\"u}ssen, um die Inflationsrate m{\"o}glichst schnell abzusenken. In der Wechselkurssteuerung wird auf den mittelfristig stabilen realeffektiven Wechselkurs abgestellt. Da die Inflationsrate in Russland deutlich h{\"o}her war als im Ausland, w{\"a}re eine gesteuerte Abwertung des Rubels erforderlich gewesen. Dadurch w{\"a}re die Wettbewerbsf{\"a}higkeit der Industrie gef{\"o}rdert worden. Durch die Abwertung des Rubels w{\"a}re der Zufluss des kurz- und mittelfristigen Auslandskapitals selbst bei hohen Renditem{\"o}glichkeiten in Russland abgewendet worden. Eine wesentliche Gefahr f{\"u}r den Erfolg des Managed-Floating-Modells stellt aber eine stark expansive, rohstofffinanzierte Fiskalpolitik dar. Eine strenge Fiskaldisziplin spielt daher eine entscheidende Rolle.}, subject = {Wechselkurspolitik}, language = {de} } @phdthesis{Stoehr2008, author = {St{\"o}hr, Holger Christian}, title = {Die Zukunft der Wettbewerbspolitik - Zur Notwendigkeit und Form einer auf Wettbewerbschancen ausgerichteten wettbewerbspolitischen Revolution}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-33483}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Die grundlegende Idee dieser Abhandlung liegt in der Vorstellung begr{\"u}ndet, dass sich Wettbewerbspolitik nicht auf den Wettkampf konzentrieren sollte. Die traditionelle Vorgehensweise analysiert Wettbewerbsbeschr{\"a}nkungen auf einzelnen M{\"a}rkten und fordert gegebenenfalls ein wettbewerbspolitisches Eingreifen. Zumeist wird dabei die Existenz des 'spirit of competition' und damit ein aktiver Wettkampf gefordert. Diese Sichtweise ist jedoch symptomatisch auf den einzelnen Markt gerichtet. Stattdessen sollten die grundlegenden Rahmenbedingungen analysiert werden. Wettbewerbspolitik w{\"u}rde sich somit auf die Schaffung von Wettbewerbschancen konzentrieren. Gerade die Umsetzung einer derart gestalteten Wettbewerbspolitik d{\"u}rfte schwierig sein und erfordert insbesondere ein polit{\"o}konomisches Fundament. Daher wird hier ein konkreter Vorschlag konkretisiert, der Elemente der direkte Demokratie, der Gewaltenteilung und eine verst{\"a}rkte politische Meinungsbildung beinhaltet. Die herk{\"o}mmliche Wettbewerbspolitik unterliegt folglich drei grundlegenden M{\"a}ngel: Zun{\"a}chst ist sie durch eine mangelnde Zielorientierung und zahlreiche Zielkonflikte gekennzeichnet. Weiterhin ist sie symptomatisch auf Wettbewerbsbeschr{\"a}nkungen auf einzelnen M{\"a}rkten konzentriert und vernachl{\"a}ssigt die jeweils relevanten Rahmenbedingungen. Schließlich wird die Wahl angemessener wettbewerbspolitischer Tr{\"a}ger h{\"a}ufig vernachl{\"a}ssigt. Die Ziele dieser Arbeit sind darauf basierend die Begr{\"u}ndung der Notwendigkeit einer Neuausrichtung, die Ausarbeitung der Grundz{\"u}ge eines alternativen wettbewerbspolitischen Ansatzes und eine Abgrenzung dieses von gel{\"a}ufigen wettbewerbspolitischen Konzeptionen. Zur Analyse dient die Ableitung eines Referenzschemas auf f{\"u}nf Ebenen der Wettbewerbspolitik. Dabei werden sieben Fallstudien in die Abhandlung integriert.}, subject = {Wettbewerbspolitik}, language = {de} } @phdthesis{Jurgan2009, author = {Jurgan, Jens}, title = {Three Essays on Market Concentration and Welfare}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-40374}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {This thesis analyzes the relationship between market concentration and efficiency of the market outcome in a differentiated good context from different points of view. The first chapter introduces the objectives of competition policy and antitrust authorities and outlines the importance of market concentration. Chapter 2 analyzes the relationship between social surplus and market heterogeneity in a differentiated Cournot oligopoly. Market heterogeneity is due to differently efficient firms, each of them producing one variety of a differentiated good. All firms exhibit constant but different marginal costs without fixed costs. Consumers preferences are given by standard quadratic utility originated by Dixit (1979). Since preferences are quasi-linear social surplus is the measure for Pareto-optimality. The main finding is that consumer suprlus as well as producer surplus increase with the variance of marginal costs. The third chapter analyzes the relationship between the cost structure and market concentration measured by the Herfindahl-Hirschman Index. Market concentration increases with the variance of marginal costs as well as the mean of marginal costs. Chapter four analyzes welfare implications of present antitrust enforcement policy on basis of the same theoretical model. European as well as the US Merger Guidelines presume a negative impact of market concentration on the competitiveness of the market and, therefore, on the efficiency of the market outcome. The results of the previous chapters indicate that this assumption is false. The main finding is that post-merger joint profit of the insider increase with the size of the merger. Moreover, there is a negative relationship between the size of the merger and efficiency of the market outcome. Present antitrust enforcement policy increases the disparity of output levels and enforces the removal of the least efficient firm of the market. The welfare gains can be traced back on these two effects. Therefore, neither a minimum of market concentration nor a maximum of product diversity is necessarily welfare enhancing even in absence of fixed costs.}, subject = {Konzentration }, language = {en} } @phdthesis{Dechert2014, author = {Dechert, Andreas}, title = {Fraktionale Integration und Kointegration in Theorie und Praxis}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-110028}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Das Ziel der Arbeit ist eine Zusammenfassung {\"u}ber den Stand der Forschung {\"u}ber das Thema der fraktionalen Integration und Kointegration sowie Weiterentwicklungen der aktuellen Methoden im Hinblick darauf, dass sie robuster auf eine Reihe von empirischen Gegebenheiten anwendbar sind. Hierzu wurden insbesondere die M{\"o}glichkeiten von Strukturbr{\"u}chen in deterministischen Prozessanteilen vorgeschlagen sowie deren Auswirkungen auf Sch{\"a}tzeigenschaften analysiert. Mit diesem Wissen k{\"o}nnen Sch{\"a}tzstrategien entwickelt werden, die auch im empirischen Teil der Arbeit angewandt wurden. Der Aufbau der Arbeit gestaltet sich so, dass nach der Einleitung und Problemstellung im zweiten Kapitel der Arbeit zun{\"a}chst in die Zeitreihenanalyse eingef{\"u}hrt wird. Hierbei wird auch eine intuitive Motivation f{\"u}r die Betrachtung von Long-Memory-Prozessen gegeben. Diese gestaltet sich so, dass der klassischerweise als ganzzahlig angenommene Integrationsgrad eines Prozesses nun jede beliebige Zahl, also auch Br{\"u}che, annehmen kann. Diese Annahme f{\"u}hrt wiederum dazu, dass hiermit sehr langfristige Abh{\"a}ngigkeiten von Zeitreihen effizient beschrieben werden k{\"o}nnen, da diese lediglich von einem einzigen Parameter abh{\"a}ngen. Die Sch{\"a}tzung dieses nunmehr fraktionalen Integrationsgrads wird im dritten Kapitel ausf{\"u}hrlich beschrieben und in mehreren Simulationsstudien ausgiebig analysiert. Hierzu werden neben parametrischen Sch{\"a}tzmethoden, die einer genauen Spezifizierung der Korrelationsstruktur von Zeitreihen bed{\"u}rfen, auch semiparametrische Methoden angef{\"u}hrt, die in der Praxis robuster einsetzbar sind, da ihre Sch{\"a}tzgenauigkeit und Effizienz nicht von einer korrekten Klassifizierung von sog. Short-Memory-Komponenten beeinflusst werden. Die Analyse dieser Methode erfolgt in erster Linie im Hinblick auf eine empirische Anwendbarkeit und bietet auch als Ergebnis Empfehlungen f{\"u}r eine optimale Sch{\"a}tzstrategie. Das vierte Kapitel besch{\"a}ftigt sich in erster Linie mit Integrationstests wie z.B. Einheitswurzeltests und deren Anwendbarkeit bei Existenz von Long-Memory-Prozessbestandteilen. Dar{\"u}ber hinaus werden auch Sch{\"a}tz- und Testmethoden f{\"u}r das Vorliegen von deterministischen Trends thematisiert, die wiederum auch die M{\"o}glichkeit von Strukturbr{\"u}chen zulassen. Eine multivariate Betrachtungsweise erm{\"o}glicht das f{\"u}nfte Kapitel mit der Einf{\"u}hrung der fraktionalen Kointegration. Auch liegt der Fokus der Arbeit darin, die empirische Anwendbarkeit zu verbessern, indem in Simulationsstudien Effekte von empirischen Gegebenheiten - wie Strukturbr{\"u}che - analysiert und optimale Sch{\"a}tzstrategien entwickelt werden. Im sechsten Kapitel der Arbeit wird im Rahmen der {\"o}konomischen Theorie der Markterwartungshypothese die Verzinsung deutscher im Zeitraum Oktober 1998 bis November 2011 untersucht. Diese Hypothese impliziert, dass zwischen den einzelnen Zinss{\"a}tzen eine multivariate Beziehung in Form von Kointegrationsbeziehungen bestehen sollte, da die Zinssatzdifferenzen einer Liquidit{\"a}tspr{\"a}mie entsprechen. Von dieser wurde in bisherigen Studien angenommen, dass sie station{\"a}r ist, d.h. dass sie allenfalls eine Short-Memory-Eigenschaft aufweist, welche nur relativ kurzfristige Abh{\"a}ngigkeit impliziert. Von dieser Sichtweise l{\"o}st sich die Arbeit, indem sie die M{\"o}glichkeit von fraktionalen Kointegrationsbeziehungen erm{\"o}glicht, die eine Aussage {\"u}ber die Persistenz der Liquidit{\"a}tspr{\"a}mie erm{\"o}glicht. Im Rahmen dieser Analyse konnten eine Reihe interessanter Erkenntnisse gewonnen werden, wie z.B. dass das Ausmaß der Persistenz (d.h. die Tr{\"a}gheit der Anpassung auf {\"o}konomische Schocks) mit ansteigender Laufzeitdifferenz sukzessive gr{\"o}ßer wird und auch nicht mehr durch klassisch angenommene Prozessstrukturen erkl{\"a}rt werden kann. Nichtsdestotrotz k{\"o}nnen die Ergebnisse der empirischen Analyse die Annahmen der Markterwartungshypothese nicht best{\"a}tigen, da insbesondere der Integrationsgrad f{\"u}r sehr lange Laufzeitdifferenzen so groß ausf{\"a}llt, dass selbst eine relativ schwache fraktionale Kointegrationsbeziehung abgelehnt werden muss.}, subject = {Zeitreihenanalyse}, language = {de} } @phdthesis{Gareis2012, author = {Gareis, Johannes}, title = {Housing, Consumption Dynamics, and Monetary Policy}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-70842}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {This dissertation provides both empirically and theoretically new insights into the economic effects of housing and housing finance within NK DSGE models. Chapter 1 studies the drivers of the recent housing cycle in Ireland by developing and estimating a two-country NK DSGE model of the European Economic and Monetary Union (EMU). It finds that housing preference (demand) and technology shocks are the most important drivers of real house prices and real residential investment. In particular, housing preference shocks account for about 87\% of the variation in real house prices and explain about 60\% of the variation in real residential investment. A robustness analysis finally shows that a good part of the variation of the estimated housing preference shocks can be explained by unmodeled demand factors that have been considered in the empirical literature as important determinants of Irish house prices. Chapter 2 deals with the implications of cross-country mortgage market heterogeneity for the EMU. The chapter shows that a change in cross-country institutional characteristics of mortgage markets, such as the loan-to-value (LTV) ratio, is likely to be an important driver of an asymmetric development in the housing market and real economic activity of member states. Chapter 3 asks whether monetary policy shocks can trigger boom-bust periods in house prices and create persistent business cycles. The chapter addresses this question by implementing behavioral expectations into an otherwise standard NK DSGE model with housing and a collateral constraint. Key to the approach in chapter 3 is that agents form heterogeneous and biased expectations on future real house prices. Model simulations and impulse response functions suggest that these assumptions have strong implications for the transmission of monetary policy shocks. It is shown that monetary policy shocks might trigger pronounced waves of optimism, respectively, pessimism that drive house prices and the broader economy, all in a self-reinforcing fashion. The chapter shows that in an environment in which behavioral mechanisms play a role an augmented Taylor rule that incorporates house prices is superior, because it limits the scope of self-fulfilling waves of optimism and pessimism to arise. Chapter 4 challenges the view that the observed negative correlation between the Federal Funds rate and the interest rate implied by consumption Euler equations is systematically linked to monetary policy. Using a Monte Carlo experiment based on an estimated NK DSGE model, this chapter shows that risk premium shocks have the capability to drive a wedge between the interest rate targeted by the central bank and the implied Euler equation interest rate, so that the correlation between actual and implied rates is negative. Chapter 4 concludes by arguing that the implementation of collateral constraints tied to housing values is a promising way to strengthen the empirical performance of consumption Euler equations.}, subject = {Kreditmarkt}, language = {en} } @phdthesis{Plagens2001, author = {Plagens, Manfred}, title = {Innovationsprozesse in der Medizintechnik in Deutschland}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-619}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2001}, abstract = {Diese Arbeit besch{\"a}ftigt sich mit Innovationsprozessen der medizintechnischen Industrie in Deutschland am Beispiel der bildgebenden Verfahren. Einen geeigneten Analyserahmen, um die komplexen Verflechtungen und Erfolgs-determinanten zu erfassen, bietet der Clusteransatz Michael Porters. Der Clusteransatz wird um wachstumstheoretische, polit{\"o}konomische Ans{\"a}tze erg{\"a}nzt und erweitert, um die Medizintechnikbranche quantitativ und qualitativ zu untersuchen und die Wechselwirkungen zwischen Medizintechniknetzwerk, Innovationen und staatlichem Sozialsystem in Deutschland aufzuzeigen. Es wird gekl{\"a}rt, welche Auswirkungen Innovationen f{\"u}r die medizintechnische Branche haben und welche institutionellen und politischen Bedingungen Innovationen beg{\"u}nstigen, welche wirtschaftspolitischen Handlungsempfehlungen daraus abgeleitet werden k{\"o}nnen und wie sich die Zukunft f{\"u}r diese Branche gestalten k{\"o}nnte. Kapitel 1 spezifiziert den Untersuchungsgegenstand auf die bildgebenden Verfahren. Kapitel 2 nimmt - anhand diverser Innovationsindikatoren - eine quantitative Eingruppierung der deutschen medizintechnischen Industrie vor. In Kapitel 3 werden die bislang gewonnen Erkenntnisse mit dem Clusterkonzept Porters einer qualitativen Analyse unterzogen. Es wird der Frage nachgegangen, was die Wettbewerbsf{\"a}higkeit der Medizintechnik ausmacht. Hierbei liegt ein Schwerpunkt auf den Wechselbeziehungen von Medizin-technikbranche und staatlichem Gesundheitssystem. Kapitel 4 erg{\"a}nzt die Wettbewerbsf{\"a}higkeitsanalyse um einen inter-industriellen Vergleich. Weitere international erfolgreiche deutsche Branchen werden in ihren Erfolgsfaktoren mit der Medizintechnik verglichen. Das Konzept der "Langen Wellen" pr{\"a}zisiert die Spezifika der Medizintechnikbranche. Kapitel 5 fasst die Ergebnisse der Untersuchung zusammen und gibt eine Prognose f{\"u}r die m{\"o}gliche Zukunftsentwicklung der Branche.}, subject = {Deutschland}, language = {de} } @phdthesis{Hock2003, author = {Hock, Thorsten}, title = {Asymmetrische Effekte der Geldpolitik auf die Industrie in der Bundesrepublik Deutschland - eine Untersuchung auf Branchenebene}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-7586}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Die Arbeit setzt sich mit Unterschieden des geldpolitischen Transmissionsprozesses im Verarbeitenden Gewerbe der Bundesrepublik Deutschland auseinander. Dazu wird der Sektor nach der Systematik der BACH-Datenbank der europ{\"a}ischen Kommission in 10 Branchen eingeteilt. An eine kurze Betrachtung der Industrie aus makro- und mikro{\"o}konomischer Sicht schließt sich die Beantwortung der ersten Frage an: Reagieren die Industriebranchen unterschiedlich auf geldpolitische Impulse? Monet{\"a}re Innovationen werden mit Anstiegen der kurzfristigen Geldmarktzinsen abgebildet. Damit konzentriert sich die Analyse auf die Auswirkungen von restriktiven Maßnahmen. Als Referenzgr{\"o}ßen wurden die Produktion und die Erzeugerpreise ausgew{\"a}hlt. Die Analyse der Auswirkungen auf die Produktionsentwicklung zeigt, dass ein Großteil der Industriezweige erwartungsgem{\"a}ß mit R{\"u}ckf{\"u}hrungen auf Zinserh{\"o}hungen reagiert. Die st{\"a}rksten Produktionseinbußen ergeben sich hierbei in der Branche Herstellung elektrischer Ger{\"a}te, in der Grundlegenden Metallverarbeitung und im Industriezweig Metallerzeugnisse mit Maschinenbau. Dagegen sind die in vielen Branchen entdeckten kurzfristigen Preisanstiege auf den ersten Blick ein R{\"a}tsel. Denn die Notenbank verfolgt ihre Absicht - n{\"a}mlich die Stabilisierung der Verbraucherpreise - mit einer restriktiven Ausrichtung, wenn die Preise Gefahr laufen, st{\"a}rker als zielkonform anzusteigen. Die vorliegenden Ergebnisse sprechen daher daf{\"u}r, dass in der kurzen Frist jedoch zus{\"a}tzlicher Preisdruck auf vorgelagerter Stufe erzeugt wird. Wie k{\"o}nnen die unterschiedlichen Auswirkungen auf die Branchen erkl{\"a}rt werden? Dieser Frage widmet sich der zweite Hauptblock der Arbeit. In einem ersten Schritt werden die relevanten Transmissionstheorien diskutiert. Die empirische {\"U}berpr{\"u}fung ausgew{\"a}hlter Transmissionstheorien mit Branchendaten hat dabei einige grundlegende Einsichten ans Licht gebracht. Erstens korreliert die St{\"a}rke der Outputver{\"a}nderung deutlich mit der Zinssensitivit{\"a}t der Nachfrage nach den produzierten G{\"u}tern der Branche. Zweitens k{\"o}nnen die beobachteten Preisanstiege vereinzelt mit einer Dominanz der Geldpolitik als Angebotsschock erkl{\"a}rt werden. Zu einem großen Teil bleibt die identifizierte Preisreaktion aber ein R{\"a}tsel. Und drittens scheint der Bilanzkanal - zumindest gem{\"a}ß der hier gew{\"a}hlten Identifikationsstrategie - nicht grunds{\"a}tzlich geeignet zu sein, die Anpassungsprozesse in den untersuchten Branchen zu erkl{\"a}ren. Dies sollte daran liegen, dass dieser Transmissionskanal Bonit{\"a}tscharakteristika und -ver{\"a}nderungen auf Unternehmensebene als Vehikel der {\"U}bertragung sieht.}, subject = {Deutschland}, language = {de} } @phdthesis{Gottberg2004, author = {Gottberg, Hans-D{\"o}ring von}, title = {Wirkungsanalyse der gesetzlichen Buchpreisbindung in Deutschland}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-13657}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Untersuchungsgegenstand dieser Arbeit ist die Preisbindung auf dem deutschen Buchmarkt. Diese stellt eine absolute Ausnahmesituation dar, da sie f{\"u}r andere Wirtschaftszweige per se verboten ist. Das gilt umso mehr, als im Jahr 2002 das Preisbindungsgesetz eingef{\"u}hrt wurde und alle Verlage ihre B{\"u}cher - mit wenigen Ausnahmen - nunmehr preisbinden m{\"u}ssen. Unter Ber{\"u}cksichtigung dieser Rahmenbedingungen setzt eine Wirkungsanalyse bei den Auswirkungen der Preisbindung auf das Preis-, Serviceniveau und die Branchendynamik an. Die Gegen{\"u}berstellung einer Situation mit und ohne Preisbindung wird dadurch erschwert, dass empirische Belege sp{\"a}rlich sind, da die Preisbindung seit {\"u}ber 100 Jahren den deutschen Buchmarkt bestimmt. Zun{\"a}chst werden L{\"u}cken im Preisbindungsgesetz herausgearbeitet, die den Spielraum f{\"u}r noch m{\"o}glichen Preiswettbewerb aufzeigen. Als Kernst{\"u}ck der Arbeit werden stilisierte Aussagen zum Verhaltenspotential der Marktakteure durch ein eigenes theoretisches Modell ermittelt. Dabei sind im zentralen Vergleich der Preisbindung mit einer preisbindungsfreien Situation die Resultate nicht eindeutig. Eine Aufhebung der Preisbindung hat danach keine eindeutige Wirkung auf die Entwicklung von Preisen und Service. Je nach Bedeutung der Preis- und Servicesensitivit{\"a}ten bei latenten versus fluktuierenden Nachfragesituationen k{\"o}nnen sich Preise und Service unterschiedlich entwickeln. Entgegen der h{\"a}ufigen Aussagen in der politischen Diskussion k{\"o}nnen nach Aufhebung der Preisbindung Preise und Serviceniveau auch ansteigen, wenn der Servicewettbewerb zur Gewinnung von Kunden einen hohen Stellenwert hat. Das Aussagenspektrum bekommt einen Branchenbezug durch Ber{\"u}cksichtigung von {\"o}konomischen Prozessen, insbesondere produktions- und vertriebsspezifischen Besonderheiten des Buchmarktes. Dynamische, gerade auch preisbindungsabh{\"a}ngige Entwicklungen werden aufgezeigt, die mit einem positiven Effizienzbeitrag die grunds{\"a}tzliche effizienzmindernde Wirkung einer Preisbindung zumindest abmildern. Zu nennen ist hier u.a. eine Transaktionskosten mindernde enge Verzahnung des station{\"a}ren Bucheinzelhandels mit dem Großhandel. Erkennbar ist aber auch eine Entwicklung, in der ein zunehmender Marktanteil von Gesch{\"a}ftsmodellen mit niedrigpreisigen bzw. preisbindungsfreien B{\"u}chern. Konsumenten erhalten damit eine gr{\"o}ßere Wahlm{\"o}glichkeit zwischen preis- und serviceinduzierten Angeboten. Fallstudien von gr{\"o}ßeren Unternehmen des Buchhandels bekr{\"a}ftigen die Vermutung, dass trotz Preisbindung die Flanke „Konzentration im Buchhandel" weiterhin offen ist. Gerade von Seite der Großunternehmen wird mittels spezifischen Gesch{\"a}ftsmodellen im Ergebnis die Preisbindung partiell außer Kraft gesetzt.}, subject = {Deutschland}, language = {de} } @phdthesis{Schmidt2004, author = {Schmidt, Robert}, title = {The behavioral economics of foreign exchange markets - a psychological view on human expectation formation in foreign exchange markets}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-14921}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {The development of free floating exchange rates can hardly be explained by macroeconomic fundamentals as supposed by traditional economic theories. Therefore, prominent economists yet conclude that there exists an 'exchange rate disconnect puzzle' (see Obstfeld and Rogoff [2000]). The observable exchange rate trends are often attributed to an excessive speculative trading behavior of foreign exchange market participants. In this study we deal with psychological factors, which may be important for understanding the observable exchange rate movements. Thus, our study belongs to the new research field of behavioral economics, which considers the relevance of psychological factors in economic contexts. The main objective of behavioral economists is to develop a more realistic view of the actual human behavior in the context of economics. Therefore, behavioral economists often refer to the work of behavioral decision theorists, who introduced new concepts under the general heading of bounded rationality. Central to the concept of bounded rationality is the assumption that humans' actual behavior deviates from the ideal of economic rationality due to at least two reasons: first, decisions are usually based on an incomplete information basis (limited information) and, second, the information processing of human beings is limited by their computational capacities (limited cognitive resources). Due to these limitations people are forced to apply simplification mechanisms in information processing. Important simplification mechanisms, which play a decisive role in the process judgment and decision making, are simple heuristics. Simple heuristics can principally be characterized as simple rules of thumb, which allow quick and efficient decisions even under a high degree of uncertainty. In this study, our aim is to analyze the relevance of simple heuristics in the context of foreign exchange markets. In our view, the decision situation in foreign exchange markets can serve as a prime example for decision situations in which simple heuristics are especially relevant as the complexity of the decision situation is very high. The study is organized as follows. In Chapter II, we deal with the exchange rate disconnect puzzle. In particular, we discuss and check the main implications of the traditional economic approach for explaining exchange rate movements. The asset market theory of exchange rate determination implies that exchange rates are mainly driven by the development of macroeconomic fundamentals. Furthermore the asset market theory assumes that foreign exchange market participants form rational expectations concerning future exchange rate developments and that exchange rates are determined in efficient markets. Overall the empirical evidence suggests that the traditional approach for explaining exchange rate changes is at odds with the data. Chapter III addresses the existence of long and persistent trends in exchange rate time series. Overall, our empirical analysis reveals that exchange rates show a clear tendency to move in long and persistent trends. Furthermore, we discuss the relevance of speculation in foreign exchange markets. With regard to the impact of speculation, economic theory states that speculation can have either a stabilizing effect or a destabilizing effect on exchange rates. At the end of Chapter III, we examine the Keynesian view on the functioning of asset markets. In Chapter IV we explore the main insights from the new research field of behavioral economics. A main building block of behavioral economics is the concept of bounded rationality first introduced by Herbert Simon [1955]. In the centre of the concept of bounded rationality is a psychological analysis of the actual human judgment and decision behavior. In Chapter IV, we discuss the concept of bounded rationality in detail and illustrate important insights of behavioral decision theories. In particular, we deal with the relevance of simple heuristics in the context of foreign exchange markets. Chapter V provides experimental and empirical evidence for the suggested relevance of simple heuristics in foreign exchange markets. In the first experiment, we deal with the human expectation formation. We compare point forecasts of the EUR/USD exchange rate surveyed from professional analysts and experimentally generated point forecasts of students for a simulated exchange rate time series. The results show that the forecasting performance of both groups differs substantially. Afterwards we analyze the nature of expectation formation of both groups in detail to reveal similarities and differences, which allow us to draw reasonable explanations for the differences in the forecasting performances. In the second experiment, we analyze the expectation formation in an experimental foreign exchange market. This approach allows us to consider the relevance of expectation feedback as individuals' expectations directly influence the actual realization of the time series. Thus, Keynes' predictions on the importance of conventions in asset markets can be analyzed. Overall, both experiments reveal that the human beings tend to apply simple trend heuristics, when forming their expectations about future exchange rates. In the empirical part of Chapter V we deal with the usefulness of such simple trend heuristics in real world. Only if simple trend heuristics lead to profits in the specific environment of foreign exchange markets, their application can be recommended. Thus, we analyze the profitability of simple technical analysis tools in foreign exchange markets. Finally, Chapter VI provides concluding remarks.}, subject = {Devisenmarkt}, language = {en} } @phdthesis{Beschorner2004, author = {Beschorner, Patrick Frank Ernst}, title = {Risikoklassifikation und Wettbewerb auf Versicherungsm{\"a}rkten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10122}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Mit der Schaffung des europ{\"a}ischen Versicherungsbinnenmarktes wurde 1994 auch der deutsche Versicherungsmarkt liberalisiert. Damit stehen seither den Unternehmen auf diesen M{\"a}rkten mit der Produktgestaltung, der Pr{\"a}mienkalkulation und der Risikoklassifikation neue Wettbewerbsinstrumente zur Verf{\"u}gung. Zus{\"a}tzlich ist der Markteintritt nationaler Unternehmen in andere europ{\"a}ische M{\"a}rkte erleichtert worden. Die Nutzung der neuen Instrumente im Rahmen von Unternehmensstrategien vor dem Hintergrund eingeschr{\"a}nkter Information und geringer Erfahrung der Marktteilnehmer sowie die M{\"o}glichkeiten wohlfahrtssteigernder Markteingriffe sind Inhalt der vorliegenden Untersuchung. Es zeigt sich, daß Informationsbeschr{\"a}nkungen und Marktmacht immanent sind. Die sich daraus ergebenden Marktunvollkommenheiten lassen sich durch einen eingeschr{\"a}nkt informierten Regulierer oder Staat nicht vollst{\"a}ndig beheben. Daf{\"u}r sind Eingriffe m{\"o}glich, welche die negativen Effekte abzumildern verm{\"o}gen und dabei einem sehr geringem Informationserfordernis unterliegen. Relevante Informationen beziehen sich in erster Linie auf die Schadenscharakteristika von Versicherungsnehmern. Ein einzelnes Unternehmen profitiert von einem Informationsvorsprung gegen{\"u}ber seinen Konkurrenten, wenn es diesen f{\"u}r verst{\"a}rkte Risikoklassifikation einsetzen kann. Aus sozialer Sicht ist es aber sinnvoller, wenn existierende Informationen allen Unternehmen zur Verf{\"u}gung stehen, so daß eine einheitliche Risikoklassifikation m{\"o}glich wird. Die hierf{\"u}r erforderlichen Informationen k{\"o}nnen nur Beobachtung der Kunden gewonnen werden. Dann hat ein Unternehmen einen Informationsvorsprung gegen{\"u}ber seinen Konkurrenten in Bezug auf die Charakteristika seiner Kunden. Dieses Effekte begr{\"u}nden, warum Informationsbeschr{\"a}nkungen und Marktmacht auf einem Versicherungsmarkt immanent sind. Versicherungsnehmer, die sich gegen ein Schadensrisiko absichern, stehen Versicherungsschutz und Pr{\"a}vention als substitutive Instrumente zur Verf{\"u}gung. Die geeignete Wahl der Versicherungspr{\"a}mie kann effiziente Pr{\"a}vention seitens der Versicherungsnehmer bewirken. Wenn wegen der Informationsbeschr{\"a}nkung verschiedene Risikoklassen nicht identifiziert werden k{\"o}nnen, kann nur eine einheitliche Pr{\"a}mie f{\"u}r alle Klassen erhoben werden. Dann kann effiziente Pr{\"a}vention nicht bei allen Risikoklassen vorliegen. Ein Eingriff, der diese negativen Wohlfahrtseffekte abmildern kann, besteht in der Vorgabe einer fixen Versicherungsdeckung, so daß die Anreize der verschiedenen Risikoklassen in die richtige Richtung gelenkt werden. Die Marktmacht eines Unternehmens erm{\"o}glicht ihm, risikoklassenspezifische Pr{\"a}mien {\"u}ber der fairen Pr{\"a}mie zu w{\"a}hlen. Ein Unternehmen hat stets den Anreiz zu Pr{\"a}miendifferenzierung, da es ihm einen h{\"o}heren Gewinn zu erzielen erlaubt. Dagegen ergibt eine Wohlfahrtsuntersuchung, daß eine einheitliche Pr{\"a}mie sozial w{\"u}nschenswert ist. Ein Verbot der Pr{\"a}miendifferenzierung ist ein einfaches Mittel, f{\"u}r welches bei einem staatlichen Eingriff nur sehr geringen Informationsanforderungen bestehen. Es zeigt sich, daß die negativen Auswirkungen der Marktmacht dadurch abzumildern sind, indem die Marktmacht eingeschr{\"a}nkt wird, und zwar indem dem Unternehmen nicht die Nutzung aller Wettbewerbsinstrumente gestattet wird.}, subject = {Deutschland}, language = {de} } @phdthesis{Grub2005, author = {Grub, Martin}, title = {Verteilungswirkungen anreizorientierter Sozialpolitik : das deutsche Rentenversicherungs- und Steuersystem in der Perspektive dynamischer Lebenszyklusmodelle}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-16163}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Drei große Reformenpakete und eine Reihe kleinerer Begleitmaßnahmen pr{\"a}gen das renten¬politische Erbe der rot-gr{\"u}nen Bundesregierung. Einerseits greifen sie Trends in der Reformpolitik seit Beginn der 90er Jahre auf. So verst{\"a}rkt die Rentenstrukturreform 2001 beispielsweise die rentenrechtliche Anerkennung von Erziehung und Pflege. Eine ver{\"a}nderte Rentenformel wird die Transitionslasten des demographischen {\"U}bergangs mittelfristig gleichm{\"a}ßiger {\"u}ber die Jahrg{\"a}nge verteilen - durch eine Eind{\"a}mmung des Beitrags¬satz¬anstiegs auf Kosten eines langsamer wachsenden Rentenniveaus. Die Nachhaltig¬keitsreform 2004 verst{\"a}rkt diesen Mechanismus auf der Grundlage neuer empirischer Erkenntnisse. Auch der {\"U}bergang zur {\"u}berwiegend nachgelagerten Besteuerung mit dem Alterseink{\"u}nftegesetz 2004 wirkt in diese Richtung durch eine wachsende steuerliche Absetz¬barkeit der Alters¬sicherungsbeitr{\"a}ge bei konsekutiver Einbeziehung der Renten in die Besteuerung. Auf der anderen Seite leiten die Reformen nichts Geringeres als einen tief greifenden Paradigmen¬wechsel ein: den langfristigen {\"U}bergang eines umlagefinanzierten Pflichtversicherungs¬- zu einem Drei-S{\"a}ulen-System, in dem Zulagen und Steuerabzugs¬mechanismen Anreize zur freiwilligen Erg{\"a}nzungsvorsorge in kapitalgedeckten Sicherungs¬instrumenten bilden. F{\"u}r die wissenschaftliche Gesetzesfolgenabsch{\"a}tzung stellen diese Reformen eine enorme Herausforderung dar. Es ist das Moment der Freiheit, das in jedweder kausalen Welt Verantwortung impliziert, und die politische Folgenabsch{\"a}tzung spannend und schwierig macht. Die {\"o}konomische Fachliteratur hat Mikrosimulationsmodelle als ein leistungsf{\"a}higes Analysewerkzeug entwickelt, fiskalische und distributive Konsequenzen "f{\"u}r den Tag danach" sehr detailliert absch{\"a}tzen zu k{\"o}nnen - ohne dabei Verhaltensreaktionen zu ber{\"u}cksichtigen. Verhaltensreaktionen hingegen stehen im Mittelpunkt der rasant wachsenden Literatur zu numerischen Gleichgewichtsmodellen. Angesichts begrenzter Rechenressourcen vereinfachen diese Modelle in der Regel die Risikostruktur des {\"o}konomischen Entscheidungsproblems, um sich auf wenige Zustands- und Entscheidungsvariablen beschr{\"a}nken zu k{\"o}nnen. Sie abstrahieren h{\"a}ufig von Unstetigkeiten in Budgetrestriktionen und konzentrieren sich auf station{\"a}re Zustandstransitionen. Viele dieser Instrumente sind daher wenig geeignet abzusch{\"a}tzen, wie sich Menschen an eine Reformpolitik anpassen, die lange {\"U}bergangs¬pfade vorsieht {\"u}ber mehrdimensionale, zeitinvariate Risikostrukturen, deren imperfekte Korrelationen zu einer risikodiversifizierenden Vorsorgestrategie genutzt werden kann. Das vorliegende Buch stellt ein dynamisch stochastisches Simulationsmodell im partiellen Erwartungsgleichgewicht vor. Sein Ziel ist, Anreize in der komplexen Interaktion der Reformen mit dem umfangreichen Regulierungsrahmen in einer risikoreichen Umwelt zu identifizieren. Die einzelnen Reformen, ihre algorithmische Abbildung in das dynamische Entscheidungsmodell und die partiellen Wirkungsmechanismen sind detailliert erl{\"a}utert. Eines der Hauptergebnisse zeigt sich {\"u}berraschender Weise darin, die beobachtbare Zur{\"u}ck¬haltung niedrigerer Einkommensklassen gegen{\"u}ber den neuen Sicherungs¬instrumenten ohne R{\"u}ckgriff auf (im {\"o}kokomischen Sinne) eingeschr{\"a}nkte Rationalit{\"a}ten erkl{\"a}ren zu k{\"o}nnen. Das Modell l{\"a}sst insbesondere in mittleren Lebenseinkommensbereichen hohe Erg{\"a}nzungs¬versicherungsraten erwarten - trotz der "u"-f{\"o}rmigen F{\"o}rderquoten in statischer Quer¬schnitts¬betrachtung. Diese auf den ersten Blickt wenig intuitive Eigenschaft des Modells l{\"a}sst sich im Gesamtkontext des Alterssicherungs- und Steuersystems {\"u}ber den erwarteten Lebenshorizont erkl{\"a}ren. Das Simulationsmodell wurde am Fraunhofer-Institut f{\"u}r Angewandte Informationstechnik FIT entwickelt und wird gegenw{\"a}rtig beim Verband der Rentenversicherungstr{\"a}ger (VDR) angewandt. Ein großer Dank gilt der finanziellen F{\"o}rderung durch das Forschungsnetzwerk Alterssicherung (FNA) beim VDR.}, subject = {Deutschland}, language = {de} } @phdthesis{Ganz2008, author = {Ganz, Verena}, title = {A comprehensive approach for currency crises theories stressing the role of the anchor country}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-26853}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {The approach is based on the finding that new generations of currency crises theories always had developed ex post after popular currency crises. Discussing the main theories of currency crises shows their disparity: The First Generation of currency crises models argues based on the assumption of a chronic budget deficit that is being monetized by the domestic central bank. The result is a trade-off between an expansionary monetary policy that is focused on the internal economic balance and a fixed exchange rate which is depending on the rules of interest parity and purchasing power parity. This imbalance inevitably results in a currency crisis. Altogether, this theory argues with a disrupted external balance on the foreign exchange market. Second Generation currency crises models on the other side focus on the internal macroeconomic balance. The stability of a fixed exchange rate is depending on the economic benefit of the exchange rate system in relation to the social costs of maintaining it. As soon as social costs are increasing and showing up in deteriorating fundamentals, this leads to a speculative attack on the fixed exchange rate system. The term Third Generation of currency crises finally summarizes a variety of currency crises theories. These are also arguing psychologically to explain phenomena as contagion and spill-over effects to rationalize crises detached from the fundamental situation. Apart from the apparent inconsistency of the main theories of currency crises, a further observation is that these explanations focus on the crisis country only while international monetary transmission effects are left out of consideration. These however are a central parameter for the stability of fixed exchange rate systems, in exchange rate theory as well as in empirical observations. Altogether, these findings provide the motivation for developing a theoretical approach which integrates the main elements of the different generations of currency crises theories and which integrates international monetary transmission. Therefore a macroeconomic approach is chosen applying the concept of the Monetary Conditions Index (MCI), a linear combination of the real interest rate and the real exchange rate. This index firstly is extended for international monetary influences and called MCIfix. MCIfix illustrates the monetary conditions required for the stability of a fixed exchange rate system. The central assumption of this concept is that the uncovered interest parity is maintained. The main conclusion is that the MCIfix only depends on exogenous parameters. In a second step, the analysis integrates the monetary policy requirements for achieving an internal macroeconomic stability. By minimizing a loss function of social welfare, a MCI is derived which pictures the economically optimal monetary policy MCIopt. Instability in a fixed exchange rate system occurs as soon as the monetary conditions for an internal and external balance are deviating. For discussing macroeconomic imbalances, the central parameters determining the MCIfix (and therefore the relation of MCIfix to MCIopt) are discussed: the real interest rate of the anchor country, the real effective exchange rate and a risk premium. Applying this theory framework, four constellations are discussed where MCIfix and MCIopt fall apart in order to show the central bank's possibilities for reacting and the consequences of that behaviour. The discussion shows that the integrative approach manages to incorporate the central elements of traditional currency crises theories and that it includes international monetary transmission instead of reducing the discussion on an inconsistent domestic monetary policy. The theory framework for fixed exchange rates is finally applied in four case studies: the currency crises in Argentina, the crisis in the Czech Republic, the Asian currency crisis and the crisis of the European Monetary System. The case studies show that the developed monetary framework achieves integration of different generations of crises theories and that the monetary policy of the anchor country plays a decisive role in destabilising fixed exchange rate systems.}, subject = {Devisenmarkt}, language = {en} } @phdthesis{Ahn2007, author = {Ahn, Young-Cheul}, title = {Umweltverschmutzung als l{\"a}nder{\"u}bergreifendes Problem am Beispiel der globalen Erw{\"a}rmung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-22860}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Diese Arbeit versucht, die wirtschaftliche Bedeutung der globalen Erw{\"a}rmung zu erkl{\"a}ren und die L{\"o}sung dieses Problems zu finden. Die globale Erw{\"a}rmung als l{\"a}nder{\"u}bergreifendes Problems kann durch das marktwirtschaftliche Preissystem gel{\"o}st werden, besonders durch den internationalen Handel der Schadstoffemission. Hierbei wird die dezentrale L{\"o}sungsprinzip betont. Die globale Erw{\"a}rmung und Politik f{\"u}r die L{\"o}sung dieses Problem sind dauerhaft. Daher wird das intertemporale Wachstumsmodell zur Berechnung des Gewinns und der Kosten der Politik verlangt. Dabei wird ein Prinzip besagt, dass jede Generation verantwortlich auf ihre Generation ist. In dieser Arbeit wird versucht, die optimale Handelspolitik und die Kyoto-Politik zu vergleichen.}, language = {de} } @phdthesis{Mayer2006, author = {Mayer, Eric}, title = {New Keynesian Perspectives on Monetary Policy and the Business Cycle in Closed Economies and Monetary Unions}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-19499}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {No abstract available}, subject = {Geldtheorie}, language = {en} } @phdthesis{Kleer2008, author = {Kleer, Robin}, title = {Three Essays on Competition Policy and Innovation Incentives}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-34763}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Diese Dissertation befasst sich mit dem Thema Innovations{\"o}konomik. In einer allgemeinen Einf{\"u}hrung werden wettbewerbspolitische Gesichtspunkte, die Innovationsanreize von Firmen beeinflussen, dargestellt. In drei einzelnen Arbeiten werden dann spezielle Fragestellungen intensiver analysiert. Die erste Arbeit behandelt die Wechselwirkungen von Firmenzusammenschl{\"u}ssen und Innovationen, zwei zentrale Elemente der Wettbewerbsstrategie von Unternehmen. Der Schwerpunkt der Arbeit liegt dabei auf dem Einfluss von Firmenzusammenschl{\"u}ssen auf die Innovationsaktivit{\"a}ten und den Wettbewerb im Produktmarkt. Dabei werden auch m{\"o}gliche Ineffizienzen, die sich durch Probleme bei der Integration der Firmen nach dem Zusammenschluss ergeben, untersucht. Es wird gezeigt, dass die optimale Investitionsaktivit{\"a}t sehr stark von der sich ergebenden Marktstruktur abh{\"a}ngt und es signifikante Unterschiede zwischen Insider und Outsider des Firmenzusammenschlusses gibt. In dem Modell mit linearer Nachfragefunktion und konstanten Grenzkosten steigern Zusammenschl{\"u}sse die soziale Wohlfahrt. Die zweite Arbeit betrachtet die unterschiedlichen Vorteile von kleinen und großen Firmen im Innovationswettbewerb. W{\"a}hrend große Firmen typischerweise {\"u}ber einen besseren Zugang zu Produktm{\"a}rkten verf{\"u}gen, weisen kleine Firmen h{\"a}ufig eine bessere Forschungseffizienz auf. Diese verschiedenen Vorteile werfen unmittelbar die Frage nach Kooperationen auf. Im dargestellten Modell mit vier Unternehmen haben große Firmen die M{\"o}glichkeit kleine Firmen zu kaufen. Innovationen werden mittels Patentwettbewerb modelliert. Sequentielles Bieten erm{\"o}glicht es der ersten großen Firma strategisch zu handeln um eine Reaktion der zweiten großen Firma hervorzurufen. Ergeben sich hohe Effizienzen durch den Firmenzusammenschluss, so bevorzugen die großen Firmen eine unmittelbare Akquisition und es entsteht eine symmetrische Marktstruktur. Bei geringen Effizienzen wartet die erste Firma dagegen ab und zwingt die zweite Firma dadurch zum Kauf. Somit entsteht trotz symmetrischer Ausgangssituation eine asymmetrische Marktstruktur. Weiterhin wird gezeigt, dass Akquisitionen die Chancen f{\"u}r eine erfolgreiche Innovation erh{\"o}hen. Die dritte Arbeit befasst sich mit Forschungssubventionen. Dabei wird neben dem eigentlichen Ziel der Subvention -- der F{\"o}rderung sozial erw{\"u}nschter Projekte, die nicht gen{\"u}gend private Anreize zur Durchf{\"u}hrung bieten -- die Signalwirkung einer Subvention betrachtet. Eine Staatsbeh{\"o}rde untersucht dabei die Projekte auf Risiken und Wohlfahrtswirkungen und entscheidet daraufhin {\"u}ber eine F{\"o}rderung. Dies wird in einem einfachen Signalisierungsspiel mit zwei Risikoklassen von Forschungsprojekten modelliert. Die Staatsbeh{\"o}rde bevorzugt dabei riskante Projekte, die hohe erwartete soziale Gewinne versprechen, w{\"a}hrend Banken wenig riskante Projekte mit hohen privaten Gewinnen bevorzugen. Erm{\"o}glicht die Subvention lediglich die Unterscheidung von riskanten und weniger riskanten Projekten, so ist das Signal der Beh{\"o}rde wenig hilfreich f{\"u}r die Investitionsenscheidung der Banken. Bietet das Signal jedoch zus{\"a}tzlich einen Hinweis auf die Qualit{\"a}t der Projekte, so k{\"o}nnen sich erh{\"o}hte, bzw. effizienter ausgew{\"a}hlte, private Investitionen ergeben. Im letzten Kapitel werden die wichtigsten Aussagen zusammengefasst sowie in abschließenden Bemerkungen der Zusammenhang der Ergebnisse erl{\"a}utert.}, subject = {Wettbewerbspolitik}, language = {en} } @misc{Fricke2008, author = {Fricke, Holger}, title = {Deutschland dezentral - Potenziale, Probleme, politische Perspektiven}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-36106}, year = {2008}, abstract = {Dezentrale, wettbewerblich organisierte f{\"o}derale Ordnungen, bei denen zentrale Kompetenzen auf niedrigen institutionellen Ebenen liegen und in denen Gebietsk{\"o}rperschaften eine vergleichsweise geringe Gr{\"o}ße aufweisen, sind mit betr{\"a}chtlichen Vorteilen verbunden. So ist es besser m{\"o}glich, den Pr{\"a}ferenzen der B{\"u}rger gerecht zu werden. Außerdem wird ein h{\"o}heres Wirtschaftswachstum angeregt. Die in der Theorie genannten Nachteile (unausgesch{\"o}pfte Gr{\"o}ßenvorteile, negative Auswirkungen externer Effekte, race to the bottom bei {\"o}ffentlichen Leistungen und Sozialstaat) finden hingegen nur geringe empirische Best{\"a}tigung. Vor diesem Hintergrund ist der kooperative F{\"o}deralismus der Bundesrepublik Deutschland kritisch zu bewerten. Insbesondere der L{\"a}nderfinanzausgleich als Kernelement der bundesstaatlichen Ordnung in Deutschland ist ineffizient und bremst das Wirtschaftswachstum. Um von den Vorteilen dezentraler, wettbewerblicher f{\"o}deraler Ordnungen profitieren zu k{\"o}nnen, sollte den Bundesl{\"a}ndern insbesondere substanzielle Finanzautonomie einger{\"a}umt werden. Die Heterogenit{\"a}t politischer Pr{\"a}ferenzen abh{\"a}ngig von gew{\"a}hlter staatlicher Ebene, Gr{\"o}ße von Gebietsk{\"o}rperschaften und simulierten L{\"a}nderneugliederungen wurde anhand von Bundestagswahlergebnissen untersucht. Die entsprechende Analyse befindet sich als Anhang an dieser Stelle, w{\"a}hrend die Dissertation in gedruckter Form erschienen ist.}, subject = {Fiskalf{\"o}deralismus}, language = {de} } @phdthesis{Stark2006, author = {Stark, Peter}, title = {Funktionalit{\"a}t, Effizienz und Deregulierungspotentiale der {\"o}ffentlichen Straßeninfrastrukturbereitstellung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-27479}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Innerhalb der Verkehrsinfrastrukturen ist das Straßenwesen mit seinen individualistischen und flexiblen Kraftfahrzeugen der große Gewinner des letzen Jahrhunderts. Trotz seines individualistischen Nutzungscharakters und privatwirtschaftlichen Beispielen in anderen L{\"a}ndern ist in Deutschland heute keine andere Verkehrsinfrastruktur so weit von einer Deregulierung entfernt wie die Straßen. Den Ausgangspunkt der Erkl{\"a}rung dieser Rigidit{\"a}t bildet eine Situationsaufnahme der bestehenden Marktorganisation. Pr{\"a}gnant erweist sich die tiefe Integration der Straßenbereitstellung in die {\"o}ffentliche Verwaltung und Entscheidungen {\"u}ber den politischen Prozess unter Beteiligung aller Gesellschaftsgruppierungen. Fragen wirft dabei unter anderen die kontroverse Diskussion um die Externalit{\"a}ten der Straßen und ihres Verkehrs auf. Die Kl{\"a}rung verweist auf eine Effizienzbetrachtung des bestehenden Bereitstellungssystems. Problematisch zeigt sich hier aufgrund der politischen Heterogenit{\"a}t der Gesellschaftsgruppierungen insbesondere der politische Entscheidungsprozess. Die Suche nach einer L{\"o}sung verweist auf privatwirtschaftliche Bereitstellungsalternativen. Es zeigt sich, dass hierf{\"u}r sowohl in rechtlicher wie auch technischer Hinsicht die notwendigen Rahmenbedingungen f{\"u}r eine privatwirtschaftliche Organisation ebenso bestehen wie auch erhebliche Effizienzgewinne zu erwarten w{\"a}ren. Als eigentliches Hindernis identifiziert sich auch hier eine Neuordnung, die notwendigerweise {\"u}ber den politischen Prozess stattfindenden muss. Der eigene Erfolg der Straßen mit seiner gewachsenen verkehrs- und fiskalpolitischen Bedeutung blockiert damit heute mehr denn je Hoffnungen auf eine L{\"o}sung der aufgelaufenen Probleme im Straßenwesen.}, subject = {OKSTRA}, language = {de} } @phdthesis{Wollmershaeuser2003, author = {Wollmersh{\"a}user, Timo}, title = {A theory of managed floating}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8676}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as 'independent floaters' in the IMF statistics were charaterised by a pronounced 'fear of floating' and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that - even though it is widely used in practice - has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few 'middle-ground' economists, John Williamson, who argued that "managed floating is not a regime with well-defined rules" (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank's final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker's quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank's final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank's effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables.}, language = {en} } @phdthesis{Huelsewig2003, author = {H{\"u}lsewig, Oliver}, title = {Bank lending and monetary policy transmission in Germany}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8686}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {This study investigates the credit channel in the transmission of monetary policy in Germany by means of a structural analysis of aggregate bank loan data. We base our analysis on a stylized model of the banking firm, which specifies the loan supply decisions of banks in the light of expectations about the future course of monetary policy. Using the model as a guide, we apply a vector error correction model (VECM), in which we identify long-run cointegration relationships that can be interpreted as loan supply and loan demand equations. In this way, the identification problem inherent in reduced form approaches based on aggregate data is explicitly addressed. The short-run dynamics is explored by means of innovation analysis, which displays the reaction of the variables in the system to a monetary policy shock. The main implication of our results is that the credit channel in Germany appears to be effective, as we find that loan supply effects in addition to loan demand effects contribute to the propagation of monetary policy measures.}, language = {en} } @phdthesis{Schlegtendal2003, author = {Schlegtendal, G{\"o}tz}, title = {Die Wirkung flexibler Entgeltkomponenten auf den Arbeitsmarkt unter Ber{\"u}cksichtigung betriebswirtschaftlicher Aspekte}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-5277}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Untersuchungsgegenstand dieser Arbeit sind die Wirkungen flexibler Entgeltkomponenten (Leistungslohn, Erfolgsbeteiligung, Kapitalbeteiligung) auf der betriebs- und volkswirtschaftlichen Ebene. Ausgangspunkt ist dabei die Analyse der herrschenden Arbeitslosigkeit im Hinblick auf die Ursachen und die Gr{\"u}nde ihrer Verfestigung und Persistenz. Dabei wird festgestellt, dass die existierende Arbeitslosigkeit {\"u}ber verschiedene Theorien erkl{\"a}rt und in mehrere Bestandteile zerlegt werden kann. Ein erheblicher Teil der Arbeitslosigkeit kann auf unflexible, {\"u}berh{\"o}hte Reall{\"o}hne zur{\"u}ckgef{\"u}hrt werden. Unterschiedliche Einfl{\"u}sse verhindern dann ein Absinken des Lohnniveaus auf ein vollbesch{\"a}ftigungskonformes Niveau. Strukturelle Ursachen, i. S. v. Fehlentwicklungen auf dem Arbeitsmarkt und ungen{\"u}genden Anpassungskapazit{\"a}ten an ver{\"a}nderte Rahmenbedingungen sind eine weitere Begr{\"u}ndung f{\"u}r die hohe und nachhaltige Arbeitslosigkeit. Entgelte, die in ihrer H{\"o}he und in ihrer sektoralen, regionalen und berufsbezogenen Ausrichtungen flexibel sind, k{\"o}nnen einen maßgeblichen Beitrag zum Abbau dieser Arbeitslosigkeit leisten. Aufbauend auf diese volkswirtschaftlichen Ansatz werden im folgenden Kapitel wesentliche betriebswirtschaftlichen Aspekte aus Sicht von Unternehmern und Arbeitnehmer dargestellt. Auf diesen Grundlagen aufbauend werden 3 Formen der Entgeltflexibilisierung im Hinblick auf ihre gesamt- und betriebswirtschaftlichen Wirkungen betrachtet. Leistungsl{\"o}hne orientieren sich entweder am quantitativ messbaren Output oder der qualitativen Arbeitsbewertung eines Arbeitnehmers. Sie tragen somit unmittelbar zu einer produktivit{\"a}tsorientierten Entlohnung bei, mit positiven Effekten f{\"u}r Unternehmen und Gesamtwirtschaft. Seit Martin Weitzman's kontrovers diskutierter "Beteiligungsgesellschaft" werden Erfolgsbeteiligungen als ein Weg gesehen um Arbeitslosigkeit abzubauen. Von der Verbindung zwischen Unternehmenserfolg und Entlohnung profitieren Arbeitnehmer, Unternehmen und Arbeitslose. Kapitalbeteiligungen haben keinen direkten Einfluss auf die Arbeitslosigkeit. Indirekt tragen sie jedoch zur erh{\"o}hter Motivation und Identifikation in den Unternehmen bei. Auch die Bereitstellung von Kapital kann je nach Modell Arbeitspl{\"a}tze sichern. Neben diesen drei Hauptformen werden auch Investivl{\"o}hne und Aktienoptionen als Wege der Flexibilisierung betrachtet. Dabei war festzustellen, Investivl{\"o}hne (zur {\"U}berwindung des Eigenkapitalmangels vieler Unternehmen) analoge Wirkungen zu Erfolgs- und Kapitalbeteiligung aufweist. Aktienoptionen hingegen betreffen in der Regel nur kleiner Gruppen von Arbeitnehmern und F{\"u}hrungskr{\"a}ften. Ein letztes Kapitel zeigt die Gestaltung eines optimalen Entgeltsystems. Dieses weist neben einen Grundentgelt, einen Leistungslohn sowie eine Erfolgsbeteiligung auf, die durch eine optionale Kapitalbeteiligung erg{\"a}nzt werden k{\"o}nnen. Dabei wird noch einmal betont, dass eine flexiblere Gestaltung von Entgelten keine alleinige L{\"o}sung der Arbeitslosigkeit bietet. Vielmehr m{\"u}ssen strukturelle Reformen, die die Machtstrukturen am Arbeitsmarkt, die H{\"o}he und Ausgestaltung der Lohnersatzleistungen sowie die St{\"a}rkung des Wirtschaftswachstums mit der Flexibilisierung Hand in Hand gehen.}, subject = {Arbeitsmarkt}, language = {de} } @phdthesis{Roennberg2010, author = {R{\"o}nnberg, Michael}, title = {Bedeutung der Spezifikation f{\"u}r Ratingmodelle}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-48895}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {Ziel dieser Arbeit ist die Untersuchung der Bedeutung der Spezifikation f{\"u}r Ratingmodelle zur Prognose von Kreditausfallwahrscheinlichkeiten. Ausgehend von dem in der Bankenpraxis etablierten Logit-Modell werden verschiedene Modellerweiterungen diskutiert und hinsichtlich ihrer Eigenschaften als Ratingmodelle empirisch und simulationsbasiert untersucht. Die Interpretierbarkeit und die Prognoseg{\"u}te der Modelle werden dabei gleichermaßen ber{\"u}cksichtigt. Besonderes Augenmerk wird auf Mixed Logit-Modelle zur Abbildung individueller Heterogenit{\"a}t gelegt. Die Ergebnisse zeigen, dass die Spezifikation einen wichtigen Einfluss auf die Eigenschaften von Ratingmodellen hat und dass insbesondere mit Hilfe von Mixed Logit-Ans{\"a}tzen sinnvoll interpretierbare Ratingmodelle mit guten Prognoseeigenschaften erlangt werden k{\"o}nnen.}, subject = {Bank}, language = {de} } @phdthesis{Wismer2013, author = {Wismer, Sebastian}, title = {Essays in Industrial Organization: Intermediation, Marketing, and Strategic Pricing}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-99102}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {This dissertation deals with certain business strategies that have become particularly relevant with the spread and development of new information technologies. The introduction explains the motivation, discusses different ways of defining the term "two-sided market", and briefly summarizes the subsequent essays. The first essay examines the effects of product information on the pricing and advertising decision of a seller who offers an experience good whose quality is unknown to consumers prior to purchase. It comprises of two theoretical models which differ with respect to their view on advertising. The analysis addresses the question how the availability of additional, potentially misleading information affects the seller's quality-dependent pricing and advertising decision. In the first model, in which both advertising and product reviews make consumers aware about product existence, the seller's optimal price turns out to be increasing in product quality. However, under certain circumstances, also the seller of a low-quality product prefers setting a high price. Within the given framework, the relationship between product quality and advertising depends on the particular parameter constellation. In the second model, some consumers are assumed to interpret price as a signal of quality, while others rely on information provided by product reviews. Consequently, and differently from the first part, pricing may indirectly inform consumers about product quality. On the one hand, in spite of asymmetric information on product quality, equilibria exist that feature full information pricing, which is in line with previous results presented by the signaling literature. On the other hand, potentially misleading product reviews may rationalize further pricing patterns. Moreover, assuming that firms can manipulate product reviews by investing in concealed marketing, equilibria can arise in which a high price signals low product quality. However, in these extreme cases, only a few (credulous) consumers consider buying the product. The second essay deals with trade platforms whose operators not only allow sellers to offer their products to consumers, but also offer products themselves. In this context, the platform operator faces a hold-up problem if he sets classical two-part tariffs (on which previous literature on two-sided markets focussed) as potential competition between the platform operator and sellers reduces platform attractiveness. Since some sellers refuse to join the platform, products whose existence is not known to the platform operator in the first place and which can only be established by better informed sellers may not be offered at all. However, revenue-based fees lower the platform operator's incentives to compete with sellers, increasing platform attractiveness. Therefore, charging such proportional fees can be profitable, what may explain why several trade platforms indeed do charge proportional fees. The third essay examines settings in which sellers can be active both on an intermediary's trade platform and in other sales channels. It explores the sellers' incentives to set different prices across sales channels within the given setup. Afterwards, it analyzes the intermediary's tariff decision, taking into account the implications on consumers' choice between different sales channels. The analysis particularly focusses on the effects of a no-discrimination rule which several intermediaries impose, but which appears to be controversial from a competition policy view. It identifies under which circumstances the intermediary prefers restricting sellers' pricing decisions by imposing a no-discrimination rule, attaining direct control over the split-up of customers on sales channels. Moreover, it illustrates that such rules can have both positive and negative effects on welfare within the given framework.}, subject = {Industrie{\"o}konomie}, language = {en} } @phdthesis{DonadoGomez2011, author = {Donado Gomez, Alejandro}, title = {Trade Unions and Occupational Health and Safety}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-56076}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {This thesis comprises three essays that study the impact of trade unions on occupational health and safety (OHS). The first essay proposes a theoretical model that highlights the crucial role that unions have played throughout history in making workplaces safer. Firms traditionally oppose better health standards. Workplace safety is costly for firms but increases the average health of workers and thereby the aggregate labour supply. A laissez-faire approach in which firms set safety standards is suboptimal as workers are not fully informed of health risks associated with their jobs. Safety standards set by better-informed trade unions are output and welfare increasing. The second essay extends the model to a two-country world consisting of the capital-rich "North" and the capital-poor "South". The North has trade unions that set high OHS standards. There are no unions in the South and OHS standards are low. Trade between these two countries can imply a reduction in safety standards in the North, lowering the positive welfare effects of trade. Moreover, when trade unions are also established in the South, northern OHS standards might be further reduced. The third essay studies the impact of unions on OHS from an empirical perspective. It focuses on one component of OHS: occupational injuries. A literature summary including 25 empirical studies shows that most studies associate unions with less fatal occupational injuries. This is in perfect line with the anecdotal evidence and the basic model from the first essay. However, the literature summary also shows that most empirical studies associate unions with more nonfatal occupational injuries. This puzzling result has been explained in the literature by (1) lower underreporting in unionized workplaces, (2) unions being more able to organize hazardous workplaces, and (3) unionized workers preferring higher wages at the expense of better working conditions. Using individual-level panel data, this essay presents evidence against all these three explanations. However, it cannot reject the hypothesis that workers reduce their precautionary behaviour when they join a trade union. Hence, the puzzle seems to be due to a strong moral hazard effect. These empirical results suggest that the basic model from the first essay needs to be extended to account for this moral hazard effect.}, subject = {Arbeitsschutz}, language = {en} } @phdthesis{Brause2010, author = {Brause, Alexander F.}, title = {Foreign Exchange Market Interventions: New Empirical Views of Emerging Markets}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-55207}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {Since the beginning, central banks have used a wide range of instruments to achieve their ultimate purpose of price stability. One measure in the authorities’ toolbox is a foreign exchange market intervention. The discussion about this instrument has come a long way. So far, the discussion relied mainly on industrialized countries'’ experiences. The negative outcomes of most studies with respect to the effectiveness of the intervention tool, opened up a discussion, whether interventions should be used by the authorities to manage exchange rate aspects. Consequently, the question about the dynamics of foreign exchange market interventions is now open to the subject-matter of developing and emerging market countries. Monetary policy in those countries often constitutes an active management of exchange rates. However, the basic discussions about intervention dynamics have had one essential drawback. Neither the primary literature of industrialized countries nor studies dealing with developing countries have considered the fact that intervention purposes and the corresponding effects are likely to vary over time. This thesis is designed to provide the reader with essential issues of central bank interventions, and aims to give further, as well as new contributions, in terms of empirical research on interventions in emerging markets. The main objectives of this study are the analysis of central bank intervention motives, and the corresponding effects on exchange rates in emerging markets. The time dependency of both issues is explicitly considered, which states a novelty in academic research of central bank interventions. Additionally, the outcomes are discussed against the background of underlying economic and monetary policy fundamentals. This could well serve as a starting point for further research.}, subject = {Schwellenl{\"a}nder}, language = {en} } @phdthesis{Steinmetz2009, author = {Steinmetz, Alexander}, title = {Essays on Strategic Behavior and Dynamic Oligopoly Competition}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-47934}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {This thesis deals with three selected dimensions of strategic behavior, namely investment in R\&D, mergers and acquisitions, and inventory decisions in dynamic oligopolies. The question the first essay addresses is how the market structure evolves due to innovative activities when firms' level of technological competence is valuable for more than one project. The focus of the work is the analysis of the effect of learning-by-doing and organizational forgetting in R\&D on firms' incentives to innovate. A dynamic step-by-step innovation model with history dependency is developed. Firms can accumulate knowledge by investing in R\&D. As a benchmark without knowledge accumulation it is shown that relaxing the usual assumption of imposed imitation yields additional strategic effects. Therefore, the leader's R\&D effort increases with the gap as she is trying to avoid competition in the future. When firms gain experience by performing R\&D, the resulting effect of knowledge induces technological leaders to rest on their laurels which allows followers to catch up. Contrary to the benchmark case the leader's innovation effort declines with the lead. This causes an equilibrium where the incentives to innovate are highest when competition is most intense. Using a model of oligopoly in general equilibrium the second essay analyzes the integration of economies that might be accompanied by cross-border merger waves. Studying economies which prior to trade were in stable equilibrium where mergers were not profitable, we show that globalization can trigger cross-border merger waves for a sufficiently large heterogeneity in marginal cost. In partial equilibrium, consumers benefit from integration even when a merger wave is triggered which considerably lowers intensity of competition. Welfare increases. In contrast, in general equilibrium where interactions between markets and therefore effects on factor prices are considered, gains from trade can only be realized by reallocation of resources. The higher the technological dissimilarity between countries the better can efficiency gains be realized in integrated general equilibrium. The overall welfare effect of integration is positive when all firms remain active but indeterminate when firms exit or are absorbed due to a merger wave. It is possible for decreasing competition to dominate the welfare gain from more efficient resource allocation across sectors. Allowing for firms' entry alters results as in an integrated world coexistence of firms of different countries is never possible. Comparative advantages with respect to entry and production are important for realizing efficiency gains from trade. The third essay analyzes the interaction between price and inventory decisions in an oligopoly industry and its implications for the dynamics of prices. The work extends existing literature and especially the work of Hall and Rust (2007) to endogenous prices and strategic oligopoly competition. We show that the optimal decision rule is an (S,s) order policy and prices and inventories are strategic substitutes. Fixed ordering costs generate infrequent orders. Additionally, with strategic competition in prices, (S,s) inventory behavior together with demand uncertainty generates cyclical pattern in prices The last chapter presents some concluding remarks on the results of the essays.}, subject = {Wettbewerbsstrategie}, language = {en} } @phdthesis{Schumm2009, author = {Schumm, Irene}, title = {Lessons Learned From Germany's 2001-2006 Labor Market Reforms}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-43705}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zun{\"a}chst wird ein {\"U}berblick {\"u}ber die wichtigsten {\"A}nderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, n{\"a}mlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verk{\"u}rzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte {\"O}konomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabh{\"a}ngiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise k{\"o}nnen die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden.}, subject = {Hartz-Reform}, language = {en} } @article{RoemeisHerwegMueller2022, author = {R{\"o}meis, Fabio and Herweg, Fabian and M{\"u}ller, Daniel}, title = {Salience bias and overwork}, series = {Games}, volume = {13}, journal = {Games}, number = {1}, issn = {2073-4336}, doi = {10.3390/g13010015}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-255213}, year = {2022}, abstract = {In this study, we enrich a standard principal-agent model with hidden action by introducing salience-biased perception on the agent's side. The agent's misguided focus on salient payoffs, which leads the agent's and the principal's probability assessments to diverge, has two effects: First, the agent focuses too much on obtaining a bonus, which facilitates incentive provision. Second, the principal may exploit the diverging probability assessments to relax participation. We show that salience bias can reverse the nature of the inefficiency arising from moral hazard; i.e., the principal does not necessarily provide insufficient incentives that result in inefficiently low effort but instead may well provide excessive incentives that result in inefficiently high effort.}, language = {en} } @phdthesis{Gruendler2018, author = {Gr{\"u}ndler, Klaus}, title = {A Contribution to the Empirics of Economic Development - The Role of Technology, Inequality, and the State}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-072-6 (Print)}, doi = {10.25972/WUP-978-3-95826-073-3}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-141520}, school = {W{\"u}rzburg University Press}, pages = {300}, year = {2018}, abstract = {This dissertation contributes to the empirical analysis of economic development. The continuing poverty in many Sub-Saharan-African countries as well as the declining trend in growth in the advanced economies that was initiated around the turn of the millennium raises a number of new questions which have received little attention in recent empirical studies. Is culture a decisive factor for economic development? Do larger financial markets trigger positive stimuli with regard to incomes, or is the recent increase in their size in advanced economies detrimental to economic growth? What causes secular stagnation, i.e. the reduction in growth rates of the advanced economies observable over the past 20 years? What is the role of inequality in the growth process, and how do governmental attempts to equalize the income distribution affect economic development? And finally: Is the process of democratization accompanied by an increase in living standards? These are the central questions of this doctoral thesis. To facilitate the empirical analysis of the determinants of economic growth, this dissertation introduces a new method to compute classifications in the field of social sciences. The approach is based on mathematical algorithms of machine learning and pattern recognition. Whereas the construction of indices typically relies on arbitrary assumptions regarding the aggregation strategy of the underlying attributes, utilization of Support Vector Machines transfers the question of how to aggregate the individual components into a non-linear optimization problem. Following a brief overview of the theoretical models of economic growth provided in the first chapter, the second chapter illustrates the importance of culture in explaining the differences in incomes across the globe. In particular, if inhabitants have a lower average degree of risk-aversion, the implementation of new technology proceeds much faster compared with countries with a lower tendency towards risk. However, this effect depends on the legal and political framework of the countries, their average level of education, and their stage of development. The initial wealth of individuals is often not sufficient to cover the cost of investments in both education and new technologies. By providing loans, a developed financial sector may help to overcome this shortage. However, the investigations in the third chapter show that this mechanism is dependent on the development levels of the economies. In poor countries, growth of the financial sector leads to better education and higher investment levels. This effect diminishes along the development process, as intermediary activity is increasingly replaced by speculative transactions. Particularly in times of low technological innovation, an increasing financial sector has a negative impact on economic development. In fact, the world economy is currently in a phase of this kind. Since the turn of the millennium, growth rates in the advanced economies have experienced a multi-national decline, leading to an intense debate about "secular stagnation" initiated at the beginning of 2015. The fourth chapter deals with this phenomenon and shows that the growth potentials of new technologies have been gradually declining since the beginning of the 2000s. If incomes are unequally distributed, some individuals can invest less in education and technological innovations, which is why the fifth chapter identifies an overall negative effect of inequality on growth. This influence, however, depends on the development level of countries. While the negative effect is strongly pronounced in poor economies with a low degree of equality of opportunity, this influence disappears during the development process. Accordingly, redistributive polices of governments exert a growth-promoting effect in developing countries, while in advanced economies, the fostering of equal opportunities is much more decisive. The sixth chapter analyzes the growth effect of the political environment and shows that the ambiguity of earlier studies is mainly due to unsophisticated measurement of the degree of democratization. To solve this problem, the chapter introduces a new method based on mathematical algorithms of machine learning and pattern recognition. While the approach can be used for various classification problems in the field of social sciences, in this dissertation it is applied for the problem of democracy measurement. Based on different country examples, the chapter shows that the resulting SVMDI is superior to other indices in modeling the level of democracy. The subsequent empirical analysis emphasizes a significantly positive growth effect of democracy measured via SVMDI.}, subject = {Wirtschaftsentwicklung}, language = {en} } @phdthesis{Schamberger2022, author = {Schamberger, Tamara Svenja}, title = {Methodological Advances in Composite-based Structural Equation Modeling}, isbn = {978-90-365-5375-9}, doi = {10.3990/1.9789036553759}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-276794}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package "cSEM" with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package "cSEM". This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in "Human Development". Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling.}, subject = {Structural Equation Modeling}, language = {en} } @phdthesis{Schuberth2019, author = {Schuberth, Florian}, title = {Composite-based Methods in Structural Equation Modeling}, doi = {10.25972/OPUS-15465}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-154653}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples.}, subject = {Strukturgleichungsmodell}, language = {en} } @techreport{GrunewaldKlockmannvonSchenketal.2024, type = {Working Paper}, author = {Grunewald, Andreas and Klockmann, Victor and von Schenk, Alicia and von Siemens, Ferdinand A.}, title = {Are Biases Contagious? The Influence of Communication on Motivated Beliefs}, doi = {10.25972/OPUS-34893}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-348936}, pages = {1-38}, year = {2024}, abstract = {This paper examines the potential reinforcement of motivated beliefs when individuals with identical biases communicate. We propose a controlled online experiment that allows to manipulate belief biases and the communication environment. We find that communication, even among like-minded individuals, diminishes motivated beliefs if it takes place in an environment without previously declared external opinions. In the presence of external plural opinions, however, communication does not reduce but rather aggravates motivated beliefs. Our results indicate a potential drawback of the plurality of opinions - it may create communication environments wherein motivated beliefs not only persist but also become contagious within social networks.}, subject = {Bias}, language = {en} } @article{GruendlerMayerScharler2023, author = {Gr{\"u}ndler, Daniel and Mayer, Eric and Scharler, Johann}, title = {Monetary policy announcements, information shocks, and exchange rate dynamics}, series = {Open Economies Review}, volume = {34}, journal = {Open Economies Review}, number = {2}, issn = {0923-7992}, doi = {10.1007/s11079-022-09682-6}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-325175}, pages = {341-369}, year = {2023}, abstract = {We study nominal exchange rate dynamics in the aftermath of U.S. monetary policy announcements. Using high-frequency interest rate and stock price movements around FOMC announcements, we distinguish between pure monetary policy shocks and information shocks, which are associated with new information contained in the announcements. Contractionary pure policy shocks give rise to a strong, but transitory, appreciation on impact. Information shocks also appreciate the exchange rate, but the effect builds up only slowly over time and is highly persistent. Thus, we conclude that although the short-run effects on the exchange rate are primarily due to pure policy shocks, the medium-run response is driven by information effects.}, language = {en} } @techreport{AlbersKerstingKosse2023, type = {Working Paper}, author = {Albers, Thilo N. H. and Kersting, Felix and Kosse, Fabian}, title = {Income misperception and populism}, doi = {10.25972/OPUS-32169}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-321696}, pages = {38}, year = {2023}, abstract = {We propose that false beliefs about own current economic status are an important factor for explaining populist attitudes. Eliciting subjects' receptiveness to rightwing populism and their perceived relative income positions in a representative survey of German households, we find that people with pessimistic beliefs about their income position are more attuned to populist statements. Key to understanding the misperception-populism relationship are strong gender differences in the mechanism: men are much more likely to channel their discontent into affection for populist ideas. A simple information provision does neither sustainably reduce misperception nor curb populism.}, subject = {Populismus}, language = {en} } @techreport{BofingerHaas2023, type = {Working Paper}, author = {Bofinger, Peter and Haas, Thomas}, title = {R-Star: A new approach to estimate the polar star of monetary policy}, doi = {10.25972/OPUS-32739}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-327394}, year = {2023}, abstract = {The necessary adjustments to prominent measures of the neutral rate of interest following the COVID pandemic sparked a wide-ranging debate on the measurement and usefulness of r-star. Due to high uncertainty about relevant determinants, trend patterns and the correct estimation method, we propose in this paper a simple alternative approach derived from a standard macro model. Starting from a loss function, neutral periods can be determined in which a neutral real interest rate is observable. Using these values, a medium-term trend for a neutral interest rate can be determined. An application to the USA shows that our simple calculation of a neutral interest rate delivers comparable results to existing studies. A Taylor rule based on our neutral interest rate also does a fairly good job of explaining US monetary policy over the past 60 years.}, subject = {Zins}, language = {en} } @techreport{BofingerGeissendoerferHaasetal.2023, author = {Bofinger, Peter and Geißend{\"o}rfer, Lisa and Haas, Thomas and Mayer, Fabian}, title = {Credit as an Instrument for Growth: A Monetary Explanation of the Chinese Growth Story}, doi = {10.25972/OPUS-32880}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-328804}, pages = {148}, year = {2023}, abstract = {This study describes the Chinese growth model over the past 40 years. We show that China's growth model, with its dominant role of the banking system and "the banker", is a perfect illustration of the necessity and power of Schumpeter's "monetary analysis". This approach has allowed us to elaborate theoretically and empirically the uniqueness of the Chinese model. In our empirical analysis, we use a new dataset of Chinese provincial data to analyze the impact of the financial system, especially banks, on Chinese economic development. We also empirically assess the role of the financial system in Chinese industrial policy and provide case studies of the effects of industrial policy in specific sectors. Finally, we also discuss macroeconomic dimensions of the Chinese growth process and lessons that can be drawn from the Chinese experience for other countries.}, subject = {Industriepolitik}, language = {en} } @techreport{BolzNaumannRichter2024, type = {Working Paper}, author = {Bolz, Simon J. and Naumann, Fabrice and Richter, Philipp M.}, title = {Unilateral Environmental Policy and Offshoring}, doi = {10.25972/OPUS-35903}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-359033}, pages = {66}, year = {2024}, abstract = {Expanding on a general equilibrium model of offshoring, we analyze the effects of a unilateral emissions tax increase on the environment, income, and inequality. Heterogeneous firms allocate labor across production tasks and emissions abatement, while only the most productive can benefit from lower labor and/or emissions costs abroad and offshore. We find a non-monotonic effect on global emissions, which decline if the initial difference in emissions taxes is small. For a sufficiently large difference, global emissions rise, implying emissions leakage of more than 100\%. The underlying driver is a global technique effect: While the emissions intensity of incumbent non-offshoring firms declines, the cleanest firms start offshoring. Moreover, offshoring firms become dirtier, induced by a reduction in the foreign effective emissions tax in general equilibrium. Implementing a BCA prevents emissions leakage, reduces income inequality in the reforming country, but raises inequality across countries.}, subject = {Umweltpolitik}, language = {en} } @phdthesis{Oeffner2008, author = {Oeffner, Marc}, title = {AGENT-BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent-Based Computer Simulation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-39277}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang St{\"u}tzel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading).}, subject = {Mehragentensystem}, language = {en} } @techreport{MahlkowWanner2023, type = {Working Paper}, author = {Mahlkow, Hendrik and Wanner, Joschka}, title = {The Carbon Footprint of Global Trade Imbalances}, doi = {10.25972/OPUS-33041}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-330410}, pages = {53}, year = {2023}, abstract = {International trade is highly imbalanced both in terms of values and in terms of embodied carbon emissions. We show that the persistent current value trade imbalance patterns contribute to a higher level of global emissions compared to a world of balanced international trade. Specifically, we build a Ricardian quantitative trade model including sectoral input-output linkages, trade imbalances, fossil fuel extraction, and carbon emissions from fossil fuel combustion and use this framework to simulate counterfactual changes to countries' trade balances. For individual countries, the emission effects of removing their trade imbalances depend on the carbon intensities of their production and consumption patterns, as well as on their fossil resource abundance. Eliminating the Russian trade surplus and the US trade deficit would lead to the largest environmental benefits in terms of lower global emissions. Globally, the simultaneous removal of all trade imbalances would lower world carbon emissions by 0.9 percent or 295 million tons of carbon dioxide.}, language = {en} } @phdthesis{Feldman2023, author = {Feldman, Maria}, title = {Gesundheitssystem und Gesundheitsreform in Deutschland: Eine Simulationsstudie}, doi = {10.25972/OPUS-33083}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-330837}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Diese Arbeit pr{\"a}sentiert ein stochastisches {\"U}berlappungsmodell von Generationen mit endogenen Gesundheitsinvestitionen und endogenem Mortalit{\"a}tsrisiko. Dieses Modell erm{\"o}glicht es, makro{\"o}konomische und Auswirkungen von Gesundheitsreformen in Deutschland zu quantifizieren. Zus{\"a}tzlich werden Wohlfahrtsaspekte solcher Reformen beleuchtet. Zu Beginn der Arbeit wird ein Ausgangsgleichgewicht dargestellt, welches die Situation in Deutschland im Jahr 2020 abbildet. Hierbei sind Individuen entweder gesetzlich oder privat krankenversichert. Die Versicherungen unterscheiden sich hinsichtlich der Finanzierung sowie der Behandlungskosten und -qualit{\"a}t. Die Arbeit untersucht den {\"U}bergang zu einem einheitlichen System, welches entweder umlagefinanziert ist oder mit dem Kapitaldeckungsverfahren arbeitet. Die Simulationsergebnisse deuten darauf hin, dass die gesetzliche Krankenversicherung und somit einkommensabh{\"a}ngige Beitr{\"a}ge mit besseren Versicherungseigenschaften verbunden sind, die die Verzerrungen bei der Arbeitsangebotsmenge kompensieren k{\"o}nnen, jedoch auf Kosten eines h{\"o}heren moralischen Risikos gehen. Pr{\"a}mienmodelle hingegen f{\"u}hren zu einem h{\"o}heren Arbeitsangebot und besserem Vorsorge-Verhalten in Form von Ersparnissen oder Gesundheitsinvestitionen. Ich stellen auch fest, dass obligatorische Selbstbehalte das aggregierte Wohlergehen in Deutschland verringern w{\"u}rden, obwohl sie das moralische Risiko reduzieren und private Gesundheitsinvestitionen erh{\"o}hen. Schließlich ist der {\"U}bergang zu einer reinen privat Versicherung f{\"u}r {\"U}bergangskohorten kostspielig, was auf eine Pr{\"a}ferenz f{\"u}r kosteng{\"u}nstigere umlagefinanzierte Pr{\"a}mien aufgrund von Effizienz{\"u}berlegungen hinweist.}, subject = {Private Krankenversicherung}, language = {de} } @phdthesis{Froehlich2023, author = {Fr{\"o}hlich, Adrian}, title = {Endogene Rentenentscheidungen mit Gesundheitsschocks in einem OLG-Modell}, doi = {10.25972/OPUS-33082}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-330827}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Der demografische Wandel im Zusammenhang mit einer alternden Bev{\"o}lkerung sorgt daf{\"u}r, dass Regierungen weltweit zur Reformierung ihrer Rentensysteme gezwungen werden. Ein beliebtes Mittel hierbei ist die Anhebung der Regelaltersgrenze. Diese Maßnahme ist jedoch in der Bev{\"o}lkerung unbeliebt, weshalb hier nach alternativen Wegen gesucht wird, um fr{\"u}hzeitig in den Ruhestand einzutreten. Eine M{\"o}glichkeit, solchen angepassten Altersrentenregelungen zu entgehen, ist der Bezug einer Erwerbsminderungsrente. Deutschland schuf hier neue Anreize, in die Erwerbsminderung einzutreten, indem es die erwarteten Rentenzahlbetr{\"a}ge anhob. Dies ist der Ausgangspunkt der vorliegenden Arbeit, in der das Renteneintrittsverhalten und die daraus resultierenden makro{\"o}konomischen Effekte von Rentenreformen unter Verwendung eines allgemeinen Gleichgewichtsmodells untersucht werden. In diesem k{\"o}nnen Haushalte sowohl {\"u}ber den Zeitpunkt als auch die Art ihres Renteneintritts entscheiden, wobei sie zwischen einer Erwerbsminderungs- und einer Altersrente w{\"a}hlen k{\"o}nnen. Bei der Bewertung der tats{\"a}chlich realisierten Rentenreformen von 2007 und 2018 wird ersichtlich, dass die Anhebung der Regelaltersgrenze zu positiven Effekten sowohl mit Blick auf die Tragf{\"a}higkeit des Rentensystems als auch die gesamtwirtschaftliche Wohlfahrt gef{\"u}hrt h{\"a}tte. Die Realisierung dieser Gewinne wird jedoch durch die 2018 realisierte Anhebung der Zurechnungszeiten beinahe komplett zunichte gemacht. Allein die fiskalischen Auswirkungen, bei denen von Verhaltensreaktionen von Seiten der Haushalte abgesehen wird, w{\"u}rden fiskalische Kosten erzeugen, die ungef{\"a}hr ein Drittel der zuvor generierten positiven Effekte eliminieren. K{\"o}nnen die Haushalte komplett frei {\"u}ber ihre Ruhestandsentscheidung verf{\"u}gen, verschwinden die zuvor generierten Wohlfahrtsgewinne sogar beinahe vollst{\"a}ndig, und das Rentensystem sowie die makro{\"o}konomischen Gr{\"o}ßen befinden sich auf einem Niveau, das vergleichbar mit dem des Ausgangsgleichgewichts ist. Alternative Rentenreformen, basierend auf der Gesetzeslage von 2018, verdeutlichen, dass effektive Rentenpolitik nur dann funktionieren kann, wenn Alters- und Erwerbsminderungsrente als Gesamtpaket betrachtet werden. Hierdurch werden Erkenntnisse f{\"u}r die Gestaltung zuk{\"u}nftiger Rentenreformen gewonnen und die Bedeutung eines ganzheitlichen Ansatzes betont, der die verschiedenen Aspekte des Rentensystems ber{\"u}cksichtigt.}, subject = {Erwerbsminderungsrente}, language = {de} } @phdthesis{Maas2018, author = {Maas, Daniel Peter}, title = {Currency Areas, Monetary Policy, and the Macroeconomy}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-168037}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {Hauptgegenstand der Dissertation ist die Analyse der makro{\"o}konomischen Auswirkungen der Gr{\"u}ndung der Eurozone auf die Mitgliedsstaaten. Diese Analyse umfasst zwei Studien, die sich der Fragestellung aus verschiedenen Perspektiven n{\"a}hern. Die erste Studie unternimmt einen Vergleich der Geldpolitik von EZB und von ausgew{\"a}hlten Zentralbanken des Europ{\"a}ischen W{\"a}hrungssystems (EWS). Es wird untersucht, inwiefern sich bei makro{\"o}konomischen Nachfrage- und Angebotsschocks die systematischen Reaktionen der EZB von denen der vier wichtigsten nationalen Zentralbanken des EWS (Deutschland, Frankreich, Italien und Spanien) unterscheiden. In der zweiten Studie werden die Ursachen f{\"u}r den Aufbau interner und externer Ungleichgewichte in Spanien, d.h. auf dem Immobilienmarkt und in der Leistungsbilanz, im Vorfeld der Finanzkrise 2007/08 analysiert. Dabei wird zwischen Spanien-spezifischen und Eurozonen-spezifischen Ursachen unterschieden und deren Erkl{\"a}rungsgehalt empirisch quantifiziert. In der dritten und letzten Studie der Dissertation wird ein preistheoretisches Kreditangebotsmodell entwickelt und empirisch gesch{\"a}tzt. Als Basis f{\"u}r die empirische Sch{\"a}tzung werden Daten des Kreditmarktes f{\"u}r deutsche Unternehmen verwendet. Die methodische Vorgehensweise beinhaltet in allen Studien zeitreihen{\"o}konometrische Ans{\"a}tze wie beispielsweise (Mehrl{\"a}nder-)Vektorautoregressionen (VARs) und Zeitreihenregressionen.}, subject = {Geldpolitik}, language = {en} } @phdthesis{deGraafgebButtler2024, author = {de Graaf [geb. Buttler], Simone Linda}, title = {From Small to Large Data: Leveraging Synthetic Data for Inventory Management}, doi = {10.25972/OPUS-36136}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-361364}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2024}, abstract = {In a world of constant change, uncertainty has become a daily challenge for businesses. Rapidly shifting market conditions highlight the need for flexible responses to unforeseen events. Operations Management (OM) is crucial for optimizing business processes, including site planning, production control, and inventory management. Traditionally, companies have relied on theoretical models from microeconomics, game theory, optimization, and simulation. However, advancements in machine learning and mathematical optimization have led to a new research field: data-driven OM. Data-driven OM uses real data, especially time series data, to create more realistic models that better capture decision-making complexities. Despite the promise of this new research area, a significant challenge remains: the availability of extensive historical training data. Synthetic data, which mimics real data, has been used to address this issue in other machine learning applications. Therefore, this dissertation explores how synthetic data can be leveraged to improve decisions for data-driven inventory management, focusing on the single-period newsvendor problem, a classic stochastic optimization problem in inventory management. The first article, "A Meta Analysis of Data-Driven Newsvendor Approaches", presents a standardized evaluation framework for data-driven prescriptive approaches, tested through a numerical study. Findings suggest model performance is not robust, emphasizing the need for a standardized evaluation process. The second article, "Application of Generative Adversarial Networks in Inventory Management", examines using synthetic data generated by Generative Adversarial Networks (GANs) for the newsvendor problem. This study shows GANs can model complex demand relationships, offering a promising alternative to traditional methods. The third article, "Combining Synthetic Data and Transfer Learning for Deep Reinforcement Learning in Inventory Management", proposes a method using Deep Reinforcement Learning (DRL) with synthetic and real data through transfer learning. This approach trains a generative model to learn demand distributions, generates synthetic data, and fine-tunes a DRL agent on a smaller real dataset. This method outperforms traditional approaches in controlled and practical settings, though further research is needed to generalize these findings.}, subject = {Bestandsmanagement}, language = {en} } @phdthesis{Teichert2018, author = {Teichert, Max}, title = {The interest rate risk of banks: current topics}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-070-2}, doi = {10.25972/WUP-978-3-95826-071-9}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-153669}, school = {Universit{\"a}t W{\"u}rzburg}, pages = {XIX, 252}, year = {2018}, abstract = {Die vorliegende Dissertation besch{\"a}ftigt sich mit dem Zins{\"a}nderungsrisiko von Banken. Sie bearbeitet Themen mit hoher aktueller Relevanz angesichts gegenw{\"a}rtiger Entwicklungen in der Geldpolitik, der Volkswirtschaftslehre und der Bankenregulierung. Im ersten Teil werden vier Grundlagen gelegt. Erstens wird die moderne Auffassung des Bankgesch{\"a}fts vorgestellt, der nach Banken Geld in Form von Ersparnissen schaffen, wenn sie Kredite gew{\"a}hren. Mit dieser Auffassung geh{\"o}rt die {\"U}bernahme von Zins{\"a}nderungsrisiken zum normalen Bankgesch{\"a}ft. Zweitens wird ein {\"U}berblick {\"u}ber die Mikro{\"o}konomie des Bankgesch{\"a}fts gegeben, in dem der j{\"u}ngst vollzogene Wechsel zum Paradigma des Risikos dargestellt wird. Unter diesem Paradigma sind Banken wesentlich Risikonehmer auch von Zins{\"a}nderungsrisiko. Drittens wird die Geldtheorie der Transmissionskan{\"a}le zusammengefasst, wobei der Fokus auf dem zuletzt starke Beachtung findenden Risikoneigungskanal liegt. Dieser Transmissionskanal stellt auch eine Verbindung zwischen der Geldpolitik und der {\"U}bernahme von Zins{\"a}nderungsrisiko durch Banken her. Viertens werden Ans{\"a}tze und Spezifika der Behandlung des Zins{\"a}nderungsrisikos von Banken in der {\"o}konomischen Forschung zusammengetragen. Das ist das Handwerkszeug f{\"u}r die Erarbeitung neuer Forschungsbeitr{\"a}ge. Im zweiten Teil werden drei Erweiterungen entwickelt. Die erste Erweiterung begegnet dem nahezu vollst{\"a}ndigen Fehlen von spezifischen Daten zum Zins{\"a}nderungsrisiko von Banken in Deutschland mit einer umfassenden Auswertung allgemeiner, {\"o}ffentlich verf{\"u}gbarer Statistiken. Es zeigt sich, dass das Zins{\"a}nderungsrisiko von Banken in Deutschland {\"u}ber dem Durchschnitt des Euroraums liegt und einem steigenden Trend folgt, der sich insbesondere aus einer Verschiebung hin zu kurzfristigerer Refinanzierung speist. Von den unterschiedlichen Arten von Banken in Deutschland pr{\"a}sentieren sich Sparkassen und Genossenschaftsbanken als besonders exponiert. Die zweite Erweiterung untersucht die Ver{\"a}nderungen der Zinsstruktur in Deutschland und nimmt damit die zweite Komponente des Zins{\"a}nderungsrisikos neben der Position der Banken in den Blick. Analysen historischer sowie prognostizierter Ver{\"a}nderungen weisen auf ein sinkendes Zins{\"a}nderungsrisiko hin. Auch auf Basis einer erg{\"a}nzenden Szenarioanalyse ergeben sich konkrete Kritikpunkte an j{\"u}ngst auf internationaler Ebene beschlossenen regulatorischen Standards sowie genaue Vorschl{\"a}ge zur Erg{\"a}nzung im Rahmen ihrer Implementierung. Die dritte Erweiterung adressiert ein m{\"o}gliches Streben nach Rendite (search for yield) von Banken bei der {\"U}bernahme von Zins{\"a}nderungsrisiko, die geringere Profitabilit{\"a}t zu h{\"o}herer Risiko{\"u}bernahme f{\"u}hren l{\"a}sst. Ein theoretisches Modell f{\"u}hrt dieses Verhalten auf eine plausible Nutzenfunktion von Bankmanagern zur{\"u}ck. Eine empirische Untersuchung belegt die statistische Signifikanz und {\"o}konomische Relevanz mit Daten aus Deutschland.}, subject = {Zins{\"a}nderungsrisiko}, language = {en} } @article{MuellerSchmitz2016, author = {M{\"u}ller, Daniel and Schmitz, Patrick W.}, title = {Transaction costs and the property rights approach to the theory of the firm}, series = {European Economic Review}, volume = {87}, journal = {European Economic Review}, doi = {10.1016/j.euroecorev.2016.04.013}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-188042}, pages = {92-107}, year = {2016}, abstract = {The standard property rights approach is focused on ex ante investment incentives, while there are no transaction costs that might restrain ex post negotiations. We explore the implications of such transaction costs. Prominent conclusions of the property rights theory may be overturned: A party may have stronger investment incentives when a non investing party is the owner, and joint ownership can be the uniquely optimal ownership structure. Intuitively, an ownership structure that is unattractive in the standard model may now be desirable, because it implies large gains from trade, such that the parties are more inclined to incur the transaction costs.}, language = {en} } @phdthesis{Mehringer2019, author = {Mehringer, Sarah}, title = {Essays on Intergenerational Income Mobility in Germany and the United States}, doi = {10.25972/OPUS-16069}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-160693}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {This dissertation consists of three contributions. Each addresses one specific aspect of intergenerational income mobility and is intended to be a stand-alone analysis. All chapters use comparable data for Germany and the United States to conduct country comparisons. As there are usually a large number of studies available for the United States, this approach is useful for comparing the empirical results to the existing literature. The first part conducts a direct country comparison of the structure and extent of intergenerational income mobility in Germany and the United States. In line with existing results, the estimated intergenerational income mobility of 0.49 in the United States is significantly higher than that of 0.31 in Germany. While the results for the intergenerational rank mobility are relatively similar, the level of intergenerational income share mobility is higher in the United States than in Germany. There are no significant indications of a nonlinear run of intergenerational income elasticity. A final decomposition of intergenerational income inequality shows both greater income mobility and stronger progressive income growth for Germany compared to the United States. Overall, no clear ranking of the two countries can be identified. To conclude, several economic policy recommendations to increase intergenerational income mobility in Germany are discussed. The second part examines the transmission channels of intergenerational income persistence in Germany and the United States. In principle, there are two ways in which well-off families may influence the adult incomes of their children: first through direct investments in their children's human capital (investment effect ), and second through the indirect transmission of human capital from parents to children (endowment effect ). In order to disentangle these two effects, a descriptive as well as a structural decomposition method are utilized. The results suggest that the investment effect and the endowment effect each account for approximately half of the estimated intergenerational income elasticity in Germany, while the investment effect is substantially more influential in the United States with a share of around 70 percent. With regard to economic policy, these results imply that equality of opportunity for children born to poor parents cannot be reached by the supply of financial means alone. Conversely, an efficient policy must additionally substitute for the missing direct transmission of human capital within socio-economically weak families. The third part explicitly focuses on the intergenerational income mobility among daughters. The restriction to men is commonly made in the empirical literature due to women's lower labor market participation. While most men work full-time, the majority of (married) women still work only part-time or not at all. Especially with the occurrence of assortative mating, daughters from well-off families are likely to marry rich men and might decide to reduce their labor supply as a result. Thus, the individual labor income of a daughter might not be a good indicator for her actual economic status. The baseline regression analysis shows a higher intergenerational income elasticity in Germany and a lower intergenerational income elasticity in the United States for women as compared to men. However, a separation by marital status reveals that in both countries unmarried women exhibit a higher intergenerational income elasticity than unmarried men, while married women feature a lower intergenerational income elasticity than married men. The reason for the lower mobility of unmarried women turns out to be a stronger human capital transmission from fathers to daughters than to sons. The higher mobility of married women is driven by a weaker human capital transmission and a higher labor supply elasticity with respect to spousal income for women as compared to men. In order to further study the effects of assortative mating, the subsample of married children is analyzed by different types of income. It shows that the estimated intergenerational income elasticity of children's household incomes is even higher than that of their individual incomes. This can be seen as an indication for strong assortative mating. If household income is interpreted as a measure of children's actual economic welfare, there are barely any differences between sons and daughters. The intergenerational income elasticity of spousal income with respect to parental income is again relatively high, which in turn supports the hypothesis of strong assortative mating. The elasticity of the sons-in-law with respect to their fathers-in-law in Germany is even higher than that of the sons with respect to their own fathers.}, subject = {Deutschland}, language = {en} } @article{ReifTesfaselassieWolters2021, author = {Reif, Magnus and Tesfaselassie, Mewael F. and Wolters, Maik H.}, title = {Technological Growth and Hours in the Long Run: Theory and Evidence}, series = {Economica}, volume = {88}, journal = {Economica}, number = {352}, doi = {10.1111/ecca.12385}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-262801}, pages = {1016 -- 1053}, year = {2021}, abstract = {Over the last few decades, hours worked per capita have declined substantially in many OECD economies. Using the standard neoclassical growth model with endogenous work-leisure choice, we assess the role of trend growth slowdown in accounting for the decline in hours worked. In the model, a permanent reduction in technological growth decreases steady-state hours worked by increasing the consumption-output ratio. Our empirical analysis exploits cross-country variation in the timing and size of the decline in technological growth to show that technological growth has a highly significant positive effect on hours. A decline in the long-run trend of technological growth by 1 percentage point is associated with a decline in trend hours worked in the range of 1-3\%. This result is robust to controlling for taxes, which have been found in previous studies to be an important determinant of hours. Our empirical finding is quantitatively in line with the one implied by a calibrated version of the model, though evidence for the model's implication that the effect on hours works via changes in the consumption-output ratio is rather mixed.}, language = {en} } @phdthesis{Rademaker2020, author = {Rademaker, Manuel Elias}, title = {Composite-based Structural Equation Modeling}, doi = {10.25972/OPUS-21593}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-215935}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Structural equation modeling (SEM) has been used and developed for decades across various domains and research fields such as, among others, psychology, sociology, and business research. Although no unique definition exists, SEM is best understood as the entirety of a set of related theories, mathematical models, methods, algorithms, and terminologies related to analyzing the relationships between theoretical entities -- so-called concepts --, their statistical representations -- referred to as constructs --, and observables -- usually called indicators, items or manifest variables. This thesis is concerned with aspects of a particular strain of research within SEM -- namely, composite-based SEM. Composite-based SEM is defined as SEM involving linear compounds, i.e., linear combinations of observables when estimating parameters of interest. The content of the thesis is based on a working paper (Chapter 2), a published refereed journal article (Chapter 3), a working paper that is, at the time of submission of this thesis, under review for publication (Chapter 4), and a steadily growing documentation that I am writing for the R package cSEM (Chapter 5). The cSEM package -- written by myself and my former colleague at the University of Wuerzburg, Florian Schuberth -- provides functions to estimate, analyze, assess, and test nonlinear, hierarchical and multigroup structural equation models using composite-based approaches and procedures. In Chapter 1, I briefly discuss some of the key SEM terminology. Chapter 2 is based on a working paper to be submitted to the Journal of Business Research titled "Assessing overall model fit of composite models in structural equation modeling". The article is concerned with the topic of overall model fit assessment of the composite model. Three main contributions to the literature are made. First, we discuss the concept of model fit in SEM in general and composite-based SEM in particular. Second, we review common fit indices and explain if and how they can be applied to assess composite models. Third, we show that, if used for overall model fit assessment, the root mean square outer residual covariance (RMS_theta) is identical to another well-known index called the standardized root mean square residual (SRMR). Chapter 3 is based on a journal article published in Internet Research called "Measurement error correlation within blocks of indicators in consistent partial least squares: Issues and remedies". The article enhances consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. This is achieved by modifying the correction for attenuation as originally applied by PLSc to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. The paper is joint work with Florian Schuberth and Theo Dijkstra. Chapter 4 is based on a journal article under review for publication in Industrial Management \& Data Systems called "Estimating and testing second-order constructs using PLS-PM: the case of composites of composites". The purpose of this article is threefold: (i) evaluate and compare common approaches to estimate models containing second-order constructs modeled as composites of composites, (ii) provide and statistically assess a two-step testing procedure to test the overall model fit of such models, and (iii) formulate recommendation for practitioners based on our findings. Moreover, a Monte Carlo simulation to compare the approaches in terms of Fisher consistency, estimated bias, and RMSE is conducted. The paper is joint work with Florian Schuberth and J{\"o}rg Henseler.}, subject = {trukturgleichungsmodell}, language = {en} } @article{AtiyasDoganogluInceoglu2021, author = {Atiyas, Izak and Doganoglu, Toker and Inceoglu, Firat}, title = {Upstream Competition with Complex and Unobservable Contracts}, series = {Review of Industrial Organization}, volume = {58}, journal = {Review of Industrial Organization}, doi = {10.1007/s11151-020-09766-y}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-241161}, pages = {399-429}, year = {2021}, abstract = {This paper examines situations where two vertically integrated firms consider supplying an input to an independent downstream competitor via privately observed contracts. We identify equilibria where competition in the upstream market emerges—the downstream competitor gets supplied—as well as when the downstream firm does not receive the input and is excluded from the market. The likelihood of the outcome in which the downstream firm does not get supplied depends not only on demand parameters, but also on contractual flexibility and observability. We show that when contracts are unobservable, downstream entry will occur less often. Furthermore, our results suggest that permitting contracts that enable the contracting parties to coordinate their behavior in the downstream market may improve welfare by increasing the likelihood that the downstream firm is supplied.}, language = {en} } @phdthesis{Geissendoerfer2024, author = {Geißend{\"o}rfer, Lisa}, title = {The Macroeconomic Dimensions of Credit: A Comprehensive Analysis of Finance, Inequality and Growth}, doi = {10.25972/OPUS-37003}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-370037}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2024}, abstract = {Besonders einflussreich f{\"u}r das moderne Verst{\"a}ndnis zur makro{\"o}konomischen Rolle von Banken und Kredit ist die monet{\"a}re Wachstumstheorie von Schumpeter. Ausgehend von dieser wird in dieser Dissertation die makro{\"o}konomische Rolle des Finanzsystems f{\"u}r die (1) Erzeugung von Wirtschaftswachstum, (2) Lenkung von {\"o}konomischen Ressourcen und (3) Verteilung von Wohlstand untersucht. In Kapitel 3 wird zun{\"a}chst empirisch gezeigt, dass 1.) ein positiver Zusammenhang zwischen dem Wachstum von Krediten und Wirtschaftswachstum besteht, auch f{\"u}r entwickelte L{\"a}nder, 2.) kein empirischer Zusammenhang von Haushaltssparen und Wirtschaftswachstum festgestellt werden kann, und 3.) auf l{\"a}nderspezifischer Ebene sowohl positive, als auch negative und insignifikante Effekte von Kredit auf Wirtschaftswachstum existieren. Damit zeigt sich eine breite empirische Evidenz f{\"u}r Schumpeters monet{\"a}re Hypothesen. Eine besonders interessante Anwendung von Schumpeters Wachstumstheorie zeigt sich in China. Die Ergebnisse der empirischen Analyse legen nahe, dass es generell einen positiven Zusammenhang zwischen Kredit- und Wirtschaftswachstum in China gibt, der aber nicht linear in Bezug auf Regionen, Zeitpunkte und Gr{\"o}ße des Finanzsystems ist. Weiterhin deuten die Ergebnisse darauf hin, dass die kreditfinanzierte Industriepolitik in China zu mehr Investitionen und BIP-Wachstum beigetragen haben k{\"o}nnte, wobei es jedoch Nichtlinearit{\"a}ten zwischen einzelnen Branchen und Unternehmenstypen gibt. Zuletzt wird in Kapitel 5 die Frage aufgeworfen, welche Rolle das Finanzsystem bei der Verteilung des Wohlstands spielt. W{\"a}hrend Kredite an Haushalte und Unternehmen, zusammen mit Indikatoren zum Arbeits- und Sparverhalten, sowie zur Altersstruktur der Bev{\"o}lkerung, die wichtigsten Determinanten von Verm{\"o}gensungleichheit sind, zeigen sich in der Beziehung von Krediten und Verm{\"o}gensungleichheit ebenfalls verschiedene Nichtlinearit{\"a}ten, u.a. im Bezug auf den Entwicklungsstand von Finanzsystemen und Wohneigentumsquoten.}, subject = {Kredit}, language = {en} }