TY - THES A1 - Schamberger, Tamara Svenja T1 - Methodological Advances in Composite-based Structural Equation Modeling T1 - Methodische Weiterentwicklungen in der kompositen-basierten Strukturgleichungsmodellierung N2 - This thesis is about composite-based structural equation modeling. Structural equation modeling in general can be used to model both theoretical concepts and their relations to one another. In traditional factor-based structural equation modeling, these theoretical concepts are modeled as common factors, i.e., as latent variables which explain the covariance structure of their observed variables. In contrast, in composite-based structural equation modeling, the theoretical concepts can be modeled both as common factors and as composites, i.e., as linear combinations of observed variables that convey all the information between their observed variables and all other variables in the model. This thesis presents some methodological advancements in the field of composite-based structural equation modeling. In all, this thesis is made up of seven chapters. Chapter 1 provides an overview of the underlying model, as well as explicating the meaning of the term composite-based structural equation modeling. Chapter 2 gives guidelines on how to perform Monte Carlo simulations in the statistic software R using the package “cSEM” with various estimators in the context of composite-based structural equation modeling. These guidelines are illustrated by an example simulation study that investigates the finite sample behavior of partial least squares path modeling (PLS-PM) and consistent partial least squares (PLSc) estimates, particularly regarding the consequences of sample correlations between measurement errors on statistical inference. The third Chapter presents estimators of composite-based structural equation modeling that are robust in responding to outlier distortion. For this purpose, estimators of composite-based structural equation modeling, PLS-PM and PLSc, are adapted. Unlike the original estimators, these adjustments can avoid distortion that could arise from random outliers in samples, as is demonstrated through a simulation study. Chapter 4 presents an approach to performing predictions based on models estimated with ordinal partial least squares and ordinal consistent partial least squares. Here, the observed variables lie on an ordinal categorical scale which is explicitly taken into account in both estimation and prediction. The prediction performance is evaluated by means of a simulation study. In addition, the chapter gives guidelines on how to perform such predictions using the R package “cSEM”. This is demonstrated by means of an empirical example. Chapter 5 introduces confirmatory composite analysis (CCA) for research in “Human Development”. Using CCA, composite models can be estimated and assessed. This chapter uses the Henseler-Ogasawara specification for composite models, allowing, for example, the maximum likelihood method to be used for parameter estimation. Since the maximum likelihood estimator based on the Henseler-Ogasawara specification has limitations, Chapter 6 presents another specification of the composite model by means of which composite models can be estimated with the maximum likelihood method. The results of this maximum likelihood estimator are compared with those of PLS-PM, thus showing that this maximum likelihood estimator gives valid results even in finite samples. The last chapter, Chapter 7, gives an overview of the development and different strands of composite-based structural equation modeling. Additionally, here I examine the contribution the previous chapters make to the wider distribution of composite-based structural equation modeling. N2 - Diese Arbeit beschäftigt sich mit kompositen-basierter Strukturgleichungmodellierung. Strukturgleichungsmodellierung kann genutzt werden um sowohl theoretische Konzepte als auch deren Beziehungen untereinander zu modellieren. In der traditionellen faktor-basierten Strukturgleichungsmodellierung werden diese theoretischen Konzepte als “common factor”, d.h. als latente Variablen, die die Kovarianzstruktur ihrer beobachteten Variablen erklären, modelliert. Im Gegensatz dazu, können in kompositen-basierter Strukturgleichungsmodellierung die theoretischen Konzepte sowohl als “common factor” als auch als Komposite, also als Linearkombinationen beobachteter Variablen, die die gesamte Information zwischen ihren beobachteten Variablen und allen anderen Variablen im Modell übertragen, modelliert werden. Diese Arbeit stellt einige methodische Weiterentwicklungen im Bereich der kompositenbasierten Strukturgleichungsmodellierung vor. Sie besteht aus insgesamt 7 Kapiteln. Kapitel 1 gibt zunächst einen Überblick über das zugrundeliegende Modell sowie über die Definition des Begriffs der kompositen-basierten Strukturgleichungsmodellierung. In Kapitel 2 wird anschließend eine Anleitung dafür gegeben, wie Monte Carlo Simulationen in der Statistik Software R mittels des Pakets “cSEM” für verschiedene Schätzer, die der kompositen-basierten Strukturgleichungsmodellierung zugeordnet werden, durchgeführt werden können. Diese Anleitung wird anhand einer beispielhaften Simulationsstudie veranschaulicht, die das Verhalten von Partial Least Squares Path Modeling (PLS-PM) und consistent Partial Least Squares (PLSc) Schätzungen in endlichen Stichproben untersucht, insbesondere im Hinblick auf die Auswirkungen von Stichprobenkorrelationen zwischen Messfehlern auf statistische Inferenz. Im dritten Kapitel werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung vorgestellt, die robust gegenüber Ausreißern sind. Dafür werden Schätzer der kompositen-basierten Strukturgleichungsmodellierung, PLS-PM und PLSc, angepasst. Im Gegensatz zu den ursprünglichen Schätzern, können mit diesen Anpassungen Verzerrungen, die durch zufällig entstandene Ausreißer in Stichproben entstehen können, vermieden werden, was anhand einer Simulationsstudie gezeigt wird. In Kapitel 4 wird eine Methode zur Durchführung von Vorhersagen auf Basis von Modellen vorgestellt, die mit ordinal Partial Least Squares und ordinal consistent Partial Least Squares geschätzt wurden. Die beobachteten Variablen sind dabei ordinal kategorial skaliert, was sowohl bei der Schätzung als auch der Vorhersage explizit berücksichtigt wird. Die Vorhersagegüte wird mittels einer Simulationsstudie untersucht. Zusätzlich wird eine Anleitung, wie solche Vorhersagen mittels des R Pakets “cSEM” durchgeführt werden können, gegeben. Diese wird anhand eines empirischen Beispiels demonstriert. In Kapitel 5 wird die konfirmatorische Kompositenanalyse für Forschung im Bereich von “Human Development” vorgestellt. Mittels konfirmatorischer Kompositenanalyse können Kompositenmodelle geschätzt und auch evaluiert werden. In diesem Kapitel wird die Henseler-Ogasawara Spezifikation für Kompositenmodelle verwendet, wodurch beispielsweise die Maximum Likelihood Methode zur Parameterschätzung verwendet werden kann. Da der auf der Henseler-Ogasawara Spezifikation basierende Maximum Likelihood Schätzer Nachteile aufweist, wird in Kapitel 6 eine andere Spezifikation des Kompositmodells vorgestellt, mit der Kompositenmodelle mit der Maximum Likelihood Methode geschätzt werden können. Die Ergebnisse dieses Maximum Likelihood Schätzers werden mit denen von PLS-PM verglichen und somit gezeigt, dass dieser Maximum Likelihood Schätzer auch in endlichen Stichproben valide Ergebnisse liefert. Das letzte Kapitel, Kapitel 7, gibt einen Überblick über die Entwicklung und die verschiedenen Stränge der kompositen-basierten Strukturgleichungsmodellierung. Darüber hinaus wird hier der Beitrag, den die vorangegangenen Kapitel zur weiteren Verbreitung kompositen-basierter Strukturgleichungsmodellierung leisten, aufgezeigt. KW - Structural Equation Modeling KW - Composites KW - Composite-based Structural Equation Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276794 SN - 978-90-365-5375-9 N1 - Die Dissertationen wurde im Rahmen einer Cotutelle Vereinbarung mit der University of Twente (The Netherlands) erstellt ER - TY - THES A1 - Schuberth, Florian T1 - Composite-based Methods in Structural Equation Modeling T1 - Kompositenbasierte Methoden in der Strukturgleichungsmodellierung N2 - This dissertation deals with composite-based methods for structural equation models with latent variables and their enhancement. It comprises five chapters. Besides a brief introduction in the first chapter, the remaining chapters consisting of four essays cover the results of my PhD studies.Two of the essays have already been published in an international journal. The first essay considers an alternative way of construct modeling in structural equation modeling.While in social and behavioral sciences theoretical constructs are typically modeled as common factors, in other sciences the common factor model is an inadequate way construct modeling due to its assumptions. This essay introduces the confirmatory composite analysis (CCA) analogous to confirmatory factor analysis (CFA). In contrast to CFA, CCA models theoretical constructs as composites instead of common factors. Besides the theoretical presentation of CCA and its assumptions, a Monte Carlo simulation is conducted which demonstrates that misspecifications of the composite model can be detected by the introduced test for overall model fit. The second essay rises the question of how parameter differences can be assessed in the framework of partial least squares path modeling. Since the standard errors of the estimated parameters have no analytical closed-form, the t- and F-test known from regression analysis cannot be directly used to test for parameter differences. However, bootstrapping provides a solution to this problem. It can be employed to construct confidence intervals for the estimated parameter differences, which can be used for making inferences about the parameter difference in the population. To guide practitioners, guidelines were developed and demonstrated by means of empirical examples. The third essay answers the question of how ordinal categorical indicators can be dealt with in partial least squares path modeling. A new consistent estimator is developed which combines the polychoric correlation and partial least squares path modeling to appropriately deal with the qualitative character of ordinal categorical indicators. The new estimator named ordinal consistent partial least squares combines consistent partial least squares with ordinal partial least squares. Besides its derivation, a Monte Carlo simulation is conducted which shows that the new estimator performs well in finite samples. Moreover, for illustration, an empirical example is estimated by ordinal consistent partial least squares. The last essay introduces a new consistent estimator for polynomial factor models. Similarly to consistent partial least squares, weights are determined to build stand-ins for the latent variables, however a non-iterative approach is used. A Monte Carlo simulation shows that the new estimator behaves well in finite samples. N2 - Die vorliegende Dissertation beschäftigt sich mit kompositenbasierten Schätzverfahren für Strukturgleichungsmodelle mit latenten Variablen sowie deren Weiterentwicklung und einhergehenden Problemen bei deren Verwendung in empirischen Studien. Die Arbeit umfasst insgesamt fünf Kapitel. Neben einer kurzen Einleitung im ersten Kapitel beinhalten die verbleibenden Kapitel Teile der Ergebnisse meiner Promotion, die in Form von vier, teilweise schon veröffentlichten Aufsätzen präsentiert werden. Der erste Aufsatz befasst sich mit einer alternativen Modellierungsweise der theoretischen Konstrukte in der Strukturgleichungsmodellierung. Während in den Sozial- und Verhaltenswissenschaften die theoretischen Konstrukte klassischerweise durch sogenannte common factors modelliert werden, stellt dies in manchen Situationen bzw. in anderen Wissenschaftsbereichen eine unplausible Annahme dar. In diesem Teil der Arbeit wird eine abgewandelte Form der konfirmatorischen Faktorenanalyse, die konfirmatorische Kompositenanalyse, vorgestellt, in welcher die theoretischen Konstrukte anstatt durch common factors mit Hilfe von Kompositen modelliert werden. Neben der Ausführung der theoretischen Grundlage wird durch eine Monte Carlo Simulation gezeigt, dass die konfirmatorische Kompositenanalyse geeignet ist, Fehlspezifikationen im zugrundeliegenden Kompositenmodell aufzudecken. In der zweiten Studie wird die Frage aufgeworfen, wie Parameterunterschiede im Rahmen der partial least squares Pfadmodellierung getestet werden können. Da die Standardfehler des Schätzers keine analytisch-geschlossene Form besitzen, kann der aus der Regressionsanalyse bekannte t- bzw. F-Test nicht direkt für die Beantwortung dieser Frage verwendet werden. Einen Ausweg bietet das Bootstrapping, durch welches Konfidenzintervalle um den geschätzten Parameterunterschied konstruiert werden können. Mit Hife dieser können statistische Aussagen über den Parameterunterschied in der Grundgesamtheit gemacht werden. Das vorgestellte Verfahren wird anhand eines empirischen Beispiels demonstriert. Der dritte Aufsatz dieser Arbeit geht der Frage nach, wie ordinale Indikatoren mit festen Kategorien in der partial least squares Pfadmodellierung berücksichtigt werden können. Es wird ein neues, konsistentes Schätzverfahren vorgestellt, das den qualitativen Charakter der ordinalen Variablen mittels der polychorischen Korrelation bei der Schätzung berücksichtigt. Der neue Schätzer trägt den Namen „ordinal consistent partial least squares“ und kombiniert die Verfahren consistent partial least squares und ordinal partial least squares. Neben der Darbietung des Schätzverfahrens wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass das Verfahren ordinal consistent partial least squares geeignet ist, Modelle, die ordinale Indikatoren mit festen Kategorien enthalten, zu schätzen. Darüber hinaus wird ein empirisches Beispiel mit ordinal consistent partial least squares geschätzt. Das letzte Kapitel widmet sich der Schätzung nicht-linearer Strukturgleichungsmodelle mit latenten Variablen, wobei sich die Nichtlinearität auf die latenten Variablen und nicht auf deren Parameter bezieht. In diesem Kontext wird ein neues Schätzverfahren vorgestellt, welches ähnlich wie consistent partial least squares funktioniert und konsistente Parameterschätzungen für rekursive, nicht-lineare Gleichungssysteme liefert. Im Gegensatz zu consistent partial least squares benötigt der vorgestellte Momentenschätzer kein iteratives Verfahren, um die Gewichte für die Bildung der Kompositen zu bestimmen. Es wird mit Hilfe einer Monte Carlo Simulation gezeigt, dass der Schätzer geeignet ist, nicht-lineare Strukturgleichungsmodelle mit latenten Variablen zu schätzen. KW - Strukturgleichungsmodell KW - Construct Modeling KW - Partial Least Squares Path Modeling KW - Ordinal Categorical Indictators KW - User-Guidelines KW - Polynomial Factor Models KW - Komponentenanalyse KW - Structural Equation Modeling Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154653 ER - TY - THES A1 - Teichert, Max T1 - The interest rate risk of banks: current topics T1 - Das Zinsänderungsrisiko von Banken: Aktuelle Themen N2 - Die vorliegende Dissertation beschäftigt sich mit dem Zinsänderungsrisiko von Banken. Sie bearbeitet Themen mit hoher aktueller Relevanz angesichts gegenwärtiger Entwicklungen in der Geldpolitik, der Volkswirtschaftslehre und der Bankenregulierung. Im ersten Teil werden vier Grundlagen gelegt. Erstens wird die moderne Auffassung des Bankgeschäfts vorgestellt, der nach Banken Geld in Form von Ersparnissen schaffen, wenn sie Kredite gewähren. Mit dieser Auffassung gehört die Übernahme von Zinsänderungsrisiken zum normalen Bankgeschäft. Zweitens wird ein Überblick über die Mikroökonomie des Bankgeschäfts gegeben, in dem der jüngst vollzogene Wechsel zum Paradigma des Risikos dargestellt wird. Unter diesem Paradigma sind Banken wesentlich Risikonehmer auch von Zinsänderungsrisiko. Drittens wird die Geldtheorie der Transmissionskanäle zusammengefasst, wobei der Fokus auf dem zuletzt starke Beachtung findenden Risikoneigungskanal liegt. Dieser Transmissionskanal stellt auch eine Verbindung zwischen der Geldpolitik und der Übernahme von Zinsänderungsrisiko durch Banken her. Viertens werden Ansätze und Spezifika der Behandlung des Zinsänderungsrisikos von Banken in der ökonomischen Forschung zusammengetragen. Das ist das Handwerkszeug für die Erarbeitung neuer Forschungsbeiträge. Im zweiten Teil werden drei Erweiterungen entwickelt. Die erste Erweiterung begegnet dem nahezu vollständigen Fehlen von spezifischen Daten zum Zinsänderungsrisiko von Banken in Deutschland mit einer umfassenden Auswertung allgemeiner, öffentlich verfügbarer Statistiken. Es zeigt sich, dass das Zinsänderungsrisiko von Banken in Deutschland über dem Durchschnitt des Euroraums liegt und einem steigenden Trend folgt, der sich insbesondere aus einer Verschiebung hin zu kurzfristigerer Refinanzierung speist. Von den unterschiedlichen Arten von Banken in Deutschland präsentieren sich Sparkassen und Genossenschaftsbanken als besonders exponiert. Die zweite Erweiterung untersucht die Veränderungen der Zinsstruktur in Deutschland und nimmt damit die zweite Komponente des Zinsänderungsrisikos neben der Position der Banken in den Blick. Analysen historischer sowie prognostizierter Veränderungen weisen auf ein sinkendes Zinsänderungsrisiko hin. Auch auf Basis einer ergänzenden Szenarioanalyse ergeben sich konkrete Kritikpunkte an jüngst auf internationaler Ebene beschlossenen regulatorischen Standards sowie genaue Vorschläge zur Ergänzung im Rahmen ihrer Implementierung. Die dritte Erweiterung adressiert ein mögliches Streben nach Rendite (search for yield) von Banken bei der Übernahme von Zinsänderungsrisiko, die geringere Profitabilität zu höherer Risikoübernahme führen lässt. Ein theoretisches Modell führt dieses Verhalten auf eine plausible Nutzenfunktion von Bankmanagern zurück. Eine empirische Untersuchung belegt die statistische Signifikanz und ökonomische Relevanz mit Daten aus Deutschland. N2 - This book produces three main results. First, from publicly available statistics, it can be inferred that the interest rate risk from on-balance sheet term transformation of banks in Germany exceeds the euro area average and is bound to increase even further. German banks push for shorter-term funding and hardly counteract the increased demand for longer-term loans. Within Germany, savings banks and cooperative banks are particularly engaged. Second, the supervisory interest rate shock scenarios are found to be increasingly detached both from the historic and the forecasted development of interest rates in Germany. In particular, German banks have been exposed to fewer and smaller adverse changes of the term structure. This increasingly limits the informative content of mere exposure measures such as the Basel interest rate coefficient when used as risk measures as is common practice in banking supervision and economic research. An impact assessment further supports the conclusion that the least that is required is a more comprehensive set of shock scenarios. Third and finally, there is a reasonable theoretical rationale and there is strong empirical evidence for banks' search for yield in interest rate risk. In addition to the established positive link between the term spread and the taking of interest rate risk by banks an additional negative link can be explained theoretically and there is significant empirical evidence for its existence and relevance. There is even a threshold of income below which banks' search for yield in interest rate risk surfaces openly. KW - Zinsänderungsrisiko KW - economics KW - banking KW - interest rate risk KW - Bankgeschäft Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153669 SN - 978-3-95826-070-2 SN - 978-3-95826-071-9 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-070-2, 41,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Rademaker, Manuel Elias T1 - Composite-based Structural Equation Modeling T1 - Kompositenbasierte Strukturgleichungsmodellierung N2 - Structural equation modeling (SEM) has been used and developed for decades across various domains and research fields such as, among others, psychology, sociology, and business research. Although no unique definition exists, SEM is best understood as the entirety of a set of related theories, mathematical models, methods, algorithms, and terminologies related to analyzing the relationships between theoretical entities -- so-called concepts --, their statistical representations -- referred to as constructs --, and observables -- usually called indicators, items or manifest variables. This thesis is concerned with aspects of a particular strain of research within SEM -- namely, composite-based SEM. Composite-based SEM is defined as SEM involving linear compounds, i.e., linear combinations of observables when estimating parameters of interest. The content of the thesis is based on a working paper (Chapter 2), a published refereed journal article (Chapter 3), a working paper that is, at the time of submission of this thesis, under review for publication (Chapter 4), and a steadily growing documentation that I am writing for the R package cSEM (Chapter 5). The cSEM package -- written by myself and my former colleague at the University of Wuerzburg, Florian Schuberth -- provides functions to estimate, analyze, assess, and test nonlinear, hierarchical and multigroup structural equation models using composite-based approaches and procedures. In Chapter 1, I briefly discuss some of the key SEM terminology. Chapter 2 is based on a working paper to be submitted to the Journal of Business Research titled “Assessing overall model fit of composite models in structural equation modeling”. The article is concerned with the topic of overall model fit assessment of the composite model. Three main contributions to the literature are made. First, we discuss the concept of model fit in SEM in general and composite-based SEM in particular. Second, we review common fit indices and explain if and how they can be applied to assess composite models. Third, we show that, if used for overall model fit assessment, the root mean square outer residual covariance (RMS_theta) is identical to another well-known index called the standardized root mean square residual (SRMR). Chapter 3 is based on a journal article published in Internet Research called “Measurement error correlation within blocks of indicators in consistent partial least squares: Issues and remedies”. The article enhances consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. This is achieved by modifying the correction for attenuation as originally applied by PLSc to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. The paper is joint work with Florian Schuberth and Theo Dijkstra. Chapter 4 is based on a journal article under review for publication in Industrial Management & Data Systems called “Estimating and testing second-order constructs using PLS-PM: the case of composites of composites”. The purpose of this article is threefold: (i) evaluate and compare common approaches to estimate models containing second-order constructs modeled as composites of composites, (ii) provide and statistically assess a two-step testing procedure to test the overall model fit of such models, and (iii) formulate recommendation for practitioners based on our findings. Moreover, a Monte Carlo simulation to compare the approaches in terms of Fisher consistency, estimated bias, and RMSE is conducted. The paper is joint work with Florian Schuberth and Jörg Henseler. N2 - Strukturgleichungsmodellierung (SEM) wird seit Jahrzehnten in verschiedenen Bereichen und Forschungsgebieten wie zum Beispiel der Psychologie, der Soziologie und den Wirtschaftswissenschaften verwendet und weiterentwickelt. SEM umfasst dabei die Gesamtheit einer Reihe verwandter Theorien, mathematischer Modelle, Methoden, Algorithmen und Terminologien im Zusammenhang mit der Analyse der Beziehungen zwischen theoretischen Entitäten - so genannten Konzepten -, ihrer statistischen Repräsentation - als Konstrukte bezeichnet - und Beobachtungsgrößen - üblicherweise Indikatoren, Items oder manifeste Variablen genannt. Diese Arbeit befasst sich mit Aspekten eines bestimmten Forschungszweigs innerhalb der SEM, den Komposit-basierten SEM Verfahren. Komposit-basiertes SEM ist ein Überbegriff für alle SEM Methoden, die Kompositen - d.h. gewichtete Linearkombinationen aus Beobachtungen - zur Schätzung unbekannter Größen verwenden. Der Inhalt der Arbeit basiert auf einem Arbeitspapier (Kapitel 2), einem veröffentlichten referierten Zeitschriftenartikel (Kapitel 3), einem weiteren Arbeitspapier (Kapitel 4) und einer stetig wachsenden Dokumentation, die ich für das R-Paket cSEM geschrieben habe, bzw. kontinuierlich weiterschreibe (Kapitel 5). Das Paket cSEM - geschrieben von mir und Florian Schuberth, meinem ehemaligen Kollegen an der Universität Würzburg - stellt Funktionen zur Verfügung, um lineare, nichtlineare, hierarchische und Multigruppen-Strukturgleichungsmodelle mit Hilfe von Komposit-basierten Ansätzen und Verfahren zu schätzen, zu analysieren, zu bewerten, zu testen und zu untersuchen. In Kapitel 1 gehe ich zunächst kurz auf einige der wichtigsten SEM Begriffe ein. Kapitel 2 basiert auf einem Arbeitspapier mit dem Titel „Assessing overall model fit of composite models in structural equation modeling“, das im Journal of Business Research eingereicht werden wird. Der Artikel befasst sich mit dem Thema der Bewertung der Gesamtgüte des Modells (eng. overall model fit) im Kontext des Komposit-Modells. Das Papier leistet drei zentrale Beiträge zur Literatur zu diesem Thema. Erstens wird das Konzept der Modellgüte in der SEM im Allgemeinen und der Komposit-basierten SEM im Besonderen eingehend erörtert. Zweitens wird auf gängige Fit-Indizes eingegangen und erläutert, ob und wie sie zur Beurteilung eines Komposit-Modells angewendet werden können. Drittens wird gezeigt, dass der root mean square outer residual covariance (RMS_theta) identisch mit einem anderen bekannten Index, dem standardized root mean square residual (SRMR) ist, falls der RMS_theta als Maß für die Modellanpassungsgüte verwendet werden soll. Kapitel 3 basiert auf einem in Internet Research veröffentlichten Zeitschriftenartikel mit dem Titel „Measurement error correlation within blocks of indicators in consistent partial least squares: Issues and remedies“. Der Artikel entwickelt das consistent partial least squares (PLSc) Verfahren weiter, um konsistente Parameterschätzungen für Populationsmodelle zu erhalten, deren Indikatorblöcke korrelierte Messfehler enthalten. Dies wird erreicht, indem die Korrektur für die Dämpfung (eng. attenuation), wie sie ursprünglich von PLSc angewandt wird, so modifiziert wird, dass sie a priori Annahmen über die Struktur der Messfehlerkorrelationen innerhalb der Indikatorblöcke enthält. Um die statistische Gültigkeit der Modifikation zu beurteilen, wird eine Monte Carlo Simulation durchgeführt. Das Papier wurde gemeinsam mit Florian Schuberth und Theo Dijkstra verfasst. Kapitel 4 basiert auf einem zur Veröffentlichung in Industrial Management & Data Systems anstehenden Zeitschriftenartikel mit dem Titel „Estimating and testing second order constructs using PLS-PM: the case of composites of composites“. Der Zweck dieses Artikels ist ein dreifacher: (i) Bewertung und Vergleich gängiger Ansätze zur Schätzung von Modellen, die Konstrukte zweiter Ordnung enthalten, die als Komposite von Kompositen modelliert wurden; (ii) ein zweistufiges Testverfahren vorzustellen und statistisch zu bewerten, um die allgemeine Modellanpassung solcher Modelle zu testen und (iii) auf der Grundlage unserer Ergebnisse Empfehlungen für Praktiker zu formulieren. Darüber hinaus wurde eine Monte Carlo Simulation durchgeführt, um die Ansätze in Bezug auf Fisher-Konsistenz, geschätzte Verzerrung und RMSE zu vergleichen. Das Papier wurde gemeinsam mit Florian Schuberth und Jörg Henseler verfasst. Kapitel 5 stellt das R-Paket cSEM vor. Zum Zeitpunkt der Einreichung dieser Dissertation zur Begutachtung ist cSEM im Comprehensive R Archive Network (CRAN) als Version 0.2.0 verfügbar. KW - trukturgleichungsmodell KW - Komponentenanalyse KW - Composite-based SEM KW - Structural Equation Modeling (SEM) KW - Composite-based SEM KW - Partial Least Squares Path Modeling KW - Model Fit Assessment KW - R package Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-215935 ER - TY - THES A1 - Bauer, Carsten T1 - Learning Curve Effects in Hospitals as Highly Specialized Expert Organizations T1 - Lernkurveneffekte in Krankenhäusern als hochspezialisierte Expertenorganisationen N2 - The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment. The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed. The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst. In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried. The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak. The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer. The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society. N2 - Die vorliegende Arbeit befasst sich mit Lernkurveneffekten in Kliniken als hochspezialisierte Expertenorganisationen und umfasst vier Aufsätze, die sich jeweils mit einem anderen Aspekt des Themas beschäftigen. Der Fokus liegt dabei in den ersten drei Artikeln auf Lernkurveneffekten von Ärzten bei chirurgischen Eingriffen, im vierten Beitrag steht das Team der Notaufnahme als Ganzes im Fokus. Das Vorwort beleuchtet in kompakter Form die stetig steigenden Gesundheitsausgaben, den damit steigenden Kostendruck, die Krankenhauslandschaft in Deutschland sowie ihre Entwicklung. Ferner wird das Vergütungssystem mittels Fallpauschalen wie auch die Besonderheiten des Gesundheitssektors, der stark staatlich reguliert ist und in dem ethische Aspekte omnipräsent sein müssen, umrissen. Nicht zuletzt wird der Nutzen des Wissens um Lernkurveneffekte skizziert, um Kosten zu senken und zudem die Qualität konstant zu halten oder sogar zu verbessern. Der erste Aufsatz des Sammelbandes untersucht die Lerneffekte in einer Klinik, die sich auf endoprothetische Eingriffe (Hüft- und Kniegelenksersatz) spezialisiert hat. Es werden dabei zwei große Bereiche untersucht, der spezialisierte sowie der nicht-spezialisierte Bereich. Es werden keine Kosten direkt untersucht, sondern Kostenindikatoren verwendet. Der Indikator für die Kosten in der kurzen Frist sind die OP-Zeiten. Der Indikator für die mittlere bis lange Frist ist die Qualität. Sie wird über Komplikationen im Aufwachraum operationalisiert. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse zeigen, dass die Spezialisierung Vorteile durch Lerneffekte in Form von kürzeren OP-Zeiten und geringeren Komplikationsraten bei den endoprothetischen Eingriffen mit sich bringt. Für die nicht-spezialisierten OPs ergeben sich dieselben Resultate. Auch hier sinken die OP-Zeiten sowie die Komplikationen. Es kommt demnach nicht zu möglicherweise negativen Auswirkungen der Spezialisierung auf den nicht-spezialisierten Bereich, sondern es liegen vorteilhafte Spillover-Effekte vor. Insgesamt ist die Spezialisierung damit als sinnvoll zu betrachten, da sie die kurz-, mittel- und langfristigen Kosten für alle Operationen senkt. Die Autoren sind Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny und Christian Ernst. Im zweiten Artikel stehen die Unterschiede zwischen den Lernkurveneffekten von Ärzten, die teilweise im Team operieren und denen, die stets alleine operieren, im Vordergrund. Die Untersuchung verbindet somit Lernkurveneffekte mit Teamüberlegungen, welche in den letzten Jahren zunehmend diskutiert werden. Bei den betrachteten Eingriffen handelt es sich um Tonsillektomien (Entfernung der Gaumenmandeln), einen Standardeingriff. Die Indikatoren für die Kosten in der kurzen bzw. mittleren bis langen Frist sind auch hier die OP-Zeiten der Operationen bzw. Komplikationen als Maß für die Qualität. Die Komplikationen sind in diesem Fall Nachblutungen, die meist wenige Tage nach der Operation auftreten. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse der Untersuchung zeigen, dass die OP-Zeiten mit zunehmender Erfahrung der Ärzte sinken. Ärzte, die auch im Team arbeiten, lernen dabei schneller als Ärzte, die stets alleine operieren. So sind die OP-Zeiten der Ärzte, die auch im Team arbeiten, geringer als die der anderen. Als Besonderheit stehen im verwendeten Datensatz die Fallkosten zur Verfügung, womit die Kostenindikatoren validiert werden können. Aus den Ergebnissen ergibt sich die Empfehlung, dass Assistenzärzte an Team-Operationen teilnehmen sollten. Die Autoren sind Carsten Bauer, Oliver Unger und Martin Holderried. Der dritte Aufsatz widmet sich der Stapesplastik, mithilfe derer Schallleitungsschwerhörigkeit auf-grund von Otosklerose (überschießende Knochenbildung) behandelt werden soll. Die Eingriffe werden als ideale Untersuchungsmöglichkeit von Lernkurveneffekten in der Chirurgie angesehen, da sie konzeptionell einfach, jedoch technisch schwierig sind. Es wird eine möglichst umfassende Betrachtung angestrebt, indem die OP-Zeiten als kurzfristiger und die Qualität als mittel- bis langfristiger Kostenindikator herangezogen werden. Um Qualität zu operationalisieren, wird die postoperative Differenz zwischen Luft- und Knochenleitungsschwelle sowie die Kombination aus dieser Differenz mit der Abwesenheit von Komplikationen verwendet. Auch hier werden verschiedene Regressionsmodelle (KQ und Logit) geschätzt. In diesem Artikel wird neben der Klinikebene auch die Individualebene betrachtet, d.h. OP-Zeiten und Qualität für einzelne Ärzte untersucht, was den Vergleich individueller Lernkurven verbessert, da die Ärzte alle unter weitgehend identischen Bedingungen gearbeitet haben. Es zeigt sich, dass die OP-Zeiten mit zunehmender Erfahrung zunächst sinken. Der marginale Effekt von weiterer Erfahrung wird dabei mit zunehmender Erfahrung geringer bis sich die Richtung des Effektes ändert und die OP-Zeiten mit weiter zunehmender Erfahrung – vermutlich aufgrund der Allokation der schwierigeren Fälle auf die erfahrensten Ärzte – wieder steigen. Bezüglich Qualität sind keine Lernkurveneffekte feststellbar. Die Autoren sind Carsten Bauer, Johannes Taeger und Kristen Rak. Der vierte Beitrag ist ein systematischer Literaturüberblick zu Lerneffekten bei der Behandlung von ischämischen Schlaganfällen. Bei einem Schlaganfall zählt jede Minute, weswegen die inhärente Notwendigkeit besteht, die Dauer vom Auftreten der Symptome bis zur Behandlung zu verkürzen. Der Artikel befasst sich mit der Verkürzung der Dauer vom Eintreffen der Patienten im Krankenhaus bis zur Behandlung mittels Thrombolyse, der sogenannten „Door-to-Needle Time“. In der Literatur gibt es hierzu Untersuchungen von Lernen im weiteren Sinne durch ein Qualitätsverbesserungsprogramm und Lernen im engeren Sinne, bei dem Lernkurveneffekte evaluiert werden. Daneben werden Studien ausgewertet, die sich mit den unterschiedlichen Zeiten zwischen Krankenhäusern mit niedrigen und hohen Fallzahlen befassen, da diese Unterschiede wahrscheinlich das Ergebnis von Lernen und Skaleneffekten sind. Nahezu alle der 165 ausgewerteten Artikel berichten von Verbesserungen bezüglich der Dauer bis zur Behandlung. Zudem unterstreichen die klinischen Ergebnisse die gängige Auffassung, dass eine kürzere Zeit vom Eintreffen im Krankenhaus bis zur Behandlung mit einem besseren Ergebnis einhergeht. Der Literaturüberblick diskutiert zudem die ökonomischen Implikationen der Ergebnisse. Der Autor ist Carsten Bauer. Im Nachwort kommt u.a. zur Sprache, dass für die Nutzung der Lernkurveneffekte zur Effizienzsteigerung nach der Messung der Lerneffekte weitere Anstrengungen unternommen werden müssen, da die Thematik keine einfachen, standardisierten Lösungen zulässt. Zudem wird die Bedeutung der Mehrperspektivität in der Forschung für das Behandlungsergebnis des Patienten, das Gesundheitssystem und die Gesellschaft hervorgehoben. KW - Lernkurve KW - Krankenhaus KW - learning curve KW - learning effect KW - experience KW - hospital KW - Lerneffekt KW - Erfahrung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-328717 ER -