Refine
Has Fulltext
- yes (112)
Is part of the Bibliography
- yes (112)
Year of publication
Document Type
- Doctoral Thesis (79)
- Journal article (17)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (7)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Rechnungslegung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
Institute
- Betriebswirtschaftliches Institut (112) (remove)
EU-Project number / Contract (GA) number
Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden.
In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland für vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gewährt. Die Investitionsmöglichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien führen stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Begünstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabhängige Förderung kann dazu führen, dass ein durchschnittlich verdienender Eigenheimkäufer Förderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienförderung innerhalb der Altersvorsorge („Wohn-Riester“) ermöglicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche Förderung integriert worden und begünstigt so die Rückführung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Vermögensübertragung auf eine steuerbegünstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die Länge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelmäßig nur in Verbindung mit zusätzlichen Begünstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit für die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien können durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Ausübung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant für niedrige Kapitalkosten ist. Die ver-mögensverwaltende Immobilien-AG stellt aufgrund der flexiblen Ausschüttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar.
In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht:
In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt.
In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind.
In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM’s related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM’s complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty.
In an Arrow-Debreu world of unrestricted access to perfect and competitive financial markets, there is no need for accounting information about the financial situation of a firm. Because information is costless, share- and stakeholders are then indifferent in deposits and securities (e.g., Holthausen & Watts 2001; Freixas & Rochet 2008). How-ever, several reasons exist indicating a rejection of the assumptions for an Arrow-Debreu world, hence there is no perfect costless information. Moreover, the distribu-tion of information is asymmetric, causing follow-through multi-level agency prob-lems, which are the main reasoning for the variety of financial and non-financial ac-counting standards, regulatory and advisory entities and the auditing and rating agency profession. Likewise, these agency problems have been at the heart of the accounting literature and raised the question of whether and how accounting information can help resolve these problems. ...
This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things.
The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy.
The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness.
The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.
Seit der Transformation der EG-Zwischenberichtsrichtlinie in deutsches Recht sind alle Emittenten aus dem amtlichen Markt verpflichtet, für nach dem 31. Dezember 1989 beginnende Geschäftsjahre einen Zwischenbericht über die ersten sechs Monate des Geschäftsjahres zu veröffentlichen. Mit diesen bis heute noch geltenden Bestimmungen ist jedoch eine Reihe von Problemen verbunden. So enthalten die im BörsG und in der BörsZulV verankerten Vorschriften hinsichtlich der zu publizierenden Zahlenangaben und Erläuterungen nur geringe Anforderungen an die unterjährige Berichterstattung, die teilweise aufgrund der unpräzisen Formulierung der Bestimmungen den Unternehmen auch noch einen weitgehenden Ermessensspielraum in bezug auf die berichtspflichtigen Sachverhalte einräumen. Darüber hinaus stufen die gesetzlichen Vorschriften nur die Veröffentlichung eines Halbjahresberichtes als verpflichtend ein, und für die nicht im geregelten Markt notierenden Unternehmen kann aus den Vorschriften keine Verpflichtung abgeleitet werden. Wenngleich der Gesetzgeber sich bei der Umsetzung der Zwischenberichtsrichtlinie bewußt gegen eine umfassendere unterjährige Berichtspflicht entschieden hat, sowohl in bezug auf die berichtspflichtigen Zahlenangaben und Erläuterungen sowie der Anzahl der unterjährig zu veröffentlichenden Berichte, als auch im Hinblick auf die berichtspflichtigen Börsensegmente, ist vor dem Hintergrund der fortschreitenden Globalisierung der Kapitalmärkte und der damit verbundenen größeren Bedeutung der externen Berichterstattung der Emittenten eine grundlegende Veränderung bei den an eine unterjährige Berichterstattung gestellten Anforderungen eingetreten. Während zu Beginn der gesetzlich geforderten Zwischenberichterstattung die wenigen berichtspflichtigen Zahlenangaben und Erläuterungen noch im Einklang mit den Informationsbedürfnissen der Kapitalmarktteilnehmer gestanden haben, ist der Informationsanspruch der Investoren in den letzten Jahren stetig gestiegen. Verantwortlich dafür ist in erster Linie, daß die wirtschaftlichen und finanziellen Verhältnisse der Unternehmen immer schnelleren und häufigeren Veränderungen unterliegen, wodurch die Kapitalmarktteilnehmer neben der jährlichen Berichterstattung auch innerhalb des Geschäftsjahres auf eine umfassende Berichterstattung angewiesen sind, um möglichst zeitnahe auf die veränderten Bedingungen reagieren zu können. Darüber hinaus hat die Internationalisierung der Rechnungslegung einen wichtigen Beitrag zur Normierung einer umfassenderen unterjährigen Berichterstattung geleistet. Um eine Angleichung der deutschen Vorschriften an die umfassenderen Bestimmungen der international anerkannten Rechnungslegungsstandards zu erreichen, die aufgrund der Befreiungsregel von § 292a HGB bereits von vielen deutschen Unternehmen angewendet werden, von Bedeutung sind hierbei insbesondere die nach IFRS/IAS bzw. US-GAAP zu beachtenden Vorschriften, hat sowohl die Deutsche Börse AG als auch das DRSC Vorschriften für die Erstellung von unterjährigen Berichten erlassen. Vor dem Hintergrund dieser Vielzahl und dem nebeneinander von gesetzlichen und privatrechtlichen Regelungen, die mittlerweile von den Gesellschaften zu beachten sind, werden in der vorliegenden Arbeit die einzelnen nationalen und internationalen Regelungen ausführlich dargestellt und Gemeinsamkeiten sowie Unterschiede aufgezeigt. Im Rahmen einer empirischen Untersuchung wird darüber hinaus in einem Soll-Ist-Vergleich untersucht, inwieweit diese Regelungen auch Beachtung innerhalb der Zwischenberichterstattung der Gesellschaften finden. Dazu wurden 115 Zwischenberichte aus den Jahren 2000 und 2001 von Unternehmen aus den Indizes DAX, MDAX und NEMAX 50 hinsichtlich der publizierten Informationen ausgewertet. Vor dem Hintergrund der sich aus dem Nebeneinander der gesetzlichen und privatrechtlichen Vorschriften ergebenen uneinheitlichen Verpflichtungsgrundlagen und Anforderungen ist es dringend geboten, den Regulierungsrahmen für die Zwischenberichterstattung der aktuellen Entwicklung in der Rechnungslegung weiter anzupassen, um die teilweise bestehende Inkonsistenz der verschiedenen Vorschriften in Zukunft zu vermeiden. Durch die Bestrebungen der EU, die nationalen Rechtsvorschriften der einzelnen Mitgliedsländer für einen einheitlichen europäischen Kapitalmarkt weitgehend zu harmonisieren, werden dem deutschen Gesetzgeber die zukünftig an eine unterjährige Berichterstattung zu stellenden Anforderungen von Seiten der EU weitgehend vorgegeben werden. So sieht die am 26. März 2003 veröffentlichte Transparenz-Richtlinie vor, daß ab dem Jahr 2005 alle an einem geregelten Markt notierten Emittenten einen Halbjahresfinanzbericht erstellen müssen. Wenngleich der von der EU-Kommission publizierte Vorschlag für eine zukünftige einheitliche Ausgestaltung der unterjährigen Berichterstattung in Europa grundsätzlich positiv zu sehen ist, werden auch vor dem Hintergrund der durchgeführten empirischen Untersuchung erforderliche Ergänzungen zu den an eine unterjährige Berichterstattung zu stellenden Anforderungen aufgezeigt. Von besonderer Bedeutung sind hierbei die Durchführung einer prüferischen Durchsicht sowie die Verpflichtung zu einer Quartalsberichterstattung.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model.
Dieser Beitrag konzentriert sich auf die Entwicklung von Technologieclustern und basiert auf zwei Forschungsfragen: Was sind die Voraussetzungen für die Entwicklung von Technologieclustern gemäß der Clusterforschung? Und erfüllt die Region Mainfranken die Voraussetzungen für eine Technologieclusterbildung? Zu diesem Zweck wird eine qualitative Studie unter Bezugnahme auf verschiedene theoretische Konzepte der Clusterbildung durchgeführt. Aus diesem Grund können die folgenden Determinanten der Clusterentwicklung abgeleitet werden: die Verkehrsinfrastruktur- und Infrastrukturkomponente, die Clusterumfeldkomponente, die Universitätskomponente, die Staatskomponente und die Branchenkomponente. Die Analyse der Parameterwerte der einzelnen Clusterkomponenten zeigt, dass die Kernanforderungen der Technologieclusterentwicklung in der Region Mainfranken erfüllt sind. Dennoch ist es notwendig, die Infrastruktur, die kommerzielle und industrielle Verfügbarkeit von Land und die Verfügbarkeit von Kapital zu verbessern, um ein erfolgreiches Technologiecluster zu bilden. Im Rahmen der vorliegenden Arbeit konnte darüber hinaus das Potenzial der Technologieclusterentwicklung im Bereich der künstlichen Intelligenz analysiert werden.
In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt.
Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:
Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).
Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.
Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.
Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.
Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind.
Banks perform important functions for the economy. Besides financial intermediation, banks provide information, liquidity, maturity- and risk-transformation (Fama, 1985). Banks ensure the transfer of liquidity from depositors to the most profitable investment projects. In addition, they perform important screening and monitoring services over investments hence contributing steadily to the efficient allocation of resources across the economy (Pathan and Faff, 2013). Since banks provide financial services all across the economy, this exposes banks (as opposed to non-banks) to systemic risk: the recent financial crisis revealed that banks can push economies into severe recessions. However, the crisis also revealed that certain bank types appear far more stable than others. For instance, cooperative banks performed better during the crisis than commercial banks. Different business models may reason these performance-differences: cooperative banks focus on relationship lending across their region, hence these banks suffered less from the collapse of the US housing market.
Since cooperative banks performed better during the crisis than commercial banks, it is quite surprising that research concerning cooperative banks is highly underrepresented in the literature. For this reason, the following three studies aim to contribute to current literature by examining three independent contemporaneous research questions in the context of cooperative banks.
Chapter 2 examines whether cooperative banks benefit from revenue diversification: Current banking literature reveals the recent trend in the overall banking industry that banks may opt for diversification by shifting their revenues to non-interest income. However, existing literature also shows that not every bank benefits from revenue diversification (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Stiroh and Rumble (2006) find that large commercial banks (US Financial Holding Companies) perceive decreasing performance by shifting revenues towards non-interest income. Revenues from cooperative banks differ from those of commercial banks: commercial banks trade securities and derivatives, sell investment certificates and other trading assets. Concerning the lending business, commercial banks focus on providing loans for medium-sized and large companies rather than for small (private) customers. Cooperative banks rely on commission income (fees) from monetary transactions and selling insurances as a source of non-interest income. They generate most of their interest income by providing loans to small and medium-sized companies as well as to private customers in the region. These differences in revenues raise the question whether findings from Stiroh and Rumble (2006) apply to cooperative banks. For this reason, Chapter 2 evaluates a sample of German cooperative banks over the period 2005 to 2010 and aims to investigate the following research question: which cooperative banks benefit from revenue diversification?
Results show that findings from Stiroh and Rumble (2006) do not apply to cooperative banks. Revenue concentration is positive related to risk-adjusted returns (indirect effect) for cooperative banks. At the same time, non-interest income is more profitable than interest income (direct effect). The evaluation of the underlying non-interest income share shows that banks who heavily focus on non-interest income benefit by shifting towards non-interest income. This finding arises due to the fact, that the positive direct effect dominates the negative indirect effect, leading in a positive (and significant) net effect. Furthermore, results reveal a negative net effect for banks who are heavily exposed to interest generating activities. This indicates that shifting to non-interest income decreases risk-adjusted returns for these banks. Consequently, these banks do better by focusing on the interest business. Overall, results show evidence that banks need time to build capabilities, expertise and experience before trading off return and risk efficiently with regard on revenue diversification.
Chapter 3 deals with the relation between credit risk, liquidity risk, capital risk and bank efficiency: There has been rising competition in the European banking market due to technological development, deregulation and the introduction of the Euro as a common currency in recent decades. In order to remain competitive banks were forced to improve efficiency. That is, banks try to operate closer to a “best practice” production function in the sense that banks improve the input – output relation. The key question in this context is if banks improve efficiency at a cost of higher risk to compensate decreasing earnings. When it comes to bank risk, a large strand of literature discusses the issue of problem loans. Several studies identify that banks hold large shares of non-performing loans in their portfolio before becoming bankrupt (Barr and Siems, 1994; Demirgüc-Kunt, 1989). According to efficiency, studies show that the average bank generates low profits and incorporates high costs compared to the “best practice” production frontier (Fiordelisi et al., 2011; Williams, 2004). At first glance, these two issues do not seem related. However, Berger and DeYoung (1997) show that banks with poor management are less able to handle their costs (low cost-efficiency) as well as to monitor their debtors in an appropriate manner to ensure loan quality. The negative relationship between cost efficiency and non-performing loans leads to declining capital. Existing studies (e.g. Williams, 2004; Berger and DeYoung, 1997) show that banks with a low level of capital tend to engage in moral hazard behavior, which in turn can push these banks into bankruptcy.
However, the business model of cooperative banks is based on the interests of its commonly local customers (the cooperative act: § 1 GenG). This may imply that the common perception of banks engaging in moral hazard behavior may not apply to cooperative banks. Since short-term shareholder interests (as a potential factor for moral hazard behavior) play no role for cooperative banks this may support this notion. Furthermore, liquidity has been widely neglected in the existing literature, since the common perception has been that access to additional liquid funds is not an issue. However, the recent financial crisis revealed that liquidity dried up for many banks due to increased mistrust in the banking sector. Besides investigating moral hazard behavior, using data from 2005 to 2010 this study moves beyond current literature by employing a measure for liquidity risk in order to evaluate how liquidity risk relates to efficiency and capital.
Results mostly apply to current literature in this field since the empirical evaluation reveals that lower cost and profit-efficiency Granger-cause increases in credit risk. At the same time, results indicate that credit risk negatively Granger-causes cost and profit-efficiency, hence revealing a bi-directional relationship between these measures. However, most importantly, results also show a positive relationship between capital and credit risk, thus displaying that moral hazard behavior does not apply to cooperative banks. Especially the business model of cooperative banks, which is based on the interests of its commonly local customers (the cooperative act: § 1 GenG) may reason this finding. Contrary to Fiordelisi et al. (2011), results also show a negative relationship between capital and cost-efficiency, indicating that struggling cooperative banks focus on managing their cost-exposure in following periods. Concerning the employed liquidity risk measure, the authors find that banks who hold a high level of liquidity are less active in market related investments and hold high shares of equity capital. This outcome clearly reflects risk-preferences from the management of a bank.
Chapter 4 examines governance structures of cooperative banks: The financial crisis of 2007/08 led to huge distortions in the banking market. The failure of Lehman Brothers was the beginning of government interventions in various countries all over the world in order to prevent domestic economies from even further disruptions. In the aftermath of the crisis, politicians and regulators identified governance deficiencies as one major factor that contributed to the crisis. Besides existing studies in the banking literature (e.g. Beltratti and Stulz, 2012; Diamond and Rajan, 2009; Erkens et al., 2012) an OECD study from 2009 supports this notion (Kirkpatrick, 2009). Public debates increased awareness for the need of appropriate governance mechanisms at that time. Consequently, politicians and regulators called for more financial expertise on bank boards. Accordingly, the Basel Committee on Banking Supervision states in principle 2 that “board members should remain qualified, individually and collectively, for their positions. They should understand their oversight and corporate governance role and be able to exercise sound, objective judgement about the affairs of the bank.” (BCBS, 2015). Taking these perceptions into consideration the prevailing question is whether financial experts on bank boards do really foster bank stability?
This chapter aims to investigate this question by referring to the study from Minton et al. (2014). In their study, the authors investigate US commercial bank holding companies between the period 2003 and 2008. The authors find that financial experts on the board of US commercial bank holding companies promote pro-cyclical bank performance. Accordingly, the authors question regulators view of more financial experts on the board leading to more banking stability.
However, Minton et al. (2014) do not examine whether their findings accrue due to financial experts who act in the interests of shareholders or due to the issue that financial experts may have a more risk-taking attitude (due to a better understanding of financial instruments) than other board members.
Supposed that their findings accrue due to financial experts who act in the interests of shareholders. Then financial experts on the board of banks where short-term shareholder interests play no role (cooperative banks) may prove beneficial with regard on bank performance during the crisis as well as in normal times. This would mean that they use their skills and expertise to contribute sustainable growth to the bank. Contrary, if this study reveals pro-cyclical bank performance related to financial experts on the board of cooperative banks, this finding may be addressed solely to the risk-taking attitude of financial experts (since short-term shareholder interests play no role). For this reason, this chapter aims to identify the channel for the relation of financial experts and bank performance by examining the following research question: Do financial experts on the board promote pro-cyclical bank performance in a setting where short-term shareholder interests play no role?
Results show that financial experts on the board of cooperative banks (data from 2006 to 2011) do not promote pro-cyclical bank performance. Contrary, results show evidence that financial experts on the board of cooperative banks appear to foster long-term bank stability. This suggests that regulators should consider ownership structure (and hence business model of banks) when imposing new regulatory constraints for financial experts on the bank board.
This paper provides a critical analysis of the subadditivity axiom, which is the key condition for coherent risk measures. Contrary to the subadditivity assumption, bank mergers can create extra risk. We begin with an analysis how a merger affects depositors, junior or senior bank creditors, and bank owners. Next it is shown that bank mergers can result in higher payouts having to be made by the deposit insurance scheme. Finally, we demonstrate that if banks are interconnected via interbank loans, a bank merger could lead to additional contagion risks. We conclude that the subadditivity assumption should be rejected, since a subadditive risk measure, by definition, cannot account for such increased risks.
Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling.
Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations.
Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios.
To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming.
To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network.
Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement.
Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM).
First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems.
The first article, “Prescriptive Analytics for Flexible Capacity Management”, develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters.
The second article, “Prescriptive Analytics for a Multi-Shift Staffing Problem”, uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the “worlds” of queuing theory and prescriptive analytics.
The third article, “Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management” proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions.
The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation.
Internettechnologie-basierte Marktplätze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ernüchterung ein, da die Nutzung der Marktplätze weitaus langsamer voranging als allgemein erwartet wurde. Dafür wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels“ Internettechnologie-basierter Marktplatz angeführt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterstützung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht darüber hinweg täuschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. Ähnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabläufe sicher, effizient und durchgängig zu unterstützen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktplätze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu ermöglichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in fünf Hauptteile. Im zweiten Kapitel werden zunächst die für die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktplätze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender ökonomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktmäßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Geschäftstransaktion mündet. Der im Anschluss skizzierte Aufbau elektronischer Marktplätze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktplätze – die Internettechnologie-basierten Marktplätze – werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterstützung des Transaktionsprozesses gegenübergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit übertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems für Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktplätze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die für die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verknüpfung der Eigenschaften resultiert in drei zu berücksichtigenden Objektmerkmalen – Spezifität, Komplexität und strategische Bedeutung – mit jeweils bipolaren Ausprägungen, die zusammen einen Würfel mit acht Beschaffungsobjektgruppen bilden. Im fünften Kapitel werden ausgehend vom Aufbau elektronischer Marktplätze die möglichen Funktionalitäten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterstützung der einzelnen Phasen einer Geschäftstransaktion die übergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchführbaren Geschäftsvorfälle bzw. Prozessabläufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen für jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktplätze für den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erfüllen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl für Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universität laufenden Studie „b2b-Marktplatzführer“ erhoben wurde, konnten zum 15.07.2003 79 Marktplätze einbezogen werden.
Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualität der Menschen sowie ein Wachstum von Wirtschaft und Arbeitsplätzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen Möglichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele für derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausführlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung übernehmen können, welchen Beitrag Unternehmen bei der Lösung und Vermeidung moralischer Konflikte leisten können und welche Möglichkeiten bestehen, dass ethische Bemühungen im Unternehmensalltag umgesetzt werden können. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden mögliche Gründe für deren geringe Verbreitung aufgezeigt.