Refine
Has Fulltext
- yes (62)
Is part of the Bibliography
- yes (62)
Year of publication
Document Type
- Doctoral Thesis (48)
- Book (5)
- Working Paper (4)
- Journal article (2)
- Master Thesis (2)
- Report (1)
Language
- German (62) (remove)
Keywords
- Deutschland (12)
- Steuerrecht (5)
- Unternehmensbewertung (5)
- Altersversorgung (4)
- Betriebswirtschaftslehre (4)
- CAPM (4)
- Capital-Asset-Pricing-Modell (4)
- DCF (4)
- Finanzmathematik (4)
- Gesellschaftsrecht (4)
Institute
- Betriebswirtschaftliches Institut (62) (remove)
In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet.
Kaum ein Berufsstand hat einen so schlechten Ruf wie der des professionellen Beraters. Die fachbezogenen Medien im Bereich integrierter Informationssysteme sind voll von Berichten über mangelhafte Beratungsleistungen. Die einschlägige Literatur veröffentlicht zahllose Ratgeber in Buchform, welche ihre Existenz mit dem Umstand missglückter Projekte begründen. Dabei war im Bereich der Informationstechnologie der Bedarf an kompetentem Consulting noch nie so hoch wie heute und die Tendenz steigt weiterhin. Diese Situation wurzelt in der stetigen Verrin-gerung der Innovationszyklen und der exponentiell wachsenden Zahl an technischen und wissen-schaftlichen Erkenntnissen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Verfahrens zur Unterstützung der Beratungsdienstleistungen im Umfeld der Einführung und Pflege betriebswirtschaftlicher Softwarebibliotheken. Hierbei werden bestehende Ansätze aus dem Blickwinkel der Beratung evaluiert und in die Entwicklung einbezogen. Das zu erstellende Konzept muss den Anforderun-gen der Beratung gerecht werden und flexibel wie zielgerichtet einsetzbar sein. Die Ausgangslage dieser Arbeit ist die aktuelle Situation des Beratungsmarktes im Umfeld be-triebwirtschaftlicher Softwarebibliotheken, insbesondere von SAP R/3 bzw. mySAP.com. Eine Analyse der vorherrschenden Bedingungen und der zur Unterstützung der Beratung eingesetzten Hilfsmittel zeigt, dass Consulting systematisch unbefriedigend geleistet wird. Beratung ist eine wissensorientierte Dienstleistung, die aufgrund ihrer hohen Spezifität immer individuellen Cha-rakter besitzt. Bestehende Unterstützungsansätze können gute Hilfe leisten bei der Erfüllung von Teilaufgaben, sie sind jedoch nicht imstande, die aus dem Consulting-Prozess resultierenden An-forderungen aus globaler Sicht zufriedenstellend zu erfüllen. Insbesondere bestehen aus Sicht der Kollaborationsunterstützung für die Teilnehmer Mängel. Darüber hinaus müssen die Vollstän-digkeit bzw. Integrationsfähigkeit der verschiedenen Hilfsmittel, die Flexibilität der genutzten Werkzeuge, die Reproduzierbarkeit der Ergebnisse und die Anwendung einer strategisch ausge-richteten, zyklischen Vorgehensweise als ungenügend bewertet werden. Das IANUS-Verfahren wurde konzipiert um diese Lücken zu füllen. Es greift dabei auf verschie-dene konzeptionelle Grundsätze zurück, welche die Orientierung an den Bedürfnissen der Bera-tung gewährleisten sollen. Insbesondere wird die Implementierung eines Informationskreislaufes zur Gewinnung und Aufbereitung von Informationen und Erfahrungen gefordert. Dieser wird ergänzt durch die Standardisierung von Wissen in Form von Kennzahlen und die Gewährleistung der inhaltlichen Konsistenz durch regelbasierte Verknüpfungen. Darüber hinaus ist die Integrati-on von Wissen und Anwendungsprozess entscheidend für den Nutzengewinn durch den Einsatz des Verfahrens. Aufgrund der verschiedenen Teilnehmer und ihrer unterschiedlichen Kompeten-zen ist es notwendig, die verschiedenen Perspektiven und Kenntnisse zu berücksichtigen. Nur durch die gezielte Unterstützung der Kollaboration, die Handhabbarkeit der letztendlichen An-wendungen und die inhaltliche Flexibilität des Ansatzes kann dies erreicht werden. Die Wahl des des Internet als Medium bringt den Vorteil der dezentralen Nutzbarkeit bei zentraler Speicherung, wobei die für diese technische Basis typischen Gefahren berücksichtigt und beseitigt werden müssen. Das Ergebnis der Konzeption ist eine modulare internet-basierte Komponentenbiblio-thek, welche im vorgegebenen Rahmen flexibel ist. Für spezifische Aufgabenstellungen können vorab gewidmete Anwendungsinstanzen ausgeprägt und in Beratungsprojekten eingesetzt wer-den. Die kontinuierliche Weiterentwicklung gilt dabei der iterativen Verbesserung der Anwen-dungsinstanzen und der Komponentenbibliothek. Letztendlich beweist das IANUS-Verfahren, dass eine werkzeuggestützte Verbesserung von Beratungsdienstleistungen notwendig und mach-bar sind.
Einführung und kontinuierliche Adaption von betriebswirtschaftlichen Data-Warehouse-Bibliotheken
(2001)
Zielsetzung und Thesenbildung Zielsetzung der Arbeit ist es, ein ganzheitliches, werkzeuggestütztes Verfahren für die Einführung eines Data Warehouse (DW) zu konzipieren. Es wird dabei auf vorhandene Vorgehensmodelle zurückgegriffen, so dass nicht sämtliche Bestandteile vollständig neu zu entwickeln sind. Der Fokus der vorliegenden wissenschaftlichen Arbeit liegt auf den nachfolgend erläuterten Schwerpunkten. Innovative Data-Warehouse-Lösungen Entgegen der in der Literatur verbreiteten Meinung, dass es sich bei einer DW-Lösung um keine Standardanwendungssoftware handelt und diese nicht „von der Stange zu kaufen“ ist, wird im Folgenden gerade das Phänomen von Standardsoftware im DW-Bereich untersucht. Der Verfasser beschäftigt sich mit der Frage, inwieweit sich der Trend der 90er Jahre, Individual- durch Standardsoftware abzulösen, auch im DW-Bereich fortsetzen kann. Neben der Darstellung der bisherigen DW-Konzepte wird untersucht, ob ein neuer Typus DW den Wandel von einer Individual- hin zu einer Standardsoftware bewirken kann. Die wesentlichen Kriterien zur Kennzeichnung des neuen Konzepts werden herausgearbeitet und die am Markt bestehenden Produkte überprüft, inwieweit sie die aufgestellten Anforderungen erfüllen. Vorgehensmodell Die Vorgehensweise bei der Einführung eines DW wird anschließend problematisiert. Die methodische und technische Unterstützung in diesem Bereich, die bislang ebenfalls vernachlässigt werden, bilden einen weiteren Hauptbestandteil der Arbeit. Dabei werden adäquate Vorgehensweisen und -methoden aufgezeigt und bewertet. Die Ergebnisse hieraus und aus der Bewertung der bisherigen DW-Konzepte bilden die Grundlage für eine neue Vorgehensweise. Damit ist die Basis für das DELOS-Verfahren (Data-Warehouse-Einführung und Lokalisierung des Informationsbedarfs anhand operativer betriebswirtschaftlicher Softwarebibliotheken) geschaffen. Zusätzlich zu den bislang aufgestellten Anforderungen wird überprüft, inwieweit sich der Continuous-System-Engineering-Ansatz (CSE-Ansatz) auf den Bereich der Datenlagerhäuser übertragen lässt und diese im Zeitablauf kontinuierlich verbessert werden können. Informationsbedarfsanalyse Der Fokus wird auf den in der Literatur bislang vernachlässigten Schritt der IBA und ihrer informationstechnologischen Unterstützung gelegt. Die in der Literatur und Praxis bislang bekannten Methoden und Werkzeuge werden nach einer Vorauswahl auf ihre Anwendbarkeit im DW-Umfeld überprüft. Der Aufbau eines umfassenden Metadaten-Modells ist und kann nicht Ziel dieser Arbeit sein. Aufbau der Arbeit In der vorliegenden Arbeit wird der neue Typ der „betriebswirtschaftlichen Data-Warehouse-Bibliothek (DWB)“ definiert. Dazu werden die am Markt zu findenden Produktgruppen im DW-Umfeld herausgearbeitet und deren wesentliche Eigenschaften erläutert. Im Anschluss wird anhand der betrachteten DW-Lösungen geprüft, inwieweit diese den Anforderungen an eine betriebswirtschaftliche DWB gerecht werden. Nachdem der Begriff der DWB begründet und charakterisiert wurde, müssen die Anforderungen an die Adaption eines DW aufgezeigt werden. Die besonderen Eigenschaften der DWB bilden die Grundlage für den weiteren Verlauf der Arbeit. Im Mittelpunkt der weiteren Analyse steht die Frage nach einer möglichst geeigneten Einführungsunterstützungsmethodik. Die Vorgehensmodelle zur Einführung betriebswirtschaftlicher Standardsoftware AcceleratedSAP (ASAP) und Chestra werden erläutert und bewertet. Daran schließt sich eine kritische Würdigung ausgewählter IBA-Methoden an. Die Ergebnisse werden anschließend zur Konzeption und Umsetzung des DELOS-Verfahrens verwendet. Mit DELOS werden die Schwachpunkte der Vorgehensmodelle aus den vorangegangenen Kapiteln beseitigt. Dies bedeutet, dass z. B. die verwendbaren Bestandteile von ASAP und Chestra nicht neu konzipiert und entwickelt werden, sondern Wege aufgezeigt werden, wie diese im Sinne einer effektiven Einführungsmethodik ergänzt werden können. Danach wird die Umsetzung und der Einsatz des DELOS-Verfahrens im DW-Projekt geschildert. Es werden verschiedene Projektverläufe und die konkrete Anwendung der einzelnen Methoden aufgezeigt. Die bisherigen Erfahrungen beim Einsatz des Instrumentariums fließen in die Argumentation ein und die Besonderheiten bei der Anwendung werden herausgearbeitet. Mit der Evaluierung der angestellten Überlegungen schließt die Arbeit. Die Projekttauglichkeit wird getestet und das DELOS-Verfahren kritisch bewertet. Abschließend werden die Implikationen des konzipierten Verfahrens auf zukünftige Projekte und Anwendungsgebiete diskutiert und weitere Einsatzmöglichkeiten aufgezeigt.
Moderne betriebswirtschaftliche Softwarelösungen speichern in den Systemeinstellungen und Tabelleneinträgen eine sehr große Menge des unternehmensspezifischen Wissens über Geschäftsabläufe und Organisationsstrukturen. Der vermehrte Einsatz unterschiedlicher Lösungen zur Abbildung der internen Prozesse auf der einen und zur Öffnung der Geschäftstätigkeiten im Bereich des Electronic Business (e-Business) auf der anderen Seite stellt neue Heraus-forderungen an die Methoden und Konzepte zur Einführung bzw. Betreuung der eingesetzten Systeme. Im Rahmen der Arbeit wird untersucht, welche Schritte notwendig sind, um eine transparente Speicherung und Nutzung des vorhandenen Wissens sowie der gesammelten Informationen system- bzw. methodenübergreifend sicherzustellen und wie die bestehenden Ansätze aus dem Bereich der Softwareadaption in den Gesamtkontext integriert werden können. Kernpunkte sind die methodische Unterstützung einer zielgerichteten Navigation durch die Informationsflut und die Entwicklung eines geeigneten Instrumentariums, das in der Lage ist, heterogene Softwarelandschaften abzubilden und als Dokumentationsbasis für zukünftige Systemmodifikationen zu dienen.
Ergebnis der Arbeit ist ein wissensbasierter Ansatz zum Aufbau elektronischer Marktsysteme und die Beschreibung seiner Umsetzung in ein in der Praxis erprobtes und mehrfach erfolgreich eingesetztes System. Zielgruppe der Entwicklung sind kleine und mittlere Unternehmen (KMU), die mit diesem System in die Lage versetzt werden, eigenständig eine nach betriebswirtschaftlichen Regeln abgeleitete Electronic Commerce-Lösung aufzubauen. Elemente der beschriebenen Lösung sind der wissensbasierte Anforderungsnavigator und eine Standardanwendungssoftwarebibliothek. Im interaktiven Dialog mit dem wissensbasierten System wird ein individuell an die Anforderungen der KMU angepasster und betriebswirtschaftlich fundierter Realisierungsvorschlag für ein Electronic Commerce-System erzeugt und mit den Elementen der Standardsoftwarebibliothek ummittelbar in eine funktionsfähige Lösung umgesetzt. Motivation für den neuen Ansatz ist eine Untersuchung der marktgängiger Methoden und Werkzeuge zum Aufbau elektronischer Marktsysteme. Sie zeigt, dass die verfügbaren Mittel KMU technisch und betriebswirtschaftlich nur ungenügende Unterstützung zum Aufbau betriebswirtschaftlich fundierter Lösungen bieten. Grundlagen für den neuen Ansatz sind die am Lehrstuhl von Prof. Dr. R. Thome, Universität Würzburg, in einer Reihe wissenschaftlicher Arbeiten entwickelten Konzepte zur Adaption der betriebswirtschaftlichen Standardanwendungssoftwarebibliothek SAP/P3. Eine betriebswirtschaftliche Standardanwendungssoftwarebibliothek zum Aufbau elektronischer Marktsysteme im Internet existierte bisher nicht. Ebenso wenig ein geeigneter Anforderungsnavigator zu ihrer schnellen und gezielten Anpassung und Einführung im Unternehmen. Aufbauend auf der Untersuchung der verfügbaren Methoden und einer Klassifizierirung und Bewertung des Werkzeugangebots wird nach den aktuellen Möglichkeiten komponentenbasierter Softwaretechnologie eine umfassende und vollständig parametrisierbare Standardanwendungssoftwarebibliothek entwickelt. Zur Realisierung des Anforderungsnavigators werden wissensbasierte Problemlösungsmethoden bewertet, problemorientiert eingesetzt und ein strukturierter Fragenkatalog zur Ableitung eines betriebswirtschaftlichen Konzeptes für ein elektronisches Marktsystem konzipiert. Anschließend wird die Realisierung und Anwendung des IntelliShop-Systems beschrieben, das beide Teilsysteme integriert. Erst durch die vollständige Integration der komponentenbasierten Standardanwendungssoftwarebibliothek mit dem Anforderungsnavigator wird eine unmittelbare und automatisierte Umsetzung der Ergebnisse der wissensbasierten Analyse in eine funktionsfähige Electronic Commerce-Anwendung möglich. KMU profitieren nicht nur davon, dass so Lösungen sehr schnell und damit kostengünstig aufgebaut werden können. Der Ergebnisbericht der wissensbasierten Analyse liefert ihnen eine umfassende, nicht nur technische, sondern auch betriebswirtschaftliche Gesamtkonzeption, die sie mit dem Anforderungsnavigator ohne Berater- oder Entwicklerunterstützung selbstständig umsetzen und - wenn nötig - auch kurzfristig anpassen können. So wird eine dynamische Adaption elektronischer Marktsysteme an neue Anforderungen möglich.
Die gegenwärtig im öffentlichen Sektor zu verzeichnende breite Akzeptanz betriebswirt-schaftlicher Standardanwendungssoftware (SAS) ist nicht zuletzt in der Hoffnung begründet, durch die in ihr inkorporierten und sich bewährten privatwirtschaftlichen Methoden die Steue-rungsprobleme der Politik und Verwaltung lösen zu können. Aus der primär konzeptionellen Ausrichtung der betriebswirtschaftlichen SAS auf die Lösung von ökonomischen Aufgaben in kommerziellen Unternehmen ergeben sich jedoch Funktionslücken in Bezug auf die ganzheit-liche Steuerung von Verwaltungsprozessen. Die Standardsoftware als Organisator des betrieb-lichen Ablaufs in Unternehmen kann diese Funktion in der öffentlichen Verwaltung nicht in vollem Umfang erfüllen. Dem Einsatz der Informations- und Kommunikations- (IuK-)Technologie in der öffentlichen Verwaltung kommt aber eine außerordentliche Bedeutung zu, denn nichts kann wertneutraler und effizienter eindeutig geregelte bürokratische Verfahren vollziehen als eine Software. Die stärkere Automatisierung von Verwaltungsprozessen ist folglich ein beträchtlicher Beitrag zur Schaffung einer friedlichen Koexistenz zwischen der Bürokratie und privatwirtschaftlichen Managementtechniken. Die vorliegende Untersuchung zeigt daher die Möglichkeiten und Grenzen des Einsatzes be-triebswirtschaftlicher Anwendungssysteme in der öffentlichen Verwaltung. Die vorhandenen Funktionsdefizite werden primär unter dem Gesichtspunkt der operativen und strategischen Steuerung des administrativen Handelns systematisch identifiziert. Darauf aufbauend erfolgt eine Konzeption der integrierten und intelligenten Erfassung von Leistungs- und Wirkungsda-ten in der öffentlichen Verwaltung, um eine Informationsbasis für das Controlling zu schaffen und dieses auch zu institutionalisieren.
Internettechnologie-basierte Marktplätze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ernüchterung ein, da die Nutzung der Marktplätze weitaus langsamer voranging als allgemein erwartet wurde. Dafür wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels“ Internettechnologie-basierter Marktplatz angeführt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterstützung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht darüber hinweg täuschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. Ähnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabläufe sicher, effizient und durchgängig zu unterstützen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktplätze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu ermöglichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in fünf Hauptteile. Im zweiten Kapitel werden zunächst die für die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktplätze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender ökonomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktmäßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Geschäftstransaktion mündet. Der im Anschluss skizzierte Aufbau elektronischer Marktplätze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktplätze – die Internettechnologie-basierten Marktplätze – werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterstützung des Transaktionsprozesses gegenübergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit übertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems für Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktplätze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die für die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verknüpfung der Eigenschaften resultiert in drei zu berücksichtigenden Objektmerkmalen – Spezifität, Komplexität und strategische Bedeutung – mit jeweils bipolaren Ausprägungen, die zusammen einen Würfel mit acht Beschaffungsobjektgruppen bilden. Im fünften Kapitel werden ausgehend vom Aufbau elektronischer Marktplätze die möglichen Funktionalitäten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterstützung der einzelnen Phasen einer Geschäftstransaktion die übergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchführbaren Geschäftsvorfälle bzw. Prozessabläufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen für jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktplätze für den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erfüllen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl für Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universität laufenden Studie „b2b-Marktplatzführer“ erhoben wurde, konnten zum 15.07.2003 79 Marktplätze einbezogen werden.
Im Rahmen dieser Arbeit wird rationales Herdenverhalten anhand der Informationskaskadenmodelle sowie der Reputationsmodelle (Prinzipal-Agent-Kontext bei Existenz relativer Leistungsbewertung) analysiert. Im Bereich der Theorie wird die Frage beantwortet, welche Annahmen unverzichtbar sind für das Auftreten von Herdenverhalten. Bezüglich der Empirie werden zwei Fragestellungen untersucht. Zum einen wird analysiert, dass vorliegende, spezifische empirische Befunde zum Herdenverhalten eher mit Hypothesen vereinbar sind, die aus dem Informationskaskadenmodell abgeleitet werden. Zum anderen wird dargestellt, dass die empirisch festgestellte, unterschiedliche Neigung zum Herdenverhalten für Fondsmanager, Analysten und Topmanager mit der Vergütungsstruktur dieser Akteure erklärt werden kann. Zuletzt wird bei der Untersuchung von Lösungsansätzen bei beiden Modellansätzen nach Mechanismen gesucht, die die negativen Konsequenzen aus dem Auftreten von rationalem Herdenverhalten abmildern können. Hierbei werden verschiedene Ansätze diskutiert. Beispielsweise können im Informationskaskadenmodell Fehlentscheidungen der Akteure verhindert werden, wenn öffentlich verfügbare Information zur Verfügung gestellt wird. Das Hauptergebnis der Analyse ist, dass bei der Diskussion von Lösungsansätzen ein Kosten/Nutzen-Kalkül beachtet werden muss.
Zahlreiche, zum Teil sehr spektakuläre Unternehmenszusammenbrüche – national (z.B. Holzmann, Bankgesellschaft Berlin) wie international (z.B. Enron, Worldcom) – in Verbindung mit Bilanzmanipulationen, haben den Berufsstand in eine schwere Vertrauenskrise gestürzt. Vor allem der Zusammenbruch von Enron (vormals das siebtgrößte Unternehmen der USA) hat die internationale Wirtschaftsprüfung in großen Aufruhr versetzt. Nach Bekanntwerden des Enron-Skandals wurden weitere Fälle fragwürdiger Bilanzierungspraktiken aufgedeckt, was in der Öffentlichkeit den Eindruck erweckte, dass es sich hierbei um keinen Einzelfall handelte, sondern dass erhebliche strukturelle Defizite vorliegen müssen. Diese Entwicklungen lösten weltweit eine Reformdebatte aus, welche zahlreiche berufsständische und gesetzliche Regulierungseingriffe, sowohl national als auch international, zur Folge hatte. Unter besonderem Handlungsdruck stand der Gesetzgeber in den USA. Im Sommer 2002 wurde der „Sarbanes-Oxley Act“ verabschiedet, der stark regulierend in den Berufsstand eingreift. Die Kritik der Öffentlichkeit konzentriert sich dabei hauptsächlich auf das gleichzeitige Angebot von Prüfungs- und Beratungsleistungen durch den amtierenden Abschlussprüfer. Viele sehen dadurch die Unabhängigkeit des Abschlussprüfers und damit die Glaubwürdigkeit der Jahresabschlussinformationen gefährdet. Die Sicherung der Vertrauenswürdigkeit stellt für die Qualität der Abschlussprüfung eine existentielle Grundlage dar. Die Vorschriften zur Unabhängigkeit des Abschlussprüfers wurden daraufhin verschärft, zahlreiche Beratungsleistungen durch den Abschlussprüfer gelten nun als unvereinbar mit gleichzeitiger Abschlussprüfung. Auch in der Europäischen Union und in Deutschland wird heftig diskutiert, wie man das verloren gegangene Vertrauen der Öffentlichkeit wiedergewinnen kann. Vor dem Hintergrund dieser Reformdebatte muss die Frage gestellt werden, ob durch das gleichzeitige Angebot von Prüfungs- und Beratungsleistungen die Unabhängigkeit des Abschlussprüfers tatsächlich gefährdet ist, oder die eingeleiteten Maßnahmen der Öffentlichkeit lediglich Handlungsfähigkeit seitens des Gesetzgebers suggerieren sollen, um das Vertrauen in den Berufsstand schnellstmöglich wieder zurückzugewinnen. Aus wissenschaftlicher Sicht konnte eine Beeinträchtigung der Unabhängigkeit des Abschlussprüfers bisher weder theoretisch noch empirisch nachgewiesen werden. Einige Autoren kritisieren vor allem bei der amerikanischen Gesetzesinitiative, sie habe sich eher an der Meinung der Öffentlichkeit orientierte, ohne wirkliche Ursachenanalyse zu betreiben. Es ist jedoch ausdrücklich nicht das Anliegen dieser Arbeit, das Für und Wider einschlägiger gesetzlicher Regelungen bzw. interner Sicherungsmaßnahmen darzustellen und zu erörtern. Die vorliegende Arbeit leistet einen Beitrag zur aktuellen Diskussion, indem ausführlich untersucht wird, ob sich eine Gefährdung der Unabhängigkeit des Abschlussprüfers im Zusammenhang mit dem gleichzeitigen Angebot von Prüfungs- und Beratungsleistungen empirisch nachweisen lässt oder nicht. Dabei werden zwei Ziele verfolgt: Zum einen werden bereits vorliegende empirische Studien zu dieser Problematik vorgestellt und diskutiert, zum anderen werden zwei eigene empirische Untersuchungen, welche auf agencytheoretischen Grundüberlegungen basieren, in die Diskussion eingebracht.
Die Relevanz der öffentlichen Auftragsvergabe ergibt sich aus den immensen Beschaffungsvolumen der öffentlichen Auftraggeber, welches deutschlandweit ca. 220 Mrd. Euro und EU-weit bei ca. einer Billion pro Jahr liegt. Aufgrund dieser Größenordnungen resultieren selbst geringe Effizienzverbesserungen in hohen absoluten Beträgen. Die Arbeit befasst sich mit den Möglichkeiten, welche sich hierbei durch die Nutzung moderner Informations- und Kommunikationstechnologie insb. dem Internet ergeben. Im privatwirtschaftlichen Beschaffungsbereich sind unter dem Schlagwort E-Procurement bereits Konzepte und Produkte verbreitet. Diese sind jedoch vor allem im Bereich des „Sourcing“ (hier: Vergabe) nicht ohne weiteres im öffentlichen Bereich nutzbar, so dass eine ganzheitliche Lösung hier noch aussteht. In der Arbeit werden zunächst die juristischen Rahmenbedingungen dargelegt. Diese determinieren den Vergabeprozess durch eine Vielzahl von Richtlinien, formalen Gesetzen, Verordnungen und anderen Regelwerken, so dass sich das Vorgehen grundsätzlich von der privatwirtschaftlichen Beschaffung unterscheidet. Neben diesem juristischen Rahmen werden die ökonomischen Ziele und Nutzenpotentiale untersucht, die sich durch eine Digitalisierung ergeben sowie die zur Verfügung stehenden Technologien erläutert. Aufbauend auf diesen Grundlagen beschäftigen sich die Hauptabschnitte der Arbeit mit einer genauen Analyse der Anforderung, die an ein System zur digitalen Abwicklung der öffentlichen Auftragsvergabe zu richten sind. Diese werden abschließend in Tabellenform strukturiert und priorisiert. Nach der Prüfung bestehender Architekturansätze wird – quasi als Synthese von verfügbarer Technologie und dem Anforderungskatalog – eine Systemarchitektur (XAVER - XML-basierte Architektur zur Umsetzung der digitalen Vergabe) entwickelt, die die Basis für konkrete Informationssysteme darstellt, mit denen eine digitale Vergabe öffentlicher Aufträge durchgeführt werden kann. Als beispielhafte Umsetzung dieser Architektur wird im Anschluss die eTenderSuite-Produktfamilie der Administration Intelligence AG vorgestellt. Den Abschluss bildet eine nutzenorientierte Analyse der bisherigen Ergebnisse. Obwohl der Fokus der Arbeit ein ökonomischer ist werden auch – soweit nötig – juristische und informationstechnische Aspekte betrachtet. Nur im Zusammenspiel dieser drei Disziplinen ist das komplexe Themenfeld der digitalen Vergabe ganzheitlich zu untersuchen.
Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualität der Menschen sowie ein Wachstum von Wirtschaft und Arbeitsplätzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen Möglichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele für derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausführlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung übernehmen können, welchen Beitrag Unternehmen bei der Lösung und Vermeidung moralischer Konflikte leisten können und welche Möglichkeiten bestehen, dass ethische Bemühungen im Unternehmensalltag umgesetzt werden können. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden mögliche Gründe für deren geringe Verbreitung aufgezeigt.
Seit der Transformation der EG-Zwischenberichtsrichtlinie in deutsches Recht sind alle Emittenten aus dem amtlichen Markt verpflichtet, für nach dem 31. Dezember 1989 beginnende Geschäftsjahre einen Zwischenbericht über die ersten sechs Monate des Geschäftsjahres zu veröffentlichen. Mit diesen bis heute noch geltenden Bestimmungen ist jedoch eine Reihe von Problemen verbunden. So enthalten die im BörsG und in der BörsZulV verankerten Vorschriften hinsichtlich der zu publizierenden Zahlenangaben und Erläuterungen nur geringe Anforderungen an die unterjährige Berichterstattung, die teilweise aufgrund der unpräzisen Formulierung der Bestimmungen den Unternehmen auch noch einen weitgehenden Ermessensspielraum in bezug auf die berichtspflichtigen Sachverhalte einräumen. Darüber hinaus stufen die gesetzlichen Vorschriften nur die Veröffentlichung eines Halbjahresberichtes als verpflichtend ein, und für die nicht im geregelten Markt notierenden Unternehmen kann aus den Vorschriften keine Verpflichtung abgeleitet werden. Wenngleich der Gesetzgeber sich bei der Umsetzung der Zwischenberichtsrichtlinie bewußt gegen eine umfassendere unterjährige Berichtspflicht entschieden hat, sowohl in bezug auf die berichtspflichtigen Zahlenangaben und Erläuterungen sowie der Anzahl der unterjährig zu veröffentlichenden Berichte, als auch im Hinblick auf die berichtspflichtigen Börsensegmente, ist vor dem Hintergrund der fortschreitenden Globalisierung der Kapitalmärkte und der damit verbundenen größeren Bedeutung der externen Berichterstattung der Emittenten eine grundlegende Veränderung bei den an eine unterjährige Berichterstattung gestellten Anforderungen eingetreten. Während zu Beginn der gesetzlich geforderten Zwischenberichterstattung die wenigen berichtspflichtigen Zahlenangaben und Erläuterungen noch im Einklang mit den Informationsbedürfnissen der Kapitalmarktteilnehmer gestanden haben, ist der Informationsanspruch der Investoren in den letzten Jahren stetig gestiegen. Verantwortlich dafür ist in erster Linie, daß die wirtschaftlichen und finanziellen Verhältnisse der Unternehmen immer schnelleren und häufigeren Veränderungen unterliegen, wodurch die Kapitalmarktteilnehmer neben der jährlichen Berichterstattung auch innerhalb des Geschäftsjahres auf eine umfassende Berichterstattung angewiesen sind, um möglichst zeitnahe auf die veränderten Bedingungen reagieren zu können. Darüber hinaus hat die Internationalisierung der Rechnungslegung einen wichtigen Beitrag zur Normierung einer umfassenderen unterjährigen Berichterstattung geleistet. Um eine Angleichung der deutschen Vorschriften an die umfassenderen Bestimmungen der international anerkannten Rechnungslegungsstandards zu erreichen, die aufgrund der Befreiungsregel von § 292a HGB bereits von vielen deutschen Unternehmen angewendet werden, von Bedeutung sind hierbei insbesondere die nach IFRS/IAS bzw. US-GAAP zu beachtenden Vorschriften, hat sowohl die Deutsche Börse AG als auch das DRSC Vorschriften für die Erstellung von unterjährigen Berichten erlassen. Vor dem Hintergrund dieser Vielzahl und dem nebeneinander von gesetzlichen und privatrechtlichen Regelungen, die mittlerweile von den Gesellschaften zu beachten sind, werden in der vorliegenden Arbeit die einzelnen nationalen und internationalen Regelungen ausführlich dargestellt und Gemeinsamkeiten sowie Unterschiede aufgezeigt. Im Rahmen einer empirischen Untersuchung wird darüber hinaus in einem Soll-Ist-Vergleich untersucht, inwieweit diese Regelungen auch Beachtung innerhalb der Zwischenberichterstattung der Gesellschaften finden. Dazu wurden 115 Zwischenberichte aus den Jahren 2000 und 2001 von Unternehmen aus den Indizes DAX, MDAX und NEMAX 50 hinsichtlich der publizierten Informationen ausgewertet. Vor dem Hintergrund der sich aus dem Nebeneinander der gesetzlichen und privatrechtlichen Vorschriften ergebenen uneinheitlichen Verpflichtungsgrundlagen und Anforderungen ist es dringend geboten, den Regulierungsrahmen für die Zwischenberichterstattung der aktuellen Entwicklung in der Rechnungslegung weiter anzupassen, um die teilweise bestehende Inkonsistenz der verschiedenen Vorschriften in Zukunft zu vermeiden. Durch die Bestrebungen der EU, die nationalen Rechtsvorschriften der einzelnen Mitgliedsländer für einen einheitlichen europäischen Kapitalmarkt weitgehend zu harmonisieren, werden dem deutschen Gesetzgeber die zukünftig an eine unterjährige Berichterstattung zu stellenden Anforderungen von Seiten der EU weitgehend vorgegeben werden. So sieht die am 26. März 2003 veröffentlichte Transparenz-Richtlinie vor, daß ab dem Jahr 2005 alle an einem geregelten Markt notierten Emittenten einen Halbjahresfinanzbericht erstellen müssen. Wenngleich der von der EU-Kommission publizierte Vorschlag für eine zukünftige einheitliche Ausgestaltung der unterjährigen Berichterstattung in Europa grundsätzlich positiv zu sehen ist, werden auch vor dem Hintergrund der durchgeführten empirischen Untersuchung erforderliche Ergänzungen zu den an eine unterjährige Berichterstattung zu stellenden Anforderungen aufgezeigt. Von besonderer Bedeutung sind hierbei die Durchführung einer prüferischen Durchsicht sowie die Verpflichtung zu einer Quartalsberichterstattung.
Bei der vorliegenden Arbeit handelt es sich um eine Untersuchung mit dem Ziel, die Reaktionen im Umfeld von Veränderungen der Zusammensetzung der großen deutschen Aktienindizes DAX, MDAX und HDAX zu ermitteln. Da in der idealtypischen Finanztheorie eine Indexauswechslung keine bewertungsrelevante Information darstellt, jedoch in der Finanzpresse häufig über Indexauswechslungen und deren Auswirkungen auf die zugrunde liegenden Kurse spekuliert wird, sollten im Rahmen der vorliegenden Arbeit zum einen theoretische Ansatzpunkte identifiziert werden, um Indexeffekte erklären zu können; zum anderen galt es, mittels verschiedener empirischer Untersuchungen zu überprüfen, inwiefern sich die Kurse, die Liquidität und gegebenenfalls die Risikokomponenten der betreffenden Aktien durch das Indexereignis verändern. Angesichts der sich mehr und mehr verstärkenden Indexfokussierung vieler institutioneller Anleger seit der Schaffung des DAX zum Jahresende 1987 sollte auch der Frage nachgegangen werden, ob und inwiefern sich die Reaktionsmuster am Kapitalmarkt im Zeitablauf verändert haben. Da als auslösendes Moment für potentielle Indexeffekte vorrangig fremdverwaltete Wertpapierportfolios in Frage kommen, wurde neben einer theoretischen Verhaltensanalyse auch eine umfassende Umfrage unter Fondsmanagern hinsichtlich deren Indexfokussierung durchgeführt.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
Die Bewertung von Patenten
(2006)
Die Arbeit verfolgt zwei Ziele. Einerseits sollen bereits bestehende Bewertungskonzepte für betriebliche Patente im Hinblick auf ihre Eignung für unternehmensinterne und -externe Willensbildungs- und Willensdurchsetzungsprozesse beurteilt werden. Andererseits sollten diese Ansätze verfeinert und erweitert werden mitunter zur Operationalisierung für praktische Anwendungen. Für die Analyse der bestehenden Patentbewertungsmethoden wird zwischen den Ansätzen auf Basis gesetzlich geregelter Bewertungsanlässe und den in der internen Unternehmensrechnungslegung verwendeten Ansätzen differenziert. Um die Grenzen der traditionellen einkommensorientierten Bewertungsmodelle überwinden zu können, werden in der vorliegenden Untersuchung mit dem Realoptionsansatz und der SGPP-Methode zwei alternative Ansatzpunkte bzw. verfeinerte Methoden für die monetäre Patentbewertung zur Diskussion gestellt.
Die Gesellschafter-Fremdfinanzierung wird sowohl in Deutschland also auch europaweit sowie international zunehmend restriktiv geregelt mit der Folge, dass die steuerlichen Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules) die Finanzierungsentscheidung multinationaler Konzerne in immer stärkerem Maße beeinflussen. Dabei belegt die internationale Diskussion zu den Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules), dass weltweit Regelungsbedarf gesehen wird. Steigenden Einfluss auf das Steuerrecht der Mitgliedstaaten gewinnt dabei insbesondere die Rechtsprechung des EuGH. So war nicht zuletzt die Rechtsprechung in der Rechtssache Lankhorst-Hohorst, deren Befassungsgegenstand auf die unterschiedliche Behandlung einer Tochtergesellschaft je nach Sitz der Muttergesellschaft abzielt, entscheidend für die Neukonzeption der Regelungen in Deutschland und verschiedenen anderen Mitgliedstaaten. Diese Regelungen stoßen jedoch weiterhin sowohl in Deutschland als auch international auf scharfe Kritik. Neben europarechtlichen Grundsätzen setzt die Kritik an allgemeinen Grundsätzen des deutschen Steuerrechts und an abkommensrechtlichen Grundsätzen an. Ziel der vorliegenden Dissertation ist es, die verschiedenen internationalen Regelungen zur Problematik der Gesellschafter-Fremdfinanzierung typisierend zu erfassen und nach den relevanten Grundsätzen zu würdigen. In Anbetracht der restriktiven Rechtsprechung des EuGH wird das Hauptaugenmerk auf europarechtliche Tatbestandsvoraussetzungen gerichtet, jedoch finden auch die Vorgaben des deutschen Steuerrechts sowie des Abkommensrechts Beachtung. Den Abschluss findet die Untersuchung in einer Darstellung und Würdigung verschiedener Reformüberlegungen zur Ausgestaltung der Regelungen zur Gesellschafter-Fremdfinanzierung und der Ausarbeitung eines Lösungsvorschlags, der weitgehend die verschiedenen Ebenen der Kritik anspricht und mit dem Regelungszweck vereint. Dieser Lösungsvorschlag wird abschließend auf den Prüfstein der verschiedenen steuerlichen, europarechtlichen und abkommensrechtlichen Grundsätze gestellt.
Nicht handelbare reale Aktienoptionen sind ein beliebtes Instrument, um die variable Vergütung von Mitarbeitern mit dem Unternehmenswert zu verbinden. Für die Unternehmensseite existieren unterschiedliche Auffassungen, wie die Verpflichtung aus der Option zu bilanzieren ist. Der individuelle Wert dieser Vergütungskomponente für den begünstigten Mitarbeiter ist unter anderem auch von der Besteuerung abhängig. Da Aktienoptionspläne eine längere Laufzeit aufweisen, stellt sich die Frage nach dem zutreffenden Besteuerungszeitpunkt und damit verbunden nach der Bewertung des Vorteils. Die Vergütung von Mitarbeitern mit Aktienoptionen ist den Einkünften aus nichtselbständiger Tätigkeit zuzurechnen. Es gilt das Zuflussprinzip. Nach der allgemeinen Diskussion über den zutreffenden Besteuerungszeitpunkt und Bewertung der Option werden in der Arbeit zunächst die unterschiedlichen Rechtslagen zur Besteuerung von Aktienoptionen beim Begünstigten in den betrachteten Ländern (Deutschland, Schweiz, Österreich und Belgien) dargestellt. Die Besteuerung in der Schweiz, Österreich und Belgien erweist sich im Fall der tatsächlichen Optionsausübung grundsätzlich vergleichsweise günstiger als in Deutschland. Die differierenden steuerlichen Regelungen sind insbesondere bei grenzüberschreitenden Sachverhalten problematisch. Hauptsächlich durch abweichende Besteuerungszeitpunkte in den betrachteten Ländern ergeben sich bei Wechsel von Tätigkeits- und Wohnort, aber auch bei Grenzgängern sowohl Fälle der Doppelbesteuerung als auch der Nichtbesteuerung der Vergütung. Es werden jeweils konkrete grenzüberschreitende Sachverhalte anhand des spezifischen Doppelbesteuerungsabkommens der beteiligten Staaten beurteilt. Risiken der Doppelbesteuerung werden herausgearbeitet und Gestaltungsempfehlungen zur Vermeidung gegeben. Im Hinblick auf die meist günstigere Besteuerung in der Schweiz, in Österreich und in Belgien kann generell für die Besteuerung von Aktienoptionen bei grenzüberschreitenden Sachverhalten die Empfehlung abgeleitet werden, dass eine Tätigkeitsverlagerung in diese Staaten grundsätzlich sinnvoll ist. Selbst zwischen europäischen Staaten, die vielfältig miteinander verbunden sind, kann häufig aufgrund der unterschiedlichen Steuersysteme keine allgemeingültige Lösung gefunden werden, um eine zutreffende gerechte Besteuerung von Aktienoptionen beim Begünstigten in grenzüberschreitenden Fällen sicherzustellen. Eine Doppel- bzw. Minderbesteuerung ist mit den vorhandenen rechtlichen Möglichkeiten meist nicht zu beseitigen.
Mit der Einführung von Basel II erhalten ab dem 01. Januar 2007 nahezu alle fremdfinan¬zierten Unterneh¬men im Rahmen einer Ratinga¬nalyse eine individuelle Bewertung ihrer Bo¬nität. Wie die Ratinganalyse haben sich auch die gesetzlichen Vertreter im Rahmen der Lageberichterstattung und der Abschlussprüfer im Rahmen seiner Prüfungs¬pflichten mit der Bestandskraft des zu prüfenden Unternehmens auseinander zu setzen. Es stellt sich insofern die Frage nach dem Einfluss von Ratinganalysen auf die Rechnungslegung und Abschlussprüfung. Die Untersuchung zeigt, dass im Hinblick auf die gesetzliche Forderung nach einer umfassenden Risikoberichterstattung in § 289 Absatz 1 HGB die gesetzlichen Vertre¬ter die Ratinganalyse insbesondere bei Anzeichen für eine Be¬standsgefahr in der Bericht¬er¬stattung über Risiken der voraussichtlichen Entwicklung zu verwerten, das Rating als Informationsquelle sowie die Risikoeinstufung zu nen¬nen haben. Aus Sicht des Abschlussprüfers können Ra¬tinganalysen als Indikator für die zukünf¬tige Bonität der Gesellschaft eine entschei¬dende und objektive Grundlage für die Bewertung des Insolvenzrisikos beim geprüf¬ten Unternehmen spielen und ihn bei der Beurteilung der Lagedar¬stellung sinnvoll unterstüt¬zen. Unter Beachtung der gesetzlichen und be¬rufsständi¬schen Normen sind demzu¬folge Ratingergebnisse – insbesondere bei Anzeichen einer Bestandsgefährdung – vom Ab¬schlussprüfer zwingend bei der Abschlussprüfung zu verwerten. Demzufolge ist dem Abschlussprüfer be¬züglich der Ratingunterlagen von Seiten der Unternehmensleitung auch ein Einsichts¬recht aus § 320 HGB zu gewähren. Die Ratingerkenntnisse kann der Abschlussprüfer darüber hinaus auch im Rahmen der Prüfungsplanung nutzen, denn die individu¬elle Risikosituation des Unternehmens hat erheblichen Einfluss auf das Prü¬fungsvorgehen. Ferner hat sich der Abschlussprüfer bei der Erwartungsbildung be¬züglich des Vorhandenseins bzw. des Grades der Bestandsgefahr an der Ratinganalyse zu orientieren, um die Aus¬führungen der gesetzlichen Vertreter im Anschluss daran im Lichte seiner Erwartun¬gen zu hinterfragen. Aus den Ergebnissen dieser Soll-Ist-Verprobung folgen dann ent¬sprechende Konsequenzen für die Berichterstattung des Abschlussprüfers. So ist, bei unzureichenden Ausführungen im Lagebericht, im Prü¬fungsbericht auf die Bestandsge¬fahr und die mangelnde Verarbeitung der Ratinger¬gebnisse hinzuweisen; der Bestäti¬gungsvermerk ist mit einem Hinweis auf die Ratingergebnisse einzuschrän¬ken. Wird dagegen im Lagebericht im Einklang mit der Ra¬tinganalyse zutreffend über die dro¬hende Bestandsgefahr berichtet, so sind dennoch im Prüfungsbericht nochmals die Ri¬siken der künftigen Entwicklung anzugeben. Im Bestätigungsvermerk ist zu er¬läutern, dass sich die Darstellung der Bestandsrisiken mit dem Ratingergebnis deckt. Wird dem Abschlussprüfer dagegen die Einsicht in die Ratinganalyse verweigert, so ist im Prüfungsbericht auf die Weigerung einzugehen und bei Anzeichen einer Be¬standsgefahr darüber hinaus der Redepflicht nachzukom¬men. Der Bestätigungsver¬merk sollte in solchen Fällen mit der verbalen Einschrän¬kung versehen werden, dass die Beurteilung ohne Einsicht in die Ratingunterlagen er¬folgen musste.
Auslandsbanken gewinnen in Deutschland eine immer größere Bedeutung. Obgleich der von der Bundesbank ausgewiesene Marktanteil ausländischer Banken noch immer im Vergleich zu anderen europäischen Ländern unterdurchschnittlich stark ausgeprägt ist, messen ihnen deutsche Bankiers eine hohe Wettbewerbsfähigkeit zu und warnen vor den Folgen einer „Eroberung“ ihrer inländischer Kreditinstitute. Erstmals werden die neu erstarkten Wettbewerber aus den anderen europäischen Nationen sowie den USA im Rahmen der vorliegenden Arbeit umfassend und vor dem Hintergrund der sich verändernden technologischen und regulativen Rahmenbedingungen analysiert. Hierbei sind die Fragen, weshalb sie in den deutschen Markt eingetreten sind, welche Entwicklungspfade sie eingeschlagen haben und inwieweit ihr Engagement als erfolgreich zu bewerten ist, die zentralen Gesichtspunkte des ersten Abschnitts. Im Gegensatz zu vorangegangenen Arbeiten beschränkt sich der hier gewählte Ansatz nicht auf einen kurzen Zeitraum oder die bloße Analyse des Marketing-Mixes aus Produkt-, Preis- oder Kommunikationspolitik. Vielmehr werden beobachtbare Entwicklungen nicht nur beschrieben, sondern auch auf Basis empirischer Untersuchungen sowie theoretischer Überlegungen erklärt. Zu Beginn steht hierbei die Frage nach den Eintrittsmotiven, die ausländische Banken bewogen haben, Niederlassungen in der Bundesrepublik zu eröffnen. Während derartige Studien für andere Länder bereits seit längerem bestehen, können erstmals im Rahmen der vorliegenden Arbeit Faktoren herausgearbeitet werden, die Eintrittsentscheidungen offensichtlich signifikant beeinflussen. So bestätigt sich in diesem Zusammenhang zunächst die Bedeutung der bilateralen Wirtschaftsbeziehungen, die mit zunehmender Intensität die Gründungsneigung erhöhen. Für die Bundesrepublik zeigt sich jedoch auch, daß eine überdurchschnittliche wirtschaftliche Dynamik einen positiven Einfluß in Bezug auf die Anzahl der Gründungen ausübt, während den am Kapitalmarkt herrschenden Bedingungen kein signifikanter Einfluß auf die Eintrittsentscheidungen nachgewiesen werden kann. Die Frage der nachfolgenden Entwicklung wird vor dem Hintergrund eines eher wirtschaftshistorischen Ansatzes beantwortet. Hierbei kristallisiert sich ein homogener Entwicklungspfad heraus, an dessen Beginn Firmenkunden gleicher Herkunft betreut werden und dessen Ende durch den Eintritt in den Wettbewerb um deutsche Privatkunden markiert wird. Der Erfolg ausländischer Banken in Deutschland wird im weiteren ausführlich thematisiert. Zunächst kann in diesem Zusammenhang gezeigt werden, daß bis zum Jahr 1999 die auf Hymer zurückgehende Liabilities-of-Foreignness-Hypothese für Auslandsbanken in Deutschland bestätigt werden kann. Seit der Jahrtausendwende lassen sich jedoch keine wesentlichen Rentabilitätsunterschiede zwischen in- und ausländischen Instituten mehr beobachten, wobei es zu beachten gilt, daß die Angleichung der Bankengruppe im wesentlichen auf Verschlechterungen bei den inländischen Instituten zurückzuführen ist. Anschließend wird der Frage nachgegangen, welche Einflüsse für Unterschiede bei der Rentabilität ausländischer Banken verantwortlich gemacht werden können. Über die Ansatzpunkte vorangegangener Studien hinaus wird in diesem Zusammenhang ausdrücklich die Rolle einer produkt- beziehungsweise kundenorientierten Ausrichtung im Sinne des strategischen Managements berücksichtigt. So zeigt sich, daß neben den bilateralen Wirtschaftsbeziehungen als einzig konstanter Einflußfaktor die Fokussierung einer Bank Effizienzunterschiede erklären kann. Aufbauend auf diesen Erkenntnissen wendet sich der zweite Abschnitt der Frage zu, welche strategischen Positionierungsmöglichkeiten sich einer ausländischen Bank in Deutschland bieten. Vorangegangene Arbeiten zum strategischen Bankmanagement befassen sich in diesem Zusammenhang vornehmlich mit der Ausrichtung nationaler Wettbewerber oder diskutieren Internationalisierungsstrategien aus Sicht der Muttergesellschaft eines multinationalen Bankkonzerns. Der hier verfolgte Ansatz unterscheidet sich dahingehend, daß ausgehend von einem Marktimperativ die Positionierung der Tochtergesellschaft im Zentrum steht. Hierbei gewinnt die Frage nach der Transferierbarkeit von wettbewerbsrelevanten Ressourcen eine zentrale Bedeutung, da im Sinne des Resource-Based Views derartige Kompetenzen über die Fähigkeit zur Besetzung attraktiver Positionen entscheiden. Neben natürlichen Barrieren, die eine grenzüberschreitende Nutzung von bestehenden Infrastruktureinrichtungen beziehungsweise von im Heimatland gewonnenen Kundeninformationen verhindern, sind es in erster Linie regulative und kulturelle Barrieren, die einen maßgeblichen Einfluß auf die Positionierungsalternativen ausländischer Banken in Deutschland ausüben. Aufbauend auf dem Positionierungsansatz von Dombret und Kern zeigt sich in diesem Zusammenhang, daß vornehmlich produktbezogene Kompetenzen als erfolgversprechende Ansatzpunkte für ausländische Banken dienen.
Die Arbeit stellt die Grundsätze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegenüber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzfähigkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht.
Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden.
Nach der Einleitung werden im zweiten Kapitel die zivilrechtlichen, ertrag- und schenkungsteuerrechtlichen Definitionen der Begriffe “Schenkung unter Lebenden” sowie „vorweggenommene Erbfolge“ nach deutschem, österreichischem und schweizerischem Recht sowie das Rechtsinstitut des Nießbrauchs nach deutschem, österreichischem und schweizerischem Zivil- und Gesellschaftsrecht gegenübergestellt. Im dritten Kapitel erfolgt die schenkungsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Schenkungsteuerrecht. Die ertragsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Ertragsteuerrecht erfolgt im vierten Kapitel. Nach den zivilrechtlichen Grundlagen bei grenzüberschreitenden Vermögensübertragungen werden im sechsten Kapitel die schenkungsteuerliche und ertragsteuerliche internationale Doppelbesteuerung in Bezug auf die Länder Österreich und die Schweiz ausführlich erläutert. Im Mittelpunkt der Betrachtung stehen ausschließlich unentgeltliche bzw. teilentgeltliche Vermögensübertragungen im Rahmen der Schenkung unter Lebenden.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland für vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gewährt. Die Investitionsmöglichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien führen stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Begünstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabhängige Förderung kann dazu führen, dass ein durchschnittlich verdienender Eigenheimkäufer Förderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienförderung innerhalb der Altersvorsorge („Wohn-Riester“) ermöglicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche Förderung integriert worden und begünstigt so die Rückführung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Vermögensübertragung auf eine steuerbegünstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die Länge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelmäßig nur in Verbindung mit zusätzlichen Begünstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit für die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien können durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Ausübung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant für niedrige Kapitalkosten ist. Die ver-mögensverwaltende Immobilien-AG stellt aufgrund der flexiblen Ausschüttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar.
Die Dissertation untersucht die Fragestellung, ob aufgrund rechtlicher Regelungen eine gesetzlich begründete Pflicht zur Unternehmensplanung bei kleinen und mittleren Unternehmen (KMU) besteht, bzw. ob eine solche Pflicht gesetzlich verankert werden sollte, falls sich aus den aktuellen gesetzlichen Vorschriften keine solche Pflicht ableiten lässt. Daran anknüpfend werden in die Betrachtung auch die Auswirkungen der Abschlussprüfung und der Unternehmensfinanzierung auf die Unternehmensplanung bei KMU mit einbezogen. Die Untersuchungen bewegen sich vor dem Hintergrund, dass die Informationen über die zukünftige Entwicklung der Unternehmen durch eine Vielzahl von Gesetzesreformen innerhalb der letzten ca. 15 Jahre, verstärkt an Bedeutung gewonnen haben. Ziel dieser Reformen ist es, die Transparenz und Publizität der Unternehmen, die Kontrolle der Unternehmensführung und die Qualität der Abschlussprüfung zu verbessern. Grundlage der Informationen über die zukünftige Entwicklung der Unternehmen ist die klassische betriebswirtschaftliche interne Unternehmensplanung, welche allerdings im Segment der KMU regelmäßig nicht vorhanden ist. Um dieses Problem zu lösen, wird vielfach eine gesetzliche Planungspflicht für alle Unternehmen gefordert. Erschwert werden die Untersuchungen durch die Tatsache, dass es in Deutschland keine einheitliche Definition für KMU gibt, so dass im Rahmen der Dissertation verschiedenen Typen von KMU entwickelt werden, die den späteren Betrachtungen als Grundlage dienen. Der Aufbau sowie die Hauptthesen der Dissertation werden im Folgenden zusammenfassend skizziert: Den Hauptbetrachtungen der Dissertation vorangestellt, werden in Kapitel 2 die Grundzüge der betriebswirtschaftlichen interne Unternehmensplanung dargestellt. Die dargestellte Konzeption einer betriebswirtschaftlichen Unternehmensplanung dient als Basis der späteren Ausführungen. In Kapitel 3 werden verschiedene Typen von KMU vor dem Hintergrund der für diese Unternehmen charakteristischen Merkmale entwickelt. Unterschieden wird zwischen typischen KMU (erfüllen die qualitativen und quantitativen Merkmale für KMU) und atypischen KMU (erfüllen lediglich die quantitativen Merkmale). Unter Zuhilfenahme einer Studie von Wolter/ Hauser wird eine zahlenmäßige Einteilung der einzelnen KMU-Typen, aufgegliedert in verschiedene Rechtsformen vorgenommen, so dass die Bedeutung der KMU-Typen innerhalb der jeweiligen Rechtsformen ermittelt werden kann. Anschließend wird die Durchführung der Unternehmensplanung bei KMU unter Berücksichtigung der bei diesen vorherrschenden charakteristischen Strukturen erörtert. Kapitel 4 untersucht die Auswirkungen der aktuellen Gesetzgebung zur Unternehmensführung auf die Unternehmensplanung bei KMU. Im Fokus der Betrachtung stehen dabei die folgenden Vorschriften: - Die Fortbestehensprognose gem. § 252 Abs. 1 Nr. 2 HGB mit einem Exkurs zur Fortbestehensprognose im Rahmen der InsO; - die Sorgfaltspflicht und die „Business Judgment Rule“ gem. § 93 Abs. 1 Satz 1 und 2 AktG; - das Überwachungssystem gem. § 91 Abs. 2 AktG; - die Berichterstattungspflichten des Vorstands an den Aufsichtsrat gem. § 90 Abs. 1 Nr. 1 AktG; - die zukunftsorientierte Lageberichterstattung gem. § 289 Abs. 1 Satz 4 HGB; die Untersuchungen werden erweitert um eine empirische Analyse zur zukunftsorientierten Lageberichterstattung im Segment der KMU. In Kapitel 5 wird die Bedeutung der Unternehmensplanung bei KMU für die Abschlussprüfung untersucht. Die Ausführungen kommen zu dem Ergebnis, dass sich zwischen den aktuellen für alle Unternehmen gültigen Prüfungsstandards des IDW auf der einen Seite und dem ebenfalls durch das IDW herausgegebenen Prüfungshinweis zu den Besonderheiten der Abschlussprüfung von KMU (IDW PH 9.100.1) auf der anderen Seite, erhebliche Abweichungen ergeben. Kapitel 6 erläutert und diskutiert die Auswirkungen und Anforderungen der im Jahr 2006 beschlossenen Basler Eigenkapitalanforderungen auf bzw. an die Unternehmensplanung bei KMU. Im Ergebnis wird festgestellt, dass sich eine Planungspflicht lediglich aus der Vorschrift des § 90 Abs. Nr. 1 AktG für KMU in der Rechtsform der AG und KGaA ergibt. Für die Erfüllung anderer Normen ist die Unternehmensplanung teilweise zwingende Voraussetzung. Diese Problematik sollte jedoch nicht durch die Verankerung einer Unternehmenspflicht für alle Unternehmen behoben werden, sondern vielmehr sollten diese Normen bzgl. ihrer Auswirkungen auf KMU überdacht werden. Eine gesetzliche Verankerung einer Planungspflicht aus Sicht der Wirtschaftsprüfung wird ebenfalls abgelehnt. Für den Bereich der Unternehmensfinanzierung bedarf es keiner gesetzlichen Regelungen, da sämtliche Anforderungen privatvertraglich fixiert werden können.
Eine Vielzahl von Ökonomen untersucht mit Hilfe verschiedener theoretischer Modelle, inwiefern Steuern Einfluss auf wirtschaftliche Entscheidungen haben. Eine grundlegende Annahme in diesen Modellen ist dabei die Abwesenheit von Fehlwahrnehmungen. Ziel dieser Arbeit ist es, systematische Fehlwahrnehmungen hinsichtlich steuerlicher Einflussgrößen aufzuspüren, die zu einer Verletzung dieser Annahme führen. Nach einem ausführlichen Literaturüberblick, in dem insbesondere experimentelle Beiträge betrachtet werden, die den Einfluss von Steuern auf ökonomische Entscheidungen untersuchen, wird im ersten Teil dieser Arbeit mit Hilfe von zwei Laborexperimenten analysiert, ob Individuen Investitionsentscheidungen unter der Berücksichtigung von Steuern treffen. Und wenn ja, ob die steuerlichen Einflussgrößen so wahrgenommen werden, wie sie tatsächlich wirken. Der zweite Teil dieser Arbeit beschäftigt sich mit der Fragestellung, ob und in welchem Ausmaß Steuern bei Arbeitsangebotsentscheidungen berücksichtigt werden. Hierzu werden ebenfalls zwei Laborexperimente durchgeführt, in denen jeweils der Einfluss einer Einkommensbesteuerung und deren Wahrnehmung auf die Arbeit-Freizeit-Entscheidungen untersucht wird. Im ersten Experiment des ersten Teils bestand die Aufgabe der Teilnehmer darin, in mehreren Entscheidungssituationen binäre Investitionsentscheidungen zu treffen, wobei in verschiedenen Treatments die steuerliche Behandlung von Gewinnen und Verlusten variiert wurde. Im Ergebnis zeigt sich zwar, dass die Individuen bei ihren Investitionsentscheidungen Steuern berücksichtigen, doch unterliegen sie einer Art von Illusion hinsichtlich der Wirkungsweise des steuerlichen Verlustausgleichs. So zeigt sich im Fall ohne Einkommensbesteuerung und im Fall einer proportionalen Einkommensteuer ohne die Möglichkeit eines Verlustausgleichs, dass die Anzahl der riskanten Investitionsentscheidungen nicht signifikant von der Anzahl risikoarmer Entscheidungen verschieden ist. Allerdings kommt es in den Fällen einer Einkommensbesteuerung mit unvollständigem Verlustausgleich zu einem starken Anstieg riskanter Entscheidungen, was letztlich auf eine Überschätzung der Wirkung des Verlustausgleichs zurückzuführen ist. Dies bedeutet, dass die Teilnehmer die Wirkung des steuerlichen Verlustausgleichs positiver wahrnehmen, als dies tatsächlich der Fall ist. Beim zweiten Laborexperiment sollten die Teilnehmer eine Entscheidung über die genaue Höhe einer Investition treffen. In verschiedenen Treatments wurden dabei der Einfluss einer Besteuerung mit vollständigem Verlustausgleich und die Art der Steuerpräsentation auf das Investitionsverhalten untersucht. Im Ergebnis wurde beobachtet, dass die Teilnehmer eine höhere Bereitschaft zur Risikoübernahme besitzen, wenn eine Besteuerung erfolgt, was erneut auf eine Fehlwahrnehmung der Besteuerung zurückgeführt werden kann. Unter Berücksichtigung der Erkenntnisse des ersten Experiments kann geschlussfolgert werden, dass der Anstieg der Risikobereitschaft durch eine Überbewertung des steuerlichen Verlustausgleichs verursacht wird. Ein weiteres Ergebnis der zweiten Studie ist, dass das Tax Framing die Wahrnehmung der Steuer beeinflusst. Im Unterschied zu einer aggregierten Besteuerung führt eine gleichwertige disaggregierte Besteuerung dazu, dass die Fehlwahrnehmung der Besteuerung im Zeitablauf nahezu verschwindet. Gegenstand der Untersuchung im zweiten Teil der Arbeit war die Fragestellung, ob Individuen bei ihren Arbeitsangebotsentscheidungen Steuern so berücksichtigen wie diese theoretisch wirken oder ob Fehlwahrnehmungen existieren. Hierzu wurden zwei Laborexperimente mit berufstätigen Personen durchgeführt, in denen die Arbeitsaufgabe jeweils darin bestand, Briefpapier zu falten und zu kuvertieren. Da während des Experiments keine zeitliche Restriktion bestand, entschied ein Teilnehmer nicht nur darüber wie viele Briefe er bearbeiten möchte, sondern auch wie lange er dieser Tätigkeit nachgehen will. Demzufolge stellt diese Arbeitsaufgabe eine reale Arbeitsanforderung dar, verursacht ein reales Arbeitsleid und jeder Teilnehmer muss eine reale Arbeit-Freizeit-Entscheidung treffen. Als zentrales Ergebnis beider Laborexperimente lässt sich Folgendes zusammenfassen: Neben dem Arbeitsleid und dem Einkommen scheint die Steuerwahrnehmung einen entscheidenden Einfluss auf die Arbeit-Freizeit-Entscheidung zu haben. Bei einer geringen Steuerwahrnehmung wird die Steuer nicht in dem Ausmaß berücksichtigt wie sie tatsächlich wirkt, was letztendlich zu verzerrten Arbeitsangebotsentscheidungen führt. Die Steuerwahrnehmung ist dabei zum einen abhängig von der Darstellung des Steuertarifs und zum anderen von der Steuererfahrung eines Individuums. Beide Einflussgrößen haben einen positiven Einfluss auf die individuelle Steuerwahrnehmung, das heißt, je deutlicher und transparenter die Besteuerung dargestellt wird bzw. je größer die individuelle Erfahrung im Umgang mit Steuern ist, desto höher ist die Steuerwahrnehmung.
Bereits in der ersten Hälfte des letzten Jahrhunderts wurden rechnungswesenorientierte Unternehmensbewertungsverfahren entwickelt. Insbesondere ist in diesem Zusammenhang der auf den Theorien von Preinreich (1937) und Lücke (1955) zurückzuführende Residualgewinnansatz zu nennen, bei dem sich der Unternehmenswert aus dem Buchwert des Eigenkapitals und dem Barwert der zukünftig erwarteten Residualgewinne zusammensetzt. Darauf aufbauend entwickelte Ohlson im Jahre 1995 ein analytisches Bewertungsmodell, welches das zukünftige Verhalten der periodischen Residualgewinne anhand eines linear-autoregressiven Informationsverarbeitungsprozesses beschreibt. Durch die Einbindung dieses sog. linearen Informationsmodells (LIM) ist es möglich, zukünftige Residualgewinne praktisch unabhängig von unsicheren Prognosen ausschließlich mit Hilfe vergleichsweiser einfacher ökonometrischer Verfahren zu bestimmen. Neben den Residualgewinn enthält das Ohlson Modell noch eine weitere Bewertungsvariable, die sog. "anderen Informationen", welche zwar wertrelevante Informationen außerhalb der Rechnungslegung berücksichtigen soll, allerdings nicht näher von Ohlson spezifiziert wird. Eine Vielzahl von empirischen Untersuchungen zum Ohlson Modell und zu Weiterentwicklungen des Ohlson Modells verdeutlicht jedoch in der Folge, dass deren Implementierung in der Praxis regelmäßig zu erheblichen Problemen führt. Zum einen liegt den Verfahren eine signifikante Unterbewertungsproblematik zu Grunde und zum anderen wird durch die regelmäßige Einbindung von Analystenvorhersagen zur rechnerischen Bestimmung der „anderen Informationen“ nach Auffassung des Verfassers das Objektivitätspostulat LIM-gestützter Bewertungsmodelle verletzt. Aufbauend auf einer eingehenden Analyse bisheriger Untersuchungen zu o.g. Modellen werden daher zunächst allgemeine Kriterien für eine optimierte Modellierung der Struktur der linearen Informationsmodelle entwickelt und anschließend in die Entwicklung eines eigenen Unternehmensbewertungsmodells transformiert. Um zudem sämtliche subjektive Einflussnahme auf die Gestaltung und Höhe der "anderen Informationen" zu eliminieren, werden die "anderen Informationen" nicht mehr auf Basis wie auch immer ermittelter subjektiver Analystenvorhersagen bestimmt, sondern durch einen zielgerichteten Einsatz von fünf makroökonomischen und fünf unternehmensspezifischen Kennzahlen der Fundamentalanalyse substituiert. In der empirischen Studie werden insgesamt 118 deutsche Unternehmen des CDAX aus insgesamt elf Branchen in einem Zeitraum von 1980 bis 2003 mit dem Median als primär verwendete Messgröße berücksichtigt. Über empirische Regressionsuntersuchungen werden dann entsprechend branchenspezifisch strukturierte Bewertungsmodelle entworfen. Mit der retrograden Ermittlung der "anderen Informationen" wird ausgehend vom empirisch ermittelten Unternehmensmarktwert gemäß den gesetzten Modellprämissen rechnerisch auf den nicht durch Rechnungslegung erklärten Wertbeitrag der "anderen Informationen" geschlossen. Diese rekursiv ermittelten Werte dienen somit als Maßstab für die "richtige" Wertbeimessung der "anderen Informationen" und damit als Grundlage für die rechnerische Bestimmung der branchenspezifischen Bestimmungsmodelle für die „anderen Informationen“. Die mit Hilfe der branchenspezifischen Kennzahlenmodelle generierten Unternehmenswerte liegen dabei sowohl im Durchschnitt als auch im Median näher am tatsächlichen Unternehmenswert als bei Ausblendung der "anderen Informationen" und bei Verwendung von Analystenvorhersagen. Damit liefert der Einsatz der in dieser Untersuchung neu eingeführten, branchenspezifischen Modelle gegenüber den traditionellen Modellen überlegene Resultate. Zudem wird festgestellt, dass die auf Basis der Kennzahlenmodelle ermittelten Unternehmenswerte weniger schwanken als bei Verwendung von Analystenvorhersagen. Trotz einer mit dieser Arbeit erreichten verbesserten Abbildungfähigkeit der "anderen Informationen" erachtet der Verfasser dieser Arbeit das Konzept der LIM-gestützten Unternehmensbewertung aufgrund der festgestellten Mängel im Zuge der praktischen Umsetzung den heute gebräuchlichen Bewertungsverfahren wie z.B. dem DCF oder dem Ertragswertverfahren als noch immer deutlich unterlegen.
Bei der Durchführung öffentlicher Bauprojekte ist eine intensive Zusammenarbeit zwi¬schen vielen Beteiligten erforderlich: die in der Bauverwaltung des Bauherren angesiedelte Projektleitung, Bedarfsträger (z. B. Universität oder Be¬hörde), Gre-mien des Bauherrn (Kommunal-, Kreis- oder Bundesparlament), dessen Haus-haltsabteilung, Objekt- und Fachplaner (freiberuflich oder als Mitarbeiter der Bauverwaltung), Gutachter, Bauunternehmen, Lieferanten und Dienstleister, Raumordnungs-, Planfeststellungs- und Genehmigungsbehörden. Der Planungs-, Genehmigungs- und Realisationsprozess erstreckt sich meist über mehrere Jahre. Währenddessen ist ein intensiver Informations- und Kommunikationsaustausch zwischen den Beteiligten erforderlich. Baupläne, Leistungsverzeichnisse, Ange-bote, Verträge, Protokolle, Bauzeitenpläne und Rechnungen werden immer noch per E-Mail oder in Papierform ausgetauscht. Wegen der meist größeren Zahl zeit-gleich betreuter Bauprojekte führt dies bei fast allen Beteiligten regelmäßig zu einer herausfordernd großen Korrespondenz und einem als mangelhaft zu be-zeichnenden Überblick über die aktuellen Projektdaten.
Wegen der hochgradigen Interdependenz der Teilprozesse über alle Phasen hin-weg sind aber eine möglichst reibungslose Koordination und die ständige Verfüg-barkeit aktueller Daten bei allen Beteiligten unabdingbare Voraussetzungen, um eine Baumaßnahme zügig und im vorgesehenen Kostenrahmen auszuführen. Während Datenaustausch und Koordination bei großen gewerblichen Bauprojek-ten bereits mit Erfolg durch virtuelle Projekträume unterstützt werden, sind die öffentlichen Bauverwaltungen hier noch zögerlich. Die Erstellung eines einheitli-chen und prozessübergreifenden Datenmodells speziell für die Abläufe öffentli-cher Auftraggeber als Ziel der Arbeit könnte helfen, die Vorteile eines zentralen, für alle Beteiligten zugänglichen Datenbestandes auch für die Bauverwaltungen und ihre Projekte nutzbar zu machen und vormals getrennt gehaltene Datenbe-stände zu einem einzigen zusammenzuführen (Datenintegration). Die gründliche Analyse der Abläufe und Informationsflüsse zwischen den Beteiligten über alle Phasen eines öffentlichen Bauprojekts hinweg sowie eine Bestandsaufnahme der gegenwärtig am Markt verfügbaren virtuellen Projekträume im ersten Teil der Arbeit bilden die Grundlage für die Modellierung der Daten sowie ihrer Zusam-menhänge im zweiten Teil.
Mit der Gesamtdarstellung der Beteiligten, ihrer Rollen und Aufgaben, der Do-kumente und der zugehörigen Metadaten über alle Phasen und Baufachbereiche hinweg wurde ein neuer Forschungsbeitrag erarbeitet. Die unterschiedlichen Be-zeichnungen z. B. in Hoch- und Tiefbauprojekten wurden im Interesse der Ver-ständlichkeit erhalten, aber in einer gemeinsamen Struktur zusammengeführt. Diese Modellierung ist die Voraussetzung für eine verbesserte informationstech-nische Unterstützung öffentlicher Bauprojekte und zugleich die ureigenste Aufga-be des Wirtschaftsinformatikers als Mittler zwischen Anwendern und Entwick-lern.
Das in dieser Arbeit entwickelte Datenmodell erlaubt wegen seiner verwaltungs- und baufachbereichsübergreifenden Konzeption im Sinne eines Referenzmodells den Einsatz als Basis einer Standardanwendungssoftware, die mit geringem An-passungsaufwand bei einer großen Zahl an Kunden im öffentlichen Bereich einge-setzt werden kann. Beispiele sind Projektraumanwendungen sowie Workflow-Management-Systeme. Es ist zugleich ein Referenzvorschlag an die Entwickler bestehender Anwendungen zur Definition von Schnittstellen und schließlich zur Umsetzung applikationsübergreifender Integrationsansätze.
In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt.
Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:
Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).
Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.
Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.
Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.
Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
Die Grundlage für eine hohe Bestandsgenauigkeit ist die unternehmensübergreifende Identifikation und Nachverfolgung von Waren, die mit automatisierten Identifizierungstechnologien (Auto-ID-Technologien) ermöglicht wird. Die Einführung der Auto-ID-Technologie des Barcodes hat die Industrie vor mehr als 30 Jahren fundamental verändert. Darauf aufbauend versprechen neuere Auto-ID-Technologien wie die „Radio Frequency Identification“ (RFID) Probleme wie die Nichtverfügbarkeit von Waren, eine intransparente Diebstahlrate oder Warenschwund durch eine bessere Nachverfolgung aller Waren und eine höhere Bestandsgenauigkeit zu lösen. Die Vorteile von RFID gegenüber dem Barcode sind unter anderem die höhere Datendichte, die größere Robustheit gegenüber Umwelteinflüssen sowie die schnellere und mehrfache Erfassung von Gegenständen.
Viele Unternehmen sehen sich jedoch vor allem nach der Implementierung einer RFID-Infrastruktur mit einer Vielzahl von Problemen konfrontiert. Aspekte wie wenig Unterstützung durch das Management, interner Widerstand durch Mitarbeiter, Probleme bei der Integration von Hardware und Software und vor allem eine mangelnde Datenqualität verhindern, dass die prognostizierten positiven Effekte erreicht werden können. Derartige Phänomene werden passend unter dem Begriff „Credibility Gap“ zusammengefasst. Dieser beschreibt die Problematik, dass es insgesamt an Verfahren, Methoden und gezielter Unterstützung mangelt, um die in der Literatur umfangreich versprochenen positiven Effekte tatsächlich und nachhaltig zu realisieren. Passend werden die erwarteten Einsparungen und Verbesserungen durch den RFID-Einsatz oftmals als Expertenschätzungen und sogar als größtenteils rein spekulativ bezeichnet.
Das Ziel dieser Dissertation ist es, Praktikern das Erreichen der positiven RFID-Effekte zu ermöglichen. Hierzu wurden vielfältige Untersuchungen auf Basis einer langfristigen Kooperation mit einem der weltweit größten Bekleidungshändler durchgeführt, indem ein RFID-Implementierungsprojekt begleitet und intensiv mitgestaltet wurde. Zunächst wird bestätigt, dass die prognostizierten Vorteile der RFID-Technologie tatsächlich nicht allein durch die Implementierung der benötigten Infrastruktur erreicht werden können. Als Grund werden hohe Bestandsungenauigkeiten der verwendeten Bestandssysteme identifiziert, die sowohl auf technische als auch auf menschlich verursachte Fehler zurückzuführen sind. Als Folge ist die RFID-Datenqualität nicht verlässlich.
Die Dissertation setzt an den Problemen des Credibility Gap an und diagnostiziert bei einer bereits implementierten RFID-Infrastruktur zunächst die Fehler und Ursachen der mangelnden Datenqualität. Darauf aufbauend werden Maßnahmen und Handlungsanweisungen vorgestellt, mit deren Hilfe die Fehler behoben und die Infrastruktur schließlich verbessert und überwacht werden kann.
Um insgesamt die Anforderungen der Praxis und der Wissenschaft erfolgreich miteinander zu verknüpfen, wird als Forschungsmethode eine neuartige Kombination zweier Ausprägungen der Aktionsforschung verwendet. Als Ergebnis werden einerseits für Praktiker hilfreiche Frameworks und Tests zur Fehlerbehebung, Überwachungskennzahlen sowie Regeln des effektiven RFID-Systemmanagements beschrieben. Alle durchgeführten und in der Dissertation vorgestellten Maßnahmen führen nachweislich zu einer erhöhten Datenqualität eines implementierten RFID-Systems und stellen Möglichkeiten zur kennzahlenbasierten Visualisierung der RFID-Prozessperformance bereit. Andererseits wird ein Modell für die Verwendung der Aktionsforschung vorgeschlagen sowie eine umfangreiche Validierung der Methodik durchgeführt. Auf diese Weise wird neben der Praxisrelevanz der Ergebnisse auch die Präzision der Forschungsergebnisse sichergestellt.
Sämtliche Ergebnisse dienen als Basis für vielfältige Forschungsansätze. So ermöglichen eine höhere Verlässlichkeit und Datenqualität der RFID-Informationen aussagekräftigere Analysen. Weiter sind durch fehlerkorrigierte Prozessdaten neuartige Methoden des RFID-Data-Mining denkbar. Dieser Forschungsbereich ist nach wie vor größtenteils unberührt und bietet enormes Potential, weitere durch RFID in Aussicht gestellte Vorteile zu realisieren.
Das vorliegende Working Paper untersucht die Performancewirkung eines multi-dimensionalen Strategie-Alignments in der Beschaffung. Hierfür wird zunächst ein Systematischer Literatur Review durchgeführt und der Wissenstand im Forschungsfeld erhoben. Die systematische Klassifikation, Analyse, Bewertung und Synthese der identifizierten 29 empirischen Studien erfolgt dabei auf der Grundlage eines konzeptionellen Frameworks und zugehöriger Inhaltskategorien sowie weiterer methodischer Vergleichsgrößen. Die Ergebnisse dieser Untersuchung zeigen nachdrücklich auf, dass eine Abstimmung, Harmonisierung und Verbindung von Beschaffungsstrategien (1) mit den übergeordneten Unternehmenszielen und -strategien, (2) anderen funktionalen Teilbereichen, sowie (3) der Lieferantenbasis (unter Berücksichtigung der kontextbezogenen Anforderungen und Gegebenheiten) zu signifikant positiven Performance-Effekten beiträgt. Insofern sollten die Empfehlungen dieser Untersuchung für ein holistisches Strategie-Alignment im Einkauf herangezogen werden. Neben der Ableitung von Implikationen für die Unternehmenspraxis wird eine Forschungsagenda für interessierte Wissenschaftler erarbeitet, indem inhaltliche Wissenslücken und methodische Verbesserungspotenziale auf Basis des Bezugsrahmens und einschlägiger Referenztexte definiert sowie zukünftige Forschungsbedarfe aufgezeigt werden. Darauf aufbauend wird die zentrale (bis dato unbeantwortete) Forschungsfrage eines integrativen Strategie-Alignment-Index durch die Operationalisierung der zugehörigen Konstrukte sowie der Formulierung entsprechender Hypothesen als Grundlage für die Durchführung einer empirischen Studie adressiert.
Diese Arbeit untersucht Literatur Reviews (LRs) im Forschungsfeld des Supply Chain Managements (SCM). Hierfür werden zunächst die methodischen und terminologischen Grundlagen der Analyse erarbeitet sowie taxonomische und thematische Klassifikati-onsschemata vergleichend gegenübergestellt. Anschließend werden der LR-Prozess dieser Untersuchung und ausgewählte Evaluationsdimensionen definiert. Auf diesen grundlegenden Vorarbeiten aufbauend werden LRs des SCM identifiziert, klassifiziert und umfassend bewertet. Die Forschungsergebnisse zeigen, dass es narrativen LRs teil-weise an methodischer Genauigkeit mangelt und infolgedessen die Technik des syste-matischen LR zunehmend an Bedeutung gewinnt. Darüber hinaus dient diese Arbeit als Bewertungsraster zur Evaluation der methodischen Güte von LRs, als Leitlinie zur Er-stellung von systematischen LRs und als State-of-the-Art der Sekundärforschung im SCM.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Implementierung von CSR im Einkauf unter Berücksichtigung situativer Führung von Agents und Stewards
(2016)
Zielsetzung und Ablauf der Untersuchung
Hintergrund des Untersuchungsvorhabens ist die Problematik der oftmals ungenügenden Umsetzung von CSR im Einkauf durch Unternehmen im Hinblick auf internationale Anforderungen. Leider gibt es viele Beispiele von Menschen- oder Arbeitnehmerrechtsverletzungen und/oder Umweltvergehen bei Lieferanten in Emerging Markets, wie zum Beispiel der Brand eines Textilunternehmens in Pakistan, bei dem 2012 über 250 Mitarbeiter starben, da die Notausgänge verschlossen und Fenster vergittert waren. Nur ein Jahr später kamen bei dem Einsturz des Produktionsgebäudes eines Textilunternehmens in Bangladesch über 1.000 Mitarbeiter ums Leben. Beide Unternehmen dienten als verlängerte Werkbank für westliche Textilmarken. Diese Beispiele deuten darauf hin, dass internationale Einkaufsorganisationen ihrer Verantwortung in Bezug auf CSR-Richtlinien, wie zum Beispiel den UN Global Compact, oftmals nicht gerecht werden.
Ein im Rahmen dieser Arbeit durchgeführter Unternehmensbenchmark hat dennoch gezeigt, dass es Unternehmen gibt, die CSR im Einkauf ernst nehmen und dementsprechend die erforderlichen Strategien und Ressourcen vorhalten. Auf solche Unternehmen bezieht sich diese Arbeit und untersucht, warum sich gerade diese Unternehmen oftmals dennoch schwertun, CSR im Einkauf gemäß den eigenen Ansprüchen umzusetzen. Die Ursache der Differenz zwischen Zielsetzung und Umsetzung von CSR im Einkauf und hierbei speziell das intrinsische Motivationspotenzial der Einkaufsmitarbeiter in Abhängigkeit verschiedener Führungsstile stellt daher den theoriegeleiteten Untersuchungsgegenstand dieser Arbeit dar.
Die empirische Hauptuntersuchung erfolgte im Rahmen von CSR-Pflichtschulungen für Einkäufer des im Anschluss an den Benchmark als Untersuchungsobjekt ausgewählten Unternehmens. 832 Einkaufsmitarbeiter nahmen erfolgreich an der Befragung mithilfe eines Onlinefragebogens teil.
Ergebnisse der Untersuchung
Zusammenfassend kann festgehalten werden, dass das untersuchte Unternehmen bezüglich CSR im Einkauf prinzipiell ein hohes intrinsisches Motivationspotenzial innerhalb der Mitarbeiterbasis hat. Die Daten haben weiterhin gezeigt, dass dieses Motivationspotential unter einem aktiven Führungsstil zu einer vergleichsweise hohen Leistung führt.
Herrscht hingegen bezüglich CSR im Einkauf Laissez-faire-Führung vor, bleibt das intrinsische Motivationspotenzial der Mitarbeiter weitestgehend ungenutzt beziehungsweise wird weiter reduziert. Daher wäre es fatal, falls eine Einkaufsleitung davon ausgeht, dass CSR im Einkauf von den Einkaufsmitarbeitern allein aufgrund von persönlichen Werten und durch eine soziale Unternehmenskultur umgesetzt wird. Ohne aktive persönliche Führung und insbesondere ohne das Erfüllen einer Vorbildfunktion durch die Einkaufsleitung, ist mit keiner hohen Umsetzung durch die Mitarbeiter zu rechnen.
Diese Erkenntnisse haben einen sehr zentralen Charakter, da sich andere Aspekte wie Zielkonflikte oder Mitarbeiterbefähigung im Vergleich zu Motivation und Führung als vergleichsweise weniger relevant für die Umsetzung von CSR im Einkauf erwiesen haben. Hier schließt sich ein weiteres wichtiges Fazit an: Sogenannte Materialkostenerhöhungen werden oftmals als maßgebliche Hinderungsgründe für die Umsetzung von CSR im Einkauf genannt, da sie einen Konflikt mit traditionellen Einkaufsratiozielen auslösen können. Als Untersuchungsergebnis haben aber diejenigen Mitarbeiter, die CSR im Einkauf aktiv umsetzen, keine Zielkonflikte wahrgenommen. Im Umkehrschluss kann vermutet werden, dass Zielkonflikte eher von solchen Mitarbeitern wahrgenommen oder befürchtet werden, welche sich bisher noch nicht eingehend mit der Umsetzung und den einhergehenden Konsequenzen befasst haben. Es besteht also die Gefahr, dass in Bezug auf die Umsetzung von CSR im Einkauf unerfahrene Mitarbeiter aufgrund von Vorurteilen bereits im Vorfeld resignieren und damit wertvolles Potential ungenutzt bleibt. Auch hier tragen die Führungsverantwortlichen die Verantwortung, Einkäufer zu Handlungen anzuleiten, damit diese Erfahrungen sammeln und dementsprechend besser urteilen können.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Die vorliegende Arbeit untersucht empirisch, inwieweit neoklassische Theorien wie die Erwartungsnutzentheorie, die individuellen Reaktionen auf die Einführung einer proportionalen Einkommensteuer und die Veränderung der steuerlichen Verlustausgleichsmöglichkeiten erklären. Darüber hinaus soll auch eine möglicherweise verzerrte Wahrnehmung der steuerlichen Regelungen aufgedeckt und in die Analyse des beobachteten Investitionsverhaltens einbezogen werden. Die Umsetzung erfolgt mittels eines kontrollierten Labor-Experimentes. Die gewählte Forschungsmethode erlaubt die Unterscheidung von Rationalen Steuereffekten, d.h. Effekte, die neoklassische Theorien erwarten lassen und steuerbedingten Perzeptionseffekten, d.h. Effekte, die auf steuerbedingte Wahrnehmungsverzerrungen zurückzuführen sind. Wird für den Perzeptionseffekt kontrolliert, kann sowohl die theoretisch ermittelte Wirkung einer proportionalen Einkommensteuer mit vollständigem als auch ohne steuerlichem Verlustausgleich auf riskante Investitionen empirisch bestätigt werden. Dagegen stehen die beobachteten Investitionsentscheidungen teilweise im Widerspruch zu den Ergebnissen der theoretischen Arbeiten, wenn auf eine Kontrolle für den Perzeptionseffekt verzichtet wird.
Hieran anknüpfend, werden im Rahmen eines zweiten Experimentes Ursachen steuerbedingter Wahrnehmungsverzerrungen und deren Wirkung auf die Bereitschaft, riskant zu investieren, näher beleuchtet. Für eine tiefgreifende Analyse des möglichen Perzeptionseffekts einer proportionalen Steuer mit vollständigem Verlustausgleich wird die bestehende verhaltenswissenschaftliche Steuerforschung erweitert und zwischen extrinsischen und intrinsischen Faktoren differenziert. Das durchgeführte Experiment verdeutlicht, dass die betrachtete proportionale Steuer das riskante Investitionsverhalten verzerrt. Jedoch ist die steuerbedingte Verzerrung, der Perzeptionseffekt, umso geringer, je niedriger das Niveau an kognitiver Belastung ist. Die abnehmende Verzerrung des Entscheidungsverhaltens scheint auf eine ebenfalls abnehmende Verwendung ungenauer Entscheidungs-Heuristiken zurückzuführen zu sein. Die dagegen unabhängig von dem Niveau an Steuer-Komplexität bzw. Steuer-Salienz beobachtete Zunahme der riskanten Investitionsbereitschaft nach Erhebung der proportionalen Steuer spiegelt sich in der steuerbedingten Veränderung der affektiven und kognitiven Wahrnehmung wider.
In den zwei experimentalökonomischen Analysen wird die Allokation gegebener Mittel auf riskante und sichere Anlagen betrachtet. Daneben werden aber sowohl Unternehmen als auch Privatpersonen mit sich ausschließenden Investitionsalternativen konfrontiert. Beide Fälle haben gemeinsam, dass im maßgeblichen Entscheidungskalkül die geltenden steuerlichen Regelungen grundsätzlich zu berücksichtigen sind. Jedoch postuliert die betriebswirtschaftliche Steuerforschung, dass bei einer Entscheidung zwischen sich ausschließenden Investitionsalternativen die Besteuerung vernachlässigt werden kann, wenn diese keine Wirkung entfaltet. Hieran anknüpfend, wird ein Konzept entscheidungsneutraler und gleichmäßiger Gewinnbesteuerung entwickelt, das auch bei unvollkommener Voraussicht praktikabel, rechtssicher und mit einer Gewinnermittlung durch nominalen Vermögensvergleich vereinbar sein soll. In Anlehnung an König (1997 a), lässt sich zeigen, dass ein Verfahren revolvierender Ertragswertkorrektur bei zusätzlicher Erfassung des Kapitalwertes diese Anforderungen erfüllt. Das rechnerisch komplexe Vorgehen kommt dabei – unter bestimmten Annahmen – im Ergebnis der Gewinnermittlung durch Vermögensvergleich nach geltendem Steuerrecht sehr nahe. Infolgedessen wird auch das theoretisch bislang ungelöste Problem des zeitlichen Bezugspunktes der Besteuerung vernachlässigbar.
Angesichts der demografischen Entwicklung setzt die Bundesregierung zur Schließung der drohenden Rentenlücke auch auf die betriebliche Altersversorgung (bAV). Dieses Gutachten entwickelt Empfehlungen an den Gesetzgeber zur Optimierung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen der bAV. Die Zielvorgabe lautet, die Verbreitung der bAV unter Gering- und Niedrigverdienern zu erhöhen und kleinen und mittleren Unternehmen als Arbeitgeber Anreize zu setzen, ihren Arbeitnehmern ein bAV-Angebot zu unterbreiten.
Das Gutachten schafft einen umfassenden Überblick über bestehende Hemmnisse für diese beiden Zielgruppen, an der bAV zu partizipieren.
Auf dieser Basis werden zehn Reformüberlegungen erarbeitet und auf ihre Wirkungen hin geprüft. Hieraus ergeben sich jeweils eine Handlungsempfehlung für die Arbeitgeber- und die Arbeitnehmerseite.
Außerdem werden Ansatzpunkte für eine Vereinfachung der steuer- und sozialversicherungsrechtlichen Regelungen aufgezeigt. Die Analyse der Hemmnisse und die Kernelemente der Empfehlungen wurden durch Interviews mit Experten und mit Angehörigen der Zielgruppen empirisch abgesichert.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.
The impact of sustainable supply chain management practices on performance metrics – A meta-analysis
(2017)
Die vorliegende Arbeit untersucht mittels einer Meta-Analyse den Zusammenhang zwischen nachhaltigkeitsorientierter Supply Chain-Aktivitäten und der Unternehmensperformance. Es sollen auf Grundlage einer breiten Datenbasis aus den Jahren 2000 bis 2013 fundierte und aussagekräftige Zusammenhänge zwischen ökologisch nachhaltigen Supply Chain Aktivitäten und deren Wirkung auf unterschiedliche Bereiche der Unternehmensperformance hergestellt werden
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.
Nicht börsennotierte Unternehmen stellen in den meisten Volkswirtschaften die Mehrzahl der Unternehmen, leisten einen erheblichen Beitrag zur Wirtschaftskraft der Länder und beschäftigen eine Vielzahl von Arbeitnehmern. Bisher ist jedoch nur in geringem Ausmaß darüber bekannt, welche Rolle die Institution „Abschlussprüfung“ bei diesen Unternehmen spielt. Der bisherige Befund der internationalen und nationalen Prüfungsforschung fokussiert sich überwiegend auf das relativ kleine Prüfungsmarktsegment der börsennotierten Unternehmen, vernachlässigt dabei aber den Markt der nicht börsennotierten Prüfungsmandate.
Die vorliegende Studie beschäftigt sich deswegen mit den Fragen, welche Bedeutung der Institution „Abschlussprüfung“ bei nicht börsennotierten Unternehmen zukommt und wie dieses Segment des Prüfungsmarktes charakterisiert werden kann.
Anhand der Untersuchung von Prüfungshonoraren und der Prüferwahlentscheidung werden Faktoren identifiziert, die das Angebot und die Nachfrage nach Prüfungsqualität bei großen, nicht börsennotierten Unternehmen beeinflussen. Besonders beleuchtet werden die Bedeutung von Agency-Konflikten im Hinblick auf den Prüfungsqualitätsbedarf bei nicht börsennotierten Unternehmen, die Rolle von mittelgroßen Prüfungsgesellschaften und das Angebot und die Erbringung von Nichtprüfungsleistungen.
Die multivariaten Analysen zeigen, dass sich vor allem Agency-Konflikte sowie Größen- und Komplexitätsfaktoren auf Angebot und Nachfrage nach Prüfungsqualität auswirken. Honorarprämien für große und mittelgroße Prüfungsgesellschaften sprechen für eine mehrstufige Qualitätsdifferenzierung innerhalb der Gruppe der Anbieter von Prüfungsleistungen. Auch die gleichzeitige Erbringung von Beratungsleistungen durch den Abschlussprüfer übt einen signifikanten Einfluss aus.
Diese Ergebnisse sprechen dafür, dass die Institution „Abschlussprüfung“ auch bei nicht börsennotierten Unternehmen eine wichtige Rolle spielt. Zudem zeigt die Studie auch, dass sich das Prüfungsmarktsegment für diese Mandate in einigen Punkten wesentlich vom börsennotierten Marktsegment unterscheidet.
Additive Fertigung – oftmals plakativ „3D-Druck“ genannt – bezeichnet eine Fertigungstechnologie, die die Herstellung physischer Gegenstände auf Basis digitaler, dreidimensionaler Modelle ermöglicht. Das grundlegende Funktionsprinzip und die Gemeinsamkeit aller additiven bzw. generativen Fertigungsverfahren ist die schichtweise Erzeugung des Objekts. Zu den wesentlichen Vorteilen der Technologie gehört die Designfreiheit, die die Integration komplexer Geometrien erlaubt.
Aufgrund der zunehmenden Verfügbarkeit kostengünstiger Geräte für den Heimgebrauch und der wachsenden Marktpräsenz von Druckdienstleistern steht die Technologie erstmals Endkunden in einer Art und Weise zur Verfügung wie es vormals, aufgrund hoher Kosten, lediglich großen Konzernen vorbehalten war. Infolgedessen ist die additive Fertigung vermehrt in den Fokus der breiten Öffentlichkeit geraten. Jedoch haben sich Wissenschaft und Forschung bisher vor allem mit Verfahrens- und Materialfragen befasst. Insbesondere Fragestellungen zu wirtschaftlichen und gesellschaftlichen Auswirkungen haben hingegen kaum Beachtung gefunden. Aus diesem Grund untersucht die vorliegende Dissertation die vielfältigen Implikationen und Auswirkungen der Technologie.
Zunächst werden Grundlagen der Fertigungstechnologie erläutert, die für das Verständnis der Arbeit eine zentrale Rolle spielen. Neben dem elementaren Funktionsprinzip der Technologie werden relevante Begrifflichkeiten aus dem Kontext der additiven Fertigung vorgestellt und zueinander in Beziehung gesetzt.
Im weiteren Verlauf werden dann Entwicklung und Akteure der Wertschöpfungskette der additiven Fertigung skizziert. Anschließend werden diverse Geschäftsmodelle im Kontext der additiven Fertigung systematisch visualisiert und erläutert. Ein weiterer wichtiger Aspekt sind die zu erwartenden wirtschaftlichen Potentiale, die sich aus einer Reihe technischer Charakteristika ableiten lassen. Festgehalten werden kann, dass der Gestaltungsspielraum von Fertigungssystemen hinsichtlich Komplexität, Effizienzsteigerung und Variantenvielfalt erweitert wird. Die gewonnenen Erkenntnisse werden außerdem genutzt, um zwei Vertreter der Branche exemplarisch mithilfe von Fallstudien zu analysieren.
Eines der untersuchten Fallbeispiele ist die populäre Online-Plattform und -Community Thingiverse, die das Veröffentlichen, Teilen und Remixen einer Vielzahl von druckbaren digitalen 3D-Modellen ermöglicht. Das Remixen, ursprünglich bekannt aus der Musikwelt, wird im Zuge des Aufkommens offener Online-Plattformen heute beim Entwurf beliebiger physischer Dinge eingesetzt. Trotz der unverkennbaren Bedeutung sowohl für die Quantität als auch für die Qualität der Innovationen auf diesen Plattformen, ist über den Prozess des Remixens und die Faktoren, die diese beeinflussen, wenig bekannt. Aus diesem Grund werden die Remix-Aktivitäten der Plattform explorativ analysiert. Auf Grundlage der Ergebnisse der Untersuchung werden fünf Thesen sowie praxisbezogene Empfehlungen bzw. Implikationen formuliert. Im Vordergrund der Analyse stehen die Rolle von Remixen in Design-Communities, verschiedene Muster im Prozess des Remixens, Funktionalitäten der Plattform, die das Remixen fördern und das Profil der remixenden Nutzerschaft.
Aufgrund enttäuschter Erwartungen an den 3D-Druck im Heimgebrauch wurde dieser demokratischen Form der Produktion kaum Beachtung geschenkt. Richtet man den Fokus jedoch nicht auf die Technik, sondern die Hobbyisten selbst, lassen sich neue Einblicke in die zugrunde liegenden Innovationsprozesse gewinnen. Die Ergebnisse einer qualitativen Studie mit über 75 Designern zeigen unter anderem, dass Designer das Konzept des Remixens bereits verinnerlicht haben und dieses über die Plattform hinaus in verschiedenen Kontexten einsetzen. Ein weiterer Beitrag, der die bisherige Theorie zu Innovationsprozessen erweitert, ist die Identifikation und Beschreibung von sechs unterschiedlichen Remix-Prozessen, die sich anhand der Merkmale Fähigkeiten, Auslöser und Motivation unterscheiden lassen.
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
Dieser Beitrag konzentriert sich auf die Entwicklung von Technologieclustern und basiert auf zwei Forschungsfragen: Was sind die Voraussetzungen für die Entwicklung von Technologieclustern gemäß der Clusterforschung? Und erfüllt die Region Mainfranken die Voraussetzungen für eine Technologieclusterbildung? Zu diesem Zweck wird eine qualitative Studie unter Bezugnahme auf verschiedene theoretische Konzepte der Clusterbildung durchgeführt. Aus diesem Grund können die folgenden Determinanten der Clusterentwicklung abgeleitet werden: die Verkehrsinfrastruktur- und Infrastrukturkomponente, die Clusterumfeldkomponente, die Universitätskomponente, die Staatskomponente und die Branchenkomponente. Die Analyse der Parameterwerte der einzelnen Clusterkomponenten zeigt, dass die Kernanforderungen der Technologieclusterentwicklung in der Region Mainfranken erfüllt sind. Dennoch ist es notwendig, die Infrastruktur, die kommerzielle und industrielle Verfügbarkeit von Land und die Verfügbarkeit von Kapital zu verbessern, um ein erfolgreiches Technologiecluster zu bilden. Im Rahmen der vorliegenden Arbeit konnte darüber hinaus das Potenzial der Technologieclusterentwicklung im Bereich der künstlichen Intelligenz analysiert werden.
Die verfasste Arbeit beschäftigt sich mit der Handelsstrategie Carry Trades. Grundlage dieser Strategie ist das Ausnutzen von Zinsunterschieden, welche zwischen zwei Währungsräumen vorherrschen, und einer Wechselkursanpassung, die diese Unterschiede nicht komplett kompensiert. Investiert ein Anleger beispielsweise in eine ausländische Währung mit höherem Zinsniveau, so müsste sich der Wechselkurs gemäß der Zinsparitätentheorie in der Folge so anpassen, dass der höhere Ertrag durch die Zinsen beim Rücktausch der Währung vollständig egalisiert wird. Ziel dieser Arbeit war eine empirische Untersuchung für die Währungen der G10 auf wöchentlicher Handelsbasis sowie die Konstruktion und Berücksichtigung von ex ante Sharpe-Ratios als Handelsindikator.
Die vorliegende Studie liefert in drei gleichrangigen Teilen empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene.
In den ersten beiden Teilen wird die Realsteuerpolitik deutscher Kommunen quantitativ datenempirisch und qualitativ in Form einer Expertenbefragung untersucht. Hierbei wird insbesondere der Frage nachgegangen, welche Determinanten das gemeindliche Hebesatzniveau bei der Gewerbesteuer und den Grundsteuern A und B bestimmen.
Der dritte Teil analysiert die Beitragseinnahmen der Industrie- und Handelskammern. Der IHK-Beitrag ist deren zentrale Einnahmeposition und knüpft ebenfalls an der gewerbesteuerlichen Bemessungsgrundlage an. Die Abhängigkeit von einer zum Teil volatilen Bemessungsgrundlage stellt die Kammern bei ihrer Budgetplanung vor große Herausforderungen. Zur Steigerung der Planungsgenauigkeit wurde ein Prognosemodell entwickelt, das einen präziseren Rückschluss auf künftige Beitragseinnahmen zulässt.
In our globalized world, companies operate on an international market. To concentrate on their main competencies and be more competitive, they integrate into supply chain networks. However, these potentials also bear many risks. The emergence of an international market also creates pressure from competitors, forcing companies to collaborate with new and unknown companies in dynamic supply chain networks. In many cases, this can cause a lack of trust as the application of illegal practices and the breaking of agreements through complex and nontransparent supply chain networks pose a threat.
Blockchain technology provides a transparent, decentralized, and distributed means of chaining data storage and thus enables trust in its tamper-proof storage, even if there is no trust in the cooperation partners. The use of the blockchain also provides the opportunity to digitize, automate, and monitor processes within supply chain networks in real time.
The research project "Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken" (PIMKoWe) addresses this issue. The aim of this report is to define requirements for such a collaboration platform. We define requirements based on a literature review and expert interviews, which allow for an objective consideration of scientific and practical aspects. An additional survey validates and further classifies these requirements as “essential”, “optional”, or “irrelevant”. In total, we have derived a collection of 45 requirements from different dimensions for the collaboration platform.
Employing these requirements, we illustrate a conceptual architecture of the platform as well as introduce a realistic application scenario. The presentation of the platform concept and the application scenario can provide the foundation for implementing and introducing a blockchain-based collaboration platform into existing supply chain networks in context of the research project PIMKoWe.
De exemplis deterrentibus
(2019)
Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung.
Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis.