Refine
Has Fulltext
- yes (112)
Is part of the Bibliography
- yes (112)
Year of publication
Document Type
- Doctoral Thesis (79)
- Journal article (17)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (7)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Rechnungslegung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
Institute
- Betriebswirtschaftliches Institut (112) (remove)
EU-Project number / Contract (GA) number
Die Dissertation untersucht die Fragestellung, ob aufgrund rechtlicher Regelungen eine gesetzlich begründete Pflicht zur Unternehmensplanung bei kleinen und mittleren Unternehmen (KMU) besteht, bzw. ob eine solche Pflicht gesetzlich verankert werden sollte, falls sich aus den aktuellen gesetzlichen Vorschriften keine solche Pflicht ableiten lässt. Daran anknüpfend werden in die Betrachtung auch die Auswirkungen der Abschlussprüfung und der Unternehmensfinanzierung auf die Unternehmensplanung bei KMU mit einbezogen. Die Untersuchungen bewegen sich vor dem Hintergrund, dass die Informationen über die zukünftige Entwicklung der Unternehmen durch eine Vielzahl von Gesetzesreformen innerhalb der letzten ca. 15 Jahre, verstärkt an Bedeutung gewonnen haben. Ziel dieser Reformen ist es, die Transparenz und Publizität der Unternehmen, die Kontrolle der Unternehmensführung und die Qualität der Abschlussprüfung zu verbessern. Grundlage der Informationen über die zukünftige Entwicklung der Unternehmen ist die klassische betriebswirtschaftliche interne Unternehmensplanung, welche allerdings im Segment der KMU regelmäßig nicht vorhanden ist. Um dieses Problem zu lösen, wird vielfach eine gesetzliche Planungspflicht für alle Unternehmen gefordert. Erschwert werden die Untersuchungen durch die Tatsache, dass es in Deutschland keine einheitliche Definition für KMU gibt, so dass im Rahmen der Dissertation verschiedenen Typen von KMU entwickelt werden, die den späteren Betrachtungen als Grundlage dienen. Der Aufbau sowie die Hauptthesen der Dissertation werden im Folgenden zusammenfassend skizziert: Den Hauptbetrachtungen der Dissertation vorangestellt, werden in Kapitel 2 die Grundzüge der betriebswirtschaftlichen interne Unternehmensplanung dargestellt. Die dargestellte Konzeption einer betriebswirtschaftlichen Unternehmensplanung dient als Basis der späteren Ausführungen. In Kapitel 3 werden verschiedene Typen von KMU vor dem Hintergrund der für diese Unternehmen charakteristischen Merkmale entwickelt. Unterschieden wird zwischen typischen KMU (erfüllen die qualitativen und quantitativen Merkmale für KMU) und atypischen KMU (erfüllen lediglich die quantitativen Merkmale). Unter Zuhilfenahme einer Studie von Wolter/ Hauser wird eine zahlenmäßige Einteilung der einzelnen KMU-Typen, aufgegliedert in verschiedene Rechtsformen vorgenommen, so dass die Bedeutung der KMU-Typen innerhalb der jeweiligen Rechtsformen ermittelt werden kann. Anschließend wird die Durchführung der Unternehmensplanung bei KMU unter Berücksichtigung der bei diesen vorherrschenden charakteristischen Strukturen erörtert. Kapitel 4 untersucht die Auswirkungen der aktuellen Gesetzgebung zur Unternehmensführung auf die Unternehmensplanung bei KMU. Im Fokus der Betrachtung stehen dabei die folgenden Vorschriften: - Die Fortbestehensprognose gem. § 252 Abs. 1 Nr. 2 HGB mit einem Exkurs zur Fortbestehensprognose im Rahmen der InsO; - die Sorgfaltspflicht und die „Business Judgment Rule“ gem. § 93 Abs. 1 Satz 1 und 2 AktG; - das Überwachungssystem gem. § 91 Abs. 2 AktG; - die Berichterstattungspflichten des Vorstands an den Aufsichtsrat gem. § 90 Abs. 1 Nr. 1 AktG; - die zukunftsorientierte Lageberichterstattung gem. § 289 Abs. 1 Satz 4 HGB; die Untersuchungen werden erweitert um eine empirische Analyse zur zukunftsorientierten Lageberichterstattung im Segment der KMU. In Kapitel 5 wird die Bedeutung der Unternehmensplanung bei KMU für die Abschlussprüfung untersucht. Die Ausführungen kommen zu dem Ergebnis, dass sich zwischen den aktuellen für alle Unternehmen gültigen Prüfungsstandards des IDW auf der einen Seite und dem ebenfalls durch das IDW herausgegebenen Prüfungshinweis zu den Besonderheiten der Abschlussprüfung von KMU (IDW PH 9.100.1) auf der anderen Seite, erhebliche Abweichungen ergeben. Kapitel 6 erläutert und diskutiert die Auswirkungen und Anforderungen der im Jahr 2006 beschlossenen Basler Eigenkapitalanforderungen auf bzw. an die Unternehmensplanung bei KMU. Im Ergebnis wird festgestellt, dass sich eine Planungspflicht lediglich aus der Vorschrift des § 90 Abs. Nr. 1 AktG für KMU in der Rechtsform der AG und KGaA ergibt. Für die Erfüllung anderer Normen ist die Unternehmensplanung teilweise zwingende Voraussetzung. Diese Problematik sollte jedoch nicht durch die Verankerung einer Unternehmenspflicht für alle Unternehmen behoben werden, sondern vielmehr sollten diese Normen bzgl. ihrer Auswirkungen auf KMU überdacht werden. Eine gesetzliche Verankerung einer Planungspflicht aus Sicht der Wirtschaftsprüfung wird ebenfalls abgelehnt. Für den Bereich der Unternehmensfinanzierung bedarf es keiner gesetzlichen Regelungen, da sämtliche Anforderungen privatvertraglich fixiert werden können.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt’s invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data “the new oil” indicates the growing awareness of data’s importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of
data [for Economic Co-operation and Development, 2018].
One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data – typically just historical demand data – is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner’s experience and intuition, rather than on solid data analysis.
This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind.
The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work.
The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management.
All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity.
Die Arbeit stellt die Grundsätze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegenüber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzfähigkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht.
The present dissertation includes three research papers dealing with the following banking topics: (dis-) incentives and risk taking, earnings management and the regulation of supervisory boards.
„Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“:
We use Granger-causality techniques to evaluate the intertemporal relationships among risk, efficiency and capital. We use two different measures of bank efficiency, i.e., cost and profit efficiency, since these measures reflect different managerial abilities. One is the ability to manage costs, and the other is the ability to maximize profits. We find that lower cost and profit efficiency Granger-cause increases in liquidity risk. We also identify that credit risk negatively Granger-causes cost and profit efficiency. Most importantly, our results show a positive relationship between capital and credit risk, thus displaying that moral hazard (due to limited liability and deposit insurance) does not apply to our sample of cooperative banks. On the contrary, we find evidence that banks with low capital are able to improve their loan quality in subsequent periods. These findings may be important to regulators, who should consider banks’ business models when introducing new regulatory capital constraints.
„Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“:
Accounting research has separately studied the field of Earnings Management (EM) for non-financial and financial industries. Since EM cannot be observed directly, it is important for every research question in any setting to find a verifiable proxy for EM. However, we still lack a thorough understanding of what regressors can add value to the estimation process of EM in banks. This study tries to close this gap and analyses existing model specifications of discretionary loan loss provisions (LLP) in the banking sector to identify common pattern groups and specific patterns used. Thereupon, we use an US-dataset from 2005-2015 and apply prevalent test procedures to examine the extent of measurement errors, extreme performance and omitted-variable biases and predictive power of the discretionary proxies of each of the models. Our results indicate that a thorough understanding about the methodological modelling process of EM in the banking industry is important. The currently established models to estimate EM are appropriate yet optimizable. In particular, we identify non-performing asset patterns as the most important group, while loan loss allowances and net charge offs can add some value, though do not seem to be indispensable. In addition, our results show that non-linearity of certain regressors can be an issue, which should be addressed in future research, while we identify some omitted and possibly correlated variables that might add value to specifications in identifying non-discretionary LLP. Results also indicate that a dynamic model and endogeneity robust estimation approach is not necessarily linked to better prediction power.
„Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“:
This study employs a system GMM framework to examine the impact of potential regulatory intervention regarding the occupations of supervisory board members in cooperative banks. To achieve insights the study proceeds in two different ways. First, the author investigates the changes in board structure prior and following to the German Act to Strengthen Financial Market and Insurance Supervision (FinVAG). Second, the author estimates the influence of Ph.D. degree holders and occupational concentration on bank-risk changes in consideration of the implementation of FinVAG. Therefore, the sample consists of 246 German cooperative banks from 2006-2011. Regarding bank-risk the author applies four different measures: credit-, equity-, liquidity-risk and the Z-Score, with the former three also being addressed in FinVAG. Results indicate that the implementation of FinVAG results in structural changes in board composition, especially at the expense of farmers. In addition, the implementation affects all risk-measures and relations between risk-measures and supervisory board characteristics in a risk-reducing and therefore intended way.
To disentangle the complex relationship between board characteristics and risk measures the study utilizes a two-step system GMM estimator to account for unobserved heterogeneity, and simultaneity in order to reduce endogeneity problems. The findings may be especially relevant for stakeholders, regulators, supervisors and managers.
This dissertation investigates selected causes and effects of worker mobility between firms in three empirical studies for Germany. Chapter 2 investigates the productivity effects of worker inflows to manufacturing establishments, distinguishing inflows by their previous employers’ wage level, as a proxy for productivity. The chapter is motivated by several empirical studies which find that worker inflows from more productive or higher-paying firms increase hiring firms’ productivity. The analyses in chapter 2 are based on a unique linked employer-employee data set. The findings indicate that inflows from higher-paying establishments do not increase hiring establishments’ productivity, but inflows from lower-paying establishments do. Further analyses suggest that this effect is due to a positive selectivity of such inflows from their sending establishments. These findings can be interpreted as evidence of a reallocation process by which the best employees of lower-paying establishments become hired by higher-paying establishments. This process reflects the assortative pattern of worker mobility in Germany documented by Card et al. (2013) for the past decades. The chapter thus contributes to the literature by linking establishment-level productivity analysis to the assortative pattern of inter-firm worker mobility, thereby providing a micro-foundation for the latter.
Chapter 3 focuses on a positive selection of workers moving between firms from another, more specific perspective. The analysis focuses on the importance of regional labor market competition for establishments’ apprentice training and poaching of apprenticeship completers. Previous studies have found that firms provide less training if they are located in regions with strong labor market competition. This finding is usually interpreted as evidence of a higher risk of poaching in these regions. Yet, there is no direct evidence that regional competition is positively correlated with poaching. Building on a recently established approach to ex-post identify poaching of apprenticeship completers, this chapter is the first to directly investigate the correlation between regional labor market competition and poaching. Using German administrative data, it is found that competition indeed increases training establishments’ probability of becoming poaching victims. However, poaching victims do not change their apprenticeship training activity in reaction to poaching. Instead, the findings indicate that the lower training activity in competitive regions can be attributed to lower retention rates, as well as a less adverse selection and lower labor and hiring costs of apprenticeship completers hired from rivals.
Chapter 4 investigates the effects of local broadband internet availability on establishment-level employment growth. The analysis uses data for Germany in the years 2005-2009, when broadband was introduced in rural regions of Western Germany and in large parts of Eastern Germany. Technical frictions in broadband rollout are exploited to obtain exogenous variation in local broadband availability. The results suggest that broadband expansion had a positive effect on employment growth in the Western German service sector and a negative effect in Western German manufacturing, suggesting that broadband expansion has accelerated the reallocation of workers from manufacturing to services. Furthermore, this pattern of results is driven by pronounced positive effects in knowledge- and computer-intensive industries, suggesting that it is the actual use of broadband in the production process that leads to complementary hiring, respectively a slowdown of employment growth, in the respective sectors. For Eastern Germany, no significant employment growth effects are found.
Advanced Analytics in Operations Management and Information Systems: Methods and Applications
(2019)
The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts.
As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company.
Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules.
Die Bewertung von Patenten
(2006)
Die Arbeit verfolgt zwei Ziele. Einerseits sollen bereits bestehende Bewertungskonzepte für betriebliche Patente im Hinblick auf ihre Eignung für unternehmensinterne und -externe Willensbildungs- und Willensdurchsetzungsprozesse beurteilt werden. Andererseits sollten diese Ansätze verfeinert und erweitert werden mitunter zur Operationalisierung für praktische Anwendungen. Für die Analyse der bestehenden Patentbewertungsmethoden wird zwischen den Ansätzen auf Basis gesetzlich geregelter Bewertungsanlässe und den in der internen Unternehmensrechnungslegung verwendeten Ansätzen differenziert. Um die Grenzen der traditionellen einkommensorientierten Bewertungsmodelle überwinden zu können, werden in der vorliegenden Untersuchung mit dem Realoptionsansatz und der SGPP-Methode zwei alternative Ansatzpunkte bzw. verfeinerte Methoden für die monetäre Patentbewertung zur Diskussion gestellt.
Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies.
In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet.
Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden.
In der Dissertationsschrift werden die wesentlichen Merkmale von direkten und indirekten Immobilieninvestitionen in Deutschland für vier Spezialthemen der Immobilienbesteuerung dargestellt und somit ein Einblick in die vielseitige und komplexe Besteuerung von direkten und indirekten Immobilieninvestitionen gewährt. Die Investitionsmöglichkeiten in direkte Immobilienanlageformen werden in Kapitel 2 und 3 besprochen. Die indirekte Immobilienanlage und ihre Auswirkungen auf die Preisbildung werden in den Kapiteln 4 und 5 betrachtet. In der Schlussbemerkung (Kapitel 6) werden wesentliche Erkenntnisse dieser Arbeit zusammengefasst. Im Detail werden in den vier Hauptkapiteln folgende Fragestellungen bearbeitet: • Die steuerlichen Regelungen bei selbstgenutzten und vermieteten Wohnimmobilien führen stets zu Klientel-Effekten. Im Vermietungsfall bewirkt der progressive Ein-kommensteuertarif eine Begünstigung von Steuerpflichtigen mit hohen Einkom¬men. Lediglich eine steuersatzunabhängige Förderung kann dazu führen, dass ein durchschnittlich verdienender Eigenheimkäufer Förderquoten und Investitions-renditen auf demselben Niveau wie ein vermietender Spitzenverdiener erreicht. • Die Modernisierung der Immobilienförderung innerhalb der Altersvorsorge („Wohn-Riester“) ermöglicht den Einsatz des Riester-Kapitals als echtes Eigen-kapital und dominiert die klassische Eigen- und Fremdfinanzierung. Zudem ist die Tilgung eines zum Immobilienerwerb aufgenommenen Darlehens in die staatliche Förderung integriert worden und begünstigt so die Rückführung des steuerlich benachteiligten Fremdkapitals im Fall der Selbstnutzung. • Die Wahl des steuerlichen Wertansatzes bei Vermögensübertragung auf eine steuerbegünstigte Immobilienverwaltung ist nicht trivial. Die Vorteilhaftigkeit der Wertansatzalternativen ist maßgebliche durch den Abschreibungsverlauf, die Länge des Investitionszeitraums sowie den rechtsformspezifische Steuersatzdifferenzen beeinflusst. Es zeigt sich, dass eine Aufdeckung der stillen Reserven regelmäßig nur in Verbindung mit zusätzlichen Begünstigungen sinnvoll ist. Eine allgemeine Vorteilhaftigkeit für die Umwandlung in einen REIT besteht nicht. • Steuerprivilegien können durch gesetzlich erzwungene Finanzierungsstrukturen deutlich reduziert bzw. vernichtet werden. Insbesondere der REIT wird an der Ausübung seiner steueroptimierten Finanzierungsstrategie gehindert, sodass die Erlangung des REIT-Status kein Garant für niedrige Kapitalkosten ist. Die ver-mögensverwaltende Immobilien-AG stellt aufgrund der flexiblen Ausschüttungs- und Finanzierungspolitik eine Alternative zu dem stark reglementierten REIT dar.
In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht:
In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt.
In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind.
In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM’s related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM’s complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty.
In an Arrow-Debreu world of unrestricted access to perfect and competitive financial markets, there is no need for accounting information about the financial situation of a firm. Because information is costless, share- and stakeholders are then indifferent in deposits and securities (e.g., Holthausen & Watts 2001; Freixas & Rochet 2008). How-ever, several reasons exist indicating a rejection of the assumptions for an Arrow-Debreu world, hence there is no perfect costless information. Moreover, the distribu-tion of information is asymmetric, causing follow-through multi-level agency prob-lems, which are the main reasoning for the variety of financial and non-financial ac-counting standards, regulatory and advisory entities and the auditing and rating agency profession. Likewise, these agency problems have been at the heart of the accounting literature and raised the question of whether and how accounting information can help resolve these problems. ...
This dissertation explores the Internet of Things from three different perspectives for which three individual studies were conducted. The first study presents a business application within supply chain management. The second study addresses user acceptance of pervasive information systems, while the third study covers future prospects of the Internet of Things.
The first study is about wireless sensor technologies and their possibilities for optimizing product quality in the cold chain. The processing of sensor data such as temperature information allows for the construction of novel issuing policies in distribution centers. The objective of the study was to investigate the possible economic potential of sensor-based issuing policies in a cold chain. By means of simulation, we analyzed a three-echelon supply chain model, including a manufacturer, a distribution center, and a retail store. Our analysis shows that sensor-based issuing policies bear the potential to become an effective complement to conventional issuing policies. However, the results also indicate that important trade-offs must be taken into account in the selection of a specific issuing policy.
The second study deals with the increasing emergence of pervasive information systems and user acceptance. Based on the integration of the extended “Unified Theory of Acceptance and Use of Technology” (UTAUT2) and three pervasiveness constructs, we derived a comprehensive research model to account for pervasive information systems. Data collected from 346 participants in an online survey was analyzed to test the developed research model using structural equation modeling and taking into account multi-group and mediation analysis. The results confirm the applicability of the integrated UTAUT2 model to measure pervasiveness.
The third study addresses future prospects of the Internet of Things within the retail industry. We employed a research framework to explore the macro- as well as microeconomic perspective. First, we developed future projections for the retail industry containing IoT aspects. Second, a two-round Delphi study with an expert panel of 15 participants was conducted to evaluate the projections. Third, we used scenario development to create scenarios of the most relevant projections evaluated by the participants.
Seit der Transformation der EG-Zwischenberichtsrichtlinie in deutsches Recht sind alle Emittenten aus dem amtlichen Markt verpflichtet, für nach dem 31. Dezember 1989 beginnende Geschäftsjahre einen Zwischenbericht über die ersten sechs Monate des Geschäftsjahres zu veröffentlichen. Mit diesen bis heute noch geltenden Bestimmungen ist jedoch eine Reihe von Problemen verbunden. So enthalten die im BörsG und in der BörsZulV verankerten Vorschriften hinsichtlich der zu publizierenden Zahlenangaben und Erläuterungen nur geringe Anforderungen an die unterjährige Berichterstattung, die teilweise aufgrund der unpräzisen Formulierung der Bestimmungen den Unternehmen auch noch einen weitgehenden Ermessensspielraum in bezug auf die berichtspflichtigen Sachverhalte einräumen. Darüber hinaus stufen die gesetzlichen Vorschriften nur die Veröffentlichung eines Halbjahresberichtes als verpflichtend ein, und für die nicht im geregelten Markt notierenden Unternehmen kann aus den Vorschriften keine Verpflichtung abgeleitet werden. Wenngleich der Gesetzgeber sich bei der Umsetzung der Zwischenberichtsrichtlinie bewußt gegen eine umfassendere unterjährige Berichtspflicht entschieden hat, sowohl in bezug auf die berichtspflichtigen Zahlenangaben und Erläuterungen sowie der Anzahl der unterjährig zu veröffentlichenden Berichte, als auch im Hinblick auf die berichtspflichtigen Börsensegmente, ist vor dem Hintergrund der fortschreitenden Globalisierung der Kapitalmärkte und der damit verbundenen größeren Bedeutung der externen Berichterstattung der Emittenten eine grundlegende Veränderung bei den an eine unterjährige Berichterstattung gestellten Anforderungen eingetreten. Während zu Beginn der gesetzlich geforderten Zwischenberichterstattung die wenigen berichtspflichtigen Zahlenangaben und Erläuterungen noch im Einklang mit den Informationsbedürfnissen der Kapitalmarktteilnehmer gestanden haben, ist der Informationsanspruch der Investoren in den letzten Jahren stetig gestiegen. Verantwortlich dafür ist in erster Linie, daß die wirtschaftlichen und finanziellen Verhältnisse der Unternehmen immer schnelleren und häufigeren Veränderungen unterliegen, wodurch die Kapitalmarktteilnehmer neben der jährlichen Berichterstattung auch innerhalb des Geschäftsjahres auf eine umfassende Berichterstattung angewiesen sind, um möglichst zeitnahe auf die veränderten Bedingungen reagieren zu können. Darüber hinaus hat die Internationalisierung der Rechnungslegung einen wichtigen Beitrag zur Normierung einer umfassenderen unterjährigen Berichterstattung geleistet. Um eine Angleichung der deutschen Vorschriften an die umfassenderen Bestimmungen der international anerkannten Rechnungslegungsstandards zu erreichen, die aufgrund der Befreiungsregel von § 292a HGB bereits von vielen deutschen Unternehmen angewendet werden, von Bedeutung sind hierbei insbesondere die nach IFRS/IAS bzw. US-GAAP zu beachtenden Vorschriften, hat sowohl die Deutsche Börse AG als auch das DRSC Vorschriften für die Erstellung von unterjährigen Berichten erlassen. Vor dem Hintergrund dieser Vielzahl und dem nebeneinander von gesetzlichen und privatrechtlichen Regelungen, die mittlerweile von den Gesellschaften zu beachten sind, werden in der vorliegenden Arbeit die einzelnen nationalen und internationalen Regelungen ausführlich dargestellt und Gemeinsamkeiten sowie Unterschiede aufgezeigt. Im Rahmen einer empirischen Untersuchung wird darüber hinaus in einem Soll-Ist-Vergleich untersucht, inwieweit diese Regelungen auch Beachtung innerhalb der Zwischenberichterstattung der Gesellschaften finden. Dazu wurden 115 Zwischenberichte aus den Jahren 2000 und 2001 von Unternehmen aus den Indizes DAX, MDAX und NEMAX 50 hinsichtlich der publizierten Informationen ausgewertet. Vor dem Hintergrund der sich aus dem Nebeneinander der gesetzlichen und privatrechtlichen Vorschriften ergebenen uneinheitlichen Verpflichtungsgrundlagen und Anforderungen ist es dringend geboten, den Regulierungsrahmen für die Zwischenberichterstattung der aktuellen Entwicklung in der Rechnungslegung weiter anzupassen, um die teilweise bestehende Inkonsistenz der verschiedenen Vorschriften in Zukunft zu vermeiden. Durch die Bestrebungen der EU, die nationalen Rechtsvorschriften der einzelnen Mitgliedsländer für einen einheitlichen europäischen Kapitalmarkt weitgehend zu harmonisieren, werden dem deutschen Gesetzgeber die zukünftig an eine unterjährige Berichterstattung zu stellenden Anforderungen von Seiten der EU weitgehend vorgegeben werden. So sieht die am 26. März 2003 veröffentlichte Transparenz-Richtlinie vor, daß ab dem Jahr 2005 alle an einem geregelten Markt notierten Emittenten einen Halbjahresfinanzbericht erstellen müssen. Wenngleich der von der EU-Kommission publizierte Vorschlag für eine zukünftige einheitliche Ausgestaltung der unterjährigen Berichterstattung in Europa grundsätzlich positiv zu sehen ist, werden auch vor dem Hintergrund der durchgeführten empirischen Untersuchung erforderliche Ergänzungen zu den an eine unterjährige Berichterstattung zu stellenden Anforderungen aufgezeigt. Von besonderer Bedeutung sind hierbei die Durchführung einer prüferischen Durchsicht sowie die Verpflichtung zu einer Quartalsberichterstattung.
Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus.
Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model.