Refine
Has Fulltext
- yes (110)
Is part of the Bibliography
- yes (110)
Year of publication
Document Type
- Doctoral Thesis (78)
- Journal article (16)
- Working Paper (6)
- Book (5)
- Report (3)
- Master Thesis (2)
Keywords
- Deutschland (14)
- Maschinelles Lernen (7)
- Operations Management (7)
- Supply Chain Management (7)
- Unternehmensbewertung (6)
- Entscheidungsunterstützung (5)
- Steuerrecht (5)
- artificial intelligence (5)
- Accounting (4)
- Altersversorgung (4)
- Beschaffung (4)
- Betriebswirtschaftslehre (4)
- CAPM (4)
- Capital-Asset-Pricing-Modell (4)
- DCF (4)
- Entscheidungsunterstützungssystem (4)
- Finanzmathematik (4)
- Gesellschaftsrecht (4)
- Prescriptive Analytics (4)
- Rechnungslegung (4)
- Strategisches Management (4)
- Unternehmen (4)
- Unternehmenstheorie (4)
- Wirtschaftsinformatik (4)
- corporate assessment (4)
- corporate law (4)
- machine learning (4)
- valuation of a company (4)
- Ökonometrie (4)
- Advanced Analytics (3)
- Aktiengesellschaft (3)
- Audit Quality (3)
- Aufsichtsrat (3)
- Betriebliche Altersversorgung (3)
- Big Data (3)
- Blockchain (3)
- Corporate Governance (3)
- Electronic Commerce (3)
- Künstliche Intelligenz (3)
- Private Altersversorgung (3)
- RFID (3)
- Rechtsvergleich (3)
- Steuer (3)
- Steuern (3)
- Supply Chain (3)
- Unabhängigkeit (3)
- deep learning (3)
- taxation (3)
- Abschlussprüfer (2)
- Abschlussprüfung (2)
- Altersvorsorge (2)
- Anpassung (2)
- Artificial Intelligence (2)
- Auditor Independence (2)
- Besteuerung (2)
- Bilanzierung (2)
- Bilanzpolitik (2)
- Biotechnologische Industrie (2)
- Business Intelligence (2)
- Capacity Management (2)
- Consistent partial least squares (2)
- Decision Support Systems (2)
- ERP (2)
- Earnings Quality (2)
- Einkauf (2)
- Empirical Analysis (2)
- Empirische Forschung (2)
- Experiment (2)
- Innovation (2)
- Internet (2)
- Internet der Dinge (2)
- Inventory Management (2)
- Investitionsentscheidung (2)
- Jahresabschlussprüfung (2)
- Kapazitätsplanung (2)
- Management (2)
- Nachhaltigkeit (2)
- Organisation (2)
- Plattform (2)
- Predictive Analytics (2)
- Procurement (2)
- Prüfungshonorare (2)
- Prüfungsqualität (2)
- Purchasing (2)
- Rechnungswesen (2)
- Riester-Rente (2)
- Risiko (2)
- Schweiz (2)
- Softwareentwicklung (2)
- Standardanwendungssoftware (2)
- State-of-the-Art (2)
- Strategie (2)
- Supply Chain Networks (2)
- Systematischer Überblick (2)
- Technologieunternehmen (2)
- USA (2)
- Unabhängigkeit des Abschlussprüfers (2)
- Unternehmensplanung (2)
- Wertschöpfungsnetzwerke (2)
- Wirtschaftsprüfer (2)
- performance (2)
- 2015 (1)
- 3D Printing (1)
- 3D-Druck (1)
- ASSET4 (1)
- Absatz- und Produktionsplanung (1)
- Absatzplanung (1)
- Abschlussprüfung und Beratung (1)
- Accountant´s Report (1)
- Action Research (1)
- Adaption (1)
- Adaptionsmarktplatz (1)
- Additive Fertigung (1)
- Additive Manufacturing (1)
- Agency-Theorie (1)
- Agglomeration <Wirtschaft> (1)
- Aktienindex (1)
- Aktienmarkt (1)
- Aktienoption (1)
- Aktionsforschung (1)
- Aktionärsabstimmungen (1)
- Alignment (1)
- Allfinanz (1)
- Alliances (1)
- Allocation Planning (1)
- Alterssicherung (1)
- Altervorsorge (1)
- Anforderungsmanagement (1)
- Anpassungsfähige Organisation (1)
- Anreize (1)
- Anwendungssystem (1)
- Arbeitgeberattraktivität (1)
- Arbeitnehmer (1)
- Arbeitsangebot (1)
- Arbeitsangebotsentscheidung (1)
- Arbeitsmarkt (1)
- Audit (1)
- Audit Opinion (1)
- Audit Services (1)
- Auditing (1)
- Auslandsbanken (1)
- Ausschluss (1)
- Auswirkung (1)
- Automated Checkout (1)
- B2B (1)
- BAV-Förderbetrag (1)
- BRSG (1)
- Bank (1)
- Banking (1)
- Bauprojekt (1)
- Bauvorhaben (1)
- Beitrag (1)
- Belgien (1)
- Beratungsbetrieb (1)
- Beratungsgeschäft (1)
- Beschaffungsobjekte (1)
- Beschaffungsorganisation (1)
- Beschaffungsportfolio (1)
- Beschaffungsprozess (1)
- Beschaffungsstrategie (1)
- Beschäftigtenmobilität (1)
- Beschäftigung (1)
- Bestandskosten (1)
- Bestandsmanagement (1)
- Bestandsplanung (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Bestätigungsvermerk (1)
- Betrieb (1)
- Betriebliche Kennzahl (1)
- Betriebsrente (1)
- Betriebsrenten (1)
- Betriebsrentenstärkungsgesetz (1)
- Betriebsübergang (1)
- Bewertung (1)
- Biotechnologie (1)
- Biotechnologie-Industrie (1)
- Biotechnology (1)
- Bonität (1)
- Bootstrap (1)
- Business Planning (1)
- Business Process Management (1)
- Business Process Modeling (1)
- CSR (1)
- Capital Market Study (1)
- Career Concerns (1)
- Carry Trades (1)
- China (1)
- Chinese stock market (1)
- Cloud Computing (1)
- Cluster <Wirtschaft> (1)
- Cluster Formation (1)
- Clusterformation (1)
- Confidence interval (1)
- Conjoint Analysis (1)
- Consulting (1)
- Continuous System Engineering (1)
- Controlling (1)
- Corporate Financial Performance (1)
- Corporate Social Responsibility (1)
- Corporate Sustainability (1)
- Credit Rating (1)
- Data Analytics (1)
- Data Driven Operations (1)
- Data Mining (1)
- Data Quality (1)
- Data Warehouse (1)
- Data-Warehouse-Konzept (1)
- Data-driven Operations Management (1)
- Datenintegration (1)
- Datenmanagement (1)
- Datenqualität (1)
- Datenschutz (1)
- Delphi Study (1)
- Deutschland Handelsgesetzbuch (1)
- Devisen (1)
- Devisenspekulation (1)
- Digitale Plattformen (1)
- Digitalisierung (1)
- Digitalization (1)
- Diversifikation (1)
- Doctorial Consortium, WI 2015 (1)
- Doppelbesteuerung (1)
- Doppelverbeitragung (1)
- E-Government (1)
- E-Tendering (1)
- E-Vergabe (1)
- ELSP (1)
- ERP CSF (1)
- ERP Implementation (1)
- ESG (environmental, social, governance) (1)
- Earnings Management (1)
- Earnings management (1)
- Economic Lot Scheduling Problem (1)
- Efficiency (1)
- Effizienz (1)
- Eigenheimrentenmodell (1)
- Eigenheimzulage (1)
- Eigenkapital (1)
- Einflussfaktoren (1)
- Einkommensteuer (1)
- Einzelhandel (1)
- Electronic Article Surveillance (1)
- Electronic commerce (1)
- Elektronische Märkte (1)
- Emergency Medical Service System (1)
- Emgering Markets (1)
- Emission Policy (1)
- Emotionen (1)
- Employer Attractiveness (1)
- Employer Branding (1)
- Employment (1)
- Enterprise-Resource-Planning (1)
- Entgeltumwandlung (1)
- Entscheidungsneutralität (1)
- Entscheidungsverhalten (1)
- Entwicklungsländer (1)
- Environmental Performance (1)
- Equity (1)
- Erfahrung (1)
- Erfolgsplanung (1)
- Erklärbare Künstliche Intelligenz (1)
- Ertragsteuerrecht (1)
- Executive Compensation (1)
- Explainability (1)
- Explainable AI (1)
- Explainable Artificial Intelligence (1)
- Fehlmengenkosten (1)
- Finanzkrise (1)
- Finanzpsychologie (1)
- Fluktuation <Betriebswirtschaftslehre> (1)
- Forschung und Entwicklung (1)
- Framework Develpment (1)
- Fremdkapital (1)
- Fundamentalanalyse (1)
- Förderung (1)
- Führungsentscheidung (1)
- Gemeinde (1)
- Generally Accepted Accounting Principles (1)
- Genossenschaftsbanken (1)
- Geringverdiener (1)
- Gesellschafter-Fremdfinanzierung (1)
- Gesellschafterfremdfinanzierung (1)
- Gesundheitswesen (1)
- Gewerbesteuer (1)
- Global Health (1)
- Going-Concern (1)
- Going-Concern-Prinzip (1)
- Governance (1)
- Grundsteuer (1)
- HGB (1)
- Halbjahresbericht (1)
- Hauptversammlung (1)
- Hebesatz (1)
- Hebesatzpoltik (1)
- Herd Behaviour (1)
- Herdenverhalten (1)
- High-technology (1)
- Hochtechnologie (1)
- Honorar (1)
- Human Capital (1)
- Human Resource Management (1)
- Human Resource Management <Humanvermögen> <Personalentwicklung> (1)
- Humankapital (1)
- Humankapitaltheorie (1)
- Hypercube Queueing Model (1)
- IFRS (1)
- IHK (1)
- IS education (1)
- IaaS (1)
- Ianus (1)
- Immaterielle Investition (1)
- Immaterielles Wirtschaftsgut (1)
- Immobilienanlage (1)
- Independence (1)
- Index (1)
- Indexeffekte (1)
- Indexveränderungen (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Information Cascades (1)
- Information Processing (1)
- Informationskaskaden (1)
- Informationssicherheit (1)
- Informationsverarbeitung (1)
- Innovation Management (1)
- Innovationsmanagement (1)
- Intangibles (1)
- International (1)
- International Accounting Standards (1)
- International IT Projects (1)
- Internationales Management (1)
- Internationales Steuerrecht (1)
- Internationalisierung (1)
- Internet of Things (1)
- Inventory Costs (1)
- Investitionsgüterindustrie (1)
- Investitionsverhalten (1)
- Investmentfonds (1)
- Janus (1)
- KMU (1)
- Kapitaldeckungsverfahren (1)
- Kapitalkosten (1)
- Kapitalmarkt (1)
- Karriereinteressen (1)
- Klein- und Mittelbetrieb (1)
- Knowledge (1)
- Kognitive Belastung (1)
- Kollektives Verhalten (1)
- Kosten (1)
- Kraftloserklärung (1)
- Krankenhaus (1)
- Kreditgenossenschaft (1)
- Kulturelle Barrieren (1)
- Kundenorientierung (1)
- LDA (1)
- Labor Mobility (1)
- Laden (1)
- Lagebericht (1)
- Lead Time (1)
- Leadership (1)
- Lerneffekt (1)
- Lernkurve (1)
- Lieferbereitschaftsgrad (1)
- Lieferzeit (1)
- Lineare Optimierung (1)
- Lineares Informationsmodell (1)
- Literatur Review (1)
- Literaturanalyse (1)
- Literature Review (1)
- Location Factors (1)
- Location Optimization (1)
- Losgröße (1)
- Lossequenzenplanung (1)
- Lossequenzproblem (1)
- Machine Learning (1)
- Maker Movement (1)
- Maker-Bewegung (1)
- Makroökonomie (1)
- Management Report (1)
- Managementinformationssystem (1)
- Markteintrittsstrategie (1)
- Marktsegmentierung (1)
- Mathematical Optimization (1)
- Measurement error correlation (1)
- Medizinische Versorgung (1)
- Mehrkriterielle Optimierung (1)
- Menschliche Denkmuster (1)
- Mergers and Acquisitions (1)
- Meta-Analyse (1)
- Metaheuristic (1)
- Metaheuristik (1)
- Minderheitenschutz (1)
- Minderheitsaktionär (1)
- Model specification (1)
- Modeling (1)
- Modelle (1)
- Modellierung (1)
- Modelltheorie (1)
- Monte Carlo simulation (1)
- Moral Hazard (1)
- Multi-objective optimization (1)
- Nicht börsennotierte Unternehmen (1)
- Non-Audit Services (1)
- Notfallmedizin (1)
- OWL (1)
- Objektgruppenanalyse (1)
- Online-Community (1)
- Ontologie (1)
- Optimierung (1)
- Organisationstheorie (1)
- Osnabrück (1)
- Out-of-Stock Costs (1)
- Outcomes (1)
- PaaS (1)
- Patent (1)
- Patente (1)
- Performance (1)
- Performance Measurement (1)
- Personalmarketing (1)
- Pflichtzuschuss (1)
- Planungssystem (1)
- Practitioner's guide (1)
- Preisbildung (1)
- Private Companies (1)
- Private Firms (1)
- Private Unternehmen (1)
- Privatkundengeschäft (1)
- Privatsphäre (1)
- Privatunternehmen (1)
- Production Site (1)
- Produktdiversifikation (1)
- Produktionskapazitäten (1)
- Produktionsnetzwerke (1)
- Produktionsplanung (1)
- Produktionsstandort (1)
- Programmbibliothek (1)
- Project Management (1)
- Projektmanagement (1)
- Prüferwahl (1)
- Prüfung (1)
- Prüfungsbericht (1)
- Public Administration (1)
- Public E-Procurement (1)
- Public Tendering (1)
- Publizitätspflicht (1)
- Purpose (1)
- Qualität (1)
- Qualität der Abschlussprüfung (1)
- Qualität der Rechnungslegung (1)
- Quartalsbericht (1)
- Rapid Prototyping <Fertigung> (1)
- Rating (1)
- Realsteuern (1)
- Rechtsreform (1)
- Region Mainfranken (1)
- Regional Development (1)
- Regionale Konzentration <Wirtschaft> (1)
- Regionalentwicklung (1)
- Regulierung (1)
- Reihenfolgeplanung (1)
- Remix (1)
- Rentenversicherung (1)
- Requirements Management (1)
- Resource allocation (1)
- Retail (1)
- Risikobereitschaft (1)
- Risikomanagement (1)
- Risk (1)
- Risk Management (1)
- Roboter (1)
- SAP BW (1)
- SaaS (1)
- Sales and Operations Planning (1)
- Schenkungsteuerrecht (1)
- Selbstorganisation (1)
- Sensors (1)
- Service Level (1)
- Shareholder Voting (1)
- Sharpe Ratio (1)
- Simulation (1)
- Skalierbarkeit (1)
- Smart Fitting Room (1)
- Software (1)
- Software Engineering (1)
- Softwareadaption (1)
- Softwarebibliothek (1)
- Sourcing (1)
- Sozialbilanz (1)
- Sozialversicherung (1)
- Spitzentechnologie (1)
- Squeeze-out (1)
- Stakeholder (1)
- Standardsoftware (1)
- Standortfaktor (1)
- Standortfaktor <Wirtschaft> (1)
- Standortplanung (1)
- Statistical misconception (1)
- Sterblichkeit (1)
- Steuerentstrickung (1)
- Steuerpolitik (1)
- Steuervermeidung (1)
- Steuerwahrnehmung (1)
- Stiftung (1)
- Strategic Management (1)
- Strategische Entscheidungsfindung (1)
- Strategische Planung (1)
- Structural equation modelling (1)
- Strukturanalyse (1)
- Success Factors (1)
- Supply Chain Design (1)
- Supply Management (1)
- Supply chain management (1)
- Sustainable HRM (1)
- Systematischer (Literatur) Review (1)
- THESEUS (1)
- Tagung (1)
- Takeover (1)
- Technologiecluster (1)
- Technology Acceptance (1)
- Technology Cluster (1)
- Teillose (1)
- Terminkurs (1)
- Tertiärstudie (1)
- Testing parameter difference (1)
- Textileinzelhandel (1)
- Thin Capitalization (1)
- Thin Capitalization Rules (1)
- Thingiverse (1)
- Tool (1)
- Tourenplanung (1)
- Training (1)
- Transportlosgröße (1)
- US-GAAP (1)
- Umwandlungsvorgänge (1)
- Umweltpolitik / Kompensation (1)
- Unilever (1)
- Unterkapitalisierung (1)
- Unternehmensakquisition (1)
- Unternehmensberatung (1)
- Unternehmensergebnis (1)
- Unternehmensethik (1)
- Unternehmensführung (1)
- Unternehmenskauf (1)
- Unternehmenskooperation (1)
- Unternehmensverfassung (1)
- Unternehmernachfolge (1)
- VUCA world (1)
- Valuation (1)
- Vergabe (1)
- Vergütung (1)
- Verhaltensökonomik (1)
- Verlustausgleich (1)
- Vermögensgegenstand (1)
- Versorgung (1)
- Verwaltung (1)
- Virtualisierung (1)
- Vorstandsvorsitzender (1)
- Vorstandswechsel (1)
- Vorweggenommene Erbfolge (1)
- Wahrnehmung (1)
- Warteschlangentheorie (1)
- Werkzeug (1)
- Wertfreiheit (1)
- Werturteilsfreiheit (1)
- Wirtschaftsprüfung (1)
- Wissenspakete (1)
- XAI (1)
- Ziele (1)
- Zillmerung (1)
- Zinsparität (1)
- Zusage (1)
- Zwischenbericht (1)
- accounting (1)
- acquisition behavior (1)
- adaptation market place (1)
- adaptive organisation (1)
- analytical model building (1)
- anticipated succession (1)
- apparel retail (1)
- artificial neural networks (1)
- audit fees (1)
- auditor independence (1)
- bAV (1)
- bank mergers (1)
- banksrevenue (1)
- batch shipments (1)
- behavioral economics (1)
- benefactor (1)
- bioimage analysis (1)
- biotechnology industry (1)
- business analytics (1)
- business process anagement (1)
- capacity control (1)
- capital transfer tax (1)
- classsification scheme (1)
- co-worker similarity (1)
- cognitive biases (1)
- coherent risk measures (1)
- comparative HRM (1)
- competitive strategy (1)
- consultation business (1)
- cooperative diversification (1)
- corporate ethics (1)
- corporations (1)
- curriculum research (1)
- data management (1)
- data-driven (1)
- demand goods (1)
- demographics (1)
- design science research (1)
- design theory (1)
- digital platforms (1)
- double taxation (1)
- efficiency (1)
- electronic marketplace (1)
- elektronischer Marktplatz (1)
- employee (1)
- event-study (1)
- experience (1)
- explainable artificial intelligence (1)
- foreign bank (1)
- foundation (1)
- future information (1)
- gesetzliche Anforderungen (1)
- global reporting initiative (1)
- goals (1)
- grenzüberschreitende Vermögensnachfolge (1)
- hospital (1)
- implementation framework (1)
- implied cost of capital (1)
- implizite Kapitalkosten (1)
- income tax (1)
- index (1)
- index effects (1)
- index replacements (1)
- intelligent system (1)
- intelligent systems (1)
- interim reporting (1)
- international banking (1)
- interview study (1)
- intrinsic value models (1)
- investment decision (1)
- key performance indicators (1)
- labor demand (1)
- labor market (1)
- labor supply decision (1)
- learning curve (1)
- learning effect (1)
- literature review (1)
- lot streaming (1)
- management turnover (1)
- manufacturing capacities (1)
- market entry (1)
- market segmentation (1)
- methodology (1)
- microscopy (1)
- mutual funds (1)
- neural network (1)
- organisational design (1)
- organizational science (1)
- package (1)
- partnerships (1)
- pension reform (1)
- perceived external financial reporting quality (1)
- positioning (1)
- predictive process analytics (1)
- predictive process monitoring (1)
- process mining (1)
- procurement transaction (1)
- product diversification (1)
- production networks (1)
- profitability (1)
- project management (1)
- purchasing portfolio matrices (1)
- purchasing strategies (1)
- quality control (1)
- queueing (1)
- real estate (1)
- regulatory capital (1)
- relative Leistungsbewertung (1)
- relative performance evaluation (1)
- risk (1)
- robotic process automation (1)
- simultane Losgrößen- und Reihenfolgeplanung (1)
- software (1)
- stock options (1)
- store logistics (1)
- strategic management (1)
- sub-batches (1)
- subadditivity (1)
- subsidies (1)
- supervisory board (1)
- supply chain management (1)
- supply managament (1)
- sustainability (1)
- sustainability reporting (1)
- system transparency (1)
- tax avoidance (1)
- tax perception (1)
- taxes (1)
- text mining (1)
- topic modeling (1)
- transfer of business (1)
- trust (1)
- user acceptance (1)
- valuation (1)
- worker mobility (1)
- workplace (1)
- workshop (1)
- Äquivalenzprinzip (1)
- Öffentliche Auftragsvergabe (1)
- Öffentliche Bauprojekte (1)
- Öffentliche Verwaltung (1)
- Öffentlicher Auftrag (1)
- Öffentlicher Sektor (1)
- Ökonomischer Gewinn (1)
- Österreich (1)
- Übernahme (1)
- Übernahmeangebot (1)
- überlappende Fertigung (1)
Institute
- Betriebswirtschaftliches Institut (110) (remove)
EU-Project number / Contract (GA) number
The growing interest in Radio Frequency Identification (RFID) technology in recent years has sparked an intensive debate on the benefits to be expected. With the growth of RFID implementations in size and scope comes a shift away from infrastructural aspects to the question of how to draw value from the large amounts of collected data. However, the necessary procedures for the handling of massive RFID data sets are still an under-researched issue. Against this background, the study presents results from a real-world trial conducted by a large apparel retailer. The objective of the trial was to explore the opportunities for generating novel performance indicators and reports on the reality of store processes and customer behavior on the sales floor. We give an overview of the algorithms used for RFID data processing and the interpretation of the resulting insights from a practitioner’s point of view. The case example thus provides an overview of the potential of RFID as a powerful tool for assortment optimization, customer research, store layout design, and other management tasks in retail.
The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment.
The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed.
The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst.
In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried.
The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak.
The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer.
The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society.
Zahlreiche, zum Teil sehr spektakuläre Unternehmenszusammenbrüche – national (z.B. Holzmann, Bankgesellschaft Berlin) wie international (z.B. Enron, Worldcom) – in Verbindung mit Bilanzmanipulationen, haben den Berufsstand in eine schwere Vertrauenskrise gestürzt. Vor allem der Zusammenbruch von Enron (vormals das siebtgrößte Unternehmen der USA) hat die internationale Wirtschaftsprüfung in großen Aufruhr versetzt. Nach Bekanntwerden des Enron-Skandals wurden weitere Fälle fragwürdiger Bilanzierungspraktiken aufgedeckt, was in der Öffentlichkeit den Eindruck erweckte, dass es sich hierbei um keinen Einzelfall handelte, sondern dass erhebliche strukturelle Defizite vorliegen müssen. Diese Entwicklungen lösten weltweit eine Reformdebatte aus, welche zahlreiche berufsständische und gesetzliche Regulierungseingriffe, sowohl national als auch international, zur Folge hatte. Unter besonderem Handlungsdruck stand der Gesetzgeber in den USA. Im Sommer 2002 wurde der „Sarbanes-Oxley Act“ verabschiedet, der stark regulierend in den Berufsstand eingreift. Die Kritik der Öffentlichkeit konzentriert sich dabei hauptsächlich auf das gleichzeitige Angebot von Prüfungs- und Beratungsleistungen durch den amtierenden Abschlussprüfer. Viele sehen dadurch die Unabhängigkeit des Abschlussprüfers und damit die Glaubwürdigkeit der Jahresabschlussinformationen gefährdet. Die Sicherung der Vertrauenswürdigkeit stellt für die Qualität der Abschlussprüfung eine existentielle Grundlage dar. Die Vorschriften zur Unabhängigkeit des Abschlussprüfers wurden daraufhin verschärft, zahlreiche Beratungsleistungen durch den Abschlussprüfer gelten nun als unvereinbar mit gleichzeitiger Abschlussprüfung. Auch in der Europäischen Union und in Deutschland wird heftig diskutiert, wie man das verloren gegangene Vertrauen der Öffentlichkeit wiedergewinnen kann. Vor dem Hintergrund dieser Reformdebatte muss die Frage gestellt werden, ob durch das gleichzeitige Angebot von Prüfungs- und Beratungsleistungen die Unabhängigkeit des Abschlussprüfers tatsächlich gefährdet ist, oder die eingeleiteten Maßnahmen der Öffentlichkeit lediglich Handlungsfähigkeit seitens des Gesetzgebers suggerieren sollen, um das Vertrauen in den Berufsstand schnellstmöglich wieder zurückzugewinnen. Aus wissenschaftlicher Sicht konnte eine Beeinträchtigung der Unabhängigkeit des Abschlussprüfers bisher weder theoretisch noch empirisch nachgewiesen werden. Einige Autoren kritisieren vor allem bei der amerikanischen Gesetzesinitiative, sie habe sich eher an der Meinung der Öffentlichkeit orientierte, ohne wirkliche Ursachenanalyse zu betreiben. Es ist jedoch ausdrücklich nicht das Anliegen dieser Arbeit, das Für und Wider einschlägiger gesetzlicher Regelungen bzw. interner Sicherungsmaßnahmen darzustellen und zu erörtern. Die vorliegende Arbeit leistet einen Beitrag zur aktuellen Diskussion, indem ausführlich untersucht wird, ob sich eine Gefährdung der Unabhängigkeit des Abschlussprüfers im Zusammenhang mit dem gleichzeitigen Angebot von Prüfungs- und Beratungsleistungen empirisch nachweisen lässt oder nicht. Dabei werden zwei Ziele verfolgt: Zum einen werden bereits vorliegende empirische Studien zu dieser Problematik vorgestellt und diskutiert, zum anderen werden zwei eigene empirische Untersuchungen, welche auf agencytheoretischen Grundüberlegungen basieren, in die Diskussion eingebracht.
Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken (PIMKoWe)
(2022)
Das Verbundprojekt „Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken“ (PIMKoWe – Förderkennzeichen „02P17D160“) ist ein Forschungsvorhaben im Rahmen des Forschungsprogramms „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ der Bekanntmachung „Industrie 4.0 – Intelligente Kollaborationen in dynamischen Wertschöpfungs-netzwerken“ (InKoWe). Das Forschungsvorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert und durch den Projektträger des Karlsruher Instituts für Technologie (PTKA) betreut.
Ziel des Forschungsprojekts PIMKoWe ist die Entwicklung und Bereitstellung einer Plattformlösung zur Flexibilisierung, Automatisierung und Absicherung von Kooperationen in Wertschöpfungsnetzwerken des industriellen Sektors.
Die vorliegende Studie liefert in drei gleichrangigen Teilen empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene.
In den ersten beiden Teilen wird die Realsteuerpolitik deutscher Kommunen quantitativ datenempirisch und qualitativ in Form einer Expertenbefragung untersucht. Hierbei wird insbesondere der Frage nachgegangen, welche Determinanten das gemeindliche Hebesatzniveau bei der Gewerbesteuer und den Grundsteuern A und B bestimmen.
Der dritte Teil analysiert die Beitragseinnahmen der Industrie- und Handelskammern. Der IHK-Beitrag ist deren zentrale Einnahmeposition und knüpft ebenfalls an der gewerbesteuerlichen Bemessungsgrundlage an. Die Abhängigkeit von einer zum Teil volatilen Bemessungsgrundlage stellt die Kammern bei ihrer Budgetplanung vor große Herausforderungen. Zur Steigerung der Planungsgenauigkeit wurde ein Prognosemodell entwickelt, das einen präziseren Rückschluss auf künftige Beitragseinnahmen zulässt.
Die verfasste Arbeit beschäftigt sich mit der Handelsstrategie Carry Trades. Grundlage dieser Strategie ist das Ausnutzen von Zinsunterschieden, welche zwischen zwei Währungsräumen vorherrschen, und einer Wechselkursanpassung, die diese Unterschiede nicht komplett kompensiert. Investiert ein Anleger beispielsweise in eine ausländische Währung mit höherem Zinsniveau, so müsste sich der Wechselkurs gemäß der Zinsparitätentheorie in der Folge so anpassen, dass der höhere Ertrag durch die Zinsen beim Rücktausch der Währung vollständig egalisiert wird. Ziel dieser Arbeit war eine empirische Untersuchung für die Währungen der G10 auf wöchentlicher Handelsbasis sowie die Konstruktion und Berücksichtigung von ex ante Sharpe-Ratios als Handelsindikator.
Die Relevanz der öffentlichen Auftragsvergabe ergibt sich aus den immensen Beschaffungsvolumen der öffentlichen Auftraggeber, welches deutschlandweit ca. 220 Mrd. Euro und EU-weit bei ca. einer Billion pro Jahr liegt. Aufgrund dieser Größenordnungen resultieren selbst geringe Effizienzverbesserungen in hohen absoluten Beträgen. Die Arbeit befasst sich mit den Möglichkeiten, welche sich hierbei durch die Nutzung moderner Informations- und Kommunikationstechnologie insb. dem Internet ergeben. Im privatwirtschaftlichen Beschaffungsbereich sind unter dem Schlagwort E-Procurement bereits Konzepte und Produkte verbreitet. Diese sind jedoch vor allem im Bereich des „Sourcing“ (hier: Vergabe) nicht ohne weiteres im öffentlichen Bereich nutzbar, so dass eine ganzheitliche Lösung hier noch aussteht. In der Arbeit werden zunächst die juristischen Rahmenbedingungen dargelegt. Diese determinieren den Vergabeprozess durch eine Vielzahl von Richtlinien, formalen Gesetzen, Verordnungen und anderen Regelwerken, so dass sich das Vorgehen grundsätzlich von der privatwirtschaftlichen Beschaffung unterscheidet. Neben diesem juristischen Rahmen werden die ökonomischen Ziele und Nutzenpotentiale untersucht, die sich durch eine Digitalisierung ergeben sowie die zur Verfügung stehenden Technologien erläutert. Aufbauend auf diesen Grundlagen beschäftigen sich die Hauptabschnitte der Arbeit mit einer genauen Analyse der Anforderung, die an ein System zur digitalen Abwicklung der öffentlichen Auftragsvergabe zu richten sind. Diese werden abschließend in Tabellenform strukturiert und priorisiert. Nach der Prüfung bestehender Architekturansätze wird – quasi als Synthese von verfügbarer Technologie und dem Anforderungskatalog – eine Systemarchitektur (XAVER - XML-basierte Architektur zur Umsetzung der digitalen Vergabe) entwickelt, die die Basis für konkrete Informationssysteme darstellt, mit denen eine digitale Vergabe öffentlicher Aufträge durchgeführt werden kann. Als beispielhafte Umsetzung dieser Architektur wird im Anschluss die eTenderSuite-Produktfamilie der Administration Intelligence AG vorgestellt. Den Abschluss bildet eine nutzenorientierte Analyse der bisherigen Ergebnisse. Obwohl der Fokus der Arbeit ein ökonomischer ist werden auch – soweit nötig – juristische und informationstechnische Aspekte betrachtet. Nur im Zusammenspiel dieser drei Disziplinen ist das komplexe Themenfeld der digitalen Vergabe ganzheitlich zu untersuchen.
The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making.
We develop a purchasing portfolio method by integrating a company view, a market-based view and a process view, aggregated in a 3-dimensional portfolio cube. Top management typically takes another view on purchasing issues than purchasing itself. Furthermore, it seems crucial to include the process view, since strategies have to be executed and organisational design features to support these strategies have to be compatible with purchasing processes. This integrated approach seems more complete compared to single, 2-dimensional portfolio methods.
Nach der Einleitung werden im zweiten Kapitel die zivilrechtlichen, ertrag- und schenkungsteuerrechtlichen Definitionen der Begriffe “Schenkung unter Lebenden” sowie „vorweggenommene Erbfolge“ nach deutschem, österreichischem und schweizerischem Recht sowie das Rechtsinstitut des Nießbrauchs nach deutschem, österreichischem und schweizerischem Zivil- und Gesellschaftsrecht gegenübergestellt. Im dritten Kapitel erfolgt die schenkungsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Schenkungsteuerrecht. Die ertragsteuerliche Beurteilung der Vermögensübertragung nach deutschem, österreichischem und schweizerischem Ertragsteuerrecht erfolgt im vierten Kapitel. Nach den zivilrechtlichen Grundlagen bei grenzüberschreitenden Vermögensübertragungen werden im sechsten Kapitel die schenkungsteuerliche und ertragsteuerliche internationale Doppelbesteuerung in Bezug auf die Länder Österreich und die Schweiz ausführlich erläutert. Im Mittelpunkt der Betrachtung stehen ausschließlich unentgeltliche bzw. teilentgeltliche Vermögensübertragungen im Rahmen der Schenkung unter Lebenden.
Die Grundlage für eine hohe Bestandsgenauigkeit ist die unternehmensübergreifende Identifikation und Nachverfolgung von Waren, die mit automatisierten Identifizierungstechnologien (Auto-ID-Technologien) ermöglicht wird. Die Einführung der Auto-ID-Technologie des Barcodes hat die Industrie vor mehr als 30 Jahren fundamental verändert. Darauf aufbauend versprechen neuere Auto-ID-Technologien wie die „Radio Frequency Identification“ (RFID) Probleme wie die Nichtverfügbarkeit von Waren, eine intransparente Diebstahlrate oder Warenschwund durch eine bessere Nachverfolgung aller Waren und eine höhere Bestandsgenauigkeit zu lösen. Die Vorteile von RFID gegenüber dem Barcode sind unter anderem die höhere Datendichte, die größere Robustheit gegenüber Umwelteinflüssen sowie die schnellere und mehrfache Erfassung von Gegenständen.
Viele Unternehmen sehen sich jedoch vor allem nach der Implementierung einer RFID-Infrastruktur mit einer Vielzahl von Problemen konfrontiert. Aspekte wie wenig Unterstützung durch das Management, interner Widerstand durch Mitarbeiter, Probleme bei der Integration von Hardware und Software und vor allem eine mangelnde Datenqualität verhindern, dass die prognostizierten positiven Effekte erreicht werden können. Derartige Phänomene werden passend unter dem Begriff „Credibility Gap“ zusammengefasst. Dieser beschreibt die Problematik, dass es insgesamt an Verfahren, Methoden und gezielter Unterstützung mangelt, um die in der Literatur umfangreich versprochenen positiven Effekte tatsächlich und nachhaltig zu realisieren. Passend werden die erwarteten Einsparungen und Verbesserungen durch den RFID-Einsatz oftmals als Expertenschätzungen und sogar als größtenteils rein spekulativ bezeichnet.
Das Ziel dieser Dissertation ist es, Praktikern das Erreichen der positiven RFID-Effekte zu ermöglichen. Hierzu wurden vielfältige Untersuchungen auf Basis einer langfristigen Kooperation mit einem der weltweit größten Bekleidungshändler durchgeführt, indem ein RFID-Implementierungsprojekt begleitet und intensiv mitgestaltet wurde. Zunächst wird bestätigt, dass die prognostizierten Vorteile der RFID-Technologie tatsächlich nicht allein durch die Implementierung der benötigten Infrastruktur erreicht werden können. Als Grund werden hohe Bestandsungenauigkeiten der verwendeten Bestandssysteme identifiziert, die sowohl auf technische als auch auf menschlich verursachte Fehler zurückzuführen sind. Als Folge ist die RFID-Datenqualität nicht verlässlich.
Die Dissertation setzt an den Problemen des Credibility Gap an und diagnostiziert bei einer bereits implementierten RFID-Infrastruktur zunächst die Fehler und Ursachen der mangelnden Datenqualität. Darauf aufbauend werden Maßnahmen und Handlungsanweisungen vorgestellt, mit deren Hilfe die Fehler behoben und die Infrastruktur schließlich verbessert und überwacht werden kann.
Um insgesamt die Anforderungen der Praxis und der Wissenschaft erfolgreich miteinander zu verknüpfen, wird als Forschungsmethode eine neuartige Kombination zweier Ausprägungen der Aktionsforschung verwendet. Als Ergebnis werden einerseits für Praktiker hilfreiche Frameworks und Tests zur Fehlerbehebung, Überwachungskennzahlen sowie Regeln des effektiven RFID-Systemmanagements beschrieben. Alle durchgeführten und in der Dissertation vorgestellten Maßnahmen führen nachweislich zu einer erhöhten Datenqualität eines implementierten RFID-Systems und stellen Möglichkeiten zur kennzahlenbasierten Visualisierung der RFID-Prozessperformance bereit. Andererseits wird ein Modell für die Verwendung der Aktionsforschung vorgeschlagen sowie eine umfangreiche Validierung der Methodik durchgeführt. Auf diese Weise wird neben der Praxisrelevanz der Ergebnisse auch die Präzision der Forschungsergebnisse sichergestellt.
Sämtliche Ergebnisse dienen als Basis für vielfältige Forschungsansätze. So ermöglichen eine höhere Verlässlichkeit und Datenqualität der RFID-Informationen aussagekräftigere Analysen. Weiter sind durch fehlerkorrigierte Prozessdaten neuartige Methoden des RFID-Data-Mining denkbar. Dieser Forschungsbereich ist nach wie vor größtenteils unberührt und bietet enormes Potential, weitere durch RFID in Aussicht gestellte Vorteile zu realisieren.
Kaum ein Berufsstand hat einen so schlechten Ruf wie der des professionellen Beraters. Die fachbezogenen Medien im Bereich integrierter Informationssysteme sind voll von Berichten über mangelhafte Beratungsleistungen. Die einschlägige Literatur veröffentlicht zahllose Ratgeber in Buchform, welche ihre Existenz mit dem Umstand missglückter Projekte begründen. Dabei war im Bereich der Informationstechnologie der Bedarf an kompetentem Consulting noch nie so hoch wie heute und die Tendenz steigt weiterhin. Diese Situation wurzelt in der stetigen Verrin-gerung der Innovationszyklen und der exponentiell wachsenden Zahl an technischen und wissen-schaftlichen Erkenntnissen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Verfahrens zur Unterstützung der Beratungsdienstleistungen im Umfeld der Einführung und Pflege betriebswirtschaftlicher Softwarebibliotheken. Hierbei werden bestehende Ansätze aus dem Blickwinkel der Beratung evaluiert und in die Entwicklung einbezogen. Das zu erstellende Konzept muss den Anforderun-gen der Beratung gerecht werden und flexibel wie zielgerichtet einsetzbar sein. Die Ausgangslage dieser Arbeit ist die aktuelle Situation des Beratungsmarktes im Umfeld be-triebwirtschaftlicher Softwarebibliotheken, insbesondere von SAP R/3 bzw. mySAP.com. Eine Analyse der vorherrschenden Bedingungen und der zur Unterstützung der Beratung eingesetzten Hilfsmittel zeigt, dass Consulting systematisch unbefriedigend geleistet wird. Beratung ist eine wissensorientierte Dienstleistung, die aufgrund ihrer hohen Spezifität immer individuellen Cha-rakter besitzt. Bestehende Unterstützungsansätze können gute Hilfe leisten bei der Erfüllung von Teilaufgaben, sie sind jedoch nicht imstande, die aus dem Consulting-Prozess resultierenden An-forderungen aus globaler Sicht zufriedenstellend zu erfüllen. Insbesondere bestehen aus Sicht der Kollaborationsunterstützung für die Teilnehmer Mängel. Darüber hinaus müssen die Vollstän-digkeit bzw. Integrationsfähigkeit der verschiedenen Hilfsmittel, die Flexibilität der genutzten Werkzeuge, die Reproduzierbarkeit der Ergebnisse und die Anwendung einer strategisch ausge-richteten, zyklischen Vorgehensweise als ungenügend bewertet werden. Das IANUS-Verfahren wurde konzipiert um diese Lücken zu füllen. Es greift dabei auf verschie-dene konzeptionelle Grundsätze zurück, welche die Orientierung an den Bedürfnissen der Bera-tung gewährleisten sollen. Insbesondere wird die Implementierung eines Informationskreislaufes zur Gewinnung und Aufbereitung von Informationen und Erfahrungen gefordert. Dieser wird ergänzt durch die Standardisierung von Wissen in Form von Kennzahlen und die Gewährleistung der inhaltlichen Konsistenz durch regelbasierte Verknüpfungen. Darüber hinaus ist die Integrati-on von Wissen und Anwendungsprozess entscheidend für den Nutzengewinn durch den Einsatz des Verfahrens. Aufgrund der verschiedenen Teilnehmer und ihrer unterschiedlichen Kompeten-zen ist es notwendig, die verschiedenen Perspektiven und Kenntnisse zu berücksichtigen. Nur durch die gezielte Unterstützung der Kollaboration, die Handhabbarkeit der letztendlichen An-wendungen und die inhaltliche Flexibilität des Ansatzes kann dies erreicht werden. Die Wahl des des Internet als Medium bringt den Vorteil der dezentralen Nutzbarkeit bei zentraler Speicherung, wobei die für diese technische Basis typischen Gefahren berücksichtigt und beseitigt werden müssen. Das Ergebnis der Konzeption ist eine modulare internet-basierte Komponentenbiblio-thek, welche im vorgegebenen Rahmen flexibel ist. Für spezifische Aufgabenstellungen können vorab gewidmete Anwendungsinstanzen ausgeprägt und in Beratungsprojekten eingesetzt wer-den. Die kontinuierliche Weiterentwicklung gilt dabei der iterativen Verbesserung der Anwen-dungsinstanzen und der Komponentenbibliothek. Letztendlich beweist das IANUS-Verfahren, dass eine werkzeuggestützte Verbesserung von Beratungsdienstleistungen notwendig und mach-bar sind.
Bei der vorliegenden Arbeit handelt es sich um eine Untersuchung mit dem Ziel, die Reaktionen im Umfeld von Veränderungen der Zusammensetzung der großen deutschen Aktienindizes DAX, MDAX und HDAX zu ermitteln. Da in der idealtypischen Finanztheorie eine Indexauswechslung keine bewertungsrelevante Information darstellt, jedoch in der Finanzpresse häufig über Indexauswechslungen und deren Auswirkungen auf die zugrunde liegenden Kurse spekuliert wird, sollten im Rahmen der vorliegenden Arbeit zum einen theoretische Ansatzpunkte identifiziert werden, um Indexeffekte erklären zu können; zum anderen galt es, mittels verschiedener empirischer Untersuchungen zu überprüfen, inwiefern sich die Kurse, die Liquidität und gegebenenfalls die Risikokomponenten der betreffenden Aktien durch das Indexereignis verändern. Angesichts der sich mehr und mehr verstärkenden Indexfokussierung vieler institutioneller Anleger seit der Schaffung des DAX zum Jahresende 1987 sollte auch der Frage nachgegangen werden, ob und inwiefern sich die Reaktionsmuster am Kapitalmarkt im Zeitablauf verändert haben. Da als auslösendes Moment für potentielle Indexeffekte vorrangig fremdverwaltete Wertpapierportfolios in Frage kommen, wurde neben einer theoretischen Verhaltensanalyse auch eine umfassende Umfrage unter Fondsmanagern hinsichtlich deren Indexfokussierung durchgeführt.
The analysis of how a general change, an economic shock and a modified institutional framework condition affect the HRM process, provide the motivation for the present dissertation. Thereby, the dissertation concentrates on certain areas of the HRM process, namely compensation, further training and retention, as well as changes and challenges that have been subject to a high degree of public interest in recent years. It consists of three essays, all self-contained and independently readable.
The first essay investigates whether it is possible to keep employees in the establishment by offering further training measures. Therefore, this essay uses a comparison group approach and compares only training participants with those employees who had been selected by the employer to participate in training but had to cancel it for exogenous reasons. From a methodological point of view, by means of Fixed Effects and Diff GMM estimations, the essay also controls for time-variant and invariant unobserved heterogeneity as well as endogeneity of training participation. By simultaneously considering the components from the human capital theory as well as the monopsony theory, the essay shows that portability of general human capital contents and visibility of training, induced by training certificates, independently reduce the retention effect of training. The negative effect is much stronger if training is certified by external institutions and therefore credible. In addition, the effects of visibility and portability are distinct and thus also reduce the retention effect of training separately. However, the total effect of portable, visible and credible training on retention is still positive. Therefore, further training appears to be an effective measure to keep the qualified employees in the establishment.
Second, the attention is on a short-term unpredictable economic shock: Essay 2 analyses whether and to what extent the Great Recession in 2008 and 2009 has had an impact on the individual training behaviour in establishments. From a theoretical point of view, the effects of the crisis on establishments' training activities are ambiguous. On the one hand, the reduced opportunity costs of training argue more in favour of an increase in further training. On the other hand, economic theory suggests decreasing training activities in the crisis because of reduced financial resources, uncertain future prospects, and, therefore, unclear returns on training. Using Difference-in-Differences analyses, this essay avoids endogeneity problems caused by unobservable third factors. The Great Recession in 2008 and 2009 can be seen as an exogenous and time-limited shock: this quasi-experimental setting helps to reveal the causal impact of the crisis on the training intensity and the number of training measures. Results indicate that there is a direct effect of the crisis on individual training activities in 2009 and 2010. This effect is stronger for unskilled employees than for employees with higher skill levels. Furthermore, the negative effect sets in with a time lag and lasts until the year 2010 (although there is already an economic upswing). Numerous analyses are used to check additional heterogeneities in training activities for other employee groups.
Among others, particularly the area of executive compensation was affected by the economic crisis and the ensuing regulations in institutional framework conditions. The third essay of this dissertation deals with the question whether these changes had an impact on the compensation level and structure of executive board members. The focus is on the extent to which executive compensation is converging within and between different exchange segments in Germany. Based on a sample of CEOs and non-CEOs of German DAX and MDAX establishments, the evolution of executive compensation levels and structures (i.e., fractions of base pay, short- and long-term incentives) are examined during the period from 2006 until 2012. The results of descriptive as well as multivariate Fixed Effects analyses indicate isomorphism of both, pay levels and pay structures within (intra-segment-convergence) and between (inter-segment convergence) stock exchange segments especially for CEOs. However, for the other members of the management board (non-CEOs), there is only a convergence of the compensation structure within the segments. The results do not indicate either intra- or inter-segment convergence of salary levels.
Altogether, the three essays of this dissertation provide a selection of the current changes and challenges that HRM has to deal with. From a methodological perspective, all three essays use different applied econometric estimation strategies. In order to eliminate estimation problems caused by time-invariant and variant unobserved heterogeneity and endogeneity, Fixed Effects, Diff GMM as well as Difference-in-Differences approaches are applied. In addition, sample selection, research design as well as identification strategy attempts to avoid estimation bias. The first two essays are based on a linked-employer-employee panel data set and adopt a personnel economic perspective. The third essay uses establishment-level data and is based on institutional theory. The first essay was written in cooperation with Thomas Zwick and the third essay was written in cooperation with Nathalie Haidegger-Rieß and Robert Wagner.
As a response to the growing public awareness on the importance of organisational contributions to sustainable development, there is an increased incentive for corporations to report on their sustainability activities. In parallel with this has been the development of Sustainable HRM' which embraces a growing body of practitioner and academic literature connecting the notions of corporate sustainability to HRM. The aim of this article is to analyse corporate sustainability reporting amongst the world's largest companies and to assess the HRM aspects of sustainability within these reports in comparison to environmental aspects of sustainable management and whether organisational attributes - principally country-of-origin - influences the reporting of such practices. A focus in this article is the extent to which the reporting of various aspects of sustainability may reflect dominant models of corporate governance in the country in which a company is headquartered. The findings suggest, first and against expectations, that the overall disclosure on HRM-related performance is not lower than that on environmental performance. Second, companies report more on their internal workforce compared to their external workforce. Finally, international differences, in particular those between companies headquartered in liberal market economies and coordinated market economies, are not as apparent as expected.
Bereits in der ersten Hälfte des letzten Jahrhunderts wurden rechnungswesenorientierte Unternehmensbewertungsverfahren entwickelt. Insbesondere ist in diesem Zusammenhang der auf den Theorien von Preinreich (1937) und Lücke (1955) zurückzuführende Residualgewinnansatz zu nennen, bei dem sich der Unternehmenswert aus dem Buchwert des Eigenkapitals und dem Barwert der zukünftig erwarteten Residualgewinne zusammensetzt. Darauf aufbauend entwickelte Ohlson im Jahre 1995 ein analytisches Bewertungsmodell, welches das zukünftige Verhalten der periodischen Residualgewinne anhand eines linear-autoregressiven Informationsverarbeitungsprozesses beschreibt. Durch die Einbindung dieses sog. linearen Informationsmodells (LIM) ist es möglich, zukünftige Residualgewinne praktisch unabhängig von unsicheren Prognosen ausschließlich mit Hilfe vergleichsweiser einfacher ökonometrischer Verfahren zu bestimmen. Neben den Residualgewinn enthält das Ohlson Modell noch eine weitere Bewertungsvariable, die sog. "anderen Informationen", welche zwar wertrelevante Informationen außerhalb der Rechnungslegung berücksichtigen soll, allerdings nicht näher von Ohlson spezifiziert wird. Eine Vielzahl von empirischen Untersuchungen zum Ohlson Modell und zu Weiterentwicklungen des Ohlson Modells verdeutlicht jedoch in der Folge, dass deren Implementierung in der Praxis regelmäßig zu erheblichen Problemen führt. Zum einen liegt den Verfahren eine signifikante Unterbewertungsproblematik zu Grunde und zum anderen wird durch die regelmäßige Einbindung von Analystenvorhersagen zur rechnerischen Bestimmung der „anderen Informationen“ nach Auffassung des Verfassers das Objektivitätspostulat LIM-gestützter Bewertungsmodelle verletzt. Aufbauend auf einer eingehenden Analyse bisheriger Untersuchungen zu o.g. Modellen werden daher zunächst allgemeine Kriterien für eine optimierte Modellierung der Struktur der linearen Informationsmodelle entwickelt und anschließend in die Entwicklung eines eigenen Unternehmensbewertungsmodells transformiert. Um zudem sämtliche subjektive Einflussnahme auf die Gestaltung und Höhe der "anderen Informationen" zu eliminieren, werden die "anderen Informationen" nicht mehr auf Basis wie auch immer ermittelter subjektiver Analystenvorhersagen bestimmt, sondern durch einen zielgerichteten Einsatz von fünf makroökonomischen und fünf unternehmensspezifischen Kennzahlen der Fundamentalanalyse substituiert. In der empirischen Studie werden insgesamt 118 deutsche Unternehmen des CDAX aus insgesamt elf Branchen in einem Zeitraum von 1980 bis 2003 mit dem Median als primär verwendete Messgröße berücksichtigt. Über empirische Regressionsuntersuchungen werden dann entsprechend branchenspezifisch strukturierte Bewertungsmodelle entworfen. Mit der retrograden Ermittlung der "anderen Informationen" wird ausgehend vom empirisch ermittelten Unternehmensmarktwert gemäß den gesetzten Modellprämissen rechnerisch auf den nicht durch Rechnungslegung erklärten Wertbeitrag der "anderen Informationen" geschlossen. Diese rekursiv ermittelten Werte dienen somit als Maßstab für die "richtige" Wertbeimessung der "anderen Informationen" und damit als Grundlage für die rechnerische Bestimmung der branchenspezifischen Bestimmungsmodelle für die „anderen Informationen“. Die mit Hilfe der branchenspezifischen Kennzahlenmodelle generierten Unternehmenswerte liegen dabei sowohl im Durchschnitt als auch im Median näher am tatsächlichen Unternehmenswert als bei Ausblendung der "anderen Informationen" und bei Verwendung von Analystenvorhersagen. Damit liefert der Einsatz der in dieser Untersuchung neu eingeführten, branchenspezifischen Modelle gegenüber den traditionellen Modellen überlegene Resultate. Zudem wird festgestellt, dass die auf Basis der Kennzahlenmodelle ermittelten Unternehmenswerte weniger schwanken als bei Verwendung von Analystenvorhersagen. Trotz einer mit dieser Arbeit erreichten verbesserten Abbildungfähigkeit der "anderen Informationen" erachtet der Verfasser dieser Arbeit das Konzept der LIM-gestützten Unternehmensbewertung aufgrund der festgestellten Mängel im Zuge der praktischen Umsetzung den heute gebräuchlichen Bewertungsverfahren wie z.B. dem DCF oder dem Ertragswertverfahren als noch immer deutlich unterlegen.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Mit der Einführung von Basel II erhalten ab dem 01. Januar 2007 nahezu alle fremdfinan¬zierten Unterneh¬men im Rahmen einer Ratinga¬nalyse eine individuelle Bewertung ihrer Bo¬nität. Wie die Ratinganalyse haben sich auch die gesetzlichen Vertreter im Rahmen der Lageberichterstattung und der Abschlussprüfer im Rahmen seiner Prüfungs¬pflichten mit der Bestandskraft des zu prüfenden Unternehmens auseinander zu setzen. Es stellt sich insofern die Frage nach dem Einfluss von Ratinganalysen auf die Rechnungslegung und Abschlussprüfung. Die Untersuchung zeigt, dass im Hinblick auf die gesetzliche Forderung nach einer umfassenden Risikoberichterstattung in § 289 Absatz 1 HGB die gesetzlichen Vertre¬ter die Ratinganalyse insbesondere bei Anzeichen für eine Be¬standsgefahr in der Bericht¬er¬stattung über Risiken der voraussichtlichen Entwicklung zu verwerten, das Rating als Informationsquelle sowie die Risikoeinstufung zu nen¬nen haben. Aus Sicht des Abschlussprüfers können Ra¬tinganalysen als Indikator für die zukünf¬tige Bonität der Gesellschaft eine entschei¬dende und objektive Grundlage für die Bewertung des Insolvenzrisikos beim geprüf¬ten Unternehmen spielen und ihn bei der Beurteilung der Lagedar¬stellung sinnvoll unterstüt¬zen. Unter Beachtung der gesetzlichen und be¬rufsständi¬schen Normen sind demzu¬folge Ratingergebnisse – insbesondere bei Anzeichen einer Bestandsgefährdung – vom Ab¬schlussprüfer zwingend bei der Abschlussprüfung zu verwerten. Demzufolge ist dem Abschlussprüfer be¬züglich der Ratingunterlagen von Seiten der Unternehmensleitung auch ein Einsichts¬recht aus § 320 HGB zu gewähren. Die Ratingerkenntnisse kann der Abschlussprüfer darüber hinaus auch im Rahmen der Prüfungsplanung nutzen, denn die individu¬elle Risikosituation des Unternehmens hat erheblichen Einfluss auf das Prü¬fungsvorgehen. Ferner hat sich der Abschlussprüfer bei der Erwartungsbildung be¬züglich des Vorhandenseins bzw. des Grades der Bestandsgefahr an der Ratinganalyse zu orientieren, um die Aus¬führungen der gesetzlichen Vertreter im Anschluss daran im Lichte seiner Erwartun¬gen zu hinterfragen. Aus den Ergebnissen dieser Soll-Ist-Verprobung folgen dann ent¬sprechende Konsequenzen für die Berichterstattung des Abschlussprüfers. So ist, bei unzureichenden Ausführungen im Lagebericht, im Prü¬fungsbericht auf die Bestandsge¬fahr und die mangelnde Verarbeitung der Ratinger¬gebnisse hinzuweisen; der Bestäti¬gungsvermerk ist mit einem Hinweis auf die Ratingergebnisse einzuschrän¬ken. Wird dagegen im Lagebericht im Einklang mit der Ra¬tinganalyse zutreffend über die dro¬hende Bestandsgefahr berichtet, so sind dennoch im Prüfungsbericht nochmals die Ri¬siken der künftigen Entwicklung anzugeben. Im Bestätigungsvermerk ist zu er¬läutern, dass sich die Darstellung der Bestandsrisiken mit dem Ratingergebnis deckt. Wird dem Abschlussprüfer dagegen die Einsicht in die Ratinganalyse verweigert, so ist im Prüfungsbericht auf die Weigerung einzugehen und bei Anzeichen einer Be¬standsgefahr darüber hinaus der Redepflicht nachzukom¬men. Der Bestätigungsver¬merk sollte in solchen Fällen mit der verbalen Einschrän¬kung versehen werden, dass die Beurteilung ohne Einsicht in die Ratingunterlagen er¬folgen musste.
Eine Vielzahl von Ökonomen untersucht mit Hilfe verschiedener theoretischer Modelle, inwiefern Steuern Einfluss auf wirtschaftliche Entscheidungen haben. Eine grundlegende Annahme in diesen Modellen ist dabei die Abwesenheit von Fehlwahrnehmungen. Ziel dieser Arbeit ist es, systematische Fehlwahrnehmungen hinsichtlich steuerlicher Einflussgrößen aufzuspüren, die zu einer Verletzung dieser Annahme führen. Nach einem ausführlichen Literaturüberblick, in dem insbesondere experimentelle Beiträge betrachtet werden, die den Einfluss von Steuern auf ökonomische Entscheidungen untersuchen, wird im ersten Teil dieser Arbeit mit Hilfe von zwei Laborexperimenten analysiert, ob Individuen Investitionsentscheidungen unter der Berücksichtigung von Steuern treffen. Und wenn ja, ob die steuerlichen Einflussgrößen so wahrgenommen werden, wie sie tatsächlich wirken. Der zweite Teil dieser Arbeit beschäftigt sich mit der Fragestellung, ob und in welchem Ausmaß Steuern bei Arbeitsangebotsentscheidungen berücksichtigt werden. Hierzu werden ebenfalls zwei Laborexperimente durchgeführt, in denen jeweils der Einfluss einer Einkommensbesteuerung und deren Wahrnehmung auf die Arbeit-Freizeit-Entscheidungen untersucht wird. Im ersten Experiment des ersten Teils bestand die Aufgabe der Teilnehmer darin, in mehreren Entscheidungssituationen binäre Investitionsentscheidungen zu treffen, wobei in verschiedenen Treatments die steuerliche Behandlung von Gewinnen und Verlusten variiert wurde. Im Ergebnis zeigt sich zwar, dass die Individuen bei ihren Investitionsentscheidungen Steuern berücksichtigen, doch unterliegen sie einer Art von Illusion hinsichtlich der Wirkungsweise des steuerlichen Verlustausgleichs. So zeigt sich im Fall ohne Einkommensbesteuerung und im Fall einer proportionalen Einkommensteuer ohne die Möglichkeit eines Verlustausgleichs, dass die Anzahl der riskanten Investitionsentscheidungen nicht signifikant von der Anzahl risikoarmer Entscheidungen verschieden ist. Allerdings kommt es in den Fällen einer Einkommensbesteuerung mit unvollständigem Verlustausgleich zu einem starken Anstieg riskanter Entscheidungen, was letztlich auf eine Überschätzung der Wirkung des Verlustausgleichs zurückzuführen ist. Dies bedeutet, dass die Teilnehmer die Wirkung des steuerlichen Verlustausgleichs positiver wahrnehmen, als dies tatsächlich der Fall ist. Beim zweiten Laborexperiment sollten die Teilnehmer eine Entscheidung über die genaue Höhe einer Investition treffen. In verschiedenen Treatments wurden dabei der Einfluss einer Besteuerung mit vollständigem Verlustausgleich und die Art der Steuerpräsentation auf das Investitionsverhalten untersucht. Im Ergebnis wurde beobachtet, dass die Teilnehmer eine höhere Bereitschaft zur Risikoübernahme besitzen, wenn eine Besteuerung erfolgt, was erneut auf eine Fehlwahrnehmung der Besteuerung zurückgeführt werden kann. Unter Berücksichtigung der Erkenntnisse des ersten Experiments kann geschlussfolgert werden, dass der Anstieg der Risikobereitschaft durch eine Überbewertung des steuerlichen Verlustausgleichs verursacht wird. Ein weiteres Ergebnis der zweiten Studie ist, dass das Tax Framing die Wahrnehmung der Steuer beeinflusst. Im Unterschied zu einer aggregierten Besteuerung führt eine gleichwertige disaggregierte Besteuerung dazu, dass die Fehlwahrnehmung der Besteuerung im Zeitablauf nahezu verschwindet. Gegenstand der Untersuchung im zweiten Teil der Arbeit war die Fragestellung, ob Individuen bei ihren Arbeitsangebotsentscheidungen Steuern so berücksichtigen wie diese theoretisch wirken oder ob Fehlwahrnehmungen existieren. Hierzu wurden zwei Laborexperimente mit berufstätigen Personen durchgeführt, in denen die Arbeitsaufgabe jeweils darin bestand, Briefpapier zu falten und zu kuvertieren. Da während des Experiments keine zeitliche Restriktion bestand, entschied ein Teilnehmer nicht nur darüber wie viele Briefe er bearbeiten möchte, sondern auch wie lange er dieser Tätigkeit nachgehen will. Demzufolge stellt diese Arbeitsaufgabe eine reale Arbeitsanforderung dar, verursacht ein reales Arbeitsleid und jeder Teilnehmer muss eine reale Arbeit-Freizeit-Entscheidung treffen. Als zentrales Ergebnis beider Laborexperimente lässt sich Folgendes zusammenfassen: Neben dem Arbeitsleid und dem Einkommen scheint die Steuerwahrnehmung einen entscheidenden Einfluss auf die Arbeit-Freizeit-Entscheidung zu haben. Bei einer geringen Steuerwahrnehmung wird die Steuer nicht in dem Ausmaß berücksichtigt wie sie tatsächlich wirkt, was letztendlich zu verzerrten Arbeitsangebotsentscheidungen führt. Die Steuerwahrnehmung ist dabei zum einen abhängig von der Darstellung des Steuertarifs und zum anderen von der Steuererfahrung eines Individuums. Beide Einflussgrößen haben einen positiven Einfluss auf die individuelle Steuerwahrnehmung, das heißt, je deutlicher und transparenter die Besteuerung dargestellt wird bzw. je größer die individuelle Erfahrung im Umgang mit Steuern ist, desto höher ist die Steuerwahrnehmung.
Im Rahmen dieser Arbeit wird rationales Herdenverhalten anhand der Informationskaskadenmodelle sowie der Reputationsmodelle (Prinzipal-Agent-Kontext bei Existenz relativer Leistungsbewertung) analysiert. Im Bereich der Theorie wird die Frage beantwortet, welche Annahmen unverzichtbar sind für das Auftreten von Herdenverhalten. Bezüglich der Empirie werden zwei Fragestellungen untersucht. Zum einen wird analysiert, dass vorliegende, spezifische empirische Befunde zum Herdenverhalten eher mit Hypothesen vereinbar sind, die aus dem Informationskaskadenmodell abgeleitet werden. Zum anderen wird dargestellt, dass die empirisch festgestellte, unterschiedliche Neigung zum Herdenverhalten für Fondsmanager, Analysten und Topmanager mit der Vergütungsstruktur dieser Akteure erklärt werden kann. Zuletzt wird bei der Untersuchung von Lösungsansätzen bei beiden Modellansätzen nach Mechanismen gesucht, die die negativen Konsequenzen aus dem Auftreten von rationalem Herdenverhalten abmildern können. Hierbei werden verschiedene Ansätze diskutiert. Beispielsweise können im Informationskaskadenmodell Fehlentscheidungen der Akteure verhindert werden, wenn öffentlich verfügbare Information zur Verfügung gestellt wird. Das Hauptergebnis der Analyse ist, dass bei der Diskussion von Lösungsansätzen ein Kosten/Nutzen-Kalkül beachtet werden muss.
Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen.
The study considers the application of text mining techniques to the analysis of curricula for study programs offered by institutions of higher education. It presents a novel procedure for efficient and scalable quantitative content analysis of module handbooks using topic modeling. The proposed approach allows for collecting, analyzing, evaluating, and comparing curricula from arbitrary academic disciplines as a partially automated, scalable alternative to qualitative content analysis, which is traditionally conducted manually. The procedure is illustrated by the example of IS study programs in Germany, based on a data set of more than 90 programs and 3700 distinct modules. The contributions made by the study address the needs of several different stakeholders and provide insights into the differences and similarities among the study programs examined. For example, the results may aid academic management in updating the IS curricula and can be incorporated into the curricular design process. With regard to employers, the results provide insights into the fulfillment of their employee skill expectations by various universities and degrees. Prospective students can incorporate the results into their decision concerning where and what to study, while university sponsors can utilize the results in their grant processes.
This thesis examines the application of intrinsic value models considering segmentation between foreign and domestic investors’ stock segments in China. Within the framework of international portfolio investment theory, segment-specific price differences are theorized to be not caused by irrational behavior but consistent with economic theory. Theoretical comparison of equilibrium and intrinsic value models suggests the latter to be more suitable regarding the Chinese market environment. Correspondingly, in this thesis the relevance of intrinsic value models for Chinese stock prices is examined empirically. It is concluded that price differences can be ascribed to unequal investment opportunities and segment specific characteristics. Nevertheless, results from the domestic and Hong Kong risk-free rate proxy lead to the conclusion that intrinsic value models cannot be considered better suited than linear factor models.
Die gegenwärtig im öffentlichen Sektor zu verzeichnende breite Akzeptanz betriebswirt-schaftlicher Standardanwendungssoftware (SAS) ist nicht zuletzt in der Hoffnung begründet, durch die in ihr inkorporierten und sich bewährten privatwirtschaftlichen Methoden die Steue-rungsprobleme der Politik und Verwaltung lösen zu können. Aus der primär konzeptionellen Ausrichtung der betriebswirtschaftlichen SAS auf die Lösung von ökonomischen Aufgaben in kommerziellen Unternehmen ergeben sich jedoch Funktionslücken in Bezug auf die ganzheit-liche Steuerung von Verwaltungsprozessen. Die Standardsoftware als Organisator des betrieb-lichen Ablaufs in Unternehmen kann diese Funktion in der öffentlichen Verwaltung nicht in vollem Umfang erfüllen. Dem Einsatz der Informations- und Kommunikations- (IuK-)Technologie in der öffentlichen Verwaltung kommt aber eine außerordentliche Bedeutung zu, denn nichts kann wertneutraler und effizienter eindeutig geregelte bürokratische Verfahren vollziehen als eine Software. Die stärkere Automatisierung von Verwaltungsprozessen ist folglich ein beträchtlicher Beitrag zur Schaffung einer friedlichen Koexistenz zwischen der Bürokratie und privatwirtschaftlichen Managementtechniken. Die vorliegende Untersuchung zeigt daher die Möglichkeiten und Grenzen des Einsatzes be-triebswirtschaftlicher Anwendungssysteme in der öffentlichen Verwaltung. Die vorhandenen Funktionsdefizite werden primär unter dem Gesichtspunkt der operativen und strategischen Steuerung des administrativen Handelns systematisch identifiziert. Darauf aufbauend erfolgt eine Konzeption der integrierten und intelligenten Erfassung von Leistungs- und Wirkungsda-ten in der öffentlichen Verwaltung, um eine Informationsbasis für das Controlling zu schaffen und dieses auch zu institutionalisieren.
This paper shows that labor demand plays an important role in the labor market reactions to a pension reform in Germany. Employers with a high share of older worker inflow compared with their younger worker inflow, employers in sectors with few investments in research and development, and employers in sectors with a high share of collective bargaining agreements allow their employees to stay employed longer after the reform. These employers offer their older employees partial retirement instead of forcing them into unemployment before early retirement because the older employees incur low substitution costs and high dismissal costs.
Novel deep learning (DL) architectures, better data availability, and a significant increase in computing power have enabled scientists to solve problems that were considered unassailable for many years. A case in point is the “protein folding problem“, a 50-year-old grand challenge in biology that was recently solved by the DL-system AlphaFold. Other examples comprise the development of large DL-based language models that, for instance, generate newspaper articles that hardly differ from those written by humans. However, developing unbiased, reliable, and accurate DL models for various practical applications remains a major challenge - and many promising DL projects get stuck in the piloting stage, never to be completed. In light of these observations, this thesis investigates the practical challenges encountered throughout the life cycle of DL projects and proposes solutions to develop and deploy rigorous DL models.
The first part of the thesis is concerned with prototyping DL solutions in different domains. First, we conceptualize guidelines for applied image recognition and showcase their application in a biomedical research project. Next, we illustrate the bottom-up development of a DL backend for an augmented intelligence system in the manufacturing sector. We then turn to the fashion domain and present an artificial curation system for individual fashion outfit recommendations that leverages DL techniques and unstructured data from social media and fashion blogs. After that, we showcase how DL solutions can assist fashion designers in the creative process. Finally, we present our award-winning DL solution for the segmentation of glomeruli in human kidney tissue images that was developed for the Kaggle data science competition HuBMAP - Hacking the Kidney.
The second part continues the development path of the biomedical research project beyond the prototyping stage. Using data from five laboratories, we show that ground truth estimation from multiple human annotators and training of DL model ensembles help to establish objectivity, reliability, and validity in DL-based bioimage analyses.
In the third part, we present deepflash2, a DL solution that addresses the typical challenges encountered during training, evaluation, and application of DL models in bioimaging. The tool facilitates the objective and reliable segmentation of ambiguous bioimages through multi-expert annotations and integrated quality assurance. It is embedded in an easy-to-use graphical user interface and offers best-in-class predictive performance for semantic and instance segmentation under economical usage of computational resources.
Bioimages frequently exhibit low signal-to-noise ratios due to experimental conditions, specimen characteristics, and imaging trade-offs. Reliable segmentation of such ambiguous images is difficult and laborious. Here we introduce deepflash2, a deep learning-enabled segmentation tool for bioimage analysis. The tool addresses typical challenges that may arise during the training, evaluation, and application of deep learning models on ambiguous data. The tool’s training and evaluation pipeline uses multiple expert annotations and deep model ensembles to achieve accurate results. The application pipeline supports various use-cases for expert annotations and includes a quality assurance mechanism in the form of uncertainty measures. Benchmarked against other tools, deepflash2 offers both high predictive accuracy and efficient computational resource usage. The tool is built upon established deep learning libraries and enables sharing of trained model ensembles with the research community. deepflash2 aims to simplify the integration of deep learning into bioimage analysis projects while improving accuracy and reliability.
The impact of sustainable supply chain management practices on performance metrics – A meta-analysis
(2017)
Die vorliegende Arbeit untersucht mittels einer Meta-Analyse den Zusammenhang zwischen nachhaltigkeitsorientierter Supply Chain-Aktivitäten und der Unternehmensperformance. Es sollen auf Grundlage einer breiten Datenbasis aus den Jahren 2000 bis 2013 fundierte und aussagekräftige Zusammenhänge zwischen ökologisch nachhaltigen Supply Chain Aktivitäten und deren Wirkung auf unterschiedliche Bereiche der Unternehmensperformance hergestellt werden
Die Unabhängigkeit des Abschlussprüfers ist von anhaltender Relevanz, wird jedoch immer wieder in Frage gestellt. Der Fokus von Regulierungsbehörden und Forschung liegt auf kapitalmarktorientierten Unternehmen. Die Unabhängigkeit kann besonders gefährdet sein, wenn Schutzmechanismen, wie z. B. die Haftung oder das Risiko eines Reputationsverlustes, besonders schwach ausgeprägt sind. Es kann abgeleitet werden, dass bei privaten Unternehmen das Risiko eines Reputationsverlustes im Vergleich zu kapitalmarktorientierten Unternehmen geringer ist. Weiterhin ist das Haftungsrisiko für den Abschlussprüfer in Deutschland verglichen mit angelsächsischen Ländern geringer.
Damit untersucht die Arbeit die Unabhängigkeit in einem Umfeld, in dem diese besonders gefährdet ist. Als Surrogat wird die Wahrscheinlichkeit einer Going-Concern-Modifikation („GCM“) herangezogen. GCM können als Indikator für die Prüfungsqualität besonders geeignet sein, da sie ein direktes Ergebnis der Tätigkeit des Abschlussprüfers sind und von ihm formuliert und verantwortet werden. Für das Surrogat GCM ist für Deutschland im Bereich der privaten Unternehmen bislang keine Studie bekannt.
Traditional fashion retailers are increasingly hard-pressed to keep up with their digital competitors. In this context, the re-invention of brick-and-mortar stores as smart retail environments is being touted as a crucial step towards regaining a competitive edge. This thesis describes a design-oriented research project that deals with automated product tracking on the sales floor and presents three smart fashion store applications that are tied to such localization information: (i) an electronic article surveillance (EAS) system that distinguishes between theft and non-theft events, (ii) an automated checkout system that detects customers’ purchases when they are leaving the store and associates them with individual shopping baskets to automatically initiate payment processes, and (iii) a smart fitting room that detects the items customers bring into individual cabins and identifies the items they are currently most interested in to offer additional customer services (e.g., product recommendations or omnichannel services). The implementation of such cyberphysical systems in established retail environments is challenging, as architectural constraints, well-established customer processes, and customer expectations regarding privacy and convenience pose challenges to system design. To overcome these challenges, this thesis leverages Radio Frequency Identification (RFID) technology and machine learning techniques to address the different detection tasks. To optimally configure the systems and draw robust conclusions regarding their economic value contribution, beyond technological performance criteria, this thesis furthermore introduces a service operations model that allows mapping the systems’ technical detection characteristics to business relevant metrics such as service quality and profitability. This analytical model reveals that the same system component for the detection of object transitions is well suited for the EAS application but does not have the necessary high detection accuracy to be used as a component of an automated checkout system.
Einführung und kontinuierliche Adaption von betriebswirtschaftlichen Data-Warehouse-Bibliotheken
(2001)
Zielsetzung und Thesenbildung Zielsetzung der Arbeit ist es, ein ganzheitliches, werkzeuggestütztes Verfahren für die Einführung eines Data Warehouse (DW) zu konzipieren. Es wird dabei auf vorhandene Vorgehensmodelle zurückgegriffen, so dass nicht sämtliche Bestandteile vollständig neu zu entwickeln sind. Der Fokus der vorliegenden wissenschaftlichen Arbeit liegt auf den nachfolgend erläuterten Schwerpunkten. Innovative Data-Warehouse-Lösungen Entgegen der in der Literatur verbreiteten Meinung, dass es sich bei einer DW-Lösung um keine Standardanwendungssoftware handelt und diese nicht „von der Stange zu kaufen“ ist, wird im Folgenden gerade das Phänomen von Standardsoftware im DW-Bereich untersucht. Der Verfasser beschäftigt sich mit der Frage, inwieweit sich der Trend der 90er Jahre, Individual- durch Standardsoftware abzulösen, auch im DW-Bereich fortsetzen kann. Neben der Darstellung der bisherigen DW-Konzepte wird untersucht, ob ein neuer Typus DW den Wandel von einer Individual- hin zu einer Standardsoftware bewirken kann. Die wesentlichen Kriterien zur Kennzeichnung des neuen Konzepts werden herausgearbeitet und die am Markt bestehenden Produkte überprüft, inwieweit sie die aufgestellten Anforderungen erfüllen. Vorgehensmodell Die Vorgehensweise bei der Einführung eines DW wird anschließend problematisiert. Die methodische und technische Unterstützung in diesem Bereich, die bislang ebenfalls vernachlässigt werden, bilden einen weiteren Hauptbestandteil der Arbeit. Dabei werden adäquate Vorgehensweisen und -methoden aufgezeigt und bewertet. Die Ergebnisse hieraus und aus der Bewertung der bisherigen DW-Konzepte bilden die Grundlage für eine neue Vorgehensweise. Damit ist die Basis für das DELOS-Verfahren (Data-Warehouse-Einführung und Lokalisierung des Informationsbedarfs anhand operativer betriebswirtschaftlicher Softwarebibliotheken) geschaffen. Zusätzlich zu den bislang aufgestellten Anforderungen wird überprüft, inwieweit sich der Continuous-System-Engineering-Ansatz (CSE-Ansatz) auf den Bereich der Datenlagerhäuser übertragen lässt und diese im Zeitablauf kontinuierlich verbessert werden können. Informationsbedarfsanalyse Der Fokus wird auf den in der Literatur bislang vernachlässigten Schritt der IBA und ihrer informationstechnologischen Unterstützung gelegt. Die in der Literatur und Praxis bislang bekannten Methoden und Werkzeuge werden nach einer Vorauswahl auf ihre Anwendbarkeit im DW-Umfeld überprüft. Der Aufbau eines umfassenden Metadaten-Modells ist und kann nicht Ziel dieser Arbeit sein. Aufbau der Arbeit In der vorliegenden Arbeit wird der neue Typ der „betriebswirtschaftlichen Data-Warehouse-Bibliothek (DWB)“ definiert. Dazu werden die am Markt zu findenden Produktgruppen im DW-Umfeld herausgearbeitet und deren wesentliche Eigenschaften erläutert. Im Anschluss wird anhand der betrachteten DW-Lösungen geprüft, inwieweit diese den Anforderungen an eine betriebswirtschaftliche DWB gerecht werden. Nachdem der Begriff der DWB begründet und charakterisiert wurde, müssen die Anforderungen an die Adaption eines DW aufgezeigt werden. Die besonderen Eigenschaften der DWB bilden die Grundlage für den weiteren Verlauf der Arbeit. Im Mittelpunkt der weiteren Analyse steht die Frage nach einer möglichst geeigneten Einführungsunterstützungsmethodik. Die Vorgehensmodelle zur Einführung betriebswirtschaftlicher Standardsoftware AcceleratedSAP (ASAP) und Chestra werden erläutert und bewertet. Daran schließt sich eine kritische Würdigung ausgewählter IBA-Methoden an. Die Ergebnisse werden anschließend zur Konzeption und Umsetzung des DELOS-Verfahrens verwendet. Mit DELOS werden die Schwachpunkte der Vorgehensmodelle aus den vorangegangenen Kapiteln beseitigt. Dies bedeutet, dass z. B. die verwendbaren Bestandteile von ASAP und Chestra nicht neu konzipiert und entwickelt werden, sondern Wege aufgezeigt werden, wie diese im Sinne einer effektiven Einführungsmethodik ergänzt werden können. Danach wird die Umsetzung und der Einsatz des DELOS-Verfahrens im DW-Projekt geschildert. Es werden verschiedene Projektverläufe und die konkrete Anwendung der einzelnen Methoden aufgezeigt. Die bisherigen Erfahrungen beim Einsatz des Instrumentariums fließen in die Argumentation ein und die Besonderheiten bei der Anwendung werden herausgearbeitet. Mit der Evaluierung der angestellten Überlegungen schließt die Arbeit. Die Projekttauglichkeit wird getestet und das DELOS-Verfahren kritisch bewertet. Abschließend werden die Implikationen des konzipierten Verfahrens auf zukünftige Projekte und Anwendungsgebiete diskutiert und weitere Einsatzmöglichkeiten aufgezeigt.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
Die vorliegende Arbeit untersucht empirisch, inwieweit neoklassische Theorien wie die Erwartungsnutzentheorie, die individuellen Reaktionen auf die Einführung einer proportionalen Einkommensteuer und die Veränderung der steuerlichen Verlustausgleichsmöglichkeiten erklären. Darüber hinaus soll auch eine möglicherweise verzerrte Wahrnehmung der steuerlichen Regelungen aufgedeckt und in die Analyse des beobachteten Investitionsverhaltens einbezogen werden. Die Umsetzung erfolgt mittels eines kontrollierten Labor-Experimentes. Die gewählte Forschungsmethode erlaubt die Unterscheidung von Rationalen Steuereffekten, d.h. Effekte, die neoklassische Theorien erwarten lassen und steuerbedingten Perzeptionseffekten, d.h. Effekte, die auf steuerbedingte Wahrnehmungsverzerrungen zurückzuführen sind. Wird für den Perzeptionseffekt kontrolliert, kann sowohl die theoretisch ermittelte Wirkung einer proportionalen Einkommensteuer mit vollständigem als auch ohne steuerlichem Verlustausgleich auf riskante Investitionen empirisch bestätigt werden. Dagegen stehen die beobachteten Investitionsentscheidungen teilweise im Widerspruch zu den Ergebnissen der theoretischen Arbeiten, wenn auf eine Kontrolle für den Perzeptionseffekt verzichtet wird.
Hieran anknüpfend, werden im Rahmen eines zweiten Experimentes Ursachen steuerbedingter Wahrnehmungsverzerrungen und deren Wirkung auf die Bereitschaft, riskant zu investieren, näher beleuchtet. Für eine tiefgreifende Analyse des möglichen Perzeptionseffekts einer proportionalen Steuer mit vollständigem Verlustausgleich wird die bestehende verhaltenswissenschaftliche Steuerforschung erweitert und zwischen extrinsischen und intrinsischen Faktoren differenziert. Das durchgeführte Experiment verdeutlicht, dass die betrachtete proportionale Steuer das riskante Investitionsverhalten verzerrt. Jedoch ist die steuerbedingte Verzerrung, der Perzeptionseffekt, umso geringer, je niedriger das Niveau an kognitiver Belastung ist. Die abnehmende Verzerrung des Entscheidungsverhaltens scheint auf eine ebenfalls abnehmende Verwendung ungenauer Entscheidungs-Heuristiken zurückzuführen zu sein. Die dagegen unabhängig von dem Niveau an Steuer-Komplexität bzw. Steuer-Salienz beobachtete Zunahme der riskanten Investitionsbereitschaft nach Erhebung der proportionalen Steuer spiegelt sich in der steuerbedingten Veränderung der affektiven und kognitiven Wahrnehmung wider.
In den zwei experimentalökonomischen Analysen wird die Allokation gegebener Mittel auf riskante und sichere Anlagen betrachtet. Daneben werden aber sowohl Unternehmen als auch Privatpersonen mit sich ausschließenden Investitionsalternativen konfrontiert. Beide Fälle haben gemeinsam, dass im maßgeblichen Entscheidungskalkül die geltenden steuerlichen Regelungen grundsätzlich zu berücksichtigen sind. Jedoch postuliert die betriebswirtschaftliche Steuerforschung, dass bei einer Entscheidung zwischen sich ausschließenden Investitionsalternativen die Besteuerung vernachlässigt werden kann, wenn diese keine Wirkung entfaltet. Hieran anknüpfend, wird ein Konzept entscheidungsneutraler und gleichmäßiger Gewinnbesteuerung entwickelt, das auch bei unvollkommener Voraussicht praktikabel, rechtssicher und mit einer Gewinnermittlung durch nominalen Vermögensvergleich vereinbar sein soll. In Anlehnung an König (1997 a), lässt sich zeigen, dass ein Verfahren revolvierender Ertragswertkorrektur bei zusätzlicher Erfassung des Kapitalwertes diese Anforderungen erfüllt. Das rechnerisch komplexe Vorgehen kommt dabei – unter bestimmten Annahmen – im Ergebnis der Gewinnermittlung durch Vermögensvergleich nach geltendem Steuerrecht sehr nahe. Infolgedessen wird auch das theoretisch bislang ungelöste Problem des zeitlichen Bezugspunktes der Besteuerung vernachlässigbar.
Moderne betriebswirtschaftliche Softwarelösungen speichern in den Systemeinstellungen und Tabelleneinträgen eine sehr große Menge des unternehmensspezifischen Wissens über Geschäftsabläufe und Organisationsstrukturen. Der vermehrte Einsatz unterschiedlicher Lösungen zur Abbildung der internen Prozesse auf der einen und zur Öffnung der Geschäftstätigkeiten im Bereich des Electronic Business (e-Business) auf der anderen Seite stellt neue Heraus-forderungen an die Methoden und Konzepte zur Einführung bzw. Betreuung der eingesetzten Systeme. Im Rahmen der Arbeit wird untersucht, welche Schritte notwendig sind, um eine transparente Speicherung und Nutzung des vorhandenen Wissens sowie der gesammelten Informationen system- bzw. methodenübergreifend sicherzustellen und wie die bestehenden Ansätze aus dem Bereich der Softwareadaption in den Gesamtkontext integriert werden können. Kernpunkte sind die methodische Unterstützung einer zielgerichteten Navigation durch die Informationsflut und die Entwicklung eines geeigneten Instrumentariums, das in der Lage ist, heterogene Softwarelandschaften abzubilden und als Dokumentationsbasis für zukünftige Systemmodifikationen zu dienen.
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance.
Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques.
For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario.
From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice.
In our globalized world, companies operate on an international market. To concentrate on their main competencies and be more competitive, they integrate into supply chain networks. However, these potentials also bear many risks. The emergence of an international market also creates pressure from competitors, forcing companies to collaborate with new and unknown companies in dynamic supply chain networks. In many cases, this can cause a lack of trust as the application of illegal practices and the breaking of agreements through complex and nontransparent supply chain networks pose a threat.
Blockchain technology provides a transparent, decentralized, and distributed means of chaining data storage and thus enables trust in its tamper-proof storage, even if there is no trust in the cooperation partners. The use of the blockchain also provides the opportunity to digitize, automate, and monitor processes within supply chain networks in real time.
The research project "Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken" (PIMKoWe) addresses this issue. The aim of this report is to define requirements for such a collaboration platform. We define requirements based on a literature review and expert interviews, which allow for an objective consideration of scientific and practical aspects. An additional survey validates and further classifies these requirements as “essential”, “optional”, or “irrelevant”. In total, we have derived a collection of 45 requirements from different dimensions for the collaboration platform.
Employing these requirements, we illustrate a conceptual architecture of the platform as well as introduce a realistic application scenario. The presentation of the platform concept and the application scenario can provide the foundation for implementing and introducing a blockchain-based collaboration platform into existing supply chain networks in context of the research project PIMKoWe.
Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen.
Robotic process automation is a disruptive technology to automate already digital yet manual tasks and subprocesses as well as whole business processes rapidly. In contrast to other process automation technologies, robotic process automation is lightweight and only accesses the presentation layer of IT systems to mimic human behavior. Due to the novelty of robotic process automation and the varying approaches when implementing the technology, there are reports that up to 50% of robotic process automation projects fail. To tackle this issue, we use a design science research approach to develop a framework for the implementation of robotic process automation projects. We analyzed 35 reports on real-life projects to derive a preliminary sequential model. Then, we performed multiple expert interviews and workshops to validate and refine our model. The result is a framework with variable stages that offers guidelines with enough flexibility to be applicable in complex and heterogeneous corporate environments as well as for small and medium-sized companies. It is structured by the three phases of initialization, implementation, and scaling. They comprise eleven stages relevant during a project and as a continuous cycle spanning individual projects. Together they structure how to manage knowledge and support processes for the execution of robotic process automation implementation projects.
Due to computational advances in the past decades, so-called intelligent systems can learn from increasingly complex data, analyze situations, and support users in their decision-making to address them. However, in practice, the complexity of these intelligent systems renders the user hardly able to comprehend the inherent decision logic of the underlying machine learning model. As a result, the adoption of this technology, especially for high-stake scenarios, is hampered. In this context, explainable artificial intelligence offers numerous starting points for making the inherent logic explainable to people. While research manifests the necessity for incorporating explainable artificial intelligence into intelligent systems, there is still a lack of knowledge about how to socio-technically design these systems to address acceptance barriers among different user groups. In response, we have derived and evaluated a nascent design theory for explainable intelligent systems based on a structured literature review, two qualitative expert studies, a real-world use case application, and quantitative research. Our design theory includes design requirements, design principles, and design features covering the topics of global explainability, local explainability, personalized interface design, as well as psychological/emotional factors.
We investigate how the demographic composition of the workforce along the sex, nationality, education, age and tenure dimensions affects job switches. Fitting duration models for workers’ job‐to‐job turnover rate that control for workplace fixed effects in a representative sample of large manufacturing plants in Germany during 1975–2016, we find that larger co‐worker similarity in all five dimensions substantially depresses job‐to‐job moves, whereas workplace diversity is of limited importance. In line with conventional wisdom, which has that birds of a feather flock together, our interpretation of the results is that workers prefer having co‐workers of their kind and place less value on diverse workplaces.
Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen.
Diese Arbeit untersucht Literatur Reviews (LRs) im Forschungsfeld des Supply Chain Managements (SCM). Hierfür werden zunächst die methodischen und terminologischen Grundlagen der Analyse erarbeitet sowie taxonomische und thematische Klassifikati-onsschemata vergleichend gegenübergestellt. Anschließend werden der LR-Prozess dieser Untersuchung und ausgewählte Evaluationsdimensionen definiert. Auf diesen grundlegenden Vorarbeiten aufbauend werden LRs des SCM identifiziert, klassifiziert und umfassend bewertet. Die Forschungsergebnisse zeigen, dass es narrativen LRs teil-weise an methodischer Genauigkeit mangelt und infolgedessen die Technik des syste-matischen LR zunehmend an Bedeutung gewinnt. Darüber hinaus dient diese Arbeit als Bewertungsraster zur Evaluation der methodischen Güte von LRs, als Leitlinie zur Er-stellung von systematischen LRs und als State-of-the-Art der Sekundärforschung im SCM.
Das vorliegende Working Paper untersucht die Performancewirkung eines multi-dimensionalen Strategie-Alignments in der Beschaffung. Hierfür wird zunächst ein Systematischer Literatur Review durchgeführt und der Wissenstand im Forschungsfeld erhoben. Die systematische Klassifikation, Analyse, Bewertung und Synthese der identifizierten 29 empirischen Studien erfolgt dabei auf der Grundlage eines konzeptionellen Frameworks und zugehöriger Inhaltskategorien sowie weiterer methodischer Vergleichsgrößen. Die Ergebnisse dieser Untersuchung zeigen nachdrücklich auf, dass eine Abstimmung, Harmonisierung und Verbindung von Beschaffungsstrategien (1) mit den übergeordneten Unternehmenszielen und -strategien, (2) anderen funktionalen Teilbereichen, sowie (3) der Lieferantenbasis (unter Berücksichtigung der kontextbezogenen Anforderungen und Gegebenheiten) zu signifikant positiven Performance-Effekten beiträgt. Insofern sollten die Empfehlungen dieser Untersuchung für ein holistisches Strategie-Alignment im Einkauf herangezogen werden. Neben der Ableitung von Implikationen für die Unternehmenspraxis wird eine Forschungsagenda für interessierte Wissenschaftler erarbeitet, indem inhaltliche Wissenslücken und methodische Verbesserungspotenziale auf Basis des Bezugsrahmens und einschlägiger Referenztexte definiert sowie zukünftige Forschungsbedarfe aufgezeigt werden. Darauf aufbauend wird die zentrale (bis dato unbeantwortete) Forschungsfrage eines integrativen Strategie-Alignment-Index durch die Operationalisierung der zugehörigen Konstrukte sowie der Formulierung entsprechender Hypothesen als Grundlage für die Durchführung einer empirischen Studie adressiert.
The digital transformation facilitates new forms of collaboration between companies along the supply chain and between companies and consumers. Besides sharing information on centralized platforms, blockchain technology is often regarded as a potential basis for this kind of collaboration. However, there is much hype surrounding the technology due to the rising popularity of cryptocurrencies, decentralized finance (DeFi), and non-fungible tokens (NFTs). This leads to potential issues being overlooked. Therefore, this thesis aims to investigate, highlight, and address the current weaknesses of blockchain technology: Inefficient consensus, privacy, smart contract security, and scalability.
First, to provide a foundation, the four key challenges are introduced, and the research objectives are defined, followed by a brief presentation of the preliminary work for this thesis.
The following four parts highlight the four main problem areas of blockchain. Using big data analytics, we extracted and analyzed the blockchain data of six major blockchains to identify potential weaknesses in their consensus algorithm. To improve smart contract security, we classified smart contract functionalities to identify similarities in structure and design. The resulting taxonomy serves as a basis for future standardization efforts for security-relevant features, such as safe math functions and oracle services. To challenge privacy assumptions, we researched consortium blockchains from an adversary role. We chose four blockchains with misconfigured nodes and extracted as much information from those nodes as possible. Finally, we compared scalability solutions for blockchain applications and developed a decision process that serves as a guideline to improve the scalability of their applications.
Building on the scalability framework, we showcase three potential applications for blockchain technology. First, we develop a token-based approach for inter-company value stream mapping. By only relying on simple tokens instead of complex smart-contracts, the computational load on the network is expected to be much lower compared to other solutions. The following two solutions use offloading transactions and computations from the main blockchain. The first approach uses secure multiparty computation to offload the matching of supply and demand for manufacturing capacities to a trustless network. The transaction is written to the main blockchain only after the match is made. The second approach uses the concept of payment channel networks to enable high-frequency bidirectional micropayments for WiFi sharing. The host gets paid for every second of data usage through an off-chain channel. The full payment is only written to the blockchain after the connection to the client gets terminated.
Finally, the thesis concludes by briefly summarizing and discussing the results and providing avenues for further research.
Die Welt befindet sich in einem tiefgreifenden Wandlungsprozess von einer Industrie- zu einer Wissensgesellschaft. Die Automatisierung sowohl physischer als auch kognitiver Arbeit verlagert die Nachfrage des Arbeitsmarktes zunehmend zu hoch qualifizierten Mitarbeitern, die als High Potentials bezeichnet werden. Diese zeichnen sich neben ihrer Intelligenz durch vielfältige Fähigkeiten wie Empathievermögen, Kreativität und Problemlösungskompetenzen aus. Humankapital gilt als Wettbewerbsfaktor der Zukunft, jedoch beklagten Unternehmen bereits Ende des 20. Jahrhunderts einen Mangel an Fach- und Führungspersonal, der durch die Pandemie weiter verstärkt wird. Aus diesem Grund rücken Konzepte zur Rekrutierung und Mitarbeiterbindung in den Fokus der Unternehmen.
Da ethisches und ökologisches Bewusstsein in der Bevölkerung an Bedeutung gewinnen, lässt sich annehmen, dass Bewerber zukünftig verantwortungsbewusste Arbeitgeber bevorzugen. Nachhaltigkeit bzw. Corporate Responsibility wird damit zum Wettbewerbsfaktor zur Gewinnung und Bindung von Talenten. Mit Hilfe des Ansatzes der identitätsorientierten Markenführung wird ein Verständnis davon hergestellt, wie es Unternehmen gelingt, eine starke Arbeitgebermarke aufzubauen. Anhand einer konzeptionellen, praktischen und empirischen Untersuchung am Unternehmensbeispiel Unilever werden die Auswirkungen von umfassendem ökologischem und gesellschaftlichem Engagement auf die Arbeitgeberattraktivität analysiert.
Es zeigt sich, dass Nachhaltigkeit – konkretisiert über die 17 Sustainable Develop-ment Goals (SDGs) und verankert im Kern der Marke – die erfolgreiche Führung einer Employer Brand ermöglicht. Dieses Ergebnis resultiert sowohl aus dem theoretischen als auch aus dem empirischen Teil dieser Arbeit. Im letzteren konnten unter Einsatz eines Strukturgleichungsmodells drei generelle positive Wirkzusammenhänge bestätigt werden: Bewerber fühlen sich zu verantwortungsbewussten Unternehmen hingezogen, weshalb sie einen P-O-F empfinden. Diese wahrgenommene Passung mit dem Unternehmen steigert die Arbeitgeberattraktivität aus Sicht der potenziellen Bewerber, wodurch sich wiederum die Wahrscheinlichkeit für eine Bewerbungsabsicht und die Akzeptanz eines Arbeitsplatzangebotes erhöht. Es wird damit die Annahme bestätigt, dass den Herausforderungen der Personalbeschaffung über eine konsequente nachhaltige Ausrichtung der Geschäftstätigkeit und deren glaubhafte Kommunikation über die Arbeitgebermarke begegnet werden kann.
In dieser Dissertation werden ausgewählte Aspekte der Steuervermeidung und grenzüberschreitenden Besteuerung betrachtet. Im Teil B liegt der Fokus auf der Empirie zu Steuervermeidung und Gewinnverlagerung multinationaler Unternehmen mit drei einzelnen Aufsätzen. Der Teil C untersucht die unterschiedliche Besteuerung von Human- und Sachvermögen anhand der beiden fundamentalen Besteuerungsprinzipien des Äquivalenz- und des Leistungsfähigkeitsprinzips. Der letzte Aufsatz (Teil D) analysiert das Werturteilsfreiheitspostulat im Stakeholder-Ansatz und zeigt mithilfe eines Fallbeispiels, wie die Unternehmensbesteuerung in unterschiedliche Stakeholder-Ansätze integriert werden kann. Eine abschließende Gesamtwürdigung geht auf verbleibende Forschungsfragen ein (Teil E).
Somit wird in der vorliegenden Dissertation grenzüberschreitende Besteuerung anhand betriebswirtschaftlicher, besteuerungsprinzipiengestützter bzw. dogmatischer und wissenschaftstheoretischer Gesichtspunkte untersucht.
Accounting plays an essential role in solving the principal-agent problem between managers and shareholders of capital market-oriented companies through the provision of information by the manager. However, this can succeed only if the accounting information is of high quality. In this context, the perceptions of shareholders regarding earnings quality are of particular importance.
The present dissertation intends to contribute to a deeper understanding regarding earnings quality from the perspective of shareholders of capital market-oriented companies. In particular, the thesis deals with indicators of shareholders’ perceptions of earnings quality, the influence of the auditor’s independence on these perceptions, and the shareholders’ assessment of the importance of earnings quality in general. Therefore, this dissertation examines market reactions to earnings announcements, measures of earnings quality and the auditor’s independence, as well as shareholders’ voting behavior at annual general meetings.
Following the introduction and a theoretical part consisting of two chapters, which deal with the purposes of accounting and auditing as well as the relevance of shareholder voting at the annual general meeting in the context of the principal-agent theory, the dissertation presents three empirical studies.
The empirical study presented in chapter 4 investigates auditor ratification votes in a U.S. setting. The study addresses the question of whether the results of auditor ratification votes are informative regarding shareholders’ perceptions of earnings quality. Using a returns-earnings design, the study demonstrates that the results of auditor ratification votes are associated with market reactions to unexpected earnings at the earnings announcement date. Furthermore, there are indications that this association seems to be positively related to higher levels of information asymmetry between managers and shareholders. Thus, there is empirical support for the notion that the results of auditor ratification votes are earnings-related information that might help shareholders to make informed investment decisions.
Chapter 5 investigates the relation between the economic importance of the client and perceived earnings quality. In particular, it is examined whether and when shareholders have a negative perception of an auditor’s economic dependence on the client. The results from a Big 4 client sample in the U.S. (fiscal years 2010 through 2014) indicate a negative association between the economic importance of the client and shareholders’ perceptions of earnings quality. The results are interpreted to mean that shareholders are still concerned about auditor independence even ten years after the implementation of the Sarbanes-Oxley Act. Furthermore, the association between the economic importance of the client and shareholders’ perceptions of earnings quality applies predominantly to the subsample of clients that are more likely to be financially distressed. Therefore, the empirical results reveal that shareholders’ perceptions of auditor independence are conditional on the client’s circumstances.
The study presented in chapter 6 sheds light on the question of whether earnings quality influences shareholders’ satisfaction with the members of the company’s board. Using data from 1,237 annual general meetings of German listed companies from 2010 through 2015, the study provides evidence that earnings quality – measured by the absolute value of discretionary accruals – is related to shareholders’ satisfaction with the company’s board. Moreover, the findings imply that shareholders predominantly blame the management board for inferior earnings quality. Overall, the evidence that earnings quality positively influences shareholders’ satisfaction emphasizes the relevance of earnings quality.
Business process modeling is one of the most crucial activities of BPM and enables companies to realize various benefits in terms of communication, coordination, and distribution of organizational knowledge. While numerous techniques support process modeling, companies frequently face challenges when adopting BPM to their organization. Existing techniques are often modified or replaced by self-developed approaches so that companies cannot fully exploit the benefits of standardization. To explore the current state of the art in process modeling as well as emerging challenges and potential success factors, we conducted a large-scale quantitative study. We received feedback from 314 respondents who completed the survey between July 2 and September 6, 2017. Thus, our study provides in-depth insights into the status quo of process modeling and allows us to provide three major contributions. Our study suggests that the success of process modeling projects depends on four major factors, which we extracted using exploratory factor analysis. We found employee education, management involvement, usability of project results, and the companies’ degree of process orientation to be decisive for the success of a process modeling project. We conclude this report with a summary of results and present potential avenues for future research. We thereby emphasize the need of quantitative and qualitative insights to process modeling in practice is needed to strengthen the quality of process modeling in practice and to be able to react quickly to changing conditions, attitudes, and possible constraints that practitioners face.
Today, intelligent systems that offer artificial intelligence capabilities often rely on machine learning. Machine learning describes the capacity of systems to learn from problem-specific training data to automate the process of analytical model building and solve associated tasks. Deep learning is a machine learning concept based on artificial neural networks. For many applications, deep learning models outperform shallow machine learning models and traditional data analysis approaches. In this article, we summarize the fundamentals of machine learning and deep learning to generate a broader understanding of the methodical underpinning of current intelligent systems. In particular, we provide a conceptual distinction between relevant terms and concepts, explain the process of automated analytical model building through machine learning and deep learning, and discuss the challenges that arise when implementing such intelligent systems in the field of electronic markets and networked business. These naturally go beyond technological aspects and highlight issues in human-machine interaction and artificial intelligence servitization.