TY - THES A1 - Bieber, Nicolai T1 - Ganzheitliche Digitalisierung der öffentlichen Auftragsvergabe : Anforderungen, Systemarchitektur und exemplarische Umsetzung T1 - Integrated Digitalization of Public Tendering N2 - Die Relevanz der öffentlichen Auftragsvergabe ergibt sich aus den immensen Beschaffungsvolumen der öffentlichen Auftraggeber, welches deutschlandweit ca. 220 Mrd. Euro und EU-weit bei ca. einer Billion pro Jahr liegt. Aufgrund dieser Größenordnungen resultieren selbst geringe Effizienzverbesserungen in hohen absoluten Beträgen. Die Arbeit befasst sich mit den Möglichkeiten, welche sich hierbei durch die Nutzung moderner Informations- und Kommunikationstechnologie insb. dem Internet ergeben. Im privatwirtschaftlichen Beschaffungsbereich sind unter dem Schlagwort E-Procurement bereits Konzepte und Produkte verbreitet. Diese sind jedoch vor allem im Bereich des „Sourcing“ (hier: Vergabe) nicht ohne weiteres im öffentlichen Bereich nutzbar, so dass eine ganzheitliche Lösung hier noch aussteht. In der Arbeit werden zunächst die juristischen Rahmenbedingungen dargelegt. Diese determinieren den Vergabeprozess durch eine Vielzahl von Richtlinien, formalen Gesetzen, Verordnungen und anderen Regelwerken, so dass sich das Vorgehen grundsätzlich von der privatwirtschaftlichen Beschaffung unterscheidet. Neben diesem juristischen Rahmen werden die ökonomischen Ziele und Nutzenpotentiale untersucht, die sich durch eine Digitalisierung ergeben sowie die zur Verfügung stehenden Technologien erläutert. Aufbauend auf diesen Grundlagen beschäftigen sich die Hauptabschnitte der Arbeit mit einer genauen Analyse der Anforderung, die an ein System zur digitalen Abwicklung der öffentlichen Auftragsvergabe zu richten sind. Diese werden abschließend in Tabellenform strukturiert und priorisiert. Nach der Prüfung bestehender Architekturansätze wird – quasi als Synthese von verfügbarer Technologie und dem Anforderungskatalog – eine Systemarchitektur (XAVER - XML-basierte Architektur zur Umsetzung der digitalen Vergabe) entwickelt, die die Basis für konkrete Informationssysteme darstellt, mit denen eine digitale Vergabe öffentlicher Aufträge durchgeführt werden kann. Als beispielhafte Umsetzung dieser Architektur wird im Anschluss die eTenderSuite-Produktfamilie der Administration Intelligence AG vorgestellt. Den Abschluss bildet eine nutzenorientierte Analyse der bisherigen Ergebnisse. Obwohl der Fokus der Arbeit ein ökonomischer ist werden auch – soweit nötig – juristische und informationstechnische Aspekte betrachtet. Nur im Zusammenspiel dieser drei Disziplinen ist das komplexe Themenfeld der digitalen Vergabe ganzheitlich zu untersuchen. N2 - Public Tendering is highly relevant because of the amount of money spent by public agencies on procurement (about 220.000 million Euros in Germany per year). Therefore even small improvements in the efficiency of procurement will result in significant cost savings. This dissertation addresses the improvements that can be made by the use of modern Information Technology (e.g. Internet technology). Similar concepts are widely used in private procurement and known as electronic procurement or “e-procurement”. Due to the very strict regulations for public procurement (especially for public sourcing) these strategies and tools can not be applied to the public sector unchanged. Based on a broad discussion of the regulations, the economic effects, and the technologies, a catalog of requirements is given for an IT system that supports the public tendering process most efficiently. In the main chapter a system architecture is designed that can fulfill all these requirements, followed by the presentation of an existing solution that is based on this architecture. A critical discussion of the ideal architecture as well as the actual implementation completes the dissertation. KW - Öffentlicher Auftrag KW - Vergabe KW - Electronic Commerce KW - Öffentliche Auftragsvergabe KW - Public E-Procurement KW - E-Government KW - E-Vergabe KW - Public Tendering KW - Public E-Procurement KW - E-Government KW - E-Tendering Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10959 ER - TY - THES A1 - Miller-Suermann, Annette T1 - Herausforderungen moderner Biotechnologien an die Unternehmensethik T1 - Challenges of innovative biotechnology to corporate ethics N2 - Von der Biotechnologie erhofft man sich Verbesserung hinsichtlich der Lebensqualität der Menschen sowie ein Wachstum von Wirtschaft und Arbeitsplätzen. Aufgrund der technologischen Risiken und der mit dem Einsatz der Biotechnologie und der Gentechnik verbundenen moralischen Konflikte fordern nicht nur Kritiker der Biotechnologie und Gentechnik einen verantwortungsvollen und behutsamen Umgang mit den neuen technologischen Möglichkeiten. Trotz dieser Forderung haben bislang nur wenige Unternehmen der Biotechnologie-Industrie ethische Fragen durch institutionalisierte Ethikmaßnahmen in den Unternehmensalltag integriert. Beispiele für derartige Maßnahmen sind Ethik-Kodizes oder Ethik-Komissionen. Aufbauend auf einer ausführlichen Analyse der formellen und informellen Institutionen sowie der Governance Structures in der Biotechnologie-Industrie wird im Rahmen der Arbeit untersucht, welchen Besonderheiten eine Unternehmensethik in der Biotechnologie-Industrie unterliegt. Beispielsweise wird analysiert, welche Verantwortung Unternehmen, Unternehmer und Mitarbeitern bei der Vermeidung und Beseitigung moralischer Konflikte zukommt. Ferner wird dargestellt, wie Unternehmen Verantwortung übernehmen können, welchen Beitrag Unternehmen bei der Lösung und Vermeidung moralischer Konflikte leisten können und welche Möglichkeiten bestehen, dass ethische Bemühungen im Unternehmensalltag umgesetzt werden können. Anhand der ermittelten Erkenntnisse werden Ethikmaßnahmen im Hinblick auf ihre Wirksamkeit und Realisierbarkeit kritisch reflektiert. Zudem werden mögliche Gründe für deren geringe Verbreitung aufgezeigt. N2 - Biotechnology is expected to improve human life, to create new jobs and to increase economic growth. Because of the risks and the moral conflicts inherent in biotechnology and genetic engineering, critics demand to apply the new technology in a responsible and careful manner. Despite such demands, by now only few companies have introduced ethical standards into their daily management by using ethical management tools like, for example, codes of ethics or ethic-committees. This study describes and examines the corporate ethics specifically in the context of the biotechnology industry, taking into account the formal and informal institutions and the governance structure commonly found in this industry. For example, the role of corporations, entrepreneurs and employees in avoiding and solving moral conflicts is analysed. Furthermore, it is explained how corporations in the biotechnology industry can assume responsibility in, and may contribute to, solving and avoiding moral conflicts. Also, it is demonstrated how ethical issues can be implemented in the day-to-day business by using ethical management tools. Based thereon, the effectiveness and feasibility of such tools are evaluated. Finally, it is discussed for what actual reasons corporations in the biotechnology industry have been reluctant to use such tools in the past. KW - Biotechnologische Industrie KW - Unternehmensethik KW - Unternehmensethik KW - Biotechnologie-Industrie KW - corporate ethics KW - biotechnology industry Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10876 ER - TY - THES A1 - Deininger, Claus T1 - Der Indexeffekt am deutschen Kapitalmarkt und dessen Ursachen - eine theoretische und empirische Analyse unter besonderer Berücksichtigung des Einflusses fremdverwalteter Wertpapierportfolios - T1 - Index effects in Germany and their origin - a theoretical and empirical analysis with a special focus on the influence of mutual funds - N2 - Bei der vorliegenden Arbeit handelt es sich um eine Untersuchung mit dem Ziel, die Reaktionen im Umfeld von Veränderungen der Zusammensetzung der großen deutschen Aktienindizes DAX, MDAX und HDAX zu ermitteln. Da in der idealtypischen Finanztheorie eine Indexauswechslung keine bewertungsrelevante Information darstellt, jedoch in der Finanzpresse häufig über Indexauswechslungen und deren Auswirkungen auf die zugrunde liegenden Kurse spekuliert wird, sollten im Rahmen der vorliegenden Arbeit zum einen theoretische Ansatzpunkte identifiziert werden, um Indexeffekte erklären zu können; zum anderen galt es, mittels verschiedener empirischer Untersuchungen zu überprüfen, inwiefern sich die Kurse, die Liquidität und gegebenenfalls die Risikokomponenten der betreffenden Aktien durch das Indexereignis verändern. Angesichts der sich mehr und mehr verstärkenden Indexfokussierung vieler institutioneller Anleger seit der Schaffung des DAX zum Jahresende 1987 sollte auch der Frage nachgegangen werden, ob und inwiefern sich die Reaktionsmuster am Kapitalmarkt im Zeitablauf verändert haben. Da als auslösendes Moment für potentielle Indexeffekte vorrangig fremdverwaltete Wertpapierportfolios in Frage kommen, wurde neben einer theoretischen Verhaltensanalyse auch eine umfassende Umfrage unter Fondsmanagern hinsichtlich deren Indexfokussierung durchgeführt. N2 - The main aim of this thesis is to analyse the reactions caused by index replacements in the German benchmark stock-indices DAX, MDAX and HDAX. Usually financial theory suggests that the fact of an index replacement contains no new valuation-relevant evidence. However the financial press frequently speculates about index replacements and the consequences on the underlying share prices of the affected companies. The first target of this work is to identify theoretical starting points to explain possible effects caused by index changes. Moreover several event-studies are performed to see if share prices, liquidity and risk-components of the replacement companies are affected by the replacement. Mutual funds and other institutional investors are widely seen as the trigger for potential index effects. Therefore not only a theoretical principal-agent-analysis is discussed, but also a survey among German mutual fund managers is conducted to detect their trading-habits in index companies. Due to the fact the focus of institutional investors on index companies rose significantly since the introduction of the DAX in 1987, several event-study sub-samples were created to analyse if possible effects amplified over the years. KW - Deutschland KW - Aktienindex KW - Kapitalmarkt KW - Auswirkung KW - Index KW - Indexeffekte KW - Indexveränderungen KW - Investmentfonds KW - event-study KW - index KW - index effects KW - index replacements KW - mutual funds KW - event-study Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-20995 ER - TY - THES A1 - Maier, Nina T1 - Die Regelungen zur Gesellschafter-Fremdfinanzierung im internationalen Vergleich T1 - A comparison of international Thin Capitalization Rules N2 - Die Gesellschafter-Fremdfinanzierung wird sowohl in Deutschland also auch europaweit sowie international zunehmend restriktiv geregelt mit der Folge, dass die steuerlichen Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules) die Finanzierungsentscheidung multinationaler Konzerne in immer stärkerem Maße beeinflussen. Dabei belegt die internationale Diskussion zu den Regelungen zur Gesellschafter-Fremdfinanzierung (Thin Capitalization Rules), dass weltweit Regelungsbedarf gesehen wird. Steigenden Einfluss auf das Steuerrecht der Mitgliedstaaten gewinnt dabei insbesondere die Rechtsprechung des EuGH. So war nicht zuletzt die Rechtsprechung in der Rechtssache Lankhorst-Hohorst, deren Befassungsgegenstand auf die unterschiedliche Behandlung einer Tochtergesellschaft je nach Sitz der Muttergesellschaft abzielt, entscheidend für die Neukonzeption der Regelungen in Deutschland und verschiedenen anderen Mitgliedstaaten. Diese Regelungen stoßen jedoch weiterhin sowohl in Deutschland als auch international auf scharfe Kritik. Neben europarechtlichen Grundsätzen setzt die Kritik an allgemeinen Grundsätzen des deutschen Steuerrechts und an abkommensrechtlichen Grundsätzen an. Ziel der vorliegenden Dissertation ist es, die verschiedenen internationalen Regelungen zur Problematik der Gesellschafter-Fremdfinanzierung typisierend zu erfassen und nach den relevanten Grundsätzen zu würdigen. In Anbetracht der restriktiven Rechtsprechung des EuGH wird das Hauptaugenmerk auf europarechtliche Tatbestandsvoraussetzungen gerichtet, jedoch finden auch die Vorgaben des deutschen Steuerrechts sowie des Abkommensrechts Beachtung. Den Abschluss findet die Untersuchung in einer Darstellung und Würdigung verschiedener Reformüberlegungen zur Ausgestaltung der Regelungen zur Gesellschafter-Fremdfinanzierung und der Ausarbeitung eines Lösungsvorschlags, der weitgehend die verschiedenen Ebenen der Kritik anspricht und mit dem Regelungszweck vereint. Dieser Lösungsvorschlag wird abschließend auf den Prüfstein der verschiedenen steuerlichen, europarechtlichen und abkommensrechtlichen Grundsätze gestellt. N2 - Germany aswell as many other countries introduced Thin Capitalization Rules in order to prevent increasing shareholder debt financing. However, these Rules are frequently criticized. Following a ruling rendered by the European Court of Justice on December 2002, many countries had to provide for a new concept for Shareholder debt financing. However, International Thin Capitalization Rules still are in conflict with European law, treaty law and national law. The author analysed the present Thin Capitalization Rules in Europe and the USA and provided a solution. KW - Gesellschafterfremdfinanzierung KW - Steuerrecht KW - Rechtsvergleich KW - Gesellschafter-Fremdfinanzierung KW - Thin Capitalization KW - Eigenkapital KW - Fremdkapital KW - Unterkapitalisierung KW - Thin Capitalization Rules KW - Equity Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19161 ER - TY - THES A1 - Walter, Michaela T1 - Die steuerliche Behandlung der Gewährung von Aktienoptionen an Arbeitnehmer bei grenzüberschreitenden Sachverhalten : dargestellt anhand der Länder Deutschland, Schweiz, Österreich und Belgien T1 - The fiscal treatment of stock options granted to employees at cross-border cases represented in respect of the countries Germany, Switzerland, Austria and Belgium N2 - Nicht handelbare reale Aktienoptionen sind ein beliebtes Instrument, um die variable Vergütung von Mitarbeitern mit dem Unternehmenswert zu verbinden. Für die Unternehmensseite existieren unterschiedliche Auffassungen, wie die Verpflichtung aus der Option zu bilanzieren ist. Der individuelle Wert dieser Vergütungskomponente für den begünstigten Mitarbeiter ist unter anderem auch von der Besteuerung abhängig. Da Aktienoptionspläne eine längere Laufzeit aufweisen, stellt sich die Frage nach dem zutreffenden Besteuerungszeitpunkt und damit verbunden nach der Bewertung des Vorteils. Die Vergütung von Mitarbeitern mit Aktienoptionen ist den Einkünften aus nichtselbständiger Tätigkeit zuzurechnen. Es gilt das Zuflussprinzip. Nach der allgemeinen Diskussion über den zutreffenden Besteuerungszeitpunkt und Bewertung der Option werden in der Arbeit zunächst die unterschiedlichen Rechtslagen zur Besteuerung von Aktienoptionen beim Begünstigten in den betrachteten Ländern (Deutschland, Schweiz, Österreich und Belgien) dargestellt. Die Besteuerung in der Schweiz, Österreich und Belgien erweist sich im Fall der tatsächlichen Optionsausübung grundsätzlich vergleichsweise günstiger als in Deutschland. Die differierenden steuerlichen Regelungen sind insbesondere bei grenzüberschreitenden Sachverhalten problematisch. Hauptsächlich durch abweichende Besteuerungszeitpunkte in den betrachteten Ländern ergeben sich bei Wechsel von Tätigkeits- und Wohnort, aber auch bei Grenzgängern sowohl Fälle der Doppelbesteuerung als auch der Nichtbesteuerung der Vergütung. Es werden jeweils konkrete grenzüberschreitende Sachverhalte anhand des spezifischen Doppelbesteuerungsabkommens der beteiligten Staaten beurteilt. Risiken der Doppelbesteuerung werden herausgearbeitet und Gestaltungsempfehlungen zur Vermeidung gegeben. Im Hinblick auf die meist günstigere Besteuerung in der Schweiz, in Österreich und in Belgien kann generell für die Besteuerung von Aktienoptionen bei grenzüberschreitenden Sachverhalten die Empfehlung abgeleitet werden, dass eine Tätigkeitsverlagerung in diese Staaten grundsätzlich sinnvoll ist. Selbst zwischen europäischen Staaten, die vielfältig miteinander verbunden sind, kann häufig aufgrund der unterschiedlichen Steuersysteme keine allgemeingültige Lösung gefunden werden, um eine zutreffende gerechte Besteuerung von Aktienoptionen beim Begünstigten in grenzüberschreitenden Fällen sicherzustellen. Eine Doppel- bzw. Minderbesteuerung ist mit den vorhandenen rechtlichen Möglichkeiten meist nicht zu beseitigen. N2 - Not tradable real stock options are often granted to employees to connect their remuneration with the value of the company. In the balance sheets of the companies exist different opinions about the accounting treatment. The value of the stock options to the employee is also dependent on the fiscal treatment. Main problems in the diffenrent countries are the correct date of taxation and the value of the option. These topics are discussed in general and especially for the countries Germany, Switzerland, Austria and Belgium. Because of the different fiscal treatment in these countries it is possible that there are cases of double or non-taxation if the employee changes the place of work or living. Individual cross-border cases are represented with the specific double taxation agreements of the involved countries. Even between european states it is not possible to find a generally accepted solution to guarantee a correct and just taxation of stock options granted to emloyees with cross border circumstances. KW - Deutschland KW - Aktienoption KW - Steuerrecht KW - Österreich KW - Schweiz KW - Belgien KW - Rechtsvergleich KW - Aktienoption KW - Arbeitnehmer KW - Steuer KW - International KW - Bilanzierung KW - stock options KW - employee KW - taxation Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19289 ER - TY - THES A1 - Fiebiger, André T1 - Einfluss des Ratings von Unternehmen auf die Rechnungslegung und Abschlussprüfung - Rating als Möglichkeit zur Verbesserung des Informationsgehalts des Lageberichts nach § 289 HGB T1 - The Influence of Credit Ratings on Accounting and Auditing – Credit Ratings as a Improvement of the Management Reports´ Information Content N2 - Mit der Einführung von Basel II erhalten ab dem 01. Januar 2007 nahezu alle fremdfinan¬zierten Unterneh¬men im Rahmen einer Ratinga¬nalyse eine individuelle Bewertung ihrer Bo¬nität. Wie die Ratinganalyse haben sich auch die gesetzlichen Vertreter im Rahmen der Lageberichterstattung und der Abschlussprüfer im Rahmen seiner Prüfungs¬pflichten mit der Bestandskraft des zu prüfenden Unternehmens auseinander zu setzen. Es stellt sich insofern die Frage nach dem Einfluss von Ratinganalysen auf die Rechnungslegung und Abschlussprüfung. Die Untersuchung zeigt, dass im Hinblick auf die gesetzliche Forderung nach einer umfassenden Risikoberichterstattung in § 289 Absatz 1 HGB die gesetzlichen Vertre¬ter die Ratinganalyse insbesondere bei Anzeichen für eine Be¬standsgefahr in der Bericht¬er¬stattung über Risiken der voraussichtlichen Entwicklung zu verwerten, das Rating als Informationsquelle sowie die Risikoeinstufung zu nen¬nen haben. Aus Sicht des Abschlussprüfers können Ra¬tinganalysen als Indikator für die zukünf¬tige Bonität der Gesellschaft eine entschei¬dende und objektive Grundlage für die Bewertung des Insolvenzrisikos beim geprüf¬ten Unternehmen spielen und ihn bei der Beurteilung der Lagedar¬stellung sinnvoll unterstüt¬zen. Unter Beachtung der gesetzlichen und be¬rufsständi¬schen Normen sind demzu¬folge Ratingergebnisse – insbesondere bei Anzeichen einer Bestandsgefährdung – vom Ab¬schlussprüfer zwingend bei der Abschlussprüfung zu verwerten. Demzufolge ist dem Abschlussprüfer be¬züglich der Ratingunterlagen von Seiten der Unternehmensleitung auch ein Einsichts¬recht aus § 320 HGB zu gewähren. Die Ratingerkenntnisse kann der Abschlussprüfer darüber hinaus auch im Rahmen der Prüfungsplanung nutzen, denn die individu¬elle Risikosituation des Unternehmens hat erheblichen Einfluss auf das Prü¬fungsvorgehen. Ferner hat sich der Abschlussprüfer bei der Erwartungsbildung be¬züglich des Vorhandenseins bzw. des Grades der Bestandsgefahr an der Ratinganalyse zu orientieren, um die Aus¬führungen der gesetzlichen Vertreter im Anschluss daran im Lichte seiner Erwartun¬gen zu hinterfragen. Aus den Ergebnissen dieser Soll-Ist-Verprobung folgen dann ent¬sprechende Konsequenzen für die Berichterstattung des Abschlussprüfers. So ist, bei unzureichenden Ausführungen im Lagebericht, im Prü¬fungsbericht auf die Bestandsge¬fahr und die mangelnde Verarbeitung der Ratinger¬gebnisse hinzuweisen; der Bestäti¬gungsvermerk ist mit einem Hinweis auf die Ratingergebnisse einzuschrän¬ken. Wird dagegen im Lagebericht im Einklang mit der Ra¬tinganalyse zutreffend über die dro¬hende Bestandsgefahr berichtet, so sind dennoch im Prüfungsbericht nochmals die Ri¬siken der künftigen Entwicklung anzugeben. Im Bestätigungsvermerk ist zu er¬läutern, dass sich die Darstellung der Bestandsrisiken mit dem Ratingergebnis deckt. Wird dem Abschlussprüfer dagegen die Einsicht in die Ratinganalyse verweigert, so ist im Prüfungsbericht auf die Weigerung einzugehen und bei Anzeichen einer Be¬standsgefahr darüber hinaus der Redepflicht nachzukom¬men. Der Bestätigungsver¬merk sollte in solchen Fällen mit der verbalen Einschrän¬kung versehen werden, dass die Beurteilung ohne Einsicht in die Ratingunterlagen er¬folgen musste. N2 - With the introduction of Basel II in January 2007 almost all leveraged companies receive an individual valuation of their solvency. In the context of the German Management Report the management and the auditor also have to deal with the credit rating of the firm. Therefore, the thesis analyzes the influence of ratings on accounting and auditing. The study shows that with respect to the legal requirement of § 289 I HGB (German Commercial Code) the management has to use the rating for the Management Report and to specify the rating as a source of information. Furthermore the rating information may support the auditor in the evaluation of bankruptcy risks and the verification of the Management Report. Considering the legal and professional standards the auditor has to take the rating into account obligatory. Furthermore the rating may assist the auditor in planning the audit because of the large influence of the individual risk, which is in part captured by the rating grade on the audit. Finally, the results of this validation have corresponding effects on the auditor´s reporting. KW - Deutschland KW - Unternehmen KW - Bonität KW - Rating KW - Jahresabschlussprüfung KW - Rating KW - Lagebericht KW - Prüfung KW - Prüfungsbericht KW - Bestätigungsvermerk KW - Credit Rating KW - Management Report KW - Audit KW - Accountant´s Report KW - Audit Opinion Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19293 ER - TY - THES A1 - Knoop, Thomas T1 - Auslandsbanken in Deutschland - Theoretische und empirische Analysen über Markteintritt, Geschäftsentwicklung sowie strategische Positionierungsalternativen T1 - Foreign banks in Germany - theoretical and empirical analysis concerning market entry, business development and strategic positioning N2 - Auslandsbanken gewinnen in Deutschland eine immer größere Bedeutung. Obgleich der von der Bundesbank ausgewiesene Marktanteil ausländischer Banken noch immer im Vergleich zu anderen europäischen Ländern unterdurchschnittlich stark ausgeprägt ist, messen ihnen deutsche Bankiers eine hohe Wettbewerbsfähigkeit zu und warnen vor den Folgen einer „Eroberung“ ihrer inländischer Kreditinstitute. Erstmals werden die neu erstarkten Wettbewerber aus den anderen europäischen Nationen sowie den USA im Rahmen der vorliegenden Arbeit umfassend und vor dem Hintergrund der sich verändernden technologischen und regulativen Rahmenbedingungen analysiert. Hierbei sind die Fragen, weshalb sie in den deutschen Markt eingetreten sind, welche Entwicklungspfade sie eingeschlagen haben und inwieweit ihr Engagement als erfolgreich zu bewerten ist, die zentralen Gesichtspunkte des ersten Abschnitts. Im Gegensatz zu vorangegangenen Arbeiten beschränkt sich der hier gewählte Ansatz nicht auf einen kurzen Zeitraum oder die bloße Analyse des Marketing-Mixes aus Produkt-, Preis- oder Kommunikationspolitik. Vielmehr werden beobachtbare Entwicklungen nicht nur beschrieben, sondern auch auf Basis empirischer Untersuchungen sowie theoretischer Überlegungen erklärt. Zu Beginn steht hierbei die Frage nach den Eintrittsmotiven, die ausländische Banken bewogen haben, Niederlassungen in der Bundesrepublik zu eröffnen. Während derartige Studien für andere Länder bereits seit längerem bestehen, können erstmals im Rahmen der vorliegenden Arbeit Faktoren herausgearbeitet werden, die Eintrittsentscheidungen offensichtlich signifikant beeinflussen. So bestätigt sich in diesem Zusammenhang zunächst die Bedeutung der bilateralen Wirtschaftsbeziehungen, die mit zunehmender Intensität die Gründungsneigung erhöhen. Für die Bundesrepublik zeigt sich jedoch auch, daß eine überdurchschnittliche wirtschaftliche Dynamik einen positiven Einfluß in Bezug auf die Anzahl der Gründungen ausübt, während den am Kapitalmarkt herrschenden Bedingungen kein signifikanter Einfluß auf die Eintrittsentscheidungen nachgewiesen werden kann. Die Frage der nachfolgenden Entwicklung wird vor dem Hintergrund eines eher wirtschaftshistorischen Ansatzes beantwortet. Hierbei kristallisiert sich ein homogener Entwicklungspfad heraus, an dessen Beginn Firmenkunden gleicher Herkunft betreut werden und dessen Ende durch den Eintritt in den Wettbewerb um deutsche Privatkunden markiert wird. Der Erfolg ausländischer Banken in Deutschland wird im weiteren ausführlich thematisiert. Zunächst kann in diesem Zusammenhang gezeigt werden, daß bis zum Jahr 1999 die auf Hymer zurückgehende Liabilities-of-Foreignness-Hypothese für Auslandsbanken in Deutschland bestätigt werden kann. Seit der Jahrtausendwende lassen sich jedoch keine wesentlichen Rentabilitätsunterschiede zwischen in- und ausländischen Instituten mehr beobachten, wobei es zu beachten gilt, daß die Angleichung der Bankengruppe im wesentlichen auf Verschlechterungen bei den inländischen Instituten zurückzuführen ist. Anschließend wird der Frage nachgegangen, welche Einflüsse für Unterschiede bei der Rentabilität ausländischer Banken verantwortlich gemacht werden können. Über die Ansatzpunkte vorangegangener Studien hinaus wird in diesem Zusammenhang ausdrücklich die Rolle einer produkt- beziehungsweise kundenorientierten Ausrichtung im Sinne des strategischen Managements berücksichtigt. So zeigt sich, daß neben den bilateralen Wirtschaftsbeziehungen als einzig konstanter Einflußfaktor die Fokussierung einer Bank Effizienzunterschiede erklären kann. Aufbauend auf diesen Erkenntnissen wendet sich der zweite Abschnitt der Frage zu, welche strategischen Positionierungsmöglichkeiten sich einer ausländischen Bank in Deutschland bieten. Vorangegangene Arbeiten zum strategischen Bankmanagement befassen sich in diesem Zusammenhang vornehmlich mit der Ausrichtung nationaler Wettbewerber oder diskutieren Internationalisierungsstrategien aus Sicht der Muttergesellschaft eines multinationalen Bankkonzerns. Der hier verfolgte Ansatz unterscheidet sich dahingehend, daß ausgehend von einem Marktimperativ die Positionierung der Tochtergesellschaft im Zentrum steht. Hierbei gewinnt die Frage nach der Transferierbarkeit von wettbewerbsrelevanten Ressourcen eine zentrale Bedeutung, da im Sinne des Resource-Based Views derartige Kompetenzen über die Fähigkeit zur Besetzung attraktiver Positionen entscheiden. Neben natürlichen Barrieren, die eine grenzüberschreitende Nutzung von bestehenden Infrastruktureinrichtungen beziehungsweise von im Heimatland gewonnenen Kundeninformationen verhindern, sind es in erster Linie regulative und kulturelle Barrieren, die einen maßgeblichen Einfluß auf die Positionierungsalternativen ausländischer Banken in Deutschland ausüben. Aufbauend auf dem Positionierungsansatz von Dombret und Kern zeigt sich in diesem Zusammenhang, daß vornehmlich produktbezogene Kompetenzen als erfolgversprechende Ansatzpunkte für ausländische Banken dienen. N2 - Foreign banks have long been neglected in scientific research of the German banking market. Although compared to other European countries their market share still remains relatively low, German bankers are noticing a growing competitiveness and are advising policy markers to be aware of potentially severe consequenses of a large scale „conquest“ of German banks. This book takes a close look at the new competitors taking into account the changing technological and regulative environment fostering cross-border entry in the European financial markets. In the first part market related questions are addressed as to why foreign banks have entered the German market, how they have developed after starting their business. In addition it is discussed if they are more or less successful than their German counterparts. It is shown in this context that the follow-the-client-hypothesis proves to be valid for the German banking market and that the subsequent development follows a fairly homogeneous path ranging from serving home country clients to providing retail banking services to German clients. In reference to Hymer’s „Liabilities of Foreigness“-Hypothesis the question of the relative success of foreign banks is addressed. Especially in the end of the last decade foreign banks seemed to have suffered from the predicted disadvantages while in the beginning of the new century they started to outperform domestic financial institutions. In addition the factors influencing the financial performance are examined. It turns out that the only reliable source of competitive advantage derives from a strategic product-market-position. In contrast to other studies, external factors influencing a company do not seem to strongly affect the return on equity. Building on this verified importance of corporate strategy the second part of the book concentrates on how foreign banks can find a promising position in the German retail banking sector which is still dominated by savings banks and co-operative banks (Volks- & Raiffeisenbanken). The theoretical basis for this is laid out by integrating the resource based view of the firm with Porter’s market based view taking into account the international context. On these fundamentals an integrated framework is developed which puts several kinds of barriers in focus that prevent the cross-border transfer of strategic relevant resources. These barriers can be found in the prevailing market conditions, cultural discrimination due to homecountry-centred stereotypes or a regulative environment. All mentioned aspects have been examined in depth and a product-focused market strategy has been developed in the end. KW - Allfinanz KW - Strategie KW - Internationalisierung KW - Internationales Management KW - Markteintrittsstrategie KW - Strukturanalyse KW - Privatkundengeschäft KW - Kulturelle Barrieren KW - Conjoint Analysis KW - Auslandsbanken KW - international banking KW - foreign bank KW - market entry KW - competitive strategy KW - positioning Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24232 ER - TY - THES A1 - Roos, Stephanie T1 - Unternehmensperformance und Vorstandswechsel - eine empirische Analyse zur Effizienz deutscher Aufsichtsräte T1 - Performance and management turnover - an empirical study on the efficiency of German supervisory boards N2 - Nach Unternehmensskandalen wie bei Enron, Worldcom oder Comroad steht das Thema Corporate Governance in vielen Ländern wieder ganz oben auf der Agenda. Als Reaktion auf die spektakulären Unternehmenskrisen wird weltweit in zahlreichen Ausschüssen über die optimale Ausgestaltung und Qualität der Unternehmensführung und -kontrolle diskutiert. Im Zentrum der Diskussionen in Deutschland steht dabei häufig die Frage nach der Qualität der internen Managementkontrolle durch den Aufsichtsrat. Den Kontrolleuren wird vorgeworfen, ihrer Überwachungsfunktion nur unzureichend nachzukommen und die Zielvorstellungen der Anteilseigner weitgehend aus den Augen zu verlieren. Inwieweit sich die in der Öffentlichkeit lancierte Kritik an der Effizienz deutscher Aufsichtsräte empirisch bestätigen lässt, wird in der vorliegenden Studie überprüft. Die Annäherung an die Fragestellung erfolgt über eine Analyse des systematischen Zusammenhangs zwischen Unternehmensperformance und Wechseln in den Vorständen der DAX100-Gesellschaften über den Zeitraum von 1994 bis 2001. Neben den Turnover-Performance-Beziehungen wird die Reaktion der Kapitalmarktteilnehmer auf die Wechselankündigungen betrachtet. Die Kursanalysen geben Aufschluss über die Bedeutung der personellen Eingriffe durch den Aufsichtsrat für die weitere Unternehmensentwicklung aus Sicht des Kapitalmarktes. Die Untersuchung des gesamten Wechselprozesses bildet die Basis für die Ableitung interessanter Erkenntnisse über die Anreiz- und Disziplinierungswirkung des vom Aufsichtsrat praktizierten Absetzungsmechanismus. N2 - After company failures as with Enron, Worldcom or Comroad, Corporate Governance discussions have significantly increased all over the world. Numerous committees concern themselves with the optimal arrangement and the quality of corporate management and control. In Germany, most of the discussions focus on the quality of management control by the supervisory board. Frequently, the members of the supervisory board are accused to fulfil their monitoring function insufficiently and to lose sight of their clients’ interests. The study examines to what extent the criticism of the efficiency of German supervisory boards, launched in the public, can be confirmed empirically. The approach to the question is conducted by the analysis of the systematic relationship between company performance and turnover in the management boards of the DAX100 companies over the period from 1994 to 2001. In addition to the turnover performance relationships, the reactions of the capital market to the turnover announcements are determined. Capital market effects inform about the impact of management changes for the further company development from investors’ point of view. The empirical analysis of the complete turnover process provides interesting insights into the incentive and disciplining effects resulting from the dismissal mechanism practiced by the supervisory board. KW - Aktiengesellschaft KW - Vorstandsvorsitzender KW - Fluktuation KW - Unternehmensergebnis KW - Aufsichtsrat KW - Corporate Governance KW - Corporate Governance KW - Aufsichtsrat KW - Management KW - Vorstandswechsel KW - Performance KW - Corporate Governance KW - supervisory board KW - management turnover KW - performance Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-20816 ER - TY - THES A1 - Suermann, Jan-Christoph T1 - Bilanzierung von Software nach HGB, US-GAAP und IFRS : integrative Analyse der Regelungen zu Ansatz, Bewertung und Umsatzrealisation von Software aus Hersteller- und Anwendersicht T1 - Accounting for Software based on HGB, US-GAAP and IFRS N2 - Die Arbeit stellt die Grundsätze zur Bilanzierung von Software nach US-GAAP, IFRS und HGB gegenüber. Dabei werden sowohl die Bilanzierungsprobleme beim Anwender bzw. Nutzer von Software beleuchtet, als auch beim Hersteller von Software. Im Mittelpunkt stehen die Fragen der bilanziellen Ansatzfähigkeit von Software sowie die bilanzielle Bewertung von Software. Ferner werden die Kriterien zur Umsatzrealisation im Zusammenhang mit Softwareprodukten untersucht. N2 - The dissertation compares the HGB-, US-GAAP and IFRS standards regarding the accounting for software. The analysis deals with accounting problems of the producer of software as well as of the user of software. The center of the examination is the question whether to capitalise software costs or not and how to valuate software on the balance sheet. Furthermore the criteria for revenue recognition of software is investigated. KW - Deutschland Handelsgesetzbuch KW - Rechnungslegung KW - Software KW - International Accounting Standards KW - Generally Accepted Accounting Principles KW - Bilanzierung KW - Software KW - IFRS KW - US-GAAP KW - HGB KW - Accounting KW - Software KW - IFRS KW - US-GAAP KW - HGB Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-19335 ER - TY - THES A1 - Seibold, Christine T1 - Die Versorgung des Stifters und der Stifterfamilie bei Vermögensübertragung auf eine gemeinnützige Stiftung, Familienstiftung oder Doppelstiftung und deren ertrag- und substanzsteuerlichen Auswirkungen T1 - The provisions for the benefactor and the benefactor’s family when transferring the assets to a non-profit making foundation, family foundation or double foundation and its implications concerning tax on income and the substance of property N2 - Die Motive eine Stiftung zu errichten sind so zahlreich wie ihre Formen und Zwecksetzungen. Im Zusammenhang mit der Vermögensübertragung auf eine Stiftung stellt sich die Frage in wie fern eine Versorgung des Stifters und seiner Familie durch die Stiftung ermöglicht werden kann und welche ertrag- und substanzsteuerliche Folgen diese mit sich bringen. Nach einer allgemeinen Darstellung der für die Stiftung geltenden zivil- und steuerrechtlichen Grundlagen werden anhand der gemeinnützigen Stiftung, Familienstiftung und Doppelstiftung verschiedene Versorgungswege dargestellt und auf Ebene des Stifters und der Stiftung steuerlich gewürdigt. Gegenstand der Betrachtung der Versorgungswege sind neben der Vermögensübertragung gegen Versorgungsleistungen, der Vorbehaltsnießbrauch an Grund- und Kapitalvermögen, sowie klassische Destinatärsbezüge und Arbeitsverhältnisse mit der Stiftung. Die ersten beiden Versorgungswege sind bereits für die Besteuerung der Vermögensübertragung relevant, während Destinatärsbezüge und Arbeitsverhältnisse erst im Rahmen der laufenden Besteuerung Beachtung finden. Für die gemeinnützige Stiftung wird ferner die Versorgung nach § 58 Nr. 5 AO betrachtet. Das im Zusammenhang mit der Vermögensübertragung gegen Versorgungsleistungen und dem Vorbehaltsnießbrauch entstehende Spannungsfeld wird im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften aufgezeigt. Weiterhin werden die von privaten Finanzdienstleistern angebotenen Versorgungsmodelle im Zusammenhang mit der gemeinnützigen Stiftung diskutiert. Für die Vermögensübertragung gegen Versorgungsleistungen auf eine Stiftung finden ebenfalls die Grundsätze der vorweggenommenen Erbfolge Anwendung. Im Zusammenhang mit der gemeinnützigen Stiftung ist die Vermögensübertragung gegen Versorgungsleistungen im Hinblick auf die gemeinnützigkeitsrechtlichen Vorschriften problematisch, der Vorbehalt eines Nießbrauchs hingegen nicht. In Betracht der schenkungsteuerlichen Würdigung ist der Vorbehaltsnießbrauch im Zusammenhang mit einer nicht steuerbefreiten Stiftung, im Gegensatz zu den Versorgungsleistungen, nicht sinnvoll. Destinatärsbezüge können jederzeit bei Erfüllung der satzungsmäßigen Vorschriften gewährt werden. Ebenso können Arbeitsverhältnisse eingegangen werden, wobei im Zusammenhang mit einer gemeinnützigen Stiftung die entsprechenden Vorschriften der Abgabenordnung zu beachten sind. Die aufgezeigten und gewürdigten Versorgungswege können unter Beachtung der steuerrechtlichen Grenzen im Zusammenhang mit der Doppelstiftung steuerlich optimal eingesetzt werden. N2 - The motives for establishing a foundation are as numerous as their forms and the determination of aims. In connection with the transfer of assets to a foundation the question is raised to what extent provisions for the benefactor and his family can be made possible through the foundation and which consequences this may have concerning tax on income and the substance of property. After a general presentation of the bases under civil and tax law which apply to the foundation various methods for provisions are presented based on a non-profit making foundation, family foundation and double foundation and assessed in terms of tax on the level of the benefactor and the foundation. The object of the analysis of the methods for provisions besides the transfer of assets against provision payments are the reserved usufruct to basic and capital assets, as well as classical beneficiary payments and employment relationships with the foundation. The first two methods for provisions are relevant for the taxation of the transfer of the assets already, whereas beneficiary payments and employment relationships are only of interest within the framework of the regular taxation. Further the provision according to § 58 No. 5 AO [German Fiscal Code] is analysed for the non-profit making foundation. The field of tension which arises in connection with the transfer of assets against provision payments and the reserved usufruct is demonstrated with regard to the regulations in non-profit making law. Further the provision models offered by private financial service providers are discussed in connection with the non-profit making foundation. The principles of the anticipated order of succession also apply to the transfer of assets to a foundation against provision payments. In connection with the non-profit making foundation the transfer of assets against provision payments is problematic with regard to the regulations in non-profit making law, the reservation of a usufruct on the other hand now. In view of the assessment under gift tax the reserved usufruct is not useful in connection with a foundation which is not exempted from tax, as opposed to the provision payments. Beneficiary payments can be granted at all times when satisfying the regulations according to the statutes. Employment relationships can also be entered into whereby the corresponding regulations of the Fiscal Code are to be complied with in connection with a non-profit making foundation. The presented and assessed methods for provision can be used to an optimum extent under tax law in connection with the double foundation by observing the limits under tax law. KW - Stiftung KW - Steuer KW - Deutschland KW - Versorgung KW - foundation KW - taxation KW - benefactor Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-28012 ER - TY - THES A1 - Bätz, Volker T1 - Internetbasierte Abwicklung von Consulting-Projekten und -Analysen im Umfeld betriebswirtschaftlicher Softwarebibliotheken T1 - Internet-Based Execution of Consulting Projects and Analyzes for Business Software - Libraries N2 - Kaum ein Berufsstand hat einen so schlechten Ruf wie der des professionellen Beraters. Die fachbezogenen Medien im Bereich integrierter Informationssysteme sind voll von Berichten über mangelhafte Beratungsleistungen. Die einschlägige Literatur veröffentlicht zahllose Ratgeber in Buchform, welche ihre Existenz mit dem Umstand missglückter Projekte begründen. Dabei war im Bereich der Informationstechnologie der Bedarf an kompetentem Consulting noch nie so hoch wie heute und die Tendenz steigt weiterhin. Diese Situation wurzelt in der stetigen Verrin-gerung der Innovationszyklen und der exponentiell wachsenden Zahl an technischen und wissen-schaftlichen Erkenntnissen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Verfahrens zur Unterstützung der Beratungsdienstleistungen im Umfeld der Einführung und Pflege betriebswirtschaftlicher Softwarebibliotheken. Hierbei werden bestehende Ansätze aus dem Blickwinkel der Beratung evaluiert und in die Entwicklung einbezogen. Das zu erstellende Konzept muss den Anforderun-gen der Beratung gerecht werden und flexibel wie zielgerichtet einsetzbar sein. Die Ausgangslage dieser Arbeit ist die aktuelle Situation des Beratungsmarktes im Umfeld be-triebwirtschaftlicher Softwarebibliotheken, insbesondere von SAP R/3 bzw. mySAP.com. Eine Analyse der vorherrschenden Bedingungen und der zur Unterstützung der Beratung eingesetzten Hilfsmittel zeigt, dass Consulting systematisch unbefriedigend geleistet wird. Beratung ist eine wissensorientierte Dienstleistung, die aufgrund ihrer hohen Spezifität immer individuellen Cha-rakter besitzt. Bestehende Unterstützungsansätze können gute Hilfe leisten bei der Erfüllung von Teilaufgaben, sie sind jedoch nicht imstande, die aus dem Consulting-Prozess resultierenden An-forderungen aus globaler Sicht zufriedenstellend zu erfüllen. Insbesondere bestehen aus Sicht der Kollaborationsunterstützung für die Teilnehmer Mängel. Darüber hinaus müssen die Vollstän-digkeit bzw. Integrationsfähigkeit der verschiedenen Hilfsmittel, die Flexibilität der genutzten Werkzeuge, die Reproduzierbarkeit der Ergebnisse und die Anwendung einer strategisch ausge-richteten, zyklischen Vorgehensweise als ungenügend bewertet werden. Das IANUS-Verfahren wurde konzipiert um diese Lücken zu füllen. Es greift dabei auf verschie-dene konzeptionelle Grundsätze zurück, welche die Orientierung an den Bedürfnissen der Bera-tung gewährleisten sollen. Insbesondere wird die Implementierung eines Informationskreislaufes zur Gewinnung und Aufbereitung von Informationen und Erfahrungen gefordert. Dieser wird ergänzt durch die Standardisierung von Wissen in Form von Kennzahlen und die Gewährleistung der inhaltlichen Konsistenz durch regelbasierte Verknüpfungen. Darüber hinaus ist die Integrati-on von Wissen und Anwendungsprozess entscheidend für den Nutzengewinn durch den Einsatz des Verfahrens. Aufgrund der verschiedenen Teilnehmer und ihrer unterschiedlichen Kompeten-zen ist es notwendig, die verschiedenen Perspektiven und Kenntnisse zu berücksichtigen. Nur durch die gezielte Unterstützung der Kollaboration, die Handhabbarkeit der letztendlichen An-wendungen und die inhaltliche Flexibilität des Ansatzes kann dies erreicht werden. Die Wahl des des Internet als Medium bringt den Vorteil der dezentralen Nutzbarkeit bei zentraler Speicherung, wobei die für diese technische Basis typischen Gefahren berücksichtigt und beseitigt werden müssen. Das Ergebnis der Konzeption ist eine modulare internet-basierte Komponentenbiblio-thek, welche im vorgegebenen Rahmen flexibel ist. Für spezifische Aufgabenstellungen können vorab gewidmete Anwendungsinstanzen ausgeprägt und in Beratungsprojekten eingesetzt wer-den. Die kontinuierliche Weiterentwicklung gilt dabei der iterativen Verbesserung der Anwen-dungsinstanzen und der Komponentenbibliothek. Letztendlich beweist das IANUS-Verfahren, dass eine werkzeuggestützte Verbesserung von Beratungsdienstleistungen notwendig und mach-bar sind. N2 - Kaum ein Berufsstand hat einen so schlechten Ruf wie der des professionellen Beraters. Die fachbezogenen Medien im Bereich integrierter Informationssysteme sind voll von Berichten über mangelhafte Beratungsleistungen. Die einschlägige Literatur veröffentlicht zahllose Ratgeber in Buchform, welche ihre Existenz mit dem Umstand missglückter Projekte begründen. Dabei war im Bereich der Informationstechnologie der Bedarf an kompetentem Consulting noch nie so hoch wie heute und die Tendenz steigt weiterhin. Diese Situation wurzelt in der stetigen Verrin-gerung der Innovationszyklen und der exponentiell wachsenden Zahl an technischen und wissen-schaftlichen Erkenntnissen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Verfahrens zur Unterstützung der Beratungsdienstleistungen im Umfeld der Einführung und Pflege betriebswirtschaftlicher Softwarebibliotheken. Hierbei werden bestehende Ansätze aus dem Blickwinkel der Beratung evaluiert und in die Entwicklung einbezogen. Das zu erstellende Konzept muss den Anforderun-gen der Beratung gerecht werden und flexibel wie zielgerichtet einsetzbar sein. Die Ausgangslage dieser Arbeit ist die aktuelle Situation des Beratungsmarktes im Umfeld be-triebwirtschaftlicher Softwarebibliotheken, insbesondere von SAP R/3 bzw. mySAP.com. Eine Analyse der vorherrschenden Bedingungen und der zur Unterstützung der Beratung eingesetzten Hilfsmittel zeigt, dass Consulting systematisch unbefriedigend geleistet wird. Beratung ist eine wissensorientierte Dienstleistung, die aufgrund ihrer hohen Spezifität immer individuellen Cha-rakter besitzt. Bestehende Unterstützungsansätze können gute Hilfe leisten bei der Erfüllung von Teilaufgaben, sie sind jedoch nicht imstande, die aus dem Consulting-Prozess resultierenden An-forderungen aus globaler Sicht zufriedenstellend zu erfüllen. Insbesondere bestehen aus Sicht der Kollaborationsunterstützung für die Teilnehmer Mängel. Darüber hinaus müssen die Vollstän-digkeit bzw. Integrationsfähigkeit der verschiedenen Hilfsmittel, die Flexibilität der genutzten Werkzeuge, die Reproduzierbarkeit der Ergebnisse und die Anwendung einer strategisch ausge-richteten, zyklischen Vorgehensweise als ungenügend bewertet werden. Das IANUS-Verfahren wurde konzipiert um diese Lücken zu füllen. Es greift dabei auf verschie-dene konzeptionelle Grundsätze zurück, welche die Orientierung an den Bedürfnissen der Bera-tung gewährleisten sollen. Insbesondere wird die Implementierung eines Informationskreislaufes zur Gewinnung und Aufbereitung von Informationen und Erfahrungen gefordert. Dieser wird ergänzt durch die Standardisierung von Wissen in Form von Kennzahlen und die Gewährleistung der inhaltlichen Konsistenz durch regelbasierte Verknüpfungen. Darüber hinaus ist die Integrati-on von Wissen und Anwendungsprozess entscheidend für den Nutzengewinn durch den Einsatz des Verfahrens. Aufgrund der verschiedenen Teilnehmer und ihrer unterschiedlichen Kompeten-zen ist es notwendig, die verschiedenen Perspektiven und Kenntnisse zu berücksichtigen. Nur durch die gezielte Unterstützung der Kollaboration, die Handhabbarkeit der letztendlichen An-wendungen und die inhaltliche Flexibilität des Ansatzes kann dies erreicht werden. Die Wahl des des Internet als Medium bringt den Vorteil der dezentralen Nutzbarkeit bei zentraler Speicherung, wobei die für diese technische Basis typischen Gefahren berücksichtigt und beseitigt werden müssen. Das Ergebnis der Konzeption ist eine modulare internet-basierte Komponentenbiblio-thek, welche im vorgegebenen Rahmen flexibel ist. Für spezifische Aufgabenstellungen können vorab gewidmete Anwendungsinstanzen ausgeprägt und in Beratungsprojekten eingesetzt wer-den. Die kontinuierliche Weiterentwicklung gilt dabei der iterativen Verbesserung der Anwen-dungsinstanzen und der Komponentenbibliothek. Letztendlich beweist das IANUS-Verfahren, dass eine werkzeuggestützte Verbesserung von Beratungsdienstleistungen notwendig und mach-bar sind. KW - Unternehmensberatung KW - Internet KW - Standardanwendungssoftware KW - Programmbibliothek KW - Anpassung KW - Internet KW - Consulting KW - Werkzeug KW - Ianus KW - Janus KW - Internet KW - Consulting KW - Tool KW - Ianus KW - Janus Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-4744 ER - TY - THES A1 - Hecht, Heiko T1 - Einführung und kontinuierliche Adaption von betriebswirtschaftlichen Data-Warehouse-Bibliotheken T1 - Implementation and Continuous Adaptation of Business Data Warehouse Libraries N2 - Zielsetzung und Thesenbildung Zielsetzung der Arbeit ist es, ein ganzheitliches, werkzeuggestütztes Verfahren für die Einführung eines Data Warehouse (DW) zu konzipieren. Es wird dabei auf vorhandene Vorgehensmodelle zurückgegriffen, so dass nicht sämtliche Bestandteile vollständig neu zu entwickeln sind. Der Fokus der vorliegenden wissenschaftlichen Arbeit liegt auf den nachfolgend erläuterten Schwerpunkten. Innovative Data-Warehouse-Lösungen Entgegen der in der Literatur verbreiteten Meinung, dass es sich bei einer DW-Lösung um keine Standardanwendungssoftware handelt und diese nicht „von der Stange zu kaufen“ ist, wird im Folgenden gerade das Phänomen von Standardsoftware im DW-Bereich untersucht. Der Verfasser beschäftigt sich mit der Frage, inwieweit sich der Trend der 90er Jahre, Individual- durch Standardsoftware abzulösen, auch im DW-Bereich fortsetzen kann. Neben der Darstellung der bisherigen DW-Konzepte wird untersucht, ob ein neuer Typus DW den Wandel von einer Individual- hin zu einer Standardsoftware bewirken kann. Die wesentlichen Kriterien zur Kennzeichnung des neuen Konzepts werden herausgearbeitet und die am Markt bestehenden Produkte überprüft, inwieweit sie die aufgestellten Anforderungen erfüllen. Vorgehensmodell Die Vorgehensweise bei der Einführung eines DW wird anschließend problematisiert. Die methodische und technische Unterstützung in diesem Bereich, die bislang ebenfalls vernachlässigt werden, bilden einen weiteren Hauptbestandteil der Arbeit. Dabei werden adäquate Vorgehensweisen und -methoden aufgezeigt und bewertet. Die Ergebnisse hieraus und aus der Bewertung der bisherigen DW-Konzepte bilden die Grundlage für eine neue Vorgehensweise. Damit ist die Basis für das DELOS-Verfahren (Data-Warehouse-Einführung und Lokalisierung des Informationsbedarfs anhand operativer betriebswirtschaftlicher Softwarebibliotheken) geschaffen. Zusätzlich zu den bislang aufgestellten Anforderungen wird überprüft, inwieweit sich der Continuous-System-Engineering-Ansatz (CSE-Ansatz) auf den Bereich der Datenlagerhäuser übertragen lässt und diese im Zeitablauf kontinuierlich verbessert werden können. Informationsbedarfsanalyse Der Fokus wird auf den in der Literatur bislang vernachlässigten Schritt der IBA und ihrer informationstechnologischen Unterstützung gelegt. Die in der Literatur und Praxis bislang bekannten Methoden und Werkzeuge werden nach einer Vorauswahl auf ihre Anwendbarkeit im DW-Umfeld überprüft. Der Aufbau eines umfassenden Metadaten-Modells ist und kann nicht Ziel dieser Arbeit sein. Aufbau der Arbeit In der vorliegenden Arbeit wird der neue Typ der „betriebswirtschaftlichen Data-Warehouse-Bibliothek (DWB)“ definiert. Dazu werden die am Markt zu findenden Produktgruppen im DW-Umfeld herausgearbeitet und deren wesentliche Eigenschaften erläutert. Im Anschluss wird anhand der betrachteten DW-Lösungen geprüft, inwieweit diese den Anforderungen an eine betriebswirtschaftliche DWB gerecht werden. Nachdem der Begriff der DWB begründet und charakterisiert wurde, müssen die Anforderungen an die Adaption eines DW aufgezeigt werden. Die besonderen Eigenschaften der DWB bilden die Grundlage für den weiteren Verlauf der Arbeit. Im Mittelpunkt der weiteren Analyse steht die Frage nach einer möglichst geeigneten Einführungsunterstützungsmethodik. Die Vorgehensmodelle zur Einführung betriebswirtschaftlicher Standardsoftware AcceleratedSAP (ASAP) und Chestra werden erläutert und bewertet. Daran schließt sich eine kritische Würdigung ausgewählter IBA-Methoden an. Die Ergebnisse werden anschließend zur Konzeption und Umsetzung des DELOS-Verfahrens verwendet. Mit DELOS werden die Schwachpunkte der Vorgehensmodelle aus den vorangegangenen Kapiteln beseitigt. Dies bedeutet, dass z. B. die verwendbaren Bestandteile von ASAP und Chestra nicht neu konzipiert und entwickelt werden, sondern Wege aufgezeigt werden, wie diese im Sinne einer effektiven Einführungsmethodik ergänzt werden können. Danach wird die Umsetzung und der Einsatz des DELOS-Verfahrens im DW-Projekt geschildert. Es werden verschiedene Projektverläufe und die konkrete Anwendung der einzelnen Methoden aufgezeigt. Die bisherigen Erfahrungen beim Einsatz des Instrumentariums fließen in die Argumentation ein und die Besonderheiten bei der Anwendung werden herausgearbeitet. Mit der Evaluierung der angestellten Überlegungen schließt die Arbeit. Die Projekttauglichkeit wird getestet und das DELOS-Verfahren kritisch bewertet. Abschließend werden die Implikationen des konzipierten Verfahrens auf zukünftige Projekte und Anwendungsgebiete diskutiert und weitere Einsatzmöglichkeiten aufgezeigt. N2 - Objective and Thesis Formation The objective of this dissertation is to conceptualize a unified, tool-supported method for the implementation of a data warehouse (DW). At the same time, the available procedural models will be used, so that the components do not need to be completely redeveloped. The focus of the present research project lies in the following areas. Innovative Data Warehouse Solutions The use of standard software in DW will be analyzed, in contrast to the opinion commonly held in the research, that standard application software cannot be mass-produced and should not be used in a DW solution. The author deals with the question to what degree the trend of the 90s, substituting standard software for individualized software, can be applied to the area of DW. In addition to presenting earlier DW concepts, this thesis will explore whether a new type of DW can facilitate the changeover from individualized software to standard software. The main criteria for defining the new concept will be worked out and the products currently available on the market will be tested as to what degree they fulfill the selected requirements. Procedural Model The work approach for DW implementation will then be problematized. The methodological and technical support in this area, which has likewise been neglected up until now, comprises an additional core component of this dissertation. Concurrently, appropriate work approaches and procedural methods will be presented and evaluated. The results from this analysis combined with the results for earlier DW concepts form the basis for a whole new approach. This approach is called DELOS (Data Warehouse ImplEmentation and Localization of Informational Needs using Operative Business Software Libraries). In addition to verifying the requirements selected, the Continuous System Engineering approach (CSE approach) will be tested as to what degree it applies to data warehousing, and how it can be continually improved with time. Informational Needs Analysis (INA) The focus will be placed on the INA and its information technology support, both of which have been hitherto ignored in the research. Methods and tools well-known in the literature and widely used in practice will be pre- selected and tested for their application to the data warehousing environment. The creation of a comprehensive metadata model is not and cannot be the objective of this dissertation. Implications for Business The development of a generalized, product-independent model stands in the foreground, even when concrete ex- amples are included at certain stages. Nevertheless, the available concepts and products will be evaluated and categorized. However, it is not the objective of this dissertation to execute a technical product comparison, rather, the business and conceptual aspects will be emphasized. Technical properties will be ignored, as long as they don’t fundamentally affect the results. Structure of the Dissertation The new concept of “Business Data Warehouse Libraries” (BDWL) will be defined in this dissertation. At the same time, the product groups found on the market in the DW environment will also be defined and their essential properties will be explained. Next, using the DW solutions under consideration, the requirements will be examined as to what degree they apply to a BDWL. After the term “BDWL“ has been justified and defined, the requirements for the adaptation of a DW need to be presented. The unique properties of a BDWL form the basis for the development of this thesis. The focal point of further analysis is the question of the most appropriate implementation support methodology. The procedural models for the implementation of standard business software, AcceleratedSAP (ASAP) and Chestra, will be described in detail and evaluated, and selected INA methods will be endorsed after critical analysis. The results will then be used for the conceptualization and conversion of the DELOS Method. With DELOS, the weaknesses of the procedural model in the previous chapters are eliminated. This means that the useable components of ASAP and Chestra do not need to be conceptualized and developed anew; moreover, ways to supplement an effective implementation methodology will be presented. Afterwards, the conversion and usage of the DELOS Method in DW projects will be described. Various project runs and the concrete use of each method will be explained. Present experiences with implementing the instrument will be included in the argumentation and the special features of the application will be worked out. This dissertation concludes with an evaluation of the observations made. The project suitability will be tested and the DELOS method critically evaluated. In closing, the implications of the newly conceptualized method on future projects and application areas will be discussed and further possible uses will be shown. KW - Data-Warehouse-Konzept KW - Data Warehouse KW - Adaption KW - Continuous System Engineering KW - Business Intelligence KW - SAP BW KW - Data Warehouse KW - Adaption KW - Continuous System Engineering KW - Business Intelligence KW - SAP BW Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-4262 ER - TY - THES A1 - Knüpffer, Wolf T1 - Dynamisierung elektronischer Märkte durch Adaption N2 - Ergebnis der Arbeit ist ein wissensbasierter Ansatz zum Aufbau elektronischer Marktsysteme und die Beschreibung seiner Umsetzung in ein in der Praxis erprobtes und mehrfach erfolgreich eingesetztes System. Zielgruppe der Entwicklung sind kleine und mittlere Unternehmen (KMU), die mit diesem System in die Lage versetzt werden, eigenständig eine nach betriebswirtschaftlichen Regeln abgeleitete Electronic Commerce-Lösung aufzubauen. Elemente der beschriebenen Lösung sind der wissensbasierte Anforderungsnavigator und eine Standardanwendungssoftwarebibliothek. Im interaktiven Dialog mit dem wissensbasierten System wird ein individuell an die Anforderungen der KMU angepasster und betriebswirtschaftlich fundierter Realisierungsvorschlag für ein Electronic Commerce-System erzeugt und mit den Elementen der Standardsoftwarebibliothek ummittelbar in eine funktionsfähige Lösung umgesetzt. Motivation für den neuen Ansatz ist eine Untersuchung der marktgängiger Methoden und Werkzeuge zum Aufbau elektronischer Marktsysteme. Sie zeigt, dass die verfügbaren Mittel KMU technisch und betriebswirtschaftlich nur ungenügende Unterstützung zum Aufbau betriebswirtschaftlich fundierter Lösungen bieten. Grundlagen für den neuen Ansatz sind die am Lehrstuhl von Prof. Dr. R. Thome, Universität Würzburg, in einer Reihe wissenschaftlicher Arbeiten entwickelten Konzepte zur Adaption der betriebswirtschaftlichen Standardanwendungssoftwarebibliothek SAP/P3. Eine betriebswirtschaftliche Standardanwendungssoftwarebibliothek zum Aufbau elektronischer Marktsysteme im Internet existierte bisher nicht. Ebenso wenig ein geeigneter Anforderungsnavigator zu ihrer schnellen und gezielten Anpassung und Einführung im Unternehmen. Aufbauend auf der Untersuchung der verfügbaren Methoden und einer Klassifizierirung und Bewertung des Werkzeugangebots wird nach den aktuellen Möglichkeiten komponentenbasierter Softwaretechnologie eine umfassende und vollständig parametrisierbare Standardanwendungssoftwarebibliothek entwickelt. Zur Realisierung des Anforderungsnavigators werden wissensbasierte Problemlösungsmethoden bewertet, problemorientiert eingesetzt und ein strukturierter Fragenkatalog zur Ableitung eines betriebswirtschaftlichen Konzeptes für ein elektronisches Marktsystem konzipiert. Anschließend wird die Realisierung und Anwendung des IntelliShop-Systems beschrieben, das beide Teilsysteme integriert. Erst durch die vollständige Integration der komponentenbasierten Standardanwendungssoftwarebibliothek mit dem Anforderungsnavigator wird eine unmittelbare und automatisierte Umsetzung der Ergebnisse der wissensbasierten Analyse in eine funktionsfähige Electronic Commerce-Anwendung möglich. KMU profitieren nicht nur davon, dass so Lösungen sehr schnell und damit kostengünstig aufgebaut werden können. Der Ergebnisbericht der wissensbasierten Analyse liefert ihnen eine umfassende, nicht nur technische, sondern auch betriebswirtschaftliche Gesamtkonzeption, die sie mit dem Anforderungsnavigator ohne Berater- oder Entwicklerunterstützung selbstständig umsetzen und - wenn nötig - auch kurzfristig anpassen können. So wird eine dynamische Adaption elektronischer Marktsysteme an neue Anforderungen möglich. KW - Electronic Commerce KW - Anwendungssystem KW - Anpassung KW - Standardsoftware KW - Electronic Commerce KW - Elektronische Märkte Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-9431 ER - TY - THES A1 - Gerhardt, Eduard T1 - Strategische Steuerung der öffentlichen Verwaltung durch intelligente und integrierte Erfassung der Leistungs- und Wirkungsdaten T1 - Strategic Controlling of Public Administration by Intelligent and Integrated Collection of Achievements and Effects Data N2 - Die gegenwärtig im öffentlichen Sektor zu verzeichnende breite Akzeptanz betriebswirt-schaftlicher Standardanwendungssoftware (SAS) ist nicht zuletzt in der Hoffnung begründet, durch die in ihr inkorporierten und sich bewährten privatwirtschaftlichen Methoden die Steue-rungsprobleme der Politik und Verwaltung lösen zu können. Aus der primär konzeptionellen Ausrichtung der betriebswirtschaftlichen SAS auf die Lösung von ökonomischen Aufgaben in kommerziellen Unternehmen ergeben sich jedoch Funktionslücken in Bezug auf die ganzheit-liche Steuerung von Verwaltungsprozessen. Die Standardsoftware als Organisator des betrieb-lichen Ablaufs in Unternehmen kann diese Funktion in der öffentlichen Verwaltung nicht in vollem Umfang erfüllen. Dem Einsatz der Informations- und Kommunikations- (IuK-)Technologie in der öffentlichen Verwaltung kommt aber eine außerordentliche Bedeutung zu, denn nichts kann wertneutraler und effizienter eindeutig geregelte bürokratische Verfahren vollziehen als eine Software. Die stärkere Automatisierung von Verwaltungsprozessen ist folglich ein beträchtlicher Beitrag zur Schaffung einer friedlichen Koexistenz zwischen der Bürokratie und privatwirtschaftlichen Managementtechniken. Die vorliegende Untersuchung zeigt daher die Möglichkeiten und Grenzen des Einsatzes be-triebswirtschaftlicher Anwendungssysteme in der öffentlichen Verwaltung. Die vorhandenen Funktionsdefizite werden primär unter dem Gesichtspunkt der operativen und strategischen Steuerung des administrativen Handelns systematisch identifiziert. Darauf aufbauend erfolgt eine Konzeption der integrierten und intelligenten Erfassung von Leistungs- und Wirkungsda-ten in der öffentlichen Verwaltung, um eine Informationsbasis für das Controlling zu schaffen und dieses auch zu institutionalisieren. N2 - The broad acceptance of standard application software for commercial enterprises (SAS) in the public sector is justified by the fact, that methods of controlling the commercial activities, which are implemented in the SAS, can help to solve current problems of controlling the pol-icy and administration. The primary functional focus of business management SAS on support of different processes in commercial enterprises do however lead to function gaps concerning the control of administrative processes in public sector. The standard software as a supervisor of the operational sequence in enterprises cannot fulfill this function in the public administra-tion to full extent. But the employment of the information and communication (IuC)Technologie in the public administration is most significant, because nothing can carry out worth-neutral and more efficiently clearly regulated bureaucratic procedures than a soft-ware. Therefore the stronger automation of administrative processes is a considerable contri-bution for creating a peaceful coexistence between the bureaucracy and private-economical management techniques. The following scientific work examines therefore the possibilities and borders of the em-ployment of application systems, which are primarily designed for commercial enterprises, in public administration. The existing function deficits are systematically identified under the criterion of the operational and strategic controlling of administrative processes. This work results in a conception for the integrated and intelligent collection of achievement and effects data in public administration, in order to create an information basis for controlling public administrative processes and also institutionalize this. KW - Verwaltung KW - Organisation KW - Strategisches Management KW - Enterprise-Resource-Planning KW - Öffentliche Verwaltung KW - ERP KW - Performance Measurement KW - Informationsverarbeitung KW - Public Administration KW - ERP KW - Performance Measurement KW - Information Processing Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-9508 ER - TY - THES A1 - Müller, Holger T1 - Gestaltungsanforderungen Internettechnologie-basierter Marktplätze aus Sicht der industriellen Beschaffung : Entwurf eines entscheidungsorientierten objektzentrierten Analyseschemas T1 - Industrial supply management requirements on internet-technology based marketplaces N2 - Internettechnologie-basierte Marktplätze standen von 1999 bis Mitte 2000 im Mittelpunkt euphorischer Prognosen. Schnell kehrte jedoch Ernüchterung ein, da die Nutzung der Marktplätze weitaus langsamer voranging als allgemein erwartet wurde. Dafür wird als ein Hauptgrund die mangelnde Erfahrungen sowohl auf Seiten der Marktplatzbetreiber als auch der nachfragenden Unternehmen hinsichtlich der ganzheitlichen Betrachtung und Restrukturierung der Beschaffungsprozesse unter Einsatz des „Hilfsmittels“ Internettechnologie-basierter Marktplatz angeführt. Mit der einhergehenden Versachlichung der Diskussion wurde aber auch deutlich, dass viele nachfragende Unternehmen mittlerweile in diesen Plattformen ein unentbehrliches Instrument zur Unterstützung des zwischenbetrieblichen Leistungsaustauschs sehen. Die steigende Akzeptanz der virtuellen Handelsplattformen darf nicht darüber hinweg täuschen, dass die Mehrzahl der nachfragenden Unternehmen erst seit kurzer Zeit und nur bei einigen der angebotenen Marktplatzdiensten Erfahrungen sammeln konnten. Ähnliches ist auf Seiten der Marktplatzbetreiber zu konstatieren, die zum Teil die Leistungen und Funktionen ihrer Systeme in den vergangenen Jahren mehrfach neu gestalteten, da sich bei vielen Plattformen der Fokus von konkurrenzorientierten hin zu kollaborativen Szenarien verschob. In der Konsequenz existiert nach wie vor eine hohe Unsicherheit, welche Gestaltungsanforderungen an die Plattformen zu stellen sind, um die Beschaffungsabläufe sicher, effizient und durchgängig zu unterstützen. Im Rahmen der Dissertation wird daher ein beschaffungsobjektzentrierter Anforderungskatalog an Internettechnologie-basierte Marktplätze systematisch erarbeitet, um eine betriebswirtschaftlich fundierte Bewertung dieser Plattformen aus Sicht der industriellen Beschaffung zu ermöglichen. Neben der Einleitung und der Schlussbetrachtung gliedert sich die Untersuchung in fünf Hauptteile. Im zweiten Kapitel werden zunächst die für die Arbeit relevanten Grundlagen der industriellen Beschaffung herausgearbeitet. Das dritte Kapitel dient der Einordnung elektronischer Marktplätze in den zwischenbetrieblichen Beschaffungsprozess. Dabei steht im ersten Teil der Markt als grundlegender ökonomischer Koordinationsmechanismus im Mittelpunkt. Ausgehend von der volks- und betriebswirtschaftlichen Definition werden die relevanten Faktoren herausgearbeitet, die einen Markt aus Beschaffungssicht fixieren. Darauf aufbauend erfolgt eine Analyse der marktmäßig organisierten Leistungskoordination, die in einem idealtypischen Phasenmodell einer Geschäftstransaktion mündet. Der im Anschluss skizzierte Aufbau elektronischer Marktplätze, in den das Phasenmodell integriert wird, stellt die strukturelle Grundlage zur Ableitung der Gestaltungsanforderungen dar. Die in der Arbeit fokussierte Teilmenge der elektronischen Marktplätze – die Internettechnologie-basierten Marktplätze – werden im zweiten Teil des dritten Kapitels aus Beschaffungssicht diskutiert und anderen interorganisationalen Systemen zur Unterstützung des Transaktionsprozesses gegenübergestellt. Abschließend wird veranschaulicht, auf welche dieser Systeme die Erkenntnisse dieser Arbeit übertragbar sind. Die Zielstellung des vierten Kapitels besteht im Entwurf eines Klassifizierungssystems für Beschaffungsobjekte, das zur Entwicklung des objektzentrierten Analyseschemas Internettechnologie-basierter Marktplätze geeignet ist. Durch eine Auswertung sowohl der wissenschaftlichen als auch praxisnahen Fachliteratur werden die für die Untersuchung einzubeziehenden Objektmerkmale ermittelt. Die nachfolgende Verdichtung und Verknüpfung der Eigenschaften resultiert in drei zu berücksichtigenden Objektmerkmalen – Spezifität, Komplexität und strategische Bedeutung – mit jeweils bipolaren Ausprägungen, die zusammen einen Würfel mit acht Beschaffungsobjektgruppen bilden. Im fünften Kapitel werden ausgehend vom Aufbau elektronischer Marktplätze die möglichen Funktionalitäten und Leistungen in den einzelnen Untersuchungsbereichen aufgezeigt. Im Mittelpunkt steht dabei neben der Unterstützung der einzelnen Phasen einer Geschäftstransaktion die übergeordnete Organisationsebene, welche die Ausrichtung und Positionierung des Marktplatzes sowie die durchführbaren Geschäftsvorfälle bzw. Prozessabläufe determiniert. Nachfolgend wird aus den gewonnenen Erkenntnissen für jede der acht Objektgruppen der spezifische Anforderungskatalog aus Beschaffungssicht abgeleitet. Inwieweit Internettechnologie-basierte Marktplätze für den deutschsprachigen Raum die abgeleiteten Gestaltungsanforderungen erfüllen, wird abschließend im sechsten Kapitel untersucht. Basierend auf Datenmaterial, das im Rahmen der seit Anfang 2000 am Lehrstuhl für Betriebswirtschaftslehre und Industriebetriebslehre der Bayerischen Julius-Maximilians-Universität laufenden Studie „b2b-Marktplatzführer“ erhoben wurde, konnten zum 15.07.2003 79 Marktplätze einbezogen werden. N2 - For years electronic marketplaces based on internet-technology have been considered as a promising tool to greatly improve the efficiency of business-to-business procurement transaction. Despite the considerable attention in this area there is still a substantial uncertainty about the services of marketplaces needed by the industrial supply management. The goal of this study is to analyse the requirements of supply management depending on types of demanded goods. Therefore a classification scheme for demanded goods is developed based on three identified attributes – the complexity, the specificity and the strategic importance of an item. In consequence this classification scheme consists of eight classes of objects to be procured. Subsequently the specific requirements for each class are determined founding on a detailed analysis of potential services of marketplaces. Finally a survey was carried out to investigate how marketplaces in German speaking countries meet the proposed requirements. KW - Internet KW - Beschaffung KW - Electronic Commerce KW - elektronischer Marktplatz KW - Beschaffung KW - Beschaffungsobjekte KW - Objektgruppenanalyse KW - Beschaffungsprozess KW - electronic marketplace KW - supply managament KW - demand goods KW - classsification scheme KW - procurement transaction Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8353 ER - TY - THES A1 - Hennermann, Frank T1 - Betriebswirtschaftliche Wissenspakete als Informationsträger der Softwareadaption N2 - Moderne betriebswirtschaftliche Softwarelösungen speichern in den Systemeinstellungen und Tabelleneinträgen eine sehr große Menge des unternehmensspezifischen Wissens über Geschäftsabläufe und Organisationsstrukturen. Der vermehrte Einsatz unterschiedlicher Lösungen zur Abbildung der internen Prozesse auf der einen und zur Öffnung der Geschäftstätigkeiten im Bereich des Electronic Business (e-Business) auf der anderen Seite stellt neue Heraus-forderungen an die Methoden und Konzepte zur Einführung bzw. Betreuung der eingesetzten Systeme. Im Rahmen der Arbeit wird untersucht, welche Schritte notwendig sind, um eine transparente Speicherung und Nutzung des vorhandenen Wissens sowie der gesammelten Informationen system- bzw. methodenübergreifend sicherzustellen und wie die bestehenden Ansätze aus dem Bereich der Softwareadaption in den Gesamtkontext integriert werden können. Kernpunkte sind die methodische Unterstützung einer zielgerichteten Navigation durch die Informationsflut und die Entwicklung eines geeigneten Instrumentariums, das in der Lage ist, heterogene Softwarelandschaften abzubilden und als Dokumentationsbasis für zukünftige Systemmodifikationen zu dienen. KW - Softwareentwicklung KW - Unternehmen KW - Wissenspakete KW - Softwareadaption KW - THESEUS KW - Knowledge KW - package KW - Softwareadaption KW - THESEUS Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-3418 ER - TY - THES A1 - Siedler, Udo T1 - Beratungs- und Dienstleistungsgeschäft mittels eines elektronischen Marktes - Konzeption und Realisierung eines virtuellen Adaptionsmarktplatzes für Beratungsunternehmen im SAP R/3-Markt T1 - Consultation and service business by means of an electronic market N2 - In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet. N2 - In dieser Arbeit soll aufgezeigt werden, wie das Beratungs- und Dienstleistungsgeschäft mit Hilfe eines elektronischen Marktes effektiver und effizienter gestaltet werden kann. Hierbei geht es nicht darum, neue Electronic Commerce-Ansätze zu verfolgen, sondern die Projektierung der Einführung von Softwarebibliotheken über einen Adaptionsmarktplatz zu realisieren. D. h. die bei der Implementierung Beteiligten werden durch Informations- und Kommunikationstechnologie zusammengeführt und bei ihrer Arbeit unterstützt. Die Weiterführung geht hin zu einem Dienstleistungsmarktplatz, der ein erweitertes Angebot an Diensten und Services beinhaltet, die mit IuK-Technologie realisiert werden und über die Unterstützung bei der Einführung von Standardanwendungssoftware hinaus gehen. Innerhalb des Beratungsmarktes im SAP R/3-Umfeld wird der Fokus auf die Anbieter gesetzt. Folgende Anforderungen an die Projektarbeit der Beratungsunternehmen sollen durch einen Adaptionsmarktplatz basierend auf IuK-Technologie unterstützt werden: - transparente Vorgehensweise durch jederzeit zugängliche Dokumentationen und Statusberichte im Projektteam, - teamorientiertes Arbeiten (Gruppenarbeit) wird durch Informations- und Kommunikationstechnologie, z. B. durch Ressourcen- und Information-Sharing, unterstützt, - Methodenkompetenz wird durch strukturierte, transparente Vorgehensweise mit Hilfe von Referenzmodellen und Tooleinsatz erzeugt, - Themen-, Fach-, Produkt- und Branchenkompetenz wird durch Templates und entsprechendes Wissensmanagement gesichert, - Standardisierung ermöglicht die Interoperabilität heterogener IuK-Infrastrukturen, - eine schnelle und kostengünstige Abwicklung mit hoher Qualität der Beratung wird durch das Nutzenpotential der Informations- und Kommunikationstechnologie gewährleistet. KW - Beratungsbetrieb KW - Electronic commerce KW - Beratungsgeschäft KW - Adaptionsmarktplatz KW - Standardanwendungssoftware KW - Softwarebibliothek KW - consultation business KW - adaptation market place Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-6468 ER - TY - THES A1 - Gerdau, Ole T1 - Applicability of Intrinsic Value Models at the Segmented Chinese Stock Market T1 - Anwendbarkeit intrinsischer Wertmodelle am segmentierten chinesischen Kapitalmarkt N2 - Ziel dieser Arbeit ist es, die Anwendbarkeit intrinsischer Wertmodelle in dem nach inländischen und ausländischen Investoren segmentierten chinesischen Kapitalmarkt zu untersuchen. Innerhalb des Frameworks der internationalen Portfolio Investment Theorie werden segmentspezifische Preisunterschiede nicht irrationalem Verhalten zugeschrieben, sondern als in Übereinstimmung mit ökonomischer Theorie angesehen. Der theoretische Vergleich von Gleichgewichts- und intrinsischen Wertmodellen lässt letztere für das chinesische Marktumfeld geeigneter erscheinen. Vor diesem Hintergrund wird in dieser Arbeit die Relevanz intrinsischer Wertmodelle für chinesische Aktienpreise empirisch untersucht. Demnach sind Preisunterschiede auf ungleiche Investitionsmöglichkeiten und segmentspezifische Charakteristika zurückzuführen. Dennoch führen die Ergebnisse im Hinblick auf den inländischen und Hongkong-chinesischen risikolosen Zinsproxys zu dem Schluss, dass intrinsische Wertmodelle gegenüber linearen Faktormodellen nicht als geeigneter angesehen werden können. N2 - This thesis examines the application of intrinsic value models considering segmentation between foreign and domestic investors’ stock segments in China. Within the framework of international portfolio investment theory, segment-specific price differences are theorized to be not caused by irrational behavior but consistent with economic theory. Theoretical comparison of equilibrium and intrinsic value models suggests the latter to be more suitable regarding the Chinese market environment. Correspondingly, in this thesis the relevance of intrinsic value models for Chinese stock prices is examined empirically. It is concluded that price differences can be ascribed to unequal investment opportunities and segment specific characteristics. Nevertheless, results from the domestic and Hong Kong risk-free rate proxy lead to the conclusion that intrinsic value models cannot be considered better suited than linear factor models. KW - China KW - Aktienmarkt KW - Preisbildung KW - Unternehmensbewertung KW - Marktsegmentierung KW - implizite Kapitalkosten KW - intrinsic value models KW - Chinese stock market KW - market segmentation KW - implied cost of capital Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-55652 ER - TY - THES A1 - Lücking, Thomas T1 - Acquisition Behavior in High-Technology Industries – The Role of Product Diversification, Technological Change, and IP Protection T1 - Akquisitionsverhalten in Hochtechnologiebranchen – Die Rolle von Produktdiversifikation, technologischem Wandel und dem Schutz von geistigem Eigentum N2 - Frequent acquisition activities in high-technology industries are due to the intense competition, driven by short product life cycles, more complex products/services and prevalent network effects. This dissertation theoretically analyzes the circumstances leading to technology-driven acquisitions and empirically tests these within a clearly defined market scenario. N2 - Die zahlreichen Unternehmensakquisitionen in Hochtechnologiebranchen sind einem intensiven Wettbewerb geschuldet, der durch immer kürzere Produktlebenszyklen, komplexere Produktdesigns und extreme Netzwerkeffekte geprägt ist. Die vorliegende Forschungsarbeit hat zum Ziel, die genauen Umstände, die zu technologiegetriebenen Akquisitionen führen, in Form von relevanten erklärenden Einflussfaktoren theoretisch herzuleiten und empirisch zu untersuchen. KW - Mergers and Acquisitions KW - Technologieunternehmen KW - Hochtechnologie KW - Unternehmensakquisition KW - Produktdiversifikation KW - High-technology KW - acquisition behavior KW - product diversification KW - strategic management KW - organizational science KW - Spitzentechnologie KW - Strategisches Management KW - Organisationstheorie Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-85065 ER - TY - RPRT A1 - Hochrein, Simon A1 - Bogaschewsky, Ronald A1 - Heider, Matthias T1 - Supply Chain Management Reviews N2 - Diese Arbeit untersucht Literatur Reviews (LRs) im Forschungsfeld des Supply Chain Managements (SCM). Hierfür werden zunächst die methodischen und terminologischen Grundlagen der Analyse erarbeitet sowie taxonomische und thematische Klassifikati-onsschemata vergleichend gegenübergestellt. Anschließend werden der LR-Prozess dieser Untersuchung und ausgewählte Evaluationsdimensionen definiert. Auf diesen grundlegenden Vorarbeiten aufbauend werden LRs des SCM identifiziert, klassifiziert und umfassend bewertet. Die Forschungsergebnisse zeigen, dass es narrativen LRs teil-weise an methodischer Genauigkeit mangelt und infolgedessen die Technik des syste-matischen LR zunehmend an Bedeutung gewinnt. Darüber hinaus dient diese Arbeit als Bewertungsraster zur Evaluation der methodischen Güte von LRs, als Leitlinie zur Er-stellung von systematischen LRs und als State-of-the-Art der Sekundärforschung im SCM. T3 - Working Paper Series of the Institute of Business Management - 2 KW - Supply chain management KW - Supply Chain KW - Literatur Review KW - Systematischer (Literatur) Review KW - Meta-Analyse KW - State-of-the-Art KW - Systematischer Überblick KW - Tertiärstudie Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-95577 SN - 2199-0328 ER - TY - RPRT A1 - Keidel, Florian T1 - Identification and Examination of the Relationship between Determinants of Corporate Sustainability and Corporate Financial Performance – An Empirical Analysis N2 - In this paper the relationship between corporate sustainability performance and corporate financial performance is researched. It is hypothesized that a better sustainability performance of firms leads to financial success in terms of increased EBIT and Market Capitalization. Furthermore 17 environmental activities and their assumed impact on financial benefits are analyzed for ten different industry sectors. The data sample for this research paper has been taken from Thomson Reuters Database ASSET4 and includes 3115 firms. The results show that there is a positive and non-linear link between the sustainability performance and the financial performance of firms, intending that financially more successful firms can gain greater benefits from being sustainable than less successful firms do. Furthermore sustainable environmental activities have been identified for different industry sectors, which indicate to lead to an increase of the financial performance. T3 - Working Paper Series of the Institute of Business Management - 1 KW - Nachhaltigkeit KW - Empirische Forschung KW - Corporate Sustainability KW - ESG (environmental, social, governance) KW - Environmental Performance KW - Corporate Financial Performance KW - Empirical Analysis KW - ASSET4 Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-94415 SN - 2199-0328 ER - TY - THES A1 - Schickhardt, Irene T1 - A Process Model for Selecting the Most Appropriate Production Site : an Application-oriented Approach for OEMs based on a Literature Analysis T1 - Ein Prozessmodell für die Wahl des geeignetsten Produktionsstandorts N2 - The global selection of production sites is a very complex task of great strategic importance for Original Equipment Manufacturers (OEMs), not only to ensure their sustained competitiveness, but also due to the sizeable long-term investment associated with a production site. With this in mind, this work develops a process model with which OEMs can select the most appropriate production site for their specific production activity in practice. Based on a literature analysis, the process model is developed by determining all necessary preparation, by defining the properties of the selection process model, providing all necessary instructions for choosing and evaluating location factors, and by laying out the procedure of the selection process model. Moreover, the selection process model includes a discussion of location factors which are possibly relevant for OEMs when selecting a production site. This discussion contains a description and, if relevant, a macroeconomic analysis of each location factor, an explanation of their relevance for constructing and operating a production site, additional information for choosing relevant location factors, and information and instructions on evaluating them in the selection process model. To be successfully applicable, the selection process model is developed based on the assumption that the production site must not be selected in isolation, but as part of the global production network and supply chain of the OEM and, additionally, to advance the OEM’s related strategic goals. Furthermore, the selection process model is developed on the premise that a purely quantitative model cannot realistically solve an OEM’s complex selection of a production site, that the realistic analysis of the conditions at potential production sites requires evaluating the changes of these conditions over the planning horizon of the production site and that the future development of many of these conditions can only be assessed with uncertainty. N2 - Die globale Standortwahl ist eine sehr komplexe Aufgabe von immenser strategischer Bedeutung für Automobilhersteller (OEMs). Die strategische Bedeutung rührt nicht nur daher, dass die Standortwahl wichtig für die Wettbewerbsfähigkeit von OEMs ist, sondern auch von der großen langfristigen Investition, die ein Produktionsstandort erfordert. In der vorliegenden Arbeit wird ein Prozessmodell entwickelt, mit dessen Hilfe OEMs in der Praxis einen für ihre Produktionsaktivität geeigneten Standort finden können. Das Prozessmodell wird auf Basis einer Literaturanalyse entwickelt: erstens werden vorbereitende Maßnahmen bestimmt, zweitens werden die Eigenschaften des Prozessmodells definiert und alle notwendigen Anleitungen für die Auswahl und Auswertung von Standortfaktoren dargestellt und drittens wird der Ablauf des Prozessmodells entworfen. Das Prozessmodell beinhaltet darüber hinaus eine Diskussion der Standortfaktoren, die für die Produktionsstandortsuche eines OEM relevant sein können. Diese Diskussion setzt sich aus der Beschreibung jedes Standortfaktors, einer makroökonomischen Analyse – soweit relevant –, einer Erklärung der Bedeutung des Standortfaktors für den Bau und Betrieb der Produktionsstätte sowie zusätzlichen Informationen für die Auswahl und Auswertung der Standortfaktoren zusammen. Damit der Auswahlprozess erfolgreich angewandt werden kann, wurde er unter der Annahme entwickelt, dass ein Produktionsstandort nicht isoliert gewählt werden kann, sondern als Teil des globalen Produktionsnetzwerkes und Supply Chain des OEM sowie unter Berücksichtigung der strategischen Ziele des OEM. Darüber hinaus wurde angenommen, dass ein rein quantitatives Modell die komplexe Produktionsstandortwahl eines OEM nicht lösen kann und die realistische Analyse der Bedingungen an potenziellen Standorten eine dynamische Analyse für den Planungshorizont des Produktionsstandortes erfordert und die zukünftige Entwicklung dieser Bedingungen nur mit Ungewissheit bewertet werden kann. KW - Produktionsstandort KW - Standortfaktor KW - Produktionsstandort KW - Standortfaktor KW - Location Factors KW - Production Site Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276652 ER - TY - THES A1 - Wanner, Jonas Paul T1 - Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 T1 - Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0 N2 - Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. N2 - Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt. Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind. Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Industrie 4.0 KW - Explainable AI KW - Erklärbare Künstliche Intelligenz KW - Artificial Intelligence KW - Industry 4.0 KW - Decision Support Systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259014 ER - TY - THES A1 - Hubmann, Maximilian T1 - Steuervermeidung und grenzüberschreitende Besteuerung – eine betriebswirtschaftliche, dogmatische und wissenschaftstheoretische Analyse T1 - Tax avoidance and cross-border taxation - a managerial, dogmatic and methodological analysis N2 - In dieser Dissertation werden ausgewählte Aspekte der Steuervermeidung und grenzüberschreitenden Besteuerung betrachtet. Im Teil B liegt der Fokus auf der Empirie zu Steuervermeidung und Gewinnverlagerung multinationaler Unternehmen mit drei einzelnen Aufsätzen. Der Teil C untersucht die unterschiedliche Besteuerung von Human- und Sachvermögen anhand der beiden fundamentalen Besteuerungsprinzipien des Äquivalenz- und des Leistungsfähigkeitsprinzips. Der letzte Aufsatz (Teil D) analysiert das Werturteilsfreiheitspostulat im Stakeholder-Ansatz und zeigt mithilfe eines Fallbeispiels, wie die Unternehmensbesteuerung in unterschiedliche Stakeholder-Ansätze integriert werden kann. Eine abschließende Gesamtwürdigung geht auf verbleibende Forschungsfragen ein (Teil E). Somit wird in der vorliegenden Dissertation grenzüberschreitende Besteuerung anhand betriebswirtschaftlicher, besteuerungsprinzipiengestützter bzw. dogmatischer und wissenschaftstheoretischer Gesichtspunkte untersucht. N2 - This dissertation examines selected aspects of tax avoidance and cross-border taxation. Part B focuses on the empirics of tax avoidance and profit shifting by multinational corporations with three individual essays. Part C examines the different taxation of human capital and (in)tangible assets based on the fundamental taxation principles (ability to pay and benefit principle). The last essay (Part D) analyzes the value-free ideal and shows, how corporate taxation can be integrated into different stakeholder approaches. Thus, this dissertation examines cross-border taxation from a managerial, taxation-principle-based, and methodological perspective. KW - Steuervermeidung KW - Steuerentstrickung KW - Äquivalenzprinzip KW - Stakeholder KW - tax avoidance KW - Wertfreiheit KW - Werturteilsfreiheit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-303698 ER - TY - THES A1 - Joha, Philipp T1 - Prüfungshonorare und Prüferwahl großer, nicht börsennotierter Unternehmen T1 - Audit Fees and Auditor Choice in Large Private Companies N2 - Nicht börsennotierte Unternehmen stellen in den meisten Volkswirtschaften die Mehrzahl der Unternehmen, leisten einen erheblichen Beitrag zur Wirtschaftskraft der Länder und beschäftigen eine Vielzahl von Arbeitnehmern. Bisher ist jedoch nur in geringem Ausmaß darüber bekannt, welche Rolle die Institution „Abschlussprüfung“ bei diesen Unternehmen spielt. Der bisherige Befund der internationalen und nationalen Prüfungsforschung fokussiert sich überwiegend auf das relativ kleine Prüfungsmarktsegment der börsennotierten Unternehmen, vernachlässigt dabei aber den Markt der nicht börsennotierten Prüfungsmandate. Die vorliegende Studie beschäftigt sich deswegen mit den Fragen, welche Bedeutung der Institution „Abschlussprüfung“ bei nicht börsennotierten Unternehmen zukommt und wie dieses Segment des Prüfungsmarktes charakterisiert werden kann. Anhand der Untersuchung von Prüfungshonoraren und der Prüferwahlentscheidung werden Faktoren identifiziert, die das Angebot und die Nachfrage nach Prüfungsqualität bei großen, nicht börsennotierten Unternehmen beeinflussen. Besonders beleuchtet werden die Bedeutung von Agency-Konflikten im Hinblick auf den Prüfungsqualitätsbedarf bei nicht börsennotierten Unternehmen, die Rolle von mittelgroßen Prüfungsgesellschaften und das Angebot und die Erbringung von Nichtprüfungsleistungen. Die multivariaten Analysen zeigen, dass sich vor allem Agency-Konflikte sowie Größen- und Komplexitätsfaktoren auf Angebot und Nachfrage nach Prüfungsqualität auswirken. Honorarprämien für große und mittelgroße Prüfungsgesellschaften sprechen für eine mehrstufige Qualitätsdifferenzierung innerhalb der Gruppe der Anbieter von Prüfungsleistungen. Auch die gleichzeitige Erbringung von Beratungsleistungen durch den Abschlussprüfer übt einen signifikanten Einfluss aus. Diese Ergebnisse sprechen dafür, dass die Institution „Abschlussprüfung“ auch bei nicht börsennotierten Unternehmen eine wichtige Rolle spielt. Zudem zeigt die Studie auch, dass sich das Prüfungsmarktsegment für diese Mandate in einigen Punkten wesentlich vom börsennotierten Marktsegment unterscheidet. N2 - In most economies private companies form the majority of all firms, account for a relevant portion of countries` economic power and employ a large part of economies` employees. While the main part of audit research is focused on the small market segment of listed companies little is known about the role of auditing in the market segment for private firms despite their economic importance. Thus, the present dissertation concentrates on answering questions about the importance of auditing and market characteristics in the private client segment. By analyzing audit fees and auditor choice the present work identifies determinants which are influencing the supply and demand for audit quality in large, private firms. The focus is on the importance of agency-conflicts with regard to the demand for audit quality, the role played by second-tier audit firms and the supply and demand for non-audit services. Multivariate analyzes show that supply and demand for audit quality is driven by agency-conflicts and companies` size and complexity. Fee premia for BIG-4 and second-tier auditors suggest a multilevel differentiation of audit quality within the group of auditors in this market segment. The provision of non-audit services by the auditor shows influence as well. Overall, the results indicate that auditing plays an important role in the audit market segment of private companies. Furthermore, the work highlights some important differences in this market segment compared to the listed clients segment. KW - Prüfungsqualität KW - Nicht börsennotierte Unternehmen KW - Prüfungshonorare KW - Prüferwahl KW - Private Companies KW - Audit Quality Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146508 SN - 978-3-95826-056-6 (Print) SN - 978-3-95826-057-3 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-056-6, 41,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - JOUR A1 - Föll, Patrick A1 - Thiesse, Frédéric T1 - Exploring Information Systems Curricula JF - Business & Information Systems Engineering N2 - The study considers the application of text mining techniques to the analysis of curricula for study programs offered by institutions of higher education. It presents a novel procedure for efficient and scalable quantitative content analysis of module handbooks using topic modeling. The proposed approach allows for collecting, analyzing, evaluating, and comparing curricula from arbitrary academic disciplines as a partially automated, scalable alternative to qualitative content analysis, which is traditionally conducted manually. The procedure is illustrated by the example of IS study programs in Germany, based on a data set of more than 90 programs and 3700 distinct modules. The contributions made by the study address the needs of several different stakeholders and provide insights into the differences and similarities among the study programs examined. For example, the results may aid academic management in updating the IS curricula and can be incorporated into the curricular design process. With regard to employers, the results provide insights into the fulfillment of their employee skill expectations by various universities and degrees. Prospective students can incorporate the results into their decision concerning where and what to study, while university sponsors can utilize the results in their grant processes. KW - curriculum research KW - topic modeling KW - text mining KW - LDA KW - IS education Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-270178 SN - 1867-0202 VL - 63 IS - 6 ER - TY - THES A1 - Siller, Benjamin T1 - Influence of Lead Time and Emission Policies on the Design of Supply Chains – Insights from Supply Chain Design Models T1 - Einfluss von Lieferzeiten und Emissionspolitiken auf das Design von Supply Chains – Erkenntnisse aus Supply Chain Design Modellen N2 - Companies are expected to act as international players and to use their capabilities to provide customized products and services quickly and efficiently. Today, consumers expect their requirements to be met within a short time and at a favorable price. Order-to-delivery lead time has steadily gained in importance for consumers. Furthermore, governments can use various emissions policies to force companies and customers to reduce their greenhouse gas emissions. This thesis investigates the influence of order-to-delivery lead time and different emission policies on the design of a supply chain. Within this work different supply chain design models are developed to examine these different influences. The first model incorporates lead times and total costs, and various emission policies are implemented to illustrate the trade-off between the different measures. The second model reflects the influence of order-to-delivery lead time sensitive consumers, and different emission policies are implemented to study their impacts. The analysis shows that the share of order-to-delivery lead time sensitive consumers has a significant impact on the design of a supply chain. Demand uncertainty and uncertainty in the design of different emission policies are investigated by developing an appropriate robust mathematical optimization model. Results show that especially uncertainties on the design of an emission policy can significantly impact the total cost of a supply chain. The effects of differently designed emission policies in various countries are investigated in the fourth model. The analyses highlight that both lead times and emission policies can strongly influence companies' offshoring and nearshoring strategies. N2 - Von Unternehmen wird erwartet, dass sie international agieren und ihre Fähigkeiten nutzen, um schnell und effizient maßgeschneiderte Produkte und Dienstleistungen anzubieten. Verbraucher erwarten, dass ihre Anforderungen in kurzer Zeit und zu einem günstigen Preis erfüllt werden. Die Zeit von der Bestellung bis zur Lieferung hat für Verbraucher immer mehr an Bedeutung gewonnen. Darüber hinaus können Regierungen mit verschiedenen Emissionsrichtlinien Unternehmen und Kunden dazu zwingen, ihre Treibhausgasemissionen zu reduzieren. Diese Arbeit untersucht den Einfluss von Lieferzeiten und verschiedener Emissionsrichtlinien auf das Design einer Supply Chain. In dieser Arbeit werden verschiedene Supply-Chain-Design-Modelle entwickelt, um diese unterschiedlichen Einflüsse zu untersuchen. Das erste Modell berücksichtigt Vorlaufzeiten und Gesamtkosten, und verschiedene Emissionsrichtlinien werden implementiert, um den Kompromiss zwischen den verschiedenen Einflussgrößen zu veranschaulichen. Das zweite Modell spiegelt den Einfluss von Lieferzeit sensitiven Verbrauchern wider und es werden verschiedene Emissionsrichtlinien implementiert, um ihre Auswirkungen zu untersuchen. Die Analyse zeigt, dass der Anteil der Lieferzeit sensiblen Verbraucher einen erheblichen Einfluss auf die Gestaltung einer Lieferkette hat. Nachfrageunsicherheit und Unsicherheit bei der Gestaltung verschiedener Emissionspolitiken werden untersucht, indem ein geeignetes robustes mathematisches Optimierungsmodell entwickelt wird. Die Ergebnisse zeigen, dass insbesondere Unsicherheiten bei der Gestaltung einer Emissionsrichtlinie die Gesamtkosten einer Lieferkette erheblich beeinflussen können. Im vierten Modell werden die Auswirkungen unterschiedlich gestalteter Emissionspolitiken in verschiedenen Ländern untersucht. Die Analysen zeigen, dass sowohl Lieferzeiten als auch Emissionsrichtlinien die Offshoring- und Nearshoring-Strategien von Unternehmen stark beeinflussen können. KW - Supply Chain Management KW - Lineare Optimierung KW - Lieferzeit KW - Umweltpolitik / Kompensation KW - Supply Chain Design KW - Lead Time KW - Emission Policy KW - Mathematical Optimization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-296713 ER - TY - THES A1 - Stein, Nikolai Werner T1 - Advanced Analytics in Operations Management and Information Systems: Methods and Applications T1 - Advanced Analytics im Operations Management und Information Systems: Methoden und Anwendungen N2 - Die digitale Transformation der Gesellschaft birgt enorme Potenziale für Unternehmen aus allen Sektoren. Diese verfügen aufgrund neuer Datenquellen, wachsender Rechenleistung und verbesserter Konnektivität über rasant steigende Datenmengen. Um im digitalen Wandel zu bestehen und Wettbewerbsvorteile in Bezug auf Effizienz und Effektivität heben zu können müssen Unternehmen die verfügbaren Daten nutzen und datengetriebene Entscheidungsprozesse etablieren. Dennoch verwendet die Mehrheit der Firmen lediglich Tools aus dem Bereich „descriptive analytics“ und nur ein kleiner Teil der Unternehmen macht bereits heute von den Möglichkeiten der „predictive analytics“ und „prescriptive analytics“ Gebrauch. Ziel dieser Dissertation, die aus vier inhaltlich abgeschlossenen Teilen besteht, ist es, Einsatzmöglichkeiten von „prescriptive analytics“ zu identifizieren. Da prädiktive Modelle eine wesentliche Voraussetzung für „prescriptive analytics“ sind, thematisieren die ersten beiden Teile dieser Arbeit Verfahren aus dem Bereich „predictive analytics.“ Ausgehend von Verfahren des maschinellen Lernens wird zunächst die Entwicklung eines prädiktiven Modells am Beispiel der Kapazitäts- und Personalplanung bei einem IT-Beratungsunternehmen veranschaulicht. Im Anschluss wird eine Toolbox für Data Science Anwendungen entwickelt. Diese stellt Entscheidungsträgern Richtlinien und bewährte Verfahren für die Modellierung, das Feature Engineering und die Modellinterpretation zur Verfügung. Der Einsatz der Toolbox wird am Beispiel von Daten eines großen deutschen Industrieunternehmens veranschaulicht. Verbesserten Prognosen, die von leistungsfähigen Vorhersagemodellen bereitgestellt werden, erlauben es Entscheidungsträgern in einigen Situationen bessere Entscheidungen zu treffen und auf diese Weise einen Mehrwert zu generieren. In vielen komplexen Entscheidungssituationen ist die Ableitungen von besseren Politiken aus zur Verfügung stehenden Prognosen jedoch oft nicht trivial und erfordert die Entwicklung neuer Planungsalgorithmen. Aus diesem Grund fokussieren sich die letzten beiden Teile dieser Arbeit auf Verfahren aus dem Bereich „prescriptive analytics“. Hierzu wird zunächst analysiert, wie die Vorhersagen prädiktiver Modelle in präskriptive Politiken zur Lösung eines „Optimal Searcher Path Problem“ übersetzt werden können. Trotz beeindruckender Fortschritte in der Forschung im Bereich künstlicher Intelligenz sind die Vorhersagen prädiktiver Modelle auch heute noch mit einer gewissen Unsicherheit behaftet. Der letzte Teil dieser Arbeit schlägt einen präskriptiven Ansatz vor, der diese Unsicherheit berücksichtigt. Insbesondere wird ein datengetriebenes Verfahren für die Einsatzplanung im Außendienst entwickelt. Dieser Ansatz integriert Vorhersagen bezüglich der Erfolgswahrscheinlichkeiten und die Modellqualität des entsprechenden Vorhersagemodells in ein „Team Orienteering Problem.“ N2 - The digital transformation of business and society presents enormous potentials for companies across all sectors. Fueled by massive advances in data generation, computing power, and connectivity, modern organizations have access to gigantic amounts of data. Companies seek to establish data-driven decision cultures to leverage competitive advantages in terms of efficiency and effectiveness. While most companies focus on descriptive tools such as reporting, dashboards, and advanced visualization, only a small fraction already leverages advanced analytics (i.e., predictive and prescriptive analytics) to foster data-driven decision-making today. Therefore, this thesis set out to investigate potential opportunities to leverage prescriptive analytics in four different independent parts. As predictive models are an essential prerequisite for prescriptive analytics, the first two parts of this work focus on predictive analytics. Building on state-of-the-art machine learning techniques, we showcase the development of a predictive model in the context of capacity planning and staffing at an IT consulting company. Subsequently, we focus on predictive analytics applications in the manufacturing sector. More specifically, we present a data science toolbox providing guidelines and best practices for modeling, feature engineering, and model interpretation to manufacturing decision-makers. We showcase the application of this toolbox on a large data-set from a German manufacturing company. Merely using the improved forecasts provided by powerful predictive models enables decision-makers to generate additional business value in some situations. However, many complex tasks require elaborate operational planning procedures. Here, transforming additional information into valuable actions requires new planning algorithms. Therefore, the latter two parts of this thesis focus on prescriptive analytics. To this end, we analyze how prescriptive analytics can be utilized to determine policies for an optimal searcher path problem based on predictive models. While rapid advances in artificial intelligence research boost the predictive power of machine learning models, a model uncertainty remains in most settings. The last part of this work proposes a prescriptive approach that accounts for the fact that predictions are imperfect and that the arising uncertainty needs to be considered. More specifically, it presents a data-driven approach to sales-force scheduling. Based on a large data set, a model to predictive the benefit of additional sales effort is trained. Subsequently, the predictions, as well as the prediction quality, are embedded into the underlying team orienteering problem to determine optimized schedules. KW - Operations Management KW - Managementinformationssystem KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Big Data KW - Advanced Analytics KW - Prescriptive Analytics KW - Predictive Analytics KW - Entscheidungsunterstützungssystem KW - Wirtschaftsinformatik KW - Tourenplanung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-192668 ER - TY - THES A1 - Griebel, Matthias T1 - Applied Deep Learning: from Data to Deployment T1 - Deep Learning in der Praxis: von der Datenerhebung bis zum Einsatz N2 - Novel deep learning (DL) architectures, better data availability, and a significant increase in computing power have enabled scientists to solve problems that were considered unassailable for many years. A case in point is the “protein folding problem“, a 50-year-old grand challenge in biology that was recently solved by the DL-system AlphaFold. Other examples comprise the development of large DL-based language models that, for instance, generate newspaper articles that hardly differ from those written by humans. However, developing unbiased, reliable, and accurate DL models for various practical applications remains a major challenge - and many promising DL projects get stuck in the piloting stage, never to be completed. In light of these observations, this thesis investigates the practical challenges encountered throughout the life cycle of DL projects and proposes solutions to develop and deploy rigorous DL models. The first part of the thesis is concerned with prototyping DL solutions in different domains. First, we conceptualize guidelines for applied image recognition and showcase their application in a biomedical research project. Next, we illustrate the bottom-up development of a DL backend for an augmented intelligence system in the manufacturing sector. We then turn to the fashion domain and present an artificial curation system for individual fashion outfit recommendations that leverages DL techniques and unstructured data from social media and fashion blogs. After that, we showcase how DL solutions can assist fashion designers in the creative process. Finally, we present our award-winning DL solution for the segmentation of glomeruli in human kidney tissue images that was developed for the Kaggle data science competition HuBMAP - Hacking the Kidney. The second part continues the development path of the biomedical research project beyond the prototyping stage. Using data from five laboratories, we show that ground truth estimation from multiple human annotators and training of DL model ensembles help to establish objectivity, reliability, and validity in DL-based bioimage analyses. In the third part, we present deepflash2, a DL solution that addresses the typical challenges encountered during training, evaluation, and application of DL models in bioimaging. The tool facilitates the objective and reliable segmentation of ambiguous bioimages through multi-expert annotations and integrated quality assurance. It is embedded in an easy-to-use graphical user interface and offers best-in-class predictive performance for semantic and instance segmentation under economical usage of computational resources. N2 - Die Entwicklung neuer Deep Learning (DL) Architekturen, flankiert durch eine bessere Datenverfügbarkeit und eine enorme Steigerung der Rechenleistung, ermöglicht Wissenschaftler:innen die Lösung von Problemen, die lange Zeit als unlösbar galten. Ein Paradebeispiel hierfür ist das 50 Jahre alte „Proteinfaltungsproblem“ in der Biologie, das vor Kurzem duch das DL-System AlphaFold gelöst wurde. Andere Beispiele sind moderne, DL-basierte Sprachmodelle. Diese können unter anderem Zeitungsartikel verfassen, die nur schwer von Artikeln menschlicher Autoren:innen unterscheidbar sind. Die Entwicklung unvoreingenommener, zuverlässiger und präziser DL-Modelle für die praktische Anwendung bleibt jedoch eine große Herausforderung. Dies wird an zahlreichen vielversprechenden DL-Projekten sichtbar, die nicht über die Pilotphase herauskommen. Vor diesem Hintergrund untersuche ich in dieser Dissertation die Herausforderungen, die während des Lebenszyklus von DL-Projekten auftreten, und schlage Lösungen für die Entwicklung und den Einsatz verlässlicher DL-Modelle vor. Der erste Teil der Arbeit befasst sich mit dem Prototyping von DL-Lösungen für verschiedene Anwendungsgebiete. Zunächst werden Richtlinien für die angewandte Bilderkennung konzipiert und deren Anwendung in einem biomedizinischen Forschungsprojekt gezeigt. Dem folgt die Darstellung einer Bottom-up-Entwicklung eines DL-Backends für ein Augmented-Intelligence-System im Fertigungssektor. Im Anschluss wird der Entwurf eines künstlichen Fashion-Curation-Systems für individuelle Outfit-Empfehlungen vorgestellt, das DL-Techniken und unstrukturierte Daten aus sozialen Medien und Modeblogs nutzt. Es folgt ein Abschnitt darüber, wie DL-Lösungen Modedesigner:innen im kreativen Prozess unterstützen können. Schließlich stelle ich meine prämierte DL-Lösung für die Segmentierung von Glomeruli in menschlichen Nierengewebe-Bildern vor, die für den Kaggle Data Science-Wettbewerb HuBMAP - Hacking the Kidney entwickelt wurde. Im zweiten Teil wird der Entwicklungspfad des biomedizinischen Forschungsprojekts über das Prototyping-Stadium hinaus fortgesetzt. Anhand von Daten aus fünf Laboren wird gezeigt, dass die Schätzung einer Ground-Truth durch die Annotationen mehrerer Experten:innen und das Training von DL-Modell-Ensembles dazu beiträgt, Objektivität, Zuverlässigkeit und Validität in DL-basierten Analysen von Mikroskopie-Bildern zu manifestieren. Im dritten Teil der Dissertation stelle ich die DL-Lösung deepflash2 vor, welche die typischen Herausforderungen beim Training, der Evaluation und der Anwendung von DL-Modellen in der biologischen Bildgebung adressiert. Das Tool erleichtert die objektive und zuverlässige Segmentierung von mehrdeutigen Mikroskopie-Bildern durch die Integration von Annotationen mehrerer Experten:innen und integrierte Qualitätssicherung. KW - artificial intelligence KW - deep learning KW - bioimage analysis Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-277650 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian A1 - Helm, Alexander A1 - Imgrund, Florian A1 - Hofmann, Adrian A1 - Winkelmann, Axel T1 - A framework for implementing robotic process automation projects JF - Information Systems and e-Business Management N2 - Robotic process automation is a disruptive technology to automate already digital yet manual tasks and subprocesses as well as whole business processes rapidly. In contrast to other process automation technologies, robotic process automation is lightweight and only accesses the presentation layer of IT systems to mimic human behavior. Due to the novelty of robotic process automation and the varying approaches when implementing the technology, there are reports that up to 50% of robotic process automation projects fail. To tackle this issue, we use a design science research approach to develop a framework for the implementation of robotic process automation projects. We analyzed 35 reports on real-life projects to derive a preliminary sequential model. Then, we performed multiple expert interviews and workshops to validate and refine our model. The result is a framework with variable stages that offers guidelines with enough flexibility to be applicable in complex and heterogeneous corporate environments as well as for small and medium-sized companies. It is structured by the three phases of initialization, implementation, and scaling. They comprise eleven stages relevant during a project and as a continuous cycle spanning individual projects. Together they structure how to manage knowledge and support processes for the execution of robotic process automation implementation projects. KW - robotic process automation KW - implementation framework KW - project management KW - methodology KW - interview study KW - workshop Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323798 SN - 1617-9846 VL - 21 IS - 1 ER - TY - JOUR A1 - Freichel, Chiara A1 - Steegmans, Timo-Christian A1 - Winkelmann, Axel T1 - Ziele und Gestaltung digitaler Plattformen für Produktionsnetzwerke JF - HMD Praxis der Wirtschaftsinformatik N2 - Die interorganisatorische Zusammenarbeit in Produktionsnetzwerken kann Herausforderungen durch eine hohe Marktdynamik, immer anspruchsvollere Kundenbedürfnisse und steigenden Kostendruck entgegenwirken. Neben der klassischen vertikalen Verschiebung von Kapazitäten in Richtung geeigneter Zulieferer, lassen sich Fertigungskapazitäten auch durch eine horizontale Zusammenarbeit zwischen produzierenden Unternehmen handeln. Im Sinne der Sharing Economy bieten digitale Plattformen eine geeignete Infrastruktur zur Verknüpfung und Koordination der Marktakteure eines Produktionsnetzwerks. So können Fertigungsunternehmen flexibel Produktionsausfällen entgegenwirken und freie Maschinenkapazitäten auslasten. Eine wesentliche Voraussetzung für den Erfolg solcher digitalen Plattformen für Produktionsnetzwerke ist die Definition von Zielen, welche bisher in der Literatur nur unzureichend und nicht bezogen auf diese spezifische Plattformart untersucht wurden. In dieser Arbeit wird ein umfängliches konzeptionelles Zielmodell für diese spezifische Plattformart erstellt. Zu spezifischen Zielen digitaler Plattformen für Produktionsnetzwerke zählen neben wirtschaftlichen oder technischen Zielen beispielsweise auch produktionsbezogene Marktleistungsziele wie die Gewährleistung von Produktionsflexibilität. Aufbauend darauf wird gezeigt, wie das Design der beschriebenen Plattformen einen Einfluss auf die Erreichung bestimmter Ziele hat und wie spezielle Mechanismen zur Zielerreichung beitragen. N2 - Interorganizational collaboration in production networks can counteract challenges posed by high market dynamics, increasingly demanding customer requirements and rising cost pressure. In addition to the vertical shift of capacities towards suitable suppliers, manufacturing capacities can also be traded through horizontal cooperation between manufacturing companies. Following the concept of the sharing economy, digital platforms offer a suitable infrastructure for connecting and coordinating the market actors in a production network. This enables manufacturing companies to flexibly counteract production downtimes and to utilize unused machine capacity. An essential requirement for the success of such digital platforms for production networks is the specification of goals, which have so far been insufficiently investigated in literature and are not specific to this type of platform. In this paper, we develop a comprehensive conceptual goal model for this specific type of platform. Specific goals of digital platforms for production networks include, in addition to economic or technical goals, production-related market service goals such as ensuring production flexibility. Based on this, we demonstrate how the design of the described platforms has an impact on the achievement of certain goals and how special mechanisms contribute to the achievement of goals. T2 - Goals and design of digital platforms for production networks KW - Digitale Plattformen KW - B2B KW - Ziele KW - Produktionsnetzwerke KW - Produktionskapazitäten KW - digital platforms KW - B2B KW - goals KW - production networks KW - manufacturing capacities Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323779 SN - 1436-3011 VL - 59 IS - 5 ER - TY - JOUR A1 - Oberdorf, Felix A1 - Schaschek, Myriam A1 - Weinzierl, Sven A1 - Stein, Nikolai A1 - Matzner, Martin A1 - Flath, Christoph M. T1 - Predictive end-to-end enterprise process network monitoring JF - Business & Information Systems Engineering N2 - Ever-growing data availability combined with rapid progress in analytics has laid the foundation for the emergence of business process analytics. Organizations strive to leverage predictive process analytics to obtain insights. However, current implementations are designed to deal with homogeneous data. Consequently, there is limited practical use in an organization with heterogeneous data sources. The paper proposes a method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks to overcome this limitation. A case study performed with a medium-sized German manufacturing company highlights the method’s utility for organizations. KW - predictive process analytics KW - predictive process monitoring KW - deep learning KW - machine learning KW - neural network KW - business process anagement KW - process mining Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323814 SN - 2363-7005 VL - 65 IS - 1 ER - TY - JOUR A1 - Wanner, Jonas A1 - Herm, Lukas-Valentin A1 - Heinrich, Kai A1 - Janiesch, Christian T1 - The effect of transparency and trust on intelligent system acceptance: evidence from a user-based study JF - Electronic Markets N2 - Contemporary decision support systems are increasingly relying on artificial intelligence technology such as machine learning algorithms to form intelligent systems. These systems have human-like decision capacity for selected applications based on a decision rationale which cannot be looked-up conveniently and constitutes a black box. As a consequence, acceptance by end-users remains somewhat hesitant. While lacking transparency has been said to hinder trust and enforce aversion towards these systems, studies that connect user trust to transparency and subsequently acceptance are scarce. In response, our research is concerned with the development of a theoretical model that explains end-user acceptance of intelligent systems. We utilize the unified theory of acceptance and use in information technology as well as explanation theory and related theories on initial trust and user trust in information systems. The proposed model is tested in an industrial maintenance workplace scenario using maintenance experts as participants to represent the user group. Results show that acceptance is performance-driven at first sight. However, transparency plays an important indirect role in regulating trust and the perception of performance. KW - user acceptance KW - intelligent system KW - artificial intelligence KW - trust KW - system transparency Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323829 SN - 1019-6781 VL - 32 IS - 4 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Steinbach, Theresa A1 - Wanner, Jonas A1 - Janiesch, Christian T1 - A nascent design theory for explainable intelligent systems JF - Electronic Markets N2 - Due to computational advances in the past decades, so-called intelligent systems can learn from increasingly complex data, analyze situations, and support users in their decision-making to address them. However, in practice, the complexity of these intelligent systems renders the user hardly able to comprehend the inherent decision logic of the underlying machine learning model. As a result, the adoption of this technology, especially for high-stake scenarios, is hampered. In this context, explainable artificial intelligence offers numerous starting points for making the inherent logic explainable to people. While research manifests the necessity for incorporating explainable artificial intelligence into intelligent systems, there is still a lack of knowledge about how to socio-technically design these systems to address acceptance barriers among different user groups. In response, we have derived and evaluated a nascent design theory for explainable intelligent systems based on a structured literature review, two qualitative expert studies, a real-world use case application, and quantitative research. Our design theory includes design requirements, design principles, and design features covering the topics of global explainability, local explainability, personalized interface design, as well as psychological/emotional factors. KW - artificial intelligence KW - explainable artificial intelligence KW - XAI KW - design science research KW - design theory KW - intelligent systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323809 SN - 1019-6781 VL - 32 IS - 4 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian A1 - Fuchs, Patrick T1 - Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – eine strukturierte Untersuchung von kognitiven Verzerrungen JF - HMD Praxis der Wirtschaftsinformatik N2 - Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. N2 - Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly. T2 - The impact of human thinking on artificial intelligence – a structured investigation of cognitive biases KW - Menschliche Denkmuster KW - Maschinelles Lernen KW - Künstliche Intelligenz KW - Literaturanalyse KW - cognitive biases KW - machine learning KW - artificial intelligence KW - literature review Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323787 SN - 1436-3011 VL - 59 IS - 2 ER - TY - BOOK A1 - Knoll, Leonhard T1 - De exemplis deterrentibus: Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform N2 - Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung. Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis. N2 - The book is a collection of cases concerning valuation in legally defined occasions. These cases, mostly taken from real German law suits, are formulated as questions and problems (inclusively a separate solution chapter), each with framing introductions and conclusions. They highlight the regrettably often disturbed relationship between theory and practice in this area of valuation. This procedure resembles to textbooks which use cases to communicate content, but there is a fundamental difference: No hypothetical cases show the right approach, but real cases demonstrate striking violations contra legem artis. KW - Unternehmensbewertung KW - CAPM KW - DCF KW - corporate assessment KW - corporate law KW - valuation of a company KW - Betriebswirtschaftslehre KW - Capital-Asset-Pricing-Modell KW - Finanzmathematik KW - Gesellschaftsrecht KW - Unternehmenstheorie KW - Ökonometrie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-348840 SN - 978-3-95826-243-0 SN - 978-3-95826-242-3 N1 - Parallel erschienen als Druckausgabe bei Würzburg University Press, ISBN 978-3-95826-242-3, 37,80 Euro PB - Würzburg University Press CY - Würzburg ET - 4. Auflage ER - TY - BOOK A1 - Knoll, Leonhard T1 - De exemplis deterrentibus BT - Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform N2 - Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung. Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis. N2 - The book is a collection of cases concerning valuation in legally defined occasions. These cases, mostly taken from real German law suits, are formulated as questions and problems (inclusively a separate solution chapter), each with framing introductions and conclusions. They highlight the regrettably often disturbed relationship between theory and practice in this area of valuation. This procedure resembles to textbooks which use cases to communicate content, but there is a fundamental difference: No hypothetical cases show the right approach, but real cases demonstrate striking violations contra legem artis. KW - Unternehmensbewertung KW - Betriebswirtschaftslehre KW - CAPM KW - Capital-Asset-Pricing-Modell KW - DCF KW - Finanzmathematik KW - Gesellschaftsrecht KW - Unternehmenstheorie KW - Ökonometrie KW - corporate assessment KW - corporate law KW - valuation of a company Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-257178 SN - 978-3-95826-180-8 SN - 978-3-95826-181-5 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-180-8, 35,80 EUR. N1 - Die 4., erweiterte Auflage 2024 ist unter https://doi.org/10.25972/WUP-978-3-95826-243-0 verfügbar oder als Druckausgabe, 978-3-95826-242-3, 37,80 EUR. ET - 3. Auflage ER - TY - BOOK A1 - Knoll, Prof. Dr. Leonhard T1 - De exemplis deterrentibus BT - Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform N2 - Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung. Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis. N2 - The book is a collection of cases concerning valuation in legally defined occasions. These cases, mostly taken from real German law suits, are formulated as questions and problems (inclusively a separate solution chapter), each with framing introductions and conclusions. They highlight the regrettably often disturbed relationship between theory and practice in this area of valuation. This procedure resembles to textbooks which use cases to communicate content, but there is a fundamental difference: No hypothetical cases show the right approach, but real cases demonstrate striking violations contra legem artis. KW - Betriebswirtschaftslehre KW - Unternehmenstheorie KW - Unternehmensbewertung KW - CAPM KW - DCF KW - Gesellschaftsrecht KW - Capital-Asset-Pricing-Modell KW - Finanzmathematik KW - Ökonometrie KW - corporate assessment KW - corporate law KW - valuation of a company Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178695 SN - 978-3-95826-108-2 SN - 978-3-95826-109-9 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-108-2, 34,90 EUR. N1 - Die 4., erweiterte Auflage 2024 ist unter https://doi.org/10.25972/WUP-978-3-95826-243-0 verfügbar oder als Druckausgabe, 978-3-95826-242-3, 37,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 2. Auflage ER - TY - BOOK A1 - Knoll, Leonhard T1 - De exemplis deterrentibus : Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform BT - Bemerkenswerte Befunde aus der Praxis der rechtsgeprägten Unternehmensbewertung in Aufgabenform N2 - Das vorliegende Buch beschäftigt sich anhand einer Sammlung von realen Fällen, die in Aufgabenform formuliert sind, mit dem leider oft gestörten Verhältnis von Theorie und Praxis in der rechtsgeprägten Unternehmensbewertung. Es weist ähnlich wie „normale“ Fallsammlungen die jeweiligen Aufgabenstellungen und die zugehörigen Lösungen aus. Die eigentlichen Fragestellungen in den Aufgabentexten sind durch kurze Erläuterungen eingerahmt, damit jeder Fall als solcher von einem mit Bewertungsfragen halbwegs Vertrauten relativ leicht verstanden und in seiner Bedeutung eingeordnet werden kann. Dieses Vorgehen ähnelt wiederum Lehrbüchern, die Inhalte über Fälle vermitteln, nur dass hier nicht hypothetische Fälle das jeweils idealtypisch richtige Vorgehen zeigen, sondern Praxisfälle plakative Verstöße contra legem artis. N2 - The book is a collection of cases concerning valuation in legally defined occasions. These cases, mostly taken from real German law suits, are formulated as questions and problems (inclusively a separate solution chapter), each with framing introductions and conclusions. They highlight the regrettably often disturbed relationship between theory and practice in this area of valuation. This procedure resembles to textbooks which use cases to communicate content, but there is a fundamental difference: No hypothetical cases show the right approach, but real cases demonstrate striking violations contra legem artis. KW - Gesellschaftsrecht KW - Unternehmensbewertung KW - Betriebswirtschaftslehre KW - DCF KW - CAPM KW - corporate assessment KW - valuation of a company KW - corporate law KW - Unternehmenstheorie KW - Capital-Asset-Pricing-Modell KW - Finanzmathematik KW - Ökonometrie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-147587 SN - 978-3-95826-060-3 (print) SN - 978-3-95826-061-0 (online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-060-3, 32,90 EUR. N1 - Die 4., erweiterte Auflage 2024 ist unter https://doi.org/10.25972/WUP-978-3-95826-243-0 verfügbar oder als Druckausgabe, 978-3-95826-242-3, 37,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Herm, Lukas-Valentin T1 - Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems T1 - Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen N2 - Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. N2 - Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Artificial Intelligence KW - Explainable Artificial Intelligence KW - Decision Support Systems Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322948 ER - TY - JOUR A1 - Hirsch, Boris A1 - Jahn, Elke J. A1 - Zwick, Thomas T1 - Birds, Birds, Birds: Co-Worker Similarity, Workplace Diversity and Job Switches JF - British Journal of Industrial Relations N2 - We investigate how the demographic composition of the workforce along the sex, nationality, education, age and tenure dimensions affects job switches. Fitting duration models for workers’ job‐to‐job turnover rate that control for workplace fixed effects in a representative sample of large manufacturing plants in Germany during 1975–2016, we find that larger co‐worker similarity in all five dimensions substantially depresses job‐to‐job moves, whereas workplace diversity is of limited importance. In line with conventional wisdom, which has that birds of a feather flock together, our interpretation of the results is that workers prefer having co‐workers of their kind and place less value on diverse workplaces. KW - workplace KW - demographics KW - co-worker similarity Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-208666 VL - 58 IS - 3 ER - TY - THES A1 - Bauer, Carsten T1 - Learning Curve Effects in Hospitals as Highly Specialized Expert Organizations T1 - Lernkurveneffekte in Krankenhäusern als hochspezialisierte Expertenorganisationen N2 - The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment. The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed. The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst. In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried. The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak. The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer. The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society. N2 - Die vorliegende Arbeit befasst sich mit Lernkurveneffekten in Kliniken als hochspezialisierte Expertenorganisationen und umfasst vier Aufsätze, die sich jeweils mit einem anderen Aspekt des Themas beschäftigen. Der Fokus liegt dabei in den ersten drei Artikeln auf Lernkurveneffekten von Ärzten bei chirurgischen Eingriffen, im vierten Beitrag steht das Team der Notaufnahme als Ganzes im Fokus. Das Vorwort beleuchtet in kompakter Form die stetig steigenden Gesundheitsausgaben, den damit steigenden Kostendruck, die Krankenhauslandschaft in Deutschland sowie ihre Entwicklung. Ferner wird das Vergütungssystem mittels Fallpauschalen wie auch die Besonderheiten des Gesundheitssektors, der stark staatlich reguliert ist und in dem ethische Aspekte omnipräsent sein müssen, umrissen. Nicht zuletzt wird der Nutzen des Wissens um Lernkurveneffekte skizziert, um Kosten zu senken und zudem die Qualität konstant zu halten oder sogar zu verbessern. Der erste Aufsatz des Sammelbandes untersucht die Lerneffekte in einer Klinik, die sich auf endoprothetische Eingriffe (Hüft- und Kniegelenksersatz) spezialisiert hat. Es werden dabei zwei große Bereiche untersucht, der spezialisierte sowie der nicht-spezialisierte Bereich. Es werden keine Kosten direkt untersucht, sondern Kostenindikatoren verwendet. Der Indikator für die Kosten in der kurzen Frist sind die OP-Zeiten. Der Indikator für die mittlere bis lange Frist ist die Qualität. Sie wird über Komplikationen im Aufwachraum operationalisiert. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse zeigen, dass die Spezialisierung Vorteile durch Lerneffekte in Form von kürzeren OP-Zeiten und geringeren Komplikationsraten bei den endoprothetischen Eingriffen mit sich bringt. Für die nicht-spezialisierten OPs ergeben sich dieselben Resultate. Auch hier sinken die OP-Zeiten sowie die Komplikationen. Es kommt demnach nicht zu möglicherweise negativen Auswirkungen der Spezialisierung auf den nicht-spezialisierten Bereich, sondern es liegen vorteilhafte Spillover-Effekte vor. Insgesamt ist die Spezialisierung damit als sinnvoll zu betrachten, da sie die kurz-, mittel- und langfristigen Kosten für alle Operationen senkt. Die Autoren sind Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny und Christian Ernst. Im zweiten Artikel stehen die Unterschiede zwischen den Lernkurveneffekten von Ärzten, die teilweise im Team operieren und denen, die stets alleine operieren, im Vordergrund. Die Untersuchung verbindet somit Lernkurveneffekte mit Teamüberlegungen, welche in den letzten Jahren zunehmend diskutiert werden. Bei den betrachteten Eingriffen handelt es sich um Tonsillektomien (Entfernung der Gaumenmandeln), einen Standardeingriff. Die Indikatoren für die Kosten in der kurzen bzw. mittleren bis langen Frist sind auch hier die OP-Zeiten der Operationen bzw. Komplikationen als Maß für die Qualität. Die Komplikationen sind in diesem Fall Nachblutungen, die meist wenige Tage nach der Operation auftreten. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse der Untersuchung zeigen, dass die OP-Zeiten mit zunehmender Erfahrung der Ärzte sinken. Ärzte, die auch im Team arbeiten, lernen dabei schneller als Ärzte, die stets alleine operieren. So sind die OP-Zeiten der Ärzte, die auch im Team arbeiten, geringer als die der anderen. Als Besonderheit stehen im verwendeten Datensatz die Fallkosten zur Verfügung, womit die Kostenindikatoren validiert werden können. Aus den Ergebnissen ergibt sich die Empfehlung, dass Assistenzärzte an Team-Operationen teilnehmen sollten. Die Autoren sind Carsten Bauer, Oliver Unger und Martin Holderried. Der dritte Aufsatz widmet sich der Stapesplastik, mithilfe derer Schallleitungsschwerhörigkeit auf-grund von Otosklerose (überschießende Knochenbildung) behandelt werden soll. Die Eingriffe werden als ideale Untersuchungsmöglichkeit von Lernkurveneffekten in der Chirurgie angesehen, da sie konzeptionell einfach, jedoch technisch schwierig sind. Es wird eine möglichst umfassende Betrachtung angestrebt, indem die OP-Zeiten als kurzfristiger und die Qualität als mittel- bis langfristiger Kostenindikator herangezogen werden. Um Qualität zu operationalisieren, wird die postoperative Differenz zwischen Luft- und Knochenleitungsschwelle sowie die Kombination aus dieser Differenz mit der Abwesenheit von Komplikationen verwendet. Auch hier werden verschiedene Regressionsmodelle (KQ und Logit) geschätzt. In diesem Artikel wird neben der Klinikebene auch die Individualebene betrachtet, d.h. OP-Zeiten und Qualität für einzelne Ärzte untersucht, was den Vergleich individueller Lernkurven verbessert, da die Ärzte alle unter weitgehend identischen Bedingungen gearbeitet haben. Es zeigt sich, dass die OP-Zeiten mit zunehmender Erfahrung zunächst sinken. Der marginale Effekt von weiterer Erfahrung wird dabei mit zunehmender Erfahrung geringer bis sich die Richtung des Effektes ändert und die OP-Zeiten mit weiter zunehmender Erfahrung – vermutlich aufgrund der Allokation der schwierigeren Fälle auf die erfahrensten Ärzte – wieder steigen. Bezüglich Qualität sind keine Lernkurveneffekte feststellbar. Die Autoren sind Carsten Bauer, Johannes Taeger und Kristen Rak. Der vierte Beitrag ist ein systematischer Literaturüberblick zu Lerneffekten bei der Behandlung von ischämischen Schlaganfällen. Bei einem Schlaganfall zählt jede Minute, weswegen die inhärente Notwendigkeit besteht, die Dauer vom Auftreten der Symptome bis zur Behandlung zu verkürzen. Der Artikel befasst sich mit der Verkürzung der Dauer vom Eintreffen der Patienten im Krankenhaus bis zur Behandlung mittels Thrombolyse, der sogenannten „Door-to-Needle Time“. In der Literatur gibt es hierzu Untersuchungen von Lernen im weiteren Sinne durch ein Qualitätsverbesserungsprogramm und Lernen im engeren Sinne, bei dem Lernkurveneffekte evaluiert werden. Daneben werden Studien ausgewertet, die sich mit den unterschiedlichen Zeiten zwischen Krankenhäusern mit niedrigen und hohen Fallzahlen befassen, da diese Unterschiede wahrscheinlich das Ergebnis von Lernen und Skaleneffekten sind. Nahezu alle der 165 ausgewerteten Artikel berichten von Verbesserungen bezüglich der Dauer bis zur Behandlung. Zudem unterstreichen die klinischen Ergebnisse die gängige Auffassung, dass eine kürzere Zeit vom Eintreffen im Krankenhaus bis zur Behandlung mit einem besseren Ergebnis einhergeht. Der Literaturüberblick diskutiert zudem die ökonomischen Implikationen der Ergebnisse. Der Autor ist Carsten Bauer. Im Nachwort kommt u.a. zur Sprache, dass für die Nutzung der Lernkurveneffekte zur Effizienzsteigerung nach der Messung der Lerneffekte weitere Anstrengungen unternommen werden müssen, da die Thematik keine einfachen, standardisierten Lösungen zulässt. Zudem wird die Bedeutung der Mehrperspektivität in der Forschung für das Behandlungsergebnis des Patienten, das Gesundheitssystem und die Gesellschaft hervorgehoben. KW - Lernkurve KW - Krankenhaus KW - learning curve KW - learning effect KW - experience KW - hospital KW - Lerneffekt KW - Erfahrung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-328717 ER - TY - JOUR A1 - Griebel, Matthias A1 - Segebarth, Dennis A1 - Stein, Nikolai A1 - Schukraft, Nina A1 - Tovote, Philip A1 - Blum, Robert A1 - Flath, Christoph M. T1 - Deep learning-enabled segmentation of ambiguous bioimages with deepflash2 JF - Nature Communications N2 - Bioimages frequently exhibit low signal-to-noise ratios due to experimental conditions, specimen characteristics, and imaging trade-offs. Reliable segmentation of such ambiguous images is difficult and laborious. Here we introduce deepflash2, a deep learning-enabled segmentation tool for bioimage analysis. The tool addresses typical challenges that may arise during the training, evaluation, and application of deep learning models on ambiguous data. The tool’s training and evaluation pipeline uses multiple expert annotations and deep model ensembles to achieve accurate results. The application pipeline supports various use-cases for expert annotations and includes a quality assurance mechanism in the form of uncertainty measures. Benchmarked against other tools, deepflash2 offers both high predictive accuracy and efficient computational resource usage. The tool is built upon established deep learning libraries and enables sharing of trained model ensembles with the research community. deepflash2 aims to simplify the integration of deep learning into bioimage analysis projects while improving accuracy and reliability. KW - machine learning KW - microscopy KW - quality control KW - software Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-357286 VL - 14 ER - TY - RPRT A1 - Baumgart, Michael A1 - Bredebach, Patrick A1 - Herm, Lukas-Valentin A1 - Hock, David A1 - Hofmann, Adrian A1 - Janiesch, Christian A1 - Jankowski, Leif Ole A1 - Kampik, Timotheus A1 - Keil, Matthias A1 - Kolb, Julian A1 - Kröhn, Michael A1 - Pytel, Norman A1 - Schaschek, Myriam A1 - Stübs, Oliver A1 - Winkelmann, Axel A1 - Zeiß, Christian ED - Winkelmann, Axel ED - Janiesch, Christian T1 - Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken (PIMKoWe) N2 - Das Verbundprojekt „Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken“ (PIMKoWe – Förderkennzeichen „02P17D160“) ist ein Forschungsvorhaben im Rahmen des Forschungsprogramms „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ der Bekanntmachung „Industrie 4.0 – Intelligente Kollaborationen in dynamischen Wertschöpfungs-netzwerken“ (InKoWe). Das Forschungsvorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert und durch den Projektträger des Karlsruher Instituts für Technologie (PTKA) betreut. Ziel des Forschungsprojekts PIMKoWe ist die Entwicklung und Bereitstellung einer Plattformlösung zur Flexibilisierung, Automatisierung und Absicherung von Kooperationen in Wertschöpfungsnetzwerken des industriellen Sektors. T3 - Working Paper Series of the Institute of Business Management - 8 KW - Blockchain KW - Supply Chain Management KW - Blockchain KW - Plattform KW - Wertschöpfungsnetzwerke KW - Supply Chain Networks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-293354 SN - 2199-0328 ER - TY - THES A1 - Kurz, Julian Frederick T1 - Capacity Planning and Control with Advanced Information T1 - Kapazitätsplanung und -steuerung mit zukünftigen Informationen N2 - Die Dissertation „Capacity Planning and Control with Advanced Information“ besteht aus drei inhaltlich abgeschlossenen Teilen, die ein übergeordnetes Thema zur Grundlage haben: Wie können Daten über zukünftige Bedarfe zur Kapazitätsplanung und -steuerung genutzt werden? Im Rahmen von Industrie 4.0 werden zunehmend Daten erzeugt und für prädikative Analysen genutzt. Zum Beispiel werden Flugzeugtriebwerke mit Sensoren ausgestattet, die verschiedene Parameter in Echtzeit ermitteln und übertragen. In Kombination mit Flugplänen können diese Daten, unter Einsatz geeigneter Machine Learning Algorithmen, zur Vorhersage des Zeitpunkts der nächsten Wartung und des Wartungsbedarfs genutzt werden. In dieser Arbeit werden diese Vorhersagedaten zur optimalen Planung und Steuerung der Kapazität eines MRO (Maintenance, Repair and Overhaul) Dienstleisters genutzt. Im ersten Artikel, ”Capacity Planning for a Maintenance Service Provider with Advanced Information”, wird die aus mehreren Stationen bestehende Produktionsstätte des MRO Dienstleisters mit Hilfe eines Netzwerks aus GI/G/1 Warteschlagen beschrieben. Durch Lösung eines Optimierungsproblems werden die Kapazitäten der einzelnen Stationen so ermittelt, dass Kapazitäts- und Strafkosten für eine zu lange Durchlaufzeit minimiert werden. Darüberhinaus wird untersucht, wie Vorhersagedaten bezüglich des Eintreffens und Wartungsaufwands zukünftiger Aufträge genutzt werden können, um die Gesamtkosten zu reduzieren. Der Artikel ”Flexible Capacity Management with Future Information” nutzt Informationen hinsichtlich zukünftigerWartungsbedarfe für die Steuerung einer flexiblen Kapazität. Die Produktionsstätte des MRO Dienstleisters wird als M/M/1 Warteschlange beschrieben, die zwischen einer Basiskapazität und einer erhöhten Kapazität wechseln kann. Allerdings kann die hohe Kapazität nur einen definierten Zeitanteil genutzt werden. In dem Artikel werden Politiken entwickelt, welche die erwartete Warteschlangenläge minimieren, falls keine Informationen bezüglich des Eintreffens zukünftiger Aufträge verfügbar sind beziehungsweise alle Informationen in einem unendlich langen Zeitfenster vorliegen. Es zeigt sich, dass die erwartete Warteschlangenlänge drastisch reduziert werden kann, falls Informationen über zukünftige Bedarfe genutzt werden können. Im dritten Artikel, ”Queueing with Limited Future Information”, wird neben der Steuerung einer flexiblen Kapazität auch die Zulassungskontrolle behandelt: Welche Aufträge sollten umgeleitet werden, zum Beispiel an einen Subdienstleister, falls ein definierter Anteil aller ankommenden Triebwerke nicht angenommen werden muss? Es werden Politiken zur Steuerung der flexiblen Kapazität und für die Zulassungskontrolle entwickelt, die zukünftige Informationen in verschieden langen Zeitfenstern berücksichtigen: keine Informationen, endlich und unendlich lange Zeitfenster. Numerische Analysen zeigen, dass die Berücksichtigung von Informationen über die Zukunft im Vergleich zu reaktiven Politiken zu einer Verringerung der mittleren Warteschlangenlänge führt. Andererseits wird ersichtlich, dass die Nutzung von kürzeren Zeitfenstern unter bestimmten Umständen vorteilhaft sein kann. Den inhaltlichen Rahmen der Dissertation bilden die Einleitung im ersten Kapitel sowie ein Ausblick in Kapitel 5. Beweise werden im Anhang zusammengefasst. N2 - The dissertation aims at investigating how information about jobs arriving to a service facility in the future can be used for capacity planning and control. Nowadays, technical equipment such as aircraft engines are equipped with sensors transferring condition data to central data warehouses in real-time. By jointly analyzing condition data and future usage information with machine learning algorithms, future equipment conditions and maintenance requirements can be forecasted. In the thesis, information regarding the arrival times of aircraft engine at a maintenance facility and the corresponding service requirements are used in order to optimally plan and control the flexible capacity of the facility. Queueing models are developed and analyzed to optimally size and control the facility's capacity and determine the implications on cost and job waiting time. It is demonstrated analytically and numerically that cost and waiting time can be reduced significantly when future information is available. KW - queueing KW - future information KW - capacity control Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154097 ER - TY - THES A1 - Stralla, Markus Roland T1 - Managerial incentives, earnings management and regulatory intervention in the banking sector T1 - Managementanreize, Ertragsmanagement und regulatorische Eingriffe im Bankensektor N2 - Die vorliegende Dissertation umfasst drei Forschungspapiere, welche sich mit folgenden Bankenthemen beschäftigen: Fehl-/Anreize und Risikoübernahme, Ertragssteuerung und die Regulierung von Aufsichtsräten. „Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“: Wir verwenden Granger-Kausalitätstechniken, um die intertemporalen Beziehungen zwischen Risiko, Effizienz und Kapital zu bewerten. Wir verwenden zwei verschiedene Maße der Effizienz, die Kosten- und Gewinneffizienz, da diese unterschiedliche Managementfähigkeiten widerspiegeln. Eine ist die Fähigkeit, Kosten zu steuern, und die andere ist die Möglichkeit, Gewinne zu maximieren. Wir stellen fest, dass eine niedrigere Kosten- und Gewinneffizienz das Liquiditätsrisiko erhöht. Wir stellen ebenfalls fest, dass ein Anstieg des Kreditrisiko nachteilig für die Kosten und Gewinneffizienz ist. Am wichtigsten ist jedoch, dass unsere Ergebnisse eine positive Beziehung zwischen dem Kapital- und Kreditrisiko aufweisen, was zeigt, dass Moral Hazard Verhalten keine Anwendung (aufgrund von Haftungsbeschränkung und Einlagensicherung) bei unsere Stichprobe von Genossenschaftsbanken findet. Im Gegenteil, wir finden Hinweise darauf, dass Banken mit niedrigem Kapital ihre Kreditqualität in den Folgeperioden verbessern können. Diese Erkenntnisse können für die Regulierungsbehörden von Bedeutung sein, die bei der Einführung neuer regulatorischer Kapitalbeschränkungen die Geschäftsmodelle der Banken berücksichtigen sollten. „Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“: Die Rechungslegungsforschung hat den Bereich Earnings Management (EM) für die nichtfinanzielle und finanzielle Industrie gesondert untersucht. Da EM nicht direkt beobachtet werden kann, ist es für jede Forschungsfrage in jedem Umfeld wichtig, einen überprüfbare Proxy-Größe für EM zu finden. Grundsätzlich fehlt jedoch ein tiefes Verständnis dafür, welche Regressoren den Schätzvorgang verbessern können. Diese Studie versucht, diese Lücke zu schließen, und analysiert vorhandene Modellspezifikationen für diskretionäre Risikovorsorgen im Bankensektor, um gemeinsame und spezifische Muster zu identifizieren. Hierfür verwenden wir einen US-Datensatz, bestehend aus den Jahren 2005-2015 und wenden gängige Testverfahren an, um das Ausmaß von Messfehlern, Verzerrungen aufgrund von Extrembeobachtungen und weggelassenen Variablen sowie die Vorhersagekraft der diskretionären Proxy-Größen zu untersuchen. Unsere Ergebnisse zeigen, dass ein gründliches Verständnis des methodischen Modellierungsprozesses von EM im Bankensektor wichtig ist. Die derzeit etablierten Modelle zur Schätzung des EM sind angemessen, jedoch optimierbar. Insbesondere identifizieren wir die Variablen der notleidenden Vermögenswerte als die wichtigste Gruppe, während Variablen der Risikovorsorge und Nettoausbuchungen einen gewissen Wert erbringen können. Darüber hinaus zeigen unsere Ergebnisse, dass die Nichtlinearität bestimmter Regressoren ein Problem sein kann, das in zukünftigen Untersuchungen angegangen werden sollte, während wir weiterhin einige ausgelassene und möglicherweise korrelierte Variablen identifizieren, die einen Mehrwert generieren könnten. Die Ergebnisse zeigen auch, dass ein dynamischer, endogenität berücksichtigender Ansatz nicht unbedingt mit einer besseren Vorhersagekraft verknüpft ist. „Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“: In dieser Studie wird ein System-GMM-Schätzer verwendet, um die Auswirkungen möglicher regulatorischer Eingriffe auf die Besetzung von Aufsichtsratspositionen bei Genossenschaftsbanken zu untersuchen. Hierfür werden zwei verschiedene Untersuchungsdesigns angewandt. Zunächst untersucht der Autor die Änderungen der Aufsichtsratsstruktur vor und nach der Einführung des Gesetzes zur Stärkung der Finanzmarkt- und Versicherungsaufsicht (FinVAG). Zweitens schätzt der Autor den Einfluss von Doktoren und beruflicher Konzentration auf Änderungen des Bankrisikos unter Berücksichtigung der Umsetzung der FinVAG. Die untersuchte Stichprobe umfasst dabei 246 deutsche Genossenschaftsbanken in den Jahren von 2006 bis 2011. Bezüglich des Bankrisikos verwendet der Autor vier verschiedene Maße: das Kredit-, Kapital-, Liquiditätsrisiko und den Z-Score, wobei die ersten drei ebenfalls im FinVAG adressiert werden. Die Ergebnisse zeigen, dass die Umsetzung des FinVAGs zu strukturellen Änderungen in der Zusammensetzung der Aufsichtsräte führt, insbesondere auf Kosten der Landwirte. Darüber hinaus wirkt sich die Umsetzung risikoreduzierend und damit wie beabsichtigt auf alle Risikokennzahlen und Beziehungen zwischen Risikokennzahlen und Aufsichtsratsmerkmalen aus. Um die komplexe Beziehung zwischen Charakteristika der Aufsichtsräte und Risikomessgrößen aufzudecken, verwendet die Studie einen „two-step system-gmm“ Schätzer, um nicht beobachtete Heterogenität zu berücksichtigen, um Endogenitätsprobleme zu reduzieren. Die Ergebnisse können für Stakeholder, Aufsichtsbehörden, Vorgesetzte und Manager besonders relevant sein. N2 - The present dissertation includes three research papers dealing with the following banking topics: (dis-) incentives and risk taking, earnings management and the regulation of supervisory boards. „Do cooperative banks suffer from moral hazard behaviour? Evidence in the context of efficiency and risk“: We use Granger-causality techniques to evaluate the intertemporal relationships among risk, efficiency and capital. We use two different measures of bank efficiency, i.e., cost and profit efficiency, since these measures reflect different managerial abilities. One is the ability to manage costs, and the other is the ability to maximize profits. We find that lower cost and profit efficiency Granger-cause increases in liquidity risk. We also identify that credit risk negatively Granger-causes cost and profit efficiency. Most importantly, our results show a positive relationship between capital and credit risk, thus displaying that moral hazard (due to limited liability and deposit insurance) does not apply to our sample of cooperative banks. On the contrary, we find evidence that banks with low capital are able to improve their loan quality in subsequent periods. These findings may be important to regulators, who should consider banks’ business models when introducing new regulatory capital constraints. „Earnings Management Modelling in the Banking Industry – Evaluating valuable approaches“: Accounting research has separately studied the field of Earnings Management (EM) for non-financial and financial industries. Since EM cannot be observed directly, it is important for every research question in any setting to find a verifiable proxy for EM. However, we still lack a thorough understanding of what regressors can add value to the estimation process of EM in banks. This study tries to close this gap and analyses existing model specifications of discretionary loan loss provisions (LLP) in the banking sector to identify common pattern groups and specific patterns used. Thereupon, we use an US-dataset from 2005-2015 and apply prevalent test procedures to examine the extent of measurement errors, extreme performance and omitted-variable biases and predictive power of the discretionary proxies of each of the models. Our results indicate that a thorough understanding about the methodological modelling process of EM in the banking industry is important. The currently established models to estimate EM are appropriate yet optimizable. In particular, we identify non-performing asset patterns as the most important group, while loan loss allowances and net charge offs can add some value, though do not seem to be indispensable. In addition, our results show that non-linearity of certain regressors can be an issue, which should be addressed in future research, while we identify some omitted and possibly correlated variables that might add value to specifications in identifying non-discretionary LLP. Results also indicate that a dynamic model and endogeneity robust estimation approach is not necessarily linked to better prediction power. „Board Regulation and its Impact on Composition and Effects – Evidence from German Cooperative Bank“: This study employs a system GMM framework to examine the impact of potential regulatory intervention regarding the occupations of supervisory board members in cooperative banks. To achieve insights the study proceeds in two different ways. First, the author investigates the changes in board structure prior and following to the German Act to Strengthen Financial Market and Insurance Supervision (FinVAG). Second, the author estimates the influence of Ph.D. degree holders and occupational concentration on bank-risk changes in consideration of the implementation of FinVAG. Therefore, the sample consists of 246 German cooperative banks from 2006-2011. Regarding bank-risk the author applies four different measures: credit-, equity-, liquidity-risk and the Z-Score, with the former three also being addressed in FinVAG. Results indicate that the implementation of FinVAG results in structural changes in board composition, especially at the expense of farmers. In addition, the implementation affects all risk-measures and relations between risk-measures and supervisory board characteristics in a risk-reducing and therefore intended way. To disentangle the complex relationship between board characteristics and risk measures the study utilizes a two-step system GMM estimator to account for unobserved heterogeneity, and simultaneity in order to reduce endogeneity problems. The findings may be especially relevant for stakeholders, regulators, supervisors and managers. KW - Kreditgenossenschaft KW - Moral Hazard KW - Aufsichtsrat KW - Efficiency KW - Risk KW - Banking KW - Governance KW - Earnings management KW - Regulierung KW - Bank KW - Erfolgsplanung KW - Strategisches Management KW - Controlling KW - Bilanzpolitik KW - Anreize Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-172682 ER - TY - THES A1 - Yazdani Rashvanlouei, Kourosh T1 - Developing a Framework for International Projects of ERP Implementation T1 - Entwicklung eines Rahmens für internationale Projekte der ERP-Implementierung N2 - Enterprise Systeme werden immer mehr von Bedeutung, was sie in die Mitte der Aufmerksamkeit und der Berücksichtigung durch Organisationen in verschiedensten Formen rückt – seien es Unternehmen oder Industrien von riesigen öffentlichen oder privaten Organisationen bis hin zu mittleren und kleinen Dienstleistungsunternehmen. Diese Systeme verbessern sich ständig, sowohl funktionell, als auch technologisch und sie sind unumgänglich für Unternehmen, um ihre Produktivität zu vergrößern und um in dem nationalen und globalen Wettbewerb mitzuhalten. Da lokale Softwarelösungen die Bedingungen, speziell von großen Betrieben, funktionell und technologisch nicht erfüllen konnten und da riesige globale Softwarehersteller, wie SAP, Oracle und Microsoft ihre Lösungen rapide verbessern und sie ihren Markt immer mehr über den Globus expandieren, nimmt die Nachfrage für diese globalen Marken und deren nahezu einwandfreien Softwarelösungen täglich zu. Die Zustimmung für internationale ERP Unternehmensberatungsanwendungen nimmt deswegen exponentiell zu, während die Forschung der beeinflussenden Faktoren und des Fachwissens wenig verbreitet ist. Deswegen ist es so dringlich, dieses Gebiet zu erforschen. Das schlussendliche fünf-in-fünf Framework dieser Studie sammelt zum ersten Mal in der Geschichte alle historisch erwähnten, kritischen Erfolgsfaktoren und Projektaktivitäten. Diese wurden in fünf Phasen unterteilt und nach den fünf Schwerpunkten der internationalen ERP Projektdurchführung kategorisiert. Dieses Framework bietet einen Überblick und bildet einen umfassenden Fahrplan für solche Projekte. N2 - The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments. Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt. The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects. KW - ERP KW - International IT Projects KW - ERP Implementation KW - Framework Develpment KW - ERP CSF Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154000 ER - TY - JOUR A1 - Rodríguez-Entrena, Macario A1 - Schuberth, Florian A1 - Gelhard, Carsten T1 - Assessing statistical differences between parameters estimates in Partial Least Squares path modeling JF - Quality & Quantity N2 - Structural equation modeling using partial least squares (PLS-SEM) has become a main-stream modeling approach in various disciplines. Nevertheless, prior literature still lacks a practical guidance on how to properly test for differences between parameter estimates. Whereas existing techniques such as parametric and non-parametric approaches in PLS multi-group analysis solely allow to assess differences between parameters that are estimated for different subpopulations, the study at hand introduces a technique that allows to also assess whether two parameter estimates that are derived from the same sample are statistically different. To illustrate this advancement to PLS-SEM, we particularly refer to a reduced version of the well-established technology acceptance model. KW - Testing parameter difference KW - Bootstrap KW - Confidence interval KW - Practitioner's guide KW - Statistical misconception KW - Consistent partial least squares Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-226403 VL - 52 IS - 1 ER - TY - THES A1 - Hornung, Vanessa T1 - Leading by Purpose and Employer Attractiveness - Eine konzeptionelle und empirische Analyse am Beispiel von Unilever T1 - Leading by Purpose and Employer Attractiveness - A conceptual and empirical analysis using the example of Unilever N2 - Die Welt befindet sich in einem tiefgreifenden Wandlungsprozess von einer Industrie- zu einer Wissensgesellschaft. Die Automatisierung sowohl physischer als auch kognitiver Arbeit verlagert die Nachfrage des Arbeitsmarktes zunehmend zu hoch qualifizierten Mitarbeitern, die als High Potentials bezeichnet werden. Diese zeichnen sich neben ihrer Intelligenz durch vielfältige Fähigkeiten wie Empathievermögen, Kreativität und Problemlösungskompetenzen aus. Humankapital gilt als Wettbewerbsfaktor der Zukunft, jedoch beklagten Unternehmen bereits Ende des 20. Jahrhunderts einen Mangel an Fach- und Führungspersonal, der durch die Pandemie weiter verstärkt wird. Aus diesem Grund rücken Konzepte zur Rekrutierung und Mitarbeiterbindung in den Fokus der Unternehmen. Da ethisches und ökologisches Bewusstsein in der Bevölkerung an Bedeutung gewinnen, lässt sich annehmen, dass Bewerber zukünftig verantwortungsbewusste Arbeitgeber bevorzugen. Nachhaltigkeit bzw. Corporate Responsibility wird damit zum Wettbewerbsfaktor zur Gewinnung und Bindung von Talenten. Mit Hilfe des Ansatzes der identitätsorientierten Markenführung wird ein Verständnis davon hergestellt, wie es Unternehmen gelingt, eine starke Arbeitgebermarke aufzubauen. Anhand einer konzeptionellen, praktischen und empirischen Untersuchung am Unternehmensbeispiel Unilever werden die Auswirkungen von umfassendem ökologischem und gesellschaftlichem Engagement auf die Arbeitgeberattraktivität analysiert. Es zeigt sich, dass Nachhaltigkeit – konkretisiert über die 17 Sustainable Develop-ment Goals (SDGs) und verankert im Kern der Marke – die erfolgreiche Führung einer Employer Brand ermöglicht. Dieses Ergebnis resultiert sowohl aus dem theoretischen als auch aus dem empirischen Teil dieser Arbeit. Im letzteren konnten unter Einsatz eines Strukturgleichungsmodells drei generelle positive Wirkzusammenhänge bestätigt werden: Bewerber fühlen sich zu verantwortungsbewussten Unternehmen hingezogen, weshalb sie einen P-O-F empfinden. Diese wahrgenommene Passung mit dem Unternehmen steigert die Arbeitgeberattraktivität aus Sicht der potenziellen Bewerber, wodurch sich wiederum die Wahrscheinlichkeit für eine Bewerbungsabsicht und die Akzeptanz eines Arbeitsplatzangebotes erhöht. Es wird damit die Annahme bestätigt, dass den Herausforderungen der Personalbeschaffung über eine konsequente nachhaltige Ausrichtung der Geschäftstätigkeit und deren glaubhafte Kommunikation über die Arbeitgebermarke begegnet werden kann. N2 - Since ethical and ecological awareness is gaining in importance in the population, it can be assumed that applicants will prefer responsible employers in the future. Sustainability and corporate responsibility are thus becoming a competitive factor in attracting and retaining talent. This dissertation show the effects of comprehensive ecological and social commitment on employer attractiveness on the basis of a conceptual, practical and empirical study using the company Unilever as an example. It turns out that sustainability - specified in the 17 Sustainable Development Goals (SDGs) and anchored in the core of the brand - enables the successful management of an employer brand. Three general positive causal relationships could be confirmed using a structural equation model: Applicants feel attracted to responsible companies and therefore feel a so-called person-organization-fit. This perceived fit with the company increases the attractiveness of the employer from the point of view of potential applicants, which in turn increases the likelihood of an intention to apply and the acceptance of a job offer. This confirms the assumption that the challenges of recruiting can be met through a consistent, sustainable orientation of business activities and their credible communication via the employer brand. KW - Personalmarketing KW - Employer Branding KW - Purpose KW - Employer Attractiveness KW - Unilever KW - Arbeitgeberattraktivität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-288941 ER - TY - THES A1 - Günther, Johannes T1 - Die Unabhängigkeit des Abschlussprüfers bei privaten Unternehmen in Deutschland - Eine empirische Analyse im Kontext der Honorare für Prüfung und Beratung T1 - Auditor Independence in German Private Firms - Empirical Evidence from Going-Concern Modifications and the Provision of Audit and Non-Audit Services N2 - Die vorliegende Arbeit untersucht empirisch die Unabhängigkeit des Abschlussprüfers bei nicht kapitalmarktorientierten Unternehmen - im Folgenden private Unternehmen genannt - im Kontext von Prüfungs- und Nichtprüfungshonoraren in Deutschland. Als Surrogat für die Prüfungsqualität wird die Wahrscheinlichkeit einer Going-Concern-Modifikation („GCM“) herangezogen. GCM können als Indikator für die Prüfungsqualität besonders geeignet sein, da sie ein direktes Ergebnis der Tätigkeit des Abschlussprüfers sind und von ihm formuliert und verantwortet werden. Für das Surrogat GCM existiert für Deutschland im Bereich der privaten Unternehmen bislang keine Studie. International ist lediglich die Untersuchung von HOPE/LANGLI (2010) vorhanden. Die Unabhängigkeit ist von anhaltender Relevanz, wird jedoch immer wieder in Frage gestellt. Der Fokus von Regulierungsbehörden und Forschung liegt auf kapitalmarktorientierten Unternehmen. Die Unabhängigkeit des Abschlussprüfers kann besonders gefährdet sein, wenn Schutzmechanismen, wie z.B. die Haftung oder das Risiko eines Reputationsverlustes, besonders schwach ausgeprägt sind. Aus vorangegangenen Forschungsarbeiten kann abgeleitet werden, dass bei privaten Unternehmen das Risiko eines Reputationsverlustes im Vergleich zu kapitalmarktorientierten Unternehmen geringer ist. Auch weitere Schutzmechanismen, wie z.B. die Prüferrotation, sind in Deutschland überwiegend für kapitalmarktorientierte Unternehmen vorgesehen. Weiterhin ist das Haftungsrisiko für den Abschlussprüfer in Deutschland verglichen mit angelsächsischen Ländern geringer. Damit erfolgt die empirische Analyse in einem Umfeld, in dem die Unabhängigkeit des Abschlussprüfers besonders gefährdet ist. Die Untersuchungsgruppe für die multivariate Regressionsanalyse besteht aus 245 Beobachtungen von privaten Unternehmen mit GCM im Zeitraum von 2009 bis 2012. Der Untersuchungsgruppe werden zwei unterschiedlich abgegrenzte Kontrollgruppen mit 1.921 bzw. 396 Beobachtungen von Unternehmen in finanziellen Schwierigkeiten ohne GCM gegenübergestellt. Im Ergebnis können für die Einflussgrößen, die auf den Prüfungs-, Nichtprüfungs- und Gesamthonoraren basieren, keine Indizien für die Gefährdung der Unabhängigkeit identifiziert werden. Für die Prüfungs- und Gesamthonorare wird mit beiden Kontrollgruppen ein signifikant positiver Zusammenhang beobachtet. Der positive Zusammenhang kann auf den höheren Prüfungsaufwand durch die zusätzlichen Prüfungshandlungen bei einer GCM zurückgeführt werden. Trotz der geringeren Ausprägung bei privaten Unternehmen können Reputations- und Haftungsrisiken als alternative Erklärung nicht ausgeschlossen werden. Weniger eindeutig, und abhängig von den Modellspezifikationen, ist der positive Zusammenhang für die Nichtprüfungshonorare. Grundsätzlich gelten die Ergebnisse auch für die abnormalen Honorare. Die Ergebnisse bestätigen sich im Wesentlichen in den durchgeführten Sensitivitätsanalysen. N2 - This study empirically examines whether the provision of audit and non-audit services impairs auditor independence among a sample of firms which are not publicly traded - hereinafter named as private firms - in Germany. The auditor’s propensity to issue a going concern opinion ("GCM") is used as a proxy for audit quality. GCM are a natural indicator for audit quality, since GCM are a direct outcome of the auditor's decision and actions taken during the audit. No study on audit quality approximated by the GCM surrogate for German private firms was found. Internationally only the study of HOPE/LANGLI (2010) examines the issue for Norway private firms. Auditor independence plays a crucial role in the audit process, but it is repeatedly called into question. The focus of regulators and research is on publicly traded firms. The auditor's independence can be particularly impaired if protective mechanisms, such as auditor litigation or the risk of a reputation loss, are particularly weak. Previous studies show that the auditor’s risk of a reputation loss is lower for the auditor of private firms than of publicly traded firms. In Germany other protective mechanisms, such as auditor rotation, are also forseen predominantly for publicly traded firms. Furthermore, the litigation risk for auditors in Germany is lower than in Anglo-Saxon countries. This means that the empirical analysis takes place in an environment in which auditor independence is particularly at risk. The sample for the multivariate logistic regression analysis comprises 245 observations of private firms that received a GCM in the period 2009 - 2012. Two different control samples of 1,921 and 396 observations of private firms under financial stress without receiving a GCM were identified. The results do not indicate that auditor independence is impaird when they receive (large) audit and non-audit fees. Furthermore the analysis shows a significant positive association between the magnitude of audit fees respectively total fees and the auditor’s propensity to issue a going concern opinion. The positive correlation can be explained by the higher audit effort caused by the additional audit procedures due to the GCM. Despite their lower magnitute it cannot be ruled out that institutional incentives, such as reputation loss and litigation cost are alternative explanations. Less clear, and depending on the specifications of the regression model, is the association of non-audit fees and the auditor’s propability to issue a GCM. In principle, the same results are found when using abnormal audit fees and abnormal total fees. The results are also robust to several alternative research design specifications and sensitivity tests. N2 - Die Unabhängigkeit des Abschlussprüfers ist von anhaltender Relevanz, wird jedoch immer wieder in Frage gestellt. Der Fokus von Regulierungsbehörden und Forschung liegt auf kapitalmarktorientierten Unternehmen. Die Unabhängigkeit kann besonders gefährdet sein, wenn Schutzmechanismen, wie z. B. die Haftung oder das Risiko eines Reputationsverlustes, besonders schwach ausgeprägt sind. Es kann abgeleitet werden, dass bei privaten Unternehmen das Risiko eines Reputationsverlustes im Vergleich zu kapitalmarktorientierten Unternehmen geringer ist. Weiterhin ist das Haftungsrisiko für den Abschlussprüfer in Deutschland verglichen mit angelsächsischen Ländern geringer. Damit untersucht die Arbeit die Unabhängigkeit in einem Umfeld, in dem diese besonders gefährdet ist. Als Surrogat wird die Wahrscheinlichkeit einer Going-Concern-Modifikation („GCM“) herangezogen. GCM können als Indikator für die Prüfungsqualität besonders geeignet sein, da sie ein direktes Ergebnis der Tätigkeit des Abschlussprüfers sind und von ihm formuliert und verantwortet werden. Für das Surrogat GCM ist für Deutschland im Bereich der privaten Unternehmen bislang keine Studie bekannt. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 3 KW - Prüfungsqualität KW - Unabhängigkeit KW - Deutschland KW - Abschlussprüfer KW - Private Unternehmen KW - Prüfungshonorare KW - Independence KW - Private Firms KW - Going-Concern KW - Audit Quality KW - Privatunternehmen KW - Unternehmen KW - Going-Concern-Prinzip KW - Honorar KW - Wirtschaftsprüfer Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-185814 SN - 978-3-95826-116-7 (print) SN - 978-3-95826-117-4 (online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-116-7, 31,80 Euro. PB - Würzburg University Press CY - Würzburg ER - TY - JOUR A1 - Leimeister, Jan Marco A1 - Stieglitz, Stefan A1 - Matzner, Martin A1 - Kundisch, Dennis A1 - Flath, Christoph A1 - Röglinger, Maximilian T1 - Quo Vadis Conferences in the Business and Information Systems Engineering (BISE) Community After Covid BT - What Can Stay, What Should Go, What Do We Need to Change for Our Future Scientific Conferences? JF - Business & Information Systems Engineering KW - IT in Business KW - business and management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-308902 SN - 2363-7005 SN - 1867-0202 VL - 63 IS - 6 ER - TY - THES A1 - Beck, Kilian T1 - Hebesatzpolitik und Beitragsplanung - Empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene T1 - Tax Rate Policy and Contribution Planning – Empirical Evidence at the Local Level N2 - Die vorliegende Studie liefert in drei gleichrangigen Teilen empirische Befunde zu den Steuern und Beiträgen auf lokaler Ebene. In den ersten beiden Teilen wird die Realsteuerpolitik deutscher Kommunen quantitativ datenempirisch und qualitativ in Form einer Expertenbefragung untersucht. Hierbei wird insbesondere der Frage nachgegangen, welche Determinanten das gemeindliche Hebesatzniveau bei der Gewerbesteuer und den Grundsteuern A und B bestimmen. Der dritte Teil analysiert die Beitragseinnahmen der Industrie- und Handelskammern. Der IHK-Beitrag ist deren zentrale Einnahmeposition und knüpft ebenfalls an der gewerbesteuerlichen Bemessungsgrundlage an. Die Abhängigkeit von einer zum Teil volatilen Bemessungsgrundlage stellt die Kammern bei ihrer Budgetplanung vor große Herausforderungen. Zur Steigerung der Planungsgenauigkeit wurde ein Prognosemodell entwickelt, das einen präziseren Rückschluss auf künftige Beitragseinnahmen zulässt. N2 - The dissertation provides empirical findings on taxes and contributions at local level in three equal parts. In the first two parts, the tax policy of German municipalities is examined quantitatively in a data-empirical and qualitative manner in the form of an expert survey. In particular, the question of which factors determine the municipal levy rate for local trade tax and property taxes will be exam-ined. The third part analyzes the contribution of the Chambers of Commerce and Industry. The IHK-contribution is its central revenue position and is also linked to the assessment basis of the trade tax. The dependency on a partially volatile tax base presents the chambers with major budget planning challenges. To increase planning accuracy, a forecasting model was developed that allows a more precise conclusion on future contribution income. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 1 KW - Deutschland KW - Realsteuern KW - Hebesatzpoltik KW - IHK KW - Beitrag KW - Einflussfaktoren KW - Grundsteuer KW - Gewerbesteuer KW - Gemeinde KW - Steuerpolitik KW - Hebesatz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163079 SN - 978-3-95826-084-9 SN - 978-3-95826-085-6 SN - 2627-1281 SN - 2627-129X N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-084-9, 41,80 Euro. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Wirth, Marco Andreas Alwin T1 - Additive Fertigung: Technologie, Markt und Innovation T1 - Additive Manufacturing: Technology, Market and Innovation N2 - Additive Fertigung – oftmals plakativ „3D-Druck“ genannt – bezeichnet eine Fertigungstechnologie, die die Herstellung physischer Gegenstände auf Basis digitaler, dreidimensionaler Modelle ermöglicht. Das grundlegende Funktionsprinzip und die Gemeinsamkeit aller additiven bzw. generativen Fertigungsverfahren ist die schichtweise Erzeugung des Objekts. Zu den wesentlichen Vorteilen der Technologie gehört die Designfreiheit, die die Integration komplexer Geometrien erlaubt. Aufgrund der zunehmenden Verfügbarkeit kostengünstiger Geräte für den Heimgebrauch und der wachsenden Marktpräsenz von Druckdienstleistern steht die Technologie erstmals Endkunden in einer Art und Weise zur Verfügung wie es vormals, aufgrund hoher Kosten, lediglich großen Konzernen vorbehalten war. Infolgedessen ist die additive Fertigung vermehrt in den Fokus der breiten Öffentlichkeit geraten. Jedoch haben sich Wissenschaft und Forschung bisher vor allem mit Verfahrens- und Materialfragen befasst. Insbesondere Fragestellungen zu wirtschaftlichen und gesellschaftlichen Auswirkungen haben hingegen kaum Beachtung gefunden. Aus diesem Grund untersucht die vorliegende Dissertation die vielfältigen Implikationen und Auswirkungen der Technologie. Zunächst werden Grundlagen der Fertigungstechnologie erläutert, die für das Verständnis der Arbeit eine zentrale Rolle spielen. Neben dem elementaren Funktionsprinzip der Technologie werden relevante Begrifflichkeiten aus dem Kontext der additiven Fertigung vorgestellt und zueinander in Beziehung gesetzt. Im weiteren Verlauf werden dann Entwicklung und Akteure der Wertschöpfungskette der additiven Fertigung skizziert. Anschließend werden diverse Geschäftsmodelle im Kontext der additiven Fertigung systematisch visualisiert und erläutert. Ein weiterer wichtiger Aspekt sind die zu erwartenden wirtschaftlichen Potentiale, die sich aus einer Reihe technischer Charakteristika ableiten lassen. Festgehalten werden kann, dass der Gestaltungsspielraum von Fertigungssystemen hinsichtlich Komplexität, Effizienzsteigerung und Variantenvielfalt erweitert wird. Die gewonnenen Erkenntnisse werden außerdem genutzt, um zwei Vertreter der Branche exemplarisch mithilfe von Fallstudien zu analysieren. Eines der untersuchten Fallbeispiele ist die populäre Online-Plattform und -Community Thingiverse, die das Veröffentlichen, Teilen und Remixen einer Vielzahl von druckbaren digitalen 3D-Modellen ermöglicht. Das Remixen, ursprünglich bekannt aus der Musikwelt, wird im Zuge des Aufkommens offener Online-Plattformen heute beim Entwurf beliebiger physischer Dinge eingesetzt. Trotz der unverkennbaren Bedeutung sowohl für die Quantität als auch für die Qualität der Innovationen auf diesen Plattformen, ist über den Prozess des Remixens und die Faktoren, die diese beeinflussen, wenig bekannt. Aus diesem Grund werden die Remix-Aktivitäten der Plattform explorativ analysiert. Auf Grundlage der Ergebnisse der Untersuchung werden fünf Thesen sowie praxisbezogene Empfehlungen bzw. Implikationen formuliert. Im Vordergrund der Analyse stehen die Rolle von Remixen in Design-Communities, verschiedene Muster im Prozess des Remixens, Funktionalitäten der Plattform, die das Remixen fördern und das Profil der remixenden Nutzerschaft. Aufgrund enttäuschter Erwartungen an den 3D-Druck im Heimgebrauch wurde dieser demokratischen Form der Produktion kaum Beachtung geschenkt. Richtet man den Fokus jedoch nicht auf die Technik, sondern die Hobbyisten selbst, lassen sich neue Einblicke in die zugrunde liegenden Innovationsprozesse gewinnen. Die Ergebnisse einer qualitativen Studie mit über 75 Designern zeigen unter anderem, dass Designer das Konzept des Remixens bereits verinnerlicht haben und dieses über die Plattform hinaus in verschiedenen Kontexten einsetzen. Ein weiterer Beitrag, der die bisherige Theorie zu Innovationsprozessen erweitert, ist die Identifikation und Beschreibung von sechs unterschiedlichen Remix-Prozessen, die sich anhand der Merkmale Fähigkeiten, Auslöser und Motivation unterscheiden lassen. N2 - Additive manufacturing—commonly known as “3D printing”—denotes a manufacturing technology that facilitates the production of physical objects from digital three-dimensional blueprints. Layer manufacturing is the basic principle of the production process of all additive manufactured objects. Major benefits of this technology are that it allows for the creation of very complex models and its flexibility for various design geometries. Today, for the first time, the increasing number of 3D printing service providers and the constantly growing range of affordable printers for home use, make this technology available to consumers, whereas the high costs limited the use to large enterprises in the past. Therefore, this technology is raising more and more public attention. Presently science and research focuses primarily on questions regarding materials and processes, while ignoring or missing out the discussion about economic and social impact. Therefore, this dissertation examines and focusses on the aspect of possible implications and consequences of the technology. The thesis starts by introducing the main aspects of the technology, to establish a common understanding, which is key for understanding the dissertation. Followed by the description of specific techniques and processes, different terminologies of additive manufacturing are introduced to describe in detail how they are related. In the further course the additive manufacturing value chain, its development, and involved stakeholders are outlined. Subsequent diverse business models out of the additive manufacturing context are systematically visualized and elucidated. Another important aspect are expectable economic potentials that can be deduced by a number of technical characteristics. A conclusion that can be drawn is that the room to maneuver is extended with regard to complexity, efficiency enhancement, and variety of versions. Insights gained hereby are also utilized to analyze two representatives of the branch of industry by way of example. Thereafter, the additive manufacturing value chain, its development, and involved stakeholders are outlined. Diverse business models of the additive manufacturing are depicted and explained systematically. Another important aspect is possible future economic potentials that can be deduced by several technical characteristics. The conclusion of the findings show, that there is room for growth with regard to complexity, enhancement of efficiency, and variety of versions. Furthermore, the learnings are the basis for a detailed analysis of two representatives of this industry by way of examples and case studies. One of the cases deals with the popular online platform and community Thingiverse that offers a platform for publishing, sharing, access, and remixing a broad range of printable digital models. The term remixing—originally known from the music domain—is very often used in various emerging open online platforms to describe the phenomenon of repurposing existing materials to create something new. However, despite its obvious relevance for the number and quality of innovations on such platforms, little is known about the process of remixing and its contextual factors. For that reason, an explorative study of remixing activities on the platform was conducted and is presented. Based on the findings of these empirically observed phenomena, a set of five theoretical propositions, practical recommendations and managerial implications are formulated. Predominant in the analysis are the role of remixes in design communities, the different patterns of remixing processes, the platform features that facilitate remixes, and the profile of the remixing platform’s users. Due to disappointed expectations regarding home use 3D printing this democratic form of production has received only little attention. However, not focusing on the technology itself but on the hobbyist users reveals new insights on underlying innovation processes. The findings of a qualitative study with more than 75 designers show amongst other findings, that designers have already internalized the concept of remixing and apply it in various contexts, even beyond the platform. An additional contribution that extends previous research on innovation processes is the identification and description of six different remix processes that can be differentiated by means of the features skill level, trigger and motivation. KW - Rapid Prototyping KW - Thingiverse KW - Additive Fertigung KW - Additive Manufacturing KW - Maker-Bewegung KW - Maker Movement KW - 3D Printing KW - 3D-Druck KW - Remix KW - Innovation KW - Online-Community Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-155970 ER - TY - THES A1 - Hofmann, Adrian T1 - Challenges and Solution Approaches for Blockchain Technology T1 - Herausforderungen und Lösungsansätze der Blockchain Technologie N2 - The digital transformation facilitates new forms of collaboration between companies along the supply chain and between companies and consumers. Besides sharing information on centralized platforms, blockchain technology is often regarded as a potential basis for this kind of collaboration. However, there is much hype surrounding the technology due to the rising popularity of cryptocurrencies, decentralized finance (DeFi), and non-fungible tokens (NFTs). This leads to potential issues being overlooked. Therefore, this thesis aims to investigate, highlight, and address the current weaknesses of blockchain technology: Inefficient consensus, privacy, smart contract security, and scalability. First, to provide a foundation, the four key challenges are introduced, and the research objectives are defined, followed by a brief presentation of the preliminary work for this thesis. The following four parts highlight the four main problem areas of blockchain. Using big data analytics, we extracted and analyzed the blockchain data of six major blockchains to identify potential weaknesses in their consensus algorithm. To improve smart contract security, we classified smart contract functionalities to identify similarities in structure and design. The resulting taxonomy serves as a basis for future standardization efforts for security-relevant features, such as safe math functions and oracle services. To challenge privacy assumptions, we researched consortium blockchains from an adversary role. We chose four blockchains with misconfigured nodes and extracted as much information from those nodes as possible. Finally, we compared scalability solutions for blockchain applications and developed a decision process that serves as a guideline to improve the scalability of their applications. Building on the scalability framework, we showcase three potential applications for blockchain technology. First, we develop a token-based approach for inter-company value stream mapping. By only relying on simple tokens instead of complex smart-contracts, the computational load on the network is expected to be much lower compared to other solutions. The following two solutions use offloading transactions and computations from the main blockchain. The first approach uses secure multiparty computation to offload the matching of supply and demand for manufacturing capacities to a trustless network. The transaction is written to the main blockchain only after the match is made. The second approach uses the concept of payment channel networks to enable high-frequency bidirectional micropayments for WiFi sharing. The host gets paid for every second of data usage through an off-chain channel. The full payment is only written to the blockchain after the connection to the client gets terminated. Finally, the thesis concludes by briefly summarizing and discussing the results and providing avenues for further research. N2 - Die digitale Transformation ermöglicht neue Formen der Zusammenarbeit zwischen Unternehmen entlang der Wertschöpfungskette, sowie zwischen Unternehmen und Verbrauchern. Neben dem Austausch von Informationen auf zentralen Plattformen wird die Blockchain-Technologie häufig als mögliche Grundlage für diese Art der Zusammenarbeit angesehen. Allerdings gibt es auch durch die steigende Popluarität von Cryptowährungen, Decentralized Finance (DeFi) und non-fungible Tokens (NFTs) einen großen Hype um die Technologie. Dieser führt dazu, dass mögliche Probleme übersehen werden. Daher sollen in dieser Thesis die derzeitigen Schwachstellen der Blockchain-Technologie aufgezeigt und ausgewählte Maßnahmen zur Verbesserung aufgezeigt werden. Es werden dabei vier Schwachstellen betrachtet: Ineffizienter Konsens, Datenschutz, Sicherheit von Smart Contracts und Skalierbarkeit. Als Grundlage werden zunächst die vier zentralen Herausforderungen vorgestellt und die Forschungsziele definiert. Es folgt eine kurze Darstellung der Vorarbeiten für diese Arbeit. In den folgenden vier Teilen wird für jedes der vier Hauptproblembereiche von Blockchain ein spezifisches Problem beleuchtet: Ineffizienter Konsens, Datenschutz, Smart-Contract-Sicherheit und Skalierbarkeit. Mit Hilfe von Big-Data-Analytics wurden die Blockchain-Daten von sechs großen Blockchains extrahiert und analysiert, um potenzielle Schwachstellen in deren Konsens-Algorithmus zu identifizieren. Um die Sicherheit von Smart Contracts zu verbessern, wurden die Funktionalitäten von Smart Contracts klassifiziert, um Ähnlichkeiten in Struktur und Design zu identifizieren. Die sich daraus ergebende Taxonomie dient als Grundlage für künftige Standardisierungsbemühungen für sicherheitsrelevante Funktionen, wie z. B. sichere mathematische Funktionen und Orakeldienste. Um die Annahmen von Datenschutz in Frage zu stellen, wurden Konsortialblockchains aus der Angreiferperspektive untersucht. Es wurden vier Blockchains mit falsch konfigurierten Knoten betrachtet mit dem Ziel so viele Informationen wie möglich aus diesen Knoten zu extrahieren. Schließlich wurden Lösungen für die Skalierbarkeit von Blockchain-Anwendungen verglichen und einen Entscheidungsprozess entwickelt, der als Leitfaden für die Verbesserung der Skalierbarkeit ihrer Anwendungen dient. Aufbauend auf dem Skalierbarkeitsframework werden potenzielle Anwendungen für die Blockchain-Technologie vorgestellt. Zunächst wurde einen Token-basierter Ansatz für die Abbildung eines unternehmensübergreifenden Wertstroms entwickelt. Da sich hier nur auf einfache Token anstelle von komplexen Smart-Contracts gestützt wurde, sollte die Rechenlast im Netzwerk im Vergleich zu anderen Lösungen deutlich geringer sein. Die beiden anderen Lösungen nutzen die Auslagerung von Transaktionen und Berechnungen aus der Hauptblockchain heraus. Der erste Ansatz nutzt Secure Multiparty Computation, um das Matching von Angebot und Nachfrage für Produktionskapazitäten in ein vertrauensfreies Netzwerk auszulagern. Erst wenn das Matching erfolgt ist, wird die Transaktion in die Haupt-Blockchain geschrieben. Der zweite Ansatz nutzt das Konzept von Payment Channel Networks, um hochfrequente bidirektionale Micropayments für WiFi-Sharing zu ermöglichen. Der Host wird für jede Sekunde der Datennutzung über einen Off-Chain-Chanel bezahlt. Die vollständige Zahlung wird erst dann in die Blockchain geschrieben, wenn die Verbindung zum Client beendet wird. Zum Abschluss der Arbeit werden die Ergebnisse zusammengefasst, diskutiert und Mög-lichkeiten für weitere Forschungsarbeiten aufgezeigt. KW - Blockchain KW - Skalierbarkeit KW - Informationssicherheit KW - Datenschutz Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-282618 ER - TY - THES A1 - Oberdorf, Felix T1 - Design and Evaluation of Data-Driven Enterprise Process Monitoring Systems T1 - Design und Evaluation von datengetriebenen Prozess Überwachungssystemen in Unternehmen N2 - Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios. To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming. To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network. Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement. N2 - Der zunehmende globale Wettbewerb zwingt Unternehmen zur Verbesserung ihrer Prozesse, um sich dadurch einen Wettbewerbsvorteil zu verschaffen. In der Fertigungsindustrie wird das durch die die digitale Transformation unterstützt. Grundlegende Komponenten in den entstehenden digitalisierten Umgebungen sind prozessorientierte Informationssysteme, die die Ausführung von Geschäftsprozessen aufzeichnen, bei der Prozessautomatisierung unterstützen und wiederum Potenzial zur Prozessanalyse freisetzen. Die meisten Informationssysteme in Unternehmen konzentrieren sich jedoch auf die Anzeige von Informationen, Prozessautomatisierung oder Datenerfassung, nutzen aber keine predictive analytics oder prescriptive analytics, um datengetriebene Entscheidungen zu unterstützen. Daher wird in dieser Dissertation der Aufbau von analytics-enabled Informationssystemen in fünf unabhängigen Teilen untersucht, die schrittweise analytische Methoden einführen und potenzielle Möglichkeiten zur Prozessverbesserung in realen Szenarien bewerten. Eine wesentliche Voraussetzung für den Auf- und Ausbau von analytics-enabled Informationssystemen ist die Identifikation von Erfolgsfaktoren, die wir im Kontext von Process Mining als deskriptive Methode untersuchen. Wir kombinieren einen etablierten Process Mining Framework und ein Process Mining Erfolgsmodell, um einen strukturierten Ansatz zur Bewertung von Erfolgsfaktoren zu ermöglichen, den wir aufbauend zur Identifizierung von Herausforderungen, Motivationen und des wahrgenommenen Mehrwerts (engl. Business Value) von Process Mining durch Mitarbeiter in Organisationen und Process Mining Experten nutzen. Auf Grundlage der gewonnenen Erkenntnisse erweitern wir das bestehende Erfolgsmodell und leiten Implikationen für die Generierung von Business Value durch Process Mining ab. Um die Realisierung des durch Process Mining ermöglichten Business Value zu unterstützen, entwickeln wir ein Artefakt für kontextbezogenes Process Mining. Das Artefakt kombiniert standard Prozessdaten mit zusätzlichen Kontextinformationen, um die automatische Identifizierung von Prozesspfaden, die mit den Kontextereignissen in Verbindung gebracht werden, zu unterstützen. Die entsprechende Realisierung ist jedoch eine herausfordernde Aufgabe, da die Transformation von Prozessen auf der Grundlage von Informationserkenntnissen zeitaufwendig ist. Um dies zu überwinden, stellen wir die Entwicklung eines predictive process monitoring Systems zur Automatisierung des Störungsmanagements in einer Produktionsumgebung vor. Das System nutzt etablierte Algorithmen des maschinellen Lernens zur Klassifizierung von Störungsarten und zur Vorhersage der Störungsdauer. Es kombiniert die Algorithmen mit zusätzlichen Datenquellen und einem einfachen Zuweisungsverfahren, um den Prozess der Störungsbearbeitung zu unterstützen. Die Entwicklung eines solchen Systems und entsprechender Modelle ist eine anspruchsvolle Aufgabe, die wir durch die Entwicklung einer Fünf-Phasen-Methode für predictive end-to-end process monitoring von Unternehmensprozessen unter Verwendung von multi-headed neural networks adressieren. Die Methode erleichtert die Integration heterogener Datenquellen durch dedizierte Modelle, die für eine Vorhersage kombiniert werden. Die Evaluation eines realen Anwendungsfalls unterstreicht die Kompetitivität des eines aus der entwickelten Methode resultierenden Modells. Allerdings sind auch die Ergebnisse des verbesserten Modells nicht perfekt. Somit muss die Entscheidung über die Zuweisung von Agenten zur Lösung von Störungen unter Unsicherheit getroffen werden. Dazu können zwar mathematische Modelle genutzt werden, allerdings steigt die Anzahl der möglichen Szenarien durch komplexe reale Bedingungen stark an und limitiert die Lösung mathematischer Modelle. Um dies zu überwinden und das Potenzial eines prescriptive process monitoring Systems zu beleuchten, haben wir einen datengetriebenen Ansatz zur Approximation eines dynamischen stochastischen Problems entwickelt, der mehrere Unsicherheiten bei der Zuweisung der Agenten berücksichtigt. Das resultierende Modell hat eine signifikant bessere Leistung und unterstreicht letztlich die besondere Bedeutung von analytics-enabled Informationssystemen für die Verbesserung von Organisationsprozessen. KW - Operations Management KW - Wirtschaftsinformatik KW - Entscheidungsunterstützung KW - Maschinelles Lernen KW - Advanced Analytics KW - Predictive Analytics KW - Prescriptive Analytics Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298531 ER - TY - RPRT A1 - Imgrund, Florian A1 - Janiesch, Christian A1 - Fischer, Marcus A1 - Winkelmann, Axel T1 - Success Factors for Process Modeling Projects: An Empirical Analysis N2 - Business process modeling is one of the most crucial activities of BPM and enables companies to realize various benefits in terms of communication, coordination, and distribution of organizational knowledge. While numerous techniques support process modeling, companies frequently face challenges when adopting BPM to their organization. Existing techniques are often modified or replaced by self-developed approaches so that companies cannot fully exploit the benefits of standardization. To explore the current state of the art in process modeling as well as emerging challenges and potential success factors, we conducted a large-scale quantitative study. We received feedback from 314 respondents who completed the survey between July 2 and September 6, 2017. Thus, our study provides in-depth insights into the status quo of process modeling and allows us to provide three major contributions. Our study suggests that the success of process modeling projects depends on four major factors, which we extracted using exploratory factor analysis. We found employee education, management involvement, usability of project results, and the companies’ degree of process orientation to be decisive for the success of a process modeling project. We conclude this report with a summary of results and present potential avenues for future research. We thereby emphasize the need of quantitative and qualitative insights to process modeling in practice is needed to strengthen the quality of process modeling in practice and to be able to react quickly to changing conditions, attitudes, and possible constraints that practitioners face. T3 - Working Paper Series of the Institute of Business Management - 6 KW - Business Process Modeling KW - Business Process Management KW - Success Factors KW - Empirical Analysis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179246 ER - TY - THES A1 - Menzel, Moritz T1 - Das Betriebsrentenstärkungsgesetz und seine Auswirkungen auf Geringverdiener. Eine modelltheoretische Analyse T1 - The Act of Strengthening Occupational Pensions and its effects on low-income earner N2 - Vor allem unter Geringverdienern ist die betriebliche Altersversorgung nur unterdurchschnittlich verbreitet. Mit dem zum 01.01.2018 in Kraft getretenen Betriebsrentenstärkungsgesetz und insbesondere dem sogenannten BAV-Förderbetrag (§ 100 EStG) versucht der Gesetzgeber daher, diese Altersvorsorgeform attraktiver zu gestalten und so deren Verbreitung unter Geringverdienern auszuweiten. Dass dieses Ziel zumindest aus modelltheoretischer Sicht erreicht werden kann, zeigen die Ergebnisse dieser Studie auf. Anhand eines deterministischen Rechenmodells werden die finanziellen Vor- und Nachteile verschiedener Vorsorgealternativen aufgedeckt und präzise beziffert. Daneben widmet sich die Arbeit auch den steuer-, sozialversicherungs- und arbeitsrechtlichen Regelungen der betrieblichen Altersversorgung vor und nach Inkrafttreten des Betriebsrentenstärkungsgesetzes und diskutiert darüber hinaus alternative Reformmaßnahmen. N2 - With the Act of Strengthening Occupational Pensions (BRSG - Betriebsrentenstärkungsgesetz), which came into force on January 1, 2018, and in particular the new § 100 EStG (so-called BAV-Förderbetrag - occupational pension subsidy), the legislator is attempting to make company pension schemes more attractive and thus expand their distribution. Especially among low-income earners, occupational pension schemes are only under-average. Due to the demographic development and the resulting decline in the level of security of the statutory pension insurance in the future, additional, capital-funded provision and thus occupational pension schemes will become increasingly important. Especially low-income earners are dependent on additional provisions in order to escape the threat of old age poverty. Against this background, this dissertation examines how and to what extent tax and social security law are able to promote low-income earners before and after the BRSG came into force. This is done using model theory as the main research method. The core of the work is a deterministic calculation model. Its results finally show that the legislator has succeeded in making occupational pension schemes more attractive with the BRSG. Low-income earners in particular are given targeted subsidies with the so-called Riester-incentive and the occupational pension subsidy. The aim of promoting this group of people can therefore be achieved with the reforms undertaken – at least from a model theory point of view. The reasons for the lack of sufficient benefit claims from occupational pension schemes among low-income earners have been and are still being intensively discussed in the expert public. So far, however, there has been a lack of an exact model-theoretical consideration to uncover and precisely quantify possible financial advantages and disadvantages of individual pension alternatives in the light of the BRSG reforms. In particular, the occupational pension subsidy introduced by the new § 100 EStG has not yet been examined in terms of model theory. This dissertation closes these gaps. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 4 KW - Betriebsrentenstärkungsgesetz KW - Altersvorsorge KW - Altersversorgung KW - Betriebsrente KW - Riester-Rente KW - BAV-Förderbetrag KW - Betriebsrentenstärkungsgesetz KW - BRSG KW - Steuern KW - Sozialversicherung KW - Geringverdiener KW - Förderung KW - Modelltheorie KW - Zillmerung KW - Doppelverbeitragung KW - Entgeltumwandlung KW - Pflichtzuschuss KW - Zusage Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-191753 SN - 978-3-95826-126-6 SN - 978-3-95826-127-3 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-126-6, 27,80 Euro. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Meller, Jan Maximilian T1 - Data-driven Operations Management: Combining Machine Learning and Optimization for Improved Decision-making T1 - Datengetriebenes Operations Management: Kombination von maschinellem Lernen und Optimierung zur besseren Entscheidungsunterstützung N2 - This dissertation consists of three independent, self-contained research papers that investigate how state-of-the-art machine learning algorithms can be used in combination with operations management models to consider high dimensional data for improved planning decisions. More specifically, the thesis focuses on the question concerning how the underlying decision support models change structurally and how those changes affect the resulting decision quality. Over the past years, the volume of globally stored data has experienced tremendous growth. Rising market penetration of sensor-equipped production machinery, advanced ways to track user behavior, and the ongoing use of social media lead to large amounts of data on production processes, user behavior, and interactions, as well as condition information about technical gear, all of which can provide valuable information to companies in planning their operations. In the past, two generic concepts have emerged to accomplish this. The first concept, separated estimation and optimization (SEO), uses data to forecast the central inputs (i.e., the demand) of a decision support model. The forecast and a distribution of forecast errors are then used in a subsequent stochastic optimization model to determine optimal decisions. In contrast to this sequential approach, the second generic concept, joint estimation-optimization (JEO), combines the forecasting and optimization step into a single optimization problem. Following this approach, powerful machine learning techniques are employed to approximate highly complex functional relationships and hence relate feature data directly to optimal decisions. The first article, “Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, chapter 2, examines performance differences between implementations of these concepts in a single-period Newsvendor setting. The paper first proposes a novel JEO implementation based on the random forest algorithm to learn optimal decision rules directly from a data set that contains historical sales and auxiliary data. Going forward, we analyze structural properties that lead to these performance differences. Our results show that the JEO implementation achieves significant cost improvements over the SEO approach. These differences are strongly driven by the decision problem’s cost structure and the amount and structure of the remaining forecast uncertainty. The second article, “Prescriptive call center staffing”, chapter 3, applies the logic of integrating data analysis and optimization to a more complex problem class, an employee staffing problem in a call center. We introduce a novel approach to applying the JEO concept that augments historical call volume data with features like the day of the week, the beginning of the month, and national holiday periods. We employ a regression tree to learn the ex-post optimal staffing levels based on similarity structures in the data and then generalize these insights to determine future staffing levels. This approach, relying on only few modeling assumptions, significantly outperforms a state-of-the-art benchmark that uses considerably more model structure and assumptions. The third article, “Data-driven sales force scheduling”, chapter 4, is motivated by the problem of how a company should allocate limited sales resources. We propose a novel approach based on the SEO concept that involves a machine learning model to predict the probability of winning a specific project. We develop a methodology that uses this prediction model to estimate the “uplift”, that is, the incremental value of an additional visit to a particular customer location. To account for the remaining uncertainty at the subsequent optimization stage, we adapt the decision support model in such a way that it can control for the level of trust in the predicted uplifts. This novel policy dominates both a benchmark that relies completely on the uplift information and a robust benchmark that optimizes the sum of potential profits while neglecting any uplift information. The results of this thesis show that decision support models in operations management can be transformed fundamentally by considering additional data and benefit through better decision quality respectively lower mismatch costs. The way how machine learning algorithms can be integrated into these decision support models depends on the complexity and the context of the underlying decision problem. In summary, this dissertation provides an analysis based on three different, specific application scenarios that serve as a foundation for further analyses of employing machine learning for decision support in operations management. N2 - Diese Dissertation besteht aus drei inhaltlich abgeschlossenen Teilen, welche ein gemeinsames Grundthema besitzen: Wie lassen sich neue maschinelle Lernverfahren in Entscheidungsunterstützungsmodelle im Operations Management einbetten, sodass hochdimensionale, planungsrelevante Daten für bessere Entscheidungen berücksichtigt werden können? Ein spezieller Fokus liegt hierbei auf der Fragestellung, wie die zugrunde liegenden Planungsmodelle strukturell angepasst werden müssen und wie sich in Folge dessen die Qualität der Entscheidungen verändert. Die vergangenen Jahre haben ein starkes Wachstum des global erzeugten und zur Verfügung stehenden Datenvolumens gezeigt. Die wachsende Verbreitung von Sensoren in Produktionsmaschinen und technischen Geräten, Möglichkeiten zur Nachverfolgung von Nutzerverhalten sowie die sich verstärkende Nutzung sozialer Medien führen zu einer Fülle von Daten über Produktionsprozesse, Nutzerverhalten und -interaktionen sowie Zustandsdaten und Interaktionen von technischen Geräten. Unternehmen möchten diese Daten nun für unterschiedlichste betriebswirtschaftliche Entscheidungsprobleme nutzen. Hierfür haben sich zwei grundsätzliche Ansätze herauskristallisiert: Im ersten, sequentiellen Verfahren wird zunächst ein Vorhersagemodell erstellt, welches zentrale Einflussgrößen (typischerweise die Nachfrage) vorhersagt. Die Vorhersagen werden dann in einem nachgelagerten Optimierungsproblem verwendet, um unter Berücksichtigung der verbliebenen Vorhersageunsicherheit eine optimale Lösung zu ermitteln. Im Gegensatz zu diesem traditionellen, zweistufigen Vorgehensmodell wurde in den letzten Jahren eine neue Klasse von Planungsmodellen entwickelt, welche Vorhersage und Entscheidungsunterstützung in einem integrierten Optimierungsmodell kombinieren. Hierbei wird die Leistungsfähigkeit maschineller Lernverfahren genutzt, um automatisiert Zusammenhänge zwischen optimalen Entscheidungen und Ausprägungen von bestimmten Kovariaten direkt aus den vorhandenen Daten zu erkennen. Der erste Artikel, “Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, Kapitel 2, beschreibt konkrete Ausprägungen dieser beiden Ansätze basierend auf einem Random Forest Modell für ein Bestandsmanagementszenario. Es wird gezeigt, wie durch die Integration des Optimierungsproblems in die Zielfunktion des Random Forest-Algorithmus die optimale Bestandsmenge direkt aus einem Datensatz bestimmt werden kann. Darüber hinaus wird dieses neue, integrierte Verfahren anhand verschiedener Analysen mit einem äquivalenten klassischen Vorgehen verglichen und untersucht, welche Faktoren Performance-Unterschiede zwischen den Verfahren treiben. Hierbei zeigt sich, dass das integrierte Verfahren signifikante Verbesserungen im Vergleich zum klassischen, sequentiellen, Verfahren erzielt. Ein wichtiger Einflussfaktor auf diese Performance-Unterschiede ist hierbei die Struktur der Vorhersagefehler beim sequentiellen Verfahren. Der Artikel “Prescriptive call center staffing”, Kapitel 3, überträgt die Logik, optimale Planungsentscheidungen durch integrierte Datenanalyse und Optimierung zu bestimmen, auf eine komplexere Problemklasse, die Schichtplanung von Mitarbeitern. Da die höhere Komplexität eine direkte Integration des Optimierungsproblems in das maschinelle Lernverfahren nicht erlaubt, wird in dem Artikel ein Datenvorverarbeitungsverfahren entwickelt, mit dessen Hilfe die Eingangsdaten mit den ex post-optimalen Entscheidungen angereichert werden. Durch die Vorverarbeitung kann dann eine angepasste Variante des Regression Tree Lernverfahrens diesen Datensatz nutzen, um optimale Entscheidungen zu lernen. Dieses Verfahren, welches mit sehr wenigen und schwachen Modellierungsannahmen bezüglich des zugrunde liegenden Problems auskommt, führt zu deutlich geringeren Kosten durch Fehlplanungen als ein konkurrierendes Verfahren mit mehr Modellstruktur und -annahmen. Dem dritten Artikel, “Data-driven sales force scheduling”, Kapitel 4, liegt ein noch komplexeres Planungsproblem, die Tourenplanung von Außendienstmitarbeitern, zugrunde. Anhand eines konkreten Anwendungsszenarios bei einem Farben- und Lackhersteller beschreibt der Artikel, wie maschinelle Lernverfahren auch bei Einsatz im traditionellen, sequentiellen Ansatz als reine Vorhersagemodelle die nachgelagerten Entscheidungsmodelle verändern können. In diesem Fall wird ein Entscheidungsbaum-basiertes Lernverfahren in einem neuartigen Ansatz verwendet, um den Wert eines Besuchs bei einem potentiellen Kunden abzuschätzen. Diese Informationen werden dann in einem Optimierungsmodell, welches die verbliebene Unsicherheit der Vorhersagen berücksichtigen kann, zur Routenplanung verwendet. Es wird ersichtlich, dass Daten und fortschrittliche Analyseverfahren hier den Einsatz von neuen Optimierungsmodellen erlauben, welche vorher mangels zuverlässiger Schätzung von wichtigen Eingangsfaktoren nicht nutzbar waren. Die in dieser Dissertation erarbeiteten Ergebnisse belegen, dass betriebswirtschaftliche Planungsmodelle durch die Berücksichtigung neuer Daten und Analysemethoden fundamental verändert werden und davon in Form von besserer Entscheidungsqualität bzw. niedrigerer Kosten durch Fehlplanungen profitieren. Die Art und Weise, wie maschinelle Lernverfahren zur Datenanalyse eingebettet werden können, hängt hierbei von der Komplexität sowie der konkreten Rahmenparameter des zu Grunde liegenden Entscheidungsproblems ab. Zusammenfassend stellt diese Dissertation eine Analyse basierend auf drei unterschiedlichen, konkreten Anwendungsfällen dar und bildet damit die Grundlage für weitergehende Untersuchungen zum Einsatz von maschinellen Lernverfahren bei der Entscheidungsunterstützung für betriebswirtschaftliche Planungsprobleme. KW - Operations Management KW - Maschinelles Lernen KW - Entscheidungsunterstützung KW - Prescriptive Analytics KW - Advanced Analytics KW - Big Data Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-206049 ER - TY - THES A1 - Blank, Felix T1 - The use of the Hypercube Queueing Model for the location optimization decision of Emergency Medical Service systems T1 - Der Einsatz des Hypercube Queueing Modells zur optimalen Standortentscheidung von medizinischen Notfallsystemen N2 - Die strategische Planung von medizinischen Notfallsystemen steht in einem unmittelbaren Zusammenhang mit der Überlebenswahrscheinlichkeit von betroffenen Patienten. Die Forschung hat zahlreiche Kenngrößen und Evaluationsparameter entwickelt, die zur Bewertung verwendet werden können. Darunter fallen beispielsweise die Reaktionszeit, die Systemauslastung, diverse Wartezeitenparameter sowie der Anteil der Nachfrage, der nicht unmittelbar bedient werden kann. Dabei ist das Hypercube Queueing Modell eines der am häufigsten verwendeten Modelle. Aufgrund seines theoretischen Hintergrundes und der damit verbundenen hohen notwendigen Rechenzeiten wurde das Hypercube Queueing Modell erst in der jüngeren Vergangenheit häufiger zur Optimierung von medizinischen Notfallsystemen verwendet. Gleichermaßen wurden nur wenige Systemparameter mit Hilfe des Modelles berechnet und das volle Potenzial demnach noch nicht ausgeschöpft. Die meisten der bereits vorhandenen Studien im Bereich der Optimierung unter Zuhilfenahme eines Hypercube Queueing Modells nutzen die zu erwartende Reaktionszeit des Systems als Zielparameter. Obwohl die Verwendung von diesem eine zumeist ausgeglichene Systemkonfiguration zur Folge hat, wurden andere Zielparameter identifziert. Die Verwendung des Hypercube Queueing Modells in den Modellen der robusten Optimierung sowie des robusten Goal Programmings haben versucht einen ganzheitlicheren Blick, durch die Verwendung von unterschiedlichen Tageszeiten, zu offerieren. Dabei hat sich gezeigt, dass das Verhalten von medizinischen Notfallsystemen sowie die Parameter stark von diesen abhängen. Daher sollte die Analyse und gegebenenfalls Optimierung dieser Systeme unterschiedliche Verteilungen der Nachfrage, in Abhängigkeit ihrer Menge und räumlichen Verteilung, unbedingt berücksichtigen um eine möglichst ganzheitliche Entscheidungsgrundlage zu garantieren. N2 - The strategic planning of Emergency Medical Service systems is directly related to the probability of surviving of the affected humans. Academic research has contributed to the evaluation of these systems by defining a variety of key performance metrics. The average response time, the workload of the system, several waiting time parameters as well as the fraction of demand that cannot immediately be served are among the most important examples. The Hypercube Queueing Model is one of the most applied models in this field. Due to its theoretical background and the implied high computational times, the Hypercube Queueing Model has only been recently used for the optimization of Emergency Medical Service systems. Likewise, only a few system performance metrics were calculated with the help of the model and the full potential therefore has not yet been reached. Most of the existing studies in the field of optimization with the help of a Hypercube Queueing Model apply the expected response time of the system as their objective function. While it leads to oftentimes balanced system configurations, other influencing factors were identified. The embedding of the Hypercube Queueing Model in the Robust Optimization as well as the Robust Goal Programming intended to offer a more holistic view through the use of different day times. It was shown that the behavior of Emergency Medical Service systems as well as the corresponding parameters are highly subjective to them. The analysis and optimization of such systems should therefore consider the different distributions of the demand, with regard to their quantity and location, in order to derive a holistic basis for the decision-making. KW - Warteschlangentheorie KW - Medizinische Versorgung KW - Standortplanung KW - Emergency Medical Service System KW - Hypercube Queueing Model KW - Location Optimization KW - Metaheuristic KW - Multi-objective optimization KW - Mehrkriterielle Optimierung KW - Metaheuristik KW - Notfallmedizin Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-249093 ER - TY - THES A1 - Hauser, Matthias T1 - Smart Store Applications in Fashion Retail T1 - IoT-Lösungen für Smart Stores N2 - Traditional fashion retailers are increasingly hard-pressed to keep up with their digital competitors. In this context, the re-invention of brick-and-mortar stores as smart retail environments is being touted as a crucial step towards regaining a competitive edge. This thesis describes a design-oriented research project that deals with automated product tracking on the sales floor and presents three smart fashion store applications that are tied to such localization information: (i) an electronic article surveillance (EAS) system that distinguishes between theft and non-theft events, (ii) an automated checkout system that detects customers’ purchases when they are leaving the store and associates them with individual shopping baskets to automatically initiate payment processes, and (iii) a smart fitting room that detects the items customers bring into individual cabins and identifies the items they are currently most interested in to offer additional customer services (e.g., product recommendations or omnichannel services). The implementation of such cyberphysical systems in established retail environments is challenging, as architectural constraints, well-established customer processes, and customer expectations regarding privacy and convenience pose challenges to system design. To overcome these challenges, this thesis leverages Radio Frequency Identification (RFID) technology and machine learning techniques to address the different detection tasks. To optimally configure the systems and draw robust conclusions regarding their economic value contribution, beyond technological performance criteria, this thesis furthermore introduces a service operations model that allows mapping the systems’ technical detection characteristics to business relevant metrics such as service quality and profitability. This analytical model reveals that the same system component for the detection of object transitions is well suited for the EAS application but does not have the necessary high detection accuracy to be used as a component of an automated checkout system. N2 - Das fortschreitende Wachstum des Online-Handels setzt traditionelle Modehändler zunehmend unter Druck. Als entscheidender Schritt zur Rückgewinnung von Kunden wird die Transformation traditioneller Ladengeschäfte hin zu intelligenten Ladenumgebungen gesehen. Die vorliegende gestaltungsorientierte Arbeit beschäftigt sich mit der automatischen Verfolgung von Produkten auf der Verkaufsfläche und stellt drei intelligente Anwendungen vor, die auf derartige Informationen angewiesen sind: (i) ein Diebstahlsicherungssystem, (ii) ein System zur Automatisierung des Kassiervorgangs und (iii) eine intelligente Umkleidekabine. Das erste System erkennt Produkte mit denen Kunden die Verkaufsfläche verlassen; das zweite System ordnet diese zusätzlich den richtigen Warenkörben zu. Das dritte System erkennt die Produkte, die ein Kunde in eine Umkleidekabine bringt und identifiziert, basierend auf der Interaktion des Kunden mit den Produkten, an welchem Produkt er aktuell am meisten Interesse hat. Zu diesem sollen anschließend maßgeschneiderte Dienste angeboten werden (z.B. Produktempfehlungen). Die Einbettung derartiger cyber-physischer Systeme in bestehende Einzelhandelsumgebungen ist aufgrund architektonischer Einschränkungen, etablierten Kundenprozessen und Kundenerwartungen hinsichtlich Datenschutz und Einkaufskomfort mit zahlreichen Herausforderungen verbunden. Zur Lösung der einzelnen Erkennungsaufgaben untersucht die Arbeit den Einsatz von RFID-Technologie und maschinellen Lernverfahren. Um die Systeme zudem optimal zu konfigurieren und belastbare Aussagen über den Wertbeitrag dieser zu treffen, wird zudem ein analytisches Modell vorgestellt, welches es ermöglicht die technischen Erkennungsmerkmale der Systeme auf geschäftsrelevante Kennzahlen wie Servicequalität und Rentabilität abzubilden. Die Bewertung der Systeme mit diesem Modell zeigt, dass die gleiche Systemkomponente zur Erkennung von Objektübergängen als Komponente eines Diebstahlsicherungssystems geeignet ist, jedoch nicht die erforderliche Erkennungsgenauigkeit aufweist, um als Komponente eines Systems zu Automatisierung des Kassiervorgangs verwendet werden zu können. KW - Laden KW - Internet der Dinge KW - Textileinzelhandel KW - Automated Checkout KW - Smart Fitting Room KW - Electronic Article Surveillance KW - Maschinelles Lernen KW - Operations Management KW - Wirtschaftsinformatik Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-193017 ER - TY - THES A1 - Kloos, Konstantin T1 - Allocation Planning in Sales Hierarchies T1 - Allokationsplanung in Betriebshierarchien N2 - Allocation planning describes the process of allocating scarce supply to individual customers in order to prioritize demands from more important customers, i.e. because they request a higher service-level target. A common assumption across publications is that allocation planning is performed by a single planner with the ability to decide on the allocations to all customers simultaneously. In many companies, however, there does not exist such a central planner and, instead, allocation planning is a decentral and iterative process aligned with the company's multi-level hierarchical sales organization. This thesis provides a rigorous analytical and numerical analysis of allocation planning in such hierarchical settings. It studies allocation methods currently used in practice and shows that these approaches typically lead to suboptimal allocations associated with significant performance losses. Therefore, this thesis provides multiple new allocation approaches which show a much higher performance, but still are simple enough to lend themselves to practical application. The findings in this thesis can guide decision makers when to choose which allocation approach and what factors are decisive for their performance. In general, our research suggests that with a suitable hierarchical allocation approach, decision makers can expect a similar performance as under centralized planning. N2 - Die Allokationsplanung beschreibt den Prozess der Allokation knapper Ressourcen an einzelne Kunden, um die Nachfrage von wichtigeren Kunden zu priorisieren, zum Beispiel weil diese ein höheres Service-Level-Ziel verlangen. Eine übliche Annahme in Publikationen zu diesem Thema ist, dass die Allokationsplanung von einem einzigen Planer durchgeführt wird, der über die Allokation an alle Kunden gleichzeitig entscheidet. In vielen Unternehmen gibt es jedoch keinen solchen zentralen Planer, sondern die Allokationsplanung ist ein dezentraler und iterativer Prozess, der sich an der mehrstufigen hierarchischen Vertriebsorganisation des Unternehmens orientiert. Die vorliegende Arbeit analysiert die Allokationsplanung in einem solchen hierarchischen Umfeld mit analytischen und numerischen Methoden. Es zeigt sich, dass derzeit in der Praxis verwendete Allokationsmethoden typischerweise zu suboptimalen Allokationen führen, die mit erheblichen Performanceverlusten verbunden sind. Daher werden in dieser Arbeit mehrere neue Allokationsansätze entwickelt, die eine wesentlich höhere Performance aufweisen, aber dennoch einfach genug sind, um praktisch angewendet zu werden. Mit den Ergebnissen dieser Arbeit können Entscheidungsträgern entscheiden, wann welcher Allokationsansatz gewählt werden sollte und welche Faktoren die Performance beeinflussen. Generell legen die Untersuchungen nahe, dass bei einem geeigneten hierarchischen Allokationsansatz die Entscheidungsträger eine ähnliche Performance wie bei einer zentralen Planung erwarten können. KW - Supply Chain Management KW - Entscheidungsunterstützung KW - Allocation Planning KW - Strategische Planung KW - Kundenorientierung KW - Planungssystem KW - Resource allocation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-193734 ER - TY - THES A1 - Taigel, Fabian Michael T1 - Data-driven Operations Management: From Predictive to Prescriptive Analytics T1 - Datenbasiertes Operations Management: Von prädiktiven zu präskriptiven Verfahren N2 - Autonomous cars and artificial intelligence that beats humans in Jeopardy or Go are glamorous examples of the so-called Second Machine Age that involves the automation of cognitive tasks [Brynjolfsson and McAfee, 2014]. However, the larger impact in terms of increasing the efficiency of industry and the productivity of society might come from computers that improve or take over business decisions by using large amounts of available data. This impact may even exceed that of the First Machine Age, the industrial revolution that started with James Watt’s invention of an efficient steam engine in the late eighteenth century. Indeed, the prevalent phrase that calls data “the new oil” indicates the growing awareness of data’s importance. However, many companies, especially those in the manufacturing and traditional service industries, still struggle to increase productivity using the vast amounts of data [for Economic Co-operation and Development, 2018]. One reason for this struggle is that companies stick with a traditional way of using data for decision support in operations management that is not well suited to automated decision-making. In traditional inventory and capacity management, some data – typically just historical demand data – is used to estimate a model that makes predictions about uncertain planning parameters, such as customer demand. The planner then has two tasks: to adjust the prediction with respect to additional information that was not part of the data but still might influence demand and to take the remaining uncertainty into account and determine a safety buffer based on the underage and overage costs. In the best case, the planner determines the safety buffer based on an optimization model that takes the costs and the distribution of historical forecast errors into account; however, these decisions are usually based on a planner’s experience and intuition, rather than on solid data analysis. This two-step approach is referred to as separated estimation and optimization (SEO). With SEO, using more data and better models for making the predictions would improve only the first step, which would still improve decisions but would not automize (and, hence, revolutionize) decision-making. Using SEO is like using a stronger horse to pull the plow: one still has to walk behind. The real potential for increasing productivity lies in moving from predictive to prescriptive approaches, that is, from the two-step SEO approach, which uses predictive models in the estimation step, to a prescriptive approach, which integrates the optimization problem with the estimation of a model that then provides a direct functional relationship between the data and the decision. Following Akcay et al. [2011], we refer to this integrated approach as joint estimation-optimization (JEO). JEO approaches prescribe decisions, so they can automate the decision-making process. Just as the steam engine replaced manual work, JEO approaches replace cognitive work. The overarching objective of this dissertation is to analyze, develop, and evaluate new ways for how data can be used in making planning decisions in operations management to unlock the potential for increasing productivity. In doing so, the thesis comprises five self-contained research articles that forge the bridge from predictive to prescriptive approaches. While the first article focuses on how sensitive data like condition data from machinery can be used to make predictions of spare-parts demand, the remaining articles introduce, analyze, and discuss prescriptive approaches to inventory and capacity management. All five articles consider approach that use machine learning and data in innovative ways to improve current approaches to solving inventory or capacity management problems. The articles show that, by moving from predictive to prescriptive approaches, we can improve data-driven operations management in two ways: by making decisions more accurate and by automating decision-making. Thus, this dissertation provides examples of how digitization and the Second Machine Age can change decision-making in companies to increase efficiency and productivity. N2 - Diese Dissertation besteht aus fünf inhaltlich abgeschlossenen Teilen, die ein übergeordnetes Thema zur Grundlage haben: Wie können Daten genutzt werden, um bessere Bestands- und Kapazitätsplanung zu ermöglichen? Durch die zunehmende Digitalisierung stehen in verschiedensten Wirtschaftsbereichen mehr und mehr Daten zur Verfügung, die zur besseren Planung der Betriebsabläufe genutzt werden können. Historische Nachfragedaten, Sensordaten, Preisinformationen und Daten zu Werbemaßnahmen, sowie frei verfügbare Daten wie z.B. Wettervorhersagen, Daten zu Schulferien, regionalen Events, Daten aus den Sozialen Medien oder anderen Quellen enthalten potentiell relevante Informationen, werden aber häufig noch nicht zur Entscheidungsunterstützung genutzt. Im ersten Artikel, ”Privacy-preserving condition-based forecasting using machine learning”, wird aufgezeigt, wie sensitive Zustandsdaten zur Nachfragevorhersage von Ersatzteilbedarfen nutzbar gemacht werden können. Es wird ein Modell entwickelt, das es erlaubt, Vorhersagen auf verschlüsselten Zustandsdaten zu erstellen. Dies ist z.B. in der Luftfahrt relevant, wo Dienstleister für die Wartung und Ersatzteilversorgung von Flugzeugen verschiedener Airlines zuständig sind. Da die Airlines befürchten, dass Wettbewerber an sensitive Echtzeitdaten gelangen können, werden diese Daten dem Wartungsdienstleister nicht im Klartext zur Verfügung gestellt. Die Ergebnisse des implementierten Prototyps zeigen, dass eine schnelle Auswertung maschineller Lernverfahren auch auf großen Datenmengen, die verschlüsselt in einer SAP HANA Datenbank gespeichert sind, möglich ist. Die Artikel zwei und drei behandeln innovative, datengetriebene Ansätze zur Bestandsplanung. Der zweite Artikel ”Machine learning for inventory management: “Analyzing two concepts to get from data to decisions” analysiert zwei Ansätze, die Konzepte des maschinellen Lernens nutzen um aus historischen Daten Bestandsentscheidungen zu lernen. Im dritten Artikel, ”Machine learning for inventory management: Analyzing two concepts to get from data to decisions”, wird ein neues Modell zur integrierten Bestandsoptimierung entwickelt und mit einem Referenzmodell verglichen, bei dem die Schätzung eines Vorhersagemodells und die Optimierung der Bestandsentscheidung separiert sind. Der wesentliche Beitrag zur Forschung ist hierbei die Erkenntnis, dass unter bestimmten Bedingungen der integrierte Ansatz klar bessere Ergebnisse liefert und so Kosten durch Unter- bzw. Überbestände deutlich gesenkt werden können. In den Artikeln vier und fünf werden neue datengetriebene Ansätze zur Kapazitätsplanung vorgestellt und umfassend analysiert. Im vierten Artikel ”Datadriven capacity management with machine learning: A new approach and a case-study for a public service office wird ein datengetriebenes Verfahren zur Kapazitätsplanung eingeführt und auf das Planungsproblem in einem Bürgeramt angewandt. Das Besondere hierbei ist, dass die spezifische Zielfunktion (maximal 20% der Kunden sollen länger als 20 Minuten warten müssen) direkt in ein maschinelles Lernverfahren integriert wird, womit dann ein Entscheidungsmodell aus historischen Daten gelernt werden kann. Hierbei wird gezeigt, dass mit dem integrierten Ansatz die Häufigkeit langer Wartezeiten bei gleichem Ressourceneinsatz deutlich reduziert werden kann. Im fünften Artikel, ”Prescriptive call center staffing”, wird ein Modell zur integrierten Kapazitätsoptimierung für ein Call Center entwickelt. Hier besteht die Innovation darin, dass die spezifische Kostenfunktion eines Call Centers in ein maschinelles Lernverfahren integriert wird. Die Ergebnisse für Daten von zwei Call Centern zeigen, dass mit dem neuentwickelten Verfahren, die Kosten im Vergleich zu dem gängigen Referenzmodell aus der Literatur deutlich gesenkt werden können. KW - Maschinelles Lernen KW - Big Data KW - Bestandsplanung KW - Kapazitätsplanung KW - data-driven KW - Operations Management KW - Inventory Management KW - Capacity Management Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-206514 ER - TY - THES A1 - Hochmuth, Christian Andreas T1 - Innovative Software in Unternehmen: Strategie und Erfolgsfaktoren für Einführungsprojekte T1 - Innovative Software in Companies: Strategy and Success Factors for Implementation Projects N2 - Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen. N2 - Innovative software can secure the position of a company among the competition. The implementation of innovative software is, however, anything but simple. Although the technical aspects are more obvious, this is because organizational aspects are predominant. Too many software projects fail because the implementation does not succeed, despite meeting technical requirements. In this light, the research objective of the master's thesis is to find risks and success factors for the implementation of innovative software in companies, to formulate a strategy and in this process to determine the importance of key persons. KW - Innovationsmanagement KW - Projektmanagement KW - Softwareentwicklung KW - Anforderungsmanagement KW - Risikomanagement KW - Innovation Management KW - Project Management KW - Software Engineering KW - Requirements Management KW - Risk Management Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-288411 N1 - Submitted on 15 September 2011, defended on 7 October 2011 ER - TY - RPRT A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian T1 - Anforderungsanalyse für eine Kollaborationsplattform in Blockchain-basierten Wertschöpfungsnetzwerken T1 - Requirements analysis for a collaborative platform in blockchain-based supply chain networks N2 - In our globalized world, companies operate on an international market. To concentrate on their main competencies and be more competitive, they integrate into supply chain networks. However, these potentials also bear many risks. The emergence of an international market also creates pressure from competitors, forcing companies to collaborate with new and unknown companies in dynamic supply chain networks. In many cases, this can cause a lack of trust as the application of illegal practices and the breaking of agreements through complex and nontransparent supply chain networks pose a threat. Blockchain technology provides a transparent, decentralized, and distributed means of chaining data storage and thus enables trust in its tamper-proof storage, even if there is no trust in the cooperation partners. The use of the blockchain also provides the opportunity to digitize, automate, and monitor processes within supply chain networks in real time. The research project "Plattform für das integrierte Management von Kollaborationen in Wertschöpfungsnetzwerken" (PIMKoWe) addresses this issue. The aim of this report is to define requirements for such a collaboration platform. We define requirements based on a literature review and expert interviews, which allow for an objective consideration of scientific and practical aspects. An additional survey validates and further classifies these requirements as “essential”, “optional”, or “irrelevant”. In total, we have derived a collection of 45 requirements from different dimensions for the collaboration platform. Employing these requirements, we illustrate a conceptual architecture of the platform as well as introduce a realistic application scenario. The presentation of the platform concept and the application scenario can provide the foundation for implementing and introducing a blockchain-based collaboration platform into existing supply chain networks in context of the research project PIMKoWe. T3 - Working Paper Series of the Institute of Business Management - 7 KW - Blockchain KW - Supply Chain Management KW - Wertschöpfungsnetzwerke KW - Blockchain KW - Supply Chain Networks KW - Plattform Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188866 N1 - Förderhinweis: Dieses Forschungs- und Entwicklungsprojekt wird mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ (Förderkennzeichen „02P17D160“) gefördert und vom Projektträger Karlsruhe (PTKA) betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor. ER - TY - JOUR A1 - Janiesch, Christian A1 - Zschech, Patrick A1 - Heinrich, Kai T1 - Machine learning and deep learning JF - Electronic Markets N2 - Today, intelligent systems that offer artificial intelligence capabilities often rely on machine learning. Machine learning describes the capacity of systems to learn from problem-specific training data to automate the process of analytical model building and solve associated tasks. Deep learning is a machine learning concept based on artificial neural networks. For many applications, deep learning models outperform shallow machine learning models and traditional data analysis approaches. In this article, we summarize the fundamentals of machine learning and deep learning to generate a broader understanding of the methodical underpinning of current intelligent systems. In particular, we provide a conceptual distinction between relevant terms and concepts, explain the process of automated analytical model building through machine learning and deep learning, and discuss the challenges that arise when implementing such intelligent systems in the field of electronic markets and networked business. These naturally go beyond technological aspects and highlight issues in human-machine interaction and artificial intelligence servitization. KW - analytical model building KW - machine learning KW - deep learning KW - artificial intelligence KW - artificial neural networks Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-270155 SN - 1422-8890 VL - 31 IS - 3 ER - TY - THES A1 - Schätzlein, Uwe T1 - Untersuchungen ausgewählter Reformen und Reformbedarfe in der deutschen Alterssicherung T1 - Studies of Selected Reforms and Reform Needs in the German System of Old-Age Provision N2 - In der Dissertation werden drei ausgewählte Reformen oder Reformbedarfe im deutschen Drei-Säulen-System der Alterssicherung untersucht: In der Säule der gesetzlichen Altersversorgung werden Möglichkeiten zur Wiedereinsetzung des 2018 ausgesetzten Nachholfaktors in der gesetzlichen Rentenversicherung erarbeitet. Je nachdem, ob Erhöhungen des aktuellen Rentenwertes verursacht durch die Niveauschutzklausel in künftigen Jahren aufgerechnet werden sollen oder nicht, werden zwei unterschiedliche Verfahren – das Getrennte Verfahren und das Integrierte Verfahren – präsentiert, in welche sich der Nachholfaktor bei aktiver Schutzklausel und Niveauschutzklausel konsistent einfügt. In der Säule der betrieblichen Altersversorgung werden Möglichkeiten zur Reform des steuerrechtlichen Rechnungszinsfußes von 6 % für Pensionsrückstellungen analysiert. Dabei wird betrachtet, welche Auswirkungen es für Arbeitgeber hat, wenn der Rechnungszinsfuß diskretionär einen neuen Wert erhielte, wenn er regelgebunden einem Referenzzins folgte, wenn steuerrechtlich der handelsrechtlichen Bewertung gefolgt würde, und wenn ein innovatives Tranchierungsverfahren eingeführt würde. Anschließend wird erörtert, inwieweit überhaupt gesetzgeberischer Anpassungsbedarf besteht. Es kristallisiert sich der Eindruck heraus, dass mit dem steuerrechtlichen Rechnungszinsfuß eine Gesamtkapitalrendite typisiert wird. Die Hypothese kann nicht verworfen werden, dass 6 % durchaus realistisch für deutsche Unternehmen sind. In der Säule der privaten Altersvorsorge wird erschlossen, wann im Falle eines Riester-geförderten Erwerbs einer Immobilie in der Rentenphase des Eigenheimrentners der optimale Zeitpunkt zur Ausübung seines Wahlrechts, seine nachgelagerte Besteuerung vorzeitig zu beenden, kommt. Bei vorzeitiger Beendigung sind alle ausstehenden Beträge auf einmal, jedoch nur zu 70 % zu versteuern. Wann dieser 30%ige Nachlass vorteilhaft wird, wird demonstriert unter Variation des Wohnförderkontostands, der Renteneinkünfte, des Marktzinssatzes, des Rentenbeginns, der Überlebenswahrscheinlichkeiten sowie des Besteuerungsanteils. N2 - The dissertation includes analyses of three selected reforms or reform needs in the German three-pillar system of old-age provision: In the pillar of statutory old-age provision, options for reinstating the catch-up factor in statutory pension insurance, which was suspended in 2018, are elaborated. Depending on whether increases in the current pension value caused by the level protection clause are to be offset in future years or not, two different procedures – the separated procedure and the integrated procedure – are presented, with which the catch-up factor can be consistently reactivated with both the protection clause and the level protection clause active. In the pillar of occupational pension provision, options for reforming the fiscal law’s 6% discount rate for pension provisions are analysed. The effects for employers are considered if the discount rate were to be given a new value on a discretionary basis, if it were to follow a reference rate on a rule-bound basis, if the valuation under German GAAP were to be followed under fiscal law, and if an innovative carving procedure were to be introduced. Subsequently, it is discussed to what extent there is a need for legislative adjustment. The impression emerges that a return on assets is typified by the fiscal law’s discount rate. The hypothesis cannot be rejected that 6% is indeed realistic for German companies. In the pillar of private old-age provision, it is deduced when, in the case of a Riester-subsidised acquisition of a property, the optimal time comes to exercise the option to terminate the deferred taxation. When exercising the option, all outstanding amounts will be taxed at once, but only at 70%. When this 30% discount becomes advantageous is demonstrated by varying the subsidy account balance, the pension income, the market interest rate, the pension start date, the survival probabilities as well as the taxation share for pensioners. KW - Rentenversicherung KW - Betriebliche Altersversorgung KW - Private Altersversorgung KW - Rechtsreform KW - Alterssicherung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-278042 ER - TY - THES A1 - Tschinkl, Dominik T1 - Der Einfluss von Steuern auf Ersparnisbildung und Altersvorsorge - Experimentelle und qualitative Untersuchungen T1 - The Impact of Taxes on saving and retirement – experimental and qualitative analyses N2 - Aufgrund der bekannten Probleme der umlagefinanzierten gesetzlichen Rentenversicherung versucht der deutsche Gesetzgeber seit einiger Zeit, die eigenverantwortliche Altersvorsorge zu fördern. Häufig steht dabei die betriebliche Altersversorgung (bAV) im Fokus. In dieser Arbeit wird mittels Experten- und Arbeitnehmerinterviews ausführlich herausgearbeitet, wo zentrale Verbreitungshemmnisse der bAV liegen und wie diese durch Anpassung der steuer- und sozialversicherungsrechtlichen Rahmenbedingungen adressiert werden können. Wesentliche Elemente dieser Reformüberlegungen sind in das zum 01.01.2018 in Kraft getretene Betriebsrentenstärkungsgesetz eingeflossen. Daneben wird in dieser Arbeit mithilfe einer experimentalökonomischen Analyse gezeigt, wie verschiedene Arten der Besteuerung individuelle Sparentscheidungen beeinflussen können. Dabei wird deutlich, dass Individuen die Wirkung einer nachgelagerten Besteuerung häufig nicht korrekt wahrnehmen. N2 - Individuals make numerous decisions that affect their financial situation. Saving in general and saving for old age in particular are two of these decisions. Experimental economics investigate the influence of taxes on such individual decisions. The results show that the decisions actually made may differ from those predicted by model theory. So far, this was primarily shown for the influence of taxes on investment and labor supply decisions. It is found that in some cases individuals make biased decisions due to a misperception of certain fiscal regulations, such as tax treatments. Such findings are the motivation for the first part of this work: Using experimental methods, I show how different forms of taxation influence the decision between immediate consumption and saving. The parameters are chosen in such a way that the treatments “No Tax”, “Front-loaded Taxation” and “Deferred Taxation” have identical net payoffs, which should induce the same decision-making patterns. However, I find that these expectations are only met for the comparison of the No Tax treatment and the Front-loaded Taxation treatment. The participants in the treatment Deferred Taxation decide less often in favor of saving. This effect can be attributed to a misperception of this form of taxation. The individuals assess its influence as more negative than it actually is. Moreover, my findings show that the advantages from deferred or front-loaded taxation compared to a classic income tax are only partially recognized. While in the case of deferred and front-loaded taxation the periodic return is tax-free, this return is taxed in the system of a classic income tax. The latter should have a negative effect on the savings decision. The results of the experiment suggest that this is only true for the comparison of the income tax with the front-loaded taxation. Since the deferred taxation distorts the participants’ decisions negatively, I find no difference to the classic income tax. The second part of this work deals with the current and future legal regulations regarding company pension schemes (CPS) as a form of state-subsidized old-age provision. Although tax regulations are the main focus, social security law is also dealt with as it often corresponds to tax law. For some time now, the German legislator has been trying to increase the attractiveness of CPS in an attempt to encourage its wider use. There is considerable potential for this especially among earners of low and very low incomes. Therefore, this study examines obstacles to the continued spread of CPS by using qualitative methods, i.e. guided interviews with experts as well as partially standardized interviews with employees from this target group. On this basis, I consider potential reforms that may prove effective in addressing the identified obstacles. I then subject these reform ideas to an empirical review that involves interviews again with earners of low and very low incomes. It is shown that a “CBS subsidy” could be introduced, which involves granting a statutory subsidy to employers who contribute a certain minimum amount to the CPS on behalf of their employees. As a consequence, employees would be able to participate in a CPS without having to make a contribution of their own, which would induce the desired effect especially for earners of low and very low incomes. Besides that, already existing support schemes, i.e. the “Riester subsidy”, could be made more attractive by making appropriate adjustments. These analyses took place before the Company Pensions Strengthening Act (CPSA) was passed and thus before it came into force. Accordingly, the comments on the legal and initial situation refer to the status as of December 31, 2017. Some of the adjustments implemented in the CPSA are based on the reform proposals discussed in this work. T3 - Studien zu Rechnungslegung, Steuerlehre und Controlling - 5 KW - Deutschland KW - Steuerrecht KW - Betriebliche Altersversorgung KW - Altersvorsorge KW - Betriebliche Altersversorgung KW - Steuern KW - Betriebsrenten KW - Private Altersversorgung KW - Altersversorgung KW - Besteuerung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-216798 SN - 978-3-95826-150-1 SN - 978-3-95826-151-8 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-150-1, 27,80 Euro. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Lauton, Felix T1 - Three Essays on the Procurement of Essential Medicines in Developing Countries T1 - Drei Aufsätze zur Beschaffung unentbehrlicher Medikamente in Entwicklungsländern N2 - The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems. N2 - Der erste Teil, welcher eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik entstanden ist, ist durch eine Studie motiviert, die Entscheidungsträgern zweier Einkaufsorganisationen beim Einkauf von Depot Medroxyprogesterone Acetate (DMPA), einem länger wirkenden Verhütungsmittel, unterstützen sollte. Zum Zeitpunkt der Studie stand den Organisationen nur ein qualifizierter Lieferant zur Verfügung. Ein zweiter Zulieferer stand kurz vor der Zulassung. Ziel der Arbeit war es den Mehrwert des neuen Lieferanten zu quantifizieren und die optimale Aufteilung der Bestellmengen zwischen beiden Lieferanten zu ermitteln. Hierbei spielt die Abwägung von Preisen (getrieben durch den Wettbewerb zwischen beiden Lieferanten) und Risiko (getrieben durch unsichere Lieferzeiten und Ausfallwahrscheinlichkeiten) eine entscheidende Rolle. In unserer Arbeit zeigen wir wie sich die optimale Aufteilung anhand diverser Parameter, wie Lieferzuverlässigkeit, Kosten und Kapazität, verändert, und untersuchen die Abwägungsentscheidung zwischen Wettbewerb und Risiken. Im zweiten Teil, der ebenfalls eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik ist, untersuchen wir einen innovativen Einkaufsmechanismus den wir "Postponement Tender" nennen. Das zugrundeliegende Problem ist das eines Einkäufers, welcher mit der unsicheren Qualität eines neuen Lieferanten konfrontiert ist, und der daraus resultierenden Allokationsentscheidung zwischen bestehendem und neuen Lieferanten. Anstatt alles auf einmal zu vergeben, kann der Einkäufer auch zuerst einen Teil des Volumens an beide Lieferanten vergeben, um die unsichere Qualität des neuen Lieferanten besser einzuschätzen. Nachdem die Lieferanten die ersten Volumina geliefert haben kann der Einkäufer die Qualität der Lieferanten besser beurteilen und kauft dann die nachgelagerte Menge vom besseren Lieferanten. Da die Lieferanten bereits zu Beginn Preise festlegen müssen, kann der Einkäufer durch diesen Mechanismus sowohl durch verbesserten Wettbewerb profitieren als auch von einem niedrigeren Qualitätsrisiko, da er dabei etwas über die Qualität der Lieferanten lernt. Wir zeigen in einer detaillierten Analyse wie, abhängig von Einkaufs- und Wettbewerbssituation, die Aufteilung zwischen dem ersten und dem zweiten Teil erfolgen sollte und unter welchen Bedingungen der "Postponement Tender" besser als eine klassische Einzelquellenbeschaffung ist. Der dritte Teil ist durch den Business Case kenianischer Apotheken motiviert: diese können durch die Koordination von Bestellungen niedrigere Einkaufspreise aufgrund von Mengenrabatten bei Lieferanten erzielen sowie fixe Bestellkosten wie Logistikkosten teilen. Aufgrund einer Vielzahl von Produkten ist diese Koordination allerdings sehr komplex und mit einem hohen Aufwand sowie Kosten verbunden. Um diese Hürde zu überwinden entwickle ich eine neue, datengetriebene Bestellpolitik für mehrperiodische Bestandsmanagementprobleme mit mehreren Produkten und Skaleneffekten in fixen sowie variablen Bestellkosten. Die entwickelte Politik beruht auf den Prinzipien von Erneuerungstheorie und Sample Average Approximation. Des Weiteren analysiere ich die Performance dieser Politik anhand realer Daten aus dem zugrundeliegenden Business Case. In einer ersten Auswertung zeigt sich, dass die resultierenden Kosten nah an denen der theoretisch optimalen Bestellpolitik liegen. Weiter wird gezeigt, dass sich das Verhältnis zu ex-post optimalen Kosten in Szenarien, in denen es keine theoretisch optimale Bestellpolitik gibt (mehrere Produkte und Mengenrabatte) im selben Rahmen befindet wie in Szenarien mit optimaler Bestellpolitik. Insgesamt zeigt der entwickelte Ansatz viel Potential für die Lösung komplexer Bestandsplanungsprobleme. KW - Entwicklungsländer KW - Beschaffung KW - Gesundheitswesen KW - Global Health KW - Procurement KW - Supply Chain KW - Data Driven Operations KW - Supply Chain Management KW - Einkauf KW - Modellierung KW - Operations Management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220631 ER - TY - THES A1 - Notz, Pascal Markus T1 - Prescriptive Analytics for Data-driven Capacity Management T1 - Prescriptive Analytics für datengetriebenes Kapazitätsmanagement N2 - Digitization and artificial intelligence are radically changing virtually all areas across business and society. These developments are mainly driven by the technology of machine learning (ML), which is enabled by the coming together of large amounts of training data, statistical learning theory, and sufficient computational power. This technology forms the basis for the development of new approaches to solve classical planning problems of Operations Research (OR): prescriptive analytics approaches integrate ML prediction and OR optimization into a single prescription step, so they learn from historical observations of demand and a set of features (co-variates) and provide a model that directly prescribes future decisions. These novel approaches provide enormous potential to improve planning decisions, as first case reports showed, and, consequently, constitute a new field of research in Operations Management (OM). First works in this new field of research have studied approaches to solving comparatively simple planning problems in the area of inventory management. However, common OM planning problems often have a more complex structure, and many of these complex planning problems are within the domain of capacity planning. Therefore, this dissertation focuses on developing new prescriptive analytics approaches for complex capacity management problems. This dissertation consists of three independent articles that develop new prescriptive approaches and use these to solve realistic capacity planning problems. The first article, “Prescriptive Analytics for Flexible Capacity Management”, develops two prescriptive analytics approaches, weighted sample average approximation (wSAA) and kernelized empirical risk minimization (kERM), to solve a complex two-stage capacity planning problem that has been studied extensively in the literature: a logistics service provider sorts daily incoming mail items on three service lines that must be staffed on a weekly basis. This article is the first to develop a kERM approach to solve a complex two-stage stochastic capacity planning problem with matrix-valued observations of demand and vector-valued decisions. The article develops out-of-sample performance guarantees for kERM and various kernels, and shows the universal approximation property when using a universal kernel. The results of the numerical study suggest that prescriptive analytics approaches may lead to significant improvements in performance compared to traditional two-step approaches or SAA and that their performance is more robust to variations in the exogenous cost parameters. The second article, “Prescriptive Analytics for a Multi-Shift Staffing Problem”, uses prescriptive analytics approaches to solve the (queuing-type) multi-shift staffing problem (MSSP) of an aviation maintenance provider that receives customer requests of uncertain number and at uncertain arrival times throughout each day and plans staff capacity for two shifts. This planning problem is particularly complex because the order inflow and processing are modelled as a queuing system, and the demand in each day is non-stationary. The article addresses this complexity by deriving an approximation of the MSSP that enables the planning problem to be solved using wSAA, kERM, and a novel Optimization Prediction approach. A numerical evaluation shows that wSAA leads to the best performance in this particular case. The solution method developed in this article builds a foundation for solving queuing-type planning problems using prescriptive analytics approaches, so it bridges the “worlds” of queuing theory and prescriptive analytics. The third article, “Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management” proposes a novel prescriptive analytics approach to solve the two capacity planning problems studied in the first and second articles that allows decision-makers to derive explanations for prescribed decisions: Subgradient Tree Boosting (STB). STB combines the machine learning method Gradient Boosting with SAA and relies on subgradients because the cost function of OR planning problems often cannot be differentiated. A comprehensive numerical analysis suggests that STB can lead to a prescription performance that is comparable to that of wSAA and kERM. The explainability of STB prescriptions is demonstrated by breaking exemplary decisions down into the impacts of individual features. The novel STB approach is an attractive choice not only because of its prescription performance, but also because of the explainability that helps decision-makers understand the causality behind the prescriptions. The results presented in these three articles demonstrate that using prescriptive analytics approaches, such as wSAA, kERM, and STB, to solve complex planning problems can lead to significantly better decisions compared to traditional approaches that neglect feature data or rely on a parametric distribution estimation. N2 - Digitalisierung und künstliche Intelligenz führen zu enormen Veränderungen in nahezu allen Bereichen von Wirtschaft und Gesellschaft. Grundlegend für diese Veränderungen ist die Technologie des maschinellen Lernens (ML), ermöglicht durch ein Zusammenspiel großer Datenmengen, geeigneter Algorithmen und ausreichender Rechenleistung. Diese Technologie bildet die Basis für die Entwicklung neuartiger Ansätze zur Lösung klassischer Planungsprobleme des Operations Research (OR): Präskriptive Ansätze integrieren Methoden des ML und Optimierungsverfahren des OR mit dem Ziel, Lösungen für Planungsprobleme direkt aus historischen Observationen von Nachfrage und Features (erklärenden Variablen) abzuleiten. Diese neuartigen Lösungsansätze bieten ein enormes Potential zur Verbesserung von Planungsentscheidungen, wie erste numerische Analysen mit historischen Daten gezeigt haben, und begründen damit ein neues Forschungsfeld innerhalb des OR. In ersten Beiträgen zu diesem neuen Forschungsfeld wurden präskriptive Verfahren für verhältnismäßig einfache Planungsprobleme aus dem Bereich des Lagerbestandsmanagements entwickelt. Häufig weisen Planungsprobleme aber eine deutlich höhere Komplexität auf, und viele dieser komplexen Planungsprobleme gehören zum Bereich der Kapazitätsplanung. Daher ist die Entwicklung präskriptiver Ansätze zur Lösung komplexer Probleme im Kapazitätsmanagement das Ziel dieser Dissertation. In drei inhaltlich abgeschlossenen Teilen werden neuartige präskriptive Ansätze konzipiert und auf realistische Kapazitätsplanungsprobleme angewendet. Im ersten Artikel, „Prescriptive Analytics for Flexible Capacity Management”, werden zwei präskriptive Verfahren entwickelt, und zwar weighted Sample Average Approximation (wSAA) und kernelized Empirical Risk Minimization (kERM), um ein komplexes, zweistufiges stochastisches Kapazitätsplanungsproblem zu lösen: Ein Logistikdienstleister sortiert täglich eintreffende Sendungen auf drei Sortierlinien, für die die wöchentliche Mitarbeiterkapazität geplant werden muss. Dieser Artikel ist der erste Beitrag, in dem ein kERM-Verfahren zur direkten Lösung eines komplexen Planungsproblems mit matrixwertiger Nachfrage und vektorwertiger Entscheidung entwickelt, eine Obergrenze für die erwarteten Kosten für nichtlineare, kernelbasierte Funktionen abgeleitet und die Universal Approximation Property bei Nutzung spezieller Kernelfunktionen gezeigt wird. Die Ergebnisse der numerischen Studie demonstrieren, dass präskriptive Verfahren im Vergleich mit klassischen Lösungsverfahren zu signifikant besseren Entscheidungen führen können und ihre Entscheidungsqualität bei Variation der exogenen Kostenparameter deutlich robuster ist. Im zweiten Artikel, „Prescriptive Analytics for a Multi-Shift Staffing Problem”, werden wSAA und kERM auf ein Planungsproblem der klassischen Warteschlangentheorie angewendet: Ein Dienstleister erhält über den Tag verteilt Aufträge, deren Anzahl und Zeitpunkt des Eintreffens unsicher sind, und muss die Mitarbeiterkapazität für zwei Schichten planen. Dieses Planungsproblem ist komplexer als die bisher mit präskriptiven Ansätzen gelösten Probleme: Auftragseingang und Bearbeitung werden als Wartesystem modelliert und die Nachfrage innerhalb einer Schicht folgt einem nicht stationären Prozess. Diese Komplexität wird mit zwei Näherungsmethoden bewältigt, sodass das Planungsproblem mit wSAA und kERM sowie dem neu entwickelten Optimization-Prediction-Verfahren gelöst werden kann. Die in diesem Artikel entwickelte Methode legt den Grundstein zur Lösung komplexer Warteschlangenmodelle mit präskriptiven Verfahren und schafft damit eine Verbindung zwischen den „Welten“ der Warteschlangentheorie und der präskriptiven Verfahren. Im dritten Artikel, „Explainable Subgradient Tree Boosting for Prescriptive Analytics in Operations Management”, wird ein neues präskriptives Verfahren zur Lösung der Planungsprobleme der ersten beiden Artikel entwickelt, das insbesondere durch die Erklärbarkeit der Entscheidungen attraktiv ist: Subgradient Tree Boosting (STB). Es kombiniert das erfolgreiche Gradient-Boosting-Verfahren aus dem ML mit SAA und verwendet Subgradienten, da die Zielfunktion von OR-Planungsproblemen häufig nicht differenzierbar ist. Die numerische Analyse zeigt, dass STB zu einer vergleichbaren Entscheidungsqualität wie wSAA und kERM führen kann, und dass die Kapazitätsentscheidungen in Beiträge einzelner Features zerlegt und damit erklärt werden können. Das STB-Verfahren ist damit nicht nur aufgrund seiner Entscheidungsqualität attraktiv für Entscheidungsträger, sondern insbesondere auch durch die inhärente Erklärbarkeit. Die in diesen drei Artikeln präsentierten Ergebnisse zeigen, dass die Nutzung präskriptiver Verfahren, wie wSAA, kERM und STB, bei der Lösung komplexer Planungsprobleme zu deutlich besseren Ergebnissen führen kann als der Einsatz klassischer Methoden, die Feature-Daten vernachlässigen oder auf einer parametrischen Verteilungsschätzung basieren. KW - Maschinelles Lernen KW - Operations Management KW - Entscheidungsunterstützung KW - Kapazitätsplanung KW - Prescriptive Analytics KW - Machine Learning KW - Explainability KW - Data-driven Operations Management KW - Capacity Management KW - Operations Management KW - Entscheidungsunterstützung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-240423 ER - TY - JOUR A1 - Geyer, Johannes A1 - Haan, Peter A1 - Lorenz, Svenja A1 - Zwick, Thomas A1 - Bruns, Mona T1 - Role of labor demand in the labor market effects of a pension reform JF - Industrial Relations N2 - This paper shows that labor demand plays an important role in the labor market reactions to a pension reform in Germany. Employers with a high share of older worker inflow compared with their younger worker inflow, employers in sectors with few investments in research and development, and employers in sectors with a high share of collective bargaining agreements allow their employees to stay employed longer after the reform. These employers offer their older employees partial retirement instead of forcing them into unemployment before early retirement because the older employees incur low substitution costs and high dismissal costs. KW - pension reform KW - labor demand KW - labor market Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259446 VL - 61 IS - 2 ER - TY - JOUR A1 - Rau-Bredow, Hans T1 - Bigger is not always safer: a critical analysis of the subadditivity assumption for coherent risk measures JF - Risks N2 - This paper provides a critical analysis of the subadditivity axiom, which is the key condition for coherent risk measures. Contrary to the subadditivity assumption, bank mergers can create extra risk. We begin with an analysis how a merger affects depositors, junior or senior bank creditors, and bank owners. Next it is shown that bank mergers can result in higher payouts having to be made by the deposit insurance scheme. Finally, we demonstrate that if banks are interconnected via interbank loans, a bank merger could lead to additional contagion risks. We conclude that the subadditivity assumption should be rejected, since a subadditive risk measure, by definition, cannot account for such increased risks. KW - coherent risk measures KW - subadditivity KW - bank mergers KW - regulatory capital Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-201808 VL - 7 IS - 3 ER - TY - JOUR A1 - Rademaker, Manuel E. A1 - Schuberth, Florian A1 - Dijkstra, Theo K. T1 - Measurement error correlation within blocks of indicators in consistent partial least squares : Issues and remedies JF - Internet Research N2 - Purpose The purpose of this paper is to enhance consistent partial least squares (PLSc) to yield consistent parameter estimates for population models whose indicator blocks contain a subset of correlated measurement errors. Design/methodology/approach Correction for attenuation as originally applied by PLSc is modified to include a priori assumptions on the structure of the measurement error correlations within blocks of indicators. To assess the efficacy of the modification, a Monte Carlo simulation is conducted. Findings In the presence of population measurement error correlation, estimated parameter bias is generally small for original and modified PLSc, with the latter outperforming the former for large sample sizes. In terms of the root mean squared error, the results are virtually identical for both original and modified PLSc. Only for relatively large sample sizes, high population measurement error correlation, and low population composite reliability are the increased standard errors associated with the modification outweighed by a smaller bias. These findings are regarded as initial evidence that original PLSc is comparatively robust with respect to misspecification of the structure of measurement error correlations within blocks of indicators. Originality/value Introducing and investigating a new approach to address measurement error correlation within blocks of indicators in PLSc, this paper contributes to the ongoing development and assessment of recent advancements in partial least squares path modeling. KW - Monte Carlo simulation KW - Structural equation modelling KW - Consistent partial least squares KW - Measurement error correlation KW - Model specification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-224901 VL - 29 IS - 3 ER - TY - RPRT A1 - Grief, Lukas A1 - Altmann, Michael A1 - Bogaschewsky, Ronald T1 - The impact of sustainable supply chain management practices on performance metrics – A meta-analysis N2 - Die vorliegende Arbeit untersucht mittels einer Meta-Analyse den Zusammenhang zwischen nachhaltigkeitsorientierter Supply Chain-Aktivitäten und der Unternehmensperformance. Es sollen auf Grundlage einer breiten Datenbasis aus den Jahren 2000 bis 2013 fundierte und aussagekräftige Zusammenhänge zwischen ökologisch nachhaltigen Supply Chain Aktivitäten und deren Wirkung auf unterschiedliche Bereiche der Unternehmensperformance hergestellt werden N2 - Based on a broad data basis considering the years 2000 - 2013, we conduct a meta-analysis to research the influence of sustainable supply chain practices on different aspects of measurable company performance. T2 - Eine Meta-Analyse zur Untersuchung der Auswirkung nachhaltigkeitsorientierter Supply Chain-Aktivitäten auf die Unternehmensperformance T3 - Working Paper Series of the Institute of Business Management - 5 KW - Supply Chain Management KW - Nachhaltigkeit KW - supply chain management KW - sustainability Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153833 ER - TY - THES A1 - Hegmann, Reinhold T1 - Prüferqualifikation und Prüfungsqualität – Eine empirische Untersuchung privater prüfungspflichtiger Unternehmen in Deutschland T1 - Auditor Qualification and Audit Quality – Empirical Evidence from German Private Firms N2 - Die Jahresabschlussprüfung verfolgt das Ziel, die Verlässlichkeit der Rechnungslegung zu bestätigen. Folglich kann sie einen wesentlichen Beitrag zu einem hohen Informationsniveau an den Märkten leisten. Angesichts dieser großen ökonomischen Bedeutung unternimmt der deutsche Gesetzgeber zahlreiche Anstrengungen, um eine hohe Prüfungsqualität sicherzustellen. Die Sichtung der Wirtschaftsprüferordnung zeigt hierbei, dass regulatorische Maßnahmen ergriffen werden, die am Kern der Jahresabschlussprüfung ansetzen, nämlich an den Berufsangehörigen selbst. So wurde der Zugang zum Berufsstand der vereidigten Buchprüfer mehrmals geschlossen und wiedereröffnet. Des Weiteren sind markante Anpassungen des Niveaus des Wirtschaftsprüfungsexamens im Zeitablauf zu erkennen. Bei der Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse sind außerdem besondere Berufspflichten zu erfüllen. Zum einen ist diesen schweren Eingriffen in die Freiheit der Berufswahl und der Berufsausübung gemein, dass sie allesamt die Qualifikation des Abschlussprüfers adressieren. Zum anderen werden die entsprechenden Gesetzesänderungen mehrheitlich mit einer Stärkung der Prüfungsqualität begründet. Fraglich ist, inwiefern jene Facetten der Prüferqualifikation tatsächlich einen Einfluss auf die Prüfungsqualität ausüben. Aufgrund mangelnder Evidenz ergibt sich die Notwendigkeit, eine empirische Studie am deutschen Prüfermarkt durchzuführen und somit den Beginn zur Schließung der identifizierten Forschungslücke zu setzen. Das Ziel der vorliegenden Dissertation besteht folglich darin, den Zusammenhang zwischen der Prüferqualifikation und der Prüfungsqualität mittels Regressionsanalysen zu untersuchen. Dazu wurde ein einzigartiger Datensatz zu deutschen privaten prüfungspflichtigen Kapitalgesellschaften mit unkonsolidierten Finanz- und Prüferinformationen im Zeitraum 2006-2018 mit insgesamt 217.585 grundlegenden Beobachtungen erhoben, bereinigt und aufbereitet. Da die Prüfungsqualität nicht direkt beobachtbar ist, wird zwischen wahrgenommener Prüfungsqualität und tatsächlicher Prüfungsqualität unterschieden. Im Rahmen dieser Dissertation wird die wahrgenommene Prüfungsqualität über Fremdkapitalkosten und die tatsächliche Prüfungsqualität über absolute diskretionäre Periodenabgrenzungen approximiert. Die Ergebnisse der Hauptregressionen zeigen überwiegend, dass kein Zusammenhang zwischen den Maßgrößen der Prüferqualifikation und der wahrgenommenen und tatsächlichen Prüfungsqualität besteht. Die Zusatz- und Sensitivitätsanalysen unterstützen diesen Befund. So können mit Blick auf die Berufszugangsregelungen keine Qualitätsunterschiede zwischen den Berufsständen der Wirtschaftsprüfer und der vereidigten Buchprüfer nachgewiesen werden. Auch innerhalb des Berufstandes der Wirtschaftsprüfer ergeben sich keine Hinweise auf ein Qualitätsgefälle zwischen den Prüfergruppen, die unterschiedliche Examensanforderungen durchlebt haben. Hinsichtlich der Berufsausübungsregelungen ist zu beobachten, dass die zusätzlichen Anforderungen an die Jahresabschlussprüfung der Unternehmen von öffentlichem Interesse nicht mit einer anderen Prüfungsqualität bei privaten Unternehmen verbunden sind. Die beschriebenen regulatorischen Schritte des Gesetzgebers im Bereich der Prüferqualifikation erscheinen somit im Lichte einer verbesserten Prüfungsqualität nicht zwingend gerechtfertigt. N2 - Audit aims at ensuring the reliability of financial statements. Thus, it can contribute to a high information level in the markets. In light of this great economic importance, German legislator makes huge efforts to safeguard high audit quality. The review of the amendments to the German Public Accountant Act reveals here that regulatory measures are taken which address the core of audit, namely the members of the professions themselves. In particular, access to the profession of sworn auditors has been closed and reopened several times. Furthermore, striking adjustments to the examination requirements for public accountants can be observed over time. Finally, conducting statutory audits at public-interest entities requires the fulfillment of additional professional duties. All these severe interventions into the freedom of the choice of profession and the practice of the profession have in common that they address the qualification of the auditor. Moreover, the corresponding legislative changes are mainly justified by strengthening audit quality. Yet, it is questionable to what extent those facets of auditor qualification in fact influence audit quality. The lack of available evidence underscores the need to conduct an empirical study on the German audit market and thus work on closing the identified research gap. Consequently, the objective of this dissertation is to investigate the association between auditor qualification and audit quality by means of regression analyses. For this purpose, an unique dataset of German private limited liability firms that are subject to mandatory audits and have unconsolidated financial statements for the fiscal years of 2006-2018 has been collected, cleaned, and prepared, resulting in a sample with a total of 217,585 firm-year observations. Since audit quality cannot be observed directly, a distinction is made between perceived audit quality and actual audit quality. In this dissertation, perceived audit quality is measured by the cost of debt, whereas actual audit quality is measured by absolute discretionary accruals. The results of the main regressions mostly show no association between the measures of auditor qualification and both perceived and actual audit quality. Additional analyses and sensitivity checks support this finding. With regard to the access regulations, no apparent quality differences between the professions of public accountants and sworn auditors are found. Also, within the profession of public accountants, there is no evidence of quality differences between auditor groups that faced different levels of examination. With respect to practice regulations, it is observed that the additional requirements for auditing public-interest entities are not associated with different audit quality in private firms. In sum, the described legislative decisions regarding auditor qualification do not necessarily appear justified from the point of view of an improved audit quality. KW - Prüfungsqualität KW - Qualifikation KW - Abschlussprüfer KW - Privatunternehmen KW - Rechnungslegung KW - Auditor Qualification KW - Audit Quality KW - Private Unternehmen KW - Prüferqualifikation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322546 ER -