Lade Inhalt...

Risikoanalyse von IT-Investitionen

Studienarbeit 2005 151 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Eingrenzung
1.4 Aufbau der Arbeit

2 Modell zur Verfahrensbewertung

3 Ableitung von Verteilungen auf Basis von Daten
3.1 Analyse der Dateneigenschaften
3.2 Anpassen einer empirischen Verteilung an die Daten
3.3 Anpassen einer theoretischen Verteilung an die Daten

4 Ableitung von Verteilungen auf Basis von Expertenmeinungen
4.1 Fehlerquellen bei der subjektiven Schätzung
4.2 Modellierungstechniken

5 Modellierung von Abhängigkeiten
5.1 Korrelationsrechnung
5.2 Regressionsrechnung
5.3 Die Envelope Methode

6 Monte Carlo Simulation
6.1 Grundlagen der Simulation
6.2 Grundlagen der Monte Carlo Simulation
6.3 Quantitative Risikoanalyse
6.3.1 Beschreibung des Verfahrens
6.3.2 Fallbeispiel
6.3.3 Beitrag zur Wirtschaftlichkeitsanalyse von IT-Investitionen
6.4 Cross-Impact-Analyse
6.4.1 Beschreibung des Verfahrens
6.4.2 Fallbeispiel
6.4.3 Beitrag zur Wirtschaftlichkeitsanalyse von IT-Investitionen

7 Sensitivitätsanalyse
7.1 Beschreibung des Verfahrens
7.2 Fallbeispiel
7.3 Beitrag zur Wirtschaftlichkeitsanalyse von IT-Investitionen

8 Szenarioanalyse
8.1 Grundlagen der Szenarioanalyse
8.2 Beschreibung des Verfahrens
8.3 Methodisches Instrumentarium
8.4 Fallbeispiel
8.5 Beitrag zur Wirtschaftlichkeitsanalyse von IT-Investitionen

9 Zusammenfassung und Ausblick

10 Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1: Aufbau der Arbeit

Abbildung 2: Checkliste für die Verfahrensbewertung

Abbildung 3: Methodenzuordnung auf Basis der Projektklassen

Abbildung 4: Analyse der Dateneigenschaften

Abbildung 5: Verteilungsfunktion auf Basis der exemplarischen Datenreihe

Abbildung 6: Problemfelder der Expertenbefragung

Abbildung 7: Dreiecksverteilung

Abbildung 8: Gleichverteilung

Abbildung 9: BetaPERT-Verteilung

Abbildung 10: General-Verteilung

Abbildung 11: Kumulierte Verteilung

Abbildung 12: verbalisierte Wahrscheinlichkeitskategorien

Abbildung 13: visuelle Hilfe zur Schätzung von Wahrscheinlichkeiten

Abbildung 14: Korrelationskoeffizienten in Abhängigkeit vom Skalenniveau

Abbildung 15: exemplarische Korrelationsmatrix auf Basis des Rangkorrelations- koeffizienten

Abbildung 16: exemplarische Streuungsdiagramme

Abbildung 17: Dependenzmodellierung mit Hilfe der Envelope Methode

Abbildung 18: Berechnungsbeispiel für die Envelope Methode

Abbildung 19: Ablauf der quantitativen Risikoanalyse

Abbildung 20: Annahme zur periodischen Preisanfrage

Abbildung 21: Korrelationsmatrix der Preisanfragen

Abbildung 22: Annahme über das periodische Nominalvolumen

Abbildung 23: Annahme der induzierten Kosteneinsparungen

Abbildung 24: Annahme über die Kosten der Software

Abbildung 25: Simulationsmodell zur Fallstudie

Abbildung 26: Häufigkeitsverteilung des Net Present Value

Abbildung 27: kumulierte empirische Verteilung des Net Present Value

Abbildung 28: statistische Auswertung der Simulation

Abbildung 29: Checkliste für die quantitative Risikoanalyse

Abbildung 30: Vorgehensweise der Cross-Impact-Analyse

Abbildung 31: Ablauf eines Simulationsdurchlaufes

Abbildung 32: Eingabemaske für Szenarioparameter

Abbildung 33: Ausschnitt aus der Konsistenzmatrix (Cross-Impact-Analyse)

Abbildung 34: Ergebnisse der Wahrscheinlichkeitstransformation

Abbildung 35: Szenarienliste (Cross-Impact-Analyse)

Abbildung 36: Checkliste für die Cross-Impact-Matrix

Abbildung 37: exemplarischer Tornado Chart

Abbildung 38: exemplarischer Spider Chart mit prozentualer Abweichung vom Erwartungswert

Abbildung 39: exemplarischer Spider Chart mit Quantilsbetrachtung

Abbildung 40: Tornado Chart des Net Present Value

Abbildung 41: Spider Chart des Net Present Value

Abbildung 42: Checkliste für die Sensitivitätsanalyse

Abbildung 43: Denkmodell zur Darstellung alternativer Szenarien

Abbildung 44: Grob- und Feingliederung des Szenarioanalyseprozesses

Abbildung 45: Begriffshierarchie der Szenarioanalyse

Abbildung 46: erweiterte Konsistenzmatrix

Abbildung 47: Systemgrid auf Basis der erweiterten Konsistenzmatrix

Abbildung 48: indirekte Abhängigkeiten

Abbildung 49: stabile Binärmatrix

Abbildung 50: Systemgrid auf Basis des MICMAC-Verfahrens

Abbildung 51: Gegenüberstellung der Rangfolgen

Abbildung 52: Konsistenzsummen und die Anzahl der Szenarien

Abbildung 53: Ausschnitt aus der Konsistenzmatrix (Szenarioanalyse)

Abbildung 54: Szenarienverteilung in Abhängigkeit der Konsistenzsummen

Abbildung 55: Szenarienliste (Szenarioanalyse)

Abbildung 56: Checkliste für die Szenarioanalyse

Abbildung 57: Synthese der Analyseergebnisse

Abbildung 58: Einordnung der Methoden in die Projektklassen

Abbildung 59: Abhängigkeiten der Methoden zur Wirtschaftlichkeitsanalyse von IT-Investitionen

Tabellenverzeichnis

Tabelle 1: exemplarische Datenreihe

Tabelle 2: Maximum Likelihood-Schätzer

Tabelle 3: Wertetabelle für Tornado Chart

Tabelle 4: Wertetabelle für Spider Chart

Tabelle 5: Szenarioliste in ordinaler Darstellung

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abstract

Untersuchungsgegenstand dieser Arbeit sind risikoanalytische Verfahrensansätze zur Wirtschaftlichkeitsanalyse von IT-Investitionen. Ein im Rahmen dieser Arbeit entwickeltes Analyseframework gewährleistet eine einheitliche und IT-bezogene Bewertung der diskutierten Methoden. Weiterhin bietet das Analyseframework die Möglichkeit die vorgestellten Verfahren einzelnen IT-Projektklassen zuzuordnen sowie sinnvolle Methodenverflechtungen im Rahmen einer Wirtschaftlichkeitsanalyse einer IT-Investition zu identifizieren.

Die vorliegende Arbeit beschränkt sich auf die Methoden der quantitativen Risi- koanalyse, der Cross-Impact-Analyse, der Sensitivitäts- und der Szenarioanalyse. Sämtliche Methoden werden in ihrer Vorgehensweise erläutert, wobei die algo- rithmische Beschreibung mit Hilfe eines IT-bezogenen Fallbeispiels abgerundet wird. Zuletzt werden die in dieser Arbeit diskutierten Methoden in das Analysef- ramework eingeordnet, um deren Beitrag für die Wirtschaftlichkeitsanalyse von IT-Investitionen zu bestimmen.

1 Einleitung

1.1 Problemstellung

Seit dem Einzug organisationweiter und unternehmensübergreifender In- formationstechnologien (IT) in Unternehmen Anfang der achtziger Jahre existiert das Bedürfnis der Entscheidungsträger den Wert dieser IT-Investi- tionen im Rahmen von Wirtschaftlichkeitsanalysen monetär zu quantifi- zieren [Boeh1987]. In den neunziger Jahren rückte die Bedeutung von Wirtschaftlichkeitsanalysen von IT-Investitionen zugunsten der Neu- entwicklung und Expansion von innovativen Technologien in den Hin- tergrund. Diese Entwicklung, welche unter dem Begriff der New Economy subsumiert wird, endete mit dem Platzen der Börsenblase zur Jahrtausend- wende. Die Entscheidungsträger und insbesondere das IT-Management von Unternehmen sahen sich aufgrund kleinerer Budgets dazu gezwungen, neben den Potentialen, die IT-Investitionen bieten, auch deren Wirtschaft- lichkeit bzw. Ergebnisbeitrag zum Unternehmenserfolg kritisch zu hin- terfragen [Snee2003].

Die Reichweite des organisatorischen Wandels sowie die Erfolgspotentiale und die Kostenstruktur von Unternehmen, welche durch Investitionen in die IT für Jahre determiniert werden, verleihen den IT-Investitionen eine hohe strategische Bedeutung [BoSu2000]. Unter diesem Gesichtspunkt ist die Forderung nach einer a priori Bewertung von geplanten IT-Projekten unter Einbezug sämtlicher Risikofaktoren verständlich. Darüber hinaus ergeben sich aufgrund der unternehmensübergreifenden Wirkung von IT- Investitionen [ÖsHu1992] gesetzliche Forderungen (u.a. im KonTraG, KWG, Basel II) an die Unternehmen, die Rendite-/Risikoprofile von IT- Projekten zu messen und zu bewerten [Wehr2004].

Trotz dieser einstimmigen Forderung nach transparenten und leistungsfä- higen Bewertungsverfahren besitzen laut einer Umfrage der IBM aus dem Jahre 2001 über 80% der befragten Unternehmen über keine klar definierte Vorgehensweise zur Bewertung zukünftiger IT-Investitionen [Wehr2004]. Auch die Studie der „Standish Group“, welche die IT-Projekte von ame- rikanischen Unternehmen im Jahre 2000 analysiert, lässt die Notwendig- keit von adäquaten Wirtschaftlichkeitsanalysen für IT-Investitionen deut- lich werden. Danach wurden im Jahr 2000 lediglich 28% der IT-Projekte innerhalb der geplanten Zeit, des geplanten Budgets und mit allen ge- planten Funktionalitäten abgeschlossen [Stan2001]. Wehrmann konstatiert, dass die zitierte Studie auch noch heutzutage Gültigkeit besitzt [Wehr2004]. Durch den Bericht der „Standish Group“ wird die Aussage von Verhoef unterstützt, nach welcher die Abbruchrate der größten IT-Pro- jekte das Ausfallrisiko der schlechtesten Junk Bonds überschreitet [Verh2002].

Als Begründung für die mangelnde Verfügbarkeit adäquater Bewertungs- methoden für IT-Investitionen ist die problematische Quantifizierung der Nutzeneffekte zu nennen, welche durch IT-Investitionen ausgelöst werden. Diese Art von Nutzen wird in der Literatur und Praxis oft als intangibler Nutzen bezeichnet [AmHi2003a]. Als Beispiele für intangiblen Nutzen werden häufig folgende Beispiele genannt: höhere Mitarbeiter- und Kundenzufriedenheit, schnelleres Reaktionsvermögen des Unternehmens, ein besseres Unternehmensimage etc. [LaLa2002]. Diese Nutzeneffekte sind zwar feststellbar, jedoch schwer monetär zu quantifizieren. So stellt Tam in seiner Untersuchung fest, dass die Bestimmung der Cash Flows einer IT-Investition ein praktisches Problem darstellen [Tam1992].

Im Rahmen der Risikoanalyse von IT-Investitionen wird versucht, die Portfoliotheorie von Markowitz auf das Gebiet der Wirtschaftlichkeits- analyse von IT-Investitionen zu übertragen. Ziel ist es, IT-Investitionen zu IT-Portfolios zu aggregieren, welche mit Hilfe einer Darstellung im -1 Raum priorisiert werden können. Auf Basis der Portfoliotheorie von Mar- kowitz bildet die Menge der IT-Portfolios, welche unter Zugrundelegung eines risikoaversen Entscheiders nicht dominiert wird, die sogenannte Effi- zienzlinie bzw. efficient frontier. Durch die Betrachtung der Effizienzlinie wird eine integrierte Betrachtung von Rendite und Risiko einer IT-Investi- tion bzw. eines IT-Portfolios ermöglicht [Dörn2003][TaRu2004].

Trotz zahlreicher Verfahren und Modelle, die im Laufe der Zeit zur Be- wertung von IT-Investitionen entwickelt wurden, besteht weiterhin ein massiver Forschungsbedarf auf dem Gebiet der Methodenentwicklung so- wie der Bereitstellung von generischen Annahmenbündeln für eine sachge- rechte und zielorientierte Anwendung von Methodenkombinationen.

1.2 Zielsetzung

Die Zielsetzung dieser Arbeit besteht darin, risikoanalytische Verfahren zur Wirtschaftlichkeitsanalyse von IT-Investitionen zu untersuchen. Neben der reinen Darstellung der Methodik der einzelnen Verfahren wird in der Arbeit auch deren Eignung in Bezug auf die Analyse der Wirtschaftlichkeit von IT-Investitionen untersucht. In diesem Kontext soll analysiert werden, für welche Einsatzszenarien sich welches Verfahren am besten eignet. Um eine einheitliche und transparente Bewertung aller vorgestellten Verfahren sicherzustellen, soll ein Modell entwickelt werden, welches die An- forderungen an ein Bewertungsverfahren für die Wirtschaftlichkeitsanalyse von IT-Investitionen definiert.

Ein weiterer Untersuchungsgegenstand dieser Arbeit ist die Gewinnung und Auswertung der Daten, welche für den Einsatz der jeweiligen Verfah- ren benötigt werden. Insbesondere bei den in dieser Arbeit vorgestellten Verfahren kommt der Qualität und Herkunft der verwendeten Daten eine besondere Bedeutung zu.

Um der Arbeit den notwendigen Praxisbezug zu verleihen, wird mit Hilfe der vorgestellten Verfahren zur Bewertung von IT-Investitionen eine eigens entwickelte Fallstudiensammlung vorgestellt. Auf dieser Grundlage sollen die Vor- und Nachteile, die mit dem Einsatz der einzelnen Methoden verbunden sind, verdeutlicht werden.

1.3 Eingrenzung

Die Aktualität des Forschungsbereiches „Wirtschaftlichkeitsanalysen von IT-Investitionen“ hat dazu geführt, dass in der Vergangenheit zahlreiche innovative Methoden für die Bewertung von IT-Investitionen entwickelt wurden. An dieser Stelle sei jedoch angemerkt, dass die in der Literatur dargestellten innovativen Bewertungsmethoden meist keine Neuentwick- lungen darstellen. Vielmehr wird versucht bereits bekannte Verfahren, wie z.B. die Monte Carlo Simulation, Lern- bzw. Erfahrungskurvenmodelle oder das Konzept der Balanced Scorecard, auf das Problem der Wirtschaft- lichkeitsanalyse von IT-Investitionen anzuwenden. Die innovative Leis- tung besteht somit nicht in der Entwicklung einer neuen Methodik, sondern in der Transferleistung auf das Gebiet der Wirtschaftlichkeitsbetrachtung von IT-Investitionen.

Im Rahmen dieser Arbeit ist es aus Platzgründen nicht möglich, alle Verfahrensansätze zu würdigen und auf ihre Eignung in Bezug auf die Wirtschaftlichkeitsbetrachtung von IT-Investitionen zu untersuchen. Gegenstand dieser Arbeit ist sowohl die Monte Carlo Simulation mit ihren Methoden der quantitativen Risikoanalyse und der Cross-Impact-Analyse als auch die Sensitivitäts- und Szenarioanalyse. Grund für die Auswahl der genannten Methoden ist die Tatsache, dass sämtliche Ansätze auch im Rahmen der betriebswirtschaftlichen strategischen Planung bzw. Risikoanalyse eingesetzt werden, so dass ein unmittelbarer Bezug zu dem strategischen Charakter von IT-Investitionen gegeben ist.

1.4 Aufbau der Arbeit

Kapitel 1 der Arbeit dient der Einführung in das Forschungsgebiet der Wirtschaftlichkeitsanalyse von IT-Investitionen. Auf dieser Grundlage wird die Zielsetzung sowie das Design der Arbeit abgeleitet. Um eine einheitliche Bewertung der dargestellten Verfahrensansätze zu garantieren, wird in Kapitel 2 ein Analyseframework im Sinne eines Methodenbe- wertungsmodells entwickelt. Da sich diese Arbeit vorwiegend mit An- sätzen beschäftigt, deren Eingangsgrößen stochastischer Natur sind, werden in den Kapiteln 3, 4 und 5 Methoden zur Schätzung von Wahr- scheinlichkeitsverteilungen sowie zur Modellierung von Abhängigkeiten vorgestellt. Im Kontext der dargestellten Verfahrensansätze zur Bewertung von IT-Investitionen ist ein Verständnis für die Vorgehensweise bei der Datenerhebung unumgänglich. Die Qualität der Daten stellt insbesondere bei den in dieser Arbeit diskutierten Verfahren einen bedeutenden Bestand- teil dar. Demnach sind diese Kapitel nicht als eine Ansammlung statis- tischer Verfahren, sondern als verfahrenstechnische Ergänzung der in den Kapiteln 6,7 und 8 dargestellten Methodiken zu verstehen. Die Kapitel 6,7 und 8 widmen sich den einzelnen Verfahren zur Bewertung von IT-Investi- tionen. Um eine maximale Vergleichbarkeit der Methoden zu garantieren, sind die einzelnen Kapitel gleich strukturiert. Nach der Darstellung der Methodik erfolgt die Demonstration des Verfahrens anhand eines Fallbei- spiels. Abgeschlossen wird die Betrachtung der Methode durch die Analy- se mittels des im zweiten Kapitel entwickelten Bewertungsmodells. Kapi- tel 9 fasst die Ergebnisse der Arbeit zusammen und gibt einen Ausblick über weitere Forschungsnotwendigkeiten im Bereich der Wirtschaftlichkeitsanalyse von IT-Investitionen.

Abbildung 1 fasst den Aufbau der Arbeit grafisch zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Aufbau der Arbeit

2 Modell zur Verfahrensbewertung

Um eine sachgerechte sowie einheitliche Bewertung der dargestellten Verfahren zu gewährleisten, ist es notwendig, einen für IT-Investitionen adäquaten Modellrahmen zur Verfahrensbewertung zu entwickeln. Die Leistungen des hier entwickelten Modells lassen sich wie folgt spezifi- zieren:

- Es wird dargestellt, inwieweit sich die diskutierten Verfahren zur Wirt- schaftlichkeitsanalyse eignen, um die Charakteristika von IT-Investi- tionen abzubilden. Hierfür ist eine Auflistung der Besonderheiten von IT-Investitionen zu entwickeln.
- Weiterhin wird dargestellt, welche Klasse von Projekten durch die diskutierten Verfahren unterstützt werden. Demnach ist eine Klassifi- zierung von IT-Projekten einzuführen, welche es erlaubt, die dargestell- ten Methoden eindeutig einer Projektklasse zuzuordnen.
- Letztlich soll das Modell die Verflechtungen der in dieser Arbeit disku- tierten Methoden illustrieren. Der Grundgedanke ist hierbei die Er- kenntnis, dass jedes Verfahren zur Wirtschaftlichkeitsanalyse einen eigenen Schwerpunkt besitzt. Demnach ist es bei IT-Projekten mit ho- her strategischer Bedeutung unumgänglich, unterschiedliche Verfahren anzuwenden, um ein möglichst realitätsnahes Bild der Entscheidungssi- tuation zu erhalten [Hirs2004]. Der kaskadierende Einsatz der einzelnen Verfahren zur Wirtschaftlichkeitsanalyse wird durch die Identifikation und Berücksichtigung der zugrunde liegenden Dateninterdependenzen vereinfacht und gefördert.

Es lassen sich folgende Charakteristika von IT-Investitionen identifizieren, welche Grundlage für die Checkliste zur Verfahrensbewertung sind [AmHi2004b]:

- strategischer Fokus
- intangibler Nutzen
- Entscheidung unter Unsicherheit
- hohe Systemkomplexität.

strategischer Fokus: IT-Investitionen besitzen für Unternehmen eine hohe strategische Bedeutung, da mit der Einführung von innovativen Technolo- gien umfangreiche organisatorische Änderungsprozesse eingeleitet sowie Ertragspotentiale und Kosten auf Jahre determiniert werden [BoSu2000][AmHi2003a][Hirs2004]. Typisch für IT-Investitionen ist die zeitliche Versetzung der Kosten- und Nutzeneffekte. Während die Kosten am Anfang einer Investition entstehen und sich monetär quantifizieren lassen, werden die Erträge, welche meist intangibler Natur sind, erst sehr viel später ersichtlich [LaLa2002]. Ein Bewertungsverfahren muss dem- nach in der Lage sein, diese temporalen Effekte zu berücksichtigen.

intangibler Nutzen: Die mit der Investition in IT-Projekte verbundenen Vorteile sind meist intangibler Natur, so dass eine Quantifizierung des Nutzens nur sehr schwer oder gar nicht möglich ist [AmHi2004b][Tam1992]. Hieraus resultiert die Anforderung an ein Be- wertungsverfahren, die qualitativen Effekte eines Projektes zu berück- sichtigen.

Entscheidung unter Unsicherheit: Sowohl die Kosten als auch die Nutzeneffekte, welche durch die IT-Investition ausgelöst wurden, stehen unter diversen nicht prognostizierbaren Umwelteinflüssen. So werden die im Zuge eines Investitionsvorhabens generierten Cash-Flows durch die ökonomische Umwelt, das politische Umfeld, die Gesetzgebung und ande- re Faktoren beeinflusst, welche nicht von den Entscheidungsträgern einer Unternehmung kontrolliert werden können. Dementsprechend erfolgt die Entscheidung für eine Investition in ein bestimmtes IT-Projekt unter Unsi- cherheit. Folglich muss ein Verfahren zur Wirtschaftlichkeitsanalyse in der Lage sein, die spezifischen Volatilitätseffekte eines Projektes bei der Be- wertung zu integrieren.

hohe Systemkomplexität: Die Einführung neuer IT-Technologien führt meist zu drastischen Umstrukturierungen der bestehenden Unternehmen- sprozesse sowie einer Neugewichtung der Wettbewerbsvorteile in der Branche [Nage1990]. Die Etablierung innovativer Technologien erfolgt in einem komplexen System bestehend aus Unternehmensprozessen und einer bereits bestehenden IT-Infrastruktur. Die Desinvestition in innovative Technologien ist meist aufgrund des hiermit verbundenen finanziellen Auf- wandes sowie politischer Widerstände im Unternehmen nicht möglich [TaFe1999]. Bewertungsverfahren für die Wirtschaftlichkeitsanalyse von IT-Investitionen müssen in der Lage sein, die Dependenz- sowie In- terdependenzeffekte zwischen der betrachteten IT-Investition und der be- stehenden Umweltsituation zu erfassen.

Ergänzt werden die IT-spezifischen Kriterien für die Verfahrensbeurteilung durch zwei weitere Merkmale.

Datenqualität: Der erfolgreiche Einsatz der Verfahren ist in hohem Maße von der Qualität der verwendeten Daten abhängig [Adam2000]. Viele Verfahrensansätze basieren auf komplexen und leistungsfähigen mathema- tischen Modellen, deren Einsatz jedoch durch die mangelnde Verfüg- barkeit der benötigten Daten eingeschränkt ist. Insbesondere bei der Wirt- schaftlichkeitsanalyse von IT-Investitionen sind Ausprägungen der benö- tigten Modellparameter nur mit erheblichem Aufwand zu ermitteln oder nicht bekannt [Hirs2004]. Das Kriterium der Datenqualität untersucht, ob die von dem betrachteten Bewertungsmodell benötigten Inputgrößen im Umfeld der Informationstechnologie zu ermitteln sind und welcher Auf- wand mit der Datenerhebung verbunden ist.

Transparenz des Verfahrens: Dieses Kriterium untersucht die Komplexi- tät der Durchführung des dargestellten Verfahrens. In der Praxis besteht die Gefahr, dass leistungsfähige Verfahren aufgrund ihres Black-Box- -harakters keine Anwendung finden.

Abbildung 2 ist eine grafische Aufbereitung der entwickelten Checkliste. Während die ersten vier Kriterien überprüfen, ob das diskutierte Verfahren in der Lage ist, die Charakteristika einer IT-Investition adäquat abzubilden, untersuchen die beiden letzten Kriterien die Praxistauglichkeit des Verfah- rens.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Checkliste für die Verfahrensbewertung

In Anlehnung an Amberg / Hirschmeier lassen sich drei unterschiedliche Projektkategorien von IT-Investitionen identifizieren. Die einzelnen Projektklassen differenzieren sich über die Verschiedenartigkeit der mit der Investition verbundenen Nutzeneffekte [AmHi2004b].

Projekte mit quantitativem Effekt (Projektklasse I): Das Problem dieser Projektklasse liegt in der Quantifizierung der mit der IT-Investition verbundenen Kostenvorteile. Projekte dieser Kategorie zeichnen sich durch ihren atomisierten Nutzenbeitrag aus, so dass eine Teilmenge der betrach- teten Projekte im Rahmen einer Wirtschaftlichkeitsanalyse keinen bi- lanzwirksamen Effekt verzeichnen. So besitzen Kosteneinsparungen erst ab einer gewissen Größe einen bilanzwirksamen Effekt. Als Beispiel sei hier die Einführung eines neuen EDV-Systems genannt, dessen induzierte Kosteneinsparungen sich auf unterschiedliche Kostenstellen der Unterneh- mung verteilen. So bleibt eine bilanzielle Wirkung der Einsparungen so- lange aus, bis beispielsweise ein Arbeiter aufgrund der Produktivitäts- steigerung entlassen werden kann.

Projekte mit langfristigen Nutzeffekten (Projektklasse II): Projekte dieser Klasse zeichnen sich durch ihre hohe strategische Bedeutung bzgl. künftiger Ertragschancen aus. Die Investitionen in dieser Kategorie besitzen meist eine sogenannte Enabler-Funktion, so dass die monetären Vorteile erst durch entsprechende Folgeinvestitionen realisiert werden können. Die Entwicklung der Investitionen dieser Projektkategorie ist aufgrund der langfristigen Ausrichtung durch eine sehr hohe Unsicherheit und Volatilität der Werttreiber gekennzeichnet.

Projekte mit qualitativem Nutzen (Projektklasse III): Projekte dieser Kategorie zeichnen sich durch ihren hohen intangiblen Nutzen aus. Demzufolge ist es schwierig oder gar unmöglich, die mit der IT-Investition verbundenen Vorteile monetär zu quantifizieren.

Auf der Grundlage der dargestellten Projektkategorisierung können die Methoden zur Wirtschaftlichkeitsanalyse den einzelnen Projektklassen zugeordnet werden. Amberg / Hirschmeier bieten eine erste Zuordnung an (siehe Abbildung 3) und zeigen in ihrer Untersuchung die Notwendigkeit für eine breitere methodische Basis zur Bewertung von IT-Investitionen auf [AmHi2004b]. Die in der vorliegenden Arbeit diskutierten Methoden sollen entsprechend der Darstellung in Abbildung 3 den einzelnen Projekt- klassen zugeordnet werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Methodenzuordnung auf Basis der Projektklassen [AmHi2004b]

Der integrierte und kaskadierende Einsatz unterschiedlicher Methoden zur Wirtschaftlichkeitsanalyse ist die einzige Möglichkeit, sich ein um- fassendes Bild über die Wirkungen einer IT-Investition zu verschaffen. Ein Modell, welches versucht, die verschiedenen Methoden sinnvoll zu kom- binieren, wird als Totalmodell bezeichnet [Hirs2004]. Vorschläge für Me- thodenkombinationen im Rahmen von Totalmodellen finden sich bei [GrHo2003][GrVe2003][GrHo2004]. Im Rahmen dieses Bewertungs- modells soll aufgezeigt werden, wie die hier diskutierten Methoden in ein Totalmodell integriert werden können.

3 Ableitung von Verteilungen auf Basis von Da- ten

Die Analyse der Dateneigenschaften sowie die Bestimmung von sachge- rechten Verteilungsfunktionen auf Basis von zur Verfügung stehenden Da- ten stellt ein zentrales Verfahrenselement der in dieser Arbeit vorgestellten Verfahren dar. Sowohl für die Akzeptanz des verwendeten Verfahrens als auch für die Plausibilität der Ergebnisse ist eine gründliche Analyse der Daten entscheidend. Die folgenden Abschnitte widmen sich der angespro- chenen Thematik, um die Qualität der Datenverwendung zu verbessern.

3.1 Analyse der Dateneigenschaften

Heutzutage bieten viele Softwareprogramme, wie z.B. BestFit, die Möglichkeit, die Wahrscheinlichkeitsverteilungen von zur Verfügung stehenden Daten automatisiert zu schätzen. Trotz der Leistungsfähigkeit solcher Programme ist es unumgänglich, die stochastischen Variablen eines Modells genauer zu untersuchen, um Fehlentscheidungen bei der Wahl der Verteilung vorzubeugen. Im Folgenden werden einige wichtige Überlegungen hinsichtlich der Dateneigenschaften dargestellt, welche im Vorfeld der Schätzung von Verteilungsfunktionen angestellt werden soll- ten [BuAn1994][Cram1971][Vose1996].

Quellenanalyse: Die verfügbaren Daten können aus unterschiedlichen Quellen wie z.B. Datenbanken, Umfragen, Computersimulation, Expe- rimenten, Literaturrecherchen etc. stammen. Oftmals besitzen Daten einen sogenannten bias, wodurch sie eine unrealistische Trendkomponente besitzen. Bevor Verteilungen für die stochastischen Inputgrößen de- terminiert werden, ist darauf zu achten, dass die Vertrauenswürdigkeit der Quellen sowie die Qualität der Daten sichergestellt werden.

Diskret versus kontinuierlich: Für jede stochastische Inputgröße eines Modells muss bestimmt werden, ob diese mit einer diskreten oder einer kontinuierlichen Wahrscheinlichkeitsverteilung dargestellt werden soll. Variablen, deren Wertausprägungen stets ganzzahlig sind, sollten in der Regel mit einer diskreten Verteilungsfunktion modelliert werden. Die be- nötigte Anzahl an Programmierern in einem IT-Projekt wäre ein Beispiel für eine Variable mit einer diskreten Wahrscheinlichkeitsverteilung. Je- doch existieren Gegebenheiten, in welchen es durchaus sinnvoll erscheinen kann, eine diskrete Variable eines Modells mit Hilfe einer kontinuierlichen Wahrscheinlichkeitsverteilung darzustellen. So wäre es denkbar, die ge- schätzte Dauer eines IT-Projektes gemessen in Tagen mittels einer konti- nuierlichen Verteilung zu modellieren. Etwaige auftretende reelle Zahlen können unter Verwendung geeigneter Operationen in diskrete Werte trans- formiert werden. Im Gegensatz dazu sind kontinuierliche Variablen stets unter Zuhilfenahme einer kontinuierlichen Verteilung zu modellieren.

Theoretische Verteilung: Bei der Quantifizierung der Unsicherheit be- steht neben der Anpassung der Daten an eine theoretische Wahrscheinlich- keitsverteilung auch die Möglichkeit, eine fallspezifische empirische Ver- teilung zu definieren. Insbesondere bei der Verfügbarkeit von vielen Da- tenausprägungen ist die Modellierung mit Hilfe einer empirischen Vertei- lungsfunktion gerechtfertigt.

Wertebereich: Die möglichen Wertausprägungen einer Modellvariablen müssen mit dem Wertebereich einer gewählten Verteilung im Einklang stehen. Weist der Wertebereich einer Verteilung Ausprägungen auf, die unter keinen Umständen von der Variablen des Modells angenommen werden können, ist es möglich, dass während einer Simulation unrealis- tische Szenarios generiert werden. Auch die Umkehrung ist denkbar, so dass aufgrund des eingeschränkten Wertebereichs der Verteilung die Un- schärfe des Modellparameters nicht vollständig abgebildet werden kann. Als Beispiel sei eine IT-Investition betrachtet, deren zukünftige Cash- Flows mit Hilfe einer Normalverteilung modelliert werden. Aufgrund der projektspezifischen Situation und der bestehenden Verträge ist es nicht möglich, dass die Verluste für eine Planungsperiode 10.000€ überschrei- ten. Die Normalverteilung, deren Wertebereich das Intervall ([Abbildung in dieser Leseprobe nicht enthalten]) um- fasst, müsste vor einer Simulation an den entsprechenden Stellen gekappt werden.

Abhängigkeiten: Im Zuge der Datenanalyse ist es notwendig die Zu- sammenhänge zwischen den einzelnen Modellvariablen zu identifizieren. Durch die Integration der bestehenden Dependenzen sowie Interdependen- zen wird gewährleistet, dass bei einer Simulation keine unbedeutenden Szenarien berücksichtigt werden. Als Beispiel sei ein extern vergebenes IT-Projekt genannt, welches auf Basis eines Dienstleistungsvertrages durchgeführt wird. Die Cash-Flows der zukünftigen Planungsperioden sind in hohem Maße abhängig von der erwarteten Projektdauer. Eine längere Dauer des Projektes führt zu steigenden Kosten, welche die Höhe der erwarteten Cash-Flows negativ beeinflussen. In einem Simulations- bzw. Risikoanalysemodell müsste dieser Gegebenheit Rechnung getragen werden. Des Weiteren führt eine Analyse der gegenseitigen Abhängigkei- ten der Modellvariablen zu einem besseren Verständnis der zu modellierenden Problemstellung. Methoden zur Modellierung von Abhän- gigkeiten sind in Kapitel 5 zu finden.

Erfahrungswerte: Im Zuge der Quantifizierung der Unsicherheit der sto- chastischen Variablen ist zu untersuchen, ob für den individuellen Fall eine passende theoretische Verteilung entwickelt wurde bzw. sich als nützlich erwiesen hat. Häufig besitzen Variablen in unterschiedlichen Modellen ähnliche mathematische Strukturen, so dass die schon hergeleiteten Vertei- lungen benutzt werden können. So wird die Zeit zwischen zwei Telefonan- rufen in einem Call-Center oder zwischen zwei Feuermeldungen in einem Bahnhof mit Hilfe einer Exponentialverteilung beschrieben. Die Zeit bis zu einer Fehlfunktion eines Elektrogerätes wird durch eine Weibull-Vertei- lung adäquat modelliert. Des Weiteren existieren Erfahrungswerte bei der Schätzung von Wahrscheinlichkeitsverteilungen, welche sinnvoll im Rahmen der Modellierung eingesetzt werden können. Insbesondere bei Größen, die aus der Natur stammen, sowie bei Messfehlern in einem System findet die Normalverteilung Anwendung.

Das Ziel der Eigenschaftsanalyse der Daten ist, den Anwender für die Pro- blemstellung sowie die Bedeutung der vorliegenden Daten zu sensi- bilisieren. Eine ausschließliche Verwendung von Softwarepaketen zur Schätzung von Verteilungsfunktionen führt oftmals zu einer nicht sachge- rechten Modellierung. Abbildung 4 fasst die dargestellten Überlegungen grafisch zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Analyse der Dateneigenschaften

3.2 Anpassen einer empirischen Verteilung an die Da- ten

Die Vorgehensweise bei der Anpassung einer empirischen Verteilungsfunktion ist abhängig von der Art der zur Verfügung stehenden Daten. Handelt es sich um kontinuierliche Daten, so kann die kumulierte empirische Häufigkeitsverteilung als Wahrscheinlichkeitsverteilung benutzt werden. Bei sehr großen kontinuierlichen Datenmengen bietet es sich an, diese zuerst in ein Histogramm zu transformieren, um anschließend die kumulierte Wahrscheinlichkeitsverteilung zu ermitteln.

Die Vorgehensweise bei der Modellierung von kontinuierlichen Daten kann in drei Schritte gegliedert werden:

1) Expertenschätzung der Ober- und Untergrenzen der observierten Daten
2) Sortierung der Daten innerhalb der in Schritt 1 bestimmten Intervall- grenzen
3) Berechnung der kumulierten Wahrscheinlichkeiten mittels der Formel[Abbildung in dieser Leseprobe nicht enthalten], wobei der Index i den Rang des Datensatzes beschreibt und n den Umfang der Datenerhebung angibt.

Die Vorgehensweise sei anhand der exemplarischen Datenreihe in Tabelle 1 erläutert. Der eigentliche Datensatz besitzt den Umfang n=18 so- wie eine Obergrenze von 25 und eine Untergrenze von null. Die Daten werden innerhalb der Intervallgrenzen aufsteigend geordnet. Anschließend wird jedem Datensatz seine kumulierte Wahrscheinlichkeit zugeordnet. Zur Beschreibung der zugrunde liegenden empirischen Verteilung genügt die Angabe der beiden Datenfelder {xi} und {F(xi)} sowie der subjektiv bestimmten Ober- und Untergrenzen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: exemplarische Datenreihe

Eine grafische Darstellung der empirischen Verteilungsfunktion findet sich in Abbildung 5. Mittels der Methode der Inversion der Wahrscheinlichkeit- stransformation können aus jeder individuellen empirischen Verteilungs- funktion Zufallszahlen generiert werden [Gent2003][Lieb1995]. Danach ist es möglich, selbst definierte Verteilungen als Input für stochastische Verfahren, wie z.B. Monte Carlo Simulationen, zu benutzen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Verteilungsfunktion auf Basis der exemplarischen Datenreihe

Die Vorgehensweise bei der Transformation diskreter Daten in eine empi- rische Verteilungsfunktion ist ebenfalls abhängig von der Menge der zur Verfügung stehenden Daten. Bei geringen Datenmengen kann die be- stehende Häufigkeitsverteilung benutzt werden, um eine diskrete Vertei- lung zu spezifizieren. Im Gegensatz sollten große Datenmengen erst in ein Histogramm transformiert werden, welches anschließend für die Bestim- mung der empirischen Verteilungsfunktion benutzt werden kann.

3.3 Anpassen einer theoretischen Verteilung an die Daten

Neben der Definition einer individuellen bzw. fallspezifischen Vertei- lungsfunktion existiert die Möglichkeit eine theoretische Verteilung zur Anpassung an die Daten zu verwenden. Im Wesentlichen lassen sich drei Gründe identifizieren, welche für die Wahl einer theoretischen Verteilung sprechen:

- Die Herleitung der theoretischen Verteilung basiert auf einem Modell, welches exakt dem zu lösenden Problem entspricht. Diese Verteilung ist demnach eine exakte Beschreibung der Realität.
- Die theoretische Verteilung ist eine in der Praxis validierte Approxima- tion der zu modellierenden Variable.
- Die Person, die mit der Modellierung der Eingangsgrößen betraut ist, möchte unbedingt eine theoretische Verteilung benutzen.

Ein in der Praxis häufig angewandtes Verfahren ist die Methode der Maximum Likelihood-Schätzung. Die Grundlage dieses Verfahrens ist die sogenannte Likelihood-Funktion, welche definiert ist als

Abbildung in dieser Leseprobe nicht enthalten

Die Funktion f repräsentiert eine beliebige Dichtefunktion und die xi's be- zeichnen die Ausprägungen der Daten. Die Variable kann ein- oder mehrdimensional sein und beschreibt die Parameter der Dichtefunktion f. Es ist das Ziel die Likelihood-Funktion durch Variation des Parameters zu maximieren. Rechnerisch erfolgt dies über das Ableiten der Likelihood- Funktion nach dem Parameter und anschließendes Nullsetzen der Ab- leitung. Das Ergebnis der Berechnung ist der sogenannte Maximum Li- kelihood-Schätzer [Abbildung in dieser Leseprobe nicht enthalten] , welcher die Wahrscheinlichkeit für das Auftreten der xi's maximiert. Eine Aufstellung der Maximum Likelihood-Schätzer für einige bekannte Verteilungen ist in Tabelle 2 zu finden. Für weitere Schätzer sei auf die Standardlehrbücher der Statistik verwiesen [BaBa2001][FaKü2001].

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Maximum Likelihood-Schätzer in Anlehnung an [BaBa2001]

Eine Methode zur Bewertung der Güte der Approximation an die theore- tische Verteilung ist die Berechnung von sogenannten goodness-of-fit Sta- tistiken. Die in der Praxis am häufigsten eingesetzten Größen sind die Chi- Quadrat-Statistik sowie die Kolmogorov-Smirnoff-Statistik. Generell kann festgehalten werden, dass je kleiner der Wert der goodness-of-fit Statistik ist, desto besser sind die Daten an die zugrunde gelegte theoretische Ver- teilung angepasst. Die exakte Interpretation der Statistik erfolgt unter Zu- hilfenahme eines Konfidenzintervalls. In diesem Kontext gibt der Wert der Statistik Aufschluss, wie hoch die Wahrscheinlichkeit dafür ist, dass zu- fallsbasierte Werte auf Basis der betrachteten Verteilung einen gleich großen Wert der Statistik erzeugen. Für eine weitergehende Darstellung der goodness-of-fit Statistiken sei auf folgende Werke verwiesen [BaBa2001][Gent2003].

Die Methode der Maximum Likelihood-Schätzung kann durch die Berech- nung von goodness-of-fit Statistiken sinnvoll ergänzt werden. Hierfür be- rechnet man zuerst den Maximum Likelihood-Schätzer auf Basis der zur Verfügung stehenden Daten. Anschließend kann in einem Tabellenkalku- lationsprogramm ein Arbeitsblatt erstellt werden, welches die Häufigkeits- verteilung der Daten den Wahrscheinlichkeiten der theoretischen Vertei- lung mit dem entsprechenden Maximum Likelihood-Schätzer gegenüber- stellt. Nachdem die goodness-of-fit Statistik in das Arbeitsblatt durch Ver- knüpfung der Zellen integriert wurde, kann mit Hilfe eines linearen Optimierungstools der Wert der Statistik durch Variation des Maximum Likelihood-Schätzers minimiert werden. Durch diese Vorgehensweise ist es möglich, die Anpassungsgüte lokaler Bereiche der Datenmengen an die theoretische Verteilung gesondert zu optimieren.

4 Ableitung von Verteilungen auf Basis von Expertenmeinungen

Neben der Ableitung von Verteilungen auf Basis von zur Verfügung stehender Daten besteht die Möglichkeit Wahrscheinlichkeitsverteilungen unter Einbezug eines Experten zu schätzen. Da im Rahmen von IT-Investi- tionen oftmals nur wenig Daten für eine Wirtschaftlichkeitsanalyse zur Disposition stehen, besitzen die folgenden Abschnitte eine besondere Be- deutung.

4.1 Fehlerquellen bei der subjektiven Schätzung

Hertz / Thomas sowie Morgan / Henrion haben Untersuchungen über sys- tematische Fehlerquellen bei der subjektiven Schätzung von Wahrschein- lichkeiten durchgeführt [HeTh1983][MoHe1990]. Durch die Katego- risierung der potentiellen Fehlerquellen sollen Ungenauigkeiten so früh wie möglich erkannt und proaktiv korrigiert werden. Im Folgenden werden Teile der Ergebnisse von Hertz / Thomas und Morgan / Henrion in Bezug auf potentielle Fehlerquellen dargestellt. Abbildung 6 fasst die dargestell- ten Überlegungen grafisch zusammen.

Verzerrungseffekt: Die Qualität der Expertenschätzung wird durch die thematische sowie emotionale Wahrnehmung beeinflusst. Insbesondere die Fähigkeit sich an die Häufigkeit eines Ereignisses in der Vergangenheit zu erinnern, bestimmt den Wert der Expertenmeinung in positiver Weise. Als Beispiel für eine emotionale Beeinflussung sei der Aufwandsschätzung für ein Softwaremodul genannt, welche zu hoch ausfallen könnte, falls der befragte IT-Manager schlechte Erfahrungen mit einem solchen Projekt ver- bindet. Des Weiteren spielt die kognitive Integration des Experten hin- sichtlich der zu modellierenden Variable eine entscheidende Rolle. So kann ein IT-Leiter exakt angeben wie oft der Mainframe Rechner des Un- ternehmens in den letzten zwei Jahren abgestürzt ist, da ihm die darauf folgenden Konsequenzen geistig präsent sind.

Fehlerhafte Informationsnutzung: Experten neigen unbewusst dazu, nur einen bestimmten Teil ihrer Informationen zu verwenden. Demnach be- steht die Möglichkeit, dass für die Schätzung von Wahrscheinlichkeitsver- teilungen wichtige Informationen vernachlässigt werden. Verankerung: Experten schätzen Verteilungen oftmals durch sehr charak- teristische Wertausprägungen der Variablen. Meist wird der Wert genannt, der aus Sicht des Experten am wahrscheinlichsten ist. Anschließend wird dieser Wert um ein Minimum sowie ein Maximum ergänzt. In der Praxis zeigt sich jedoch, dass das Intervall aus Minimum und Maximum nicht ausreichen, um den tatsächlichen Wertebereich der Variablen abzudecken. Eine Möglichkeit dieses Problem ansatzweise zu umgehen, besteht darin, den Experten erst das Minimum sowie das Maximum schätzen zu lassen und ihn anschließend nach der wahrscheinlichsten Wertausprägung zu fragen.

Scheinexperte: Es besteht die Gefahr, dass im Rahmen einer Befragung Personen als Experten nominiert werden, die eigentlich gar keine sind. Um den Wert der Expertenschätzungen im Zuge eines Risikoanalysemodells zu maximieren, ist es wichtig, sämtliche Scheinexperten frühzeitig zu ersetzen.

Interessenskonflikte: Bei der Erhebung der Expertenmeinungen ist zu be- rücksichtigen, dass Schätzungen oftmals durch persönliche bzw. unter- nehmensinterne Interessen geprägt sind. So könnte ein IT-Projektleiter be- wusst eine verkürzte Dauer für sein Projekt angeben, um die Chancen für eine Beförderung zu erhöhen. Derartige interne und politische Inter- essenskonflikte müssen frühzeitig erkannt werden, so dass die Experten- schätzungen um ein unabhängiges Urteil ergänzt werden können.

Interesselosigkeit: Vereinfachte Aussagen hinsichtlich der Verteilung der zu modellierenden Variablen lassen darauf schließen, dass der Experte der Befragung keine Priorität einräumt. Es ist dafür zu sorgen, dass das TopManagement der Unternehmung die Erhebung der Expertenmeinungen unterstützt und dies an untere Leitungsinstanzen kommuniziert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Problemfelder der Expertenbefragung

4.2 Modellierungstechniken

Bevor man die Verteilungen der einzelnen Modellvariablen durch Ex- perten schätzen lässt, sollte das gesamte Risikoanalysemodell disaggregiert werden. Unter der Disaggregation eines Modells wird die logische Auf- gliederung aller Modellkomponenten auf eine möglichst einheitliche De- taillierungsstufe verstanden. Hierdurch ist es möglich, frühzeitig Einfluss- größen eines Modells zu identifizieren, welche mit einer hohen Unsi- cherheit behaftet sind. Darüber hinaus verdeutlicht die Aufgliederung eines Modells die Dependenzen bzw. Interdependenzen zwischen den einzelnen Variablen. Im Rahmen der Befragung wird der Experte gebeten, Aussagen über die Verteilungen der einzelnen Modellgrößen zu treffen. Die an- schließende Aggregation der einzelnen Wahrscheinlichkeitsverteilungen liefert eine exaktere Beschreibung der Realität als durch die direkte Schätzung einer zusammengesetzten Modellgröße hätte erreicht werden können.

Im Folgenden werden einige Verteilungen vorgestellt, welche oftmals für die Modellierung von Expertenmeinungen verwendet werden [CuSl2002][Gent2003][Vose1996]:

Dreiecksverteilung: Die Dreiecksverteilung wird häufig zur Modellierung von Expertenmeinungen verwendet. Die Verteilung definiert sich durch drei Parameter: das Minimum (a), den wahrscheinlichsten Wert (b) sowie das Maximum (c). Der Erwartungswert sowie die Standardabweichung 1 der Dreiecksverteilung errechnen sich wie folgt

Abbildung in dieser Leseprobe nicht enthalten

Aus der Formel für den Erwartungswert wird ersichtlich, dass der Wert von von allen drei Verteilungsparametern gleichermaßen beeinflusst wird. In der Praxis tauchen oftmals Problemstellungen auf, bei denen so- wohl das Minimum (a) als auch der wahrscheinlichste Wert (b) sehr schnell determiniert werden können, während das Maximum (c) einen un- begrenzten Wert annehmen kann. Im Zuge einer Expertenschätzung sollte darauf geachtet werden, dass das Maximum (c) mit einem realistischen Wert belegt wird. Grund hierfür ist die Erkenntnis, dass die ersten beiden Momente einer Verteilung einen erheblichen Einfluss auf die Ergebnisse einer Simulation mit stochastischen Eingangsgrößen besitzen. Die Dreiecksverteilung wird meist zur Modellierung von Variablen verwendet, für die lediglich die drei Verteilungsparameter a, b und c approximiert werden können. Meist existiert kein oder wenig zusätzliches Wissen über die Verteilung der Modellvariablen. Dementsprechend ist der spitze und geradlinige Verlauf der Dreiecksverteilung ein Ausdruck für die mangeln- de Kenntnis der tatsächlichen Verteilung. Abbildung 7 demonstriert drei Varianten der Dreiecksverteilung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Dreiecksverteilung

Gleichverteilung: Die Gleichverteilung nimmt für jeden Wert innerhalb des durch die Verteilungsparameter a und b (a < b) definierten Intervalls (a,b) die gleiche Dichte an. Der Erwartungswert sowie die Standardabweichung 1 lassen sich wie folgt berechnen

Abbildung in dieser Leseprobe nicht enthalten

In der Realität treten äußerst selten Variablen auf, die adäquat durch eine Gleichverteilung modelliert werden können. Demnach wird die Gleichverteilung oft für die Modellierung von Variablen angewendet, für die keinerlei Wissen verfügbar ist. Die Modellierung mit Hilfe der Gleichverteilung hilft, den Mangel an verfügbarem Wissen zu verdeutlichen. Abbildung 8 demonstriert zwei Varianten der Gleichverteilung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Gleichverteilung

BetaPERT-Verteilung: Die BetaPERT-Verteilung ist eine Abwandlung der Beta-Verteilung, welche aufgrund ihrer vielseitigen Formen Anwendung für zahlreiche Problemstellungen findet. Der Vorteil der Beta- PERT-Verteilung besteht darin, dass sie dieselben Verteilungsparameter wie die Dreiecksverteilung verwendet. Durch die Angabe des Minimums (a), des wahrscheinlichsten Wertes (b) sowie des Maximums (c) wird die BetaPERT-Verteilung eindeutig spezifiziert. Grundlage für die Herleitung der BetaPERT-Verteilung ist die Annahme über den Erwartungswert der Verteilung. Es gilt

Abbildung in dieser Leseprobe nicht enthalten

Anhand der Formel für den Erwartungswert wird deutlich, dass die Schwäche der Dreiecksverteilung bei der BetaPERT-Verteilung behoben ist. Dem wahrscheinlichsten Wert der Verteilung b wird ein vierfaches Gewicht beigemessen. Entsprechend ist auch die Standardabweichung weniger sensitiv in Bezug auf die Extremwerte der Variablen. Abbildung 9 zeigt zwei Variationen der BetaPERT-Verteilung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: BetaPERT-Verteilung

General-Verteilung: Die General-Verteilung zeichnet sich durch das höchste Maß an Flexibilität unter allen Verteilungen aus. Demzufolge kann die Schätzung des Experten seinen Vorstellungen entsprechend in eine Wahrscheinlichkeitsverteilung transformiert werden. Die Verteilungspa- rameter beinhalten das Minimum und das Maximum aller möglichen Va- riablenbelegungen sowie ein Array möglicher Werte {xi} mit den korre- spondierenden Dichten {pi}. Sowohl für den Erwartungswert als auch die Standardabweichung 1 lässt sich keine geschlossene Form angeben. Abbil- dung 10 verdeutlicht den Verlauf einer exemplarischen General-Vertei- lung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: General-Verteilung

Kumulierte Verteilung: Eine weitere Möglichkeit, Expertenschätzungen in Wahrscheinlichkeitsverteilungen zu transformieren, bietet die Definition einer kumulierten Verteilung. Während für die Standardabweichung 1 keine geschlossene Formel existiert, berechnet sich der Erwartungswert der Verteilung gemäß

Abbildung in dieser Leseprobe nicht enthalten

Der Nachteil dieser Verteilung besteht darin, dass kleinste Änderungen der kumulierten Verteilung drastische und unbeabsichtigte Auswirkungen auf die zugrunde liegende relative Häufigkeitsverteilung haben. Abbildung 11 illustriert den Verlauf einer beispielhaften kumulierten Verteilung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Kumulierte Verteilung

Nach der Darstellung üblicher Verteilungen zur Modellierung von Ex- pertenmeinungen soll eine Methode vorgestellt werden, die den Experten bei der Schätzung von Wahrscheinlichkeiten diskreter Ereignisse unter- stützt [Vose1996]. Das Ziel dieser Methode besteht darin, den Experten mit der Mathematik der Wahrscheinlichkeitstheorie und Statistik zu entlasten. Stattdessen soll er durch eine verbale Kategorisierung der Wahr- scheinlichkeiten unterstützt werden.

Methode zur Modellierung von Expertenschätzungen: Zu Beginn dieses Verfahrens soll der Experte die Wahrscheinlichkeit der diskreten Variable anhand der in Abbildung 12 dargestellten Phrasen klassifizieren. Anschließend wird der Experte gebeten, so viele Phrasen wie möglich einem der Kästchen von Abbildung 13 zuzuordnen. Hierdurch wird jeder verbalisierten Wahrscheinlichkeitskategorie eine konkrete Wahrscheinlich- keit zugeordnet. Durch diese Verknüpfung ist es möglich, die Verteilungen diskreter Ereignisse aufgrund verbalisierter Wahrscheinlichkeitskategorien zu quantifizieren.

[...]

Details

Seiten
151
Jahr
2005
ISBN (eBook)
9783638465359
ISBN (Buch)
9783638708777
Dateigröße
3.2 MB
Sprache
Deutsch
Katalognummer
v50288
Institution / Hochschule
Friedrich-Alexander-Universität Erlangen-Nürnberg – Wirtschaftsinformatik III
Note
1,0
Schlagworte
Risikoanalyse IT-Investitionen

Teilen

Zurück

Titel: Risikoanalyse von IT-Investitionen