Lade Inhalt...

Statistische Methoden zur Bestimmung der Simulationslänge

Seminararbeit 2004 44 Seiten

BWL - Beschaffung, Produktion, Logistik

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Einführung in die Discrete-Event Simulation
2.1 Grundlagen und Definitionen
2.2 Ein spezieller stochastischer Prozess: Transient und Stationäres Verhalten

3 ÜbersichtüberdieverschiedenenSimulationstypen
3.1 Terminating Simulations
3.2 Nonterminating Simulations

4 Statistische Analyse der Terminating Simulations
4.1 Grundlagen der Schätztheorie
4.2 Bestimmung der Simulationslänge in Abhängigkeit der Genauigkeit

5 Statistische Analyse der Nonterminating Simulations
5.1 Problem der Transient Phase - Methoden zur Schätzung ihrer Länge
5.1.1 Erkennen der Transient Phase mittels verschiedener Tests
5.1.2 Heuristiken
5.1.3 Regressionsmethode von Law und Kelton zur Bestimmung von l und m
5.1.4 Welch’s grafische Ablesemethode
5.1.5 Empfehlungen für die Praxis
5.1.6 Überblick über weitere Methoden
5.2 Simulationsdesign
5.3 Fixed-Sample-Size Prozeduren
5.3.1 Replication/Deletion
5.3.2 Batch Means Methode
5.3.3 Überblick über weitere Methoden
5.3.4 Empfehlungen für die Praxis
5.4 Sequentielle Prozeduren
5.4.1 Fishman’s Prozedur
5.4.2 Methode von Lavenberg und Sauer
5.4.3 Mechanic und McKay Prozedur
5.4.4 Prozedur von Law and Carson
5.4.5 Empfehlungen für die Praxis
5.4.6 Überblick über weitere Methoden

6 Zusammenfassung und Ausblick

A Zentraler Grenzwert Satz

B Regressionsmethode von Law und Kelton

C Idee der Varianzreduzierenden Methoden

Literaturverzeichnis

Zusammenfassung

Diese Seminararbeit beschäftigt sich mit der Analyse der Ausgabedaten einer Si- mulation im Zusammenhang mit der Simulationslänge. Für die Nonterminating Simu- lations und die Terminating Simulations werden dazu Fixed-Sample-Size Prozeduren betrachtet, die eine Parameterschätzung für eine Simulation mit vorher festgelegter Länge durchführen. Um die Simulationslänge simultan zu den Parametern zu schätzen, werden verschiedene Sequentielle Prozeduren betrachtet. Die statistische Analyse der Nonterminating Simulations erläutert zusätzlich noch das Warmup Problem bei der Parameterschätzung und diskutiert dazu sowohl heuristische als auch analytische Al- gorithmen zur Längenbestimmung bzw. Erkennung der Transient Phase.

Abbildungsverzeichnis

1 Transient und Stationäre Phase mit Dichtefunktionen für einen speziellen stochastischen Prozess Y1, Y2, ... und Anfangsbedingungen I

2 Ausgabedaten, gemittelter Prozess und Moving Average Prozess zur Ord- nung 1 für n Simulationsläufe der Länge m

3 Gemittelter Prozess N1, N2, ... für die stündliche Fertigungszahl

4 Moving Averages für die produzierten Einheiten zur Ordnung 20

5 Moving Averages für die produzierten Einheiten zur Ordnung 30

Tabellenverzeichnis

1 Überblick über die Fixed-Sample-Size Prozeduren

1 Einleitung

Simulation ist eine zentrale Technik zur Lösung verschiedener Probleme in Unternehmen und Wissenschaft. Nach der VDI-Richtlinie 3633 (1993) ist Simulation die Nachbildung eines Systems mit seinen dynamischen Prozessen in einem Modell, um zu Erkenntnissen zu gelangen, die auf die Wirklichkeit übertragbar sind. In der Simulationsliteratur kann jedoch beobachtet werden, dass in vielen Simulationsstudien ein großer Teil der Zeit und des Geldes für die Modellentwicklung und Modellprogrammierung aufgewendet wird, aber nur wenig Aufwand für die Analyse der Ausgabedaten betrieben wird. Simulation gibt es bereits seit 1941, dem Entstehungsjahr des ersten richtigen Computers. Dagegen wurde die Analyse der Ausgabewerte erst Ende der 70er Jahre intensiviert. Die Auswertung der Ausgabedaten bietet verschiedene Verbesserungsmöglichkeiten bei einer Simulation. In der Praxis ist es üblich, einen sehr langen Simulationslauf (Länge wird zufällig gewählt) durch- zuführen und dann die resultierenden Schätzungen als wahre Performance Messungen für das Modell anzunehmen. Da aber diese Schätzungen Realisationen von Zufallsvariablen mit einer möglicherweise sehr großen Varianz sein können, können sie sehr stark vom wirk- lichen Wert abweichen und man erhält eine falsche Einschätzung des betrachteten Systems. Es stellt sich in diesem Zusammenhang die Frage, mit welcher statistischen Sicherheit der gemessene Wert angenommen wird.

Das Ziel dieser Arbeit ist es, verschiedene statistische Methoden vorzustellen, mit denen man die Ausgabewerte einer Simulation analysieren kann. Sie werden zu zwei verschiede- nen Zwecken eingesetzt. Zum einen sollen die untersuchten Parameter für eine bestimmte statistische Sicherheit geschätzt werden, was üblicherweise mit Konfidenzintervallen er- folgt. Zum anderen, und das ist der Schwerpunkt dieser Arbeit, werden statistische Me- thoden zur Bestimmung der Simulationslänge betrachtet. Diese Methoden geben an, wie die Simulationslänge gewählt werden soll, damit man die untersuchten Parameter mit einem vorgegebenen Fehlerniveau schätzen kann. Ein Schwerpunkt liegt dabei in der Un- tersuchung des Warmup Problems, d.h. die Bestimmung des Zeitraums, in dem ein System seinen stationären Zustand erreicht. Da bei der Bestimmung der Simulationslänge das Ziel der Simulation die Schätzung verschiedener Parameter ist, sind die Parameterschätzung und die Bestimmung der Simulationslänge notwendigerweise zusammen zu betrachten.

Diese Arbeit orientiert sich an Law und Kelton (2001), die die Simulationsliteratur ent- scheidend geprägt haben. Die Ausführungen beschränken sich auf die Simulation diskre- ter Ereignisse. In Kapitel 2 wird in das Thema der Discrete-Event Simulation eingeführt und ein spezielles Verhalten der Beobachtungswerte erläutert. Danach wird in Kapitel 3 ein Überblick über die verschiedenen Simulationstypen gegeben, da die statistische Aus- wertung für die verschiedenen Simulationstypen unterschiedlich ist. In Kapitel 4 werden statistische Methoden für Terminating Simulations vorgestellt, mit denen man sowohl ein Konfidenzintervall als auch die benötigte Simulationslänge berechnen kann. Kapitel 5 stellt ebenfalls statistische Methoden vor, jedoch für stationäre Simulationen. Da dieser Simulationstyp ungleich komplizierter ist, werden verschiedene Typen an Analysemetho- den vorgestellt, und es müssen verschiedene zusätzliche Aspekte, wie z.B. das Warmup Problem und das Simulationsdesign, diskutiert werden. Zum Abschluss wird im letzten Kapitel noch ein Ausblick über weitere Betrachtungs- und Analysemethoden für Simula- tionen gegeben.

2 Einführung in die Discrete-Event Simulation

2.1 Grundlagen und Definitionen

Die Discrete-Event Simulation modelliert Systeme, deren Zustandsvariablen zu diskreten Zeitpunkten betrachtet werden. Eine Simulationsstudie besteht aus vielen verschiedenen Schritten wie Datenbeschaffung, -aufbereitung und -verifikation, Modellvalidierung, De- sign des Experiments, Analyse der Ausgabewerte und Implementierung der vorher be- schriebenen Schritte. Diese Seminararbeit konzentriert sich auf die Analyse der Ausga- bedaten. Wenn die Ausgabe einer Simulation untersucht wird, wird zuerst überlegt, in welcher Form die Ausgabedaten vorliegen? Dazu wird die Zufallseigenschaften der Simu- lationsausgabe betrachtet (Fürs Simulationsdesign siehe Kapitel 5.2.):

Es sei Y1, Y2, ...Ym die Ausgabe eines stochastischen Prozesses eines einzelnen Simulations- laufes. Die Yis sind Zufallsvariablen, die normalerweise weder unabhängig noch identisch verteilt sind. Daher können die klassischen statistischen Methoden nicht direkt verwendet werden, die nur für unabhängige und identisch verteilte (u.i.v.) Zufallsvariablen gelten. Eine einfache Methode, um unabhängige Beobachtungen zu erzeugen, ist, mehrere, un- abhängige Wiederholungen der Simulation zu machen. Dazu sei y11, y12, ..., y1m die erste (j=1) Realisierung von Zufallsvariablen Y1, Y2, ..., Ym, die aus einer Simulation mit m Be- obachtungen unter Verwendung der Zufallszahlen u11, u12, ...u1m stammen (uji ist die i-te Zufallszahl, die im j-ten Durchlauf benutzt wird.). Es werden also n unabhängige Simula- tionsläufe der Länge m durchgeführt, so dass folgende Ausgabewerte beobachtet werden können:

Abbildung in dieser Leseprobe nicht enthalten

Die Beobachtungen eines Simulationslaufes sind eindeutig nicht u.i.v.. Der Trick ist aber, dass y1i, y2i, ..., yni u.i.v. sind. Die Unabhängigkeit der verschiedenen Simulationsläufe ist also das Geheimnis einer relativ einfachen Analyse der Ausgabewerte, die in den folgenden Kapiteln besprochen wird. Es werden die Beobachtungen yji (i=1, 2,..., m; j=1, 2,..., n) betrachtet, um Schlüsse über die Zufallsvariablen Y1, Y2, ..., Ym ziehen zu können, indem bekannte statistische Methoden verwendet werden. Zum Beispiel ist y i(n) = [1] ∑nn j=[1] yji ein erwartungstreuer1 Schätzer für E(Yi).

Neben der Idee der Wiederholung gibt es noch einige andere Methoden, ein Simulations- experiment aufzubauen und zu analysieren. Erstaunlicherweise benutzt die Mehrheit der Analysemodelle einen sehr langen Simulationslauf. Durch geschickte statistische Betrachtungen erhält man u.i.v. Zufallsvariablen, mit denen man die Zielgröße schätzen kann. Daher ist es nicht verwunderlich, dass es in der Literatur keine eindeutige Definition für die Simulationslänge gibt. Bei der statistischen Analyse der verschiedenen Simulationstypen wird die Simulationslänge jeweils entsprechend definiert.

2.2 Ein spezieller stochastischer Prozess: Transient und Stationäres Ver- halten

Diese Art von stochastischem Prozess wurde bereits in der Einführung angesprochen, nämlich das Warmup Problem. Bei der Initialisierung oder auch Aufwärmen eines neuen Systems ist das Systemverhalten noch sehr unsicher. Dabei ändert es sich stark, aber nach einer gewissen Zeit pendelt sich das System ein und behält sein Verhalten ungefähr bei (Siehe Kapitel 5.). Die Simulation wird zum Zeitpunkt 0 unter den Anfangsbedingungen I gestartet, typischerweise im leeren und untätigen Zustand. Diese Anfangsbedingungen werden in den meisten Simulationsmodellen angenommen, da sie der realen Situation entsprechen, denn z.B. bei der Einbindung einer neuen Maschine in einen Produktions- ablauf wird die neue Maschine auch leer und untätig gestartet. In der sogenannten Tran- sient Phase beeinflussen die Anfangsbedingungen I die Verteilungen der Zufallsvariablen Y1,Y2,...Yi...Yn noch sehr stark. Aber mit wachsendem i nähern sich die Dichtefunktionen fYi immer stärker der Grenzverteilung fY = limi→∞ fYi an. Im sogenannten stationärem Zustand, ab einem Index l+1, haben alle Zufallsvariablen Yi ungefähr die Grenzverteilung erreicht. Es gilt: E(Y ) = ν. Das große, aber höchstinteressante Problem besteht darin, den Index l zu bestimmen, den Anfang der stationären Phase. Abbildung 1 veranschau- licht so einen Prozess. Für die Bestimmung des l werden in Kapitel 5.1 einige Verfahren vorgestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Transient und Stationäre Phase mit Dichtefunktionen für einen speziellen stochastischen Prozess Y1, Y2, ... und Anfangsbedingungen I

3 Übersicht über die verschiedenen Simulationstypen

Der Simulationsaufbau und die Ausgabeanalyse hängen sehr stark vom Simulationstyp ab. Daher ist zu Anfang einer Simulationsanalyse der Typ der Simulation zu bestimmen. Dabei wird zuerst einmal zwischen Terminating und Nonterminating Simulations unterschieden. Desweiteren lassen sich die Nonterminating Simulations noch weiter unterteilen.

3.1 Terminating Simulations

Die Terminating Simulations sind Simulationen, bei denen das Problem selber die Länge jedes Simulationslaufes festlegt. In diesem Fall startet die Simulation unter bestimmten Anfangsbedingungen. Normalerweise wird der leere und untätige Zustand gewählt, und jeder Simulationslauf wird schließlich durch ein Abbruchereignis E beendet. Die Leistungs- messung eines Systems wird relativ zum Intervall der Simulationszeit [0, T ] definiert, wobei T angibt, wann das Abbruchereignis E eintritt. T kann dabei auch eine Zufallsvariable sein, die angibt, wann ein neuer Bearbeitungszyklus beginnt bzw. wann ein Bearbeitungs- zyklus endet. Zum Beispiel möchte man Qualitätsmerkmale des Kundenservice eines Su- permarktes betrachten, der jeden Werktag von 8 Uhr morgens bis 20 Uhr abends geöffnet hat. Jeden Abend wird der Supermarkt um 20 Uhr geschlossen (Schließung = Abbru- chereignis E). Oder auch eine Gebäude-Räumung wäre eine Terminating Simulation (mit T als Zufallsvariable). Der Ausgabe-Prozess einer Terminating Simulation kann nicht als stationär2 angenommen werden. Außerdem hängen die geschätzten Parameter sehr stark von den gewählten Anfangsbedingungen ab. In der Simulationsliteratur werden die Ter- minating Simulations auch als Transient oder Finite-Horizon Simulations bezeichnet.

3.2 Nonterminating Simulations

Eine Nonterminating Simulation ist eine Simulation, für die es kein Abbruchereignis E gibt, das die Länge eines jeden Simulationslaufes bestimmt. Sie tritt auf, wenn ein neues System entworfen oder ein bereits existierendes System modifiziert wird. Hierbei ist das langfristige Verhalten eines Systems von Interesse, also wie sich das System ”imMittel“ verhält. Leider entsteht bei der langfristigen Betrachtung normalerweise kein Abbruchkri- terium oder Abbruchereignis. Für diese Simulationen untersucht man hauptsächlich die- jenigen Parameter, die die Grenzverteilung im stationärem Zustand charakterisieren. Der instationäre Fall, d.h. die Verteilung der betrachteten Zufallsvariablen konvergiert nicht gegen eine Grenzverteilung und die Verteilung ändert sich ständig, wird mit dem dritten Parametertyp Andere Parameter erfasst. Insgesamt werden drei Arten von Parametern unterschieden:

- Stationäre Parameter:

Das meist verwendete Leistungsmaß für die Nonterminating Simulations sind die stationäre Parameter. Sie sind ein charakteristisches Merkmal der Grenzverteilung des stochastischen Prozesses Y1, Y2, ... im stationären Zustand. Entsprechend Ab- bildung 1 könnte man z.B. interessiert sein, den Erwartungswert ν = E(Y ) oder eine Wahrscheinlichkeit P (Y < y) für eine bestimmte reelle Zahl y zu schätzen. Das System weist für diese Parameter im stationärem Zustand keinerlei Trendkompo- nente auf und kann durch eine Verteilung (s.o. ) mit zeitlich invarianten Parametern beschrieben werden.

- Stationäre Zyklus-Parameter:

Diese Art von Parametern werden herangezogen, wenn man einen stochastischen Prozess Y1, Y2, ... für eine Nonterminating Simulation, die keine stationäre Verteilung besitzt, untersucht. Man unterstellt, dass der stochastische Prozess zwar instationär ist, aber es sind gleiche, sich wiederholende Strukturen erkennbar, die Zyklen genannt werden (die Regenerationsmethoden in Kapitel 5.4 benutzen die gleiche Idee). Zum Beispiel könnte in einem Produktionssystem eine 8 Stunden Schicht ein Zyklus sein, der zwar in seiner Produktionsleistung bedingt durch Pausen, Umrüstung, Mate- rialmangel, etc. sehr stark schwankt, aber die durchschnittliche Produktion für die kompletten 8 Stunden ( = stationärer Zyklus-Parameter) ist stationär. Man sucht nach gleichen Verhaltensmustern beim stochastischem Prozess und teilt ihn danach in gleichlange Zyklen ein. Es sei dann YCi die Zufallsvariable für den i-ten Zyklus. Der neue Prozess YC[1] ,YC[2] , ... ist stationär und die Zufallsvariablen sind miteinander vergleichbar. Man definiert einfach nur die Zufallsvariablen neu, um eventuelle Un- gleichgewichtsphasen auszugleichen. Es handelt sich also nur um einen Spezialfall der stationäre Parameter, so dass er mit den statistischen Methoden der stationäre Parameter erfassbar ist.

- Andere Parameter:

Wenn der stochastische Prozess Y1, Y2, ... keine stationäre Verteilung, d.h. keine Grenzverteilung in der stationären Phase, besitzt oder sich nicht in geeignete Zyklen mit stationärer Verteilung einteilen lässt, können die oberen Parametertypen leider nicht benutzt werden. Es liegt normalerweise daran, dass sich die Modellparameter regelmäßig ändern, also instationär sind. In diesen Fällen liegen meistens genug Da- ten vor, um das Verhalten der Input-Parameter zu beschreiben. Aus diesen Daten kann man Abbruchereignisse E ableiten und schließlich die Simulation einfach als Terminating Simulation auffassen. Man muss also für die meisten nichtstationären Prozesse keine neuen Methoden entwickeln, sondern man muss den Prozess nur ent- sprechend interpretieren. Deshalb werden die instationären Simulationen nicht als eigener Simulationstyp betrachtet.

Als Beispiel stelle man sich ein Produktionssystem für Computer für einen Zeitraum von 3 Monaten vor, das seine Produktion aufgrund von Nachfrageveränderung, neu- er Technologien, etc. jede Woche ändert. Der Wochen- und Monatsdurchsatz be- sitzt keine stationäre Verteilung, so dass keine stationäre Simulation möglich ist. Man könnte aber eine Terminating Simulation für den Zeitraum von 3 Monaten durchführen und den mittleren Wochendurchsatz schätzen. Eine Terminating Simu- lation benötigt ein Abbruchereignis und keinen stationären Prozess.

Bemerkungen:

- Die Simulation eines bestimmten Systems kann sowohl eine Terminating also auch eine Nonterminating Simulation sein. Es ist abhängig von den Zielen der Simulation.
- Die meisten realen Systeme unterliegen keinen stationäre Verteilungen, weil die Systemparameter sich zu oft ändern.

4 Statistische Analyse der Terminating Simulations

Bevor die statistische Analyse der Simulationslänge begonnen wird, muss erst definiert werden, was unter Simulationslänge verstanden wird. Für die Terminating Simulations wird die Simulationslänge folgendermaßen definiert:

Definition 1 (Simulationslänge bei Terminating Simulations)

Bei Terminating Simulations wird die Simulationslänge als die Anzahl der Simulationsläufe bezeichnet, die üblicherweise mit n benannt wird.

Es wir angenommen, dass n unabhängige Simulationsläufe einer Terminating Simulati- on durchgeführt werden, die jeweils durch ein Abbruchereignis E beendet werden. Jeder Simulationslauf wird unter den gleichen Anfangsbedingungen begonnen. Während eines Si- mulationslaufes werden beliebig viele Werte des zu betrachtenden Leistungsmaßes erzeugt (Anzahl ist zufällig). Diese Werte werden dann in einem Wert aggregiert (fast ausschließ- lich über das arithmetische Mittel) und durch Xj abgebildet. Um zwischen den beiden Simulationstypen zu unterscheiden, wird für Zufallsvariablen der Terminating Simulations jeweils die Schreibweise Xi verwendet. Sei Xj eine Zufallsvariable, die den repräsentativen Wert für den j-ten Simulationslauf, mit j = 1, 2, ..., n, angibt. Zusätzlich sei angenom- men, dass die Xj s vergleichbar für die verschiedenen Wiederholungen sind. Man könnte z.B. die Wartezeit von Kunden an der Kasse in einem Supermarkt simulieren, wobei dann Xj die mittlere Wartezeit von allen Kunden an einem Tag wäre. Dann sind die X1,X2,... u.i.v. Zufallsvariablen. Aus Gründen der besseren Anschauung wird sich auf die Analyse nur eines Leistungsmaßes beschränkt.

4.1 Grundlagen der Schätztheorie

In der Praxis ist das Schätzen von Mittelwerten üblich, auch in der Simulationsliteratur wird sich darauf konzentriert. Dabei werden ein Punktschätzer3 und ein Konfidenzintervall für den Mittelwert µ = E(X) definiert. Es wird das arithmetische Mittel als erwartungstreuer Punktschätzer von µ verwendet:

Abbildung in dieser Leseprobe nicht enthalten

Da die Varianz leider nicht gegeben ist, muss sie auch geschätzt werden, nämlich mit dem erwartungstreuen Schätzer S[2](n), die Stichprobenvarianz :

Abbildung in dieser Leseprobe nicht enthalten

Mit Hilfe dieser beiden Schätzgrößen kann ein Konfidenzintervall für µ mit dem Signifi- kanzniveau von ungefähr α (0 < α < 1) berechnet werden. Dieses Vorgehen wird fixed- sample-size procedure genannt:

Abbildung in dieser Leseprobe nicht enthalten

mit[Abbildung in dieser Leseprobe nicht enthalten]QuantilderStudent-t-VerteilungmitFreiheitsgradn−[1].4 Wenn die Xis normalverteilte Zufallsvariablen sind, ist das obige Konfidenzintervall ”kor- rekt“, d.h. das Konfidenzintervall wird mit einer Wahrscheinlichkeit von mindestens [100] · ([1] − α) Prozent angenommen. Falls aber die Xis eine andere Verteilung haben, ist das Konfidenzintervall nur eine Näherung des wirklichen Konfidenzintervalls. Da aber der Zentrale Grenzwertsatz5 gilt, konvergieren die Verteilungen mit wachsendem Stichprobenumfang gegen die Normalverteilung. Diese Ungenauigkeit ist daher begrenzt (z.B. bereits ab n = 30 sind die Unterschiede zwischen einer χ[2]-Verteilung und einer Standardnormalverteilung marginal6 ) und das Konfidenzintervall wird mit einer Wahrscheinlichkeit von ungefähr 100 · (1 − α) Prozent angenommen.

Man sieht an der Konfidenzintervallformel, welchen großen Einfluss die Simulationslänge n hat: Alle vier in Formel (4) enthaltenen Größen sind abhängig von n. Die Simulationslänge selber hängt also nur von der gewünschten Genauigkeit für das Konfidenzintervall ab. Dies wird im nächsten Abschnitt dargestellt.

4.2 Bestimmung der Simulationslänge in Abhängigkeit der Genauigkeit

Es gibt zwei Arten, um den Fehler bei der Schätzung von X zu definieren, absolut und relativ. Dabei wird von einem bereits erzeugten Konfidenzintervall für µ ausgegangen, das mit n Simulationsläufen erzeugt worden ist (Es wird im Folgenden die Abhängigkeit für X(n) von n vernachlässigt und X verwendet.).

1. Absolute Fehlermessung:

Es wird der absolute Fehler [Abbildung in dieser Leseprobe nicht enthalten]betrachtet. Er beschreibt die halbe Länge des (1 − α)-Konfidenzintervalls aus Gleichung (4), es gilt also

Abbildung in dieser Leseprobe nicht enthalten

Es wird angenommen, dass sich die empirische Varianz S[2](n) nicht ändert, wenn sich die Anzahl der Wiederholungen erhöht. Aus Gleichung (4) und (5) folgt der approximative Ausdruck für die Bestimmung der Simulationslänge in Abhängigkeit vom absoluten Fehler β:

Abbildung in dieser Leseprobe nicht enthalten

oder alternativ: {

Abbildung in dieser Leseprobe nicht enthalten

Die Genauigkeit von den Gleichungen (6) und (7) hängt davon ab, wie gut V ar(X) durch S[2](n) geschätzt wurde. Natürlich muss na(β) mindestens n sein, da bereits n Simulationsläufe vorliegen und alle verfügbaren Informationen in die Schätzung für na(β) einfließen.

2. Relative Fehlermessung:

Ein andere Methode zur Fehlermessung ist die Betrachtung des relativen Fehlers [Abbildung in dieser Leseprobe nicht enthalten] in X. Ausgehend von Ungleichung (5) erhält man nach einigen algebraischen Umformungen die folgende Ungleichung (Für Details siehe Law und Kelton (2001), S. 512.)

Abbildung in dieser Leseprobe nicht enthalten

d.h. X hat einen relativen Fehler von höchstens γ (1−γ) miteinerWahrscheinlichkeit von mindestens ([1]−α). Man muss beachten, dass eine Obergrenze von γ (1−γ) anstelle von γ für den relativen Fehler zugelassen wird, weil für |µ| das arithmetische Mittel als Schätzer benutzt wird. Weiter wird angenommen, dass bereits ein Konfidenzin- tervall für µ basierend auf n Simulationsläufen vorliegt. Außerdem sollen sowohl X als auch S[2](n) konstant bleiben bei der Erhöhung von n. Aus den Gleichungen (4) und (8) folgt für die Simulationslänge in Abhängigkeit vom relativen Fehler γ:

Abbildung in dieser Leseprobe nicht enthalten

oder alternativ:

Abbildung in dieser Leseprobe nicht enthalten

Die Schwierigkeit bei den Gleichungen (9) und (10) besteht darin, dass die Berech- nungsformel für nr (γ) ein Ausdruck bestehend aus zwei Schätzern, X und S[2](n), ist. Diese Ungenauigkeiten zusammen können einen sehr großen Fehler in der Schätzung von γ hervorrufen. Daher kann es bei dieser Methode zu einem zu hohen oder ei- nem zu kleinem Wert der Simulationslänge kommen.

[...]


1 d.h. es gilt: E[X(n)] = µ

2 Definition aus Schlittgen/Streitberg (2001): Ein Prozess, der keine systematischen Veränderungen im Gesamtbild aufweist

3 Definition nach Fahrmeir (2001): Ein Punktschätzer für einen Parameter θ ist eine Funktion der Realisierungen x1, x2, ..., xn.

4 Zur Herleitung siehe Bol (1999).

5 Siehe Appendix A.

6 Siehe Fahrmeir (2001).

Details

Seiten
44
Jahr
2004
ISBN (eBook)
9783638288736
ISBN (Buch)
9783638702478
Dateigröße
863 KB
Sprache
Deutsch
Katalognummer
v26584
Institution / Hochschule
Universität Karlsruhe (TH) – Institut für Fördertechnik und Logistik
Note
1,0
Schlagworte
Statistische Methoden Bestimmung Simulationslänge Seminar Simulation Logistik

Autor

Teilen

Zurück

Titel: Statistische Methoden zur Bestimmung der Simulationslänge