Lade Inhalt...

Kann man dem Optimismus der high reliability organization-Autoren folgen?

Seminararbeit 2007 19 Seiten

Führung und Personal - Sonstiges

Leseprobe

Gliederung

Abkürzungsverzeichnis

Abbildungsverzeichnis

1. Einleitung

2. Theoretische Grundlagen
2.1. Organisation und Zuverlässigkeit
2.2. Die Sicht der Normal Accident Theory

3. Die optimistische Sicht: high-reliability theory
3.1. Die high-reliability organizations
3.1.1. Der Untersuchungsgegenstand der HRO-Forscher
3.1.2. Antizipation von Fehlern
3.1.3. Reaktion auf Unerwartetes
3.2. Die Grenzen der Theorie der high-reliability organizations
3.2.1. Der Begriff der high reliability organization und der Zuverlässigkeit
3.2.3. Sicherheit als Unternehmensziel
3.2.4. Extensiver Gebrauch von Redundanzen
3.2.5. Fokussierung auf Technik

4. Fazit

Literaturverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Voraussetzungen für Verlässlichkeit bei HROs

1. Einleitung

Die Arbeit mancher Organisationen ist dadurch gekennzeichnet, dass sie entweder mit hoch riskanten Technologien arbeiten müssen, oder dass ihr Arbeitsumfeld äußerst gefährlich ist. Das trifft auf die Arbeit von Kernkraftwerken oder Chemiekonzernen zu, aber auch Flugsicherungsunternehmen, Flugzeugträger, Feuerwehren oder die Polizei sind besonderen Gefahren ausgesetzt. Unfälle müssen deshalb ausgeschlossen werden. Vor allem bei Kernkraftwerken oder Chemiekonzernen haben Unfälle katastrophale Folgen für Mensch und Umwelt und dennoch wird immer wieder von Vorfällen in Atomkraftwerken oder von Tankerunglücken in den Medien berichtet. Nichtsdestotrotz scheint es Organisationen zu geben, die seit langer Zeit unfallfrei arbeiten. Diese scheinen den Sprung von „hoch riskanten“ Organisationen zu „hoch verlässlichen“ Organisationen geschafft zu haben. Trotz erschwerter Bedingungen wie enormem Zeitdruck oder die Nutzung komplexer Technologien, fallen sie durch ein besonders hohes Maß an Zuverlässigkeit auf, weshalb sie als high reliability organizations (HROs) bezeichnet werden. Diese besonderen Organisationen sind ein zentraler Bestand und häufiger Untersuchungsgegenstand in der Krisenforschung geworden. Aus Sicht der Vertreter der HRO-Forschung sind Unfälle durch gewisse Organisationsstrukturen, die gut gemanagt werden, vermeidbar. Die dazu durchgeführten Fallstudien bestätigen diese These. Es scheint Mechanismen zu geben, die ein unfallfreies Arbeiten mit riskanten Technologien oder in einer gefährlichen Umgebung ermöglichen. Die Liste der Merkmale ist lang und variiert je nach Organisation. Doch einige Merkmale tauchen immer wieder auf. Diese sollen im Verlauf der Arbeit dargestellt werden.

Nach einer kritischen Auseinandersetzung mit der HRO-Forschung, soll die Frage geklärt werden, ob diese Merkmale Unfälle wirklich ausschließen und ob wirklich von „hoch verlässlichen“ Organisationen gesprochen werden kann bzw. ob die Vertreter der HRO-Forschung eine zu optimistische Sicht verfolgen.

2. Theoretische Grundlagen

2.1. Organisation und Zuverlässigkeit

Um so genannte „hoch verlässliche“ Unternehmen von „normalen“ Unternehmen abzugrenzen, soll der Begriff der Zuverlässigkeit zunächst geklärt werden.

In der Literatur wird der Begriff allerdings nicht genau definiert. Eine Möglichkeit der Begriffsklärung ist die Frage nach der Häufigkeit des potentiellen Versagens im Vergleich zum Nichtversagen einer Organisation. Roberts schlägt dafür

“how many times could this organisation have failed, resulting in catastrophic consequences, that it did not?” If the answer is on the order of tens of thousands of times the organisation is “highly reliable”.[1]

vor. Dieser Klärungsversuch ermöglicht allerdings noch keine Definition. Organisationen könnten täglich mit Unfällen konfrontiert werden, die katastrophale Folgen mit sich bringen könnten. Folgt man der Definition wird es schwierig an eine Organisation zu denken, die nicht als „hoch zuverlässig“ eingestuft werden kann[2].

Ein weiter Vorschlag ist eine Organisation dann als zuverlässig einzustufen, wenn sie über einen betrachteten Zeitraum fast unfallfrei gearbeitet hat[3] oder wenn in einer Art und Weise gearbeitet wurde, die nahezu fehlerfrei war[4]. Zur Unterstützung dieses Arguments wird dabei auf Ergebnisse aus Fallstudien verwiesen[5]. ie Frage wie lange der Zeitraum der Unfallfreiheit dabei sein muss und was unter „fast unfallfrei“ zu verstehen ist, bleibt dabei allerdings offen. Eine genaue Abgrenzungsmöglichkeit liefert auch diese Herangehensweise nicht.

Ein weiterer Vorschlag ist eine relative Definition des Begriffes Zuverlässigkeit[6]. Dazu kommt einmal in Betracht das System über einen festgelegten Zeitraum zu beobachten oder mit anderen Systemen zu vergleichen. Oder aber es werden die Leistungen des Systems durch die Einführung eines Maßstabes vergleichbar. Problematisch ist hier aber weiterhin, dass dieser Maßstab begründet werden muss und das Problem also nur verschoben ist. Dennoch liefert sie einen Anhaltpunkt und ermöglicht eine bessere Abgrenzung.

Die HRO-Forscher schließen sich der relativen Definition des Begriffes der Zuverlässigkeit an und untersuchen Organisationen, deren Arbeit unter bestimmten Rahmenbedingungen zumindest relativ zuverlässig erscheinen[7]. Im Weiteren wird der Begriff so verwendet.

2.2. Die Sicht der Normal Accident Theory

Zum Verständnis der high reliability theory (HRT) soll kurz auf die normal accident theory (NAT) eingegangen werden, da sich die HRT komplementär[8] zu deren Ergebnisse entwickelte, und Erkenntnisse aus der NAT mit aufgriffen wurden.

Mit seinem Buch „Normal Accident“ über die Katastrophe des Kernkraftwerks „Three Mile Island“ bei Harrisburg in den USA, prägte Perrow den Begriff der normal accident theory[9]. Die Vertreter der NAT gehen davon aus, dass bei der Verwendung von gefährlichen Technologien Unfälle nicht vermieden werden können. Dabei wird angenommen, dass die Verwendung von Technologien, die die Merkmale „enge Kopplung“ und „hohe Komplexität“ aufweisen, ein Unfall unvermeidbar ist.

- Enge Kopplung

Enge Kopplung bedeutet, dass die Systeme in einem Unternehmen derart voneinander abhängen, dass sich ein Vorgang, der in einem Teil des Systems vorgenommen wird, unmittelbar auf andere Teile des Systems auswirkt[10]. Als Folge kann nur ein bestimmter Arbeitsweg eingeschlagen werden. Im Falle einer Störung gibt es dadurch keine alternativen Lösungsmöglichkeiten. Die Prozesse sind durch eine hohe Anzahl von Arbeitsschritten gekennzeichnet. Diese Arbeitsschritte hängen voneinander ab und sind durch eine starke zeitliche Begrenzung gekennzeichnet, wodurch wenig Spielraum für korrigierende Handlungen im Falle einer Störung bleibt. Roberts verwendet für diesen zeitlichen Druck den Begriff „litlle slack“[11].

Für die Arbeit mit derartigen Systemen bedeutet dies, dass zeitliche Verzögerungen nicht vorkommen dürfen, da sie katastrophale Folgen mit sich bringen können. Arbeitsabläufe und zeitliche Puffer müssen weit im Voraus geplant werden. Spontanes Handeln ist weitgehend ausgeschlossen. Als Beispiel kann die Erzeugung von Atomenergie genannt werden, wo viele, voneinander abhängige Prozesse unter ständigem Zeitdruck sehr präzise ausgeführt werden müssen, da es sonst zu einer Katastrophe kommen kann[12].

- Hohe Komplexität

Systeme hoher Komplexität sind durch eine hohe Anzahl von Interdependenzen gekennzeichnet. Diese stehen in wechselseitigen Beziehungen zueinander. Sie sind schwer zu durchschauen und Konsequenzen können nur schwer vorhergesagt werden. Außerdem sind viele der Interdependenzen mehrfach voneinander abhängig, was Möglichkeiten zu unvorhergesehenen Rückkoppelungen innerhalb des Systems bietet. Von außen sind diese nicht beobachtbar[13]. Das macht es den Arbeitern fast unmöglich über andere Teilprozesse außerhalb des eigenen Arbeitsfeldes Bescheid zu wissen. Die Austauschbarkeit vom Personal ist dadurch kaum möglich. Der Mangel an Wissen um andere Teilprozesse macht es unmöglich, dass Arbeiter außerhalb der eigenen Einheit arbeiten.

Beobachtet werden kann das beispielsweise bei Atomkraftwerken. Diese Organisationen weisen eine hohe Komplexität auf, denn für die Erzeugung von Atomenergie müssen viele mechanische Prozesse, die stark voneinander abhängen, koordiniert werden. Für den sicheren Umgang mit Atomenergie muss das Personal speziell ausgebildet werden. Die beschriebenen Schwierigkeiten erschweren die Kontrolle über die ablaufenden Prozesse und der Wahrnehmung der Organisation als Ganzes.

Die hohe Komplexität und die enge Kopplung verlangen nach Perrow eine Zentralisierung der Strukturen. Die Abläufe sind nur für Spezialisten durchschaubar und die Konsequenz der Interaktion mit anderen Abläufen nur bedingt vorhersehbar. Diese beiden Eigenschaften machen es für Arbeiter mit niedrigerem Rang unmöglich Entscheidungen zu treffen. Die Entscheidungsgewalt kann folglich nur auf die leitenden Angestellten übertragen werden. Die Übertragung der kompletten Entscheidungsgewalt auf die leitenden Angestellten, führt dort allerdings zu Überforderungen und steht der richtigen Entscheidungsfindung entgegen. Dieses Dilemma führt dazu, dass Fehlern nicht richtig vorgebeugt wird oder unbemerkt in Systeme eindringen können. Perrow spricht hier von „system accidents“. Die hohe Komplexität des Unternehmens führt dazu, dass Fehler, die zunächst voneinander unabhängig sind, derart miteinander zusammenwirken, dass die Konsequenzen weder die Konstrukteure noch der ausführende Arbeiter hätten vorhersehen können. Die enge Kopplung führt zu einer raschen Eskalation und die Situation gerät so schnell außer Kontrolle, dass keine Zeit bleibt die Situation zu durchschauen und angemessen zu reagieren. Die die Kombination von enger Kopplung und hoher Komplexität scheint somit zwangsläufig zu einem Unfall zu führen.

3. Die optimistische Sicht: high-reliability theory

3.1. Die high-reliability organizations

3.1.1. Der Untersuchungsgegenstand der HRO-Forscher

Ende der 80er Jahre befasste sich ein Forscherteam[14] ebenfalls mit Organisationen, die mit hochriskanten Technologien oder in einem gefährlichen Umfeld arbeiten und ebenfalls mit den Problemen eng gekoppelter und komplexer Systeme konfrontiert waren. Wie angedeutet befassten sich die Forscher, im Gegensatz zu den Untersuchungen der NAT-Vertretern, nicht mit Störfällen in Unternehmen oder mit der Ursache von Katastrophen, sondern untersuchten Organisationen, die dadurch auffielen, dass sie deutlich weniger Unfälle aufwiesen als andere.

Rochlin, La Porte und Roberts untersuchten die Abläufe auf einem amerikanischen Flugzeugträger[15]. Auch von anderen Forschern folgte eine große Anzahl an Feldstudien. Unter Anderem bei der amerikanischen Luftverkehrskontrolle[16], in Atomkraftwerken[17] aber auch bei zwei Banken[18], in Krankenhäusern[19] oder bei virtuellen Organisationen[20]. Die Forscher kommen je nach Studie zu einer Liste von Eigenschaften, die hoch verlässliche Organisationen aufweisen. Diese sind teilweise sehr unterschiedlich, doch einige Merkmale tauchen immer wieder auf. Diese sollen im Weiteren erläutert werden.

3.1.2. Antizipation von Fehlern

Die Konzentration auf Fehler innerhalb des Systems, die Abneigung gegen vereinfachende Interpretationen komplexer Zusammenhänge und das Vorhandensein von hoher Sensibilität für betriebliche Abläufe sollen helfen auf Überraschungen weitgehend vorbereitet zu sein.

- Sicherheit als Unternehmensziel

Den untersuchten Organisationen ist gemein, dass Sicherheit als ein übergeordnetes Ziel betrachtet wird[21]. Manager von HROs stimmen darin überein, dass Sicherheit als ein ebenso wichtiges Ziel gewertet werden sollte wie Effizienz. HROs scheinen sich also durch eine ausgeprägte Sicherheitskultur auszuzeichnen. Ein grundsätzlicher Bestandteil ist dabei die Verankerung von Sicherheitsnormen innerhalb der Organisation, und deren ständige Überprüfung durch das Management[22].

Die Implementierung eines Belohnungs- und Anreizsystems soll sicherheitsrelevantes Verhalten aufzeigen und konformes Verhalten mit den Sicherheitsvorschriften belohnen[23]. So besteht häufig die Möglichkeit Fehler oder Beinahe-Unfälle anonym zu melden, um die Hemmschwelle der Fehlermeldung abzusenken. Auch müssen Arbeiter keine Sanktionen befürchten, wenn sie Fehler melden, die sie selbst zu vertreten haben[24]. Teilweise werden Mitarbeiter für das Melden eines Fehlers, den sie zu vertreten haben, sogar belohnt. Ein Mitarbeiter eines Flugzeugträgers wurde mit einer Feierlichkeit belohnt, nachdem er einen Fehler, den er selbst verursacht hatte, meldete[25].

Daneben ist die offene Kommunikation mit den Führungskräften ein wichtiger Bestandteil der Sicherheitskultur einer HRO[26] und Mitarbeiter werden stets ermutigt sich offen mit den Führungskräften auszutauschen. Auch durch diese intensive Art der Kommunikation soll die Wahrscheinlichkeit dafür gesenkt werden, dass Fehler unbemerkt in das System eindringen, dort lange Zeit unbemerkt schlummern und so schließlich zu einer unvorhergesehenen Katastrophe führen können[27].

Die Konzentration auf Fehler wird auch durch eine weitere Besonderheit verdeutlicht. In HROs sind alle Mitarbeiter gleichermaßen für einen Fehler verantwortlich. Es gilt die Regel, dass jeder für jedes Problem solange verantwortlich ist, bis das Problem gelöst ist oder bis jemand, der das Problem lösen kann dafür die Verantwortung übernimmt[28]. Auch diese Besonderheit hilft der Aufdeckung von Fehlern, und damit der Verhinderung von Katastrophen.

[...]


[1] Vgl. Roberts (1990b). S. 160.

[2] Vgl. Marais/Dulac/Leveson (2004), S. 3.

[3] Vgl. La Porte (1996), S. 62.

[4] Vgl. La Porte/Consolini (1998), S. 848.

[5] Vgl. Roberts (1998), S. 114.

[6] Vgl. Schauenberg (2004), S. 249-250.

[7] Vgl. Gundel (2004), S. 32.

[8] Vgl. La Porte (1994), S. 211.

[9] Vgl. Perrow (1984).

[10] Vgl. Roberts (1990b), S.163.

[11] ebenda

[12] Vgl. Weick/Sutcliff (2003), S.113.

[13] Vgl. Schauenberg (2004), S. 241.

[14] Vgl. Rochlin/La Porte/ Roberts (1987).

[15] ebenda

[16] Vgl. Roberts (1990a), La Porte/Consolini (1991), Klein/Bigley/Roberts (1995).

[17] Vgl. Klein/Bigley/Roberts (1995).

[18] Vgl. Roberts/Libuser (1993).

[19] Vgl. Roberts/Bea (2001a) S.72-73.

[20] Vgl. Grabowski/Roberts (1999).

[21] Vgl. Weick/Sutcliff (2003), S. 67.

[22] Vgl. Gundel (2004), S. 49.

[23] ebenda

[24] Grabowski/Roberts (1997), S. 157, Roberts/Bea (2001a), S. 71, Weick/Sutcliff (2003), S. 68.

[25] Vgl. Weich/Sutcliff (2003), S. 71-72.

[26] ebenda, S. 68.

[27] Vgl. Grabowski/Roberts (1997), S. 157, Gundel (2004), S. 49.

[28] Vgl. Roberts/Libuser (1993), S. 22.

Details

Seiten
19
Jahr
2007
ISBN (eBook)
9783638073103
ISBN (Buch)
9783638957267
Dateigröße
460 KB
Sprache
Deutsch
Katalognummer
v93786
Institution / Hochschule
Albert-Ludwigs-Universität Freiburg – Institut für Personalökonomie
Note
1,7
Schlagworte
Kann Optimismus Seminar HRO high reliability organization VWL Volkswirtschaftslehre Zuverlässigkeit normal accident theory NAT

Autor

Teilen

Zurück

Titel: Kann man dem Optimismus der high reliability organization-Autoren folgen?