Lade Inhalt...

Das Incident Reporting System

Instrument zum organisationalen Lernen und zur Erhöhung der Sicherheitskultur in kritischen Infrastrukturen

Masterarbeit 2013 107 Seiten

BWL - Sonstiges

Leseprobe

Inhaltsverzeichnis

1. Einleitung
1.1. Problemstellung
1.2. Forschungs- und Erkenntnisinteresse
1.3. Forschungsstand
1.4. Methodik

2. Kritische Infrastrukturen
2.1. Begriffsbestimmung
2.2. Sektoreneinteilung
2.3. Besondere Eigenschaften
2.4. Kritische Infrastrukturen als soziotechnische Systeme

3. Die menschlichen Faktoren (Human Factors)
3.1. Soziotechnische Systeme
3.2. Geschichte der Human-Factors-Forschung
3.2.1. Scientific Management
3.2.2. Soziale Systemgestaltung: die Human-Relation-Bewegung
3.2.3. Soziotechnische Systemgestaltung
3.3. Ziele und Grundlagen der Human Factors
3.4. SHELL – Konzeptionelles Human Factors Modell
3.5. Aktuelle Strömungen

4. Theorie der Hochzuverlässigkeitsorganisationen
4.1. Die fünf Merkmale der Hochzuverlässigkeitsorganisationen
4.2. Zusammenfassung

5. Sicherheitskultur in Organisationen
5.1. Sicherheit, Safety- und Security-Kultur
5.2. Sicherheitskulturkonzepte
5.2.1. Organisationskultur
5.2.2. Sicherheitskulturkonzept der INSAG
5.2.3. Kompetenzförderliche Sicherheitskultur
5.2.4. Indikatorenmodelle zur Sicherheitskultur
5.3. Messbarkeit von Sicherheitskultur
5.4. Positive Beeinflussung von Sicherheitskultur
5.5. Zusammenfassung

6. Das Organisationale Lernen
6.1. Individuelles Lernen
6.2. Organisationales Lernen
6.2.1. Adaptives Lernen (Single Loop Learning)
6.2.2. Generatives Lernen (Double Loop Learning)
6.2.3. Lernen durch doppelte Reflexion (Deutero Learning)
6.2.4. Lernen aus Betriebserfahrung

7. Fehler, Zwischenfälle und Unfälle
7.1. Bestimmung des Fehlerbegriffs
7.2. Fehler und Unfälle
7.3. Unsichere Handlungen
7.4. Zusammenhang zwischen Fehlern, Zwischenfällen, Unfällen
7.5. Ursachen menschlicher Fehler
7.5.1. „Dirty Dozen“-Modell von Dupont (1994)
7.5.2. Nicht-technische Fähigkeiten als Unfallursache
7.6. Zusammenfassung

8. Das Incident Reporting System
8.1. Ursprung des Incident Reporting System
8.2. IRS Anwendungsbereiche
8.2.1. Incident Reporting Systeme in der Luftfahrt
8.2.2. Incident Reporting Systeme in der Kernenergie
8.2.3. Incident Reporting Systeme im Gesundheitswesen
8.3. Incident Reporting Analyse
8.4. Zusammenfassung

9. Rahmenbedingungen und Grundsätze des IRS
9.1. Fehlerkultur
9.2. Grundsätze bei der Gestaltung
9.3. Charakteristika erfolgreicher IRS
9.4. Grenzen des IRS
9.5. Incident Reporting Systeme und Whistleblowing

10. Empirische Untersuchung
10.1. Zielsetzung
10.2. Auswahl der Untersuchungsmethoden
10.3. Das leitfadengestützte Experteninterview
10.3.1. Methodische Vorgehensweise
10.3.2. Aufbau und Inhalt des Interviewleitfadens
10.3.3. Vorbereitung und Durchführung des Interviews
10.3.4. Kernaussagen des Interviews
10.4. Datenbefunde zum IRS aus dem Gesundheitswesen
10.4.1. Medizinische Hochschule Hannover
10.4.2. Kantonsspital St. Gallen (Schweiz)

11. Zusammenfassende Auswertung
11.1. Sicherheit und Sicherheitskultur
11.1.1. Fehlerkultur als Voraussetzung
11.2. Charakteristika als kritische Erfolgsfaktoren
11.3. Organisationales Lernen und Sicherheitskultur

12. Schlussbetrachtung
12.1. Ergebnisse
12.2. Ausblick

Literaturverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Anhang

1. Einleitung

1.1. Problemstellung

Moderne Gesellschaftssysteme sind auf die Verfügbarkeit und uneingeschränkte Nutzung von Infrastrukturen angewiesen. Insbesondere betrifft dies die Kritischen Infrastrukturen, die als Lebensadern für die Versorgung (beispielsweise Energie, Gesundheit, Transport und Verkehr) reibungslos funktionieren müssen. Geprägt sind diese Infrastrukturen unter anderem durch komplexe soziotechnische Arbeitswelten, in denen die Technik dominiert, der Mensch mit seiner Denkfähigkeit und Kreativität als Entscheidungsträger aber unverzichtbar bleibt. Somit beruht die Sicherheit in diesen Organisationen neben der angemessen eingesetzten Sicherheitstechnik vor allem auf einer gelebten Sicherheitskultur. Für den Bereich der sicherheitskritischen Industriezweige gilt es als nachgewiesen, dass ca. 70% aller Zwischenfälle ihre Ursachen im Bereich der sogenannten Human Factors z.B. beim Teamwork oder bei der Entscheidungsfindung haben (vgl. Rall et al. 2006, S. 3). In den Hochrisikobranchen geht man davon aus, dass ca. 80% aller Unfälle auf menschliche Fehler zurückzuführen sind (vgl. Hofinger 2009, S. 604). Bevor es jedoch zu einem Schaden oder einem Unfall kommt, sind in der Regel diverse Prozessschritte durchlaufen worden und oft wird nur der letzte – der den Schaden sichtbar machende – Schritt betrachtet. Das bedeutet im Umkehrschluss, dass nicht erst Schadensereignisse eintreten müssen, um Schwächen in der Organisation aufzuzeigen. Es sind die sehr viel häufigeren Zwischenfälle ohne Schadenseintritt, die eine breite Datenbasis für das Management bieten und so eine wichtige Lernchance im Sinne des organisationalen Lernens darstellen (vgl. Horn/Lauche 2012, S. 251).

Hier setzt das Incident Reporting System (IRS) an. Durch den systemorientierten Ansatz, der nicht nur den handelnden Menschen am Ende der Prozesskette betrachtet, ist es möglich, die gefährlichen und latenten Prozessschritte und Faktoren zu identifizieren, noch bevor Schäden eingetreten sind. In diesem Meldesystem werden beobachtete oder erlebte Zwischenfälle, Fehler oder Prozessabweichungen gesammelt und für die weitere Bearbeitung gespeichert. Seinen Ursprung hat das IRS in der Luftfahrt, wo es bis heute in der militärischen Fliegerei sowie der zivilen Luftfahrt angewandt wird. Eines der bekanntesten Meldesysteme ist das Aviation Safety Reporting System (ASRS), das 1975 in Zusammenarbeit mit der amerikanischen Weltraumfahrtbehörde NASA realisiert wurde und bis heute betrieben wird.

Zunehmend nutzen auch Krankenhäuser ein IRS als integralen Bestandteil ihres Risiko- bzw. Qualitätsmanagements, um Verbesserungen in der Patientensicherheit zu erzielen und eine Sicherheitskultur zu etablieren. Auch im Bereich der Reaktorsicherheit ist das IRS ein wichtiger Bestandteil. 1980 wurde ein IRS von der Internationalen Atomenergie-Organisation (IAEO) und der Nuclear Energy Agency (NEA) entwickelt, um auf internationaler Basis den Austausch von Erfahrungen zu erleichtern.

Für die genannten Bereiche scheint sich das IRS aufgrund seiner grundsätzlichen Funktionen und Charakteristika zu bewähren. Sie agieren auf anonymer oder streng vertraulicher Basis und haben einen nichtsanktionierenden Charakter. Die Idee dieses Systems ist, dass für alle Mitarbeiter eine organisationsinterne fest integrierte Möglichkeit besteht, jegliche Form von unerwünschten Ereignissen und negativen Abweichungen zu melden, um daraus zu lernen. Fachbeiträgen, zumeist aus dem Bereich des Gesundheitswesens, ist zu entnehmen, dass Incident Reporting Systeme als proaktives Instrument unter den richtigen Rahmenbedingungen wesentliches Potenzial besitzen, eine positive Entwicklung der Sicherheitskultur herbeizuführen und organisationales Lernen zu fördern bzw. zu entwickeln (vgl. Rall et al. 2006; Hofinger et al. 2008). Daher soll auf folgende Forschungsfrage eine Antwort gegeben werden:

Welchen Beitrag leistet ein Incident Reporting System zum organisationalen Lernen und zur Erhöhung der Sicherheitskultur in einer Organisation der Kritischen Infrastrukturen?

1.2. Forschungs- und Erkenntnisinteresse

Der Schwerpunkt der Arbeit liegt auf drei Sektoren der Kritischen Infrastrukturen: Luftfahrt, Kernenergie und Gesundheitswesen. Es gilt herauszufinden, ob in der Praxis umgesetzte Incident Reporting Systeme tatsächlich eine Steigerung der Sicherheitskultur herbeigeführt und zum organisationalen Lernen beigetragen haben. Zudem sollen die Rahmenbedingungen bei der lernförderlichen Gestaltung aber auch die Grenzen eines IRS betrachtet werden. Aufgrund der bisherigen Verbreitung ist zu erwarten, dass dieses Instrument in Organisationen der kritischen Infrastrukturen einen wertvollen Beitrag zum organisationalen Lernen sowie zur Entwicklung der Sicherheitskultur leisten kann.

1.3. Forschungsstand

Im Bereich der Fehler- und Sicherheitsforschung sowie der Human Factors angesiedelt, sind neben englisch- und deutschsprachigen Monographien zahlreiche Fachartikel erhältlich, die sich etwa unter dem Aspekt der Sicherheitskultur mit der Thematik Berichtssysteme auseinandersetzen. Durch den vermehrten Einsatz des IRS im Gesundheitswesen sind hier aktuelle Fachartikel sowie einige wenige Datenbefunde verfügbar. Dies lässt erste Rückschlüsse auf den tatsächlichen Nutzen zur organisationalen Wissensgenerierung und zur Förderung der Sicherheitskultur zu. In den Bereichen Luftfahrt und Reaktorsicherheit sind vereinzelt öffentlich zugängliche Zahlen zu eingehenden IRS-Meldungen vorhanden, jedoch keine validen Daten, die ausreichend Aufschluss über den Nutzen des IRS bezüglich des organisationalen Lernens geben oder gar statistische Auswertungen diesbezüglich zulassen.

1.4. Methodik

Um die Entstehungsgeschichte, die Verbreitung und den Nutzen des IRS als Instrument des organisationalen Lernens und zur Förderung der Sicherheitskultur verstehen zu können, bedarf es einer umfassenden Literaturrecherche in verschiedenen Forschungsdisziplinen. So werden im ersten Teil dieser Arbeit neben Ansätzen und Modellen aus der Human-Factors-, der Sicherheits- und der Fehlerforschung auch Ansätze aus der Organisationsentwicklung mit Fokus auf die Sicherheitskultur und das organisationale Lernen sowie ihre Verknüpfungen miteinander aufgezeigt. Auf Basis dieser Erkenntnisse wird auf das Incident Reporting (IR) eingegangen. Beginnend mit dem Konzept des IR und der historischen Entwicklung des IRS, werden die erfolgskritischen Merkmale und organisationalen Rahmenbedingungen des Instruments im Sinne einer lernförderlichen Systemgestaltung aufgezeigt.

Der zweite Teil dieser Arbeit umfasst die empirische Untersuchung. Als Methode wurde die qualitative Befragung in Form eines leitfadengestützten Experteninterviews gewählt, um die theoretischen Erkenntnisse aus der Literatur zu verifizieren und den Praxisbezug zur tatsächlichen Nutzung des IRS herzustellen. So konnte ein Interview mit dem Geschäftsführer eines Beratungsunternehmens für den Bereich des Gesundheitswesens durchgeführt werden. Die meisten Interviewanfragen blieben unbeantwortet oder es folgten Absagen, in denen auf Sicherheitsbedenken oder die Sensibilität des Themas hingewiesen wurde. Ergänzt werden die praxisbezogenen Informationen durch erste Datenbefunde aus dem Bereich des Gesundheitswesens, die im Rahmen von Fachbeiträgen oder Projektberichten die Auswirkungen des IRS evaluierten.

2. Kritische Infrastrukturen

2.1. Begriffsbestimmung

Der Begriff Infrastruktur ist ein geläufiges Wort, welches aus den Medien und aus der Wirtschaft bekannt ist. Gemäß der Begriffsbestimmung im Duden - Wirtschaft von A bis Z (Pollert et al. 2009, S. 24) umfasst der Begriff „alle staatlichen und privaten Einrichtungen, die für eine ausreichende Daseinsvorsorge und wirtschaftliche Entwicklung als erforderlich gelten.“ Die Infrastruktur wird meist unterteilt in technische Infrastruktur (wie Einrichtungen der Verkehrs- und Nachrichtenübermittlung, der Energie- und Wasserversorgung, der Entsorgung) und soziale Infrastruktur (wie Schulen, Krankenhäuser, Sport- und Freizeitanlagen, Einkaufsstätten, kulturelle Einrichtungen).

In Anlehnung an Reimut Jochimsen Begriffsdefinition in seinem Werk Theorie der Infrastruktur. Grundlagen der marktwirtschaftlichen Entwicklung (1966) bezeichnet das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BKK) Infrastrukturen als „die Gesamtheit der materiellen, personellen und institutionellen Grundeinrichtungen, die das Funktionieren einer arbeitsteiligen Wirtschaft garantieren.“ (BKK 2009, S. 17) Klassische Infrastrukturbereiche sind alle Anlagen zur Energieversorgung, zur Telekommunikation, zur Wasserversorgung, zur Entsorgung, Verkehrseinrichtungen sowie Gebäude und Einrichtungen der staatlichen Verwaltung, des Bildungs-, Forschungs-, Kultur- und des Gesundheits- und Freizeitbereichs (vgl. BKK 2009, S. 17).

Was charakterisiert nun eine Infrastruktur, um sie als kritisch zu erachten? Sind es die bereitgestellten Güter oder Dienste, ist es die Infrastruktur an sich oder der gesellschaftliche Wert, den sie repräsentiert? Aufschluss darüber geben die Definitionen zum Begriff Kritische Infrastrukturen, auch wenn diese im internationalen Vergleich differieren (Tabelle 1).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Exemplarische Definitionen für Kritische Infrastrukturen (eigene Darstellung; vgl. BKK 2009)

Die in der Tabelle angeführte für Deutschland geltende Definition Kritischer Infrastrukturen wurde im Jahr 2003 durch den Arbeitskreis Kritische Infrastrukturen (AK KRITIS) des Bundesministeriums des Innern (BMI) entworfen (vgl. BMI 2005, S. 6) und wird seitdem in allen Schriften zur entsprechenden Thematik verwendet (vgl. BKK 2008, S. 12; BMI 2011, S. 42). Die Kritikalität ist in diesem Zusammenhang als ein relatives Maß für die Bedeutsamkeit einer Infrastruktur anzusehen, insbesondere in Bezug auf die Konsequenzen, die mit einer Störung oder einem Funktionsausfall für die Versorgungssicherheit der Gesellschaft mit wichtigen Gütern und Dienstleistungen einher gehen würden (vgl. BKK 2009, S. 19). Vereinfacht ausgedrückt sind Kritische Infrastrukturen demnach die unverzichtbaren Lebensadern jeder modernen und leistungsfähigen Gesellschaft. Wir verlassen uns darauf, dass der Strom aus der Steckdose und das Trinkwasser aus dem Wasserhahn kommt, die medizinische Versorgung sichergestellt ist und die Informations- und Kommunikationstechnik funktioniert.

2.2. Sektoreneinteilung

Nach einigen Überarbeitungen der Sektoren- und Brancheneinteilung gilt nunmehr eine Einteilung Kritischer Infrastrukturen in neun Sektoren und in 29 Branchen. Diese basiert auf eine erstmals zwischen Bund und Ländern abgestimmte Grundlage für die Kooperation von Staat und Wirtschaft beim Schutz Kritischer Infrastrukturen (vgl. KRITIS des Bundes).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Sektoren und Branchen Kritischer Infrastrukturen (eigene Darstellung; vgl. KRITIS des Bundes)

2.3. Besondere Eigenschaften

Unabhängig von der von Zeit zu Zeit nur unwesentlich differierenden Sektoreneinteilung zeigen Kritische Infrastrukturen gemeinsame besondere Eigenschaften auf. Diese Infrastrukturen stehen nicht eigenständig nebeneinander, sondern sind durch vielfältige Beziehungen miteinander vernetzt. Zudem weisen sie zunehmend eine brancheninterne Vernetzung auf physischer, virtueller oder logistischer Basis auf, mithilfe dieser die Infrastrukturdienstleistungen zur Verfügung gestellt werden. Beispielhaft seien hier die Energie- und Wasserversorgung aber auch die Informations- und Kommunikationsversorgung angeführt. Die Interdependenzen zwischen zwei Infrastrukturen können durchaus gering sein, wie beispielsweise zwischen dem Transport- und dem Kultursektor. Es ist jedoch auch möglich, dass es bei dem Ausfall eines Sektors zu kaskadenartigen Ausfällen in den anderen Bereichen führt. Dies ist insofern leicht nachzuvollziehen, als dass beispielsweise der Bereich des Gesundheitswesens auch und gerade von den Versorgungssektoren abhängig ist. Dies kann weitreichende Konsequenzen haben. So belegt die Broschüre Schutz Kritischer Infrastruktur: Risikomanagement im Krankenhaus (BKK 2008) anhand von Beispielen auf internationaler Ebene, dass Großschadensereignisse in humanitären Katastrophen münden, wenn das Gesundheitswesen zusammenbricht. Dabei ist das Gesundheitswesen selbst von anderen Sektoren der Kritischen Infrastrukturen abhängig (z.B. Strom- und Wasserversorgung) und somit sensibel und störungsempfindlich.

2.4. Kritische Infrastrukturen als soziotechnische Systeme

Trotz fortschreitender technologischer Rahmenbedingungen, die die Arbeitswelten der Kritischen Infrastrukturen bestimmen, obliegt die Schlüsselrolle im System dem Menschen. Dies resultiert aus der Tatsache, dass nur er dazu fähig ist, Ereignisse als Gefahren oder Bedrohungen einzustufen, die damit vorhandenen Risiken zu antizipieren sowie präventiv angemessene Maßnahmen des Sicherheits- bzw. Risikomanagements zu entwickeln und umzusetzen. Diese Ansicht erscheint zunächst widersprüchlich, gilt doch in den sicherheitskritischen Industriezweigen die Erkenntnis als gesichert, dass etwa 70 % aller Zwischenfälle ihre Ursachen im Bereich der Human Factors haben. In den Hochrisikobranchen sind sogar bis zu 80% aller Unfäl­le, auf menschlichen Faktoren zurückzufüh­ren. (vgl. Flin et al. 2008, S. 1; Badke-Schaub et al. 2012, S. 4f.). Die Unfallursachen nur auf den fehlbaren Menschen zu reduzieren, greift jedoch deutlich zu kurz. Wichtig ist, die Gesamtkonstellation zu betrachten und die verschiedenen Ebenen des Systems aus Technik, Organisation und der Gruppe/dem Team sowie deren Vernetzungen in die Analyse einzubeziehen. Diese Arbeitssysteme, in denen der handelnde Mensch in Technik und Organisation eingebettet ist, werden auch als soziotechnische Systeme verstanden (vgl. Badke-Schaub et al. 2012, S. 4f.; Hofinger 2009, S. 604). Die Forschungsdisziplin die sich mit dem Verhältnis von Menschen und Technik unter einer systemischen Perspektive befasst, soll im Folgenden betrachtet werden.

3. Die menschlichen Faktoren (Human Factors)

Die interdisziplinäre Wissenschaft der Human Factors betrachtet das Handeln des Menschen in soziotechnischen Arbeitswelten. Zu diesen Faktoren zählen alle physischen, psychischen und sozialen Charakteristika des Menschen insofern sie das Handeln in und mit soziotechnischen Systemen beeinflussen oder von diesen beeinflusst werden (vgl. Badke-Schaub et al. 2012, S. 4). Dabei kommt es nicht auf die isolierte Betrachtung der menschlichen Faktoren an, sondern auf ihre Einbettung in dem System von Aufgabe, Technik und Organisation. Zudem werden die verschiedenen Ebenen und ihre Vernetzungen in die Human-Factors-Analyse einbezogen, um relevante Zusammenhänge zwischen sichtbarem Ereignis und möglichen auslösenden Faktoren zu erkennen (vgl. Badke-Schaub et al. 2012, S. 6f.). Das bedeutet, dass neben der Interaktion zwischen Mensch, Technik und Organisation auch die Beziehungen der Menschen innerhalb des Systems betrachtet werden.

3.1. Soziotechnische Systeme

Das soziotechnische System dient einer primären Aufgabe, zu deren Erfüllung das System geschaffen wurde. Bestimmt wird das System von zwei Teilkomponenten, der technischen und der sozialen. Zu dem technischen Teilsystem zählen die Betriebsmittel, die technologischen aber auch die räumlichen Bedingungen. Dem sozialen Teilsystem gehören die Mitglieder der Organisation mit ihren Qualifikationen, individuellen sowie gruppenspezifischen Bedürfnissen an. Es gilt, dass die Teilsysteme nicht voneinander trennbar sind. Um im Rahmen einer Gestaltungsmaßnahme eine Optimierung der Teilsysteme zu erreichen, müssen sie gemeinsam in ihrer Interaktion betrachtet und gestaltet werden. Der soziotechnische Ansatz unterstreicht diese Interaktion und wechselseitige Abhängigkeit zwischen Mensch und Maschine. Die menschlichen Faktoren sind somit eingebettet in ein System von Aufgabe, Technik und Organisation (Abbildung 1) (vgl. Scherer 1998, S. 12f.; Badke-Schaub et al. 2012, S. 13).

3.2. Geschichte der Human-Factors-Forschung

3.2.1. Scientific Management

Die Geburtsstunde von Human Factors wird in der Entwicklung des Scientific Management (deutsch: Wissenschaftliche Betriebsführung) gesehen. Dieses Managementkonzept wurde von Frederick Winslow Taylor entwickelt und in seinem Werk The Principles of Scientific Management (1911) erörtert. Die Lehre basiert auf detaillierten Analysen von Arbeitsprozessen, um unter den vorherrschenden Arbeitsbedingungen die Arbeitsabläufe zu optimieren und daraufhin die maximale Arbeitsleistung zu erzielen (vgl. Badke-Schaub et al. 2012, S. 11). Das mechanistische Menschenbild der wissenschaftlichen Betriebsführung nahm den Arbeiter als ineffiziente Maschine wahr. Unzulänglichkeiten sollten mit Werkzeugen und festgeschriebenen Abläufen ausgeglichen werden. Der Mensch wird als Individuum und nicht als Teil der Gruppe analysiert (vgl. Kirchler et al. 2004, S. 26). Die wissenschaftliche Betriebsführung nach Taylor berücksichtigte somit nicht die Bewertung der menschlichen Faktoren im Sinne einer integrativen Sicht auf Mensch, Maschine und Organisation. Sobald Problemlösen, Kreativität und Verantwortung gefordert wird, zeigte die eingeschränkte Betrachtung des Menschen als nichtintentionale und nichtreflexive Maschine Defizite, wie Untersuchungen zu den Auswirkungen des Scientific Management in 35 amerikanischen Industriebetrieben belegten (vgl. Badke-Schaub et al. 2012, S. 12f.)

3.2.2. Soziale Systemgestaltung: die Human-Relation-Bewegung

In den 1930-er Jahren legten die sogenannten Hawthorne-Studien den Grundstein für die Betrachtung des Menschen als soziales und motiviert handelndes Wesen am Arbeitsplatz. Diese Untersuchungen von Mayo (1933) und Roethlisberger und Dickson (1939) wurden in den Hawthorne-Werken der Western Electric Company durchgeführt und zeigten, dass das Wissen um die Teilnahme an einer Studie und insbesondere die zwischenmenschlichen Beziehungen in den Untersuchungsgruppen die Arbeitsleistung erhöhten (vgl. Badke-Schaub 2012, S. 12). Weitere Studien des Human-Relation-Ansatzes belegten dies, zeigten aber auch, dass neben der individuellen Leistungssteigerung auch eine Leistungsminderung aus den Gruppennormen resultieren kann. Zudem kam es nach einem ersten Aufschwung in der Human-Relation-Bewegung zu einer einseitigen Betrachtung, indem Arbeitspsychologen sich zumeist auf die sozialen Faktoren eines Unternehmens konzentrierten und die organisatorischen Strukturen ignorierten. So erklangen hier bereits erste kritische Stimmen bei der künstlichen Trennung des sozialen und des technischen Systems (vgl. Kirchler 2004, S. 60f.).

3.2.3. Soziotechnische Systemgestaltung

Der Ansatz der soziotechnischen Systemgestaltung betont die Interaktion der sozialen und der technischen Teilsysteme eines Arbeitssystems und definiert, dass keines der Teilsysteme ohne Berücksichtigung des anderen optimiert werden kann (vgl. Badke-Schaub 2012, S. 13). Dieser Ansatz ist zurückzuführen auf das Tavistock Institute of Human Relations, das im Jahr 1947 gegründet wurde. Das Institut war in beratender Funktion auf der Grundlage von industriesoziologischen Erkenntnissen für die Industrie tätig. Ab 1949 wurden im englischen Kohlebergbau Studien durchgeführt, die die Folgen der Mechanisierung und der Arbeitsteilungen im Bergbau untersuchten. Im Gegensatz zum oben angeführten Human-Relations-Ansatz bezog das Institut nicht nur das soziale sondern auch das technische System in die Untersuchungen mit ein, da davon ausgegangen wurde, dass beide Systeme voneinander abhingen und sich gegenseitig beeinflussten. Im konkreten Fall sollte die neu eingeführte verbesserte halbmechanische Technologie zum Abbau von Kohle eine Produktionssteigerung herbeiführen. Tatsächlich verursachte die Einführung der neuen Technologie eine Zunahme von Arbeitsunfällen, Arbeitskämpfen und anderen interpersonellen Konflikten. Die Untersuchungen ergaben, dass die Zerstörung der traditionellen Form der Arbeitsorganisation ursächlich für dieses Arbeitsverhalten war. Mit der Einführung der neuen Technologie wurden die Arbeitsgruppen wesentlich vergrößert und durch einen Vorgesetzten geleitet. Waren die einst kleineren Gruppen frei in ihrer Planung und gemeinsam für die vollständige Tätigkeit und ihre Sicherheit verantwortlich, so fehlten diese Elemente in dem neuen Arbeitssystem. Erst als die neue Methode unter Beibehaltung der sozialen Strukturen eingeführt wurde, trat die erwartete Produktionssteigerung ein. Aus dieser und weiteren Untersuchungen entstand der soziotechnische Systemansatz, der entscheidend zur Entwicklung der Arbeits- und Systemgestaltung beitrug. Mit dem stetig steigenden Aufkommen von Informations- und Kommunikationstechnologien wurde der soziotechnische Ansatz ergänzt durch Konzepte, die die Technik als integralen Bestandteil der menschlichen Kultur begreifen (vgl. Kirchler et al. 2004, S. 80ff., Badke-Schaub et al. 2012, S. 13).

3.3. Ziele und Grundlagen der Human Factors

Die Human Factors Forschung gilt als eigenständige Wissenschaft, die als wissenschaftliche Grundlage auf verschiedene Basis- sowie Teildisziplinen der Psychologie zurückgreift und diese mit der praktischen Anwendung kombiniert (vgl. Badke-Schaub et al., 2012, S. 7ff.). Zielsetzung dieser interdisziplinären Forschungsrichtung ist es, „negative Folgen der Interaktion Mensch und Technik zu vermeiden bzw. zu vermindern und so das Wohlbefinden der Handelnden zu gewährleisten und die Sicherheit sowie die Funktionsfähigkeit des Systems zu verbessern“ (Badke-Schaub et al., 2012, S. 7).

3.4. SHELL – Konzeptionelles Human Factors Modell

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: SHELL-Modell nach Hawkins 2008 (eigene Darstellung; vgl. Wiethof 2012)

Das vereinfachte Konzeptmodell nach Edwards in der weiterentwickelten Form von Hawkins (2008) eignet sich besonders, um die Forschungsdisziplin der Human Factors zu visualisieren und die Komponenten darzustellen, mit denen der Mensch im soziotechnischen System interagiert (Abbildung 2). Im Zentrum des Modells befindet sich das Individuum (Liveware). Dieses interagiert mit allen anderen sich aus dem Arbeitsumfeld ergebenden Komponenten.

- Interaktion Software und Liveware

Unter diesem Aspekt sind die kognitiven Anforderungen an die Liveware gemeint, die aus den Arbeitsmitteln hervorgehen. Darunter zählen alle nicht-physikalischen Aspekte wie Regeln, Bedienungsanleitungen, Verfahren und Symbole hinsichtlich ihrer Verständlichkeit und hinreichenden Klarheit aber auch die Gebrauchstauglichkeit von tatsächlicher Computersoftware.

- Interaktion Environment und Liveware

Unter diesem Punkt ist die Interaktion des menschlichen Akteurs mit den internen und externen Umgebungsvariablen gemeint. Besonders in der Luftfahrt wurde dieser Aspekt vorangetrieben, indem beispielsweise spezielle Anzüge und Helme Schutz gegen Kälte, Lärm, Höhenluft oder auch Beschleunigungskräfte bieten.

- Interaktion Liveware und Liveware

Die Interaktion zwischen den Menschen in ihrem Arbeitssystem betrachtet dieser Aspekt. Bestimmende Teile dieses Abschnitts stellen Kommunikationsprozesse, Führungsstile, persönliche Beziehungen sowie teambezogenes Verhalten dar.

- Interaktion Hardware und Liveware

Die Verbindung zwischen Hardware und Liveware stellt die Interaktion zwischen Mensch und Maschine dar. Die technische Umgebung sollte zum einen eine effiziente Arbeitsweise zulassen, zum anderen entsprechend der charakteristischen Faktoren des Menschen gestaltet sein. Das folgende Beispiel aus der Luftfahrt zeigt die Bedeutung eines optimalen Designs der Hardware und wie einfach Fehler vermieden werden können, wenn die menschlichen Faktoren in der Gestaltung der Technik berücksichtigt werden:

Am 01. Januar 2007 um 14.07 Uhr verschwand der Flug 547, Typ Boeing B-737-4Q8, der Fluggesellschaft Adam Air vom Radar der Flugsicherung. Das Flugzeug befand sich auf einer Route zwischen Surabaya und Manado (Indonesien) und geriet in eine Schlechtwetterfront. Beide Piloten versuchten Probleme mit dem Navigationsinstrument des Flugzeugs zu beheben und schalteten dabei versehentlich den Autopiloten ab. Ohne diesen geriet das Flugzeug außer Kontrolle und stürzte ab. Alle 96 Passagiere sowie die sechs Crewmitglieder verunglückten tödlich (Kebabjian 2013).

3.5. Aktuelle Strömungen

Die großen Industrieunfälle in den 1980er Jahren beeinflussten die Entwicklung der Human-Factors-Forschung, infolgedessen Sicherheit das zentrale Human-Factors-Thema wurde (vgl. Badke-Schaub 2012, S. 14f.) Es hatte sich gezeigt, dass trotz zunehmender Automatisierung nicht alle Unfälle vermieden werden können, teilweise sogar neue Problemfelder auftreten (vgl. Manzey 2012, S. 337ff.). Die Analysen der Unfallursachen führten zudem dazu, den Menschen nicht mehr nur als Risikofaktor in technischen Systemen zu sehen, sondern die menschlichen Faktoren als Sicherheitsressource zu verstehen. Insbesondere Parameter wie die Sicherheitskultur, die Instrumente der Sicherheit (wie etwa ein Berichtswesen für sicherheitskritische Ereignisse), die Relevanz von Teams sowie die Automatisierung und ihre Grenzen sind in diesem Kontext zu beachten und bilden daher die aktuellen Schwerpunkte der sicherheitsbezogenen Human-Factors-Forschung (vgl. Badke-Schaub et al. 2012, S. 14). Einen gänzlich anderen Ansatz als die retrospektive Analyse von Unfallursachen wagte eine interdisziplinäre Forschungsgruppe mit ihrer Theorie der Hochzuverlässigkeitsorganisationen (high reliability theory). Auch diese greifen in ihren Erkenntnissen die Schlagworte Sicherheitskultur, Berichtssysteme und organisationales Lernen auf, wie das folgende Kapitel zeigt.

4. Theorie der Hochzuverlässigkeitsorganisationen

Die Forschungsgruppe, bestehend aus dem Politologen La Porte, der Psychologin Roberts und dem Physiker Rochlin der University of California in Berkeley und Michigan in den USA, befasste sich im Jahr 1984 mit Hochrisiko-Organisationen (HRO) – das sind Organisationen die mit Hochrisiko-technologien oder in einem gefährlichen Umfeld arbeiten. Im Gegensatz zu den Untersuchungen der „normal accidents theory“ (Perrow 1984) beschäftigte sich die Forschergruppe nicht mit der alleinigen Analyse von Störfällen und Unfallberichten, sondern der Untersuchung von Organisationen, denen es gelingt, weit unter der zu erwartenden Unfallhäufigkeit zu liegen. Hierzu wurden die systemischen und organisationalen Faktoren in die Betrachtung mitaufgenommen. Die Forschungsgruppe untersuchte zunächst die Abläufe auf einem Flugzeugträger der U.S. Navy. Durch zahlreiche weitere Feldstudien auch von anderen HRO-Forschern erfolgte unter anderem die Analyse der Organisationsstrukturen des Flugsicherungssystems der Federal Aviation Administration (FAA), des Kernkraftwerks Diablo Canyon in Kalifornien/USA sowie von Banken und Krankenhäusern (vgl. Gundel 2004, S. 48ff.; Lutzky 2008; Fahlbruch et al. 2012, S. 26f.). Auch die Vertreter der „high reliability theory“ (HRT) gehen davon aus, dass eine vollständige Fehlervermeidung unmöglich ist. Die Ursachen werden allerdings nicht einzig und allein im System gesehen.

„The point is that accidents occur because the humans who operate and manage complex systems are themselves not sufficiently complex to sense and anticipate the problems generated by those systems” (Weick 1987, S. 112).

Durch die ganzheitliche Betrachtung des Systems (Mensch, Maschine und Organisation) gelangen die HRT-Vertreter zu dem Schluss, dass sich durch organisationale und strukturelle Maßnahmen und durch eine gelebte Sicherheitskultur, eine Fehlerminimierung erzielen lässt. Obgleich die gewonnenen Erkenntnisse der Untersuchungen recht verschieden sind, lassen sich einige wiederkehrende Merkmale identifizieren. Allen untersuchten Organisationen ist gemein, dass Sicherheit als ein übergeordnetes Ziel begriffen wird. Für den Aufbau und Erhalt der Verlässlichkeit kristallisierten die Forscher als gemeinsamen Nenner das Prinzip der Achtsamkeit (mindfulness) im Sinne einer ausgeprägten Sicherheitskultur heraus. Zu deren Etablierung und Aufrechterhaltung wurden die fünf Dimensionen

- Konzentration auf Fehler,
- Abneigung gegenüber vereinfachende Interpretationen,
- Sensibilität für betriebliche Abläufe,
- Streben nach Flexibilität,
- Respekt vor fachlichem Wissen und Können

identifiziert, deren kontinuierliches Zusammenspiel kennzeichnend für die gelebte Sicherheitskultur ist. Dies hat zur Folge, dass unerwartete Ereignisse zumeist früh identifiziert und bewältigt werden (vgl. Weick/Sutcliffe 2010, S. 10ff.; Fahlbruch et al. 2012, S. 26f.). Das Prinzip der Achtsamkeit mit seinen fünf Merkmalen lässt sich in zwei Hauptkomponenten unterteilen. Zum einen in die Antizipation von Unerwartetem, aufgrund derer Abweichungen möglichst früh entdeckt werden sollen, um noch genügend Handlungsspielraum zu besitzen. Zum anderen die flexible Reaktion auf Unerwartetes, um plötzlich eintretenden Gefährdungslagen gewachsen zu sein.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Prinzip der gemeinsamen Achtsamkeit (eigene Darstellung, vgl. Mistele 2007)

Mistele (2007) verweist bei seiner Darstellung (Abbildung 3) auf die idealtypische Einteilung des Prinzips der Achtsamkeit, da eine trennscharfe Zuordnung durch die wechselseitige Beeinflussung der fünf Merkmale nicht erfolgen kann.

4.1. Die fünf Merkmale der Hochzuverlässigkeitsorganisationen

- Konzentration auf Fehler und Sensibilität für betriebliche Abläufe

Schwerwiegende Fehler oder gar sicherheitskritische Ereignisse bis hin zu Unfällen sind in HROs vergleichsweise selten. Daher rückt die Erfassung und die Analyse von Beinahe-Unfällen und schwachen Anzeichen in das Zentrum des Interesses, da sie auf Schwachstellen hinweisen können, bevor es zum Unfall kommt.

“If serious failures are rare, one means to get more data points for learning is to broaden the number and variety of failures that are given close attention. Effective HROs both encourage the reporting of errors and make the most of any failure that is reported” (Weick et al, 1999, Seite 39).

Die ausgebildete Konzentration auf Fehler ermöglicht eine rechtzeitige Wahrnehmung von unerwarteten Ereignissen. Fehler können jedoch nur entdeckt werden, wenn eine entsprechende Sensibilität für die betrieblichen Abläufe bei jedem einzelnen Mitarbeiter vorhanden ist und eine Wahrnehmungskompetenz für Abweichungen und Fehler entwickelt wurde. Da sich sicherheitskritische Ereignisse zumeist durch Abweichungen und Fehler ankündigen, achten Mitarbeiter der HRO besonders auf diese Hinweise. Die Akzeptanz eigener Fehlbarkeit hat zur Folge, dass Fehler nicht etwa als Bedrohung oder etwas Negatives sondern als eine Quelle zur Verbesserung der Zuverlässigkeit und zentrales Element des Organisationalen Lernens angesehen werden. Die Wahrnehmungsfähigkeit von Fehlern und der Umgang mit diesen zeugen von einer hohen Reflexionsfähigkeit in HRO und sind oftmals der Auslöser von Reflexions- und Lernprozessen. Dies zeigt sich häufig in dem Berichten und Analysieren von Beinahe-Unfällen und der Förderung des freiwilligen Meldens von Fehlern, zum Teil durch Belohnungssysteme (vgl. Weick 1987, S. 112ff.).

- Abneigung gegen vereinfachende Interpretationen

Im Gegensatz zur weit verbreiteten Erfolgsregel, die Dinge zu vereinfachen, um sich auf einige Schlüsselprobleme und Schlüsselindikatoren zu konzentrieren, entwickeln HROs umfassende und komplexe Vorstellungen. Dies geschieht aus der Intention heraus, eine möglichst umfassende Wahrnehmung zu entwickeln, die auf dem Wissen basiert, „dass die Welt, mit der sie es zu tun haben, komplex, unbeständig, unbegreiflich und unvorhersehbar ist“ (Weick/Sutcliffe, 2010, S. 11).

- Streben nach Flexibilität und Respekt vor fachlichem Wissen und Können

Das Streben nach Flexibilität erwächst aus der Erkenntnis heraus, dass das Unerwartete nicht vorhersehbar und damit nicht planbar ist. Weick und Sutcliffe beschreiben Flexibilität als „eine Mischung aus der Fähigkeit, Fehler frühzeitig zu entdecken, und der Fähigkeit, das System durch improvisierte Methoden am Laufen zu halten“ (Weick/Sutcliffe, 2003, Seite 27). Diese Flexibilität zeichnet sich dadurch aus, dass nicht die Problemverhütung, sondern die Identifizierung und Handhabung dieser Probleme, Ziel der Bemühungen ist. Zudem hilft die Akzeptanz der menschlichen Fehlbarkeit, ihre Handlungsfähigkeit auch durch das Auftreten von Unerwartetem zu erhalten. Um in solchen Situationen angemessen und zügig reagieren zu können, müssen Entscheidungen getroffen werden, die auf fachlichem Wissen und Können basieren. Daher treten formale Hierarchien in solchen Fällen in den Hintergrund und legen die Entscheidungsgewalt in die Hände der Personen, die das notwendige Fachwissen oder Können besitzen (vgl. Weick et al, 1999).

4.2. Zusammenfassung

Auch die Anhänger der HRT vertreten die Auffassung, dass es in komplexen Arbeitssystemen immer zu Störungen, Zwischenfällen und Unfällen kommen wird. Allerdings widmen sich die Forschungen nicht ausschließlich einer retrospektiven Betrachtung von Fehlern. Vielmehr werden vor allem die proaktiven strukturellen, technischen und personenbezogenen Möglichkeiten betont, mit denen sich Fehler und deren Folgen eindämmen oder sogar verhindern lassen (vgl. Mistele 2007, S. 61f.). Mit dem Blick auf die Forschungsfrage dieser Arbeit wird ersichtlich, dass insbesondere die drei Begriffe

- Sicherheitskultur,
- Organisationales Lernen,
- Berichtssysteme für Beinahe-Unfälle (englischsprachig: Incident Reporting Systems)

wiederkehrend in den Grundsätzen der Hochzuverlässigkeitsorganisationen sind. Um diese Begrifflichkeiten und ihre Vernetzungen näher zu erläutern, folgt nun eine Exkursion in die Organisations- und Sicherheitsforschung.

5. Sicherheitskultur in Organisationen

Wie in den vorhergehenden Kapiteln bereits verdeutlicht wurde, ist die Betrachtung von Sicherheitsaspekten in Hochzuverlässigkeitsorganisationen oder ebenso in Organisationen Kritischer Infrastrukturen immer auch eine Betrachtung der Sicherheitskultur in den Organisationen. Dies ist insofern nachvollziehbar, als dass Sicherheit nicht nur die Gewährleistung von Arbeitssicherheit beinhaltet, sondern auch die Sicherheit des (soziotechnischen) Systems in die Betrachtung einzubeziehen ist. Somit umfasst Sicherheit das Funktionieren des Systems ohne größere Zusammenbrüche oder Schäden für die Organisation und die Umwelt. Sie ist ein kontinuierlicher Prozess, der aus dem Zusammenwirken von intra- und extraorganisationalen Faktoren entsteht, wie z.B. den Organisationsmitgliedern, der Technologie, den Strukturen oder den Regeln (vgl. Fahlbruch et al., 2012, S. 23).

5.1. Sicherheit, Safety- und Security-Kultur

Der Begriff „Sicherheit im Sinne der Sicherheitswirtschaft und Unternehmenssicherheit meint Sicher-Sein vor Gefahren und Risiken, die zu Schäden führen.“ (Hoppe/Stober 2010, S. 14). Dabei stellt eine Gefahr eine Sachlage dar, „die bei ungehindertem Geschehensablauf in absehbarer Zeit mit hinreichender Wahrscheinlichkeit zu einem Schaden an Rechts- und Schutzgütern führt“ (ebd.). Als Risiko wird der „mögliche, aber ungewisse zukünftige Eintritt eines beeinträchtigenden Ereignisses“ bezeichnet (ebd.).

Die englischen Begriffe safety und security werden im Deutschen zumeist unter dem Begriff Sicherheit zusammengefasst, obwohl sie sich gemäß ihrer Inhaltsbestimmungen tatsächlich unterscheiden. So beschreibt safety „den Bereich der Sicherheit, der sich mit natürlichem und technischen Gefährdungen sowie mit menschlichen Versagen befasst“ (Hoppe/Stober 2010, S. 19). Sicherheit im Sinne von security bezieht sich „auf die Gesamtheit der Maßnahmen zum Schutz von bewusst herbeigeführten Angriffen“ (Loroff 2011, S. 58). Beide Definitionen haben gemeinsam, dass sie von Risiken ausgehen, die auf menschlichen Fehlhandlungen basieren, wobei security Handlungen betrachtet, die willentlich durchgeführt werden, um Schaden anzurichten. Wie die folgenden Ausführungen zeigen werden, haben Safety- und Security-Kulturen als übergreifendes Ziel, Sicherheitsrisiken zu minimieren und können daher koexistieren und sich gegenseitig verstärken. Daher wird im weiteren Verlauf der Begriff Sicherheit synonym für safety und security verwendet.

5.2. Sicherheitskulturkonzepte

Die Einbeziehung nichttechnischer Sicherheitsaspekte von Organisationen in die Diskussionen und Analysen zur Sicherheit war nicht immer eine Selbstverständlichkeit. Tatsächlich wurde das Konzept der Sicherheitskultur erst Mitte der 1980er Jahre entwickelt und erlebt seitdem eine stetige Bedeutungszunahme (vgl. Rauer 2011, S.66). In der einschlägigen Literatur lassen sich verschiedene Beschreibungsversuche für die Wortschöpfung Sicherheitskultur finden. Die wenigen Modellansätze zur Sicherheitskultur beinhalten dabei sowohl beobachtbare Indikationen als auch psychologische Aspekte. Je nach Modell liegen die Schwerpunkte entweder auf der Entwicklung dieser Indikatoren oder auf der Identifikation der Grundannahmen. Fahlbruch, Schöbel und Marold (2012, S. 33) betonen jedoch, dass eine gezielte Optimierung von Sicherheitskultur beide Aspekte beinhalten sollte.

5.2.1. Organisationskultur

Die meisten Sicherheitskulturkonzepte basieren auf Ansätzen aus der Organisationskultur. Eine bedeutende Rolle in diesem Sektor kommt dem Organisationspsychologen Edgar H. Schein (1985) zu. In seinem Kultur-Ebenen-Modell (Abbildung 4) zeigt er drei Ebenen auf, die im bidirektionalen Zusammenhang stehen (vgl. Hinding/Kastner 2011, S. 23ff; Wiethof 2012, S. 13ff.).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Scheins Ebenen-Kulturmodell (1985) (eigene Darstellung; vgl. Hinding/Kastner 2011)

Artefakte und Schöpfungen umfassen alle sinnlich wahrnehmbaren Manifestationen einer Organisation. Neben jenen der Architektur, der eingesetzten Technologien, der Kleidung zählen hierunter auch die Sprache, die Rituale oder das Verhalten der Organisationsmitglieder. Werte sind ebenfalls sichtbar, auch wenn sie nicht direkt beobachtbar sind, sondern sich ausdrücken in beobachtbaren Verhaltensweisen basierend auf kollektiven Wertvorstellungen wie Philosophien, Zielen, und Standards, die im Unternehmen angestrebt werden. Grundannahmen bilden den Kern einer Organisationskultur. Sie enthalten für selbstverständlich gehaltene Überzeugungen und grundlegende Wertorientierungen, die von den Mitgliedern innerhalb der Organisation geteilt werden. Sie sind weniger leicht zugänglich, da sie tief im Denken der Organisationsmitglieder verankert sind und nur durch tief greifende Methoden erfasst werden können (vgl. Hinding/Kastner 2011, S. 23ff.).

Genauso wie der Begriff der Organisationskultur wird auch der Begriff der Sicherheitskultur durch seinen ganzheitlichen Anspruch auf vielfältige Weise definiert und hinterlässt somit eine gewisse Unschärfe. Nichtsdestotrotz bietet der bisherige Stand der Forschung genug Basis, um detaillierte Sicherheitskulturkonzepte zu entwickeln, von denen die bedeutendsten im Folgenden dargestellt werden.

5.2.2. Sicherheitskulturkonzept der INSAG

Im Jahr 1986 wurde der Begriff erstmalig durch die International Nuclear Safety Group (INSAG) der internationalen Atomenergiebehörde (IAEA) in ihrer Analyse des Reaktorunglücks von Tschernobyl der Öffentlichkeit präsentiert. Die bis dato verfügbaren Begriffe wie Risikoabschätzung, Gefahrenbewusstsein, Bedienungsfehler oder menschliches Versagen genügten nicht, um die Unfallursachen adäquat zu erklären. Zudem waren es keine technologischen Wissensdefizite, die den Unfall verursachten, war doch aus technischer und physikalischer Sicht bekannt, dass eine derartige Bedienung des Reaktors katastrophale Konsequenzen mit sich bringen würde. Um diese Lücke zu schließen wurden Wertvorstellungen, Normen, Fähigkeiten und Verhaltensmuster in die Untersuchungen einbezogen, die zu der Feststellung führten, dass erhebliche organisatorische Mängel zum Unfall beigetragen hatten (vgl. Rauer 2011, S. 69). Die INSAG bezeichnete dieses „kulturelle“ Problem zunächst als das „menschliche Element“. Erst in dem Report der INSAG von 1991 erfolgte dann eine erste Definition:

„Safety culture is that assembly of characteristics and attitudes in organizations and individuals which establishes that, as an overriding priority, nuclear plant safety issues receive the attention warranted by their significance.“ (INSAG 1991, Seite 4).

Sicherheitskultur wird in dieser Begriffsbestimmung als eine Ansammlung von Merkmalen und Einstellungen der Organisation und ihrer Mitglieder verstanden, die dafür Sorge tragen, dass die Sicherheit in kerntechnischen Anlagen als höchste Priorität die ihr angemessene Aufmerksamkeit erhält. Aufbauend auf ihrer 1991 vorgestellten Definition wurden drei Anforderungsebenen ausgearbeitet, deren Umsetzung eine wirkungsvolle Sicherheitskultur ausmacht (Tabelle 3).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3: Merkmale einer Sicherheitskultur nach INSAG 1991 (eigene Darstellung)

Auf der unternehmenspolitischen Ebene werden durch die Organisation selbst wie auch durch politische Aufsichtsorgane sicherheitsrelevante Rahmenbedingungen geschaffen, die den Organisationsmitgliedern eine sicherheitsorientierte Arbeit ermöglicht. Neben sicherheitspolitischen Programmen und Regulationen, betrifft dies ausreichende finanzielle und personelle Ressourcen sowie Sicherheitsmanagementsysteme. Auf der Managementebene werden die Verantwortlichkeiten der Manager bezüglich sicherheitsrelevanter Ereignisse beschrieben. Hierzu zählen typische Aufgaben wie etwa die Festlegung von Verantwortlichkeiten, gezielte Personalentwicklung in Form von Qualifikation und Trainings oder Sanktionen und Belohnungen. Die individuelle Ebene beschreibt den persönlichen Anteil aller am System mitwirkenden Personen. So wird von allen Mitarbeitern in der Organisation eine kritische, sicherheitsbewusste und kommunikative Grundhaltung gefordert. Dass die IAEA Sicherheitskultur als eine ganzheitliche Erscheinung versteht, zeigt sich zum einen durch die Einbeziehung aller Organisationsmitglieder. Insbesondere deren beobachtbare (characteristics) und psychologische (attitudes) Merkmale spiegeln die Wirksamkeit der Sicherheitskultur wider. Zum anderen wird diese Auffassung durch die Einbeziehung neuer Konzepte erweitert, wie etwa dem Aufbau einer Berichtskultur (vgl. INSAG-15 2002, S. 8) oder etwa dem Konzept der lernenden Organisation inklusive den unterschiedlichen Entwicklungsstufen der Sicherheitskultur (IAEA 1998, S. 9). In dem Sicherheitskulturmodell der INSAG wird gemäß Künzler fast ausschließlich auf sicherheitsrelevante Einstellungen und Grundannahmen Bezug genommen. Vernachlässigt wird der Aspekt, Sicherheit als integralen Bestandteil eines soziotechnischen Systems zu verstehen (vgl. Künzler 2002, S. 81)

[...]

Details

Seiten
107
Jahr
2013
ISBN (eBook)
9783656453383
ISBN (Buch)
9783656453802
Dateigröße
1.1 MB
Sprache
Deutsch
Katalognummer
v230021
Note
1.0
Schlagworte
incident reporting system instrument lernen erhöhung sicherheitskultur infrastrukturen

Autor

Teilen

Zurück

Titel: Das Incident Reporting System