Die vorliegende Arbeit befasst sich mit den Zielen und der Methodik der Risikoanalyse. Hierbei werden verschiedene Definitionen der Risikoanalysen einander gegenübergestellt und für die Analyse notwendige Ableitungen essentieller Parameter und Surogatparameter erläutert. Exemplarisch wird der Risikomanagementansatz des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe auf der unteren Katastrophenschutzeben aufgegriffen und es wird auf Limitierungen und Nutzen für den Anwender eingegangen. Ergänzend wird das Prinzip der Multirisikoanalyse skizziert, welches weit über die aktuell meistgebräuchliche Form der singulären Risikoanalyse hinausgeht und kaskadierende bzw. sequentielle Ereignise berücksichtigt.
Betrachtet man den Begriff der Risikoanalyse, wird deutlich, dass sie als essentieller Bestandteil der Katastrophenvorsorge begriffen wird und unterschiedliche Ansätzen und Methoden existieren. Dies liegt zum einen, je nach fachlichem Hintergrund, in der unterschiedlichen Definition des Begriffes als auch an den unterschiedlichen Disziplinen, die mit ihm arbeiten. Exemplarisch sei an dieser Stelle die naturwissenschaftliche Risikoanalyse erwähnt, die sich laut Heinimann neben Systemabgrenzung, Gefahrenanalyse in Expositions- und Folgenanalyse unterteilt. Formal lässt sich die Risikoanalyse nach Glade unterteilen in quantitative/ probalistische, qualitativ/ deterministische und semi- quantitative Verfahren. Erstere beschreiben die Wahrscheinlichkeit des Auftretens eines Ereignisses innerhalb eines Systems, während letztere Aussagen über relevante Ereignisketten darstellen und eine Abschätzung der Relevanz von Risiken erlaubt. Betrachtet man die Begriffe genauer, so können quantitative Risiken Werte auf eine Ratio- Skala und qualitative Risiken Werte auf einer Ordinal- Skala zugeordnet werden. Bei der Zuordnung von semi- quantitativen Risiken hingegen findet eine Kombination von quantitativen Angaben zu einer Zahl bzw. mehreren Zahlen zu einer qualitativen Kategorie statt. Die Aufgabe einer Risikoanalyse besteht darin, eine Bestandsaufnahme des aktuellen Wissens über Risiken als auch eine Bestandsaufnahme des fehlenden Wissens über Risiken zu generieren, diese im Verlauf zu beobachten und zu bewerten sowie entsprechende Maßnahmen hieraus abzuleiten.
Inhalt
1. Ziele und Methodik der Risikoanalyse
2. Risikoanalyse im Bevölkerungsschutz – Methode des BBK
3. Multirisikoanalyse
4. Fazit
5. Literaturverzeichnis
1. Ziele und Methodik der Risikoanalyse
Betrachtet man den Begriff der Risikoanalyse, wird deutlich, dass sie als essentieller Bestandteil der Katastrophenvorsorge begriffen wird und unterschiedliche Ansätzen und Methoden existieren. Dies liegt zum einen, je nach fachlichem Hintergrund, in der unterschiedlichen Definition des Begriffes als auch an den unterschiedlichen Disziplinen, die mit ihm arbeiten. Exemplarisch sei an dieser Stelle die naturwissenschaftliche Risikoanalyse erwähnt, die sich laut Heinimann et al (1998, S.12) neben Systemabgrenzung, Gefahrenanalyse in Expositions- und Folgenanalyse unterteilt. Formal lässt sich die Risikoanalyse nach Felgentreff u. Glade (2008, S. 35f.) unterteilen in quantitative/ probalistische, qualitativ/ deterministische und semi- quantitative Verfahren. Erstere beschreiben die Wahrscheinlichkeit des Auftretens eines Ereignisses innerhalb eines Systems, während letztere Aussagen über relevante Ereignisketten darstellen und eine Abschätzung der Relevanz von Risiken erlaubt (Teßmer 2012, S. 141 f). Betrachtet man die Begriffe genauer, so können quantitative Risiken Werte auf eine Ratio- Skala und qualitative Risiken Werte auf einer Ordinal- Skala zugeordnet werden. Bei der Zuordnung von semi- quantitativen Risiken hingegen findet eine Kombination von quantitativen Angaben zu einer Zahl bzw. eine Zahlen zu einer qualitativen Kategorie statt.
Die Aufgabe einer Risikoanalyse besteht darin, eine Bestandsaufnahme des aktuellen Wissens über Risiken als auch eine Bestandsaufnahme des fehlenden Wissens über Risiken zu generieren (Aven et al 2015, S. 4), diese im Verlauf zu beobachten (Monitoring) und zu bewerten sowie entsprechende Maßnahmen hieraus abzuleiten (Felgentreff u. Glade 2008, S. 234). „Sie ermöglicht es die für ein Bezugsgebiet (…) auf systematische Art und Weise das Schadensausmaß zu ermitteln, das bei Eintritt unterschiedlicher Gefahren zu erwarten ist und dient dazu, Risiken durch unterschiedliche Gefahren in anschaulicher Weise vergleichbar zu machen“ (Bundesamt für Bevölkerungsschutz und Katastrophenhilfe 2010, S. 15). Bei der Definition von Risiko soll hier auf die ingenieurswissenschaftlich- technische Definition zurückgegriffen werden:
Risiko= Eintrittswahrscheinlichkeit x Schadensausmaß
Formal beginnt die Risikoanalyse klassischerweise mit der Identifizierung von Risiken, die einem Objekt, im weiteren Schutzgüter, gegenüber stehen. Dieser Vorgang lässt sich sowohl für eine konkrete, alltägliche Gefahr wie die Überflutungsgefahr eines Wohngebietes als auch für eine abstraktere Gefahr wie potentielle Anschläge mit einer „schmutzigen Bombe“ oder ähnlichen anwenden. Die grundsätzlichen Überlegungen bleiben primär unverändert, erst im weitergehenden Prozess kommt es zu einer weiteren Differenzierung.
Nachdem im ersten Schritt Schutzgütern verschiedene Risiken und Gefahren gegenüber-gestellt werden, wird im zweiten Schritt jedem Risiko eine Ursache zugeordnet und die sich dann ergebenen Risikohäufigkeiten ermittelt. Das so gewonnene Risikoportfolio kann nun zur Beurteilung eines Handlungsbedarfs herangezogen und entsprechende Maßnahmen ergriffen werden (Deutscher Bundestag 17. Wahlperiode 2011, S.3).
Wird eine Risikoanalyse für ein System oder eine Gesellschaft durchgeführt, so sollte sie als kontinuierlicher Prozess begriffen werden, in dem die Prinzipien Identifikation, Analyse und Bewertung im Mittelpunkt stehen. Das Ziel ist -unabhängig von dem Gebiet, auf dem sie stattfindet - neben dem Aufdecken von Risiken und ihrer zugrundeliegenden Ursachen und in der Folge eine Risikoreduktion und damit eine verminderte Vulnerabilität des betrachteten Systems. Das Spektrum zu beachtender Aspekte (z.B. geologische) ist weit und deutet bereits die Komplexität des Feldes an (Felgentreff u. Glade 2008, S. 234f). Während der Prozess der Risikoanalyse ein wertneutraler Prozess ist, schließt sich die Risikobewertung und anknüpfend die Frage nach der Risikoakzeptanz an.
Nach dem Traffic light model werden unterschieden: Rot für unbedingt zu vermeidende und nicht hinnehmbare Risiken. Gelb für noch hinnehmbares Risiko, das im Rahmen der Möglichkeiten verringert werden muss. Grün für akzeptable Risiken, die keine weiteren Maßnahmen erfordern (vgl. IRGC 2005: 37f).
Um Wahrscheinlichkeiten und die Relevanz von Ereignissen auszudrücken, ist es notwendig beobachtete Einzelrisiken oder Ereignisse zur Veranschaulichung und Vergleichbarkeit einem definierten Zahlenwert zuzuordnen. In der Folge kann aus quantitativen oder qualitativen Messungen als Summe von verschiedenen Indikatoren ein Index gebildet, eine Rangliste von Risiken oder Eintrittswahrscheinlichkeiten erstellt und Veränderungen in einem System sichtbar gemacht werden. Erwähnenswert ist, dass es in der Sozialwissenschaft keine einheitliche Definition von Index gibt: wird einerseits die Zusammenfassung von mehreren Einzelindikatoren zu einer neuen Variable nach bestimmten Gesetzmäßigkeiten als Indexbildung angeführt, steht dem auf der anderen Seite die Zusammenfassung einer Funktion einer Zahlenreihe von miteinander in Bezug stehenden Einzelwerten gegenüber (Latcheva u. Davidov 2014, S. 745). Der Einfachheit soll auch im Weiteren von der ersten Definition ausgegangen werden.
Ein Index sollte nach Empfehlungen der OECD mehrere Dimensionen vereinen, die durch Einzelindikatoren nicht oder nur unzureichend abgebildet werden können und sinnvolle Aussagen zu einer Fragestellung liefern. Dieses setzt wiederum voraus, dass im Vorfeld Überlegungen zur Konstruktion von Indikatoren getroffen wurden: Was soll er wiedergeben und auf welcher Grundlage (Indikatoren, Datenmenge) geschieht dies? Sind die Indikatoren inhaltlich wie mathematisch sinnvoll gewählt? Messen sie das, was sie vorgeben und lässt sich dies auf den Index übertragen? Ist eine statische Aufarbeitung von Daten nötig und mit welchen Methoden sollte diese durchgeführt werden bzw. ist sie durchgeführt worden? (vgl. hierzu OECD 2008).
Betrachtet man die Konstruktion von Indikatoren und die von ihnen abgeleiteten Indizes, so wird sich die Frage stellen, ob die genutzten Daten statischen Ansprüchen (Menge, Robustheit, Sensitivität und Spezifität usw.) genügen. Alleine die Datenqualität kann je nach Ursprung divergieren, da verschiedene Quellen auch verschiedene Qualitätsmerkmale haben können (vgl. Deutsche Gesellschaft für Internationale Zusammenarbeit 2014). Im Weiteren stellt sich die Frage, ob die Zusammenführung von Indikatoren zu einem Index sinnvoll ist und ob er die Information liefert, die er vorgibt. Sollten Unsicherheiten bestehen, gibt es die Möglichkeit der Zerlegung des Index in die Untereinheiten Indikator und darunterliegende Zahlenmenge. Mathematischen Konstruktionsmethoden (z.B. Gewichtung, Varianz) und die Validierung der Daten sollten kritisch hinterfragt werden. Insbesondere die Gewichtung der Daten und ihre Form (empirische Belege, Expertenmeinung) können Einfluss auf Daten haben, die zur Indikatoren- und Indexbildung genutzt werden und ggf. eine falsch Objektivität vortäuschen. Wo Daten fehlen, z.B. weil Ereignisse sehr selten auftreten oder noch nie aufgetreten sind, erfolgt meist eine Einschätzung von Experten oder das Ableiten entsprechender Daten über Surrogatparameter. Sie unterliegen dann immer einer Ungewissheit und Fehlerquellen und können durch die Auswahl ungeeigneter Surrogatparameter unbrauchbar gemacht werden.
Ziel von Index und Indikator ist die Zusammenfassung komplexer, oft mehrdimensionaler Daten unterschiedlicher Einheiten zu einer mathematisch nachvollziehbaren und prägnanten Aussage, die in Form einer dimensionslosen Zahl dargelegt und reproduziert werden kann. Durch die Abstraktion verschiedener Dimensionen besteht eine leichtere Interpretations-möglichkeit insbesondere für Laien, was jedoch auch eine Gefahrenquelle beinhaltet. Bei schlechter Datenqualität oder zu hohen Abstraktionsgrad, steht am Ende unter Umständen ein Aussage, die falsch oder nicht sinnvoll interpretiert werden kann. Ist kein Wissen über die Bildung von beiden vorhanden, so kann einer Fehlinterpretation kaum entgegengewirkt und die Aussagekraft nicht beurteilt werden. Auch besteht in diesem Fall die Möglichkeit der Manipulation. Gerade die Vereinfachung von komplexen Fakten kann dazu führen, dass einfache Lösungen für komplexe Probleme angestrebt werden. Ein weiterer Nachteil ist, dass Einflussfaktoren, die zu größeren Änderung von Indikator und somit auch Index führen können, in der Summe der Einzelwerte untergehen und somit keine ausreichende Beachtung finden können. Beispielsweise wäre denkbar, dass mehrere kleinere Einflussfaktoren Indikator und Index genauso beeinflussen wie ein gewichtigerer Einzelfaktor. Dies kann bei Unkenntnis des Prozesses unentdeckt bleiben und –übertragen auf soziale, politische oder naturwissenschaftliche Prozesse- zu gewünscht manipulierten Ergebnissen führen.
Geht man davon aus, dass Zahlenbasis, Indikatoren und Index gut gewählt, aufbereitet und korrekt gebildet wurden, so besteht ein großer Vorteil darin, dass komplexe Verhältnisse ohne Informationsverlust im zeitlichen Ablauf immer wieder erfasst und Änderungen nach-vollzogen werden können. Sie können als Grundlage für Vorsorgemaßnahmen und zur Reevalutationen eines Systems genutzt werden. Kerninformationen können übersichtlich und verständlich mit allen darunterliegenden Teilinformationen wiedergegeben und somit Ressourcen beim Adressaten eingespart und die Aufmerksamkeit gefördert werden. Außerdem wird so die optische Aufbereitung von Daten vereinfacht. Anwendung findet dies unter anderen im Bereich des Katastrophenschutzes und -managements in der sogenannten Risikomatrix, die sich auf internationaler Ebene zur Bewertung von Gefahren durchgesetzt hat.
2. Risikoanalyse im Bevölkerungsschutz – Methode des BBK
Der Mehrwert des Risikomanagementansatzes des BBK auf unterer Katastrophenschutzebene wird im Folgenden erläutert und auf die Limitierungen sowie den Nutzen für den Anwender eingegangen. Vorweg wird die Methode skizziert.
„Ziel der Risikoanalyse im Bevölkerungsschutz ist die vergleichende Gegenüberstellung verschiedener Risiken durch unterschiedliche Gefahren in einer Risikomatrix als Grundlage für alle Planungen im Bevölkerungsschutz“ (Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, 2015, S. 21). Um diesen Anspruch gerecht zu werden, wird ein komplexes Vorgehen verfolgt, welches organisatorische Vorarbeit und die Planung eines konkreten Szenarios beinhaltet. Hier werden eine Gefahr und ein Ereignis in einer definierten räumlichen Ausbreitung betrachtet. Einer der Vorteile dieser Methode besteht darin, dass man aus einem exemplarisch durchgeführten Szenario Rückschlüsse auf die Bewältigungskapazität der allgemeinen Gefahrenabwehr und des Katastrophenschutzes ziehen kann. Es gilt diese an die Leistungsfähigkeit Ihrer Kapazitäten zu bringen, so dass entsprechende Defizite und Stärken ausfindig gemacht werden und entsprechende Lehren gezogen werden können. Das BBK hat zur Durchführung verschiedener Ereignisse und ihrer Zielsetzungen entsprechende Hinweise ausgegeben, auf die hier nicht näher eingegangen werden soll (Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, 2015, S. 23f).
Da pro Szenario die Auswirkung auf verschiedene Schutzgüter gemessen werden soll, müssen sie und Schadensparameter für diese definiert werden. Sie sollten eindeutig, differenziert und relevant gewählt werden, da eine zu große Auflösung weder ökonomisch erscheint noch zwangsläufig eine höhere Erkenntnis bringt, jedoch den Aufwand der Auswertung erhöht und die Sinnhaftigkeit der Aussage in Frage stellt. Erst danach kann ein konkretes Szenario entworfen und durch die Parameter Intensität, Zeitpunkt und Dauer, Verlauf und Vorwarnzeit sowie ggf. Referenzereignisse und Zusatzinformationen ergänzt werden (Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, 2015, S. 41 ff). Wo Daten fehlen oder keine Referenzereignisse vorliegen, kann ggf. auf eine Expertise von Fachleuten zurückgegriffen und die Plausibilität geschätzt werden (Schweizer Bundesamt für Bevölkerungsschutz BABS, 2015, S. 16). Danach erfolgt die Einschätzung der personellen und materiellen Bewältigungskapazität (SOLL- Ressourcen) und es wird das Szenario durchgespielt. Nach Beendigung erfolgt eine Auswertung und der Vergleich mit dem aktuellen Zustand im Szenario (IST- Ressourcen) und es sollten, auf freiwilliger Basis, Konsequenzen aus dem Szenario gezogen werden.
Im Anschluss an die inhaltliche Auswertung bietet sich die graphische Aufbereitung der Ergebnisse, z.B. in einer Risikomatrix an, welche nicht nur dem internationalen Standard (ISO 310010 (2009)) entspricht, sondern auch der Übersichtlichkeit und Veranschaulichung von Graduierungen diverser Gefahren dient. Hierbei wird ein Schadensausmaß auf der x- Achse (Abszisse) eine Schadenswirkung auf der y- Achse (Ordinate) zugeordnet. Beispielhaft für die Verwendung seien das London Risk Register oder der technische Risikobericht der Schweiz erwähnt. Insbesondere für Nichtexperten (Bürger, Entscheidungsträger) bietet diese Darstellung den Vorteil, dass eine leicht nachvollziehbare Zuordnung von Schadenspotential und Eintrittswahrscheinlichkeit geschaffen werden kann. Analog zur Darstellung der Schäden kann eine Darstellung des SOLL- IST- Vergleichs in einem Balkendiagramm erfolgen, wobei die Darstellung der Fähigkeitsschwelle, d.h. die maximale Kapazität aller beteiligten Kräfte zur Bewältigung eines Schadensfalles, einen raschen Überblick über vorhandene oder defizitäre Bewältigungskapazitäten zeigt (Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, 2015, S. 75- 79).
[...]