Erosion von Sicherheit und Vertrauen – Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft II

Kraftwerk_01b.jpgDie Pannenserie in den Kernkraftwerken von Brunsbüttel und Krümmel illustriert eindrücklich, daß sich im routinisierten Betrieb von hochriskanten Technologien oftmals Nachlässigkeiten einschleichen, die im Ernstfall hochbrisante Folgen haben können. Wenn sich dann noch herausstellt, daß seitens der Kernkraftwerksbetreiber eine Informationspolitik praktiziert wird, die nicht im mindesten den Anforderungen an eine zeitgemäße Risikokommunikation gerecht wird, drängt sich tatsächlich die Frage auf, ob unter diesen Umständen die Fortführung des Betriebs durch Vattenfall und Co. zu rechtfertigen ist.

Die Frage, welche Rolle die Kernenergie zukünftig spielen soll, soll hier aber nicht weiter interessieren. Denn abgesehen von den technisch-betrieblichen Unzulänglichkeiten hat sich ein eklatantes Unvermögen im Hinblick auf die dringend gebotene Risikokommunikation offenbart. Auch hier waren Amateure am Werk. Die Folgen der Blockade- und Verzögerungsstrategie der angeblichen Kommunikationsprofis sind seit einigen Tagen ebenfalls zu besichtigen: neben den Chefs der Informations- und Atomsparte (Altmeppen und Thomauske) mußte inzwischen sogar Vattenfall-Europe-Chef Klaus Rauscher seinen Hut nehmen.

Nun könnte man freilich fragen, ob deren Demission nicht überzogen ist, denn schließlich könnten die fraglichen Personen ja aus Schaden klug werden und in Zukunft andere Maßstäbe anlegen. Außerdem, so ließe sich möglicherweise argumentieren, wird der Stellenwert der Kommunikationsbemühungen ohnehin überschätzt: denn haben wir uns nicht alle längst daran gewöhnt, daß unsere technisch-industrielle Zivilisation von selbsterzeugten Gefahrenquellen umgeben, um nicht zu sagen: umzingelt ist? Lebt es sich also nicht ganz wunderbar im Horizont universaler Unsicherheit?

Mit genau diesen Zusammenhängen, nämlich in welchem Sinne der Faktor „Unsicherheit“ geradezu nach effizienten Strukturen des Risikomanagements (wovon Risikokommunikation ein elementarer Bestandteil ist) schreit, werden sich die folgenden Artikel der Wissenswerkstattserie zur Risikokommunikation befassen. Zunächst soll skizziert werden, wie zentral der Topos „Sicherheit“ innerhalb moderner Gesellschaften ist. Denn wenn in der Handhabung von riskanten Technologien erst einmal Unsicherheitsspielräume sichtbar werden, so handelt es sich dabei um Folgeerscheinungen von Wissenslücken („gaps of knowledge“), im weiteren Verlauf führt dies fast unweigerlich zur Erosion von Vertrauen („gaps of trust“); unter solchen Randbedingungen ist Risikokommunikation unverzichtbar und der einzige Weg, um überhaupt mit Hochrisikotechnologien und anderen Gefahrenquellen umzugehen. Aber der Reihe nach…

Möglicherweise zeichnen sich moderne Gesellschaften nämlich genau dadurch aus, daß sie gelernt haben, innerhalb eines gewissen Umfangs Überraschungen zu tolerieren. Zwar ist es zweifellos immer noch zutreffend, die  „Suche nach Gewißheit“ („quest for certainty“, vgl. Dewey 1929) als quasi-anthropologische Konstante zu verstehen, jedoch heben einzelne unerwartete Ereignisse die Welt keineswegs mehr aus ihren Angeln.

Einerseits ist also der Versuch – wie bereits Max Weber konstatiert – „alle Dinge im Prinzip durch Berechnung beherrschen zu können“ (Weber 1922: 594) als wesentliches Element einer kollektiven kognitiven Infrastruktur der Moderne anzusehen. Andererseits hat die Gesellschaft gelernt, mit Unsicherheiten umzugehen und  Mechanismen entwickelt, die Unsicherheitsmomente auffangen und handhabbar machen (allen voran das Risikokalkül.)1
Dabei ist eines klar: universale Gewißheit (in sachlicher, wie zeitlicher Hinsicht) ist niemals erreichbar. Je weiter sich die Gesellschaft ausdifferenziert und ihre Kenntnisse und Fertigkeiten vorantreibt und je weiter in die Zukunft heutige Entscheidungen in ihren Folgewirkungen hinausreichen, desto komplexer ist das Feld in dem sie agiert. Die Herausforderung vor der jede fortgeschrittene Industriegesellschaft steht, beinhaltet aus diesem Grund im wesentlichen drei Dimensionen.

1.) Die Notwendigkeit verläßliches Wissen herzustellen,
2.) auf dessen Basis (v.a. technologische) Anwendungen zu implementieren (erfordert legitime Anwendungszwecke und gesellschaftliche Akzeptanz) und
3.) die Folgen der Eingriffe in Gesellschaft und Natur zu bearbeiten/zu kompensieren.

Dabei lässt sich die erste Dimension im wesentlichen als Sachdimension charakterisieren: hier ist schlicht die Funktion von Wissenschaft und Forschung angesprochen, hinreichend gesicherte Erkenntnisse über die Gesetzmäßigkeiten und Zusammenhänge der (natürlichen und sozialen) Umwelt zu generieren. Die Wissenschaft (so auch ihre wesensmäßige Aufgabe) fungiert als Wissensproduzent. Ihre Zielsetzung dabei ist Sicherheit. Die Problematik hierbei ist, daß sich avancierte wissenschaftliche Erkenntnisse immer weniger auf unmittelbare Erfahrung stützen können (Kuhn 1973, Knorr-Cetina 1984, Latour 2000). Zudem ist es schwieriger denn je (anbetrachts hochkomplexer Gegenstände und vielfältiger möglicher Wechselwirkungen), das Wissen hinreichend zu überprüfen. Modellannahmen, Laborexperimente und Tierversuche müssen oftmals genügen, um dann bereits den ‚Ernst- und Anwendungsfall’ zu erproben (vgl. Krohn/Weyer 1990).

Das Paradox der fortgeschrittenen Wissensgesellschaft – ‚gaps of knowledge‘

In der Folge kann Wissenschaft in immer geringerem Maße eine Gewährleistung für die Zuverlässigkeit/Validität ihrer Ergebnisse geben (Chalmers 1999, Lerf/Schuberth 2004). Hier hat sich also ein offensichtliches Unsicherheitsmoment (‚gap of knowledge’) in die wissenschaftliche Wissensproduktion eingenistet. Die Selbstverständlichkeit, mit der sie gültige Aussagen über Sachverhalte lieferte, ist dahin. Zwar bleibt die institutionalisierte und kanonisierte Wissenschaft (auch im Verständnis der Öffentlichkeit) der zentrale Ort der gesellschaftlichen Wissensproduktion; die quasi naturwüchsige Gewißheit ist allerdings einer latenten Unsicherheit im Hinblick auf die Gültigkeit ihrer Aussagen gewichen.

Unsicherheit in dieser ersten (Sach-)Dimension berührt also die Zahlen, Daten und Fakten, die als Grundlage für technologisches Handeln dienen. Mögliche positive oder negative Effekte wirken dann jedoch auf die Gesellschaft insgesamt und schlagen sich als Vertrauen resp. Mißtrauen nieder, womit die dritte Dimension als Sozialdimension markiert ist.

Vertrauen ist als diejenige Erwartung zu charakterisieren, daß bestimmte Annahmen bezüglich einer ungewissen Zukunft in Erfüllung gehen (Luhmann 1989, Gambetta 2000). Hierbei ist klar: solange gegenwärtige Handlungen und Entscheidungen in der Zukunft die erwünschten und erwartbaren Folgen hervorbringen, bleibt die Vertrauensbasis unberührt und stabil. Mit jedem Unfall innerhalb einer Industrieanlage und mit jedem Medikament, dessen Einnahme unvorhergesehene Nebenwirkungen hervorruft, wird dieses Vertrauen jedoch in Frage gestellt.

Im Falle von risikobehafteten Technologien wird Vertrauen von Verbrauchern und Anwendern, einerseits der Wissenschaft (bzgl. deren Kompetenz), andererseits der Industrie und Politik (bzgl. deren Handlungsfähigkeit, Weitsicht und Fairness) entgegengebracht. Stellt sich allerdings wissenschaftlich autorisiertes Wissen als Irrtum heraus und wird gar offenbar, daß Wirtschaft und/oder Politik relevante Informationen bezüglich des Risikopotentials nicht angemessen mitgeteilt oder gar wissentlich verschwiegen haben, wird das Vertrauen von direkt oder indirekt betroffenen Bürgern massiv enttäuscht. Unvermeidliche Wissenslücken (‚gap of knowledge’) führen also, wenn die Risikokommunikation nicht transparent gestaltet wird, im Ergebnis zu einer Erosion des Vertrauens (‚gap of trust’). 

Notwendige Infrastruktur einer technologisierten Gesellschaft: transparent-dialogische Risikokommunikation

Der einzige Weg, um das noch näher zu skizzierende Vertrauen von Öffentlichkeit und ‚stakeholdern’ aufrechtzuerhalten, zu stabiliseren oder wiederzuerlangen, ist eine am Dialog orientierte Risikokommunikation (vgl. Risikokommission 2003: 54ff.). 

Wie skizziert, stellen also die Sicherheit, über verläßliches (wissenschaftliches) Wissen zu verfügen, und das Vertrauen der Öffentlichkeit die beiden notwendigen Bedingungen für technologisches Handeln dar. In der Anwendung verzahnen sich Sach- und Sozialdimension; bei der Implementation von Technik kommen Sicherheit und Vertrauen gleichermaßen zum Tragen.

Und just dann, wenn diese beiden Fundamente gefährdet sind, präsentiert sich die Gesellschaft als reflexive Risikogesellschaft. Denn umfassende und vollständige Sicherheit ist für modernes Handeln (das ja immer einen Eingriff in komplexe Systeme meint, vgl. Perrow 1987, Dörner 1992, Gephart 2004) nicht denkbar. Und umgekehrt geht alles Handeln gleichzeitig notwendigerweise mit der Produktion von Unsicherheit einher.

Ob und in welchem Maße diese selbst fabrizierten Unsicherheiten von betroffenen Bürgern akzeptiert werden, ist dann allein von der Art und Weise des ‚risk management’ abhängig, das während all seiner Phasen vertrauensstabilisierende- und generierende (Risiko-)Kommunikationsformen beinhalten muß.

Dabei ist Risikokommunikation – um dies nochmals zu betonen – kein Nebenaspekt innerhalb des Risikomanagementprozesses, sondern dessen integraler Bestandteil. Der Information, Einbindung und Partizipation von ‚stakeholdern’ erst dann Beachtung zu schenken, wenn die anderen Aufgaben der Risikobewertung und -regulation abgeschlossen sind, gefährdet den Prozeß insgesamt. Es ist also unabdingbar, die zentrale Bedeutung einer gelingenden Risikokommunikation anzuerkennen. 

Die spezifische Problematik von ‚Unsicherheit’ und ‚Mißtrauen’ im Zusammenhang mit risikoträchtigem Handeln allgemein und im Bezug auf ‚Risikokommunikation’ im Besonderen, soll in den nächsten Tagen eingehender dargestellt werden.

 


Literatur:

Chalmers, Alan F. (1999): Grenzen der Wissenschaft. (orig. ‚Science and its Fabrication‘, 1990). Berlin, Heidelberg: Springer Verlag.

Dewey, John (1929): The Quest for Certainty. Study of the relation of knowledge and action. New York: Minton Balch and Co.

Dörner, Dietrich (1992): Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. Reinbek: Rowohlt.

Gambetta, Diego (2000): Trust: Making and Breaking Cooperative Relations. Univ. Oxford – Department of Sociology.

Gephart, Robert P. (2004): Normal Risk. Technology, Sense Making and Environmental Disasters, in: Organization & Environment, 17. Jg. (Nr.1), S. 20-26.

Knorr-Cetina, Karin (1984): Die Fabrikation der Erkenntnis. Frankfurt a.M.: Suhrkamp.

Krohn, Wolfgang & Weyer, Johannes (1990): Die Gesellschaft als Labor. Risikotransformation und Risikokonstitution durch moderne Forschung, in: Halfmann, Jost & Japp, Klaus Peter (Hg.), Riskante Entscheidungen und Katastrophenpotentiale. Elemente einer soziologischen Risikoforschung. Opladen: Westdeutscher Verlag, S. 89-122.

Kuhn, Thomas S. (1973 [1962]): Die Struktur wissenschaftlicher Revolutionen. Frankfurt a.M.: Suhrkamp.

Latour, Bruno (2000): When things strike back: a possible contribution of ’science studies‘ to the social sciences, in: British Journal of Sociology. Special Issue: Sociology facing the next Millenium,
51. Jg. (Nr.1), S. 107-123.

Lerf, Anton & Schuberth, Erwin (2004): Komplexe Systeme: Wo das Wissen der Naturwissenschaft an Grenzen stößt, in: Böschen, Stefan / Schneider, Michael & Lerf, Anton (Hg.), Handeln trotz Nichtwissen. Vom Umgang mit Chaos und Risiko in Politik, Industrie und Wissenschaft. Frankfurt/Main, New York: Campus, S. 211-236.

Luhmann, Niklas (1989): Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität. Stuttgart: Enke.

Perrow, Charles (1987): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. New York; Frankfurt/Main: Campus.

Reith, Gerda (2004): Uncertain Times. The notion of ‚risk‘ and the development of modernity, in: Time & Society, 13. Jg. (Nr.2/3), S. 383-402.

Risikokommission (2003): Ad-hoc-Kommission ‚Neuordnung der Verfahren zur Risikobewertung und Standardsetzung im gesundheitlichen Umweltschutz der Bundesrepublik Deutschland.‘ Abschlußbericht der Risikokommission im Auftrag des Bundesministeriums für Gesundheit und Soziale Sicherung und des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit. Salzgitter: Geschäftsstelle c/o Bundesamt für Strahlenschutz.

Weber, Max (1922): Wissenschaft als Beruf, in: Winckelmann, Johannes (Hg.), Max Weber: Gesammelte Aufsätze zur Wissenschaftslehre. 6. Aufl., 1985. Tübingen: J.C.B. Mohr.

 
 


Artikelserie der Wissenswerkstatt zur Risikokommunikation:

1. Vom Störfall zum Kommunikations-GAU » Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft I

2. Erosion von Sicherheit und Vertrauen » Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft II

3. Wenn Sicherheit fragil wird » Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft III

4. Vertrauen als gefährdete Ressource » Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft IV

 


 

Linktipps:

Literaturempfehlungen:

 

  1. „Probability theory was able to quantify potential risks because, in a world governed by causal relations, sufficient knowledge of relevant factors made the uncertainties of the future estimable.” (Reith 2004: 389f.) []

4 Gedanken zu „Erosion von Sicherheit und Vertrauen – Risikokommunikation in einer sensibilisierten Nebenfolgengesellschaft II“

  1. Die Weltrisikogesellschaft habe ich – wie ich gestehen muß – bislang nicht gelesen. Werde ich aber bei Gelegenheit nachholen; grundsätzlich hat sich am Kern der beck’schen Thesen seit den 80er Jahren aber nichts geändert, wenn es um die Selbstgefährdung industrieller Gesellschaften geht. Die ambivalente Haltung zu Risiken ist konstant geblieben und die Risikoverteilung (so ja eine der Feststellung von Beck anno 1986) überlagert und relativiert andere soziale Verteilungsmuster (soziale Ungleichheit etc.). Aber Danke für den Hinweis bzw. die Erinnerung daran, mich hier auf den neuesten Stand zu bringen.

    Antworten

Schreibe einen Kommentar