Note de recherche IFRIS N°4: F. Dedieu, La gestion des grandes catastrophes

La gestion des grandes catastrophes, des évènements imprévisibles ?

François Dedieu

Note de recherche de l’IFRIS N°4,  Octobre 2015

 

 

La gestion des grandes catastrophes : qui sont les coupables ?

Après une grande catastrophe, des questions reviennent sans cesse : qu’est ce qui n’a pas fonctionné ? Qu’est-ce qui peut être amélioré à l’avenir ? La gestion de l’ouragan Katrina à la Nouvelle Orléans en 2005 illustre parfaitement cette tendance. Après l’événement, l’éditorial du New York times titrait « une catastrophe provoquée par l’homme » tout comme le rapport du congrès américain au titre explicite d’un « Echec de l’initiative» se livraient à une critique radicale des autorités fédérales en soulignant notamment la lenteur des interventions de secours. En France, la gestion de la Canicule de l’été 2003 a également permis de relever les carences du système de prévention des risques sanitaires à identifier les risques de déshydratation provoqués par des températures aussi élevées sur la santé des personnes âgées alors même qu’il existait des signes énonciateurs du danger. Le rapport d’expertise dirigé par Françoise Lalande (2003) précisait que « les connaissances épidémiologies étaient disponibles au moment de la crise » considérant par la même que « le risque était envisageable ».

En somme, on explique toujours la catastrophe à partir de « ce qui n’a pas fonctionné » et donc qui « aurait pu mieux fonctionner ». Cette tendance aujourd’hui dominante mérite d’être interrogée par les travaux de sciences sociales. Plutôt que de reconstruire les causes a priori, c’est-à-dire une fois l’événement passé, les sciences sociales s’attachent à comprendre le déroulement des faits en inversant se plaçant « dans » la situation de façon à comprendre quelles sont les contraintes auxuquelles les acteurs font face dans de telles situations. C’est l’objet de l’ouvrage de François Dedieu, sur la tempête de 1999 (2013). En prenant appui sur une des dernières grandes catastrophes que la France ait connue, la tempête du 27 décembre 1999, le sociologue s’attache à comprendre comment l’alerte métérologique a été donnée et comment les secours sont parvenus à s’organiser au cours de cette épisode. Si l’ouvrage s’appui sur ce cas particulier, l’analyse proposée permet de tirer des grandes leçons plus générales qui peuvent être appliquées à des catastrophes plus récentes. Ces leçons sont doubles : il est montré que la catastrophe nait d’une part d’un concours de circonstances ce qui relativise fortement la notion de « faute ». D’autre part, ces événements soulèvent des problèmes structurels fondamentaux qui donnent lieu à un débat sur le « coût » de la sécurité des citoyens. Enfin, et compte tenu de ces éléments, on peut se poser plus largement la question du caractère inévitable des catastrophes.

Les catastrophes, un enchaînement de circonstances défavorables 

Les catastrophes naissent d’un enchaînement de circonstances défavorables qui sont liées aussi bien à la dynamique propre du phénomène naturel qu’aux réponses qui lui sont apportées en terme de prévention et de gestion de l’urgence. Par exemple, la formation des tempêtes repose sur une combinaison d’éléments physiques dynamiques (températures, pressions, vitesse du courant Jet) qui explique pourquoi, à chaque épisode, elles suivent une trajectoire et une force qui leur confère un potentiel destructeur toujours particulier. Ceci explique par exemple et en premier lieu, les différences de dégâts provoquées par les tempêtes Klaus (janvier 2009) et Xynthia (février 2010) qui ont touché la France à un an d’intervalle. Alors que la tempête Xynthia était, d’une moindre intensité, que Klaus et que les deux tempêtes de 1999, elle a occasionné un plus grand nombre de victimes[1] en raison d’une submersion particulièrement meurtrière sur les côtes du Sud-Ouest. Or, si Xynthia a été aussi meurtrière, c’est en raison d’une conjonction exceptionnelle d’une baisse des pressions avec un fort coefficient de marée ainsi que les fortes houles qui sévissaient, ce soir là. D’un autre côté, le contexte social aggrave plus ou moins les conséquences de ces phénomènes extrêmes. Prenons le cas de la tempête du 27 décembre 1999. Dans la matinée du 27, l’alerte météorologique avait bien été donnée et selon des seuils exceptionnels (des vents de 10km/h). Pourtant, si les acteurs de la sécurité civile n’ont pas réellement crus à cette alerte, c’est parce qu’ils s’y étaient accoutumés en raison d’une répétition de « fausses » alertes « tempête » émises ce mois de décembre. Accoutumés à ce type d’annonce, les acteurs ont vu dans la tempête annoncée un épisode comme ils en ont l’habitude de vivre au mois de décembre.

Cette conjonction de circonstances défavorables permet de penser qu’un phénomène physique comparable entraînera des conséquences toujours particulières dans une société donnée Ainsi, une tempête aussi puissante que celle du 27 décembre 1999 aurait aussi bien pu n’entraîner qu’un seul sinistre d’envergure si l’enchaînement de la série d’incident avait trouvé une issue plus favorable : cet épisode n’aurait surement pas autant marqué les esprits si le embruns marins n’avaient pas fait disjoncter le poste source d’EDF, entrainant en Charente Martime une coupure généralisée d’électricité et ses conséquences imprévues (interruption du trafic SNCF, coupure du réseau de distribution d’eau etc.). On peut inversement, penser qu’elle aurait été encore plus grave si les deux pompes de refroidissement de la centrale du Blayais s’étaient interrompues, entrainant par la même une fusion du cœur nucléaire, l’accident le plus grave. On n’ose imaginer les proportions qu’aurait pris cet événement si la submertion avait conduite à l’explosion de la centrale nucléaire du Blayais en Gironde. Il ne s’agit pas ici de se perdre dans des projections invérifiables mais de souligner la grande précarité de la chaîne de défaillance qui explique pourquoi un même phénomène n’engendrera jamais les mêmes conséquences. Comment dès lors parler « d’erreurs » ou « mauvaises décisions » alors même que cette conjonction de circonstances défavorables viennent contrecarrer les efforts des pouvoirs publics à maîtriser les conséquences de l’évènement ? Cela ne signifie pas qu’il ne peut pas exister des erreurs ou des négligences commises à ces occasions, mais il semble que l’imputation en responsabilité à la suite des catastrophes succombe souvent à une illusion rétrospective qui vise à expliquer les causes de la catastrophes, à partir de ses conséquences dommageables.

Mettre en place une « vraie » alerte météorologique : combien cela coûte ?

Mais ces catastrophes soulèvent aussi des problèmes lourds qui touchent à l’organisation même de notre société. Prenons comme exemple le système d’alerte Météorologique, sensé prévenir les phénomènes météorologiques extrêmes. Après les tempêtes de 1999, la procédure d’alerte a été réformée dans le but d’avertir directement les populations. Le système d’alertes par couleur a apporté des progrès indéniables et semblait avoir prouvé son efficacité après la tempête Klaus de janvier 2009. Mais Xynthia puis Dirk aujourd’hui le questionne de manière brutale : en 2010, les consignes accompagnant l’alerte rouge n’ont pas suffi à prévenir les effets de la submersion, voire les auraient aggravées puisqu’une des recommandations était de se calfeutrer. A la suite de la grande tempête Dirk qui a touché la Bretagne en décembre 2013, le ministre de l’intérieur Manuel Vals, reconnaissait qu’il y avait eu une « erreur d’appréciation » dans l’émission des seuils d’alerte. Pourquoi l’alerte météorologique est-elle souvent prise de court ? Pou le comprendre il faut avoir à l’esprit que ce système confond vigilance et alerte : si un régime de vigilance induit seulement l’attention, l’alerte renvoie à la décision et à l’action. L’émission d’un bulletin d’alerte de Météo France n’entraîne pas de mesures préventives prédéfinies. Ce flou opérationnel s’explique en premier lieu par les incertitudes inhérentes de la prévision météorologique qui, si elle gagne continuellement en précision, ne peut anticiper finement les phénomènes climatiques violents. Reposant sur la modélisation de la dynamique des fluides, la prévision météorologique ne peut que donner des tendances qui sont toujours susceptibles d’évoluer. Ainsi, dans l’épisode Xynthia, les prévisionnistes avaient annoncé les rafales violentes et les submersions probables mais pas la conjonction d’une chute de pression et d’un coefficient de marée exceptionnel. Face à ces incertitudes, il est très difficile pour la sécurité civile de mettre en œuvre systématiquement des mesures préventive adéquates. Un bulletin d’alerte rouge n’oblige pas réellement la sécurité civile à l’application de mesures préventives coercitives type évacuation. Il est seulement prévu que les autorités locales avertissent la population et que les secours se préparent à l’événement (cellules de crise, vérification du matériel…). A cette incertitude, s’ajoute celle de la réaction des populations qui est mal connue lorsque ces alertes sont données. Face aux avis de tempêtes de 1999, de 2009, de 2013 les comportements furent hétérogènes, dépendant de nombreux paramètres tels que la mémoire du risque. Les pouvoirs publics pourraient appliquer des mesures préventives contraignantes.

 

Ainsi, on ne peut pas réellement parler d’alerte météorologique quand la réaction attendue de la population est imprévisible et que les secouristes sont confinés, pour l’essentiel, à attendre que l’événement se produise pour agir. Mais, à supposer que ces aléas aient été anticipés, les autorités auraient été contraintes d’improviser : comment organiser l’évacuation la nuit sans éviter la panique ? Où reloger les gens dans l’urgence ? S’ouvre alors le débat complexe de l’action préventive dans un contexte d’incertitude. Par exemple, des évacuations systématiques devraient intégrer les coûts liés aux fausses alertes, qui exposeront les pouvoirs publics à de fortes critiques (cf. la polémique sur la gestion de la grippe A). Ce dilemme rend la décision publique trop dépendante des crises précédentes : la canicule de 2003 a pesé sur la gestion de la grippe A, tout comme Klaus avait rassuré la sécurité civile sur sa capacité à maîtriser les tempêtes. Pour sortir de cette logique, les citoyens doivent accepter l’incertitude et en intégrer les divers coûts aussi bien financiers, liés à la sécurité des citoyens (quels sont les risques de panique et donc de blessés à craindre lors des évacuations préventives ?) ou encore à la responsabilité (qui endosse la responsabilité de l’ordre d’évacuation ?). Mais ces couts ne sont-ils pas trop élevés par rapport à la fréquence de ces évènements rares même si les années 2013 et 2014 et la répétition de tempêtes et d’inondations semblent remettre quelque peu en question ce constat.

 

Les catastrophes sont ce « qui arrive ».

Face à ces questions, on peut se demander si ces catastrophes sont potentiellement maitrisable et évitable. La conjonction de circonstances défavorables conduisant à la catastrophe est bien favorisée par les propriétés intrinsèques de l’organisation de la sécurité civile et plus largement par les caractéristiques socio-techniques des systèmes sociaux. La survenue de ces catastrophes apparaît donc comme « normale » au sens que lui en donnait Charles Perrow (1984). On peut appliquer ce raisonnement à la conception des dispositifs techniques comme celui du réseau de transport d’électricité par exemple. Conçu comme un réseau de distribution de basse et moyenne tension alimenté par un poste de haute tension, on peut penser que ce système s’expose inévitablement à des coupures généralisées lorsque cette source est subitement mise hors service par un concours de circonstances défavorable comme en 1999. De même, il est normal que certains phénomènes météorologiques réservent des surprises, comme on l’a vu avec les inondations en Bretagne en décembre 2013. On rejoint ici la vieille idée que Kenneth Hewitt avançait il y a plus de 20 ans. Dans les « interprétations de la calamité » (1983), il dénonçait l’approche dominante visant à concevoir les désastres comme l’effondrement des éléments essentiels de la vie sociale pour soutenir que les catastrophes pouvaient s’expliquer plutôt comme le produit de l’ordre social « normal ». Il proposait alors de s’intéresser non plus tant à l’événement du désastre lui-même, mais plus fondamentalement au cours des activités humaines et des relations homme environnement qui préfigurent du le désastre. Pourtant, si l’on rejoint l’idée que les structures sociales fournissent un cadre favorable aux désastres, on peut discuter le fait qu’elles ne produisent pas pour autant souvent ou mécaniquement des catastrophes. Si les structures sociales fournissent un cadre favorable aux désastres, elles ne favorisent pas pour autant souvent ou mécaniquement des catastrophes de cette ampleur. Au contraire, ils n’en produisent que très rarement puisqu’ils naissent d’un enchaînement en grande partie fortuit de causes multiples. A ce titre, on serait même tenté de soutenir que les dispositifs de la sécurité civile sont plutôt surs puisque ces catastrophes restent rares. Ils le sont selon nous, d’autant plus que leurs techniques de sécurité évoluent sans cesse et que des leçons sont constamment tirées de ces épisodes, même si elles peuvent conduire aux dérives critiques. Par conséquent, si « vulnérabilité » il y a, elle est « normale » puisque l’organisation de la sécurité civile, et de notre société en général implique qu’il puisse être forcément déstabilisé dans certaines circonstances. Si rares soient-ils ces accidents de grande ampleur sont « ce qui arrive » pour reprendre l’expression de Paul Virilio.

Pour en savoir plus.

Dedieu François, « Une catastrophe ordinaire : la tempête de 1999 », Editions de l’EHESS, 2013.

Gilbert Claude « L’analyse des crises : entre normalisation et évitement » In. Gilbert Claude, Borraz Olivier, Joly Pierre-Benoit « Risques, crises et incertitudes : pour une analyse critique », Grenoble : CNRS-MSH Alpes, 2005, p. 175-223.

Hewitt Kenneth (ed), Interpretations of Calamity, Boston, Alen and Unwin, 1983.

Oliver-Smith Anthony « Theorizing disasters. Nature, Power and Culture », In Hoffman Susanna M., Oliver-Smith Anthony (ed. by), Catastrophe and culture. The anthropology of Disaster », Santa Fe, School of American Research Press, 2001, p. 23-48.

Pelling Marc, The Vulnerability of Cities. Natural Disasters and Social résilience, London, Sterling, Ertahscan Publications, 2003.

Perrow Charles, Normal accidents. Living with high risk technologies », New York, Basic book, 1984.

Perrow Charles, The next Catastrophe Reducing Our Vulnerabilities to Natural, Industrial, and Terrorist Disasters», Princton University Press, 2007.

 

[1] La tempête Klauss a entrainé 12 décès en France tandis que Xynthia a occasionné 47 morts.

⬆️