Juil 3, 2010 | Constructivisme, Guerre Froide, Passage au crible
Par Daniel Bourmaud
Passage au crible n°27
Pixabay
La tension observée dans la péninsule coréenne depuis le début de l’année 2010 a connu un brutal regain avec le naufrage d’une corvette sud-coréenne qui a fait 46 morts, le 26 mars 2010. En l’occurrence, Séoul a accusé Pyongyang d’avoir délibérément torpillé son navire Cheonan. Aux sanctions économiques et commerciales brandies par le président sud-coréen, la Corée du Nord a répondu en rompant toutes ses relations avec son voisin du sud, en procédant à de nouvelles manœuvres militaires et en renforçant son arsenal nucléaire dès la fin du mois de juin.
> Rappel historique
> Cadrage théorique
> Analyse
> Références
Rappel historique
Cette tension s’inscrit dans une histoire longue de plus d’un demi-siècle ; la guerre de Corée ayant officialisé la coupure entre les deux territoires situés de part et d’autre du 38e parallèle. Après trois ans de combats entre 1950 et 1953 – les plus meurtriers du XXe siècle, à l’exception des deux guerres mondiales –, le conflit s’est achevé par la signature non pas d’un traité de paix mais d’un armistice, dit de Pan mun jon.
Après avoir été pour l’essentiel marquées par le statu quo pendant la Guerre froide, les relations intercoréennes sont entrées dans une nouvelle phase, avec leur admission à l’ONU en 1991 et la conclusion d’un pacte de non-agression. S’est alors ouverte une ère de rapprochement, de sunshine policy – symbolisée notamment par la mise en place de bureaux de liaison, une aide économique du sud en faveur du nord, des rencontres entre les familles séparées – dont l’emblème reste l’ouverture d’une zone économique spéciale à Kaesong. Toutefois, la décision du président Bush d’inscrire, en 2002, la Corée du Nord dans l’Axe du mal a renforcé son syndrome obsidional. Son acceptation du multilatéralisme, dans le cadre du groupe des Six – États-Unis, Chine, les deux Corées, Japon, Russie – et le recours à la menace nucléaire illustré par le retrait du TNP (Traité de Non Prolifération), a par la suite alterné avec une stratégie isolationniste.
Cadrage théorique
La théorie constructiviste paraît particulièrement appropriée pour saisir les dynamiques politiques et sociales à l’œuvre car selon Alexander Wendt, l’identité des acteurs constitue une variable puissamment explicative. Une approche psychologique du politique permet aussi de mieux appréhender la façon dont se noue un conflit et d’éclairer les représentations que les acteurs se font de leurs propres intérêts.
Deux configurations permettent de restituer la complexité de ce processus. Tout d’abord, la dévalorisation de soi peut être vécue comme une humiliation dont il convient de se défaire par une contre-action. Mais le protagoniste peut également, comme l’écrit Philippe Braud « instrumentaliser certaines atteintes à sa dignité » pour endosser la posture de la victime et « s’autoriser des actions de légitime défense qui sont en réalité belliqueuses ».
Analyse
Dans une répartition westernisée des rôles, Pyongyang incarne à merveille le méchant. En effet, les pays occidentaux voient dans la Corée du Nord la quintessence de la duplicité. Ses atermoiements et ses stratégies dilatoires sont d’autant plus brutalement ressenties que ce pays revendique explicitement le droit à disposer de l’arme suprême, le feu nucléaire. Cette orientation comporte cependant un angle mort, en occultant la vision que la Corée du Nord se fait d’elle-même et la façon dont elle conçoit son rapport à autrui.
Une identité menacée et blessée. Sa fierté identitaire puise ses racines dans l’histoire ancienne et glorieuse de l’État de Kokouryo (277 av. J.-C. à 676 ap. J.-C.), qui s’étendait jusqu’en Chine, et dont Pyongyang était la capitale. Aujourd’hui encore, elle revendique l’héritage de cet État qui a unifié la Corée du Xe au XIVe siècle. Source de fierté, cette histoire glorieuse a été néanmoins plusieurs fois menacée, qu’il s’agisse au XIXe siècle des pays occidentaux, de la colonisation japonaise, de 1905 à 1945 ou bien encore de la domination impériale des États-Unis lors de la guerre de Corée.
Qualifier ce pays de dernier État stalinien de la planète le conforte dans son sentiment obsidional. Les précautions d’usage à l’égard de la Corée du Nord n’ont actuellement plus cours, mais leur absence s’avère en fait contreproductive. En l’assimilant à un État voyou, les États-Unis qui recourent en réalité à des catégories morales lui infligent un affront aussi blessant que leur présence militaire en Corée du Sud. L’exigence de Pyongyang de ne plus figurer sur cette liste, jugée infamante, vise alors non seulement à échapper aux sanctions afférentes, mais également à reconquérir une fierté bafouée.
Une identité instrumentalisée. Pour les dirigeants nord-coréens, une posture de victimisation constitue à l’évidence un instrument puissant de mobilisation et de consolidation. En l’espèce, le recours à la violence physique vient en réponse à une violence symbolique dont ils s’estiment victimes.
Une telle analyse déroge certes aux approches les plus répandues. Elle peut même apparaître comme une provocation, tant le régime nord-coréen semble cumuler les propriétés d’un pouvoir dangereux avec un caractère aussi dictatorial que fantasque et une systématisation de la coercition. Toutefois, la dimension identitaire reste in fine déterminante. On comprend mieux ainsi pourquoi Andrei Lankov – l’un des spécialistes les plus avertis sur la question coréenne – en vient à prôner non plus des sanctions, c’est-à-dire la force, mais un lent travail de persuasion de l’opinion nord-coréenne.
Références
Braud Philippe, L’Émotion en politique, Paris, Presses de Sciences Po, 1996.
Braud Philippe, « La Violence symbolique dans les relations internationales », Association Française de Science Politique, Congrès de Toulouse, Table ronde 6, 2007.
Lankov Andrei, “Changing North Korea, An information Campaign can Beat the Regime”, Foreign Affairs, 88 (6), Nov.-Dec. 2009, pp. 95-105.
Lindemann Thomas, Sauver la face, sauver la paix. Sociologie constructiviste des crises internationales, Paris, L’Harmattan, 2010. Coll. Chaos International.
Wendt Alexander, Social Theory of International Politics, Cambridge, Cambridge University Press, 1999.
Juin 23, 2010 | Mondialisation, Passage au crible, Transports
Par Yves Poirmeur
Passage au crible n°26
Source : Pixabay
Le 14 avril 2010 le volcan islandais Eyjafjöll entre en éruption. Un nuage de cendres abrasives menaçant le fonctionnement des réacteurs des avions, se forme et descend peu à peu sur l’Europe. Pour écarter tout risque d’accident, les autorités aéroportuaires britanniques et irlandaises puis norvégiennes, suédoises, belges, hollandaises, luxembourgeoises, allemandes et françaises interrompent le trafic aérien sur tout ou partie de leur territoire. Pendant la semaine de paralysie, 100 000 vols sont annulés, lésant 8 millions de passagers, ainsi que le fret aérien. Le coût pour l’économie mondiale aurait été de 5 milliards de dollars dont 2,6 pour l’Europe avec notamment 260 millions de dollars rien que pour la France. S’agissant des compagnies aériennes, elles auraient perdu 188 millions de dollars. Quant aux tours opérateurs et aux agences de voyages, leurs pertes s’élèveraient respectivement à 31 et 40 millions de dollars.
> Rappel historique
> Cadrage théorique
> Analyse
> Références
Rappel historique
Indispensable précaution ou prévention ? Le danger des nuages de poussières volcaniques pour les aéronefs est bien connu. Fondé sur deux cas de chute vertigineuse d’aéronefs traversant les nuages de poussières rejetés sur l’Indonésie par le volcan Gallunggung (avion British Airways en 1982) et sur l’Alaska par le volcan Redoubt (avion KLM en 1989, avec 500 passagers à bord, dont les réacteurs avaient pu heureusement redémarrer) ainsi que sur les dommages subis par une vingtaine d’autres appareils, dont le coût de réparation s’était chiffré en millions de dollars, les normes de sécurité aérienne excluent toute prise de risque. Sur les indications fournies par les centres de conseil sur les cendres volcaniques installées auprès des services de météorologies (en Europe, le VAAC (Volcanic Ash Advisory Center) de Londres et le Centre d’observation des cendres volcaniques de Toulouse), les avions doivent contourner les nuages de cendre et être détournés vers un autre aéroport, lorsque celui de leur destination est rendu inaccessible. L’application, pour la première fois, de cette règle à une des zones de circulation aérienne la plus dense au monde – l’aéroport de Londres Heathrow reçoit 1300 vols quotidiens, celui de Roissy Charles de Gaulle accueille 83 millions de passagers par an – témoigne de la mondialisation des principes de précaution et de prévention comme de ses limites. La crise qui en a résulté représente aussi un analyseur des contradictions croissantes de la transnationalisation économique et de la fragmentation politique du monde.
Cadrage théorique
1. Mondialisation du principe de précaution/prévention. Moins que le principe de précaution couramment évoqué au cours de la crise, c’est le principe de prévention qui a été en réalité appliqué. En effet, de manière générale, le principe de précaution s’applique aux hypothèses dans lesquelles la réalisation d’un dommage grave et irréversible – bien qu’incertaine en l’état des connaissances scientifiques – pourrait intervenir. Il commande de mettre en œuvre des procédures d’évaluation des risques et l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. En l’espèce, les risques étaient avérés par des précédents comme par exemple des accidents évités de justesse, des coûts élevés de réparation ou encore des dommages subis par les appareils entrés dans de tels nuages. L’interruption du trafic aérien décidée par les autorités relevait donc de la prévention car il s’agissait d’éviter de faire courir aux passagers un réel danger.
2. Transnationalisation économique et fragmentation politique. Cette crise n’a pas été le seul résultat d’un phénomène naturel. Elle a aussi été favorisée par l’éclatement politique de la régulation aérienne. De même, elle a été amplifiée par les logiques économiques des entreprises du secteur aérien et plus largement par la mondialisation des échanges qui, en unifiant le monde, rend les économies extrêmement dépendantes du bon fonctionnement des systèmes de transport et de communication.
Analyse
Dans cette affaire, plusieurs éléments concourent à rapprocher les principes de précaution et de prévention : d’une part, l’incertitude sur la localisation exacte du nuage déplacé par le vent, d’autre part, l’insuffisance des connaissances scientifiques quant aux seuils de concentration en poussières à partir desquels la sécurité des avions serait menacée ; enfin, l’absence d’instruments efficaces capables de mesurer ces concentrations dans les différentes zones aériennes. Pour limiter les conséquences économiques de la fermeture du trafic aérien, il fallait analyser le risque cartographié grâce au modèle mathématique des météorologues. Mais cela n’a guère donné d’information sur la densité du nuage. En l’occurrence, c’est de façon simplement empirique – envoi d’avions d’essai dans les différents corridors aériens – que la gravité et la variabilité du risque a été testée par les compagnies aériennes, en liaison avec les autorités de régulation. Le conseil des ministres des transports européens a finalement distingué trois zones de risque en fonction de la concentration de l’air en cendres : 1) dans la zone de haut risque, le trafic a été interdit, 2) dans celle de risque moyen, il pouvait être autorisé par chaque État, 3) dans celle de faible risque, il restait ouvert. Dans une telle configuration d’acteurs, nul n’avait certes intérêt – à commencer par les compagnies aériennes et les régulateurs – à risquer de voir un avion s’abîmer ou même connaître un simple incident, compte tenu de la défiance généralisée à l’égard du transport aérien que cela aurait provoqué. Cependant, la révision des recommandations de sécurité, intervenue sans qu’un nouveau dispositif technique d’appréciation des risques n’ait été mis en place, révèle la fragilité de l’exigence de prudence dans un secteur d’activité essentiel au fonctionnement des sociétés en interdépendances économiques.
Plusieurs facteurs ont contribué à aggraver la crise et à compliquer sa résolution. Tout d’abord le mode de régulation de l’espace aérien européen apparaît largement irrationnel. En effet, au lieu d’être découpé en espaces fonctionnels, il est divisé en espaces nationaux suivant les frontières étatiques, ce qui complexifie d’autant la circulation dans cette zone de grand trafic en y multipliant les goulets d’étranglement. De plus, au lieu d’être confiée à un superviseur européen exclusif, afin d’optimiser la circulation aérienne, la régulation est assurée par des organismes nationaux auxquels se superpose le régulateur européen, Eurocontrol. Ensuite les modèles économiques adoptés par les compagnies aériennes et les sociétés aéroportuaires accentuent les conséquences de toute fermeture, même partielle, de l’espace aérien. Organisées en réseaux centralisant le trafic aérien sur quelques hubs grâce auxquels elles optimisent le remplissage de leurs avions, les grandes compagnies se retrouvent très affectées par tout blocage de ces plateformes. Quant aux entreprises à bas coûts, celles dont la rentabilité repose sur une rotation continue de leurs avions à partir de petits aéroports qu’elles relient en étoile, tout risque d’interruption du circuit les conduit à préférer l’annulation préventive de tous leurs vols, plutôt que de subir les conséquences financières d’une prise en charge de passagers bloqués. Enfin, la division et la spécialisation mondiale du travail, ainsi que le développement des flux transnationaux – de marchandises, de services, de touristes –, accroissent rapidement les conséquences économiques de tout arrêt inopiné de la circulation aérienne sur une zone de fort trafic. En définitive, plus s’intensifie la mondialisation, plus les régulations nationales se révèlent inadaptées et plus les pressions sont alors fortes, dans les secteurs stratégiques assurant la circulation des flux, pour limiter l’application du principe de prévention à ce qui serait strictement nécessaire.
Références
Bronner Gérald, Géhin Étienne, L’Inquiétant principe de précaution, Paris, PUF, 2010.
Frison-Roche Marie-Anne (Éd.), Les Risques de régulation, Paris, Presses de Sciences Po et Dalloz, 2005.
Kourilsky Philippe, Viney Geneviève, Le Principe de précaution : rapport au Premier ministre, Paris, Odile Jacob, La Documentation française, 2000.
Gaïa Daniel, Nouvel Pascal, Sécurité et compagnies aériennes, Éditions du Puits Fleuri, 2006.
Institut Pierre Simon Laplace (Université de Versailles Saint-Quentin), LATMOS, « Suivi des émissions de cendres du volcan islandais Eyjafjöll » 20/04/2010. Site Internet easa.europa.eu.
Juin 23, 2010 | Mondialisation, Passage au crible, Publications, Transports
Par Yves Poirmeur
Passage au crible n°26
Le 14 avril 2010 le volcan islandais Eyjafjöll entre en éruption. Un nuage de cendres abrasives menaçant le fonctionnement des réacteurs des avions, se forme et descend peu à peu sur l’Europe. Pour écarter tout risque d’accident, les autorités aéroportuaires britanniques et irlandaises puis norvégiennes, suédoises, belges, hollandaises, luxembourgeoises, allemandes et françaises interrompent le trafic aérien sur tout ou partie de leur territoire. Pendant la semaine de paralysie, 100 000 vols sont annulés, lésant 8 millions de passagers, ainsi que le fret aérien. Le coût pour l’économie mondiale aurait été de 5 milliards de dollars dont 2,6 pour l’Europe avec notamment 260 millions de dollars rien que pour la France. S’agissant des compagnies aériennes, elles auraient perdu 188 millions de dollars. Quant aux tours opérateurs et aux agences de voyages, leurs pertes s’élèveraient respectivement à 31 et 40 millions de dollars.
> Rappel historique
> Cadrage théorique
> Analyse
> Références
Rappel historique
Indispensable précaution ou prévention ? Le danger des nuages de poussières volcaniques pour les aéronefs est bien connu. Fondé sur deux cas de chute vertigineuse d’aéronefs traversant les nuages de poussières rejetés sur l’Indonésie par le volcan Gallunggung (avion British Airways en 1982) et sur l’Alaska par le volcan Redoubt (avion KLM en 1989, avec 500 passagers à bord, dont les réacteurs avaient pu heureusement redémarrer) ainsi que sur les dommages subis par une vingtaine d’autres appareils, dont le coût de réparation s’était chiffré en millions de dollars, les normes de sécurité aérienne excluent toute prise de risque. Sur les indications fournies par les centres de conseil sur les cendres volcaniques installées auprès des services de météorologies (en Europe, le VAAC (Volcanic Ash Advisory Center) de Londres et le Centre d’observation des cendres volcaniques de Toulouse), les avions doivent contourner les nuages de cendre et être détournés vers un autre aéroport, lorsque celui de leur destination est rendu inaccessible. L’application, pour la première fois, de cette règle à une des zones de circulation aérienne la plus dense au monde – l’aéroport de Londres Heathrow reçoit 1300 vols quotidiens, celui de Roissy Charles de Gaulle accueille 83 millions de passagers par an – témoigne de la mondialisation des principes de précaution et de prévention comme de ses limites. La crise qui en a résulté représente aussi un analyseur des contradictions croissantes de la transnationalisation économique et de la fragmentation politique du monde.
Cadrage théorique
1. Mondialisation du principe de précaution/prévention. Moins que le principe de précaution couramment évoqué au cours de la crise, c’est le principe de prévention qui a été en réalité appliqué. En effet, de manière générale, le principe de précaution s’applique aux hypothèses dans lesquelles la réalisation d’un dommage grave et irréversible – bien qu’incertaine en l’état des connaissances scientifiques – pourrait intervenir. Il commande de mettre en œuvre des procédures d’évaluation des risques et l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. En l’espèce, les risques étaient avérés par des précédents comme par exemple des accidents évités de justesse, des coûts élevés de réparation ou encore des dommages subis par les appareils entrés dans de tels nuages. L’interruption du trafic aérien décidée par les autorités relevait donc de la prévention car il s’agissait d’éviter de faire courir aux passagers un réel danger.
2. Transnationalisation économique et fragmentation politique. Cette crise n’a pas été le seul résultat d’un phénomène naturel. Elle a aussi été favorisée par l’éclatement politique de la régulation aérienne. De même, elle a été amplifiée par les logiques économiques des entreprises du secteur aérien et plus largement par la mondialisation des échanges qui, en unifiant le monde, rend les économies extrêmement dépendantes du bon fonctionnement des systèmes de transport et de communication.
Analyse
Dans cette affaire, plusieurs éléments concourent à rapprocher les principes de précaution et de prévention : d’une part, l’incertitude sur la localisation exacte du nuage déplacé par le vent, d’autre part, l’insuffisance des connaissances scientifiques quant aux seuils de concentration en poussières à partir desquels la sécurité des avions serait menacée ; enfin, l’absence d’instruments efficaces capables de mesurer ces concentrations dans les différentes zones aériennes. Pour limiter les conséquences économiques de la fermeture du trafic aérien, il fallait analyser le risque cartographié grâce au modèle mathématique des météorologues. Mais cela n’a guère donné d’information sur la densité du nuage. En l’occurrence, c’est de façon simplement empirique – envoi d’avions d’essai dans les différents corridors aériens – que la gravité et la variabilité du risque a été testée par les compagnies aériennes, en liaison avec les autorités de régulation. Le conseil des ministres des transports européens a finalement distingué trois zones de risque en fonction de la concentration de l’air en cendres : 1) dans la zone de haut risque, le trafic a été interdit, 2) dans celle de risque moyen, il pouvait être autorisé par chaque État, 3) dans celle de faible risque, il restait ouvert. Dans une telle configuration d’acteurs, nul n’avait certes intérêt – à commencer par les compagnies aériennes et les régulateurs – à risquer de voir un avion s’abîmer ou même connaître un simple incident, compte tenu de la défiance généralisée à l’égard du transport aérien que cela aurait provoqué. Cependant, la révision des recommandations de sécurité, intervenue sans qu’un nouveau dispositif technique d’appréciation des risques n’ait été mis en place, révèle la fragilité de l’exigence de prudence dans un secteur d’activité essentiel au fonctionnement des sociétés en interdépendances économiques.
Plusieurs facteurs ont contribué à aggraver la crise et à compliquer sa résolution. Tout d’abord le mode de régulation de l’espace aérien européen apparaît largement irrationnel. En effet, au lieu d’être découpé en espaces fonctionnels, il est divisé en espaces nationaux suivant les frontières étatiques, ce qui complexifie d’autant la circulation dans cette zone de grand trafic en y multipliant les goulets d’étranglement. De plus, au lieu d’être confiée à un superviseur européen exclusif, afin d’optimiser la circulation aérienne, la régulation est assurée par des organismes nationaux auxquels se superpose le régulateur européen, Eurocontrol. Ensuite les modèles économiques adoptés par les compagnies aériennes et les sociétés aéroportuaires accentuent les conséquences de toute fermeture, même partielle, de l’espace aérien. Organisées en réseaux centralisant le trafic aérien sur quelques hubs grâce auxquels elles optimisent le remplissage de leurs avions, les grandes compagnies se retrouvent très affectées par tout blocage de ces plateformes. Quant aux entreprises à bas coûts, celles dont la rentabilité repose sur une rotation continue de leurs avions à partir de petits aéroports qu’elles relient en étoile, tout risque d’interruption du circuit les conduit à préférer l’annulation préventive de tous leurs vols, plutôt que de subir les conséquences financières d’une prise en charge de passagers bloqués. Enfin, la division et la spécialisation mondiale du travail, ainsi que le développement des flux transnationaux – de marchandises, de services, de touristes –, accroissent rapidement les conséquences économiques de tout arrêt inopiné de la circulation aérienne sur une zone de fort trafic. En définitive, plus s’intensifie la mondialisation, plus les régulations nationales se révèlent inadaptées et plus les pressions sont alors fortes, dans les secteurs stratégiques assurant la circulation des flux, pour limiter l’application du principe de prévention à ce qui serait strictement nécessaire.
Références
Gérald Bronner, Étienne Géhin, L’Inquiétant principe de précaution, Paris, PUF, 2010.
Marie-Anne Frison-Roche (Éd.), Les Risques de régulation, Paris, Presses de Sciences Po et Dalloz, 2005.
Philippe Kourilsky, Geneviève Viney, Le Principe de précaution : rapport au premier ministre, Odile Jacob, La Documentation française, 2000.
Daniel Gaïa, Pascal Nouvel, Sécurité et compagnies aériennes, Éditions du Puits Fleuri, 2006.
Institut Pierre Simon Laplace (Université de Versailles Saint-Quentin), LATMOS, « Suivi des émissions de cendres du volcan islandais Eyjafjöll » 20/04/2010. Site Internet easa.europa.eu.
Juin 12, 2010 | Passage au crible, Union européenne
Par André Cartapanis
Passage au crible n°25
Source : Pixabay
Depuis le déclenchement de la crise des finances publiques de la Grèce, les controverses se multiplient en Europe. Fallait-il mettre en œuvre une politique de solidarité financière au profit des mauvais élèves de l’Union, sous la forme d’un plan de sauvetage de l’ordre de 750 milliards d’euros ; disposition couplée à une politique d’ajustement d’une ampleur considérable, en Grèce, mais aussi à l’échelle de la zone euro dans son ensemble ? Doit-on désormais introduire des règles budgétaires beaucoup plus draconiennes pour éviter la répétition d’un tel scénario-catastrophe, ou au contraire doit-on engager la dissolution de l’Union monétaire ?
> Rappel historique
> Cadrage théorique
> Analyse
> Références
Rappel historique
En 1999, la création de la monnaie unique avait tout d’abord pour ambition de mettre fin aux crises à répétition qui frappaient l’économie européenne et entravaient sa croissance. Dès lors que la libéralisation des mouvements de capitaux était intervenue au sein de l’Union européenne et que des taux de change fixes devaient régir le marché unique, la multiplicité des politiques monétaires était devenue impossible, sauf à susciter des crises de change à répétition. La création de l’euro devait donc garantir une plus grande efficacité de la politique monétaire en matière de lutte contre l’inflation, grâce à la crédibilité d’une BCE (Banque Centrale Européenne) indépendante. Cette dernière institution était chargée de la stabilité des prix et du respect du Pacte de stabilité et de croissance dans le domaine des déficits budgétaires ou de l’endettement public. Par ailleurs, l’euro devait donner des marges de liberté accrues en supprimant les contraintes de balances de paiements et des distorsions de change à l’intérieur de la zone. Cette nouvelle devise devait également réduire la sensibilité aux fluctuations de taux de change par rapport aux autres monnaies, le dollar en particulier. Cependant, on a alors considérablement sous-estimé les difficultés de pilotage macroéconomique que la monnaie unique pouvait induire au sein d’un espace européen excessivement hétérogène, dès lors que l’UEM (Union Économique et Monétaire) ne constituait pas une zone monétaire optimale.
Cadrage théorique
1. Zone monétaire optimale : En théorie, une union monétaire doit pour fonctionner correctement répondre à toute une série de critères macroéconomiques – mobilité parfaite des facteurs, du travail en particulier, fédéralisme budgétaire, convergences nominales – afin de pouvoir supporter des chocs asymétriques, c’est-à-dire propres à tel ou tel membre de l’Union, compte tenu de la politique monétaire unique et de l’impossibilité de recourir aux ajustements intra-européens de taux de change. Face aux inquiétudes formulées par les tenants du strict respect des critères ex ante d’appartenance à une zone monétaire optimale, certains avaient mis l’accent sur l’effet en retour que pourrait exercer l’appartenance à une zone euro sur les caractéristiques de chaque pays-membre, facilitant ainsi, ex post, le fonctionnement macroéconomique de la zone.
Le développement du commerce intra-européen et l’intégration financière adossée à l’intégration monétaire devaient conduire à une synchronisation accrue des cycles et à un lissage des niveaux de consommation par le jeu d’un renforcement de l’allocation intra-européenne de l’épargne. Mais ce scénario apparaît à présent trop optimiste. Au contraire, la décennie 2000 s’est caractérisée par une très nette différenciation des trajectoires de croissance suivies par plusieurs économies de la zone euro, alors même que l’hétérogénéité était déjà élevée, dès la création de l’euro.
2. Hétérogénéité de la zone euro : La permanence de tout un ensemble d’hétérogénéités au sein de la zone euro – régimes de croissance plus ou moins liés à l’endettement des ménages ou des États, distorsions fiscales, différenciation des systèmes sociaux, types de spécialisations internationales –, ne représente pas, en tant que telle, un obstacle à un fonctionnement efficace de l’UEM. Le fait que subsistent des écarts de coûts salariaux ou des différences quant au mode de spécialisation semble, au contraire, de nature à induire une plus grande efficience dans l’allocation des facteurs. Toutefois, cela suppose que ces différenciations ne s’accompagnent pas de déséquilibres macroéconomiques durables –en matière de croissance, de chômage et d’endettement – qui rendent cette configuration insoutenable. Or, depuis dix ans, la politique monétaire de la BCE et la coordination par le bas des politiques budgétaires, imposée par le Pacte de stabilité, n’ont pas su répondre aux trajectoires spécifiques des économies de la zone euro. En outre, elles ont été sanctionnées par les déséquilibres macro-économiques récurrents des pays-membres. Enfin, elles ont été fragilisées par une médiocrité des performances globales, en termes de croissance ou de chômage. Naturellement, la crise mondiale a aggravé un tel processus.
Analyse
Depuis le milieu des années 2000, l’hétérogénéité de la zone euro se manifeste dans des performances à l’exportation fortement divergentes, y compris sur le marché intérieur de l’Union. Elle se traduit tout autant dans l’évolution des coûts salariaux unitaires et du taux d’endettement des ménages comme de celui des États. Couplés aux hétérogénéités préexistantes, ces chocs d’offre ou de demande ont accentué les distorsions internes, sans que des politiques d’ajustement puissent être menées à l’échelle de l’UE. Les règles et les institutions de gouvernance économique de la zone euro, sans doute adaptées à des chocs cycliques de faible ampleur, n’ont par conséquent pas pu répondre de façon efficace à des dynamiques macroéconomiques et structurelles divergentes, surtout face à la politique allemande de restriction salariale.
Avec les Traités de Maastricht et d’Amsterdam, les gouvernements européens sont restés à la croisée des chemins en matière monétaire. En effet, soit ils sont allés trop loin, en créant une monnaie unique au sein d’un espace économique se prêtant mal à une politique monétaire dédiée quasi-exclusivement à un objectif de stabilité monétaire, soit, ils ne sont pas allés assez loin sur la voie de l’intégration des politiques économiques à l’échelle européenne.
Il faut bien comprendre que l’union monétaire ne peut pas se limiter à une simple technique qui optimiserait l’usage des instruments de politique économique et réduirait les dysfonctionnements issus de l’instabilité des taux de change. Pour beaucoup – pensons à Jacques Delors – l’UEM représentait un projet politique permettant de conduire à un approfondissement de l’intégration économique et politique en Europe. Or, la crise de la zone euro comme les défis de la globalisation et de la nouvelle croissance de l’après crise en font désormais un impératif. Il s’avère donc urgent de construire un nouveau modèle d’union monétaire européenne.
Références
Beetsma Roel, Massimo Giuliodori, “The Macroeconomic Costs and Benefits of the EMU and other Monetary Unions: An Overview of Recent Research”, Journal of Economic Literature, 2010, (forthcoming).
Cartapanis André (Éd.), “Les enseignements d’une décennie d’euro”, Numéro spécial de la Revue d’Économie Politique, 120 (2), mars-avril 2010.
European Commission, “EMU@10: Successes and Challenges after 10 Years of Economic and Monetary Union”, European Economy, (2), 2008.
Mackowiak Bartosz, Francesco Paolo Mongelli, Gilles Noblet, Frank Smets, (Ed.), The Euro at Ten – Lessons and Challenges, European Central Bank, Frankfurt, 2009.
Mai 26, 2010 | Nord-Sud, Passage au crible, Santé publique mondiale
Par Clément Paule
Passage au crible n°24
Source : Pixabay
Instaurée en mai 2007 par l’AMS (Assemblée Mondiale de la Santé), la Journée mondiale du paludisme a été célébrée le 25 avril 2010. Cet événement réunit l’ensemble des acteurs impliqués dans la lutte contre cette maladie parasitaire qui infecte plus de 250 millions de personnes et en tue un million chaque année. Appelé également malaria, ce fléau demeure endémique dans une centaine de pays, principalement en Afrique subsaharienne – où se concentrent 85% de s décès – et dans de nombreuses régions d’Asie et d’Amérique latine. Toutefois, les dernières statistiques de l’OMS (Organisation Mondiale de la Santé) montrent un repli des cas notifiés dans 27 États, parmi lesquels la Zambie, le Rwanda ou l’Érythrée. De plus, les financements internationaux des traitements ont presque sextuplé depuis 2003, pour atteindre 1,7 milliard de dollars en 2009. Une conjoncture si encourageante ne pouvait que raviver l’espoir d’éradication de cette zoonose meurtrière.
> Rappel historique
> Cadrage théorique
> Analyse
> Références
Rappel historique
Le parasite à l’origine de la maladie – Plasmodium – et son mode de transmission – les moustiques anophèles – ont été découverts dès la fin du XIXème siècle. Mais la coopération interétatique face au paludisme est restée limitée à une commission créée en 1924 au sein de la SDN (Société des Nations). Pendant la première partie du XXe siècle, de nombreuses initiatives menées au plan international contre cette parasitose proviennent du secteur philanthropique. La Fondation Rockefeller a par exemple mis en place un programme de recherche spécifique dans les années trente, contribuant ainsi à l’élimination des vecteurs paludiques sur le continent américain et en Europe. Aussi, la malaria a-t-elle disparu de la plupart des pays occidentaux dès 1946, date de la création de l’OMS qui a pris en charge l’éradication mondiale du fléau. Dans cette optique, la 8ème AMS a lancé en 1955 le PEP (Programme d’Éradication du Paludisme) fondé sur la combinaison de deux outils : la chloroquinine – premier antipaludique de synthèse – et le pesticide DDT (Dichlorodiphényltrichloroéthane). Cependant, l’orientation technologique et le pilotage vertical de cette campagne ont négligé les réalités locales. Enfin, les résistances croissantes développées par le Plasmodium et les moustiques ont aggravé les difficultés financières et organisationnelles du PEP qui a connu un échec flagrant, sanctionné publiquement par l’AMS en 1969.
Dès lors, la maladie semble disparaître de l’agenda international jusqu’aux années quatre-vingt-dix, avant qu’une succession d’initiatives ne permette le redéploiement de l’action antipaludéenne. Citons à cet égard, la conférence d’Amsterdam organisée par l’OMS en 1992 ou l’élimination de la parasitose inscrite dans les OMD (Objectifs du Millénaire pour le Développement). En outre, la déclaration d’Abuja engage en 2000 les chefs d’État et de gouvernement africains à faire reculer de moitié dans les dix ans à venir, la mortalité due à la malaria. Parallèlement, un nouveau système de coopération est établi, au sein duquel certains acteurs privés – comme la Fondation Gates – occupent une place charnière. Cette configuration favorise le rapprochement avec les firmes transnationales, en particulier les laboratoires pharmaceutiques. En l’espèce, cet ensemble hétérogène s’organise sur le mode de partenariats public-privé, avec RBM (Roll Back Malaria Partnership), MMV (Medicines for Malaria Venture) ou encore MVI (Malaria Vaccine Initiative) qui voient le jour entre 1997 et 1999. Cette évolution concerne également les modalités du financement – avec la création du Fonds mondial de lutte contre le SIDA, la tuberculose et le paludisme en janvier 2002 – dont le volume s’est accru considérablement. Les efforts conjugués de la Fondation Gates, du Malaria Booster Program de la Banque mondiale et du PMI (United States President’s Malaria Initiative) pourraient bientôt atteindre l’objectif de 5 milliards de dollars par an. Désormais, le Plan d’action mondial contre le paludisme, proposé par RBM en 2008, sert de feuille de route à la plupart des intervenants.
Cadrage théorique
1. Fenêtre d’opportunité (policy window). Élaboré par John Kingdon, ce concept rend compte de l’inscription d’un problème sur l’agenda des décideurs. À ce titre, la Journée mondiale du paludisme concourt à entretenir l’action internationale menée contre cette parasitose.
2. Technicisation des instruments. Les stratégies antipaludéennes sont façonnées par une orientation technologique, rationalisant leurs outils au nom de leur rentabilité et de leur efficacité. Pour autant, cette logique économique néglige les usages sociaux de ces dispositifs et risque de les ériger en solutions miracles à court terme.
Analyse
Les manifestations du 25 avril 2010 participent tout d’abord à l’intensification d’une mobilisation enclenchée depuis la fin des années quatre-vingt-dix. En l’occurrence, l’événement revêt une dimension symbolique, puisque la Décennie mondiale de la lutte contre le paludisme – instituée par la résolution 55/284 de l’Assemblée Générale des Nations Unies – vient de s’achever. Outre cette considération, une conférence des bailleurs du Fonds mondial aura lieu en octobre 2010 à New York afin de déterminer leurs engagements jusqu’à 2013. Cette Journée – pendant laquelle se multiplient réunions scientifiques, rassemblements sportifs et commémorations dans le monde entier – représente par conséquent une fenêtre d’opportunité pour les acteurs luttant contre ce fléau. Pourtant, cette troisième édition se distingue par son slogan Counting Malaria Out (Vaincre le paludisme) qui évoque explicitement l’idéal d’éradication ranimé par Bill Gates en 2007. Or, cet objectif – écarté par l’OMS depuis le fiasco de 1969 – marque une rupture symbolique avec les échecs passés et semble poser les bases d’un consensus renouvelé autour de l’efficacité des nouveaux modes d’action.
Cependant, si le bilan statistique paraît encourageant, des voix discordantes dénoncent un optimisme injustifié. Le parasite résisterait dorénavant à l’artémisinine – médicament antipaludique mis au point dans les années soixante-dix – et à des insecticides comme les pyréthrinoïdes. Par ailleurs, des recherches récentes démontrent la présence du pathogène chez plusieurs singes, ce qui remettrait en question le postulat d’un système fermé entre humains et moustiques. La campagne mondiale contre la malaria se verrait donc condamnée à moyen terme. À ces objections techniques s’ajoutent la critique des politiques internationales de santé n’impliquant pas les acteurs locaux. Dans cette perspective, l’objectif d’éradication relèverait de l’effet d’annonce, voire d’une temporalité courte, et ne présupposerait aucun engagement durable. Plus encore, la Fondation Gates est accusée de reproduire le biais technologique du PEP, en soutenant des solutions jugées rentables et efficaces, comme l’immunisation généralisée. Or, le succès scientifique que constituerait la mise au point d’un vaccin antipaludique ne garantit pas pour autant son efficacité sociale, c’est-à-dire son usage effectif par l’ensemble d’une population. En témoigne l’exemple de la grippe A/H1N1, qui conduit à nuancer l’idée suivant laquelle seule la complexité du Plasmodium entraverait la recherche depuis plus de vingt ans.
Réduire les instruments de la lutte contre le paludisme à de simples outils techniques occulte le clivage Nord/Sud qui demeure omniprésent. En effet, la malaria tue surtout des enfants et des femmes enceintes d’Afrique subsaharienne. Autrement dit, les firmes pharmaceutiques ne peuvent attendre de retour sur investissement substantiel alors que les coûts liés à l’innovation sont toujours plus élevés. Néanmoins, certaines initiatives ont été mises en œuvre, comme l’African Malaria Partnership de GSK (GlaxoSmithKline) –qui teste actuellement le vaccin RTS,S – ou le projet Impact Malaria de Sanofi-Aventis. Mais si les partenariats public-privé ont permis de mobiliser une partie du secteur privé face à la maladie, ce rapprochement n’est pas sans ambiguïtés. L’OMS a ainsi condamné à plusieurs reprises 37 laboratoires qui persistaient à commercialiser des monothérapies à l’artémisinine, alors même que leur utilisation entraînait le développement de résistances parasitaires. La victoire contre le paludisme semble dès lors se jouer autant dans les avancées scientifiques que dans la prise en compte de la dimension sociale de la santé publique mondiale.
Références
« Malaria 2010: More Ambition and Accountability Please », The Lancet, 375 (9724), 24 avril 2010, p. 1407.
Guilbaud Auriane, Le Paludisme. La lutte mondiale contre un parasite résistant, Paris, L’Harmattan, 2008. Coll. Chaos International.
Kingdon John W., Agendas, Alternatives and Public Policies, 2e éd., New York, Harper Collins, 1995.
Shah Sonia, « Une autre approche contre le paludisme », Le Monde diplomatique (674), mai 2010, p. 10.
Site de la Journée mondiale du Paludisme : http://www.worldmalariaday.org [24 mai 2010].
WHO (World Health Organization), World Malaria Report 2009, 2009, disponible sur le site de l’OMS : http://www.who.int [24 mai 2010].