Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
10 juin 2010 4 10 /06 /juin /2010 11:08

 

Les changement du climat est un fait mais quelle en est la cause et, d'ailleurs, faut-il en chercher une ? Voilà une question fondamentale, aujourd'hui débattue, mais pas toujours avec les bons arguments. Gavin Schmidt, climatologue au NASA Goddard Institute for Space Studies (GISS), y répond dans un article publié du blog Real Climate et que nous reproduisons ici, en français.


Comment savons-nous ce qui a provoqué un changement climatique, ou même s’il a une cause ?


Il s'agit d'une question centrale en ce qui concerne l'évolution destempératures des dernières années, mais bien sûr elle est beaucoup plus générale et s'applique à toute une série de changements climatiques sur l'ensemble des échelles de temps.

 

A en juger par les commentaires que nous recevons sur Real Climate et les discussions ailleurs sur le Web, il y a une certaine confusion sur la façon dont ce processus fonctionne et ce sur qui peut (et ne peut pas) être affirmé avec certitude.

 

Par exemple, beaucoup de gens semblent (à tort) penser que l'attribution ne repose que sur une corrélation naïve de la température moyenne mondiale, ou qu'elle est impossible sauf si un changement est « sans précédent » ou encore que les réponses sont basées sur notre manque d'imagination sur les autres causes.


En fait, comme on va le voir, le processus est plus complexe que ce que ces idées fausses laissent à penser.

En bref :


  • vous ne pouvez pas faire d'attribution basée uniquement sur les statistiques,
  • l’attribution n'a rien à voir avec quelque chose qui est « sans précédent »,
  • vous avez toujours besoin d'un modèle d'une sorte ou d’une autre,
  • plus nette est l'empreinte d'une cause particulière, plus il est facile de détecter cette cause.

Notez que cela aide énormément de réfléchir à l'attribution dans des contextes qui n'ont rien à voir avec les causes anthropiques, essentiellement parce que cela permet de penser un peu plus clairement le problème.


Tout d'abord, pensez à la différence entre l'attribution dans le cas d’une science d'observation, comme la climatologie (ou la cosmologie, etc.) par rapport à une science de laboratoire (microbiologie ou science des matériaux).

 

Dans un laboratoire, il est relativement facile de démontrer cause et effet. Vous configurez les expériences. Si ce que vous attendez est un phénomène réel, vous devriez être capable de le reproduire encore et encore et d'obtenir suffisamment d'exemples pour démontrer de manière convaincante qu'une cause particulière a un effet particulier.

 

Notez que vous ne pouvez pas démontrer qu’un effet particulier ne peut avoir que cette cause et pas une autre, mais si vous voyez cet effet dans le monde réel et pensez que votre cause est également présente, alors avez une très bonne chance (mais pas 100%) que la cause précise est à blâmer.


Pourquoi avez-vous besoin d'un laboratoire pour faire cela ?

C'est parce que dans le monde réel le signal est toujours bruité. Il y a toujours quelque chose qui se passe qui fait que nos théories (réductrices) sont moins applicables que nous le souhaiterions.

 

Dehors, nous ne pouvons pas obtenir des conditions de température et de pression parfaitement stabilisées ; nous ne pouvons pas maintenir la turbulence dans son état initial ; nous ne pouvons pas protéger les appareils de rayons cosmiques, etc.

 

Au laboratoire, nous pouvons faire tout cela et faire en sorte que (on l'espère) l'expérience soit pure ou ramenée à l'essentiel. Il y a bien sûr encore du « bruit» (l'imprécision des instruments de mesure, etc.) et vous avez besoin de refaire l’expérience de nombreuses fois dans des conditions légèrement différentes pour être sûr que votre cause donne vraiment l'effet que vous recherchez.


La clé de ce type d'attribution est la répétition, et c'est là où il devrait être évident que pour les sciences d'observation, vous allez devoir trouver un autre moyen, puisque nous ne pouvons généralement pas refaire l'Holocèneni le Big Bang ni le vingtième siècle (heureusement).


La répétition peut être utile lorsque vous avez des événements eux-mêmes répétitifs dans la nature (les cycles de glaciation, les marées, les éruptionsvolcaniques, les saisons etc.).

 

Cela donne la possibilité de lisser plus d'effetsparasites indépendants pour obtenir le signal. Pour les effets des éruptions volcaniques en général, cela a sans aucun doute été une technique utile (de Robock et Mao (1992) à Shindell et al. (2004)).

 

Mais la plupart des événements survenus dans l'histoire géologique sont singuliers. Peut-être ont-ils été plus fréquents, mais nous ne disposons de bonnes observations que pour une manifestation – le maximum thermique du Paléocène-Eocène, l'événement KT, l’événement froid à 8200 ans, le Petit âge glaciaire, etc. – et une autre approche est nécessaire.


Dans le monde réel, nous attribuons tout le temps des causes à des événements singuliers (dans les affaires judiciaires, par exemple) et nous avons donc une expérience pratique de cette méthode.

 

Si les preuves qui relient des braqueurs donnés à un braquage de banque sont fortes, le procureur peut obtenir une condamnation sans qu’il soit nécessaire que ces crimes aient été « sans précédent », et sans avoir à prouver expressément que tout le monde était innocent sauf eux.

 

Au lieu de cela, le procureur (idéalement) recrée le scénario des événements tel qu’il pense qu’ils se sont déroulés (appelons cela un modèle, faute d'un meilleur mot).

Son travail consiste alors à rechercher des faits matériels qui sont la manifestation des conséquences de ce scénario (le suspect aurait été vu par cette caméra à ce moment, l'ADN sur les lieux correspondrait à l’échantillon d'un suspect, l'argent serait trouvé dans le congélateur, etc.).

 

Il est évidemment important de s'assurer que le récit n'est pas simplement une histoire montée de toutes pièces dans laquelle les circonstances sont enchaînées de façon à suggérer la culpabilité alors qu’aucune autre preuve ne vient renforcer cette histoire particulière. En effet, ces récits sont beaucoup plus convaincants quand il y a des confirmations extérieures à l’ensemble qui a servi à construire le scénario.


On peut généraliser : la condition requise est double, il faut disposer de

  1. un modèle d’une sorte ou d’une autre qui fait des prédictions des événements qui devraient et ne devraient pas s’être produits en fonction de certaines causes spécifiques,
  2. un ensemble d’événements ou de phénomènes qui n’étaient pas connus ou qui n’ont pas servi à la construction du modèle.

Il existe de nombreux modèles disponibles, ils sont très variés dans leur conception et dans leur complexité. Ils peuvent être statistiques, empiriques, physiques, numériques ou conceptuels.

 

Leur utilité est fondée sur leur spécificité, sur la manière dont leurs prédictions se distinguent de celles des autres modèles et sur leur capacité à éviter les complications inutiles (c'est le principe de parcimonie, alias rasoir d'Occam). Toutes choses étant égales par ailleurs, une explication plus simple est généralement préférée comme hypothèse de travail.

http://www.futura-sciences.com/uploads/RTEmagicC_Diapo1_07.jpg.jpg
Evolutions de la température mesurée dans les 4 canaux TLT, TMT, TTS et TLS des sondeurs de température MSU (Microwave Sounding Unit) et AMSU (Advanced Microwave Sounding Unit). Le refroidissement de la stratosphère(canal TLS, figure du bas) et le réchauffement de la basse troposphère (canal TLT, figure du haut) sont une signature de l'augmentation de l'effet de serre.


La condition préalable est toutefois que le modèle doit être prédictif. Il ne peut pas simplement être un ajustement aux observations.

 

Par exemple, on peut adapter une série de Fourier à un ensemble de données qui est purement aléatoire, mais aussi précis que soit l'ajustement il ne donnera pas de bonnes prédictions. De même, un ajustement linéaire ou quadratique à une série temporelle peut être utile sous forme de statistiques descriptives, mais s’il n’y a aucune raison de penser qu'il existe une base sous-jacente à une telle tendance, il a très peu de valeur prédictive.

 

En fait, tout ajustement statistique des données doit nécessairement essayer de faire correspondre les observations en utilisant une contrainte mathématique (i.e. en recherchant le moindre carré résiduel, ou en minimisant la pente, en utilisant des sinusoïdes, ou des ondelettes, etc.) et puisqu’il n'y a aucune raison physique de supposer que l'une de ces contraintes s'applique au monde réel, aucune approche purement statistique ne sera très utile dans l'attribution (bien que cela soit tenté tout le temps).


Pour être clair, définir n'importe quel signal climatique forcé par un forçage externe comme le simple ajustement aux données n'est pas suffisant (que cet ajustement soit linéaire, quadratique, polynomiale ou spline, peu importe). Le corollaire qui définit la « variabilité du climat interne » comme le résidu de cet ajustement ne fonctionne pas non plus.


Alors que pouvez-vous faire ?

 

La première chose à faire est de s'éloigner de l'idée que vous pouvez vous contenter de n’utiliser qu’un seul indicateur tel que la température mondiale par exemple. Nous avons beaucoup plus d’informations que cela : la distribution spatiale (les patterns) des changements à la surface, dans l'atmosphère, et dans les océans. En utilisant toute la complexité des « empreintes digitales » (la distribution spatiale typique) des changements, on peut faire un bien meilleur travail de discrimination entre les hypothèses concurrentes qu’en se limitant aux simples régressions linéaire multiples d’une unique série temporelle.

 

Par exemple, il y a une grande différence entre les changements forcés par l'énergie solaire et ceux liés aux émissions de CO2. Les changements dans la stratosphère s’effectuent en tandem avec la basse atmosphère pour les variations solaires, alors qu’ils sont opposés pour le CO2. Les changements dus aux aérosols ont souvent une distribution spatiale spécifique et donc ont une signature régionale spécifique qui peut être distinguée des variations de gaz à effet de serre bien mélangés.


Les distributions spatiales prévues pour n'importe quel forçage particulier (c'est-à-dire leurs empreintes digitales) peuvent être estimées à partir d'un modèle climatique ou même à partir d’une série de modèles climatiques dont les différences servent comme une estimation de leur incertitude structurelle.

Si ces patterns sont robustes, alors on peut être relativement confiants de ce qu'ils sont un bon reflet des hypothèses sous-jacentes à la construction des modèles.

 

On peut alors examiner le monde réel pour voir si les changements observés peuvent s'expliquer par une combinaison des empreintes digitales des différents forçages (solaire, aérosols, changement d’utilisation des sols, effet de serre, etc.).

 

Un point important à souligner est qu'il est facile de tenir compte de certaines imperfections du modèle, par exemple, si les changements du pattern solaire semblent sous-estimés en intensité, on peut essayer de voir si un facteur multiplicatif permettrait d'améliorer l’accord. On peut également appliquer des tests indépendants sur les modèles afin d'essayer de s'assurer que seuls les « bons » modèles sont utilisés, ou du moins de démontrer que les conclusions ne sont pas sensibles à ces choix.


Ces techniques, bien sûr, exigent de faire quelques hypothèses. Tout d'abord, celle que la répartition spatio-temporelle des réponses associée à un forçage particulier est assez précise (même si l’amplitude des changements peut être trop grande ou trop petite, sans causer de problème).

 

Dans une large mesure c'est le cas – le pattern refroidissement stratosphérique-réchauffement troposphérique lié à l’augmentation du CO2et des autres GES est bien compris, comme le sont qualitativement le pattern terres-océans, le pattern Nord-Sud et les caractéristiques d'amplification de l'Arctique. La valeur exacte de l'amplification polaire est cependant bien incertaine, même si cela affecte tous les schémas de réponse quel que soit le forçage et n'est donc pas un facteur crucial.

 

Plus problématiques sont les résultats qui indiquent que les forçages spécifiques existants pourraient avoir un impact sur la variabilité des patterns régionaux, comme l'oscillation arctique ou El Niño. Dans ces cas, il est clair que distinguer la variabilité naturelle interne du changement forcé est plus difficile.


Dans tout ce qui précède, on a besoin d’estimations de l’amplitude et la distribution spatiale de la variabilité interne. Celles ci peuvent être déduites de simulations du modèle (par exemple en utilisant les runs de contrôle de la période pré-industrielle qui fonctionnent sans forçage), ou estimées à partir des données d'observation. Cette dernière approche est problématique, car il n'y a pas de période "propre" où il n'y aurait que la variabilité interne –volcans, variabilité solaire, etc., ont eu une incidence sur les climat avant même le 20e siècle.

 

Ainsi, les estimations les plus simples viennent des MCG (modèles de circulation générale). Chaque modèle a une expression différente de la variabilité interne (certains ont une activité ENSO trop forte par exemple, alors que certains en ont trop peu, ou alors l’échelle de temps de la variabilité multi-décennale dans l'Atlantique Nord pourrait varier de 20 à 60 ans par exemple). Les conclusions sur l'ampleur des changements forcés doivent être robustes par rapport à ces différentes estimations.


Alors, comment cela pourrait-il se faire en pratique ? Prenez l'impact de l'éruption du Pinatubo en 1991. L'examen de l'enregistrement de la température au cours de cette période montre un léger refroidissement, avec un pic en 1992-1993, mais ces températures ne sont certainement pas sans précédent, pas plus qu'ils ne dépassent les limites de la variabilité observée, mais il est bien accepté que le refroidissement est attribuable à l'éruption.


Pourquoi ? Tout d'abord, il y a eu un changement bien observé dans la composition de l'atmosphère (une couche d'aérosols sulfatés dans la basse stratosphère). Tous les modèles, depuis les codes unidimensionnels de transfert radiatif jusqu’aux MCG, suggèrent que ces aérosols ont suffi pour modifier le bilan énergétique planétaire et provoquer un refroidissement global de la moyenne annuelle des températures à la surface.

 

Ils suggèrent également que la réponse aurait une structure spatiale complexe - réchauffement local dans la basse stratosphère, augmentations derayonnement solaire réfléchi, diminution de rayonnement ondes longues sortant, changements dynamiques de la circulation d’hiver de l'hémisphère Nord, diminution des précipitations tropicales, etc. Ces modifications ont été observées dans le monde réel, et avec des amplitudes très similaires à celles prédites. En effet, beaucoup de ces changements ont été prédits par les modèles de circulation générale avant qu'ils aient pu être observés.


Je vais laisser en exercice pour le lecteur le soin d'appliquer le même raisonnement aux changements liés à l'augmentation des gaz à effet de serre, mais pour ceux que cela intéresse le chapitre pertinent du rapport du GIEC vaut la peine d’être lu, comme le sont quelques récentes communications de Santer et ses collègues.


http://www.futura-sciences.com/typo3temp/pics/2d5c6e8edd.jpg
Tendance des températures mesurées dans les canaux TLT et TLS des sondeurs de température MSU (Microwave Sounding Unit) et AMSU (Advanced Microwave Sounding Unit). Le refroidissement de la stratosphère (canal TLS, en bas) et le réchauffement de la basse troposphère (canal TLT, en haut) sont une signature de l'augmentation de l'effet de serre.
Source : futura-sciences, Gavin Schmidt (traduction de Yves Fouquart)

 

Partager cet article

Repost 0

commentaires

Présentation

  • : Miss Maou et son Antre de l'Occulte
  • Miss Maou et son Antre de l'Occulte
  • : Philosophie de Vie et développement personnel. Ce blog a pour but le partage, la publication de l'actualité dont on ne parle pas au 20h, l'échange sur l'Esotérisme, mes conseils, mes écrits et accessoirement ma Vie. Bienvenue à tous,
  • Contact

Recherche