L’ETAT DESASTREUX DE LA SCIENCE DU CLIMAT

belgotopia 43

Les défauts affectant les modèles informatiques utilisés pour la prédiction de l’évolution future du climat ont été dénoncés par de nombreux scientifiques, et notamment encore récemment (1).

Ils sont rejoints par un océanographe et météorologue de haut niveau, le Dr MOTOTAKA NAKAMURA, PhD en sciences du Massachusetts Institute of Technology (MIT). Pendant près de 25 ans, il s’est spécialisé dans les phénomènes météorologiques et climatologiques non linéaires au sein d’institutions prestigieuses telles que le MIT, le Georgia Institute of Technology, la NASA, le Jet Propulsion Laboratory, l’institut de technologie JAMSTEC, la Duke university. et l’Agence japonaise pour les sciences et technologies marines et terrestres. Il a publié une vingtaine d’articles sur la dynamique des fluides. Il est donc au moins aussi qualifié que les modélisateurs du climat qu’il critique.

Il a publié un ouvrage en japonais (et ensuite en anglais) sur « l’état désastreux de la science du climat ». Intitulé Confessions d’un climatologue : l’hypothèse du réchauffement de la planète est une hypothèse non prouvée (2) dans lequel il explique pourquoi la base de données sur laquelle repose la science du réchauffement de la planète est «indigne de confiance» et ne peut être invoquée.

Je me base sur un commentaire de cet ouvrage paru sur le site australien « QUADRANT » (3), dont je reprends ici de larges extraits dans une traduction maison.

Jo Moreau

La vaste panoplie actuelle de la science du réchauffement planétaire ressemble à une pyramide inversée, construite sur le travail d’un petit nombre de modélisateurs du climat. Ils affirment avoir démontré que les émissions de CO2 d’origine humaine sont la cause du réchauffement planétaire récent et en tirent des prévisions pour l’avenir. Chaque chercheur conventionnel sur le climat considère ensuite cette conclusion issue du noyau des modélisateurs comme une évidence.

Un bon exemple est tiré du livret explicatif de 2015 de l’Australian Academy of Science. Il clame, de façon absurde, que les résultats des modèles sont « une preuve irréfutable » de l’origine humaine du réchauffement climatique. Plus précisément, il fait référence aux comparaisons de modèles prenant en compte ou non les émissions humaines, et trouve que la variété « avec » correspond mieux à l’enregistrement des températures sur les 150 dernières années (construction qui est elle-même hautement douteuse). Ainsi satisfaite, l’Académie diffuse ensuite auprès du public et des politiciens les prévisions catastrophiques du réchauffement climatique émises par les modèles.

Passons maintenant à la réfutation de cette modélisation, suivant l’expertise du Dr Nakamura. Il n’existait pas d’édition anglaise de son livre en juin et seuls quelques extraits ont été traduits et diffusés. Mais le Dr Nakamura a offert sa version en anglais, via une version Kindle gratuite, la semaine dernière. Ce n’est pas une traduction mais un nouvel essai qui ramène à ses conclusions originales.

Les modèles qui prévoient l’évolution de la température en tentant de gérer les complexités insolubles du climat ne sont pas meilleurs que des « jouets », ou des « railleries de Mickey Mouse » sur le monde réel, dit-il. Ce n’est vraiment pas une voie incontestable. Dans son troisième rapport (2001), le GIEC a concédé que :

Dans la recherche et la modélisation climatiques, nous devrions reconnaître que nous traitons avec un système chaotique couplé non linéaire et que, par conséquent, la prévision à long terme des états climatiques futurs n’est pas possible . (Chapitre 14, section 14.2.2.2.)]

Cependant, cet avertissement officiel a été profondément enfoui par les alarmistes. Ici, Nakamura l’a exhumé, accusant en outre les scientifiques orthodoxes de « falsification de données », en ajustant les relevés de température antérieurs pour amplifier le réchauffement apparent. « Les données de l’évolution de la température moyenne de surface de la planète n’ont plus aucune valeur scientifique, et ne sont rien d’autre qu’un outil de propagande destiné au public.« , écrit-il.

Les modèles climatiques sont des outils utiles pour les études académiques, dit-il. Cependant, « les modèles deviennent des accessoires inutiles ou pire (ils peuvent produire une déduction gravement trompeuse) lorsqu’ils sont utilisés pour la prévision climatique.

Certains processus et rétroactions climatiques d’une importance cruciale ne sont pas pris en compte par ces modèles, qui rendent compte d’autres processus et d’autres réactions critiques du climat d’une manière extrêmement déformée, de telle sorte que ces modèles sont totalement inutiles pour toute prévision climatique significative.

J’ai moi-même utilisé des modèles de simulation du climat pour des études scientifiques, et non pour des prévisions, et j’ai appris à connaître leurs problèmes et leurs limites. »

Nakamura et ses collègues ont même essayé de corriger certaines des approximations des modèles

« … Donc je connais très bien le fonctionnement de ces modèles. (…)  Je suis confiant dans le fait que certains scientifiques honnêtes et courageux continueront à dénoncer publiquement les affirmations frauduleuses formulées par le courant majoritaire de la communauté scientifique spécialisée dans le climat. Je regrette de le dire, mais je suis également convaincu que les chercheurs climatologues japonais dociles et ou incompétents garderont le silence jusqu’à un changement d’orientation de la « communauté scientifique du climat » si jamais cela se produisait. »

Il prévoit que selon des experts compétents, le réchauffement résultant du doublement du CO2 ne sera que de 0,5 ° C. Il dit qu’il ne conteste pas la possibilité d’un réchauffement catastrophique ou d’une glaciation importante, car la myriade de processus non linéaires du système climatique submerge « les bricolages » utilisés pour les prévisions climatiques. « La prévision climatique est tout simplement impossible, ne serait-ce que parce que les futures modifications du rayonnement solaire sont inconnues. Quant à l’impact du CO2 d’origine humaine, il ne peut être quantifié « avec les connaissances et la technologie dont nous disposons actuellement ».

Les autres simplifications élémentaires du modèle incluent

– L’ignorance à propos de la dynamique des océans à petite et grande échelle.

– Une absence complète de représentations significatives de la dynamique des aérosols générant les nuages.

– Le manque de compréhension des facteurs de rétroaction glace-albédo (réflectivité): « Sans une représentation raisonnablement précise, il est impossible de prédire de manière significative les variations climatiques de la planète entière. »

– L’incapacité de gérer l’influence de la vapeur d’eau.

– Les imputations arbitraires de paramètres clés qui ne sont pas maîtrisés.

Concernant les fluctuations de CO2, il dit : Je tiens à souligner le fait qu’il est impossible de prédire correctement le sens ou la direction d’un changement d’une structure lorsque l’outil de prévision ignore et ou déforme de manière flagrante d’importants processus non linéaires, en particulier des rétroactions, présents dans le système existant…

… Le système climatique réel ou simulé de manière réaliste est bien plus complexe que le système simplifié d’une manière absurde, résultant des bricolages qui ont été utilisés jusqu’à ce jour pour les prévisions climatiques, et il sera insurmontable pour les climatologues naïfs qui ont une compréhension nulle ou très limitée de la dynamique géophysique des fluides. Je comprends juste un peu la dynamique géophysique des fluides, mais assez pour me rendre compte que la dynamique de l’atmosphère et des océans sont des facteurs absolument essentiels du système climatique, si l’on espère pouvoir un jour prédire de manière significative les variations du climat.

L’influence du soleil est modélisée d’une manière absurde comme une « quantité intangible ». Il déclare: « Cela ne fait que quelques décennies que nous avons acquis la capacité de mesurer avec précision l’apport de l’énergie solaire. Au cours de ces seules décennies, il a varié de un à deux watts par mètre carré. Est-il raisonnable de supposer dans nos prévisions qu’aucune variation plus importante ne surviendra jamais dans les cent prochaines années ou plus ? Je dirais non. »

Une modélisation correcte des océans est cruciale, car les courants océaniques lents transportent de grandes quantités de chaleur dans le monde, rendant les changements mineurs de stockage de la chaleur atmosphérique presque sans influence. Par exemple, le Gulf Stream a gardé l’Eurasie occidentale au chaud pendant des siècles. Sur des échelles de temps supérieures à quelques années, il joue un rôle beaucoup plus important sur le climat que les changements atmosphériques. « Il est absolument essentiel que toute prévision climatique significative soit faite avec une représentation raisonnablement précise de l’état et des mouvances océaniques. » Et ce dans la réalité plutôt que modélisés. Comme dans l’atmosphère, les flux à plus petite échelle contrecarrent les effets des flux à grande échelle. Nakamura passa des centaines d’heures à tenter en vain de remédier aux défauts qu’il avait observés, arrivant à la conclusion que la représentation donnée par les modèles est totalement irréaliste.

Une bonne modélisation des océans nécessiterait une amélioration d’une dizaine de fois supérieure de la résolution spatiale à ce qu’elle est actuellement, et une augmentation considérable de la puissance de calcul, nécessitant probablement des ordinateurs quantiques. (…)

Les éléments clés d’un modèle sont remplis d’optimisations, c’est-à-dire de ficelles. Nakamura explique comment cela fonctionne

« Les modèles sont «ajustés» en manipulant les valeurs de divers paramètres jusqu’à obtenir le meilleur compromis. Je le faisais moi-même. C’est une procédure nécessaire et inévitable et ce n’est pas un problème tant que l’utilisateur est conscient de ses implications et honnête à ce sujet. Mais c’est un défaut grave et fatal s’il est utilisé à des fins de prévision ou prédictions climatiques.

Un ensemble de ficelles concerne les nuages.

Une représentation correcte de l’ennuagement ​​est peut-être la plus grande source d’incertitude dans les prévisions climatiques. Un fait essentiel est que même un très petit changement dans les caractéristiques globales des nuages, tellement petit qu’il ne peut être mesuré avec précision, peut complètement compenser l’effet de réchauffement du doublement du CO2 atmosphérique.

Deux de ces caractéristiques sont l’augmentation de la surface nuageuse, et la diminution de la taille moyenne des particules composant ces nuages.

Une modélisation précise du nuage est tout simplement impossible dans les modèles climatiques car elle nécessite des calculs de composants à des échelles inférieures à 1 mm. »

Les modélisateurs définissent plutôt leurs propres paramètres du nuage. Quiconque étudie la formation réelle des nuages, puis leur implication dans les modèles climatiques, serait « sidéré par le traitement superficiel qui leur est réservé ​​dans ces modèles. »

Nakamura qualifie de «débiles» les affirmations selon lesquelles les modèles océaniques «ajustés» sont suffisamment bons pour les prévisions climatiques. En effet, certains paramètres du modèle doivent être extrêmement déformés pour satisfaire au réglage d’autres paramètres. Il dit qu’une grande partie de la prévision du réchauffement planétaire doit être attribuée à l’influence de la vapeur d’eau, pas aux fluctuations du CO2. « Mais en réalité tous les modèles de simulation climatique reproduisent mal l’influence de la vapeur d’eau atmosphérique et son forçage radiatif observés dans le climat actuel… Ils ne disposent que d’un nombre réduit de paramètres qui peuvent être utilisés pour «ajuster» les performances des modèles, et rendent ceux-ci totalement irréalistes. ». Les modélisateurs impliquent artificiellement les réactions positives de la vapeur d’eau face à l’augmentation du CO2, et ils négligent d’autres rétroactions contraires présentes dans le monde réel. Ils aboutissent donc à une exagération de la prévision du réchauffement.

La mesure supposée des températures moyennes mondiales à partir de 1890 a été basée sur des lectures de thermomètres couvrant à peine 5% de la surface du globe, jusqu’au début de l’ère des satellites il y a 40 à 50 ans. « Nous ne savons pas comment le climat mondial a évolué au cours du siècle dernier, tout ce que nous connaissons, ce sont quelques changements climatiques régionaux limités, comme en Europe, en Amérique du Nord et dans certaines régions de l’Asie. » Ils ont servi de base à définir la limite d’augmentation admissible de 1,5° ou 2°C au-delà des niveaux préindustriels, fixée par les accords de Paris.

Il méprise les affirmations selon lesquelles les modèles seraient «validés», affirmant que «  les modélisateurs sont préoccupés à construire des discours qui justifient l’utilisation de ces modèles pour les prévisions climatiques». Il conclut:

Le message à retenir est que tous les modèles de simulation climatique, même ceux avec le meilleur schéma de représentation paramétrique pour les mouvements convectifs et les nuages, souffrent d’un très grand degré d’arbitraire dans la représentation de la dynamique affectant la vapeur d’eau et les champs de nuages ​​atmosphériques. Puisque les modèles climatiques sont ajustés arbitrairement, il n’y a aucune raison de faire confiance à leurs prédictions et prévisions.

Dans les modèles, les valeurs de paramètres censés représenter de nombreux processus complexes sont intégrées comme des constantes, alors que de nombreux processus non linéaires du système climatique sont absents ou grossièrement déformés. Il est dès lors illusoire de croire qu’ils peuvent prédire correctement la manière dont évoluera le climat futur.

Tony Thomas.

(1) https://www.frontiersin.org/articles/10.3389/feart.2019.00223/full

(2) https://www.amazon.in/Kindle-Store-Nakamura-Mototaka/s?rh=n%3A1571277031%2Cp_27%3ANakamura+Mototaka

(3) https://quadrant.org.au/opinion/doomed-planet/2019/09/a-climate-modeller-spills-the-beans/

 

VOS COMMENTAIRES SONT BIENVENUS.

BIENVENUE EGALEMENT SUR MA PAGE FACEBOOK :

https://www.facebook.com/BELGOTOPIA-82840099725/

DES TAUX AFFOLANTS DE CO2 ATMOSPHERIQUE

co2

 

Les médias viennent de nous apprendre que le taux de CO2 dans l’atmosphère a atteint un record « jamais vu » depuis 3 millions d’années, soit 415 ppm. Et pour bien nous culpabiliser, si d’aventure on n’avait pas compris : « Un nouveau triste record dont nous avons à endosser la responsabilité ». (1)

Voila les balises posées, mais ce record historique m’interpelle toutefois, en simple citoyen béotien dépourvu de toute culture scientifique.

La première question que je me pose est : ce taux est celui de l’ensemble du CO2 contenu dans l’atmosphère. Sachant que les activités humaines ne sont responsables que d’environ 5% de l’ensemble du CO2 relâché annuellement, 95% l’étant par la nature, à quel point notre responsabilité est-elle réellement engagée ?

Ensuite, le seul organisme qui recueille ce type de donnée est le Mauna Loa Observatory, situé à Hawaï. Est-ce bien l’endroit idéal pour un recensement des gaz à effet de serre et du CO2 atmosphérique, si vous suivez mon regard volcanique ?

Mais soit, ces interrogations doivent être négligeables, si on suit l’avis des experts. A propos, avez-vous constaté le changement récent de terminologie utilisé dans le domaine climatique (et écologique) ? Depuis que les climato-sceptiques sont devenus des dénialistes, les « scientifiques » sont devenus des « experts ». Prenez-en de la graine, les GIECosceptiques et ignares de tous bords, de quoi vous clouer le bec !

Venons-en maintenant à des impressions toutes personnelles. Car dans ce domaine ou d’autres, je me demande souvent : « et avant, c’était comment ? ».

Au milieu du 20e siècle, soit dans les années 1950-60, les bassins industriels tournaient à plein régime partout, non seulement en Europe, mais également dans les Amériques, les colonies africaines et ailleurs. Sans aucun égard pour la quantité de CO2 qu’elles généraient. Je me souviens des bassins sidérurgiques liégeois, carolos, dans le Centre et autres et de leurs usines en pleine activité. Les chemins de fer, avec un réseau bien plus vaste qu’aujourd’hui (et plus ponctuels soit dit en passant) fonctionnaient avec des locomotives utilisant le charbon (et accessoirement du mazout). Charbon servant également au chauffage de chaque habitation, que ce soit en ville ou à la campagne, et utilisé dans quantité d’industries, dont les centrales électriques. Des véhicules automobiles, bien moins nombreux il est vrai mais déjà pourvoyeuses des premiers bouchons, et très consommatrices d’essence, une petite VW Cox consommait joyeusement ses 10/11 litres aux 100 kilomètres.

Nous sortions également d’une guerre mondiale où les industries ont tourné à plein régime, des dizaines de milliers d’avions, un nombre incalculable de blindés et autres véhicules militaires ont été utilisés, des milliers de navires dont pas mal de pétroliers ont brûlé, de nombreuses villes ont été intégralement détruites par le feu.  Certains « experts » prétendent que le CO2 reste confiné une centaine d’années dans l’atmosphère, il faut alors tenir compte de cette période historique…

Pour mon information strictement personnelle, j’aurais aimé connaître le taux de CO2 contenu dans l’atmosphère en 1955, par exemple. (réellement constaté, et non issu d’extrapolations modélisées).

Question idiote ? Ben oui, la réponse doit alors être évidente ?

Et je ne vous ai pas parlé des niveaux respectifs de pollution, quand les villes se développaient à proximité immédiate des bassins industriels, là où il y avait du travail, ou à contrario quand de nombreuses usines et « fabriques » s’établissaient au sein même des agglomérations, là où il y avait de la main-d’œuvre.

Mais tout ceci, je le répète, sont seulement des impressions subjectives, bien éloignées des mesures hyper-scientifiques émanant d’experts qualifiés, ce que je ne suis pas.

Jo Moreau

(1) https://www.futura-sciences.com/planete/actualites/climatologie-taux-co2-atmosphere-atteint-record-jamais-vu-depuis-3-millions-annees-19695/

 

BIENVENUE EGALEMENT SUR MA PAGE FACEBOOK :

https://www.facebook.com/BELGOTOPIA-82840099725/

LES INCERTITUDES DE LA MODELISATION CLIMATIQUE

autriche 2

 

L’Institut Météorologique Autrichien ((Zentralanstalt für Meteorologie und Geodynamik) a publié un article (1) qui, s’il ne contient pas d’éléments particulièrement nouveaux sur les incertitudes de la modélisation du climat futur, me semble toutefois suffisamment inhabituel de la part d’un organisme officiel pour être épinglé.

L’accent est mis sur l’impossibilité d’incorporer les facteurs naturels dans les modèles évaluant l’évolution du climat futur, en limitant toutefois ceux-ci aux seuls rayonnement solaire et activité volcanique et passant sous silence tous les autres… Mais enfin, il faut un début à tout, et qui sait, son exemple décoincera peut-être d’autres organismes officiels ? On peut toujours rêver…

Fondé en 1851, Le ZAMG a comme mission principale l’observation météorologique et l’étude du climat. L’article cité est non-daté, mais le principe même de non-prévisibilité des facteurs naturels reste pleinement d’actualité.

Précisons aussi que cet article fut épinglé par le site néerlandais climategate.nl. (2)

Jo Moreau

 Les facteurs naturels du climat ne sont pas pris en compte.

Si les modèles climatiques ne sous-estimaient pas l’influence de chacun des facteurs climatiques naturels dans l’évolution de la température globale, même s’ils ont apparemment donné un résultat réaliste jusqu’à ce jour, les prévisions futures seraient faussées. Mais plus important encore, les facteurs autres que anthropiques dans les scénarios climatiques futurs n’étant pas pris en compte, ces scénarios ne peuvent être fiables.

Un des problèmes rencontrés avec une modélisation climatique mondiale est que la qualité du modèle est centrée sur la représentation d’une température moyenne, telle que dérivée des mesures. Bien que la simulation puisse être relativement bonne, on peut se demander si la sensibilité des modèles aux divers facteurs naturels déterminants pour le climat (activité solaire, aérosols volcaniques, gaz à effet de serre, etc.) correspond bien à la réalité. De plus, ces facteurs eux-mêmes, avec leur effet de réchauffement ou de refroidissement, ne sont pas encore bien compris. Ainsi, il est possible qu’un modèle climatique simule bien une température globale moyenne, mais ceci est néanmoins obtenu sur base d’une sensibilité incorrecte du modèle en raison des données saisies.

Le facteur anthropique est-il surévalué ?

Le quatrième rapport du GIEC (Solomon et al., 2007) indique que le réchauffement de la planète dans la seconde moitié du siècle dernier était « très probablement » causé par la concentration croissante des gaz à effet de serre émis par les activités humaines. Cette affirmation est basée sur les simulations de nombreux modèles de climat global. Les critiques estiment que ces modèles montrent une trop grande sensibilité au CO2 et sous-estiment par exemple l’influence du soleil.

Le climat futur est imprévisible.

Parce que les facteurs climatiques naturels tels que le rayonnement solaire ou l’influence des aérosols volcaniques ne sont pas prévisibles, les modèles prennent exclusivement en compte l’effet des gaz à effet de serre pour les scénarios d’évolution future du climat. Par contre, les reconstitutions du passé incluent à la fois les gaz à effet de serre naturels et anthropiques, ainsi que l’intensité de rayonnement du soleil et les concentrations d’aérosols volcaniques et anthropiques dans l’atmosphère.

Les facteurs climatiques naturels échappent aux prévisions, car il n’existe pas encore de modèle astrophysique permettant de prédire l’activité du soleil ou l’activité volcanique, qui ne sont pas non plus prévisibles à long terme.

Il faudra un certain temps pour attribuer un coefficient correct à chacun des facteurs entrant en compte dans les modèles climatiques. Une critique fondamentale de la performance des modèles climatiques équivaut presque à ne pas accepter leur validité. Il est essentiel d’identifier les résultats que les modèles climatiques peuvent produire avec une certaine certitude, et ceux qui ne le sont pas.

Institut central de météorologie et de géodynamique – 1190 Wien,

 

  1. https://www.zamg.ac.at/cms/de/klima/informationsportal-klimawandel/klimaforschung/klimamodellierung/kritik
  2. https://www.climategate.nl/2019/02/oostenrijks-meteorologische-dienst-distantieert-zich-van-klimaatconsensus/?

 

BIENVENUE EGALEMENT SUR MA PAGE FACEBOOK :

https://www.facebook.com/BELGOTOPIA-82840099725/

 

L’ IMPORTANCE DE L’ENNUAGEMENT ET SA MODELISATION

CLIMAT 24

Dans une récente livraison, SCIENCE NEWS a publié un article expliquant le rôle primordial de l’ennuagement dans le processus climatique (1).

Les difficultés rencontrées pour une modélisation correcte de l’influence des nuages sur le climat est le sujet principal de cet article, dont je reprends ci-dessous quelques passages significatifs, dans une traduction « maison ».

Il serait toutefois abusif de considérer cet article comme «sceptique », car il détaille en fait les améliorations apportées à une modélisation plus fiable de ce phénomène atmosphérique, permettant des prévisions futures plus fiables qu‘actuellement.

Jo Moreau

Les nuages mènent une sorte de double vie. Leurs molécules, comme toute l’eau présente dans l’atmosphère, contribuent à l’effet de serre en interceptant le rayonnement infrarouge émis par la Terre, pour renvoyer une partie de cette énergie vers la surface de la planète. Mais les sommets blancs des nuages renvoient aussi, collectivement, près d’un quart du rayonnement solaire qui les atteint, en un effet obscurcissant la planète.(…)

Tout compte fait, les nuages refroidissent la planète par cette réflexion du rayonnement solaire beaucoup plus qu’ils ne la réchauffent par le biais de l’effet de serre. Sans eux, la surface de la Terre serait plus chaude en moyenne d’environ 5 degrés Celsius. »Les nuages sont vraiment au cœur du système climatique», explique Sandrine Bony, une scientifique du climat à l’Université Pierre et Marie Curie à Paris.(…)

Le dernier rapport du panel (GIEC AR5) , officiellement publié le 30 Janvier, estime une augmentation de température de 1,5 à 4,5 degrés dû au doublement des émissions de dioxyde de carbone. En d’autres termes, sept ans après le précédent rapport, l’incertitude a en fait augmenté. (…)

Modélisation de l’avenir. Les premières bonnes observations des nuages par satellite ont montré que les simulations climatiques obtenues par les superordinateurs utilisés pour prédire un réchauffement futur, étaient cohérentes. Mais ces simulations avaient tendance à produire trop peu de nuages et à exagérer leur pouvoir de réflexion. Les modèles ont également généré trop de tempêtes et n’ont pas réussi à reproduire les grandes tendances météorologiques. Beaucoup de problèmes découlent des simplifications que les scientifiques sont amenés à faire lors de la conception des modèles climatiques.(…)

Une résolution plus élevée est utile, dit Anthony Del Genio, qui développe des simulations à l’Institut Goddard pour les études spatiales à New York. Mais ce n’est pas le seul, ni même le meilleur moyen de faire des modèles plus réalistes. « En ce qui concerne les grandes questions de changement climatique, une résolution plus fine n’est pas nécessairement la réponse, » dit-il. «La réponse est à trouver dans la Physique » (…)

Les modèles climatiques actuels représentent des processus liés aux nuages avec de nombreuses variables, y compris l’humidité, la quantité d’eau condensée en eau et en glace, le nombre de gouttelettes qui tombent à des vitesses différentes et les concentrations et tailles différentes des particules des aérosols (…)

Ces améliorations, note Ulrike Lohmann (physique des nuages), donnent une représentation plus réaliste de la complexité de la nature, mais n’ont pas nécessairement une meilleure capacité prédictive. « La tendance qui s’en dégage est que plus nous en savons, plus la marge d’incertitude est grande » dit-elle.(…)

Tous les scientifiques ne sont pas unanimes pour considérer que les nuages entraînent une rétroaction positive. Graeme Stephens (Chercheur au NASA JPL) pense que les modèles climatiques varient encore trop entre eux pour permettre aux scientifiques d’en tirer une conclusion définitive. « Il y a un accord qu’en fonction des évaluations connues, ces évaluations sont plus susceptibles d’être positives », dit-il. « Cela ne signifie pas que les évaluations d’ensemble doivent être positives. » En partie à cause de l’influence de Stephens, le rapport du GIEC note que la rétroaction totale des nuages est  » probablement positive » (italique dans l’original), laissant la place à un effet neutre ou légèrement négatif. (…)

En Janvier 2014, les scientifiques ont analysé la façon dont les modèles climatiques simulent la convection, et ont constaté que de nombreuses simulations aboutissent à un processus erroné. Avec comme conséquence, note l’équipe dans Nature , que ces simulations produisent trop de nuages ayant un coefficient faible de réflexion de la lumière du soleil. Les modèles qui tiennent compte d’un pouvoir de convection correct prédisent, en moyenne, sensiblement plus de réchauffement au cours du prochain siècle. Les auteurs de l’étude, à laquelle participe Bony, a conclu que le doublement du dioxyde de carbone devrait amener une augmentation de la température de 3 à 4,5 degrés, la tranche supérieure de la prévision actuelle du GIEC. Mais toutes les preuves ne vont pas dans ce sens. Depuis 1998, la température de surface de la Terre est restée à peu près constante, ce qui constitue un changement important après trois décennies de réchauffement rapide ( SN: 05/10/13, p 14. ). Si le climat était vraiment aussi sensible à l’effet de serre que Bony et ses collègues le pensent, le réchauffement aurait continué au même rythme, voire se serait accéléré. Les études sur les changements climatiques dans le passé semblent indiquer que l’effet de serre pourrait avoir moins d’impact sur la température globale que ce que de nombreux modèles prédisent. Concilier ces évidences avec les dernières conclusions des scientifiques sur les nuages est l’un des principaux défis auxquels le secteur est confronté aujourd’hui. (…)

(Notons que l’article se termine par la « phrase magique »(2)… )

(1) https://www.sciencenews.org/article/cloudy-forecast?utm_source=Society+for+Science+Newsletters&utm_campaign=593514f4f7-editors_picks_week_of_March_10_20143_15_2014&utm_medium=email&utm_term=0_a4c415a67f-593514f4f7-93309169

(2) http://belgotopia.blogs.lalibre.be/archive/2014/02/18/la-phrase-magique-merveilleux-conte-climatique-1124655.html

UNE CONFERENCE EXCEPTIONNELLE :

réchauffement climatique,GIEC,CO2,gaz effet de serre,