Archives pour la catégorie Réchauffement climatique

2016 année la plus chaude

Article rédigé le 22 janvier 2017

Ça y est. Depuis quelques jours, les médias jouent à nous faire peur à propos de 2016 année la plus chaude. Ainsi, Coralie Schaub  dans son article  sur Libération du 19 janvier 2017, multiplie-t-elle les contre-vérités et mensonges pour accréditer la thèse apocalyptique. À ce niveau de désinformation, ce travail mérite un prix.

2017 a donc battu tous les records de température. Selon cet article, « c’est ce qu’ont annoncé mercredi l’Organisation météorologique mondiale (OMM, qui dépend des Nations unies) et deux institutions américaines, la NASA et l’Agence américaine océanique et atmosphérique (NOAA). » Il se trouve que ces trois organismes s’appuient sur les mêmes données, celles de la NOAA. Il ne s’agit donc pas de travaux indépendant, et il est donc logique que la conclusion soit la même. Il existe d’autres instituts de mesures dont les données sont indépendantes, comme celles de l’université d’Alabama Huntsville (UAH) qui, s’appuyant sur des mesures par satellite, n’aboutissent pas tout à fait aux mêmes conclusions.

« Elle [2016] a dépassé d’environ 0,07°C le précédent record de 2015« . Ce qu’omet de dire Mme Schaub, c’est que la marge d’erreur est de 0,1°C selon la NOAA, c’est dire si l’on est dans l’épaisseur du trait.

Par ailleurs, les mesures de la NOAA ont la particularité d’être évolutives : Si vous téléchargez les mesures publiées dans leur version d’août 2005 et dans  celle de novembre 2016, l’anomalie moyenne pour la période 1880-1900 passe de -0.24°C à -0.49°C et la période 1980-2000 de 0.34°C à 0.43°C. Cela signifie que pour la même période 1880-1900 / 1989-2000, le réchauffement climatique est passé de 0.58°C dans la version de 2005 à 0.92°C dans celle de 2016, par le biais des seuls ajustements.

L'évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016.

L’évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016, ajustée à +0.73°C pour faire en sorte que 0°C corresponde à l’année la plus froide jamais enregistrée, 1887 dans la version 2016.

Ce record intervient, comme en 1998, au moment d’un el nino particulièrement fort, ce qui n’indique pas un réchauffement, mais est juste un artefact de mesure dans un contexte chaotique mais sans hausse significative depuis maintenant près de 20 ans. Au mois de janvier, les mesures sont à nouveau dans la moyenne des 20 dernières années. Voici ce que montrent les mesures satellite RSS et UAH :

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l'ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Ce qu’il en ressort, c’est que el nino est un simple artefact qui ne préjuge en rien de l’évolution future du climat.

Observez 117 ans de réchauffement climatique à Paris

Observez 117 ans de réchauffement climatique en France

C’est ce que nous proposent les Décodeurs à l’aide d’une infographie animée montrant les courbes annuelles de 1899 à 2016 pour la France et depuis 1873 pour Paris. Si l’exercice engendre un effet visuel mettant en évidence la prédominance des dernières décennies dans les années les plus chaudes, un simple graphique chronologique l’aurait également permis. Le résultat pose cependant questions.

Les graphes des décodeurs sont sourcés d’un laconique « Météo France » . Heureusement, la source du code permet de récupérer les valeurs utilisées, mois par mois. Je vais, pour la suite, utiliser les données parisiennes.

La seule station parisienne enregistrant les données depuis 1872 est la station Paris-Montsouris (ou ici). Cette station est assez mal classée (indices allant de 3 à 5 sur 5). Elle est classée 3/5 pour les température (médiocre) depuis 1999, les sondes ont été remplacées en 2006 et 2010. Elle est également classée B concernant la précision des températures (incertitude de 0.15°C) depuis 2009. Tout porte à croire que la situation antérieure était moins bonne (on remplace rarement du matériel pour perdre en précision). La station automatique a été installée en 1989.

Situation de la station météo Paris Montsouris

Situation de la station météo Paris Montsouris, à une soixantaine de mètres du boulevard des Maréchaux.

Il faut garder à l’esprit que les stations météorologiques n’ont pas été conçues pour étudier le climat : leur marge d’erreur est souvent, encore aujourd’hui, de l’ordre de 0,5°C. Ce qui est énorme lorsqu’on prétend détecter un réchauffement climatique d’un ordre de 2 fois plus grand sur un siècle et demi, avec une précision 50 fois moins grande, c’est à dire au centième de degré.

Les relevés de température

Afin d’homogénéiser les données de la station, je les ai moyennées sur 10 ans : Cela nous permet de suivre l’évolution des enregistrements en s’extrayant des artefacts de mesures.

graph 1882-2016 moyenne decennale

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

À première vue, il existe au moins deux interrogations :

Alors que tous les spécialistes s’accordent à dire que le réchauffement climatique d’origine humaine n’est pas perceptible avant les années 1950, nous observons un réchauffement de l’ordre 0.6°C entre 1895 et 1901. En 6 ans seulement, la ville de Paris aurait enregistré une augmentation des températures équivalent aux 2/3 du réchauffement global mesuré sur 150 ans au niveau planétaire. Et à l’époque, personne ne s’est aperçu de rien : pas de vendanges précoces, d’oliviers plantés dans le parc Montsouris, de migration ou disparition d’animaux ou autres caractéristiques bien connues : Rien. Vers 1950, alors que le réchauffement n’est pas censé être perceptible, le réchauffement parisien culmine à 1,5°C : près de deux fois le réchauffement officiellement constaté au niveau planétaire aujourd’hui, toujours sans que personne ne s’aperçoive de rien. Pire, dans les années 70, la crainte était un refroidissement climatique : Sur la base des mêmes mesures, le Monde titrait le 23 juin 1971 « Quand la Terre se refroidit » , où l’on pouvait lire « Beaucoup de spécialistes semblent d’accord pour reconnaître que la tendance climatique actuelle est au refroidissement. » Sans que l’on n’en connaisse les raison à l’époque, malheureusement.

Selon les mesures de la station Montsouris, la température a augmenté de près de 2.5°C depuis 1882. Trois fois l’augmentation supposée du réchauffement climatique d’origine humaine. Ce résultat est à lui seul totalement délirant : tenter une quelconque démonstration à partir de ces données est un non sens.

Un siècle et demi d’urbanisme

Évolution des températures à Paris

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

Le 14e arrondissement de Paris est créé en 1860. Sa population est alors de 52000 habitants, celle du quartier Montsouris de 1400 habitants. Wikipedia précise « C’était à l’époque une zone rurale périurbaine, où seuls les abords de la route de Gentilly à Paris (rue de la Santé et rue de l’Amiral-Mouchez) ainsi que l’hôpital Sainte-Anne, possédaient quelques constructions. » La population du 14e arrondissement a depuis triplé et celle du quartier de Montsouris multipliée par 15 à près de 20000 habitants (15000 habitants/km2). Montrouge, à 500 mètres de la station météo, était une petite agglomération entourée de champs de 8600 habitants en 1882, c’est aujourd’hui une ville de 50000 habitants.

Le boulevard des Maréchaux, créé à la même époque que le parc, est à une soixantaine de mètres de la station météorologique.

À moins de 100 mètres a été bâtie la cité internationale universitaire entre 1925 et 1938. Les rues qui entourent le parc sont bâties au cours du XXe siècle.

Le boulevard périphérique ouvert en 1973 est à 400 mètres à peine. En France, le nombre de véhicule a triplé depuis 1970, et le nombre de milliards véhicules.km (ou ici) est passé de 419,8 en 1990 à 560,4 en 2010. La construction de nouvelles routes et l’explosion de la circulation ne sont sans doute pas sans incidence sur les effets d’îlot urbain (ou ici).

C’est donc sur la base de ces données météorologiques contestables, car d’une précision inconnue jusqu’en 2009 mais probablement de l’ordre du demi degré et ne prenant manifestement pas en compte l’évolution urbaine, que s’appuient les Décodeurs pour prouver l’existence d’une accélération de la hausse des températures à Paris depuis 1880.

 

 

La banquise arctique pourrait complètement disparaître d’ici à quatre ans

Tel est le titre d’un article signé le 19 septembre 2012 par Audrey Garric, Chef adjointe du service #Planète/#Sciences du Monde, spécialiste climat, pollution, énergie, pangolins.

Caramba, encore raté !

Extension de la banquise arctique au 12 septembre 2016

Extension de la banquise arctique au 12 septembre 2016. Source : http://www.iup.uni-bremen.de:8084/amsr2/extent_n_running_mean_amsr2_previous.png

C’était il y pile 4 ans, et la catastrophe annoncée ne s’est pas produite. La banquise arctique s’est réduite cette année à 4.351 millions de km2, soit 700 000 de plus qu’en 2012, année de l’annonce fracassante du Monde, laquelle suivait la prophétie d’Al Gore de 2008, prévoyant la disparition de la banquise arctique avant… 2013.

Selon Audrey Garric (voir le post-scriptum), « La raison pour laquelle il y a autant de climato-sceptiques, c’est qu’en matière de changement climatique, il faut dix secondes pour sortir une ânerie, et dix minutes pour expliquer pourquoi c’est une ânerie. » Corollaire, le problème avec les climastrologues, c’est qu’il leur faut 10 secondes pour prévoir une catastrophe, et plusieurs années pour démontrer factuellement leur fourvoiement idéologique. Ce qui ne les empêche pas de recommencer.

À ce propos, si les records de chaleur sont battus chaque mois depuis un an, c’est à cause d’un phénomène naturel et récurrent, appelé « El Nino » , qui se caractérise notamment par un réchauffement de l’atmosphère. Débuté en 2015, il a été particulièrement puissant mais est actuellement en phase descendante. Il pourrait céder la place à un « La Nina » , phénomène tout aussi naturel et récurrent qui se caractérise par une baisse des températures. Nous ne devrions donc plus entendre parler de records de températures d’ici quelques mois (les alarmistes trouveront sans doute une cause censée prouver le Dogme), mais l’hystérie reprendra au prochain El Nino un peu violent, dans quelques années.

Évolution des températures de 1997 à septembre 2016

Évolution des températures de 1997 à septembre 2016 selon les mesures satellite RSS (Remote Sensing System). On voit très bien le El Nino de 1998 suivi de son épisode froid « La Nina » jusqu’en 2002, et celui de 2016 pour lequel on ne peut que constater la phase descendante. En dehors des pics El Nino, il est bien difficile de distinguer un réchauffement sur les 20 dernières années.

Je ne résiste pas à publier cette vidéo où le physicien Richard Feynman expose la bonne méthode scientifique : « si l’expérience ne vérifie pas votre théorie, cette dernière est fausse » .

Anthrax en Siberie

Libération, mais aussi les autres médias jusqu’aux JT de 20h s’en sont fait l’echo : une épidémie d’anthrax due à la décomposition d’animaux décédés depuis des siècles ou plus s’est déclarée en Sibérie où le pergelisol fond à cause du réchauffement climatique.

Les températures moyennes avoisinent les 35 degrés – contre 17 habituellement à la même saison.

Faktoriya-temperatures-juillet-2016

Températures enregistrées à Faktoryia en juillet 2016. Source

La région (a priori vers Faktoriya) a enregistré une canicule inhabituelle le mois dernier. Si l’on ne peut pas exclure un pic à 35°C, force est de constater que les enregistrements n’ont pas excédé les 25°C. Par ailleurs, 35°C n’est pas un record. Les maximales à  Yanov Stan par exemple, sont de 36.3°C en juin, et 35.2°C en juillet, comme à Nyda . On trouve même plus de 39°C à Kikiakki : comparer une moyenne mensuelle calculée sur plusieurs années voire décennies à celle de l’année en cours est pour le moins malhonnête : il a toujours existé des années chaudes et des années froides.

Les derniers cas d’anthrax remontaient à 75 ans

Ce qui nous indique que ce phénomène s’est déjà produit. Il y a 75 ans : Si tel est le cas, ou le pergélisol a déjà fondu dans le passé, ou les cas d’anthrax ont une autre cause : On trouve des cas d’anthrax dans d’autres régions de la Sibérie, comme en atteste cet article de 2012.

La source probable du journaliste, issue d’un média sibérien, est factuelle : un enfant est décédé après avoir contracté  l’anthrax. Sa grand-mère est décédée pour une raison inconnue. D’autres malades ont été hospitalisés. La majorité des personnes touchées sont des nomades éleveurs de rennes.

Cimetière Nenets, Sibérie

Cimetière Nenets, Sibérie. Source : Siberiantimes

Dans un premier temps, la cause de linfection n’était pas connue, et les soupçons se sont d’abord portés sur la canicule, avec des températures de l’ordre de 25 à 35°C (et non pas températures moyennes avoisinent les 35°C comme le rapporte Libé), faisant fondre le permafrost et libérant ainsi la maladie. Il semblerait néanmoins que l’infection pourrait provenir d’un cimetière Nenets proche,  où des restes humains auraient pu propager l’anthrax : Il est de coutume, dans ces régions, de faire reposer les corps dans des sortes de boîtes, sans les enterrer. Le 2 août toujours, la canicule ne semble pas inquiéter plus que ça les autorités, qui craignent avant tout l’extension de l’épidémie par le biais de la viande et des animaux et non par la fonte du permafrost.

Un article du 3 août 2016 nous apprend que les premiers cas d’anthrax sont apparus il y a 5 semaines, et que l’épidémie n’a pu se développer que parce que les animaux n’étaient pas vaccinés, par choix politique.

Enfin, le 5 août 2016, la piste du cimetière nenets semble confirmée, rejetant la thèse apocalyptique d’une bactérie ancestrale réveillée par le réchauffement climatique. D’ailleurs, les températures sont depuis retombées bien en-dessous de la normale. L’épidémie aura été traité avec beaucoup de professionalisme par les autorités locales qui semblent habituées à ce genre de problèmes.

La montée des eaux de l’Atlantique provoquerait la disparition d’un bidonville au Liberia

L’information vient de l’AFP. le bidonville de West Point à Monrovia au Liberia serait en passe de disparaître à cause de la montée des eaux de l’Atlantique. Évidemment, lorsqu’une telle information est diffusée par l’AFP, elle est reprise en boucle sur de nombreux médias (Le Monde, Orange, Yahoo, France24, etc) qui la relaient sans vérifier. Et les personnes sensibilisées au réch chang déréglement climatique se croient obligées d’amplifier l’information sur les réseaux sociaux.

L’inexorable… RT @AFP_Afrique: La mer chasse de chez eux les habitants du plus grand bidonville du Liberia https://t.co/23CDwEMgi1

— Cécile Duflot (@CecileDuflot) July 25, 2016

Face à ce flux d’articles concordants car issus d’une source unique, il est compliqué d’en trouver l’origine, et donc d’en vérifier l’authenticité : il semble en effet étonnant que ce désastre survienne depuis 2 ans sans évènements précurseurs, suite à la montée des eaux de l’Atlantique. Une autre cause est-elle envisageable ?

Quelle est l’ampleur de la montée des eaux au Liberia ?

Confrontons la thèse de la montée des eaux aux mesures objectives, celles des marégraphes. Il se trouve que les marégraphes publient leurs mesures sur Internet. Et qu’il en existe un au Libéria, à Monrovia exactement, dont voici les mesures prises sur un an tous les 5 ans :

Niveau de la mer relevé par le marégraphe de Monrovia au Libéria, de 1970 à juin 2016

Niveau de la mer à marée haute, relevé par le marégraphe de Monrovia au Liberia, de 1970 à juin 2016

Année Moyenne marée haute (cm) Maxi marée haute (cm)
1970 115.3 151
1975 119.3 151
1980 119.5 150
1985  117.9 148
1990  117.6 144
1995  119.5 148
2000  119.3 147
2005  117.3 149
2010  119.0 152
2015  120 151
2016 (jan-juin)  120.5 147

Le graphique est assez clair : il n’existe aucun niveau record des marées depuis 1970.

D’autres causes peuvent-elles être envisagées ?

West Point, comme une partie du litoral liberien, est victime d’érosion. La page anglophone de Wikipedia l’attribue aux dégradations environnementales dues à la surpopulation, en s’appuyant sur l’article paru en 2007 « West Point, Liberia: An environmental menace » de Morris T. Koffa dans « The Liberian Dialogue » . Cette thèse est par ailleurs précisée par Eugene Shannon, ministre des territoires liberiens en 2008, où il mentionne le pillage, par les populations locales, de pierres ou éléments métalliques censés protéger les côtes de l’érosion.

Conclusion

Le problème d’érosion des côtes existait donc avant ces deux dernières années ; Et non, la montée des eaux n’a pas pu provoquer les catastrophes citées dans la brève de l’AFP pour la simple et bonne raison qu’il n’y a pas eu de montée des eaux significative à Monrovia depuis une cinquantaine d’années. Reste la seule information crédible de la dépêche, la détresse des populations locales. Mais qui s’en soucie vraiment ?

 

Climat : températures et CO2 grimpent

C’est un commentaire de l’article de Sylvestre Huet « Climat : températures et CO2 grimpent » qui m’incite à rédiger ce billet :

Bon article, net, concis. Avec les références aux multiples instituts de recherche qui contribuent à de telles études. Hélas, comme pour l’article sur le rongeur australien, nous allons voir débarquer les « douteurs » (car le « doute est le fondement de toute démarche scientifique », nous disent-ils sans justifier d’aucun formation scientifique) qui vont « douter » de toutes ces courbes et résultats. Par contre, ces même personnes, si on leur diagnostique un cancer, ne vont jamais « douter » de leur maladie.

Je ne suis pas scientifique, mais je recoupe les informations à ma disposition. Cela fait indubitablement de moi un « douteur » . Et concernant le réchauffement climatique, je ne suis jamais déçu.

M. Huet débute par une série de données brutes issues de la seule NOAA, les plus alarmistes, relatives aux températures mondiales de mai 2016, sans en citer la source et en insistant uniquement sur l’aspect record et en affirmant « que l’objectif fixé à la COP-21 de viser une hausse maximale de 1,5°C relativement à la période pré-industrielle (1750) [la science retient 1850 habituellement. Faute de frappe ? NDR] est hors de portée » . Or, ce qui caractérise mai 2016, y compris dans les chiffres de la NOAA, c’est la confirmation de la fin d’un épisode el nino particulièrement important, accompagné d’une baisse rapide des températures.

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Loin de confirmer une hausse rapide des températures, le mois de mai semble indiquer un retour à « la normale » des températures, suite à un épisode chaud qui caractérise el nino, phénomène récurrent, connu, et parfaitement naturel. La NOAA à l’origine des chiffres cités par M. Huet l’admet d’ailleurs dans son rapport mensuel :

Les températures moyennes mondiales terrestre et de surface des océans de mai 2016 ont été les plus basses depuis Août 2015 et, à la différence des cinq derniers mois (Décembre 2015 en Avril 2016), n’a pas dépassé 1,0 ° C (1,8 ° F ). Mai 2016 est à égalité avec Juin 2015 et Août 2015, le 12e le plus chaud depuis le début des mesures.

Parallèlement à cette baisse de la hausse des températures, M. Huet note que le taux de CO2 passe au-dessus des 400 parts par millions à la station de mesure de l’île d’Amsterdam. Comme il le souligne, ce seuil est parfaitement symbolique et n’engendre aucun événement particulier. C’est même une information récurrente depuis quelques années, les stations enregistrant l’une après l’autre des taux supérieurs à 400ppm, parfois à plusieurs reprises. Le même M. Huet qui semble tenir une exclusivité aujourd’hui, nous en faisait d’ailleurs part en 2014 dans son blog de Libération.

Ces deux éléments parfaitement indépendants permettent cependant à M. Huet d’étabir péremptoirement un « lien CO2 températures bien établi » . Si vous vous attendiez à une référence à une étude ou à de multiples instituts de recherche qui contribuent à de telles études , passez votre chemin. Le lien est établi. Point.

Et dire qu’il y a des gens qui doutent. Non mais franchement.

Et encore, ces gens n’ont-ils peut-être pas entendu parler des ajustements de température a posteriori de la NOAA suite à l’étude Karl et al, qui font foi depuis mars 2015 et ont entre autres effacé le el nino de 1998 (celui-là même  qui prouva, en son temps, le réchauffement climatique d’origine humaine)?

Du totalitarisme climatique

Suite à la parution de son livre « Climat Investigation » par lequel il relativise le catastrophisme de bon aloi qui secoue la sphère médiatique à l’approche de la COP21, Philippe Verdier se voit attaqué de toutes parts par les grands journaux français. La palme de ces attaques revient sans conteste au Monde.

Décodons les décodeurs

Les décodeurs du Monde entendent démonter le livre de Philippe Verdier en 4 points :

1. Les incertitudes à propos du réchauffement climatique « sciemment gommées » par le GIEC ?

Faux, répondent les Décodeurs.

Les gommages du rapport destiné aux décideurs

Pourtant, on peut trouver de nombreux « gommages » des incertitudes dans le rapport du GIEC. Dès le premier graphique, page 21, les températures de la planète depuis 1850 figurent sans aucune incertitude, alors qu’elle était de l’ordre de 0,08°C (environ ±0.14°C pour les terres et ±0.04 pour les océans) en 2012 pour la NOAA et évidemment beaucoup plus élevée en 1850 :

Anomalie de températures, rapport AR5 du GIEC

Anomalie observée de températures moyennes en surface, combinant les terres émergées et les océans, de 1850 à 2012, WG1AR5_Summary du GIEC version française

voici un autre exemple tiré de la page 27 du rapport :

L’acidification de l’océan est quantifiée par la diminution du pH. Le pH de l’eau de mer a diminué de 0,1 depuis le début de l’ère industrielle (degré de confiance élevé), soit une augmentation de 26 % de la concentration en ions hydrogène (voir figure RID.4).

Cette affirmation, pour le moins péremptoire et avec un degré de confiance élevé, repose sur des mesures directes débutant à la fin des années 1980 dans 3 stations situées dans l’océan Atlantique et Pacifique (figure RID.4 + légende sur la même page).

Aujourd’hui, un bon pH-mètre est précis à 0,02 unités près : il s’agit à minima de l’incertitude  des mesures modernes en conditions de laboratoire. Les courbes fournies rapportent une évolution du pH de l’ordre de -0.03 pH (± 0.02 au mieux) sur 30 ans (en étant gentil, vu le chaos que constituent ces courbes) ;

Quid de l’incertitude des mesures plus anciennes qui ne figurent pas sur le schéma ? Les mesures ont-elles été faites par pH-mètre ? Avec quelle précision ? Par proxies (forcément beaucoup moins précis) ?

Quid des mesures « au début de l’ère industrielle » que l’on peut situer au milieu de XIXe siècle, une soixantaine d’années avant les méthodes de mesure de la concentration  en ions d’hydrogène et la formalisation du pH (par le chimiste danois  Søren Sørensen) ?

Le pH est susceptible de varier en un même endroit durant une même journée de plusieurs dixièmes d’unités en fonction de la température, de la pression atmosphérique, des conditions météo, du courant marin et d’autres paramètres. Quelle l’incertitude peut-on en déduire ?

Le pH des océans se situe habituellement entre 7.5 et 8.4. Le GIEC nous indique avoir mesuré une baisse de l’ordre de 0,03 pH à environ 8.1 en 30 ans sur 3 points de la planète : quelle réalité cela revêt-il pour le reste des océans ?

Dans le rapport du GIEC, on ne voit pas d’incertitude, ni dans le texte, ni dans la figure RID.4, ni dans la légende : Pourquoi  ?

Par ailleurs, s’il est admis dans les milieux scientifiques que l’échelle logarithmique du pH est adaptée pour mesurer le potentiel hydrogène (appelez cela un consensus), c’est avant tout dans un soucis de lisibilité. Déroger à cette règle en évoquant une augmentation de 26% de la concentration en ions hydrogène devrait être motivé par une raison valable : quelle est-elle ?

Les incertitudes peuvent porter sur les couleurs, superpositions, échelles, etc. des schémas, mais également sur le ton donné à l’ensemble.

Les gommages des incertitudes par les médias

Sans parler, bien entendu, du gommage de l’incertitude issu de l’interprétation des journalistes. Ainsi Audrey Garric, Chef adjointe du service Planète/Sciences du Monde affirme-t-elle suite à la parution de ce rapport : « Le verdict est tombé : la température de la terre pourrait grimper jusqu’à 4,8 °C d’ici à 2100 et le niveau des océans s’élever de près de 1 m » , ce qui est bien entendu assez éloigné de la vérité :

Scénarios du GIEC, températures et montée des océans en 2100

Tableau page 38 du rapport : pour le coup, il y a de la belle incertitude qui décoiffe : de 0.3°C à 4.8°C et de 26 cm à 82cm en 2100. Mais là, ce sont les journaleux qui n’en parlent pas…

2. Les scientifiques du GIEC, payés par les gouvernements ?

Faux, nous indiquent les Décodeurs.

Certes, « l’administration du GIEC » n’est pas à proprement parler « les scientifiques du GIEC« , mais l’affirmation posée par M. Verdier, telle que je la comprends, se rapporte à la politisation des publications du GIEC. Si l’on se réfère au schéma fourni dans l’article des Décodeurs, ce sont bien les gouvernements qui financent le bidule. Karl Ritter de Associated Press a publié le 19/09/2013 dans le  Huffington Post « Un rapport de l’ONU note un ralentissement du réchauffement climatique » qui relate les dernières négociations avant publication du 5ème rapport du GIEC en 2013, et apporte  un éclairage édifiant sur le rôle des gouvernements-financeurs :

Mais plusieurs gouvernements qui ont pris connaissance du document ont contesté la manière dont la question était traitée. L’Allemagne a demandé à ce que la référence au ralentissement soit retirée, affirmant qu’une période de 10 ou 15 ans est trompeuse dans le contexte des changements climatiques, un phénomène qui se mesure sur des dizaines et des centaines d’années.

Les États-Unis ont demandé l’ajout de l’hypothèse principale selon laquelle ce ralentissement du réchauffement serait attribuable à un transfert plus important de chaleur vers le fond des océans.

La Belgique s’est objectée au choix de 1998 comme année de départ, puisqu’il s’agit d’une année exceptionnellement chaude. Tout graphique qui débute en 1998 sera essentiellement plat, puisque les années suivantes ont été plus fraîches. Un graphique débutant en 1999 ou 2000 témoignerait d’une légère tendance à la hausse.

On pourrait également citer les nombreux articles publiés à l’automne 2013, peu avant et après la publication du rapport, tels que « Par prudence, le GIEC aurait sous-estimé les effets du réchauffement » de Stéphane Foucard du Monde qui cite Naomi Oreskes, historienne des sciences et auteure de « Les marchands de doute » , que l’on peut difficilement qualifier de climato-sceptique : « Pour quelles raisons le GIEC tend-il souvent à minimiser la menace ? L’implication des gouvernements dans le processus du GIEC y contribue sans doute, dit en substance Naomi Oreskes. »

La rédaction du rapport pour les décideurs, le seul à peu près lu par les politiques et les journalistes spécialistes du climat, semble donc bel et bien politisé.

3. En France, les hivers plus doux sont-ils une bonne chose ?

Plutôt faux, selon les Décodeurs

Pour quelle obscure raison le climat de 1850 qui suit une période froide appelée « petit âge glaciaire » lui même précédé par une période chaude appelée « l’optimum médiéval » , et qui précède un réchauffement sur le siècle et demi suivant, serait le bon climat bien réglé et qui convient à toute la planète ? Pourquoi n’y aurait-il pas des aspects positifs à ce réchauffement ? Par ailleurs, comment expliquer que les grandes civilisations humaines se soient développées lors de périodes plus chaudes (qui ont existé, malgré le réglage du climat aux bonnes valeurs) ?

Je n’ai pas de réponse à ces questions ; peut-être le livre de M. Verdier en apporte-t-il. Mais la réponse des Décodeurs ne me convainc pas, en ce qu’elle s’appuie sur UNE épidémie de grippe sur UN hiver plus doux que la moyenne, sur des modèles climatiques réputés fiable (on y vient), sur des cultures qui en souffriront dans le futur (pourquoi n’en souffrent-elles pas déjà ?) et sur l’inévitable conditionnel qui permet de s’affranchir de toute responsabilité dans le futur.

4. Les modèles climatiques, pas fiables ?

Faux, répondent les Décodeurs

« Pour vérifier la précision des modèles climatiques, ceux-ci sont testés sur le climat passé » nous assènent-ils. En admettant que ces modèles aient fonctionné sur le climat du passé, cela ne prouve en aucun cas leur fiabilité pour le futur : il est aisé de construire un modèle qui reproduit des séries connues.

Le graphique choisi par les Décodeurs pour illustrer la fiabilité des modèles, est issu du Third Assessment Repport du GIEC publié en 2001. 15 ans se sont écoulés depuis, et certains climatologues tels que Judith Curry, John Christy, Roy Spencer et quelques autres, émettent les plus grandes réserves quant à leur fiabilité. Ainsi le climatologue Roy Spencer a-t-il publié il y a quelque temps un graphique représentant les températures prévues par les modèles à compter de 1979 et les mesures du monde réel. Force est de constater qu’il y a divergence, laquelle s’est justement aggravée à compter de la fin des années 1990 :

Observations vs modèles

Observations (carrés bleus et cercles verts) vs modèles (les courbes, la courbe engraissée noire représentant l’hypothèse moyenne). Source : Ph. D. Roy Spencer.

Divergence modèles climatiques vs observations par John Christy

Divergence modèles climatiques vs observations par le climatologue Ph. D. John Christy lors de sa présentation au « Senate Environment and Public Works Committee » en 2012. Source : page 13 de ce document.

Licenciement de Philippe Verdier

L’article des Décodeurs suit la ligne éditoriale alarmiste que se sont fixés les grands médias français : Même si M. Verdier réfute son climato-scepticisme et se contente de relativiser l’Apocalypse climatique avec des arguments mesurés, c’en est déjà trop. Il faut faire taire l’importun.

Concernant le climat, les journalistes ne sont plus Charlie

Plus grave et révélatrice du climat délétère sur le sujet du réchauffement climatique est la réaction d’Audrey Garric, Chef adjointe du service Planète/Sciences du Monde, qui n’hésite pas à se réjouir du licenciement de M. Verdier :

M. Verdier n’a pourtant commis aucune infraction, aucun délit, aucune faute professionnelle. Il a usé de son droit d’expression, lequel lui est reconnu par les articles 9 et 10 de la Convention européenne des droits de l’homme, je cite :

Article 9
1. Toute personne a droit à la liberté de pensée, de conscience et de religion ; ce droit implique la liberté de changer de religion ou de conviction, ainsi que la liberté de manifester sa religion ou sa conviction individuellement ou collectivement, en public ou en privé, par le culte, l’enseignement, les pratiques et l’accomplissement des rites.

Article 10
1. Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière. Le présent article n’empêche pas les États de soumettre les entreprises de radiodiffusion, de cinéma ou de télévision à un régime d’autorisations.

Pour les « journalistes » spécialistes du climat, le sujet n’est plus d’ordre scientifique mais d’ordre politico-religieux avec ses croyances, ses Dogmes, ses prêtres, son prosélytisme, son totalitarisme et son Apocalypse. Preuve en est la réaction d’Audrey Garric lorsqu’une étude semble  confirmer le Dogme (notez le souriard) :

Toute atteinte au Dogme, aussi insignifiante soit-elle, justifie donc l’excommunication, la mise à pied et le déshonneur.

Dans un soucis de cohérence intellectuelle vaguement lié à une certaine déontologie et suite à son article « La banquise pourrait complètement disparaître d’ici à 4 ans » publié le 18/09/2012, Mme Garric démissionnera-t-elle si, pour improbable que ce soit, il reste une surface significative de banquise à la mi-septembre 2016 (pour 2015, c’est d’ores et déjà raté) ? À moins que le conditionnel n’ait valeur de contrition et vaille absolution dans l’Église de l’Apocalypse climatique ?

Comment peut-on être climato-sceptique en 2015 ?

C’est la question qui m’a été posée lors d’une conversation sur Twitter, assortie de quelques arguments destinés sinon à me convaincre, du moins à prouver que j’ai tort de l’être. Surtout en 2015. Au détour d’une pluie d’arguments, mon interlocuteur me cite ainsi un article de blog de Sylvestre Huet de Libération, intitulé « Climat, record de chaleur planétaire en juillet »  :

(lien permanent)

C’est justement ce type d’articles qui me confortent dans mon scepticisme. Voici pourquoi :

Arrêtons nous tout d’abord sur le titre : Climat, record de chaleur planétaire en juillet indique l’utilisation d’une  méthode de falsification connue sous le nom de « cherry-picking », qui consiste à signaler des cas individuels ou des données qui semblent confirmer une position particulière, tout en ignorant une partie importante de cas liés ou des données qui pourraient contredire cette position : Les mêmes qui estiment qu’une pause (hiatus selon la terminologie du GIEC) des températures sur la période s’étendant environ de 1997 à aujourd’hui (~ 18 ans) ne suffit pas à confirmer l’absence de réchauffement climatique , ne peuvent pas s’appuyer sur UNE mesure du système chaotique du climat pour en extraire une tendance. Un très bon blog scientifique n’aurait pas usé de cette méthode.

L’article débute par le constat selon lequel deux équipes scientifiques chargées d’étudier le climat, à la NASA et à la NOAA, ont déterminé que juillet 2015 était le mois de juillet le plus chaud jamais enregistré. Soyons curieux, ouvrons les deux liens fournis et consultons l’origine de ces données. Pour la NASA, il s’agit de GHCN-M 3.3.0 pour les relevés terrestres et de ERSST 4.0.0 pour les températures des océans (voir les notes 1 et 2 de bas de page). En ce qui concerne la NOAA, surprise, il s’agit de GHCN-M 3.3.0 et de ERSST 4.0.0 (voir la note en  haut de page). Il s’agit donc de deux équipes scientifiques qui publient une synthèse de l’état climatique issue des mêmes calculs sur les mêmes données et, vous parlez d’un hasard, arrivent à la même conclusion. Un très bon blog scientifique n’aurait pas laissé entendre qu’il s’agissait des résultats de travaux indépendants.

Deuxième surprise, les séries de données issues des satellites, par nature plus précises, ne valident pas l’hypothèse de ce record : voici UAH par exemple :

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015.

Un très bon blog scientifique aurait précisé que les données issues de diverses sources ne validaient pas toutes ce record, loin s’en faut.

Nous apprenons ensuite que « dans le système de référence de la NOAA, le mois de juillet est à 0,81°C au dessus de la moyenne du mois tout au long du 20ème siècle » . La lecture de la page de la NOAA précise que ce record est de 8 centièmes de degrés (0.08°C) par rapport à 1998, et qu’il existe une incertitude mesurée à ± 0.14°C : cela signifie que ces deux mesures sont statistiquement indiscernables. Visuellement, ça donne ça :

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes (en bleu). La zone grisée correspond à la zone d’incertitude calculée pour juillet 2015, dans laquelle s’inscrit le record de juillet 1998.

Un très bon blog scientifique aurait expliqué cette notion d’incertitude et aurait mis l’accent sur l’indiscernabilité des deux mesures.

Puis Sylvestre Huet nous apprend que « c’est surtout en raison des températures de surface des océans, la plus élevée jamais enregistrée, que juillet 2015 détient ce record » . Un très bon blog scientifique en aurait profité pour nous toucher un mot sur la nouvelle interprétation des données brutes, ERSST 4.0.0 dont on a parlé plus haut : Ce nouveau calcul a été introduit en mai 2015 et coïncide avec des records de températures depuis lors (mai, juin et juillet 2015 sont les mois de mai, juin et juillet les plus chauds jamais enregistrés par la NOAA).

Anomalie des températures des océans de janvier 2014 à juillet 2015Anomalie des températures des océans de janvier 2014 à juillet 2015

Anomalie des températures des océans de janvier 2014 à juillet 2015 : on note la hausse « anormale »  par rapport au reste de la série de données au mois de mai 2015, suivi de la reprise de variations « normales ». Sources : données mensuelles de la NOAA.

ERSST 4.0.0 fait suite à ERSST 3b et est l’une des conséquences d’une étude intitulée « Possible artifacts of data biases in the recent global surface warming hiatus » par Karl et al. 2015 qui a ému un certain nombre de climatologues et scientifiques parmi lesquels Patrick Michaels, Richard S. Lindzen ou Paul C. Knappenberger, comme le rapporte la climatologue Judith CurryUn très bon blog scientifique aurait résumé la controverse qui divise les climatologues (au risque d’égratigner le fameux consensus).

Un peu de vulgarisation (des explications et références plus précises sont disponibles dans l’article de Judith Curry mentionné plus haut) : Le plus gros ajustement de l’étude Karl et al. concerne la méthode de recueil des températures à la surface des océans. Deux méthodes principales coexistent : mesures prises à l’aide de thermomètres installés dans les tuyères de refroidissement des moteurs de bateaux (peu précise, cette méthode est peu à peu abandonnée) et bouées flottantes qui offrent l’avantage d’une meilleure précision. Il se trouve que cette dernière technique retourne en moyenne des valeurs inférieures de 0,12°C à la technique des tuyères : Contre toute logique, Karl et al. a pris le parti d’aligner les mesures des bouées (plus précises) sur celle des tuyères (moins précises) à +0.12°C. La proportion des bouées augmentant dans le temps, la proportion de mesures ajustées à la hausse augmente mécaniquement, et la moyenne des températures des océans aussi. Ce qui n’est confirmé ni par les satellites ni par les balises ARGO. Un très bon blog scientifique aurait donc rapporté ce record en nuançant quelque peu sa signification.

C’est bien évidemment le contraire qui se produit à l’issue d’un paragraphe tout en circonvolution autour de chiffres bien évidemment gravissimes destinés à nous convaincre que l’objectif des 2°C ne sera pas tenable. Pourtant, si l’on se fie au record de juillet 2015 qui, selon M. Huet, est symptomatique du réchauffement climatique, et en admettant que ce dernier est issu d’une augmentation linéaire des températures due à l’activité humaine et non pas du résultat du système chaotique climatique amplifié par, du plus naturel au plus artificiel, el niño, les nouveaux calculs de la NOAA ou un honteux cherry-picking, il en résulte au pire et en faisant fi des incertitudes, un réchauffement de 0,08°C pour 17 ans, soit 0,47°C par siècle. Un résultat bien éloigné des prévisions les moins pessimistes du GIEC.

À propos de « 6 pays qui cherchent l’indépendance énergétique »

Un certain nombre de sites sur les internets reprennent tels quels les  propos de l’article « 6 pays qui cherchent l’indépendance énergétique » de . Mais ces 6 pays sont-ils si vertueux, enviable, et leur modèle généralisable ?

L’Islande

« L’Islande apparaît comme le pionner en matière d’énergies renouvelables. 100 % de son électricité et 81 % de ses besoins énergétiques primaires proviennent de sources renouvelables. »

Le potentiel en énergies renouvelables de l’Islande est de très loin supérieur à ses besoins : située sur la dorsale médio-océanique entre l’Europe et l’Amérique, son activité géothermique a permis au pays de développer la géothermie de manière exceptionnelle dès les années 1940 : la quasi-totalité des habitations islandaises sont chauffées par ce biais. Pays au relief important, 10% du territoire est constitué de glaciers qui alimentent de grandes rivières glaciaires. Ces rivières offrent une source importante d’électricité. Le potentiel est tellement énorme que l’Islande attire des industries très énergivores. Ces dernières consomment plus de 80% de l’électricité produite, contre 5% par les ménages.

Malgré un modèle énergétique vieux de 60 ans et fortement orienté vers les énergies renouvelables grâce à une géographie et une activité géothermique exceptionnelles, un vertueux islandais a émis 5,9 tonnes de CO2eq en 2011, contre 5,2 pour un français.

L’Éthiopie

« Le pays s’est engagé a à réduire ses émissions de gaz à effet de serre de 64% d’ici 2030 grâce aux énergies renouvelables »

Cette affirmation est juste fausse, et est issue d’une incompréhension du texte publié par ce pays dans le cadre des négociations sur le climat. L’Éthiopie s’est engagée à réduire ses émissions de gaz à effet de serre de 64% en 2030, par rapport à ce qu’elle aurait émis à cette même date sans faire d’effort particulier. Cela revient en fait à passer de 1.8 tonnes de CO2eq par habitant à 1.1. Cela revient aussi à interdire tout espoir de développement à l’un des pays les plus pauvres de la planète qui produit d’ores et déjà 100% de son électricité sans rejets de gaz à effet de serre mais de manière parfaitement insuffisante. L’agriculture n’ y est pas mécanisée et la circulation routière est juste anecdotique : comment baisser les émissions de CO2 dans ces conditions ?

Le modèle éthiopien reposerait sur le maintien ou le retour à la pauvreté et à la malnutrition.

La Norvège

« Aujourd’hui, 60 % de l’énergie consommée en Norvège provient d’une source renouvelable. Et depuis 2009, une partie du fonds pétrolier est placée dans des entreprises qui se consacrent aux énergies renouvelables. La Norvège pourrait contribuer à l’objectif de l’UE d’atteindre une part de 20 % d’énergie renouvelable d’ici à 2020 en exportant davantage de son énergie verte vers l’Europe. »

La Norvège doit sa prospérité économique à ses gisements d’hydrocarbures (3e exportateur mondial de gaz naturel) qui génèrent 35% de ses exportations. Avec 11,6 tonnes de CO2eq par habitant en 2010, la Norvège est l’un des 20 pays les plus émetteurs de CO2 au monde. À titre de comparaison, la France qui ne fait pas partie des 6 pays les plus vertueux, est à 5,6 tonnes de CO2eq par habitant en 2010.

Le modèle norvégien n’en est peut-être pas un, de modèle.

Le Costa Rica

« Le gouvernement s’est fixé pour objectif d’atteindre une économie sans émissions de gaz à effet de serre d’ici 2021 misant uniquement sur les énergies renouvelables. »

Pour l’heure, près de 50% de l’énergie utilisée au Costa Rica provient du pétrole et de ses dérivés (charbon, gaz naturel), soit un niveau très proche de celui de la France. Par ailleurs, la part des énergies renouvelables (+ nucléaire) ne cesse de baisser, passant de 9,5 à 8,5% de la production entre 2005 et 2012, tandis que la consommation de produits pétroliers augmente et que les combustibles renouvelables stagnent à 10%.

Il va falloir pédaler très fort pour atteindre l’objectif.

Le Brésil

« Le Brésil est le pays industrialisé utilisant le plus d’énergies renouvelables, le nucléaire et le fossile ne représentent que 11,8%, alors que la moyenne des pays industrialisés est de 87% »

Alors que la part du nucléaire et des énergies alternatives du Brésil stagne à 8%, la part des combustibles renouvelable (biomasse) connaît une baisse ces dernières années (de 31 à 27% de 2009 à 2012) tandis que celle des énergies fossiles explose en passant de 51% de l’énergie consommée en 2009 à 57% en 2012 (aux environs de 40% pour le seul pétrole). Enfin, si les émissions de CO2 restent faibles, elles sont en constante progression.

Son biotope est menacé : les forêts amazoniennes, puits de carbone, sont massacrées à cause de l’élevage ou la culture de la canne à sucre, dont la moitié de la production est destinée à la production de carburant.

Par ailleurs, le Brésil contient les plus grandes réserves de pétroles jamais découvertes. Il est aujourd’hui le 8e producteur de pétrole au monde.

Du beau développement durable qui envoie du rêve.

L’Uruguay

« Le but que se donne l’Uruguay est de taille : l’indépendance énergétique pour 2030. »

L’Uruguay est le seul pays de la liste pour lequel une source est fournie : il s’agit d’un site dépendant d’EDF qui reprend une étude du WWF. Pour atteindre son but, le pays construit des éoliennes qui devraient fournir 30% de ses besoins en électricité dès 2016. Ceci n’est possible que par la présence de la prédominance de l’hydroélectricité qui joue le rôle de « tampon » de l’intermittence des éoliennes. Le modèle choisi par le pays est ambitieux, mais la volonté politique qui porte le projet semble suivie par les investisseurs. Pourquoi pas ?

Vertueux ?

Des 6 pays « conscients des risques d’une dépendance excessive aux énergies fossiles » qui « ont amorcé leur transition énergétique depuis plusieurs années« , il en est un dont les performances sont loin d’être exceptionnelles après 60 ans de développement des énergies renouvelables, deux font partie des principaux producteurs de pétrole et de gaz dont l’un est l’un des 20 plus gros émetteur de CO2 par habitant de la planète et l’autre qui détruit son environnement, un des pays les plus pauvres de la planète qui s’est engagé à le rester, un pays dont la part du pétrole dans le mix énergétique ne cesse d’augmenter et un 6e qui semble avoir réellement pris le tournant de la transition énergétique.

La question ne se pose donc pas sur l’intention de développer les énergies renouvelables, mais bien sur la capacité et la volonté de ces pays de détruire leur modèle économique : la Norvège et le Brésil vont-ils renoncer à l’exploitation du pétrole ? Le Brésil va-t-il renoncer à son agriculture intensive ? Le Costa Rica va-t-il renoncer au développement de son agriculture, de ses industries high-tech et du tourisme en renonçant aux infrastructures nécessaires ? La population éthiopienne va-t-elle renoncer à l’accès à l’électricité et l’eau courante, le pays va-t-il sacrifier son développement économique ? Rappelons que les promesses n’engagent que ceux qui y croient.

Et la France qui ne fait jamais rien, justifiant la flagellation chronique que lui imposent  ses habitants ? Eh bien la France réduit bon an mal an sa dépendance aux énergies fossiles ainsi que ses émissions de CO2 par habitant. Sans être exceptionnels, ces résultats montrent une constance dans l’effort. 6e puissance mondiale, la France était classé 68e pays le plus émetteur en CO2 en 2011 à 5,2 tonnes CO2 par habitant des pays les plus émetteurs de CO2 , loin devant des pays considérés comme vertueux et acquis à la cause écologique tels que la Norvège (30e 9,2T CO2/hab), l’Allemagne (32e à 8,9T CO2/hab),  le Danemark (41e à 7,2T CO2/hab)  ou encore l’Islande (61e 5,9T CO2/hab).

Climat : morses, dauphins et ours

De la constance des alarmistes

Ces animaux qui perdent la boule à cause du réchauffement climatique

L’histoire débute le 3 octobre 2014, lorsque je réponds à Audrey Garric (Chef adjointe du service planète/science du Monde) sur twitter afin de contester, source à l’appui,  le comportement supposé anormal des morses qui, à cause du réchauffement climatique, se regroupent par dizaines de milliers sur des affleurements rocheux au lieu de se peler comme il se doit sur la banquise. Retrouvez les détails de l’histoire dans cet article.  Je renvoyais alors Mme Garric à l’article de Wikipédia, lequel mentionne ce comportement comme « normal » . Je ne recevrai évidemment aucune réponse.

Le 14 juin 2015, Audrey Garric publie un nouveau tweet sur le comportement supposé anormal des ours ou des dauphins (allez savoir), le second entrant au menu du premier à cause du… Réchauffement climatique, évidemment.

S’ensuit un échange de tweets où je reviens sur l’affaire des morses :

Retour sur la discussion à propos de l’anormalité de la présence des morses sur les affleurements rocheux : Audrey Garric n’en démord pas, les morses ne devraient pas se trouver en si grand nombre sur des affleurements rocheux.

Par ailleurs, elle assène l’argument d’autorité :

« La NOAA l’a analysé par le réchauffement » , affirme-t-elle. Son article ne renvoie évidemment pas à la source de l’information, et pour cause : Le seul document issu de la NOAA est un rapport factuel (Copie) du  27 septembre 2014 se contentant de mentionner la présence des morses à Point Lay. Cette information est reprise par l’USGS dans une note de blog non « peer-reviewée »  dans laquelle l’auteur ajoute que les morses se regroupent par plusieurs dizaines de milliers depuis 2007 à cause du réchauffement climatique. S’ensuivent des sources circulaires entre l’association écologiste WWF et le journal britanique « The Guardian » qui relaient cette information, reprise telle quelle dans l’article de Mme Garric.

Wikipedia, source non fiable ?

Nous avons vu que la NOAA et la NASA n’avaient jamais analysé le comportement des morses comme anormal, mais avaient simplement relayé l’information de manière factuelle. Voyons ce qu’il en est de la crédibilité des sources de Wikipedia : Il suffit de suivre les astérisque puis de tirer le fil. Concernant le passage sur le comportement des morses sur les affleurements rocheux, Wikipedia renvoie vers eol.org, qui est une encyclopédie du vivant recensant notamment les études ayant trait aux morses. Lequel site nous renvoie vers l’étude Fay, F. H. (1982). « Ecology and Biology of the Pacific Walrus, Odobenus rosmarus divergens Illiger » . Cette étude est reprise par de nombreux sites, notamment gouvernementaux (.gov) ou universitaires (.edu). Une autre étude du même scientifique, disponible en ligne (PDF), présentant l’état des connaissances sur la mortalité des morses, nous indique des rassemblement de 35 à 37000 animaux sur des affleurements rocheux à des latitudes comparables à Point Lay (environ 64° Nord) en 1978.

Étude 1980

Étude « Mass Natural Mortality of walruses at St. Lawrence Island, Bering Sea, Autumn 1978 » 1980 Fay, F. H. and Brendan P. Kelly(extrait)

Dès lors que plusieurs études datant des années 1970-80 mentionnent le comportement des morses sur les affleurements rocheux, la note de blog indiquant que le phénomène apparaît en 2007 semble assez peu crédible. C’est pourtant à partir de cette dernière que l’information sera reprise de blog en blog jusqu’aux « sérieux » quotidiens français.

Pour revenir sur l’affaire des dauphins dévorés par des ours, il s’agit pour le moment d’un cas isolé, et il semble bien prématuré d’en attribuer la cause au réchauffement climatique.

Pas de réponse. Évidemment, il est toujours permis d’espérer un erratum dans les articles de Mme Garric, Chef adjointe du service planète/science du Monde.