Archives pour la catégorie Société

Sécurité routière : De l’effet rétroactif des radars automatiques en 2002

Poncif récurrent dans les médias, la mortalité routière aurait diminué très fortement dès 2002 en raison des radars automatiques. Hypothèse fragile, puisque le premier d’entre eux n’a été inauguré que le 27 octobre 2003, un an et demi après le début de la baisse de mortalité routière et au moment même où ces excellents résultats marquent le pas. Par extension, les tenants de cette thèse ajoutent que le matraquage médiatique à propos des radars automatiques aurait incité les automobilistes à lever le pied, et donc avoir moins d’accident. Cet article vise à vérifier cette deuxième hypothèse.

Graphique issu du bilan 2003 de sécurité routière

Graphique issu du bilan 2003 de sécurité routière

Visuel issu des décodeurs du Monde dans un article sur le projet de limitation à 80 km/h sur le réseau secondaire. On notera l’évolution de la sémantique pour expliquer la chute de la mortalité routière sur la période 2002/2003.

Contexte politique en 2002

Jacques Chirac termine son premier mandat et les résultats en matière de sécurité routière sont très mauvais. En 1999, la loi Gayssot relative aux grands excès de vitesse n’a pas eu les résultats escomptés. En 2000 et 2001, Jacques Chirac avait décrété la sécurité routière « grande cause nationale », sans plus de succès. L’année 2001, et plus particulièrement décembre, s’étant révélée une année calamiteuse en la matière.

2002, année d’élections, le sujet fait alors débat au sein de la classe politique. Il était de coutume, à l’époque, d’amnistier les infractions routières jugées vénielles : les amendes de stationnement, les excès de vitesse… Le candidat à la Présidence Jacques Chirac optera pour la réduction du champ de l’amnistie en cas de victoire. Promesse que, il faut le noter, il respectera. Le 14 juillet, il présente les 3 grands chantiers de son mandat où figure la sécurité routière avec trois priorités : la ceinture, la vitesse et l’alcool. Il déplore que 40% des procédures à l’égard des automobilistes n’aboutissent pas. Il évoque alors une « automatisation des moyens de détection des infractions » sans plus de précision, mais aussi des « tickets mouchards » sur les autoroutes, des boîtes noires à bord des voitures ou encore la création d’une police de la route.

Contexte judiciaire

Il faut rappeler qu’à l’époque, faire sauter les contredanses est un sport national. Autre aspect largement ignoré aujourd’hui, les automobilistes contrôlés en excès de vitesse étaient jugés au Tribunal. Une procédure lourde et lente, qui permettait à bon nombre d’entre eux de s’en sortir avec un sermon.

Contexte technologique

Deux pays en Europe ont recours à des radars dits automatiques. Il s’agit de l’Angleterre et de la Suède. Ces appareils, peu connus de la population française, sont constitué d’un radar couplé à un appareil photos argentique doté d’une pellicule d’une centaine de poses, relevées à intervalles plus ou moins réguliers. En juillet 2002, ni Jacques Chirac, ni les politiques, ni les journalistes ne mentionnent ces instruments.

L’appareil photo numérique est alors une invention récente, peu performante, peu répandue (le premier reflex numérique grand public est diffusé fin 2004). En 2002, 8 millions de foyers ont Internet, dont plus de 6 millions en bas débit avec paiement à la minute au-delà d’un forfait de quelques heures.  Chirac surfe alors sur la fracture numérique.

Autant dire que les français qui ont porté attention à ce discours et ont relevé « l’automatisation des moyens de détection des infractions« , notion extrêmement floue (s’agit-il de vitesse, d’alcool, d’autres infractions, du traitement des amendes ?) noyée dans un discours sur les trois grands chantier du quinquenat, sont tout de même loin d’imaginer la transmission de clichés pris automatiquement avec un appareil photo numérique au milieu de nulle part, pour les transmettre en haut débit via un réseau informatique à un centre de traitement automatisé des amendes, pour verbaliser des excès de vitesse sans passer par un juge.

Un tel dispositif n’a d’ailleurs même pas été évoqué.

Et c’est dommage, il s’agit du deuxième mois de baisse de la mortalité routière.

Fin de l’année 2002

Mois Nombre décès Tendance annuelle évolution
juin-02 631 7755 -11,57%
juil-02 661 7663 -13,92%
août-02 634 7653 -1,58%
sept-02 601 7570 -12,65%
oct-02 666 7538 -4,80%
nov-02 572 7465 -12,76%
déc-02 526 7242 -43,73%

Au fil des mois qui suivent, alors que la mortalité continue de baisser, le monde politique débat sur des questions de permis probatoire, conducteurs inexpérimentés, puissance moteur, normes de sécurité des infrastructures, ce qui n’empêche pas le Monde de railler l’action du gouvernement, notamment l’amnistie votée par le Parlement ou le fait que le tiers des amendes accompagnées du retrait de points sur le permis de conduire n’étaient pas appliquées par suite de l’intervention de personnes irresponsables auxquelles il faudrait « supprimer 6 points sur le permis« .

Les 2 et 3 novembre, deux articles du Monde (et ici) évoquent (enfin) la rareté des contrôles radar, la volonté d’y remédier voire de les automatiser en supprimant le passage devant le tribunal pour les contraventions, tout en constatant que les forces de l’ordre ne dissuadent plus personne. C’est dire si, 6 mois après le début de la baisse de la mortalité routière, les radars automatique dont ils ne savent encore rien, ont effrayé les conducteurs.

Plus aucune nouvelle de sécurité routière jusqu’au 29 novembre. C’est à cette date qu’a lieu l’accident de Loriol. Un papy, sans doute assoupi ou ayant eu un malaise au volant de sa puissante Mercedes lancée à 150 ou 160 km/h sur une portion d’autoroute limitée à 90 km/h et réputée accidentogène (pas moins de 20 accidents ayant été recensés, provoquant au moins un décès le 9 novembre 2002), percute un groupe de pompiers en intervention sur un sinistre dûment signalé en amont. 5 morts. Le chauffard n’aura freiné que sur les derniers mètres et déclare ne se souvenir de rien. La cause de l’accident ? La vitesse bien sûr.

C’est à partir de cette date que Sarkozy entre en scène sur ce sujet, avec le talent qu’on lui connaît.

Le Monde précise un plan qui « prévoit d’instaurer un système de contrôle automatique de la vitesse, grâce à des dispositifs vidéo placés à des points fixes enregistrant les infractions et transmettant directement la procédure au propriétaire du véhicule. » Autant dire que vu les contextes technologique et juridique de l’époque, il s’agit encore d’une fiction.

Le bilan de l’année 2002

Voici donc l’heure du bilan 2002. La synthèse note la baisse exceptionnelle de la mortalité routière dès fin mai 2002, qui s’accélère en octobre. Elle note également une quasi-stabilité du nombre de contrôles, avec une diminution de 2.5% de points retirés. Deux nouveautés cependant : les nouveaux radars laser et la rétention du permis de conduire. Un autre critère pourrait être le débat sur l’amnistie. Enfin, les campagnes de pub sur la sécurité routière sont évoquées.

On notera les mauvais résultats sur autoroute (+16%). Si les accidents dus à l’alcool ont fortement diminué, notamment grâce à des contrôles mieux ciblés avec une augmentation de 1.2% des contrôles mais une augmentation de 27.1% de dépistages positifs, les vitesses pratiquées ont peu évolué et  l’excès de vitesse reste la règle : 60% des véhicules de tourisme, 66% des poids lourds et 76% des 2 roues motorisés.

Bref, la mortalité baisse beaucoup, le comportement en matière de vitesse n’a pas évolué significativement, et on ne sait pas (encore) que ces bons résultats sont la conséquence de l’annonce des radars automatiques. On notera que les bilans de sécurité routière sont à cette époque (à 1 an ou deux près) très bons un peu partout en Europe, pour des raisons différentes liées aux politiques locales. Par exemple, la baisse de la mortalité routière en Irlande, exceptionnelle là-bas aussi, s’explique par le permis à points.

 

 

 

2016 année la plus chaude

Article rédigé le 22 janvier 2017

Ça y est. Depuis quelques jours, les médias jouent à nous faire peur à propos de 2016 année la plus chaude. Ainsi, Coralie Schaub  dans son article  sur Libération du 19 janvier 2017, multiplie-t-elle les contre-vérités et mensonges pour accréditer la thèse apocalyptique. À ce niveau de désinformation, ce travail mérite un prix.

2017 a donc battu tous les records de température. Selon cet article, « c’est ce qu’ont annoncé mercredi l’Organisation météorologique mondiale (OMM, qui dépend des Nations unies) et deux institutions américaines, la NASA et l’Agence américaine océanique et atmosphérique (NOAA). » Il se trouve que ces trois organismes s’appuient sur les mêmes données, celles de la NOAA. Il ne s’agit donc pas de travaux indépendant, et il est donc logique que la conclusion soit la même. Il existe d’autres instituts de mesures dont les données sont indépendantes, comme celles de l’université d’Alabama Huntsville (UAH) qui, s’appuyant sur des mesures par satellite, n’aboutissent pas tout à fait aux mêmes conclusions.

« Elle [2016] a dépassé d’environ 0,07°C le précédent record de 2015« . Ce qu’omet de dire Mme Schaub, c’est que la marge d’erreur est de 0,1°C selon la NOAA, c’est dire si l’on est dans l’épaisseur du trait.

Par ailleurs, les mesures de la NOAA ont la particularité d’être évolutives : Si vous téléchargez les mesures publiées dans leur version d’août 2005 et dans  celle de novembre 2016, l’anomalie moyenne pour la période 1880-1900 passe de -0.24°C à -0.49°C et la période 1980-2000 de 0.34°C à 0.43°C. Cela signifie que pour la même période 1880-1900 / 1989-2000, le réchauffement climatique est passé de 0.58°C dans la version de 2005 à 0.92°C dans celle de 2016, par le biais des seuls ajustements.

L'évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016.

L’évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016, ajustée à +0.73°C pour faire en sorte que 0°C corresponde à l’année la plus froide jamais enregistrée, 1887 dans la version 2016.

Ce record intervient, comme en 1998, au moment d’un el nino particulièrement fort, ce qui n’indique pas un réchauffement, mais est juste un artefact de mesure dans un contexte chaotique mais sans hausse significative depuis maintenant près de 20 ans. Au mois de janvier, les mesures sont à nouveau dans la moyenne des 20 dernières années. Voici ce que montrent les mesures satellite RSS et UAH :

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l'ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Ce qu’il en ressort, c’est que el nino est un simple artefact qui ne préjuge en rien de l’évolution future du climat.

Osons causer nous cause nuke

Le nuke, c’est mal on le sait.

Mais en plus, ça coûte cher. Écoutez plutôt.

Vos factures EDF vont exploser : le vrai coût du nucléaire

Un ton « jeune », des mots simples et des arguments percutants pour vous présenter un problème complexe de manière compréhensible et convaincante. Je suis séduit par l’analyse. Mais bon, comme d’habitude, j’ai cherché des sources. Et on constate qu’il y a quand-même un vague début de partialité dans les propos de ce jeune homme.

depuis 2009 le prix de l’électricité a augmenté de 15% à cause du nucléaire

En 2008, la contribution aux EnR (CSPE) était à 0. Elle était de 1.66 milliard en 2009, 5.62 milliards en 2014 et est estimée à 7 milliards en 2016. Elle constituerait 16% du prix de l’électricité cette année là. À elle seule, la CSPE explique le plus gros de l’augmentation de 15% du prix de l’électricité depuis 2009.

Selon la Cour des Comptes, le coût du nucléaire augmenterait de 5% / an.

La cour des comptes ne dit pas que les coûts augmentent de 5% par an, mais qu’ils ONT augmenté de 14% de 2008 à 2010 (page 58), ce qui est expliqué par :

  • Une hausse du coût des combustibles (6%), rien n’indique que ces coûts vont continuer à augmenter, il a même chuté en 2011 après l’accident de Fukushima ;
  • Une hausse des coûts de personnel (7%), due à la pyramide des âges. Rien n’indique que ces coûts ont continué à augmenter ;
  • des impôts et taxes (14.5%), c’est une décision politique qui n’a rien à voir avec les coûts croissants du nucléaire et rien n’indique que ces coûts vont continuer à augmenter. ;
  • À la réorganisation de services (fonctions centrales et de support) (30%), rien n’indique que ces coûts continueront à augmenter à l’issue des restructurations ;
  • Une hausse des dépenses de fonctionnement / sous-traitance (21.5%). Seule cette hausse est liée à l’évolution des coûts de maintenance. Soit 300 millions d’euro sur 900 millions d’augmentation. Soit 4.5% sur 3 ans, soit 1.2%/an sur la période.

Le « grand carénage » , aura un coût de 55 milliards d’ici 2025 selon EDF.

Ce qui nous amène à un coût annuel sur 10 ans de l’ordre de 5.5 milliards pour 70% de la production électrique, que l’on comparera aux 7 milliards évolutifs de la CSPE, pour subventionner 5.3% de la production électrique.

Mais on apprend ensuite que ces investissements qui s’étalent sur 10 ans, sont prévus pour faire fonctionner les centrales de 40 à 60 ans, ce qui ramène le coût annuel à quelque chose de l’ordre de 0.9 à 1,4 milliard par an. Soit quelque chose comme 5 à 7 fois moins que la CSPE.

La cour des compte estimerait le coût du « grand carénage » à 100 milliards

Admettons (je n’ai pas retrouvé ça dans le rapport de la Cour des Comptes), doublons le chiffre : 1.8 à 2.8 milliards / an pour financer 70% de la production électrique, que l’on comparera aux 5 milliards de CSPE pour subventionner 5.3% de la production électrique.

Le coût de production nucléaire avant ces travaux seraient de 50€/MWh contre 80€ après, selon cour des comptes

L’estimation de 70 à 90 € concerne le seul EPR de Flamanville, si ce dernier n’est pas construit en série. (pages 225-226).

A terme, la facture d’électricité devrait augmenter de 30% (selon le Sénat)

Les seules sources que j’ai trouvées en ce sens sont de 2012, et expliquent l’augmentation du prix de l’électricité de la manière suivante :
« Voici les raisons qui pourraient aboutir à cette augmentation de l’électricité : le prix de l’électricité nucléaire historique suivant le rythme de l’inflation à hauteur de 2 % par an. […] La contribution au service public de l’électricité, la CSPE passé de 1,9 milliard d’euros en 2010 à plus de 5 milliards d’euros aujourd’hui. […] Il faut dire que le prix d’achat de l’électricité produite à partir d’énergies renouvelables est sept fois plus élevé que son prix de vente. […] Le régulateur évoque une hausse de 4 % par an, inflation comprise, du tarif d’utilisation des réseaux publics d’électricité, le TURPE, qui rémunère le transport d’électricité par RTE ».

Le coût de l’EPR de Flamanville serait passé de 3 milliards prévus à 9 milliard aujourd’hui.

J’en ai parlé plus haut : la conséquence est un coût du MWh de l’ordre de 80€.

Bure 13 à 17 milliards estimés au départ, contre 30-35 milliards selon l’ANDRA

Là encore, la fourchette de 15 à 35 milliards n’a rien de nouveau (elle date de 2003 (page 142)) et dépend de différents scénarios.

EDF aurait prévu 23 milliards prévus pour le démantèlement de ses centrales, ce qui est faible par rapport au coût des démantèlements de centrales américaines ou anglaises

EDF l’explique par le fait que les démantèlements ayant déjà eu lieu, concernaient les démantèlements de centrales uniques, et EDF compte faire des économie d’échelle sur des centrales construites en série. C’est sans doute discutable, mais ni osons causer ni moi n’avons les compétences pour en juger.

La vraie question est de savoir quelles sont les alternatives pour fournir suffisamment d’électricité pour les besoins actuels et futurs, et à quel coût. Les énergies renouvelables actuelles ne répondent pas à ces critères et il est hors de question de puiser dans les énergies fossiles.

 

Observez 117 ans de réchauffement climatique à Paris

Observez 117 ans de réchauffement climatique en France

C’est ce que nous proposent les Décodeurs à l’aide d’une infographie animée montrant les courbes annuelles de 1899 à 2016 pour la France et depuis 1873 pour Paris. Si l’exercice engendre un effet visuel mettant en évidence la prédominance des dernières décennies dans les années les plus chaudes, un simple graphique chronologique l’aurait également permis. Le résultat pose cependant questions.

Les graphes des décodeurs sont sourcés d’un laconique « Météo France » . Heureusement, la source du code permet de récupérer les valeurs utilisées, mois par mois. Je vais, pour la suite, utiliser les données parisiennes.

La seule station parisienne enregistrant les données depuis 1872 est la station Paris-Montsouris (ou ici). Cette station est assez mal classée (indices allant de 3 à 5 sur 5). Elle est classée 3/5 pour les température (médiocre) depuis 1999, les sondes ont été remplacées en 2006 et 2010. Elle est également classée B concernant la précision des températures (incertitude de 0.15°C) depuis 2009. Tout porte à croire que la situation antérieure était moins bonne (on remplace rarement du matériel pour perdre en précision). La station automatique a été installée en 1989.

Situation de la station météo Paris Montsouris

Situation de la station météo Paris Montsouris, à une soixantaine de mètres du boulevard des Maréchaux.

Il faut garder à l’esprit que les stations météorologiques n’ont pas été conçues pour étudier le climat : leur marge d’erreur est souvent, encore aujourd’hui, de l’ordre de 0,5°C. Ce qui est énorme lorsqu’on prétend détecter un réchauffement climatique d’un ordre de 2 fois plus grand sur un siècle et demi, avec une précision 50 fois moins grande, c’est à dire au centième de degré.

Les relevés de température

Afin d’homogénéiser les données de la station, je les ai moyennées sur 10 ans : Cela nous permet de suivre l’évolution des enregistrements en s’extrayant des artefacts de mesures.

graph 1882-2016 moyenne decennale

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

À première vue, il existe au moins deux interrogations :

Alors que tous les spécialistes s’accordent à dire que le réchauffement climatique d’origine humaine n’est pas perceptible avant les années 1950, nous observons un réchauffement de l’ordre 0.6°C entre 1895 et 1901. En 6 ans seulement, la ville de Paris aurait enregistré une augmentation des températures équivalent aux 2/3 du réchauffement global mesuré sur 150 ans au niveau planétaire. Et à l’époque, personne ne s’est aperçu de rien : pas de vendanges précoces, d’oliviers plantés dans le parc Montsouris, de migration ou disparition d’animaux ou autres caractéristiques bien connues : Rien. Vers 1950, alors que le réchauffement n’est pas censé être perceptible, le réchauffement parisien culmine à 1,5°C : près de deux fois le réchauffement officiellement constaté au niveau planétaire aujourd’hui, toujours sans que personne ne s’aperçoive de rien. Pire, dans les années 70, la crainte était un refroidissement climatique : Sur la base des mêmes mesures, le Monde titrait le 23 juin 1971 « Quand la Terre se refroidit » , où l’on pouvait lire « Beaucoup de spécialistes semblent d’accord pour reconnaître que la tendance climatique actuelle est au refroidissement. » Sans que l’on n’en connaisse les raison à l’époque, malheureusement.

Selon les mesures de la station Montsouris, la température a augmenté de près de 2.5°C depuis 1882. Trois fois l’augmentation supposée du réchauffement climatique d’origine humaine. Ce résultat est à lui seul totalement délirant : tenter une quelconque démonstration à partir de ces données est un non sens.

Un siècle et demi d’urbanisme

Évolution des températures à Paris

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

Le 14e arrondissement de Paris est créé en 1860. Sa population est alors de 52000 habitants, celle du quartier Montsouris de 1400 habitants. Wikipedia précise « C’était à l’époque une zone rurale périurbaine, où seuls les abords de la route de Gentilly à Paris (rue de la Santé et rue de l’Amiral-Mouchez) ainsi que l’hôpital Sainte-Anne, possédaient quelques constructions. » La population du 14e arrondissement a depuis triplé et celle du quartier de Montsouris multipliée par 15 à près de 20000 habitants (15000 habitants/km2). Montrouge, à 500 mètres de la station météo, était une petite agglomération entourée de champs de 8600 habitants en 1882, c’est aujourd’hui une ville de 50000 habitants.

Le boulevard des Maréchaux, créé à la même époque que le parc, est à une soixantaine de mètres de la station météorologique.

À moins de 100 mètres a été bâtie la cité internationale universitaire entre 1925 et 1938. Les rues qui entourent le parc sont bâties au cours du XXe siècle.

Le boulevard périphérique ouvert en 1973 est à 400 mètres à peine. En France, le nombre de véhicule a triplé depuis 1970, et le nombre de milliards véhicules.km (ou ici) est passé de 419,8 en 1990 à 560,4 en 2010. La construction de nouvelles routes et l’explosion de la circulation ne sont sans doute pas sans incidence sur les effets d’îlot urbain (ou ici).

C’est donc sur la base de ces données météorologiques contestables, car d’une précision inconnue jusqu’en 2009 mais probablement de l’ordre du demi degré et ne prenant manifestement pas en compte l’évolution urbaine, que s’appuient les Décodeurs pour prouver l’existence d’une accélération de la hausse des températures à Paris depuis 1880.

 

 

La banquise arctique pourrait complètement disparaître d’ici à quatre ans

Tel est le titre d’un article signé le 19 septembre 2012 par Audrey Garric, Chef adjointe du service #Planète/#Sciences du Monde, spécialiste climat, pollution, énergie, pangolins.

Caramba, encore raté !

Extension de la banquise arctique au 12 septembre 2016

Extension de la banquise arctique au 12 septembre 2016. Source : http://www.iup.uni-bremen.de:8084/amsr2/extent_n_running_mean_amsr2_previous.png

C’était il y pile 4 ans, et la catastrophe annoncée ne s’est pas produite. La banquise arctique s’est réduite cette année à 4.351 millions de km2, soit 700 000 de plus qu’en 2012, année de l’annonce fracassante du Monde, laquelle suivait la prophétie d’Al Gore de 2008, prévoyant la disparition de la banquise arctique avant… 2013.

Selon Audrey Garric (voir le post-scriptum), « La raison pour laquelle il y a autant de climato-sceptiques, c’est qu’en matière de changement climatique, il faut dix secondes pour sortir une ânerie, et dix minutes pour expliquer pourquoi c’est une ânerie. » Corollaire, le problème avec les climastrologues, c’est qu’il leur faut 10 secondes pour prévoir une catastrophe, et plusieurs années pour démontrer factuellement leur fourvoiement idéologique. Ce qui ne les empêche pas de recommencer.

À ce propos, si les records de chaleur sont battus chaque mois depuis un an, c’est à cause d’un phénomène naturel et récurrent, appelé « El Nino » , qui se caractérise notamment par un réchauffement de l’atmosphère. Débuté en 2015, il a été particulièrement puissant mais est actuellement en phase descendante. Il pourrait céder la place à un « La Nina » , phénomène tout aussi naturel et récurrent qui se caractérise par une baisse des températures. Nous ne devrions donc plus entendre parler de records de températures d’ici quelques mois (les alarmistes trouveront sans doute une cause censée prouver le Dogme), mais l’hystérie reprendra au prochain El Nino un peu violent, dans quelques années.

Évolution des températures de 1997 à septembre 2016

Évolution des températures de 1997 à septembre 2016 selon les mesures satellite RSS (Remote Sensing System). On voit très bien le El Nino de 1998 suivi de son épisode froid « La Nina » jusqu’en 2002, et celui de 2016 pour lequel on ne peut que constater la phase descendante. En dehors des pics El Nino, il est bien difficile de distinguer un réchauffement sur les 20 dernières années.

Je ne résiste pas à publier cette vidéo où le physicien Richard Feynman expose la bonne méthode scientifique : « si l’expérience ne vérifie pas votre théorie, cette dernière est fausse » .

Anthrax en Siberie

Libération, mais aussi les autres médias jusqu’aux JT de 20h s’en sont fait l’echo : une épidémie d’anthrax due à la décomposition d’animaux décédés depuis des siècles ou plus s’est déclarée en Sibérie où le pergelisol fond à cause du réchauffement climatique.

Les températures moyennes avoisinent les 35 degrés – contre 17 habituellement à la même saison.

Faktoriya-temperatures-juillet-2016

Températures enregistrées à Faktoryia en juillet 2016. Source

La région (a priori vers Faktoriya) a enregistré une canicule inhabituelle le mois dernier. Si l’on ne peut pas exclure un pic à 35°C, force est de constater que les enregistrements n’ont pas excédé les 25°C. Par ailleurs, 35°C n’est pas un record. Les maximales à  Yanov Stan par exemple, sont de 36.3°C en juin, et 35.2°C en juillet, comme à Nyda . On trouve même plus de 39°C à Kikiakki : comparer une moyenne mensuelle calculée sur plusieurs années voire décennies à celle de l’année en cours est pour le moins malhonnête : il a toujours existé des années chaudes et des années froides.

Les derniers cas d’anthrax remontaient à 75 ans

Ce qui nous indique que ce phénomène s’est déjà produit. Il y a 75 ans : Si tel est le cas, ou le pergélisol a déjà fondu dans le passé, ou les cas d’anthrax ont une autre cause : On trouve des cas d’anthrax dans d’autres régions de la Sibérie, comme en atteste cet article de 2012.

La source probable du journaliste, issue d’un média sibérien, est factuelle : un enfant est décédé après avoir contracté  l’anthrax. Sa grand-mère est décédée pour une raison inconnue. D’autres malades ont été hospitalisés. La majorité des personnes touchées sont des nomades éleveurs de rennes.

Cimetière Nenets, Sibérie

Cimetière Nenets, Sibérie. Source : Siberiantimes

Dans un premier temps, la cause de linfection n’était pas connue, et les soupçons se sont d’abord portés sur la canicule, avec des températures de l’ordre de 25 à 35°C (et non pas températures moyennes avoisinent les 35°C comme le rapporte Libé), faisant fondre le permafrost et libérant ainsi la maladie. Il semblerait néanmoins que l’infection pourrait provenir d’un cimetière Nenets proche,  où des restes humains auraient pu propager l’anthrax : Il est de coutume, dans ces régions, de faire reposer les corps dans des sortes de boîtes, sans les enterrer. Le 2 août toujours, la canicule ne semble pas inquiéter plus que ça les autorités, qui craignent avant tout l’extension de l’épidémie par le biais de la viande et des animaux et non par la fonte du permafrost.

Un article du 3 août 2016 nous apprend que les premiers cas d’anthrax sont apparus il y a 5 semaines, et que l’épidémie n’a pu se développer que parce que les animaux n’étaient pas vaccinés, par choix politique.

Enfin, le 5 août 2016, la piste du cimetière nenets semble confirmée, rejetant la thèse apocalyptique d’une bactérie ancestrale réveillée par le réchauffement climatique. D’ailleurs, les températures sont depuis retombées bien en-dessous de la normale. L’épidémie aura été traité avec beaucoup de professionalisme par les autorités locales qui semblent habituées à ce genre de problèmes.

La montée des eaux de l’Atlantique provoquerait la disparition d’un bidonville au Liberia

L’information vient de l’AFP. le bidonville de West Point à Monrovia au Liberia serait en passe de disparaître à cause de la montée des eaux de l’Atlantique. Évidemment, lorsqu’une telle information est diffusée par l’AFP, elle est reprise en boucle sur de nombreux médias (Le Monde, Orange, Yahoo, France24, etc) qui la relaient sans vérifier. Et les personnes sensibilisées au réch chang déréglement climatique se croient obligées d’amplifier l’information sur les réseaux sociaux.

L’inexorable… RT @AFP_Afrique: La mer chasse de chez eux les habitants du plus grand bidonville du Liberia https://t.co/23CDwEMgi1

— Cécile Duflot (@CecileDuflot) July 25, 2016

Face à ce flux d’articles concordants car issus d’une source unique, il est compliqué d’en trouver l’origine, et donc d’en vérifier l’authenticité : il semble en effet étonnant que ce désastre survienne depuis 2 ans sans évènements précurseurs, suite à la montée des eaux de l’Atlantique. Une autre cause est-elle envisageable ?

Quelle est l’ampleur de la montée des eaux au Liberia ?

Confrontons la thèse de la montée des eaux aux mesures objectives, celles des marégraphes. Il se trouve que les marégraphes publient leurs mesures sur Internet. Et qu’il en existe un au Libéria, à Monrovia exactement, dont voici les mesures prises sur un an tous les 5 ans :

Niveau de la mer relevé par le marégraphe de Monrovia au Libéria, de 1970 à juin 2016

Niveau de la mer à marée haute, relevé par le marégraphe de Monrovia au Liberia, de 1970 à juin 2016

Année Moyenne marée haute (cm) Maxi marée haute (cm)
1970 115.3 151
1975 119.3 151
1980 119.5 150
1985  117.9 148
1990  117.6 144
1995  119.5 148
2000  119.3 147
2005  117.3 149
2010  119.0 152
2015  120 151
2016 (jan-juin)  120.5 147

Le graphique est assez clair : il n’existe aucun niveau record des marées depuis 1970.

D’autres causes peuvent-elles être envisagées ?

West Point, comme une partie du litoral liberien, est victime d’érosion. La page anglophone de Wikipedia l’attribue aux dégradations environnementales dues à la surpopulation, en s’appuyant sur l’article paru en 2007 « West Point, Liberia: An environmental menace » de Morris T. Koffa dans « The Liberian Dialogue » . Cette thèse est par ailleurs précisée par Eugene Shannon, ministre des territoires liberiens en 2008, où il mentionne le pillage, par les populations locales, de pierres ou éléments métalliques censés protéger les côtes de l’érosion.

Conclusion

Le problème d’érosion des côtes existait donc avant ces deux dernières années ; Et non, la montée des eaux n’a pas pu provoquer les catastrophes citées dans la brève de l’AFP pour la simple et bonne raison qu’il n’y a pas eu de montée des eaux significative à Monrovia depuis une cinquantaine d’années. Reste la seule information crédible de la dépêche, la détresse des populations locales. Mais qui s’en soucie vraiment ?

 

Climat : températures et CO2 grimpent

C’est un commentaire de l’article de Sylvestre Huet « Climat : températures et CO2 grimpent » qui m’incite à rédiger ce billet :

Bon article, net, concis. Avec les références aux multiples instituts de recherche qui contribuent à de telles études. Hélas, comme pour l’article sur le rongeur australien, nous allons voir débarquer les « douteurs » (car le « doute est le fondement de toute démarche scientifique », nous disent-ils sans justifier d’aucun formation scientifique) qui vont « douter » de toutes ces courbes et résultats. Par contre, ces même personnes, si on leur diagnostique un cancer, ne vont jamais « douter » de leur maladie.

Je ne suis pas scientifique, mais je recoupe les informations à ma disposition. Cela fait indubitablement de moi un « douteur » . Et concernant le réchauffement climatique, je ne suis jamais déçu.

M. Huet débute par une série de données brutes issues de la seule NOAA, les plus alarmistes, relatives aux températures mondiales de mai 2016, sans en citer la source et en insistant uniquement sur l’aspect record et en affirmant « que l’objectif fixé à la COP-21 de viser une hausse maximale de 1,5°C relativement à la période pré-industrielle (1750) [la science retient 1850 habituellement. Faute de frappe ? NDR] est hors de portée » . Or, ce qui caractérise mai 2016, y compris dans les chiffres de la NOAA, c’est la confirmation de la fin d’un épisode el nino particulièrement important, accompagné d’une baisse rapide des températures.

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Loin de confirmer une hausse rapide des températures, le mois de mai semble indiquer un retour à « la normale » des températures, suite à un épisode chaud qui caractérise el nino, phénomène récurrent, connu, et parfaitement naturel. La NOAA à l’origine des chiffres cités par M. Huet l’admet d’ailleurs dans son rapport mensuel :

Les températures moyennes mondiales terrestre et de surface des océans de mai 2016 ont été les plus basses depuis Août 2015 et, à la différence des cinq derniers mois (Décembre 2015 en Avril 2016), n’a pas dépassé 1,0 ° C (1,8 ° F ). Mai 2016 est à égalité avec Juin 2015 et Août 2015, le 12e le plus chaud depuis le début des mesures.

Parallèlement à cette baisse de la hausse des températures, M. Huet note que le taux de CO2 passe au-dessus des 400 parts par millions à la station de mesure de l’île d’Amsterdam. Comme il le souligne, ce seuil est parfaitement symbolique et n’engendre aucun événement particulier. C’est même une information récurrente depuis quelques années, les stations enregistrant l’une après l’autre des taux supérieurs à 400ppm, parfois à plusieurs reprises. Le même M. Huet qui semble tenir une exclusivité aujourd’hui, nous en faisait d’ailleurs part en 2014 dans son blog de Libération.

Ces deux éléments parfaitement indépendants permettent cependant à M. Huet d’étabir péremptoirement un « lien CO2 températures bien établi » . Si vous vous attendiez à une référence à une étude ou à de multiples instituts de recherche qui contribuent à de telles études , passez votre chemin. Le lien est établi. Point.

Et dire qu’il y a des gens qui doutent. Non mais franchement.

Et encore, ces gens n’ont-ils peut-être pas entendu parler des ajustements de température a posteriori de la NOAA suite à l’étude Karl et al, qui font foi depuis mars 2015 et ont entre autres effacé le el nino de 1998 (celui-là même  qui prouva, en son temps, le réchauffement climatique d’origine humaine)?

Du totalitarisme climatique

Suite à la parution de son livre « Climat Investigation » par lequel il relativise le catastrophisme de bon aloi qui secoue la sphère médiatique à l’approche de la COP21, Philippe Verdier se voit attaqué de toutes parts par les grands journaux français. La palme de ces attaques revient sans conteste au Monde.

Décodons les décodeurs

Les décodeurs du Monde entendent démonter le livre de Philippe Verdier en 4 points :

1. Les incertitudes à propos du réchauffement climatique « sciemment gommées » par le GIEC ?

Faux, répondent les Décodeurs.

Les gommages du rapport destiné aux décideurs

Pourtant, on peut trouver de nombreux « gommages » des incertitudes dans le rapport du GIEC. Dès le premier graphique, page 21, les températures de la planète depuis 1850 figurent sans aucune incertitude, alors qu’elle était de l’ordre de 0,08°C (environ ±0.14°C pour les terres et ±0.04 pour les océans) en 2012 pour la NOAA et évidemment beaucoup plus élevée en 1850 :

Anomalie de températures, rapport AR5 du GIEC

Anomalie observée de températures moyennes en surface, combinant les terres émergées et les océans, de 1850 à 2012, WG1AR5_Summary du GIEC version française

voici un autre exemple tiré de la page 27 du rapport :

L’acidification de l’océan est quantifiée par la diminution du pH. Le pH de l’eau de mer a diminué de 0,1 depuis le début de l’ère industrielle (degré de confiance élevé), soit une augmentation de 26 % de la concentration en ions hydrogène (voir figure RID.4).

Cette affirmation, pour le moins péremptoire et avec un degré de confiance élevé, repose sur des mesures directes débutant à la fin des années 1980 dans 3 stations situées dans l’océan Atlantique et Pacifique (figure RID.4 + légende sur la même page).

Aujourd’hui, un bon pH-mètre est précis à 0,02 unités près : il s’agit à minima de l’incertitude  des mesures modernes en conditions de laboratoire. Les courbes fournies rapportent une évolution du pH de l’ordre de -0.03 pH (± 0.02 au mieux) sur 30 ans (en étant gentil, vu le chaos que constituent ces courbes) ;

Quid de l’incertitude des mesures plus anciennes qui ne figurent pas sur le schéma ? Les mesures ont-elles été faites par pH-mètre ? Avec quelle précision ? Par proxies (forcément beaucoup moins précis) ?

Quid des mesures « au début de l’ère industrielle » que l’on peut situer au milieu de XIXe siècle, une soixantaine d’années avant les méthodes de mesure de la concentration  en ions d’hydrogène et la formalisation du pH (par le chimiste danois  Søren Sørensen) ?

Le pH est susceptible de varier en un même endroit durant une même journée de plusieurs dixièmes d’unités en fonction de la température, de la pression atmosphérique, des conditions météo, du courant marin et d’autres paramètres. Quelle l’incertitude peut-on en déduire ?

Le pH des océans se situe habituellement entre 7.5 et 8.4. Le GIEC nous indique avoir mesuré une baisse de l’ordre de 0,03 pH à environ 8.1 en 30 ans sur 3 points de la planète : quelle réalité cela revêt-il pour le reste des océans ?

Dans le rapport du GIEC, on ne voit pas d’incertitude, ni dans le texte, ni dans la figure RID.4, ni dans la légende : Pourquoi  ?

Par ailleurs, s’il est admis dans les milieux scientifiques que l’échelle logarithmique du pH est adaptée pour mesurer le potentiel hydrogène (appelez cela un consensus), c’est avant tout dans un soucis de lisibilité. Déroger à cette règle en évoquant une augmentation de 26% de la concentration en ions hydrogène devrait être motivé par une raison valable : quelle est-elle ?

Les incertitudes peuvent porter sur les couleurs, superpositions, échelles, etc. des schémas, mais également sur le ton donné à l’ensemble.

Les gommages des incertitudes par les médias

Sans parler, bien entendu, du gommage de l’incertitude issu de l’interprétation des journalistes. Ainsi Audrey Garric, Chef adjointe du service Planète/Sciences du Monde affirme-t-elle suite à la parution de ce rapport : « Le verdict est tombé : la température de la terre pourrait grimper jusqu’à 4,8 °C d’ici à 2100 et le niveau des océans s’élever de près de 1 m » , ce qui est bien entendu assez éloigné de la vérité :

Scénarios du GIEC, températures et montée des océans en 2100

Tableau page 38 du rapport : pour le coup, il y a de la belle incertitude qui décoiffe : de 0.3°C à 4.8°C et de 26 cm à 82cm en 2100. Mais là, ce sont les journaleux qui n’en parlent pas…

2. Les scientifiques du GIEC, payés par les gouvernements ?

Faux, nous indiquent les Décodeurs.

Certes, « l’administration du GIEC » n’est pas à proprement parler « les scientifiques du GIEC« , mais l’affirmation posée par M. Verdier, telle que je la comprends, se rapporte à la politisation des publications du GIEC. Si l’on se réfère au schéma fourni dans l’article des Décodeurs, ce sont bien les gouvernements qui financent le bidule. Karl Ritter de Associated Press a publié le 19/09/2013 dans le  Huffington Post « Un rapport de l’ONU note un ralentissement du réchauffement climatique » qui relate les dernières négociations avant publication du 5ème rapport du GIEC en 2013, et apporte  un éclairage édifiant sur le rôle des gouvernements-financeurs :

Mais plusieurs gouvernements qui ont pris connaissance du document ont contesté la manière dont la question était traitée. L’Allemagne a demandé à ce que la référence au ralentissement soit retirée, affirmant qu’une période de 10 ou 15 ans est trompeuse dans le contexte des changements climatiques, un phénomène qui se mesure sur des dizaines et des centaines d’années.

Les États-Unis ont demandé l’ajout de l’hypothèse principale selon laquelle ce ralentissement du réchauffement serait attribuable à un transfert plus important de chaleur vers le fond des océans.

La Belgique s’est objectée au choix de 1998 comme année de départ, puisqu’il s’agit d’une année exceptionnellement chaude. Tout graphique qui débute en 1998 sera essentiellement plat, puisque les années suivantes ont été plus fraîches. Un graphique débutant en 1999 ou 2000 témoignerait d’une légère tendance à la hausse.

On pourrait également citer les nombreux articles publiés à l’automne 2013, peu avant et après la publication du rapport, tels que « Par prudence, le GIEC aurait sous-estimé les effets du réchauffement » de Stéphane Foucard du Monde qui cite Naomi Oreskes, historienne des sciences et auteure de « Les marchands de doute » , que l’on peut difficilement qualifier de climato-sceptique : « Pour quelles raisons le GIEC tend-il souvent à minimiser la menace ? L’implication des gouvernements dans le processus du GIEC y contribue sans doute, dit en substance Naomi Oreskes. »

La rédaction du rapport pour les décideurs, le seul à peu près lu par les politiques et les journalistes spécialistes du climat, semble donc bel et bien politisé.

3. En France, les hivers plus doux sont-ils une bonne chose ?

Plutôt faux, selon les Décodeurs

Pour quelle obscure raison le climat de 1850 qui suit une période froide appelée « petit âge glaciaire » lui même précédé par une période chaude appelée « l’optimum médiéval » , et qui précède un réchauffement sur le siècle et demi suivant, serait le bon climat bien réglé et qui convient à toute la planète ? Pourquoi n’y aurait-il pas des aspects positifs à ce réchauffement ? Par ailleurs, comment expliquer que les grandes civilisations humaines se soient développées lors de périodes plus chaudes (qui ont existé, malgré le réglage du climat aux bonnes valeurs) ?

Je n’ai pas de réponse à ces questions ; peut-être le livre de M. Verdier en apporte-t-il. Mais la réponse des Décodeurs ne me convainc pas, en ce qu’elle s’appuie sur UNE épidémie de grippe sur UN hiver plus doux que la moyenne, sur des modèles climatiques réputés fiable (on y vient), sur des cultures qui en souffriront dans le futur (pourquoi n’en souffrent-elles pas déjà ?) et sur l’inévitable conditionnel qui permet de s’affranchir de toute responsabilité dans le futur.

4. Les modèles climatiques, pas fiables ?

Faux, répondent les Décodeurs

« Pour vérifier la précision des modèles climatiques, ceux-ci sont testés sur le climat passé » nous assènent-ils. En admettant que ces modèles aient fonctionné sur le climat du passé, cela ne prouve en aucun cas leur fiabilité pour le futur : il est aisé de construire un modèle qui reproduit des séries connues.

Le graphique choisi par les Décodeurs pour illustrer la fiabilité des modèles, est issu du Third Assessment Repport du GIEC publié en 2001. 15 ans se sont écoulés depuis, et certains climatologues tels que Judith Curry, John Christy, Roy Spencer et quelques autres, émettent les plus grandes réserves quant à leur fiabilité. Ainsi le climatologue Roy Spencer a-t-il publié il y a quelque temps un graphique représentant les températures prévues par les modèles à compter de 1979 et les mesures du monde réel. Force est de constater qu’il y a divergence, laquelle s’est justement aggravée à compter de la fin des années 1990 :

Observations vs modèles

Observations (carrés bleus et cercles verts) vs modèles (les courbes, la courbe engraissée noire représentant l’hypothèse moyenne). Source : Ph. D. Roy Spencer.

Divergence modèles climatiques vs observations par John Christy

Divergence modèles climatiques vs observations par le climatologue Ph. D. John Christy lors de sa présentation au « Senate Environment and Public Works Committee » en 2012. Source : page 13 de ce document.

Licenciement de Philippe Verdier

L’article des Décodeurs suit la ligne éditoriale alarmiste que se sont fixés les grands médias français : Même si M. Verdier réfute son climato-scepticisme et se contente de relativiser l’Apocalypse climatique avec des arguments mesurés, c’en est déjà trop. Il faut faire taire l’importun.

Concernant le climat, les journalistes ne sont plus Charlie

Plus grave et révélatrice du climat délétère sur le sujet du réchauffement climatique est la réaction d’Audrey Garric, Chef adjointe du service Planète/Sciences du Monde, qui n’hésite pas à se réjouir du licenciement de M. Verdier :

M. Verdier n’a pourtant commis aucune infraction, aucun délit, aucune faute professionnelle. Il a usé de son droit d’expression, lequel lui est reconnu par les articles 9 et 10 de la Convention européenne des droits de l’homme, je cite :

Article 9
1. Toute personne a droit à la liberté de pensée, de conscience et de religion ; ce droit implique la liberté de changer de religion ou de conviction, ainsi que la liberté de manifester sa religion ou sa conviction individuellement ou collectivement, en public ou en privé, par le culte, l’enseignement, les pratiques et l’accomplissement des rites.

Article 10
1. Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière. Le présent article n’empêche pas les États de soumettre les entreprises de radiodiffusion, de cinéma ou de télévision à un régime d’autorisations.

Pour les « journalistes » spécialistes du climat, le sujet n’est plus d’ordre scientifique mais d’ordre politico-religieux avec ses croyances, ses Dogmes, ses prêtres, son prosélytisme, son totalitarisme et son Apocalypse. Preuve en est la réaction d’Audrey Garric lorsqu’une étude semble  confirmer le Dogme (notez le souriard) :

Toute atteinte au Dogme, aussi insignifiante soit-elle, justifie donc l’excommunication, la mise à pied et le déshonneur.

Dans un soucis de cohérence intellectuelle vaguement lié à une certaine déontologie et suite à son article « La banquise pourrait complètement disparaître d’ici à 4 ans » publié le 18/09/2012, Mme Garric démissionnera-t-elle si, pour improbable que ce soit, il reste une surface significative de banquise à la mi-septembre 2016 (pour 2015, c’est d’ores et déjà raté) ? À moins que le conditionnel n’ait valeur de contrition et vaille absolution dans l’Église de l’Apocalypse climatique ?

Comment peut-on être climato-sceptique en 2015 ?

C’est la question qui m’a été posée lors d’une conversation sur Twitter, assortie de quelques arguments destinés sinon à me convaincre, du moins à prouver que j’ai tort de l’être. Surtout en 2015. Au détour d’une pluie d’arguments, mon interlocuteur me cite ainsi un article de blog de Sylvestre Huet de Libération, intitulé « Climat, record de chaleur planétaire en juillet »  :

(lien permanent)

C’est justement ce type d’articles qui me confortent dans mon scepticisme. Voici pourquoi :

Arrêtons nous tout d’abord sur le titre : Climat, record de chaleur planétaire en juillet indique l’utilisation d’une  méthode de falsification connue sous le nom de « cherry-picking », qui consiste à signaler des cas individuels ou des données qui semblent confirmer une position particulière, tout en ignorant une partie importante de cas liés ou des données qui pourraient contredire cette position : Les mêmes qui estiment qu’une pause (hiatus selon la terminologie du GIEC) des températures sur la période s’étendant environ de 1997 à aujourd’hui (~ 18 ans) ne suffit pas à confirmer l’absence de réchauffement climatique , ne peuvent pas s’appuyer sur UNE mesure du système chaotique du climat pour en extraire une tendance. Un très bon blog scientifique n’aurait pas usé de cette méthode.

L’article débute par le constat selon lequel deux équipes scientifiques chargées d’étudier le climat, à la NASA et à la NOAA, ont déterminé que juillet 2015 était le mois de juillet le plus chaud jamais enregistré. Soyons curieux, ouvrons les deux liens fournis et consultons l’origine de ces données. Pour la NASA, il s’agit de GHCN-M 3.3.0 pour les relevés terrestres et de ERSST 4.0.0 pour les températures des océans (voir les notes 1 et 2 de bas de page). En ce qui concerne la NOAA, surprise, il s’agit de GHCN-M 3.3.0 et de ERSST 4.0.0 (voir la note en  haut de page). Il s’agit donc de deux équipes scientifiques qui publient une synthèse de l’état climatique issue des mêmes calculs sur les mêmes données et, vous parlez d’un hasard, arrivent à la même conclusion. Un très bon blog scientifique n’aurait pas laissé entendre qu’il s’agissait des résultats de travaux indépendants.

Deuxième surprise, les séries de données issues des satellites, par nature plus précises, ne valident pas l’hypothèse de ce record : voici UAH par exemple :

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015.

Un très bon blog scientifique aurait précisé que les données issues de diverses sources ne validaient pas toutes ce record, loin s’en faut.

Nous apprenons ensuite que « dans le système de référence de la NOAA, le mois de juillet est à 0,81°C au dessus de la moyenne du mois tout au long du 20ème siècle » . La lecture de la page de la NOAA précise que ce record est de 8 centièmes de degrés (0.08°C) par rapport à 1998, et qu’il existe une incertitude mesurée à ± 0.14°C : cela signifie que ces deux mesures sont statistiquement indiscernables. Visuellement, ça donne ça :

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes (en bleu). La zone grisée correspond à la zone d’incertitude calculée pour juillet 2015, dans laquelle s’inscrit le record de juillet 1998.

Un très bon blog scientifique aurait expliqué cette notion d’incertitude et aurait mis l’accent sur l’indiscernabilité des deux mesures.

Puis Sylvestre Huet nous apprend que « c’est surtout en raison des températures de surface des océans, la plus élevée jamais enregistrée, que juillet 2015 détient ce record » . Un très bon blog scientifique en aurait profité pour nous toucher un mot sur la nouvelle interprétation des données brutes, ERSST 4.0.0 dont on a parlé plus haut : Ce nouveau calcul a été introduit en mai 2015 et coïncide avec des records de températures depuis lors (mai, juin et juillet 2015 sont les mois de mai, juin et juillet les plus chauds jamais enregistrés par la NOAA).

Anomalie des températures des océans de janvier 2014 à juillet 2015Anomalie des températures des océans de janvier 2014 à juillet 2015

Anomalie des températures des océans de janvier 2014 à juillet 2015 : on note la hausse « anormale »  par rapport au reste de la série de données au mois de mai 2015, suivi de la reprise de variations « normales ». Sources : données mensuelles de la NOAA.

ERSST 4.0.0 fait suite à ERSST 3b et est l’une des conséquences d’une étude intitulée « Possible artifacts of data biases in the recent global surface warming hiatus » par Karl et al. 2015 qui a ému un certain nombre de climatologues et scientifiques parmi lesquels Patrick Michaels, Richard S. Lindzen ou Paul C. Knappenberger, comme le rapporte la climatologue Judith CurryUn très bon blog scientifique aurait résumé la controverse qui divise les climatologues (au risque d’égratigner le fameux consensus).

Un peu de vulgarisation (des explications et références plus précises sont disponibles dans l’article de Judith Curry mentionné plus haut) : Le plus gros ajustement de l’étude Karl et al. concerne la méthode de recueil des températures à la surface des océans. Deux méthodes principales coexistent : mesures prises à l’aide de thermomètres installés dans les tuyères de refroidissement des moteurs de bateaux (peu précise, cette méthode est peu à peu abandonnée) et bouées flottantes qui offrent l’avantage d’une meilleure précision. Il se trouve que cette dernière technique retourne en moyenne des valeurs inférieures de 0,12°C à la technique des tuyères : Contre toute logique, Karl et al. a pris le parti d’aligner les mesures des bouées (plus précises) sur celle des tuyères (moins précises) à +0.12°C. La proportion des bouées augmentant dans le temps, la proportion de mesures ajustées à la hausse augmente mécaniquement, et la moyenne des températures des océans aussi. Ce qui n’est confirmé ni par les satellites ni par les balises ARGO. Un très bon blog scientifique aurait donc rapporté ce record en nuançant quelque peu sa signification.

C’est bien évidemment le contraire qui se produit à l’issue d’un paragraphe tout en circonvolution autour de chiffres bien évidemment gravissimes destinés à nous convaincre que l’objectif des 2°C ne sera pas tenable. Pourtant, si l’on se fie au record de juillet 2015 qui, selon M. Huet, est symptomatique du réchauffement climatique, et en admettant que ce dernier est issu d’une augmentation linéaire des températures due à l’activité humaine et non pas du résultat du système chaotique climatique amplifié par, du plus naturel au plus artificiel, el niño, les nouveaux calculs de la NOAA ou un honteux cherry-picking, il en résulte au pire et en faisant fi des incertitudes, un réchauffement de 0,08°C pour 17 ans, soit 0,47°C par siècle. Un résultat bien éloigné des prévisions les moins pessimistes du GIEC.