Anthrax en Siberie

Libération, mais aussi les autres médias jusqu’aux JT de 20h s’en sont fait l’echo : une épidémie d’anthrax due à la décomposition d’animaux décédés depuis des siècles ou plus s’est déclarée en Sibérie où le pergelisol fond à cause du réchauffement climatique.

Les températures moyennes avoisinent les 35 degrés – contre 17 habituellement à la même saison.

Faktoriya-temperatures-juillet-2016

Températures enregistrées à Faktoryia en juillet 2016. Source

La région (a priori vers Faktoriya) a enregistré une canicule inhabituelle le mois dernier. Si l’on ne peut pas exclure un pic à 35°C, force est de constater que les enregistrements n’ont pas excédé les 25°C. Par ailleurs, 35°C n’est pas un record. Les maximales à  Yanov Stan par exemple, sont de 36.3°C en juin, et 35.2°C en juillet, comme à Nyda . On trouve même plus de 39°C à Kikiakki : comparer une moyenne mensuelle calculée sur plusieurs années voire décennies à celle de l’année en cours est pour le moins malhonnête : il a toujours existé des années chaudes et des années froides.

Les derniers cas d’anthrax remontaient à 75 ans

Ce qui nous indique que ce phénomène s’est déjà produit. Il y a 75 ans : Si tel est le cas, ou le pergélisol a déjà fondu dans le passé, ou les cas d’anthrax ont une autre cause : On trouve des cas d’anthrax dans d’autres régions de la Sibérie, comme en atteste cet article de 2012.

La source probable du journaliste, issue d’un média sibérien, est factuelle : un enfant est décédé après avoir contracté  l’anthrax. Sa grand-mère est décédée pour une raison inconnue. D’autres malades ont été hospitalisés. La majorité des personnes touchées sont des nomades éleveurs de rennes.

Cimetière Nenets, Sibérie

Cimetière Nenets, Sibérie. Source : Siberiantimes

Dans un premier temps, la cause de linfection n’était pas connue, et les soupçons se sont d’abord portés sur la canicule, avec des températures de l’ordre de 25 à 35°C (et non pas températures moyennes avoisinent les 35°C comme le rapporte Libé), faisant fondre le permafrost et libérant ainsi la maladie. Il semblerait néanmoins que l’infection pourrait provenir d’un cimetière Nenets proche,  où des restes humains auraient pu propager l’anthrax : Il est de coutume, dans ces régions, de faire reposer les corps dans des sortes de boîtes, sans les enterrer. Le 2 août toujours, la canicule ne semble pas inquiéter plus que ça les autorités, qui craignent avant tout l’extension de l’épidémie par le biais de la viande et des animaux et non par la fonte du permafrost.

Un article du 3 août 2016 nous apprend que les premiers cas d’anthrax sont apparus il y a 5 semaines, et que l’épidémie n’a pu se développer que parce que les animaux n’étaient pas vaccinés, par choix politique.

Enfin, le 5 août 2016, la piste du cimetière nenets semble confirmée, rejetant la thèse apocalyptique d’une bactérie ancestrale réveillée par le réchauffement climatique. D’ailleurs, les températures sont depuis retombées bien en-dessous de la normale. L’épidémie aura été traité avec beaucoup de professionalisme par les autorités locales qui semblent habituées à ce genre de problèmes.

La montée des eaux de l’Atlantique provoquerait la disparition d’un bidonville au Liberia

L’information vient de l’AFP. le bidonville de West Point à Monrovia au Liberia serait en passe de disparaître à cause de la montée des eaux de l’Atlantique. Évidemment, lorsqu’une telle information est diffusée par l’AFP, elle est reprise en boucle sur de nombreux médias (Le Monde, Orange, Yahoo, France24, etc) qui la relaient sans vérifier. Et les personnes sensibilisées au réch chang déréglement climatique se croient obligées d’amplifier l’information sur les réseaux sociaux.

L’inexorable… RT @AFP_Afrique: La mer chasse de chez eux les habitants du plus grand bidonville du Liberia https://t.co/23CDwEMgi1

— Cécile Duflot (@CecileDuflot) July 25, 2016

Face à ce flux d’articles concordants car issus d’une source unique, il est compliqué d’en trouver l’origine, et donc d’en vérifier l’authenticité : il semble en effet étonnant que ce désastre survienne depuis 2 ans sans évènements précurseurs, suite à la montée des eaux de l’Atlantique. Une autre cause est-elle envisageable ?

Quelle est l’ampleur de la montée des eaux au Liberia ?

Confrontons la thèse de la montée des eaux aux mesures objectives, celles des marégraphes. Il se trouve que les marégraphes publient leurs mesures sur Internet. Et qu’il en existe un au Libéria, à Monrovia exactement, dont voici les mesures prises sur un an tous les 5 ans :

Niveau de la mer relevé par le marégraphe de Monrovia au Libéria, de 1970 à juin 2016

Niveau de la mer à marée haute, relevé par le marégraphe de Monrovia au Liberia, de 1970 à juin 2016

Année Moyenne marée haute (cm) Maxi marée haute (cm)
1970 115.3 151
1975 119.3 151
1980 119.5 150
1985  117.9 148
1990  117.6 144
1995  119.5 148
2000  119.3 147
2005  117.3 149
2010  119.0 152
2015  120 151
2016 (jan-juin)  120.5 147

Le graphique est assez clair : il n’existe aucun niveau record des marées depuis 1970.

D’autres causes peuvent-elles être envisagées ?

West Point, comme une partie du litoral liberien, est victime d’érosion. La page anglophone de Wikipedia l’attribue aux dégradations environnementales dues à la surpopulation, en s’appuyant sur l’article paru en 2007 « West Point, Liberia: An environmental menace » de Morris T. Koffa dans « The Liberian Dialogue » . Cette thèse est par ailleurs précisée par Eugene Shannon, ministre des territoires liberiens en 2008, où il mentionne le pillage, par les populations locales, de pierres ou éléments métalliques censés protéger les côtes de l’érosion.

Conclusion

Le problème d’érosion des côtes existait donc avant ces deux dernières années ; Et non, la montée des eaux n’a pas pu provoquer les catastrophes citées dans la brève de l’AFP pour la simple et bonne raison qu’il n’y a pas eu de montée des eaux significative à Monrovia depuis une cinquantaine d’années. Reste la seule information crédible de la dépêche, la détresse des populations locales. Mais qui s’en soucie vraiment ?

 

Je ne suis pas expert en commerce ni en urbanisme, mais…

La « Semaine de Nancy » n° 320 (23 au 29 juin 2016) titre, à propos des mesures prises en faveur du commerce nancéien et suite à expertise de M. Développeur de centre-ville, « Commerce : intentions et actions ». L’article détaille les mesures envisagées par la ville de Nancy pour sortir les commerces nancéiens de la sinistrose.

  • Création d’un nouveau logo assorti du slogan « le shopping style, c’est Nancy ville »
  • 100 000 sacs en coton bio reprenant le visuel, vendus 2 € ou donnés si le commerçant estime que vous le valez bien
  • 2 emplois précaires pour orienter les acheteurs (lorsque vous déambulez en ville, vous êtes un acheteur)
  • une aide à l’installation de nouveaux commerces innovants par le biais du réseau Alexis et la location d’un local à bas coût
  • Et… Voilà.

Je ne suis pas spécialiste en commerce ni en urbanisme, mais je me targue d’avoir une solide expérience de badaud et de client. À mon humble avis, les solutions proposées font l’impasse sur les facteurs les plus importants de la crise des commerces nancéiens, à savoir les déplacements  et le développement des zones commerciales en périphérie.

Lorsque je me suis installé en banlieue de Nancy voici maintenant plus de 20 ans, le Grand Nancy engageait d’importants travaux visant à fluidifier la circulation automobile. À l’époque, le centre ville était atteignable en voiture depuis mon domicile en moins de 10 minutes, sur 3 parcours différents : une fois le premier feu passé au vert, on ne s’arrêtait plus avant d’atteindre le centre ;

À la même époque, le réseau de transports en commun était encore efficace. Un réseau de trolleybus assurait les lignes principales tandis que des bus classiques desservaient efficacement l’ensemble de la CUGN. Les bus profitaient également du réglage des feux visant à fluidifier la circulation.

Y circuler à vélo était une plaie ; les piétons n’étaient pas à l’honneur non plus.

À l’instar de la plupart des villes faisant face à la congestion automobile, Nancy a modifié sa politique de circulation, notamment par suppression de la priorité donnée aux feux (onde verte) pour les voitures et cession d’une partie de l’espace qui leur était dédié à l’usage exclusif des transports en commun. Le temps d’accès  au centre ville m’est passé de 10 minutes à un quart d’heure, puis 20 minutes ou plus aujourd’hui. Par la route la plus rapide. Y compris tôt le dimanche matin, lorsque je suis seul sur la route. Les parkings gratuits situés autour du centre-ville sont devenus payants, leur ôtant ainsi tout intérêt.

Le parking Sainte-Catherine situé aux abords du centre-ville, était autrefois remplis de voitures. Il est evenu payant

Le parking Sainte-Catherine situé aux abords du centre-ville, était autrefois incontournable pour qui désirait se rendre dans le secteur de la Pépinière, place Stanislas ou rue Saint-Jean. Il est devenu payant en janvier 2015. Bien que quasiment vide, la maréchaussée y contrôle régulièrement le paiement de l’horodateur.

Les transports en commun sont en mutation continue depuis l’an 2000, coïncidant avec la création de la ligne 1 du « tramway ». Ce dernier n’a jamais atteint la cadence ni la vitesse prévues. À ce jour, aucune ligne dite structurante ne dessert une sortie importante d’autoroute, ni n’incite les automobilistes venant de l’extérieur de la communauté urbaine à emprunter les transports en commun ; de toute façon, le nouveau paradigme d’ « intermodalité » en vogue (faisant l’impasse sur le vélo et s’appuyant sur des modalités disparues) fait perdre tellement de temps qu’il n’incite  pas à quitter sa voiture. Mieux, dans mon voisinage, certains ont renoncé aux transports en commun et investi dans une voiture : il y a encore 3 ans, un bus passait dans ma rue et m’emmenait 100 mètres de la place Stanislas en 20 minutes. Aujourd’hui, le premier arrêt est à 5 minutes de marche et le même trajet dure de 30 à 40 minutes en fonction de la correspondance (intermodalité oblige). Et le niveau de service devrait encore diminuer en septembre 2016.

Un réseau cyclable aux petits oignons

Un réseau cyclable aux petits oignons

La suppression des ondes vertes n’a pas bénéficié aux cyclistes ni à aucun autre usager (à l’exception de transports en commun, rendus prioritaires sur certains axes). Pourtant une onde verte à 30 km/h serait bénéfique pour les deux modes de locomotion. Une onde verte à 20 km/h gênerait tout autant les automobilistes tout en favorisant le vélo. Mais non. Les circuits cyclables n’ont pas été pensés ni mis en place le long de certaines lignes en site propre dites « structurantes » de l’agglomération comme l’impose pourtant la loi. Certaines voies de transports en commun sont « autorisées aux cyclistes ». D’autres pas. Ce n’est pas forcément bien indiqué. Ni pratique. Si la ville revendique plus d’une centaine de kilomètres de voies cyclables, il ne faut pas y croire : sont considérées comme voies cyclables les zones « 30 » qui autorisent le contresens cyclable, souvent dangereux. Lorsqu’il est praticable ; les bandes cyclables ont pour vocation première le stationnement automobile « pour 5 minutes » selon un système de tolérance abscons et parfaitement assumé ; les parcours cyclables sont incohérents ; il reste interdit de circuler en toute sécurité sur les voies du « tramway ». Pour leur sécurité, les cyclistes doivent circuler sur la chaussée en compagnie des voitures qui les dépassent à cheval sur… La voie du tram : circuler à vélo à Nancy reste une plaie.

Les piétons, quant à eux, n’ont bénéficié en rien de la baisse de niveau de service des autres usagers : en dehors de la piétonisation de la place Stanislas et de la place Thiers, aucune zone n’a été rendue aux piétons. Les voitures circulent juste moins vite, mais la voirie leur reste dédiée et elles stationnent toujours sur les trottoirs au nom de la tolérance absconse et assumée citée plus haut.

En résumé, aucun moyen de transport n’a vu sa situation s’améliorer en 20 ans, il est simplement plus pénible d’atteindre le centre de Nancy.

Projet d'échangeur A330 pour Cora Houdemont

Projet d’échangeur A330 pour Cora Houdemont aux frais du contribuable grand nancéien en 2004, en vue d’adapter les échangeurs autoroutiers à l’extension de la zone commerciale.

Parallèlement, les zones commerciales en périphérie n’ont cessé de croître. Pour exemple, le centre commercial Houdemont a sans doute doublé sa superficie sur ces 20 dernières années, a doublé sa superficie de parkings en créant un étage de stationnement. Les terrains alentours ont été viabilisés et transformés en une immense zone commerciale proposant une offre similaire à celle du centre-ville ; Cet endroit m’est accessible en 5 minutes grâce aux investissements en infrastructures du Grand Nancy dans les années 90 et 2000, sans soucis de stationnement. Une seconde zone commerciale de même ampleur se situe à une dixaine de minutes de chez moi. Je pense que tout grand-nancéien dispose de la même offre commerciale.

Il est certes plus sympathique de flâner dans les rues de la ville vieille ou faire son shopping dans les rues commerçantes de Nancy que de fréquenter les hideuses zones commerciales sises en périphérie, mais les contraintes imposées par la ville qui a voulu bouter la voiture hors les murs sans avoir permis aux gens clients de venir par d’autres moyens, ont eu raison de l’attractivité du centre-ville. Tel est mon sentiment de grand-nancéien, badaud et client.

 

 

Climat : températures et CO2 grimpent

C’est un commentaire de l’article de Sylvestre Huet « Climat : températures et CO2 grimpent » qui m’incite à rédiger ce billet :

Bon article, net, concis. Avec les références aux multiples instituts de recherche qui contribuent à de telles études. Hélas, comme pour l’article sur le rongeur australien, nous allons voir débarquer les « douteurs » (car le « doute est le fondement de toute démarche scientifique », nous disent-ils sans justifier d’aucun formation scientifique) qui vont « douter » de toutes ces courbes et résultats. Par contre, ces même personnes, si on leur diagnostique un cancer, ne vont jamais « douter » de leur maladie.

Je ne suis pas scientifique, mais je recoupe les informations à ma disposition. Cela fait indubitablement de moi un « douteur » . Et concernant le réchauffement climatique, je ne suis jamais déçu.

M. Huet débute par une série de données brutes issues de la seule NOAA, les plus alarmistes, relatives aux températures mondiales de mai 2016, sans en citer la source et en insistant uniquement sur l’aspect record et en affirmant « que l’objectif fixé à la COP-21 de viser une hausse maximale de 1,5°C relativement à la période pré-industrielle (1750) [la science retient 1850 habituellement. Faute de frappe ? NDR] est hors de portée » . Or, ce qui caractérise mai 2016, y compris dans les chiffres de la NOAA, c’est la confirmation de la fin d’un épisode el nino particulièrement important, accompagné d’une baisse rapide des températures.

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Loin de confirmer une hausse rapide des températures, le mois de mai semble indiquer un retour à « la normale » des températures, suite à un épisode chaud qui caractérise el nino, phénomène récurrent, connu, et parfaitement naturel. La NOAA à l’origine des chiffres cités par M. Huet l’admet d’ailleurs dans son rapport mensuel :

Les températures moyennes mondiales terrestre et de surface des océans de mai 2016 ont été les plus basses depuis Août 2015 et, à la différence des cinq derniers mois (Décembre 2015 en Avril 2016), n’a pas dépassé 1,0 ° C (1,8 ° F ). Mai 2016 est à égalité avec Juin 2015 et Août 2015, le 12e le plus chaud depuis le début des mesures.

Parallèlement à cette baisse de la hausse des températures, M. Huet note que le taux de CO2 passe au-dessus des 400 parts par millions à la station de mesure de l’île d’Amsterdam. Comme il le souligne, ce seuil est parfaitement symbolique et n’engendre aucun événement particulier. C’est même une information récurrente depuis quelques années, les stations enregistrant l’une après l’autre des taux supérieurs à 400ppm, parfois à plusieurs reprises. Le même M. Huet qui semble tenir une exclusivité aujourd’hui, nous en faisait d’ailleurs part en 2014 dans son blog de Libération.

Ces deux éléments parfaitement indépendants permettent cependant à M. Huet d’étabir péremptoirement un « lien CO2 températures bien établi » . Si vous vous attendiez à une référence à une étude ou à de multiples instituts de recherche qui contribuent à de telles études , passez votre chemin. Le lien est établi. Point.

Et dire qu’il y a des gens qui doutent. Non mais franchement.

Et encore, ces gens n’ont-ils peut-être pas entendu parler des ajustements de température a posteriori de la NOAA suite à l’étude Karl et al, qui font foi depuis mars 2015 et ont entre autres effacé le el nino de 1998 (celui-là même  qui prouva, en son temps, le réchauffement climatique d’origine humaine)?

Crise de la quarantaine : un premier bilan

Choupinette, Porsche 911 3.2 de 1988

Choupinette

En juillet 2014, jeune quarantenaire, je cassais la tirelire pour une Porsche 911 de 1988, celle de mon adolescence. Je vous relatais l’histoire de son acquisition ici.

Je me propose de faire un bilan sur l’année et demi passée.

Les bons côtés

Prendre le volant est un plaisir sans cesse renouvelé. Elle est belle, confortable pour une sportive, fiable : elle ne m’a jamais laissé en rade (ma 2CV non plus du reste). S’asseoir à son volant est toujours un instant magique, les légendaires 5 compteurs sous les yeux (et le compteur de vitesse partiellement caché derrière le volant), on aperçoit les deux phares en bas du pare-brise. On tourne la clef, à gauche du volant, et le flat 6 s’ébroue. Et c’est parti pour une promenade au cours de laquelle elle s’adaptera à l’humeur du moment : Elle sait cruiser sur le couple, 50 en 4e voire en 5e ou sortir d’un virage en dérive à des vitesses très raisonnables. Le flat 6, souple et coupleux sait aussi se montrer rageur. Passé 4000 tours/mn, ça pousse velu.

Le coffre est suffisamment vaste pour envisager un week-end à deux. Comme le rappelle Porsche, il s’agit d’un 2+2 et non d’une 4 places : ne songez pas à emmener des adultes à l’arrière, à moins que vous ne souhaitiez vous fâcher avec ces derniers.

Les coûts

Concernant l’entretien, je me rends depuis un an dans le garage Mitsubishi (anciennement Porsche) Richard Alcaraz Automobiles -7, boulevard Clémenceau – 54500 Vandœuvre-les-Nancy (03.83.56.20.80) que je recommande vivement : des mécaniciens passionnés, compétents, à l’écoute du client et pas pousse à la vente. Mécaniciens qui m’ont dressé un bilan de la voiture. Rien de rédhibitoire pour une voiture de cet âge, pas vraiment kékéisée malgré son kit turbo-look (de bonne facture) installé on ne sait quand, et malgré l’absence de facture d’entretien sur les 15 années précédentes.

Côté consommation, ça reste raisonnable pour un véhicule sportif de près de 30 ans, mais il faut dire que je ne roule pas tant que ça (quelque chose comme 6000 km) et que le prix du carburant a bien baissé. Le carburant, c’est du super 98 sans additif (la belle est catalysée). Il faut compter 9l/100 km en roulant cool, et 2 ou 3l de plus en arsouillant un peu.

Ce n’était pas un véhicule neuf, je le savais. Il pouvait y avoir des frais, j’y étais préparé. D’autant plus que l’ancien propriétaire n’avait aucune facture, faisait lui-même les révisions ou les faisait faire par un petit bouclard local. Alors voilà, la remise à niveau a nécessité un budget assez coquet.

Février 2015 : Un bruit dans le train avant, à chaud et à vitesse stabilisée ont avancé mon passage chez un professionnel. Mon choix s’est donc porté sur Alcaraz Automobile. Le grippage d’un étrier de frein  provoquait le bruit, et nécessitait démontage et réparation. Par ailleurs, une courroie menaçait de casser et une bonne révision s’imposait. La première facture s’élève donc à 1900 € TTC avec 14 heures de main d’œuvre qui en composent l’essentiel.

À l’occasion de ces réparations, un diagnostic assez inquiétant sur l’état de conduites d’huile qui courent le long de la voiture est établi. Les deux volets de chauffage sous le moteur sont grippés. Par ailleurs, le toit ouvrant était inopérant : moins grave, mais bon… Le prix des pièces pique un peu, on dira que c’est « très Porsche » : 150 € HT la conduite d’huile (il y en a deux), possiblement un « carter de régulateur » à 450 € HT « parce que les alliages des pas de vis du carter et du tuyau ont tendance à coller et à casser quand on démonte » (il ne sera finalement pas cassé) et les boîtiers de chauffage sont à 200 € HT pièce. Quant aux câbles d’ouverture du toit ouvrant, à 115 € HT le bout, ils doivent être en or plaqués platine… Le devis s’élève à plus de 3000 € TTC.

Mai 2015 : décision est prise de réparer, au moins pour la fiabiliser au niveau des conduites d’huile. La voiture est prise en charge pour quelques jours. Finalement, les mécaniciens réussiront à dégripper le chauffage et à sauver le carter d’huile. La facture ne s’élèvera donc qu’à 1950 € TTC.

À l’occasion de ces réparations, un mécanicien s’aperçoit que la loupiotte de l’alternateur ne s’allume pas. Il teste l’alternateur, qui fonctionne normalement. Il me prévient cependant qu’il est susceptible lâcher, mais qu’il sera bien temps de voir à ce moment là. 700 € HT hors pose à prévoir.

Janvier 2016 : la batterie lâche. Je soupçonne l’alternateur. Batterie rechargée, ça repart. Pas le temps de m’en occuper pour cause de voyage-promenade de 15 jours à bord d’une Chevrolet Bel Air de 1955.

Mars 2016 : Je m’occupe à nouveau de la belle (qui roule entre deux recharges de batterie) et l’emmène à sa révision désormais annuelle, prêt à changer l’alternateur. Les mécaniciens diagnostiquent ce dernier et s’aperçoivent qu’il faut donner un coup de gaz à 3000 tours pour quil daigne commencer à charger. Bizarre. Investigations. Il s’agit finalement de l’alarme d’origine qui a été mal démontée et dont un fil relié à l’alternateur mettait ce dernier hors service. Changement de batterie, qui me sera facturée moins cher qu’au supermarché du coin. Par ailleurs, l’indicateur  de niveau d’huile du tableau de bord ne fonctionnant pas, on me propose de changer la sonde. Le bidule, un flotteur actionnant un genre de rhéostat coûte la bagatelle de 115 € HT. Il est toutefois utile, surtout sur ce genre de moteurs à refroidissement à huile, où son niveau est critique : j’accepte donc l’opération. Coût total : 1150 € TTC.

Dernier diagnostic : les pneus arrière sont limite. On me propose de les changer, j’opte pour un devis concernant les deux trains au vu de l’âge des pneus. À première vue, ce sera plus ou moins 650€.

Porsche 911 3.2 de 1988

Choupinette

Le bilan

Ne nous voilons pas les yeux : ce véhicule représente un budget. Le conseil que j’avais lu de conserver un matelas de l’ordre de 5000€ « au cas où » est de bon sens. Toutefois, le gros des frais engagés à ce jour correspondent à une remise à niveau mécanique suite à un laisser-aller de la part des anciens propriétaires. Cette dernière est aujourd’hui effectuée. Restent l’état intérieur (une déchirure sur le siège conducteur, un rafraîchissement des cuirs et moquettes) et des détails de carrosserie. Cependant, achetée 24000 €, elle cote aujourd’hui à plus de 35000 €, ce qui relativise le coût de sa remise à niveau.

Il n’en reste pas moins que cette voiture est un bonheur à conduire, et que je ne regrette en rien cette acquisition. Même si je délaisse un petit peu la 2CV…

Du totalitarisme climatique

Suite à la parution de son livre « Climat Investigation » par lequel il relativise le catastrophisme de bon aloi qui secoue la sphère médiatique à l’approche de la COP21, Philippe Verdier se voit attaqué de toutes parts par les grands journaux français. La palme de ces attaques revient sans conteste au Monde.

Décodons les décodeurs

Les décodeurs du Monde entendent démonter le livre de Philippe Verdier en 4 points :

1. Les incertitudes à propos du réchauffement climatique « sciemment gommées » par le GIEC ?

Faux, répondent les Décodeurs.

Les gommages du rapport destiné aux décideurs

Pourtant, on peut trouver de nombreux « gommages » des incertitudes dans le rapport du GIEC. Dès le premier graphique, page 21, les températures de la planète depuis 1850 figurent sans aucune incertitude, alors qu’elle était de l’ordre de 0,08°C (environ ±0.14°C pour les terres et ±0.04 pour les océans) en 2012 pour la NOAA et évidemment beaucoup plus élevée en 1850 :

Anomalie de températures, rapport AR5 du GIEC

Anomalie observée de températures moyennes en surface, combinant les terres émergées et les océans, de 1850 à 2012, WG1AR5_Summary du GIEC version française

voici un autre exemple tiré de la page 27 du rapport :

L’acidification de l’océan est quantifiée par la diminution du pH. Le pH de l’eau de mer a diminué de 0,1 depuis le début de l’ère industrielle (degré de confiance élevé), soit une augmentation de 26 % de la concentration en ions hydrogène (voir figure RID.4).

Cette affirmation, pour le moins péremptoire et avec un degré de confiance élevé, repose sur des mesures directes débutant à la fin des années 1980 dans 3 stations situées dans l’océan Atlantique et Pacifique (figure RID.4 + légende sur la même page).

Aujourd’hui, un bon pH-mètre est précis à 0,02 unités près : il s’agit à minima de l’incertitude  des mesures modernes en conditions de laboratoire. Les courbes fournies rapportent une évolution du pH de l’ordre de -0.03 pH (± 0.02 au mieux) sur 30 ans (en étant gentil, vu le chaos que constituent ces courbes) ;

Quid de l’incertitude des mesures plus anciennes qui ne figurent pas sur le schéma ? Les mesures ont-elles été faites par pH-mètre ? Avec quelle précision ? Par proxies (forcément beaucoup moins précis) ?

Quid des mesures « au début de l’ère industrielle » que l’on peut situer au milieu de XIXe siècle, une soixantaine d’années avant les méthodes de mesure de la concentration  en ions d’hydrogène et la formalisation du pH (par le chimiste danois  Søren Sørensen) ?

Le pH est susceptible de varier en un même endroit durant une même journée de plusieurs dixièmes d’unités en fonction de la température, de la pression atmosphérique, des conditions météo, du courant marin et d’autres paramètres. Quelle l’incertitude peut-on en déduire ?

Le pH des océans se situe habituellement entre 7.5 et 8.4. Le GIEC nous indique avoir mesuré une baisse de l’ordre de 0,03 pH à environ 8.1 en 30 ans sur 3 points de la planète : quelle réalité cela revêt-il pour le reste des océans ?

Dans le rapport du GIEC, on ne voit pas d’incertitude, ni dans le texte, ni dans la figure RID.4, ni dans la légende : Pourquoi  ?

Par ailleurs, s’il est admis dans les milieux scientifiques que l’échelle logarithmique du pH est adaptée pour mesurer le potentiel hydrogène (appelez cela un consensus), c’est avant tout dans un soucis de lisibilité. Déroger à cette règle en évoquant une augmentation de 26% de la concentration en ions hydrogène devrait être motivé par une raison valable : quelle est-elle ?

Les incertitudes peuvent porter sur les couleurs, superpositions, échelles, etc. des schémas, mais également sur le ton donné à l’ensemble.

Les gommages des incertitudes par les médias

Sans parler, bien entendu, du gommage de l’incertitude issu de l’interprétation des journalistes. Ainsi Audrey Garric, Chef adjointe du service Planète/Sciences du Monde affirme-t-elle suite à la parution de ce rapport : « Le verdict est tombé : la température de la terre pourrait grimper jusqu’à 4,8 °C d’ici à 2100 et le niveau des océans s’élever de près de 1 m » , ce qui est bien entendu assez éloigné de la vérité :

Scénarios du GIEC, températures et montée des océans en 2100

Tableau page 38 du rapport : pour le coup, il y a de la belle incertitude qui décoiffe : de 0.3°C à 4.8°C et de 26 cm à 82cm en 2100. Mais là, ce sont les journaleux qui n’en parlent pas…

2. Les scientifiques du GIEC, payés par les gouvernements ?

Faux, nous indiquent les Décodeurs.

Certes, « l’administration du GIEC » n’est pas à proprement parler « les scientifiques du GIEC« , mais l’affirmation posée par M. Verdier, telle que je la comprends, se rapporte à la politisation des publications du GIEC. Si l’on se réfère au schéma fourni dans l’article des Décodeurs, ce sont bien les gouvernements qui financent le bidule. Karl Ritter de Associated Press a publié le 19/09/2013 dans le  Huffington Post « Un rapport de l’ONU note un ralentissement du réchauffement climatique » qui relate les dernières négociations avant publication du 5ème rapport du GIEC en 2013, et apporte  un éclairage édifiant sur le rôle des gouvernements-financeurs :

Mais plusieurs gouvernements qui ont pris connaissance du document ont contesté la manière dont la question était traitée. L’Allemagne a demandé à ce que la référence au ralentissement soit retirée, affirmant qu’une période de 10 ou 15 ans est trompeuse dans le contexte des changements climatiques, un phénomène qui se mesure sur des dizaines et des centaines d’années.

Les États-Unis ont demandé l’ajout de l’hypothèse principale selon laquelle ce ralentissement du réchauffement serait attribuable à un transfert plus important de chaleur vers le fond des océans.

La Belgique s’est objectée au choix de 1998 comme année de départ, puisqu’il s’agit d’une année exceptionnellement chaude. Tout graphique qui débute en 1998 sera essentiellement plat, puisque les années suivantes ont été plus fraîches. Un graphique débutant en 1999 ou 2000 témoignerait d’une légère tendance à la hausse.

On pourrait également citer les nombreux articles publiés à l’automne 2013, peu avant et après la publication du rapport, tels que « Par prudence, le GIEC aurait sous-estimé les effets du réchauffement » de Stéphane Foucard du Monde qui cite Naomi Oreskes, historienne des sciences et auteure de « Les marchands de doute » , que l’on peut difficilement qualifier de climato-sceptique : « Pour quelles raisons le GIEC tend-il souvent à minimiser la menace ? L’implication des gouvernements dans le processus du GIEC y contribue sans doute, dit en substance Naomi Oreskes. »

La rédaction du rapport pour les décideurs, le seul à peu près lu par les politiques et les journalistes spécialistes du climat, semble donc bel et bien politisé.

3. En France, les hivers plus doux sont-ils une bonne chose ?

Plutôt faux, selon les Décodeurs

Pour quelle obscure raison le climat de 1850 qui suit une période froide appelée « petit âge glaciaire » lui même précédé par une période chaude appelée « l’optimum médiéval » , et qui précède un réchauffement sur le siècle et demi suivant, serait le bon climat bien réglé et qui convient à toute la planète ? Pourquoi n’y aurait-il pas des aspects positifs à ce réchauffement ? Par ailleurs, comment expliquer que les grandes civilisations humaines se soient développées lors de périodes plus chaudes (qui ont existé, malgré le réglage du climat aux bonnes valeurs) ?

Je n’ai pas de réponse à ces questions ; peut-être le livre de M. Verdier en apporte-t-il. Mais la réponse des Décodeurs ne me convainc pas, en ce qu’elle s’appuie sur UNE épidémie de grippe sur UN hiver plus doux que la moyenne, sur des modèles climatiques réputés fiable (on y vient), sur des cultures qui en souffriront dans le futur (pourquoi n’en souffrent-elles pas déjà ?) et sur l’inévitable conditionnel qui permet de s’affranchir de toute responsabilité dans le futur.

4. Les modèles climatiques, pas fiables ?

Faux, répondent les Décodeurs

« Pour vérifier la précision des modèles climatiques, ceux-ci sont testés sur le climat passé » nous assènent-ils. En admettant que ces modèles aient fonctionné sur le climat du passé, cela ne prouve en aucun cas leur fiabilité pour le futur : il est aisé de construire un modèle qui reproduit des séries connues.

Le graphique choisi par les Décodeurs pour illustrer la fiabilité des modèles, est issu du Third Assessment Repport du GIEC publié en 2001. 15 ans se sont écoulés depuis, et certains climatologues tels que Judith Curry, John Christy, Roy Spencer et quelques autres, émettent les plus grandes réserves quant à leur fiabilité. Ainsi le climatologue Roy Spencer a-t-il publié il y a quelque temps un graphique représentant les températures prévues par les modèles à compter de 1979 et les mesures du monde réel. Force est de constater qu’il y a divergence, laquelle s’est justement aggravée à compter de la fin des années 1990 :

Observations vs modèles

Observations (carrés bleus et cercles verts) vs modèles (les courbes, la courbe engraissée noire représentant l’hypothèse moyenne). Source : Ph. D. Roy Spencer.

Divergence modèles climatiques vs observations par John Christy

Divergence modèles climatiques vs observations par le climatologue Ph. D. John Christy lors de sa présentation au « Senate Environment and Public Works Committee » en 2012. Source : page 13 de ce document.

Licenciement de Philippe Verdier

L’article des Décodeurs suit la ligne éditoriale alarmiste que se sont fixés les grands médias français : Même si M. Verdier réfute son climato-scepticisme et se contente de relativiser l’Apocalypse climatique avec des arguments mesurés, c’en est déjà trop. Il faut faire taire l’importun.

Concernant le climat, les journalistes ne sont plus Charlie

Plus grave et révélatrice du climat délétère sur le sujet du réchauffement climatique est la réaction d’Audrey Garric, Chef adjointe du service Planète/Sciences du Monde, qui n’hésite pas à se réjouir du licenciement de M. Verdier :

M. Verdier n’a pourtant commis aucune infraction, aucun délit, aucune faute professionnelle. Il a usé de son droit d’expression, lequel lui est reconnu par les articles 9 et 10 de la Convention européenne des droits de l’homme, je cite :

Article 9
1. Toute personne a droit à la liberté de pensée, de conscience et de religion ; ce droit implique la liberté de changer de religion ou de conviction, ainsi que la liberté de manifester sa religion ou sa conviction individuellement ou collectivement, en public ou en privé, par le culte, l’enseignement, les pratiques et l’accomplissement des rites.

Article 10
1. Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière. Le présent article n’empêche pas les États de soumettre les entreprises de radiodiffusion, de cinéma ou de télévision à un régime d’autorisations.

Pour les « journalistes » spécialistes du climat, le sujet n’est plus d’ordre scientifique mais d’ordre politico-religieux avec ses croyances, ses Dogmes, ses prêtres, son prosélytisme, son totalitarisme et son Apocalypse. Preuve en est la réaction d’Audrey Garric lorsqu’une étude semble  confirmer le Dogme (notez le souriard) :

Toute atteinte au Dogme, aussi insignifiante soit-elle, justifie donc l’excommunication, la mise à pied et le déshonneur.

Dans un soucis de cohérence intellectuelle vaguement lié à une certaine déontologie et suite à son article « La banquise pourrait complètement disparaître d’ici à 4 ans » publié le 18/09/2012, Mme Garric démissionnera-t-elle si, pour improbable que ce soit, il reste une surface significative de banquise à la mi-septembre 2016 (pour 2015, c’est d’ores et déjà raté) ? À moins que le conditionnel n’ait valeur de contrition et vaille absolution dans l’Église de l’Apocalypse climatique ?

Comment peut-on être climato-sceptique en 2015 ?

C’est la question qui m’a été posée lors d’une conversation sur Twitter, assortie de quelques arguments destinés sinon à me convaincre, du moins à prouver que j’ai tort de l’être. Surtout en 2015. Au détour d’une pluie d’arguments, mon interlocuteur me cite ainsi un article de blog de Sylvestre Huet de Libération, intitulé « Climat, record de chaleur planétaire en juillet »  :

(lien permanent)

C’est justement ce type d’articles qui me confortent dans mon scepticisme. Voici pourquoi :

Arrêtons nous tout d’abord sur le titre : Climat, record de chaleur planétaire en juillet indique l’utilisation d’une  méthode de falsification connue sous le nom de « cherry-picking », qui consiste à signaler des cas individuels ou des données qui semblent confirmer une position particulière, tout en ignorant une partie importante de cas liés ou des données qui pourraient contredire cette position : Les mêmes qui estiment qu’une pause (hiatus selon la terminologie du GIEC) des températures sur la période s’étendant environ de 1997 à aujourd’hui (~ 18 ans) ne suffit pas à confirmer l’absence de réchauffement climatique , ne peuvent pas s’appuyer sur UNE mesure du système chaotique du climat pour en extraire une tendance. Un très bon blog scientifique n’aurait pas usé de cette méthode.

L’article débute par le constat selon lequel deux équipes scientifiques chargées d’étudier le climat, à la NASA et à la NOAA, ont déterminé que juillet 2015 était le mois de juillet le plus chaud jamais enregistré. Soyons curieux, ouvrons les deux liens fournis et consultons l’origine de ces données. Pour la NASA, il s’agit de GHCN-M 3.3.0 pour les relevés terrestres et de ERSST 4.0.0 pour les températures des océans (voir les notes 1 et 2 de bas de page). En ce qui concerne la NOAA, surprise, il s’agit de GHCN-M 3.3.0 et de ERSST 4.0.0 (voir la note en  haut de page). Il s’agit donc de deux équipes scientifiques qui publient une synthèse de l’état climatique issue des mêmes calculs sur les mêmes données et, vous parlez d’un hasard, arrivent à la même conclusion. Un très bon blog scientifique n’aurait pas laissé entendre qu’il s’agissait des résultats de travaux indépendants.

Deuxième surprise, les séries de données issues des satellites, par nature plus précises, ne valident pas l’hypothèse de ce record : voici UAH par exemple :

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015

Mesures mensuelles des températures par satellite (UAH) jusque juillet 2015.

Un très bon blog scientifique aurait précisé que les données issues de diverses sources ne validaient pas toutes ce record, loin s’en faut.

Nous apprenons ensuite que « dans le système de référence de la NOAA, le mois de juillet est à 0,81°C au dessus de la moyenne du mois tout au long du 20ème siècle » . La lecture de la page de la NOAA précise que ce record est de 8 centièmes de degrés (0.08°C) par rapport à 1998, et qu’il existe une incertitude mesurée à ± 0.14°C : cela signifie que ces deux mesures sont statistiquement indiscernables. Visuellement, ça donne ça :

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes

Les températures moyennes calculées par la NOAA pour juillet 1998 et juillet 2015 avec les incertitudes (en bleu). La zone grisée correspond à la zone d’incertitude calculée pour juillet 2015, dans laquelle s’inscrit le record de juillet 1998.

Un très bon blog scientifique aurait expliqué cette notion d’incertitude et aurait mis l’accent sur l’indiscernabilité des deux mesures.

Puis Sylvestre Huet nous apprend que « c’est surtout en raison des températures de surface des océans, la plus élevée jamais enregistrée, que juillet 2015 détient ce record » . Un très bon blog scientifique en aurait profité pour nous toucher un mot sur la nouvelle interprétation des données brutes, ERSST 4.0.0 dont on a parlé plus haut : Ce nouveau calcul a été introduit en mai 2015 et coïncide avec des records de températures depuis lors (mai, juin et juillet 2015 sont les mois de mai, juin et juillet les plus chauds jamais enregistrés par la NOAA).

Anomalie des températures des océans de janvier 2014 à juillet 2015Anomalie des températures des océans de janvier 2014 à juillet 2015

Anomalie des températures des océans de janvier 2014 à juillet 2015 : on note la hausse « anormale »  par rapport au reste de la série de données au mois de mai 2015, suivi de la reprise de variations « normales ». Sources : données mensuelles de la NOAA.

ERSST 4.0.0 fait suite à ERSST 3b et est l’une des conséquences d’une étude intitulée « Possible artifacts of data biases in the recent global surface warming hiatus » par Karl et al. 2015 qui a ému un certain nombre de climatologues et scientifiques parmi lesquels Patrick Michaels, Richard S. Lindzen ou Paul C. Knappenberger, comme le rapporte la climatologue Judith CurryUn très bon blog scientifique aurait résumé la controverse qui divise les climatologues (au risque d’égratigner le fameux consensus).

Un peu de vulgarisation (des explications et références plus précises sont disponibles dans l’article de Judith Curry mentionné plus haut) : Le plus gros ajustement de l’étude Karl et al. concerne la méthode de recueil des températures à la surface des océans. Deux méthodes principales coexistent : mesures prises à l’aide de thermomètres installés dans les tuyères de refroidissement des moteurs de bateaux (peu précise, cette méthode est peu à peu abandonnée) et bouées flottantes qui offrent l’avantage d’une meilleure précision. Il se trouve que cette dernière technique retourne en moyenne des valeurs inférieures de 0,12°C à la technique des tuyères : Contre toute logique, Karl et al. a pris le parti d’aligner les mesures des bouées (plus précises) sur celle des tuyères (moins précises) à +0.12°C. La proportion des bouées augmentant dans le temps, la proportion de mesures ajustées à la hausse augmente mécaniquement, et la moyenne des températures des océans aussi. Ce qui n’est confirmé ni par les satellites ni par les balises ARGO. Un très bon blog scientifique aurait donc rapporté ce record en nuançant quelque peu sa signification.

C’est bien évidemment le contraire qui se produit à l’issue d’un paragraphe tout en circonvolution autour de chiffres bien évidemment gravissimes destinés à nous convaincre que l’objectif des 2°C ne sera pas tenable. Pourtant, si l’on se fie au record de juillet 2015 qui, selon M. Huet, est symptomatique du réchauffement climatique, et en admettant que ce dernier est issu d’une augmentation linéaire des températures due à l’activité humaine et non pas du résultat du système chaotique climatique amplifié par, du plus naturel au plus artificiel, el niño, les nouveaux calculs de la NOAA ou un honteux cherry-picking, il en résulte au pire et en faisant fi des incertitudes, un réchauffement de 0,08°C pour 17 ans, soit 0,47°C par siècle. Un résultat bien éloigné des prévisions les moins pessimistes du GIEC.

À propos de « 6 pays qui cherchent l’indépendance énergétique »

Un certain nombre de sites sur les internets reprennent tels quels les  propos de l’article « 6 pays qui cherchent l’indépendance énergétique » de . Mais ces 6 pays sont-ils si vertueux, enviable, et leur modèle généralisable ?

L’Islande

« L’Islande apparaît comme le pionner en matière d’énergies renouvelables. 100 % de son électricité et 81 % de ses besoins énergétiques primaires proviennent de sources renouvelables. »

Le potentiel en énergies renouvelables de l’Islande est de très loin supérieur à ses besoins : située sur la dorsale médio-océanique entre l’Europe et l’Amérique, son activité géothermique a permis au pays de développer la géothermie de manière exceptionnelle dès les années 1940 : la quasi-totalité des habitations islandaises sont chauffées par ce biais. Pays au relief important, 10% du territoire est constitué de glaciers qui alimentent de grandes rivières glaciaires. Ces rivières offrent une source importante d’électricité. Le potentiel est tellement énorme que l’Islande attire des industries très énergivores. Ces dernières consomment plus de 80% de l’électricité produite, contre 5% par les ménages.

Malgré un modèle énergétique vieux de 60 ans et fortement orienté vers les énergies renouvelables grâce à une géographie et une activité géothermique exceptionnelles, un vertueux islandais a émis 5,9 tonnes de CO2eq en 2011, contre 5,2 pour un français.

L’Éthiopie

« Le pays s’est engagé a à réduire ses émissions de gaz à effet de serre de 64% d’ici 2030 grâce aux énergies renouvelables »

Cette affirmation est juste fausse, et est issue d’une incompréhension du texte publié par ce pays dans le cadre des négociations sur le climat. L’Éthiopie s’est engagée à réduire ses émissions de gaz à effet de serre de 64% en 2030, par rapport à ce qu’elle aurait émis à cette même date sans faire d’effort particulier. Cela revient en fait à passer de 1.8 tonnes de CO2eq par habitant à 1.1. Cela revient aussi à interdire tout espoir de développement à l’un des pays les plus pauvres de la planète qui produit d’ores et déjà 100% de son électricité sans rejets de gaz à effet de serre mais de manière parfaitement insuffisante. L’agriculture n’ y est pas mécanisée et la circulation routière est juste anecdotique : comment baisser les émissions de CO2 dans ces conditions ?

Le modèle éthiopien reposerait sur le maintien ou le retour à la pauvreté et à la malnutrition.

La Norvège

« Aujourd’hui, 60 % de l’énergie consommée en Norvège provient d’une source renouvelable. Et depuis 2009, une partie du fonds pétrolier est placée dans des entreprises qui se consacrent aux énergies renouvelables. La Norvège pourrait contribuer à l’objectif de l’UE d’atteindre une part de 20 % d’énergie renouvelable d’ici à 2020 en exportant davantage de son énergie verte vers l’Europe. »

La Norvège doit sa prospérité économique à ses gisements d’hydrocarbures (3e exportateur mondial de gaz naturel) qui génèrent 35% de ses exportations. Avec 11,6 tonnes de CO2eq par habitant en 2010, la Norvège est l’un des 20 pays les plus émetteurs de CO2 au monde. À titre de comparaison, la France qui ne fait pas partie des 6 pays les plus vertueux, est à 5,6 tonnes de CO2eq par habitant en 2010.

Le modèle norvégien n’en est peut-être pas un, de modèle.

Le Costa Rica

« Le gouvernement s’est fixé pour objectif d’atteindre une économie sans émissions de gaz à effet de serre d’ici 2021 misant uniquement sur les énergies renouvelables. »

Pour l’heure, près de 50% de l’énergie utilisée au Costa Rica provient du pétrole et de ses dérivés (charbon, gaz naturel), soit un niveau très proche de celui de la France. Par ailleurs, la part des énergies renouvelables (+ nucléaire) ne cesse de baisser, passant de 9,5 à 8,5% de la production entre 2005 et 2012, tandis que la consommation de produits pétroliers augmente et que les combustibles renouvelables stagnent à 10%.

Il va falloir pédaler très fort pour atteindre l’objectif.

Le Brésil

« Le Brésil est le pays industrialisé utilisant le plus d’énergies renouvelables, le nucléaire et le fossile ne représentent que 11,8%, alors que la moyenne des pays industrialisés est de 87% »

Alors que la part du nucléaire et des énergies alternatives du Brésil stagne à 8%, la part des combustibles renouvelable (biomasse) connaît une baisse ces dernières années (de 31 à 27% de 2009 à 2012) tandis que celle des énergies fossiles explose en passant de 51% de l’énergie consommée en 2009 à 57% en 2012 (aux environs de 40% pour le seul pétrole). Enfin, si les émissions de CO2 restent faibles, elles sont en constante progression.

Son biotope est menacé : les forêts amazoniennes, puits de carbone, sont massacrées à cause de l’élevage ou la culture de la canne à sucre, dont la moitié de la production est destinée à la production de carburant.

Par ailleurs, le Brésil contient les plus grandes réserves de pétroles jamais découvertes. Il est aujourd’hui le 8e producteur de pétrole au monde.

Du beau développement durable qui envoie du rêve.

L’Uruguay

« Le but que se donne l’Uruguay est de taille : l’indépendance énergétique pour 2030. »

L’Uruguay est le seul pays de la liste pour lequel une source est fournie : il s’agit d’un site dépendant d’EDF qui reprend une étude du WWF. Pour atteindre son but, le pays construit des éoliennes qui devraient fournir 30% de ses besoins en électricité dès 2016. Ceci n’est possible que par la présence de la prédominance de l’hydroélectricité qui joue le rôle de « tampon » de l’intermittence des éoliennes. Le modèle choisi par le pays est ambitieux, mais la volonté politique qui porte le projet semble suivie par les investisseurs. Pourquoi pas ?

Vertueux ?

Des 6 pays « conscients des risques d’une dépendance excessive aux énergies fossiles » qui « ont amorcé leur transition énergétique depuis plusieurs années« , il en est un dont les performances sont loin d’être exceptionnelles après 60 ans de développement des énergies renouvelables, deux font partie des principaux producteurs de pétrole et de gaz dont l’un est l’un des 20 plus gros émetteur de CO2 par habitant de la planète et l’autre qui détruit son environnement, un des pays les plus pauvres de la planète qui s’est engagé à le rester, un pays dont la part du pétrole dans le mix énergétique ne cesse d’augmenter et un 6e qui semble avoir réellement pris le tournant de la transition énergétique.

La question ne se pose donc pas sur l’intention de développer les énergies renouvelables, mais bien sur la capacité et la volonté de ces pays de détruire leur modèle économique : la Norvège et le Brésil vont-ils renoncer à l’exploitation du pétrole ? Le Brésil va-t-il renoncer à son agriculture intensive ? Le Costa Rica va-t-il renoncer au développement de son agriculture, de ses industries high-tech et du tourisme en renonçant aux infrastructures nécessaires ? La population éthiopienne va-t-elle renoncer à l’accès à l’électricité et l’eau courante, le pays va-t-il sacrifier son développement économique ? Rappelons que les promesses n’engagent que ceux qui y croient.

Et la France qui ne fait jamais rien, justifiant la flagellation chronique que lui imposent  ses habitants ? Eh bien la France réduit bon an mal an sa dépendance aux énergies fossiles ainsi que ses émissions de CO2 par habitant. Sans être exceptionnels, ces résultats montrent une constance dans l’effort. 6e puissance mondiale, la France était classé 68e pays le plus émetteur en CO2 en 2011 à 5,2 tonnes CO2 par habitant des pays les plus émetteurs de CO2 , loin devant des pays considérés comme vertueux et acquis à la cause écologique tels que la Norvège (30e 9,2T CO2/hab), l’Allemagne (32e à 8,9T CO2/hab),  le Danemark (41e à 7,2T CO2/hab)  ou encore l’Islande (61e 5,9T CO2/hab).

Climat : morses, dauphins et ours

De la constance des alarmistes

Ces animaux qui perdent la boule à cause du réchauffement climatique

L’histoire débute le 3 octobre 2014, lorsque je réponds à Audrey Garric (Chef adjointe du service planète/science du Monde) sur twitter afin de contester, source à l’appui,  le comportement supposé anormal des morses qui, à cause du réchauffement climatique, se regroupent par dizaines de milliers sur des affleurements rocheux au lieu de se peler comme il se doit sur la banquise. Retrouvez les détails de l’histoire dans cet article.  Je renvoyais alors Mme Garric à l’article de Wikipédia, lequel mentionne ce comportement comme « normal » . Je ne recevrai évidemment aucune réponse.

Le 14 juin 2015, Audrey Garric publie un nouveau tweet sur le comportement supposé anormal des ours ou des dauphins (allez savoir), le second entrant au menu du premier à cause du… Réchauffement climatique, évidemment.

S’ensuit un échange de tweets où je reviens sur l’affaire des morses :

Retour sur la discussion à propos de l’anormalité de la présence des morses sur les affleurements rocheux : Audrey Garric n’en démord pas, les morses ne devraient pas se trouver en si grand nombre sur des affleurements rocheux.

Par ailleurs, elle assène l’argument d’autorité :

« La NOAA l’a analysé par le réchauffement » , affirme-t-elle. Son article ne renvoie évidemment pas à la source de l’information, et pour cause : Le seul document issu de la NOAA est un rapport factuel (Copie) du  27 septembre 2014 se contentant de mentionner la présence des morses à Point Lay. Cette information est reprise par l’USGS dans une note de blog non « peer-reviewée »  dans laquelle l’auteur ajoute que les morses se regroupent par plusieurs dizaines de milliers depuis 2007 à cause du réchauffement climatique. S’ensuivent des sources circulaires entre l’association écologiste WWF et le journal britanique « The Guardian » qui relaient cette information, reprise telle quelle dans l’article de Mme Garric.

Wikipedia, source non fiable ?

Nous avons vu que la NOAA et la NASA n’avaient jamais analysé le comportement des morses comme anormal, mais avaient simplement relayé l’information de manière factuelle. Voyons ce qu’il en est de la crédibilité des sources de Wikipedia : Il suffit de suivre les astérisque puis de tirer le fil. Concernant le passage sur le comportement des morses sur les affleurements rocheux, Wikipedia renvoie vers eol.org, qui est une encyclopédie du vivant recensant notamment les études ayant trait aux morses. Lequel site nous renvoie vers l’étude Fay, F. H. (1982). « Ecology and Biology of the Pacific Walrus, Odobenus rosmarus divergens Illiger » . Cette étude est reprise par de nombreux sites, notamment gouvernementaux (.gov) ou universitaires (.edu). Une autre étude du même scientifique, disponible en ligne (PDF), présentant l’état des connaissances sur la mortalité des morses, nous indique des rassemblement de 35 à 37000 animaux sur des affleurements rocheux à des latitudes comparables à Point Lay (environ 64° Nord) en 1978.

Étude 1980

Étude « Mass Natural Mortality of walruses at St. Lawrence Island, Bering Sea, Autumn 1978 » 1980 Fay, F. H. and Brendan P. Kelly(extrait)

Dès lors que plusieurs études datant des années 1970-80 mentionnent le comportement des morses sur les affleurements rocheux, la note de blog indiquant que le phénomène apparaît en 2007 semble assez peu crédible. C’est pourtant à partir de cette dernière que l’information sera reprise de blog en blog jusqu’aux « sérieux » quotidiens français.

Pour revenir sur l’affaire des dauphins dévorés par des ours, il s’agit pour le moment d’un cas isolé, et il semble bien prématuré d’en attribuer la cause au réchauffement climatique.

Pas de réponse. Évidemment, il est toujours permis d’espérer un erratum dans les articles de Mme Garric, Chef adjointe du service planète/science du Monde.

La côte ouest des Etats-Unis en proie à de spectaculaires incendies

C’est le titre d’un article du Monde de Corine Lesnes, lequel relate avec force exemples et témoignages la catastrophe qui s’annonce pour l’été. En cause, le réchauf changement cimatique, bien entendu.

Un commentaire de Graphisto à cet article a attiré mon attention, et je vais tenter d’y répondre ici (les commentaires du Monde étant réservés aux abonnés) :

Que sont les climato-sceptiques devenus? dans la fosse du même nom?

Le sceptique que je suis a lu cet article d’un œil critique, l’absence de sources et de données factuelles constituant le premier indice du potentiel WTF de la substance de ce dernier.

Pour en avoir le cœur net, il convient de vérifier les informations en consultant des sources fiables et en croisant les données le cas échéant. Et les sources que j’ai trouvées, elles ne racontent pas la même histoire.

L’article du Monde débute sur la situation en Alaska, où les incendies se révèleraient catastrophiques « cette année [à cause d’]une vague de chaleur exceptionnelle ». Dans les faits, au 22 juin 2015, 230000 acre (~100000ha) ont brûlé, contre 223000 à la même date l’an dernier et 344000 en 2013. Rien de bien impressionnant, donc. Source.

La même source propose des statistiques depuis 1990 : on y trouve une grande variabilité annuelle des incendies, dans laquelle s’inscrivent ces dernières années bêtement moyennes.

Évolution de la superficie brûlée et du nombre de départs de feux en Alaska, de 1990 à 2014.

Évolution de la superficie brûlée et du nombre de départs de feux en Alaska, de 1990 à 2014.

L’article se poursuit en évoquant le cas préoccupant de la Californie. La sécheresse californienne qui fait tant glauser n’a pourtant rien d’exceptionnel si l’on en croit les données de la NOAA. Il s’agit de la 26e période de 12 mois (juin à mai de l’année suivante) la plus sèche depuis le début des mesures. Le record a été établi de juin 1976 à mai 1977, période où les climastrologues prédisaient une nouvelle glaciation. Sur une période de 4 ans, il s’agit de la 6e la plus sèche. Rien de bien impressionnant. Source (jouez avec les paramètres).

S’ensuit le témoignage d’un responsable du centre de crise du Colorado qui évoque ses souvenirs sur le ton du « c’était mieux avant, y a plus de saisons ma pauv’ dame »… Selon les données du NICC, l’organisme américain qui coordonne les moyens de lutte contre les incendies de forêts, aucune tendance n’est vraiment discernable. source (cherchez « RM » (rookie mountains) pour le Colorado). La vérité se situe-t-elle dans les compilations de données factuelles, ou dans les souvenirs des gens ? Le Monde semble avoir choisi.

Par ailleurs, rien ne démontre une agravation des incendies aux États-Unis.

Évolution de la superficie brûlée et du nombre d'incendies aux États-Unis, entre 2000 et 2015. Source : NOAA

Évolution de la superficie brûlée et du nombre d’incendies aux États-Unis, entre 2000 et 2015 sur une anné glissante. Source : NOAA

Où sont les sceptiques, demandait Graphisto sur le ton du « vous voyez bien ». Or, ce qui différencie les sceptiques des « croyants », c’est le besoin de s’assurer qu’on ne leur raconte pas des carabistouilles. Et concernant le climat, c’est un véritable festival auquel se livrent la plupart des médias.

Même si les recherches et le recoupement de sources sérieuses restent chronophages, elles sont nécessaires pour évaluer la crédibilité des articles de presse. Le scepticisme est un devoir, pas une tare.