Archives de l’auteur : 00ced

Sécurité routière : De l’effet rétroactif des radars automatiques en 2002

Poncif récurrent dans les médias, la mortalité routière aurait diminué très fortement dès 2002 en raison des radars automatiques. Hypothèse fragile, puisque le premier d’entre eux n’a été inauguré que le 27 octobre 2003, un an et demi après le début de la baisse de mortalité routière et au moment même où ces excellents résultats marquent le pas. Par extension, les tenants de cette thèse ajoutent que le matraquage médiatique à propos des radars automatiques aurait incité les automobilistes à lever le pied, et donc avoir moins d’accident. Cet article vise à vérifier cette deuxième hypothèse.

Graphique issu du bilan 2003 de sécurité routière

Graphique issu du bilan 2003 de sécurité routière

Visuel issu des décodeurs du Monde dans un article sur le projet de limitation à 80 km/h sur le réseau secondaire. On notera l’évolution de la sémantique pour expliquer la chute de la mortalité routière sur la période 2002/2003.

Contexte politique en 2002

Jacques Chirac termine son premier mandat et les résultats en matière de sécurité routière sont très mauvais. En 1999, la loi Gayssot relative aux grands excès de vitesse n’a pas eu les résultats escomptés. En 2000 et 2001, Jacques Chirac avait décrété la sécurité routière « grande cause nationale », sans plus de succès. L’année 2001, et plus particulièrement décembre, s’étant révélée une année calamiteuse en la matière.

2002, année d’élections, le sujet fait alors débat au sein de la classe politique. Il était de coutume, à l’époque, d’amnistier les infractions routières jugées vénielles : les amendes de stationnement, les excès de vitesse… Le candidat à la Présidence Jacques Chirac optera pour la réduction du champ de l’amnistie en cas de victoire. Promesse que, il faut le noter, il respectera. Le 14 juillet, il présente les 3 grands chantiers de son mandat où figure la sécurité routière avec trois priorités : la ceinture, la vitesse et l’alcool. Il déplore que 40% des procédures à l’égard des automobilistes n’aboutissent pas. Il évoque alors une « automatisation des moyens de détection des infractions » sans plus de précision, mais aussi des « tickets mouchards » sur les autoroutes, des boîtes noires à bord des voitures ou encore la création d’une police de la route.

Contexte judiciaire

Il faut rappeler qu’à l’époque, faire sauter les contredanses est un sport national. Autre aspect largement ignoré aujourd’hui, les automobilistes contrôlés en excès de vitesse étaient jugés au Tribunal. Une procédure lourde et lente, qui permettait à bon nombre d’entre eux de s’en sortir avec un sermon.

Contexte technologique

Deux pays en Europe ont recours à des radars dits automatiques. Il s’agit de l’Angleterre et de la Suède. Ces appareils, peu connus de la population française, sont constitué d’un radar couplé à un appareil photos argentique doté d’une pellicule d’une centaine de poses, relevées à intervalles plus ou moins réguliers. En juillet 2002, ni Jacques Chirac, ni les politiques, ni les journalistes ne mentionnent ces instruments.

L’appareil photo numérique est alors une invention récente, peu performante, peu répandue (le premier reflex numérique grand public est diffusé fin 2004). En 2002, 8 millions de foyers ont Internet, dont plus de 6 millions en bas débit avec paiement à la minute au-delà d’un forfait de quelques heures.  Chirac surfe alors sur la fracture numérique.

Autant dire que les français qui ont porté attention à ce discours et ont relevé « l’automatisation des moyens de détection des infractions« , notion extrêmement floue (s’agit-il de vitesse, d’alcool, d’autres infractions, du traitement des amendes ?) noyée dans un discours sur les trois grands chantier du quinquenat, sont tout de même loin d’imaginer la transmission de clichés pris automatiquement avec un appareil photo numérique au milieu de nulle part, pour les transmettre en haut débit via un réseau informatique à un centre de traitement automatisé des amendes, pour verbaliser des excès de vitesse sans passer par un juge.

Un tel dispositif n’a d’ailleurs même pas été évoqué.

Et c’est dommage, il s’agit du deuxième mois de baisse de la mortalité routière.

Fin de l’année 2002

Mois Nombre décès Tendance annuelle évolution
juin-02 631 7755 -11,57%
juil-02 661 7663 -13,92%
août-02 634 7653 -1,58%
sept-02 601 7570 -12,65%
oct-02 666 7538 -4,80%
nov-02 572 7465 -12,76%
déc-02 526 7242 -43,73%

Au fil des mois qui suivent, alors que la mortalité continue de baisser, le monde politique débat sur des questions de permis probatoire, conducteurs inexpérimentés, puissance moteur, normes de sécurité des infrastructures, ce qui n’empêche pas le Monde de railler l’action du gouvernement, notamment l’amnistie votée par le Parlement ou le fait que le tiers des amendes accompagnées du retrait de points sur le permis de conduire n’étaient pas appliquées par suite de l’intervention de personnes irresponsables auxquelles il faudrait « supprimer 6 points sur le permis« .

Les 2 et 3 novembre, deux articles du Monde (et ici) évoquent (enfin) la rareté des contrôles radar, la volonté d’y remédier voire de les automatiser en supprimant le passage devant le tribunal pour les contraventions, tout en constatant que les forces de l’ordre ne dissuadent plus personne. C’est dire si, 6 mois après le début de la baisse de la mortalité routière, les radars automatique dont ils ne savent encore rien, ont effrayé les conducteurs.

Plus aucune nouvelle de sécurité routière jusqu’au 29 novembre. C’est à cette date qu’a lieu l’accident de Loriol. Un papy, sans doute assoupi ou ayant eu un malaise au volant de sa puissante Mercedes lancée à 150 ou 160 km/h sur une portion d’autoroute limitée à 90 km/h et réputée accidentogène (pas moins de 20 accidents ayant été recensés, provoquant au moins un décès le 9 novembre 2002), percute un groupe de pompiers en intervention sur un sinistre dûment signalé en amont. 5 morts. Le chauffard n’aura freiné que sur les derniers mètres et déclare ne se souvenir de rien. La cause de l’accident ? La vitesse bien sûr.

C’est à partir de cette date que Sarkozy entre en scène sur ce sujet, avec le talent qu’on lui connaît.

Le Monde précise un plan qui « prévoit d’instaurer un système de contrôle automatique de la vitesse, grâce à des dispositifs vidéo placés à des points fixes enregistrant les infractions et transmettant directement la procédure au propriétaire du véhicule. » Autant dire que vu les contextes technologique et juridique de l’époque, il s’agit encore d’une fiction.

Le bilan de l’année 2002

Voici donc l’heure du bilan 2002. La synthèse note la baisse exceptionnelle de la mortalité routière dès fin mai 2002, qui s’accélère en octobre. Elle note également une quasi-stabilité du nombre de contrôles, avec une diminution de 2.5% de points retirés. Deux nouveautés cependant : les nouveaux radars laser et la rétention du permis de conduire. Un autre critère pourrait être le débat sur l’amnistie. Enfin, les campagnes de pub sur la sécurité routière sont évoquées.

On notera les mauvais résultats sur autoroute (+16%). Si les accidents dus à l’alcool ont fortement diminué, notamment grâce à des contrôles mieux ciblés avec une augmentation de 1.2% des contrôles mais une augmentation de 27.1% de dépistages positifs, les vitesses pratiquées ont peu évolué et  l’excès de vitesse reste la règle : 60% des véhicules de tourisme, 66% des poids lourds et 76% des 2 roues motorisés.

Bref, la mortalité baisse beaucoup, le comportement en matière de vitesse n’a pas évolué significativement, et on ne sait pas (encore) que ces bons résultats sont la conséquence de l’annonce des radars automatiques. On notera que les bilans de sécurité routière sont à cette époque (à 1 an ou deux près) très bons un peu partout en Europe, pour des raisons différentes liées aux politiques locales. Par exemple, la baisse de la mortalité routière en Irlande, exceptionnelle là-bas aussi, s’explique par le permis à points.

 

 

 

2016 année la plus chaude

Article rédigé le 22 janvier 2017

Ça y est. Depuis quelques jours, les médias jouent à nous faire peur à propos de 2016 année la plus chaude. Ainsi, Coralie Schaub  dans son article  sur Libération du 19 janvier 2017, multiplie-t-elle les contre-vérités et mensonges pour accréditer la thèse apocalyptique. À ce niveau de désinformation, ce travail mérite un prix.

2017 a donc battu tous les records de température. Selon cet article, « c’est ce qu’ont annoncé mercredi l’Organisation météorologique mondiale (OMM, qui dépend des Nations unies) et deux institutions américaines, la NASA et l’Agence américaine océanique et atmosphérique (NOAA). » Il se trouve que ces trois organismes s’appuient sur les mêmes données, celles de la NOAA. Il ne s’agit donc pas de travaux indépendant, et il est donc logique que la conclusion soit la même. Il existe d’autres instituts de mesures dont les données sont indépendantes, comme celles de l’université d’Alabama Huntsville (UAH) qui, s’appuyant sur des mesures par satellite, n’aboutissent pas tout à fait aux mêmes conclusions.

« Elle [2016] a dépassé d’environ 0,07°C le précédent record de 2015« . Ce qu’omet de dire Mme Schaub, c’est que la marge d’erreur est de 0,1°C selon la NOAA, c’est dire si l’on est dans l’épaisseur du trait.

Par ailleurs, les mesures de la NOAA ont la particularité d’être évolutives : Si vous téléchargez les mesures publiées dans leur version d’août 2005 et dans  celle de novembre 2016, l’anomalie moyenne pour la période 1880-1900 passe de -0.24°C à -0.49°C et la période 1980-2000 de 0.34°C à 0.43°C. Cela signifie que pour la même période 1880-1900 / 1989-2000, le réchauffement climatique est passé de 0.58°C dans la version de 2005 à 0.92°C dans celle de 2016, par le biais des seuls ajustements.

L'évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016.

L’évolution des températures mondiales entre 1880 et 2004, dans leurs versions publiées en 2005 et 2016, ajustée à +0.73°C pour faire en sorte que 0°C corresponde à l’année la plus froide jamais enregistrée, 1887 dans la version 2016.

Ce record intervient, comme en 1998, au moment d’un el nino particulièrement fort, ce qui n’indique pas un réchauffement, mais est juste un artefact de mesure dans un contexte chaotique mais sans hausse significative depuis maintenant près de 20 ans. Au mois de janvier, les mesures sont à nouveau dans la moyenne des 20 dernières années. Voici ce que montrent les mesures satellite RSS et UAH :

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016

Mesures satellite Remote Sensing System (RSS) entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l'ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Mesures satellite UAH entre janvier 1998 et décembre 2016, montrant une hausse des températures de l’ordre de 0,045°C par décennie, soit 0,45°C par siècle.

Ce qu’il en ressort, c’est que el nino est un simple artefact qui ne préjuge en rien de l’évolution future du climat.

Osons causer nous cause nuke

Le nuke, c’est mal on le sait.

Mais en plus, ça coûte cher. Écoutez plutôt.

Vos factures EDF vont exploser : le vrai coût du nucléaire

Un ton « jeune », des mots simples et des arguments percutants pour vous présenter un problème complexe de manière compréhensible et convaincante. Je suis séduit par l’analyse. Mais bon, comme d’habitude, j’ai cherché des sources. Et on constate qu’il y a quand-même un vague début de partialité dans les propos de ce jeune homme.

depuis 2009 le prix de l’électricité a augmenté de 15% à cause du nucléaire

En 2008, la contribution aux EnR (CSPE) était à 0. Elle était de 1.66 milliard en 2009, 5.62 milliards en 2014 et est estimée à 7 milliards en 2016. Elle constituerait 16% du prix de l’électricité cette année là. À elle seule, la CSPE explique le plus gros de l’augmentation de 15% du prix de l’électricité depuis 2009.

Selon la Cour des Comptes, le coût du nucléaire augmenterait de 5% / an.

La cour des comptes ne dit pas que les coûts augmentent de 5% par an, mais qu’ils ONT augmenté de 14% de 2008 à 2010 (page 58), ce qui est expliqué par :

  • Une hausse du coût des combustibles (6%), rien n’indique que ces coûts vont continuer à augmenter, il a même chuté en 2011 après l’accident de Fukushima ;
  • Une hausse des coûts de personnel (7%), due à la pyramide des âges. Rien n’indique que ces coûts ont continué à augmenter ;
  • des impôts et taxes (14.5%), c’est une décision politique qui n’a rien à voir avec les coûts croissants du nucléaire et rien n’indique que ces coûts vont continuer à augmenter. ;
  • À la réorganisation de services (fonctions centrales et de support) (30%), rien n’indique que ces coûts continueront à augmenter à l’issue des restructurations ;
  • Une hausse des dépenses de fonctionnement / sous-traitance (21.5%). Seule cette hausse est liée à l’évolution des coûts de maintenance. Soit 300 millions d’euro sur 900 millions d’augmentation. Soit 4.5% sur 3 ans, soit 1.2%/an sur la période.

Le « grand carénage » , aura un coût de 55 milliards d’ici 2025 selon EDF.

Ce qui nous amène à un coût annuel sur 10 ans de l’ordre de 5.5 milliards pour 70% de la production électrique, que l’on comparera aux 7 milliards évolutifs de la CSPE, pour subventionner 5.3% de la production électrique.

Mais on apprend ensuite que ces investissements qui s’étalent sur 10 ans, sont prévus pour faire fonctionner les centrales de 40 à 60 ans, ce qui ramène le coût annuel à quelque chose de l’ordre de 0.9 à 1,4 milliard par an. Soit quelque chose comme 5 à 7 fois moins que la CSPE.

La cour des compte estimerait le coût du « grand carénage » à 100 milliards

Admettons (je n’ai pas retrouvé ça dans le rapport de la Cour des Comptes), doublons le chiffre : 1.8 à 2.8 milliards / an pour financer 70% de la production électrique, que l’on comparera aux 5 milliards de CSPE pour subventionner 5.3% de la production électrique.

Le coût de production nucléaire avant ces travaux seraient de 50€/MWh contre 80€ après, selon cour des comptes

L’estimation de 70 à 90 € concerne le seul EPR de Flamanville, si ce dernier n’est pas construit en série. (pages 225-226).

A terme, la facture d’électricité devrait augmenter de 30% (selon le Sénat)

Les seules sources que j’ai trouvées en ce sens sont de 2012, et expliquent l’augmentation du prix de l’électricité de la manière suivante :
« Voici les raisons qui pourraient aboutir à cette augmentation de l’électricité : le prix de l’électricité nucléaire historique suivant le rythme de l’inflation à hauteur de 2 % par an. […] La contribution au service public de l’électricité, la CSPE passé de 1,9 milliard d’euros en 2010 à plus de 5 milliards d’euros aujourd’hui. […] Il faut dire que le prix d’achat de l’électricité produite à partir d’énergies renouvelables est sept fois plus élevé que son prix de vente. […] Le régulateur évoque une hausse de 4 % par an, inflation comprise, du tarif d’utilisation des réseaux publics d’électricité, le TURPE, qui rémunère le transport d’électricité par RTE ».

Le coût de l’EPR de Flamanville serait passé de 3 milliards prévus à 9 milliard aujourd’hui.

J’en ai parlé plus haut : la conséquence est un coût du MWh de l’ordre de 80€.

Bure 13 à 17 milliards estimés au départ, contre 30-35 milliards selon l’ANDRA

Là encore, la fourchette de 15 à 35 milliards n’a rien de nouveau (elle date de 2003 (page 142)) et dépend de différents scénarios.

EDF aurait prévu 23 milliards prévus pour le démantèlement de ses centrales, ce qui est faible par rapport au coût des démantèlements de centrales américaines ou anglaises

EDF l’explique par le fait que les démantèlements ayant déjà eu lieu, concernaient les démantèlements de centrales uniques, et EDF compte faire des économie d’échelle sur des centrales construites en série. C’est sans doute discutable, mais ni osons causer ni moi n’avons les compétences pour en juger.

La vraie question est de savoir quelles sont les alternatives pour fournir suffisamment d’électricité pour les besoins actuels et futurs, et à quel coût. Les énergies renouvelables actuelles ne répondent pas à ces critères et il est hors de question de puiser dans les énergies fossiles.

 

Observez 117 ans de réchauffement climatique à Paris

Observez 117 ans de réchauffement climatique en France

C’est ce que nous proposent les Décodeurs à l’aide d’une infographie animée montrant les courbes annuelles de 1899 à 2016 pour la France et depuis 1873 pour Paris. Si l’exercice engendre un effet visuel mettant en évidence la prédominance des dernières décennies dans les années les plus chaudes, un simple graphique chronologique l’aurait également permis. Le résultat pose cependant questions.

Les graphes des décodeurs sont sourcés d’un laconique « Météo France » . Heureusement, la source du code permet de récupérer les valeurs utilisées, mois par mois. Je vais, pour la suite, utiliser les données parisiennes.

La seule station parisienne enregistrant les données depuis 1872 est la station Paris-Montsouris (ou ici). Cette station est assez mal classée (indices allant de 3 à 5 sur 5). Elle est classée 3/5 pour les température (médiocre) depuis 1999, les sondes ont été remplacées en 2006 et 2010. Elle est également classée B concernant la précision des températures (incertitude de 0.15°C) depuis 2009. Tout porte à croire que la situation antérieure était moins bonne (on remplace rarement du matériel pour perdre en précision). La station automatique a été installée en 1989.

Situation de la station météo Paris Montsouris

Situation de la station météo Paris Montsouris, à une soixantaine de mètres du boulevard des Maréchaux.

Il faut garder à l’esprit que les stations météorologiques n’ont pas été conçues pour étudier le climat : leur marge d’erreur est souvent, encore aujourd’hui, de l’ordre de 0,5°C. Ce qui est énorme lorsqu’on prétend détecter un réchauffement climatique d’un ordre de 2 fois plus grand sur un siècle et demi, avec une précision 50 fois moins grande, c’est à dire au centième de degré.

Les relevés de température

Afin d’homogénéiser les données de la station, je les ai moyennées sur 10 ans : Cela nous permet de suivre l’évolution des enregistrements en s’extrayant des artefacts de mesures.

graph 1882-2016 moyenne decennale

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

À première vue, il existe au moins deux interrogations :

Alors que tous les spécialistes s’accordent à dire que le réchauffement climatique d’origine humaine n’est pas perceptible avant les années 1950, nous observons un réchauffement de l’ordre 0.6°C entre 1895 et 1901. En 6 ans seulement, la ville de Paris aurait enregistré une augmentation des températures équivalent aux 2/3 du réchauffement global mesuré sur 150 ans au niveau planétaire. Et à l’époque, personne ne s’est aperçu de rien : pas de vendanges précoces, d’oliviers plantés dans le parc Montsouris, de migration ou disparition d’animaux ou autres caractéristiques bien connues : Rien. Vers 1950, alors que le réchauffement n’est pas censé être perceptible, le réchauffement parisien culmine à 1,5°C : près de deux fois le réchauffement officiellement constaté au niveau planétaire aujourd’hui, toujours sans que personne ne s’aperçoive de rien. Pire, dans les années 70, la crainte était un refroidissement climatique : Sur la base des mêmes mesures, le Monde titrait le 23 juin 1971 « Quand la Terre se refroidit » , où l’on pouvait lire « Beaucoup de spécialistes semblent d’accord pour reconnaître que la tendance climatique actuelle est au refroidissement. » Sans que l’on n’en connaisse les raison à l’époque, malheureusement.

Selon les mesures de la station Montsouris, la température a augmenté de près de 2.5°C depuis 1882. Trois fois l’augmentation supposée du réchauffement climatique d’origine humaine. Ce résultat est à lui seul totalement délirant : tenter une quelconque démonstration à partir de ces données est un non sens.

Un siècle et demi d’urbanisme

Évolution des températures à Paris

Évolution de la température de 1882-2016, en moyenne décennale Le point zéro correspond à la mesure de la moyenne 1873-1882.

Le 14e arrondissement de Paris est créé en 1860. Sa population est alors de 52000 habitants, celle du quartier Montsouris de 1400 habitants. Wikipedia précise « C’était à l’époque une zone rurale périurbaine, où seuls les abords de la route de Gentilly à Paris (rue de la Santé et rue de l’Amiral-Mouchez) ainsi que l’hôpital Sainte-Anne, possédaient quelques constructions. » La population du 14e arrondissement a depuis triplé et celle du quartier de Montsouris multipliée par 15 à près de 20000 habitants (15000 habitants/km2). Montrouge, à 500 mètres de la station météo, était une petite agglomération entourée de champs de 8600 habitants en 1882, c’est aujourd’hui une ville de 50000 habitants.

Le boulevard des Maréchaux, créé à la même époque que le parc, est à une soixantaine de mètres de la station météorologique.

À moins de 100 mètres a été bâtie la cité internationale universitaire entre 1925 et 1938. Les rues qui entourent le parc sont bâties au cours du XXe siècle.

Le boulevard périphérique ouvert en 1973 est à 400 mètres à peine. En France, le nombre de véhicule a triplé depuis 1970, et le nombre de milliards véhicules.km (ou ici) est passé de 419,8 en 1990 à 560,4 en 2010. La construction de nouvelles routes et l’explosion de la circulation ne sont sans doute pas sans incidence sur les effets d’îlot urbain (ou ici).

C’est donc sur la base de ces données météorologiques contestables, car d’une précision inconnue jusqu’en 2009 mais probablement de l’ordre du demi degré et ne prenant manifestement pas en compte l’évolution urbaine, que s’appuient les Décodeurs pour prouver l’existence d’une accélération de la hausse des températures à Paris depuis 1880.

 

 

La banquise arctique pourrait complètement disparaître d’ici à quatre ans

Tel est le titre d’un article signé le 19 septembre 2012 par Audrey Garric, Chef adjointe du service #Planète/#Sciences du Monde, spécialiste climat, pollution, énergie, pangolins.

Caramba, encore raté !

Extension de la banquise arctique au 12 septembre 2016

Extension de la banquise arctique au 12 septembre 2016. Source : http://www.iup.uni-bremen.de:8084/amsr2/extent_n_running_mean_amsr2_previous.png

C’était il y pile 4 ans, et la catastrophe annoncée ne s’est pas produite. La banquise arctique s’est réduite cette année à 4.351 millions de km2, soit 700 000 de plus qu’en 2012, année de l’annonce fracassante du Monde, laquelle suivait la prophétie d’Al Gore de 2008, prévoyant la disparition de la banquise arctique avant… 2013.

Selon Audrey Garric (voir le post-scriptum), « La raison pour laquelle il y a autant de climato-sceptiques, c’est qu’en matière de changement climatique, il faut dix secondes pour sortir une ânerie, et dix minutes pour expliquer pourquoi c’est une ânerie. » Corollaire, le problème avec les climastrologues, c’est qu’il leur faut 10 secondes pour prévoir une catastrophe, et plusieurs années pour démontrer factuellement leur fourvoiement idéologique. Ce qui ne les empêche pas de recommencer.

À ce propos, si les records de chaleur sont battus chaque mois depuis un an, c’est à cause d’un phénomène naturel et récurrent, appelé « El Nino » , qui se caractérise notamment par un réchauffement de l’atmosphère. Débuté en 2015, il a été particulièrement puissant mais est actuellement en phase descendante. Il pourrait céder la place à un « La Nina » , phénomène tout aussi naturel et récurrent qui se caractérise par une baisse des températures. Nous ne devrions donc plus entendre parler de records de températures d’ici quelques mois (les alarmistes trouveront sans doute une cause censée prouver le Dogme), mais l’hystérie reprendra au prochain El Nino un peu violent, dans quelques années.

Évolution des températures de 1997 à septembre 2016

Évolution des températures de 1997 à septembre 2016 selon les mesures satellite RSS (Remote Sensing System). On voit très bien le El Nino de 1998 suivi de son épisode froid « La Nina » jusqu’en 2002, et celui de 2016 pour lequel on ne peut que constater la phase descendante. En dehors des pics El Nino, il est bien difficile de distinguer un réchauffement sur les 20 dernières années.

Je ne résiste pas à publier cette vidéo où le physicien Richard Feynman expose la bonne méthode scientifique : « si l’expérience ne vérifie pas votre théorie, cette dernière est fausse » .

Anthrax en Siberie

Libération, mais aussi les autres médias jusqu’aux JT de 20h s’en sont fait l’echo : une épidémie d’anthrax due à la décomposition d’animaux décédés depuis des siècles ou plus s’est déclarée en Sibérie où le pergelisol fond à cause du réchauffement climatique.

Les températures moyennes avoisinent les 35 degrés – contre 17 habituellement à la même saison.

Faktoriya-temperatures-juillet-2016

Températures enregistrées à Faktoryia en juillet 2016. Source

La région (a priori vers Faktoriya) a enregistré une canicule inhabituelle le mois dernier. Si l’on ne peut pas exclure un pic à 35°C, force est de constater que les enregistrements n’ont pas excédé les 25°C. Par ailleurs, 35°C n’est pas un record. Les maximales à  Yanov Stan par exemple, sont de 36.3°C en juin, et 35.2°C en juillet, comme à Nyda . On trouve même plus de 39°C à Kikiakki : comparer une moyenne mensuelle calculée sur plusieurs années voire décennies à celle de l’année en cours est pour le moins malhonnête : il a toujours existé des années chaudes et des années froides.

Les derniers cas d’anthrax remontaient à 75 ans

Ce qui nous indique que ce phénomène s’est déjà produit. Il y a 75 ans : Si tel est le cas, ou le pergélisol a déjà fondu dans le passé, ou les cas d’anthrax ont une autre cause : On trouve des cas d’anthrax dans d’autres régions de la Sibérie, comme en atteste cet article de 2012.

La source probable du journaliste, issue d’un média sibérien, est factuelle : un enfant est décédé après avoir contracté  l’anthrax. Sa grand-mère est décédée pour une raison inconnue. D’autres malades ont été hospitalisés. La majorité des personnes touchées sont des nomades éleveurs de rennes.

Cimetière Nenets, Sibérie

Cimetière Nenets, Sibérie. Source : Siberiantimes

Dans un premier temps, la cause de linfection n’était pas connue, et les soupçons se sont d’abord portés sur la canicule, avec des températures de l’ordre de 25 à 35°C (et non pas températures moyennes avoisinent les 35°C comme le rapporte Libé), faisant fondre le permafrost et libérant ainsi la maladie. Il semblerait néanmoins que l’infection pourrait provenir d’un cimetière Nenets proche,  où des restes humains auraient pu propager l’anthrax : Il est de coutume, dans ces régions, de faire reposer les corps dans des sortes de boîtes, sans les enterrer. Le 2 août toujours, la canicule ne semble pas inquiéter plus que ça les autorités, qui craignent avant tout l’extension de l’épidémie par le biais de la viande et des animaux et non par la fonte du permafrost.

Un article du 3 août 2016 nous apprend que les premiers cas d’anthrax sont apparus il y a 5 semaines, et que l’épidémie n’a pu se développer que parce que les animaux n’étaient pas vaccinés, par choix politique.

Enfin, le 5 août 2016, la piste du cimetière nenets semble confirmée, rejetant la thèse apocalyptique d’une bactérie ancestrale réveillée par le réchauffement climatique. D’ailleurs, les températures sont depuis retombées bien en-dessous de la normale. L’épidémie aura été traité avec beaucoup de professionalisme par les autorités locales qui semblent habituées à ce genre de problèmes.

La montée des eaux de l’Atlantique provoquerait la disparition d’un bidonville au Liberia

L’information vient de l’AFP. le bidonville de West Point à Monrovia au Liberia serait en passe de disparaître à cause de la montée des eaux de l’Atlantique. Évidemment, lorsqu’une telle information est diffusée par l’AFP, elle est reprise en boucle sur de nombreux médias (Le Monde, Orange, Yahoo, France24, etc) qui la relaient sans vérifier. Et les personnes sensibilisées au réch chang déréglement climatique se croient obligées d’amplifier l’information sur les réseaux sociaux.

L’inexorable… RT @AFP_Afrique: La mer chasse de chez eux les habitants du plus grand bidonville du Liberia https://t.co/23CDwEMgi1

— Cécile Duflot (@CecileDuflot) July 25, 2016

Face à ce flux d’articles concordants car issus d’une source unique, il est compliqué d’en trouver l’origine, et donc d’en vérifier l’authenticité : il semble en effet étonnant que ce désastre survienne depuis 2 ans sans évènements précurseurs, suite à la montée des eaux de l’Atlantique. Une autre cause est-elle envisageable ?

Quelle est l’ampleur de la montée des eaux au Liberia ?

Confrontons la thèse de la montée des eaux aux mesures objectives, celles des marégraphes. Il se trouve que les marégraphes publient leurs mesures sur Internet. Et qu’il en existe un au Libéria, à Monrovia exactement, dont voici les mesures prises sur un an tous les 5 ans :

Niveau de la mer relevé par le marégraphe de Monrovia au Libéria, de 1970 à juin 2016

Niveau de la mer à marée haute, relevé par le marégraphe de Monrovia au Liberia, de 1970 à juin 2016

Année Moyenne marée haute (cm) Maxi marée haute (cm)
1970 115.3 151
1975 119.3 151
1980 119.5 150
1985  117.9 148
1990  117.6 144
1995  119.5 148
2000  119.3 147
2005  117.3 149
2010  119.0 152
2015  120 151
2016 (jan-juin)  120.5 147

Le graphique est assez clair : il n’existe aucun niveau record des marées depuis 1970.

D’autres causes peuvent-elles être envisagées ?

West Point, comme une partie du litoral liberien, est victime d’érosion. La page anglophone de Wikipedia l’attribue aux dégradations environnementales dues à la surpopulation, en s’appuyant sur l’article paru en 2007 « West Point, Liberia: An environmental menace » de Morris T. Koffa dans « The Liberian Dialogue » . Cette thèse est par ailleurs précisée par Eugene Shannon, ministre des territoires liberiens en 2008, où il mentionne le pillage, par les populations locales, de pierres ou éléments métalliques censés protéger les côtes de l’érosion.

Conclusion

Le problème d’érosion des côtes existait donc avant ces deux dernières années ; Et non, la montée des eaux n’a pas pu provoquer les catastrophes citées dans la brève de l’AFP pour la simple et bonne raison qu’il n’y a pas eu de montée des eaux significative à Monrovia depuis une cinquantaine d’années. Reste la seule information crédible de la dépêche, la détresse des populations locales. Mais qui s’en soucie vraiment ?

 

Je ne suis pas expert en commerce ni en urbanisme, mais…

La « Semaine de Nancy » n° 320 (23 au 29 juin 2016) titre, à propos des mesures prises en faveur du commerce nancéien et suite à expertise de M. Développeur de centre-ville, « Commerce : intentions et actions ». L’article détaille les mesures envisagées par la ville de Nancy pour sortir les commerces nancéiens de la sinistrose.

  • Création d’un nouveau logo assorti du slogan « le shopping style, c’est Nancy ville »
  • 100 000 sacs en coton bio reprenant le visuel, vendus 2 € ou donnés si le commerçant estime que vous le valez bien
  • 2 emplois précaires pour orienter les acheteurs (lorsque vous déambulez en ville, vous êtes un acheteur)
  • une aide à l’installation de nouveaux commerces innovants par le biais du réseau Alexis et la location d’un local à bas coût
  • Et… Voilà.

Je ne suis pas spécialiste en commerce ni en urbanisme, mais je me targue d’avoir une solide expérience de badaud et de client. À mon humble avis, les solutions proposées font l’impasse sur les facteurs les plus importants de la crise des commerces nancéiens, à savoir les déplacements  et le développement des zones commerciales en périphérie.

Lorsque je me suis installé en banlieue de Nancy voici maintenant plus de 20 ans, le Grand Nancy engageait d’importants travaux visant à fluidifier la circulation automobile. À l’époque, le centre ville était atteignable en voiture depuis mon domicile en moins de 10 minutes, sur 3 parcours différents : une fois le premier feu passé au vert, on ne s’arrêtait plus avant d’atteindre le centre ;

À la même époque, le réseau de transports en commun était encore efficace. Un réseau de trolleybus assurait les lignes principales tandis que des bus classiques desservaient efficacement l’ensemble de la CUGN. Les bus profitaient également du réglage des feux visant à fluidifier la circulation.

Y circuler à vélo était une plaie ; les piétons n’étaient pas à l’honneur non plus.

À l’instar de la plupart des villes faisant face à la congestion automobile, Nancy a modifié sa politique de circulation, notamment par suppression de la priorité donnée aux feux (onde verte) pour les voitures et cession d’une partie de l’espace qui leur était dédié à l’usage exclusif des transports en commun. Le temps d’accès  au centre ville m’est passé de 10 minutes à un quart d’heure, puis 20 minutes ou plus aujourd’hui. Par la route la plus rapide. Y compris tôt le dimanche matin, lorsque je suis seul sur la route. Les parkings gratuits situés autour du centre-ville sont devenus payants, leur ôtant ainsi tout intérêt.

Le parking Sainte-Catherine situé aux abords du centre-ville, était autrefois remplis de voitures. Il est evenu payant

Le parking Sainte-Catherine situé aux abords du centre-ville, était autrefois incontournable pour qui désirait se rendre dans le secteur de la Pépinière, place Stanislas ou rue Saint-Jean. Il est devenu payant en janvier 2015. Bien que quasiment vide, la maréchaussée y contrôle régulièrement le paiement de l’horodateur.

Les transports en commun sont en mutation continue depuis l’an 2000, coïncidant avec la création de la ligne 1 du « tramway ». Ce dernier n’a jamais atteint la cadence ni la vitesse prévues. À ce jour, aucune ligne dite structurante ne dessert une sortie importante d’autoroute, ni n’incite les automobilistes venant de l’extérieur de la communauté urbaine à emprunter les transports en commun ; de toute façon, le nouveau paradigme d’ « intermodalité » en vogue (faisant l’impasse sur le vélo et s’appuyant sur des modalités disparues) fait perdre tellement de temps qu’il n’incite  pas à quitter sa voiture. Mieux, dans mon voisinage, certains ont renoncé aux transports en commun et investi dans une voiture : il y a encore 3 ans, un bus passait dans ma rue et m’emmenait 100 mètres de la place Stanislas en 20 minutes. Aujourd’hui, le premier arrêt est à 5 minutes de marche et le même trajet dure de 30 à 40 minutes en fonction de la correspondance (intermodalité oblige). Et le niveau de service devrait encore diminuer en septembre 2016.

Un réseau cyclable aux petits oignons

Un réseau cyclable aux petits oignons

La suppression des ondes vertes n’a pas bénéficié aux cyclistes ni à aucun autre usager (à l’exception de transports en commun, rendus prioritaires sur certains axes). Pourtant une onde verte à 30 km/h serait bénéfique pour les deux modes de locomotion. Une onde verte à 20 km/h gênerait tout autant les automobilistes tout en favorisant le vélo. Mais non. Les circuits cyclables n’ont pas été pensés ni mis en place le long de certaines lignes en site propre dites « structurantes » de l’agglomération comme l’impose pourtant la loi. Certaines voies de transports en commun sont « autorisées aux cyclistes ». D’autres pas. Ce n’est pas forcément bien indiqué. Ni pratique. Si la ville revendique plus d’une centaine de kilomètres de voies cyclables, il ne faut pas y croire : sont considérées comme voies cyclables les zones « 30 » qui autorisent le contresens cyclable, souvent dangereux. Lorsqu’il est praticable ; les bandes cyclables ont pour vocation première le stationnement automobile « pour 5 minutes » selon un système de tolérance abscons et parfaitement assumé ; les parcours cyclables sont incohérents ; il reste interdit de circuler en toute sécurité sur les voies du « tramway ». Pour leur sécurité, les cyclistes doivent circuler sur la chaussée en compagnie des voitures qui les dépassent à cheval sur… La voie du tram : circuler à vélo à Nancy reste une plaie.

Les piétons, quant à eux, n’ont bénéficié en rien de la baisse de niveau de service des autres usagers : en dehors de la piétonisation de la place Stanislas et de la place Thiers, aucune zone n’a été rendue aux piétons. Les voitures circulent juste moins vite, mais la voirie leur reste dédiée et elles stationnent toujours sur les trottoirs au nom de la tolérance absconse et assumée citée plus haut.

En résumé, aucun moyen de transport n’a vu sa situation s’améliorer en 20 ans, il est simplement plus pénible d’atteindre le centre de Nancy.

Projet d'échangeur A330 pour Cora Houdemont

Projet d’échangeur A330 pour Cora Houdemont aux frais du contribuable grand nancéien en 2004, en vue d’adapter les échangeurs autoroutiers à l’extension de la zone commerciale.

Parallèlement, les zones commerciales en périphérie n’ont cessé de croître. Pour exemple, le centre commercial Houdemont a sans doute doublé sa superficie sur ces 20 dernières années, a doublé sa superficie de parkings en créant un étage de stationnement. Les terrains alentours ont été viabilisés et transformés en une immense zone commerciale proposant une offre similaire à celle du centre-ville ; Cet endroit m’est accessible en 5 minutes grâce aux investissements en infrastructures du Grand Nancy dans les années 90 et 2000, sans soucis de stationnement. Une seconde zone commerciale de même ampleur se situe à une dixaine de minutes de chez moi. Je pense que tout grand-nancéien dispose de la même offre commerciale.

Il est certes plus sympathique de flâner dans les rues de la ville vieille ou faire son shopping dans les rues commerçantes de Nancy que de fréquenter les hideuses zones commerciales sises en périphérie, mais les contraintes imposées par la ville qui a voulu bouter la voiture hors les murs sans avoir permis aux gens clients de venir par d’autres moyens, ont eu raison de l’attractivité du centre-ville. Tel est mon sentiment de grand-nancéien, badaud et client.

 

 

Climat : températures et CO2 grimpent

C’est un commentaire de l’article de Sylvestre Huet « Climat : températures et CO2 grimpent » qui m’incite à rédiger ce billet :

Bon article, net, concis. Avec les références aux multiples instituts de recherche qui contribuent à de telles études. Hélas, comme pour l’article sur le rongeur australien, nous allons voir débarquer les « douteurs » (car le « doute est le fondement de toute démarche scientifique », nous disent-ils sans justifier d’aucun formation scientifique) qui vont « douter » de toutes ces courbes et résultats. Par contre, ces même personnes, si on leur diagnostique un cancer, ne vont jamais « douter » de leur maladie.

Je ne suis pas scientifique, mais je recoupe les informations à ma disposition. Cela fait indubitablement de moi un « douteur » . Et concernant le réchauffement climatique, je ne suis jamais déçu.

M. Huet débute par une série de données brutes issues de la seule NOAA, les plus alarmistes, relatives aux températures mondiales de mai 2016, sans en citer la source et en insistant uniquement sur l’aspect record et en affirmant « que l’objectif fixé à la COP-21 de viser une hausse maximale de 1,5°C relativement à la période pré-industrielle (1750) [la science retient 1850 habituellement. Faute de frappe ? NDR] est hors de portée » . Or, ce qui caractérise mai 2016, y compris dans les chiffres de la NOAA, c’est la confirmation de la fin d’un épisode el nino particulièrement important, accompagné d’une baisse rapide des températures.

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Températures de la Terre de janvier 2014 à mai 2016 selon la NOAA (GISS)

Loin de confirmer une hausse rapide des températures, le mois de mai semble indiquer un retour à « la normale » des températures, suite à un épisode chaud qui caractérise el nino, phénomène récurrent, connu, et parfaitement naturel. La NOAA à l’origine des chiffres cités par M. Huet l’admet d’ailleurs dans son rapport mensuel :

Les températures moyennes mondiales terrestre et de surface des océans de mai 2016 ont été les plus basses depuis Août 2015 et, à la différence des cinq derniers mois (Décembre 2015 en Avril 2016), n’a pas dépassé 1,0 ° C (1,8 ° F ). Mai 2016 est à égalité avec Juin 2015 et Août 2015, le 12e le plus chaud depuis le début des mesures.

Parallèlement à cette baisse de la hausse des températures, M. Huet note que le taux de CO2 passe au-dessus des 400 parts par millions à la station de mesure de l’île d’Amsterdam. Comme il le souligne, ce seuil est parfaitement symbolique et n’engendre aucun événement particulier. C’est même une information récurrente depuis quelques années, les stations enregistrant l’une après l’autre des taux supérieurs à 400ppm, parfois à plusieurs reprises. Le même M. Huet qui semble tenir une exclusivité aujourd’hui, nous en faisait d’ailleurs part en 2014 dans son blog de Libération.

Ces deux éléments parfaitement indépendants permettent cependant à M. Huet d’étabir péremptoirement un « lien CO2 températures bien établi » . Si vous vous attendiez à une référence à une étude ou à de multiples instituts de recherche qui contribuent à de telles études , passez votre chemin. Le lien est établi. Point.

Et dire qu’il y a des gens qui doutent. Non mais franchement.

Et encore, ces gens n’ont-ils peut-être pas entendu parler des ajustements de température a posteriori de la NOAA suite à l’étude Karl et al, qui font foi depuis mars 2015 et ont entre autres effacé le el nino de 1998 (celui-là même  qui prouva, en son temps, le réchauffement climatique d’origine humaine)?

Crise de la quarantaine : un premier bilan

Choupinette, Porsche 911 3.2 de 1988

Choupinette

En juillet 2014, jeune quarantenaire, je cassais la tirelire pour une Porsche 911 de 1988, celle de mon adolescence. Je vous relatais l’histoire de son acquisition ici.

Je me propose de faire un bilan sur l’année et demi passée.

Les bons côtés

Prendre le volant est un plaisir sans cesse renouvelé. Elle est belle, confortable pour une sportive, fiable : elle ne m’a jamais laissé en rade (ma 2CV non plus du reste). S’asseoir à son volant est toujours un instant magique, les légendaires 5 compteurs sous les yeux (et le compteur de vitesse partiellement caché derrière le volant), on aperçoit les deux phares en bas du pare-brise. On tourne la clef, à gauche du volant, et le flat 6 s’ébroue. Et c’est parti pour une promenade au cours de laquelle elle s’adaptera à l’humeur du moment : Elle sait cruiser sur le couple, 50 en 4e voire en 5e ou sortir d’un virage en dérive à des vitesses très raisonnables. Le flat 6, souple et coupleux sait aussi se montrer rageur. Passé 4000 tours/mn, ça pousse velu.

Le coffre est suffisamment vaste pour envisager un week-end à deux. Comme le rappelle Porsche, il s’agit d’un 2+2 et non d’une 4 places : ne songez pas à emmener des adultes à l’arrière, à moins que vous ne souhaitiez vous fâcher avec ces derniers.

Les coûts

Concernant l’entretien, je me rends depuis un an dans le garage Mitsubishi (anciennement Porsche) Richard Alcaraz Automobiles -7, boulevard Clémenceau – 54500 Vandœuvre-les-Nancy (03.83.56.20.80) que je recommande vivement : des mécaniciens passionnés, compétents, à l’écoute du client et pas pousse à la vente. Mécaniciens qui m’ont dressé un bilan de la voiture. Rien de rédhibitoire pour une voiture de cet âge, pas vraiment kékéisée malgré son kit turbo-look (de bonne facture) installé on ne sait quand, et malgré l’absence de facture d’entretien sur les 15 années précédentes.

Côté consommation, ça reste raisonnable pour un véhicule sportif de près de 30 ans, mais il faut dire que je ne roule pas tant que ça (quelque chose comme 6000 km) et que le prix du carburant a bien baissé. Le carburant, c’est du super 98 sans additif (la belle est catalysée). Il faut compter 9l/100 km en roulant cool, et 2 ou 3l de plus en arsouillant un peu.

Ce n’était pas un véhicule neuf, je le savais. Il pouvait y avoir des frais, j’y étais préparé. D’autant plus que l’ancien propriétaire n’avait aucune facture, faisait lui-même les révisions ou les faisait faire par un petit bouclard local. Alors voilà, la remise à niveau a nécessité un budget assez coquet.

Février 2015 : Un bruit dans le train avant, à chaud et à vitesse stabilisée ont avancé mon passage chez un professionnel. Mon choix s’est donc porté sur Alcaraz Automobile. Le grippage d’un étrier de frein  provoquait le bruit, et nécessitait démontage et réparation. Par ailleurs, une courroie menaçait de casser et une bonne révision s’imposait. La première facture s’élève donc à 1900 € TTC avec 14 heures de main d’œuvre qui en composent l’essentiel.

À l’occasion de ces réparations, un diagnostic assez inquiétant sur l’état de conduites d’huile qui courent le long de la voiture est établi. Les deux volets de chauffage sous le moteur sont grippés. Par ailleurs, le toit ouvrant était inopérant : moins grave, mais bon… Le prix des pièces pique un peu, on dira que c’est « très Porsche » : 150 € HT la conduite d’huile (il y en a deux), possiblement un « carter de régulateur » à 450 € HT « parce que les alliages des pas de vis du carter et du tuyau ont tendance à coller et à casser quand on démonte » (il ne sera finalement pas cassé) et les boîtiers de chauffage sont à 200 € HT pièce. Quant aux câbles d’ouverture du toit ouvrant, à 115 € HT le bout, ils doivent être en or plaqués platine… Le devis s’élève à plus de 3000 € TTC.

Mai 2015 : décision est prise de réparer, au moins pour la fiabiliser au niveau des conduites d’huile. La voiture est prise en charge pour quelques jours. Finalement, les mécaniciens réussiront à dégripper le chauffage et à sauver le carter d’huile. La facture ne s’élèvera donc qu’à 1950 € TTC.

À l’occasion de ces réparations, un mécanicien s’aperçoit que la loupiotte de l’alternateur ne s’allume pas. Il teste l’alternateur, qui fonctionne normalement. Il me prévient cependant qu’il est susceptible lâcher, mais qu’il sera bien temps de voir à ce moment là. 700 € HT hors pose à prévoir.

Janvier 2016 : la batterie lâche. Je soupçonne l’alternateur. Batterie rechargée, ça repart. Pas le temps de m’en occuper pour cause de voyage-promenade de 15 jours à bord d’une Chevrolet Bel Air de 1955.

Mars 2016 : Je m’occupe à nouveau de la belle (qui roule entre deux recharges de batterie) et l’emmène à sa révision désormais annuelle, prêt à changer l’alternateur. Les mécaniciens diagnostiquent ce dernier et s’aperçoivent qu’il faut donner un coup de gaz à 3000 tours pour quil daigne commencer à charger. Bizarre. Investigations. Il s’agit finalement de l’alarme d’origine qui a été mal démontée et dont un fil relié à l’alternateur mettait ce dernier hors service. Changement de batterie, qui me sera facturée moins cher qu’au supermarché du coin. Par ailleurs, l’indicateur  de niveau d’huile du tableau de bord ne fonctionnant pas, on me propose de changer la sonde. Le bidule, un flotteur actionnant un genre de rhéostat coûte la bagatelle de 115 € HT. Il est toutefois utile, surtout sur ce genre de moteurs à refroidissement à huile, où son niveau est critique : j’accepte donc l’opération. Coût total : 1150 € TTC.

Dernier diagnostic : les pneus arrière sont limite. On me propose de les changer, j’opte pour un devis concernant les deux trains au vu de l’âge des pneus. À première vue, ce sera plus ou moins 650€.

Porsche 911 3.2 de 1988

Choupinette

Le bilan

Ne nous voilons pas les yeux : ce véhicule représente un budget. Le conseil que j’avais lu de conserver un matelas de l’ordre de 5000€ « au cas où » est de bon sens. Toutefois, le gros des frais engagés à ce jour correspondent à une remise à niveau mécanique suite à un laisser-aller de la part des anciens propriétaires. Cette dernière est aujourd’hui effectuée. Restent l’état intérieur (une déchirure sur le siège conducteur, un rafraîchissement des cuirs et moquettes) et des détails de carrosserie. Cependant, achetée 24000 €, elle cote aujourd’hui à plus de 35000 €, ce qui relativise le coût de sa remise à niveau.

Il n’en reste pas moins que cette voiture est un bonheur à conduire, et que je ne regrette en rien cette acquisition. Même si je délaisse un petit peu la 2CV…