Archives pour la catégorie Société

Sécurité routière : De l’effet rétroactif des radars automatiques en 2002

Poncif récurrent dans les médias, la mortalité routière aurait diminué très fortement dès 2002 en raison des radars automatiques. Hypothèse fragile, puisque le premier d’entre eux n’a été inauguré que le 27 octobre 2003, un an et demi après le début de la baisse de mortalité routière et au moment même où ces excellents résultats marquent le pas. Par extension, les tenants de cette thèse ajoutent que le matraquage médiatique à propos des radars automatiques aurait incité les automobilistes à lever le pied, et donc avoir moins d’accident. Cet article vise à vérifier cette deuxième hypothèse.

Graphique issu du bilan 2003 de sécurité routière

Graphique issu du bilan 2003 de sécurité routière

Visuel issu des décodeurs du Monde dans un article sur le projet de limitation à 80 km/h sur le réseau secondaire. On notera l’évolution de la sémantique pour expliquer la chute de la mortalité routière sur la période 2002/2003.

Contexte politique en 2002

Jacques Chirac termine son premier mandat et les résultats en matière de sécurité routière sont très mauvais. En 1999, la loi Gayssot relative aux grands excès de vitesse n’a pas eu les résultats escomptés. En 2000 et 2001, Jacques Chirac avait décrété la sécurité routière « grande cause nationale », sans plus de succès. L’année 2001, et plus particulièrement décembre, s’étant révélée une année calamiteuse en la matière.

2002, année d’élections, le sujet fait alors débat au sein de la classe politique. Il était de coutume, à l’époque, d’amnistier les infractions routières jugées vénielles : les amendes de stationnement, les excès de vitesse… Le candidat à la Présidence Jacques Chirac optera pour la réduction du champ de l’amnistie en cas de victoire. Promesse que, il faut le noter, il respectera. Le 14 juillet, il présente les 3 grands chantiers de son mandat où figure la sécurité routière avec trois priorités : la ceinture, la vitesse et l’alcool. Il déplore que 40% des procédures à l’égard des automobilistes n’aboutissent pas. Il évoque alors une « automatisation des moyens de détection des infractions » sans plus de précision, mais aussi des « tickets mouchards » sur les autoroutes, des boîtes noires à bord des voitures ou encore la création d’une police de la route.

Contexte judiciaire

Il faut rappeler qu’à l’époque, faire sauter les contredanses est un sport national. Autre aspect largement ignoré aujourd’hui, les automobilistes contrôlés en excès de vitesse étaient jugés au Tribunal. Une procédure lourde et lente, qui permettait à bon nombre d’entre eux de s’en sortir avec un sermon.

Contexte technologique

Deux pays en Europe ont recours à des radars dits automatiques. Il s’agit de l’Angleterre et de la Suède. Ces appareils, peu connus de la population française, sont constitué d’un radar couplé à un appareil photos argentique doté d’une pellicule d’une centaine de poses, relevées à intervalles plus ou moins réguliers. En juillet 2002, ni Jacques Chirac, ni les politiques, ni les journalistes ne mentionnent ces instruments.

L’appareil photo numérique est alors une invention récente, peu performante, peu répandue (le premier reflex numérique grand public est diffusé fin 2004). En 2002, 8 millions de foyers ont Internet, dont plus de 6 millions en bas débit avec paiement à la minute au-delà d’un forfait de quelques heures.  Chirac surfe alors sur la fracture numérique.

Autant dire que les français qui ont porté attention à ce discours et ont relevé « l’automatisation des moyens de détection des infractions« , notion extrêmement floue (s’agit-il de vitesse, d’alcool, d’autres infractions, du traitement des amendes ?) noyée dans un discours sur les trois grands chantier du quinquenat, sont tout de même loin d’imaginer la transmission de clichés pris automatiquement avec un appareil photo numérique au milieu de nulle part, pour les transmettre en haut débit via un réseau informatique à un centre de traitement automatisé des amendes, pour verbaliser des excès de vitesse sans passer par un juge.

Un tel dispositif n’a d’ailleurs même pas été évoqué.

Et c’est dommage, il s’agit du deuxième mois de baisse de la mortalité routière.

Fin de l’année 2002

Mois Nombre décès Tendance annuelle évolution
juin-02 631 7755 -11,57%
juil-02 661 7663 -13,92%
août-02 634 7653 -1,58%
sept-02 601 7570 -12,65%
oct-02 666 7538 -4,80%
nov-02 572 7465 -12,76%
déc-02 526 7242 -43,73%

Au fil des mois qui suivent, alors que la mortalité continue de baisser, le monde politique débat sur des questions de permis probatoire, conducteurs inexpérimentés, puissance moteur, normes de sécurité des infrastructures, ce qui n’empêche pas le Monde de railler l’action du gouvernement, notamment l’amnistie votée par le Parlement ou le fait que le tiers des amendes accompagnées du retrait de points sur le permis de conduire n’étaient pas appliquées par suite de l’intervention de personnes irresponsables auxquelles il faudrait « supprimer 6 points sur le permis« .

Les 2 et 3 novembre, deux articles du Monde (et ici) évoquent (enfin) la rareté des contrôles radar, la volonté d’y remédier voire de les automatiser en supprimant le passage devant le tribunal pour les contraventions, tout en constatant que les forces de l’ordre ne dissuadent plus personne. C’est dire si, 6 mois après le début de la baisse de la mortalité routière, les radars automatique dont ils ne savent encore rien, ont effrayé les conducteurs.

Plus aucune nouvelle de sécurité routière jusqu’au 29 novembre. C’est à cette date qu’a lieu l’accident de Loriol. Un papy, sans doute assoupi ou ayant eu un malaise au volant de sa puissante Mercedes lancée à 150 ou 160 km/h sur une portion d’autoroute limitée à 90 km/h et réputée accidentogène (pas moins de 20 accidents ayant été recensés, provoquant au moins un décès le 9 novembre 2002), percute un groupe de pompiers en intervention sur un sinistre dûment signalé en amont. 5 morts. Le chauffard n’aura freiné que sur les derniers mètres et déclare ne se souvenir de rien. La cause de l’accident ? La vitesse bien sûr.

C’est à partir de cette date que Sarkozy entre en scène sur ce sujet, avec le talent qu’on lui connaît.

Le Monde précise un plan qui « prévoit d’instaurer un système de contrôle automatique de la vitesse, grâce à des dispositifs vidéo placés à des points fixes enregistrant les infractions et transmettant directement la procédure au propriétaire du véhicule. » Autant dire que vu les contextes technologique et juridique de l’époque, il s’agit encore d’une fiction.

Le bilan de l’année 2002

Voici donc l’heure du bilan 2002. La synthèse note la baisse exceptionnelle de la mortalité routière dès fin mai 2002, qui s’accélère en octobre. Elle note également une quasi-stabilité du nombre de contrôles, avec une diminution de 2.5% de points retirés. Deux nouveautés cependant : les nouveaux radars laser et la rétention du permis de conduire. Un autre critère pourrait être le débat sur l’amnistie. Enfin, les campagnes de pub sur la sécurité routière sont évoquées.

On notera les mauvais résultats sur autoroute (+16%). Si les accidents dus à l’alcool ont fortement diminué, notamment grâce à des contrôles mieux ciblés avec une augmentation de 1.2% des contrôles mais une augmentation de 27.1% de dépistages positifs, les vitesses pratiquées ont peu évolué et  l’excès de vitesse reste la règle : 60% des véhicules de tourisme, 66% des poids lourds et 76% des 2 roues motorisés.

Bref, la mortalité baisse beaucoup, le comportement en matière de vitesse n’a pas évolué significativement, et on ne sait pas (encore) que ces bons résultats sont la conséquence de l’annonce des radars automatiques. On notera que les bilans de sécurité routière sont à cette époque (à 1 an ou deux près) très bons un peu partout en Europe, pour des raisons différentes liées aux politiques locales. Par exemple, la baisse de la mortalité routière en Irlande, exceptionnelle là-bas aussi, s’explique par le permis à points.

 

 

 

Anthrax en Siberie

Libération, mais aussi les autres médias jusqu’aux JT de 20h s’en sont fait l’echo : une épidémie d’anthrax due à la décomposition d’animaux décédés depuis des siècles ou plus s’est déclarée en Sibérie où le pergelisol fond à cause du réchauffement climatique.

Les températures moyennes avoisinent les 35 degrés – contre 17 habituellement à la même saison.

Faktoriya-temperatures-juillet-2016

Températures enregistrées à Faktoryia en juillet 2016. Source

La région (a priori vers Faktoriya) a enregistré une canicule inhabituelle le mois dernier. Si l’on ne peut pas exclure un pic à 35°C, force est de constater que les enregistrements n’ont pas excédé les 25°C. Par ailleurs, 35°C n’est pas un record. Les maximales à  Yanov Stan par exemple, sont de 36.3°C en juin, et 35.2°C en juillet, comme à Nyda . On trouve même plus de 39°C à Kikiakki : comparer une moyenne mensuelle calculée sur plusieurs années voire décennies à celle de l’année en cours est pour le moins malhonnête : il a toujours existé des années chaudes et des années froides.

Les derniers cas d’anthrax remontaient à 75 ans

Ce qui nous indique que ce phénomène s’est déjà produit. Il y a 75 ans : Si tel est le cas, ou le pergélisol a déjà fondu dans le passé, ou les cas d’anthrax ont une autre cause : On trouve des cas d’anthrax dans d’autres régions de la Sibérie, comme en atteste cet article de 2012.

La source probable du journaliste, issue d’un média sibérien, est factuelle : un enfant est décédé après avoir contracté  l’anthrax. Sa grand-mère est décédée pour une raison inconnue. D’autres malades ont été hospitalisés. La majorité des personnes touchées sont des nomades éleveurs de rennes.

Cimetière Nenets, Sibérie

Cimetière Nenets, Sibérie. Source : Siberiantimes

Dans un premier temps, la cause de linfection n’était pas connue, et les soupçons se sont d’abord portés sur la canicule, avec des températures de l’ordre de 25 à 35°C (et non pas températures moyennes avoisinent les 35°C comme le rapporte Libé), faisant fondre le permafrost et libérant ainsi la maladie. Il semblerait néanmoins que l’infection pourrait provenir d’un cimetière Nenets proche,  où des restes humains auraient pu propager l’anthrax : Il est de coutume, dans ces régions, de faire reposer les corps dans des sortes de boîtes, sans les enterrer. Le 2 août toujours, la canicule ne semble pas inquiéter plus que ça les autorités, qui craignent avant tout l’extension de l’épidémie par le biais de la viande et des animaux et non par la fonte du permafrost.

Un article du 3 août 2016 nous apprend que les premiers cas d’anthrax sont apparus il y a 5 semaines, et que l’épidémie n’a pu se développer que parce que les animaux n’étaient pas vaccinés, par choix politique.

Enfin, le 5 août 2016, la piste du cimetière nenets semble confirmée, rejetant la thèse apocalyptique d’une bactérie ancestrale réveillée par le réchauffement climatique. D’ailleurs, les températures sont depuis retombées bien en-dessous de la normale. L’épidémie aura été traité avec beaucoup de professionalisme par les autorités locales qui semblent habituées à ce genre de problèmes.

Le morse du Pacifique, nouvel animal totem de la climastrologie ?

Le 3 octobre, j’apprends par le biais du tweet ci-dessous que des morses se réfugient sur une plage à cause du réchauffement climatique.

Intrigué, je lis l’article issu du blog d’Audrey Garric, lequel confirme que 35000 morses se sont réfugiés sur une plage d’Alaska où l’on ne trouve pas de glaces. En cause, le réchauffement climatique, bien entendu. En mélangeant quelque peu les saisons et le comportement des morses afin d’asseoir la thèse catastrophiste qui se joue sous nos yeux ébahis, et en rappelant de manière tendancieuse la superficie de la banquise arctique à la mi-septembre (la 6e plus petite enregistrée, alors qu’elle était censée avoir disparu), Audrey Garric nous assène comme argument d’autorité que les premiers rassemblement ont été aperçus en 2007. Par ailleurs, les experts du WWF nous confirment l’Apocalypse sous la plume le clavier de Mlle Garric :

« Les morses nous disent ce que les ours polaires nous ont dit et ce que beaucoup d’autochtones nous avaient dit : l’environnement arctique change extrêmement rapidement, c’est le moment pour le reste du monde d’en prendre connaissance mais aussi de prendre des mesures pour s’attaquer aux causes du changement climatique. » Margaret Williams, directrice du programme arctique du WWF.

Morses échoués sur une plage

Morses échoués sur une plage

Google Actualité m’indique que l’affaire fait grand bruit sur l’ensemble de la blogosphère écolo-climatique : tous répètent à l’envi qu’il s’agit bien là de la preuve irréfutable des dégâts provoqués par les méchants humains sur les pauvres animaux polaires.

Amusons-nous à découvrir le mode de vie, les habitudes des morses.

Wikipédia propose un article assez détaillé sur les morses, par ailleurs reconnu comme « article de qualité » depuis sa version du 4 mai 2010. Un passage est particulièrement intéressant, il s’agit du paragraphe intitulé Biotope et migrations, je cite (j’ai graissé les passages les plus marquants)

En dehors de la saison des amours et de gestation, c’est-à-dire à la fin de l’été et en automne, les morses forment des colonies de plusieurs dizaines de milliers d’individus sur les plages ou les affleurements rocheux. Ils sont contraints à suivre tour à tour l’expansion puis le recul de la banquise, les femelles et les jeunes demeurant sur la glace en toute saison, les mâles reproducteurs préférant passer l’été sur les côtes et îlots rocheux. La migration peut être longue et spectaculaire. À la fin du printemps et en été, par exemple, plusieurs centaines de milliers de morses du Pacifique migrent de la mer de Béring à la mer des Tchouktches à travers l’étroit détroit de Béring. Souvent les mâles restent dans le Sud, seuls les femelles et les jeunes migrant. Certains individus parcourront plus de 3 000 km par an.

Contenu soumis à la licence CC-BY-SA. Source : Article Morse (animal) de Wikipédia en français (auteurs)

Par ailleurs, l’article de Wikipédia sur Point Lay, où se seraient échoués les morses en mal de banquise, nous indique que la température peut atteindre 26°C en été : il serait étrange d’y trouver habituellement de la banquise en septembre.

Journaliste, un beau métier d’investigation encadré par la déontologie

Prévenue, Audrey Garric (journaliste au Monde), n’a ni modifié, commenté ou retiré son article. Les grands médias francophones auront tous relayé une fausse information, dont la vérification tient en une simple consultation d’une encyclopédie en ligne. Je lisais il y a quelque temps, que le problème avec les climato-sceptiques, c’est qu’ils disent 10 contrevérités par minutes, et qu’il faut 10 minutes pour démonter proprement chacune des contrevérités énoncées. Il semble que l’on connaisse le même problème avec les zélés journalistes spécialistes du climat et toutes ces billevesées. Le seul problème, c’est qu’ils sont autrement plus médiatisés que les premiers.

De la sécurité routière

C’est à l’occasion d’une discussion avec Olivier Siou @oliviersiou1, rédacteur chef-adjoint à France 2 que j’ai décidé d’écrire cet article. Parce que Twitter n’est pas le bon canal pour argumenter, et parce que je ne suis pas satisfait des réponses que j’ai apportées à monsieur Siou.

Après un reportage au journal de France2 du 18 avril 2014, je réagis par un tweet moqueur envers les journalistes nous apprenant sur un ton alarmé frôlant le ridicule qu’un automobiliste conduisant une Ferrari à 150 km/h sur autoroute s’était fait arrêter. M. Siou me répond que la vitesse n’est pas un facteur anodin et cela se termine par un « petit rappel » :

Et ça, ça m’agace. Alors que le mois de mars 2014 est le premier mois avec de mauvais résultats dans un contexte de baisse continue depuis des années, on m’assène comme argument d’autorité que la vitesse est dangereuse puisque, concomitamment à la hausse de la mortalité en mars, on publie un reportage à propos d’un automobiliste qui a dépassé les limitations sur autoroute : si ça, en plus d’être du simple bon sens, ça n’est pas une preuve !

Du coup, je me pose une question, de bon sens elle aussi : Aurait-on retiré les radars du bord des routes en mars 2014, expliquant ainsi la raison pour laquelle les conducteurs se seraient subitement « relâchés » selon l’expression consacrée et, tels des lemmings, suicidés en masse en roulant comme des cons ?

Bon, restons sérieux. Dans un contexte où il est question de limiter nos routes à 80km/h, où l’on baisse constamment les limitations sur le réseau secondaire ou sur autoroute, où chaque village se doit de créer sa zone 30 avec le gendarme couché qui va bien, où l’on supprime les zones de dépassement jusqu’à l’ubuesque, et où l’on nous assène que l’efficacité de la répression de la vitesse est un succès sans équivoque depuis 2002, j’aimerais, moi aussi, rappeler une ou deux choses :

Baisse de la mortalité routière

La sécurité routière s’améliore dans l’ensemble des pays développés, de manière  constante et quelles que soient les politiques apportées, depuis le milieu des années 1970. Depuis 1973 pour la France. En fait, pas tout à fait : 1973 a été historiquement retenue par les chargés de communication parce qu’il s’agit aussi de l’année où les limitations généralisées ont été mises en place. En fait, la baisse de la mortalité a débuté à l’été 1972, soit un an avant la mise en place de ces limitations.

Statistiques française de mortalité routière (1960-2007)

Statistiques française de mortalité routière (1960-2007)

Efficacité des radars automatiques

Concernant les contrôles de vitesse automatisés, il faudra bien un jour qu’un journaliste m’explique pourquoi 2002 est systématiquement retenu pour en démontrer l’efficacité, alors même que la loi destinée à contrer la « violence routière » et son décret d’application à la mi 2003 ne les mentionnent même pas :  Souvenez-vous, le premier radar automatique expérimental fut inauguré en grande pompe à la Ville du Bois (Essonne) le 27 octobre 2003 par des ministres qui ont allègrement conchié les limitations de vitesse pour s’y rendre. Le radar fut saccagé deux jours plus tard. À moins d’un effet rétroactif…

Partant de ce constat, il convient donc de confronter la période post-radars (2004-2012) à la période qui l’a précédée (1995-2003) pour déterminer si oui ou non, la lutte contre la vitesse par le biais d’une répression automatisée sans précédent, révèle l’efficacité qu’on lui attribue. Le résultat est sans équivoque : la période de 9 ans post-radars automatiques, avec une baisse de la mortalité de 30,3%, est moins performante que la période de 9 ans la précédant à 31,9%. Il est donc difficile de parler d’accélération de l’amélioration des statistiques de sécurité routière grâce aux radars automatiques, il n’en est rien.

À cette baisse de la mortalité qui s’inscrit tout juste dans la continuité de la période précédente, il convient tout de même de souligner que les vitesses moyennes ont baissé pour l’ensemble des catégories de véhicules (-10,3 km/h pour les motos, -10,7 km/h pour les véhicules légers et -5,9 km pour les poids-lourds), et que les excès de vitesse ont été divisés par deux : on peut alors chercher à savoir si la situation aurait été pire sans radars et sans baisse des vitesses pratiquées par les automobilistes. Un seul contre-exemple suffit à invalider cette thèse :

L’Allemagne

Ce pays n’a pas cédé aux sirènes des radars automatiques sur les autoroutes et le réseau secondaire (ils sont par contre très présents en agglomération) et a la particularité d’avoir des limitations supérieures aux nôtres sur ces deux types de réseaux : 100 km/h sur l’ensemble du réseau secondaire, et aucune limitation sur environ 60% des autoroutes.

Outre des résultats remarquablement similaires à ceux de la France avec une baisse de la mortalité de 30,2% sur la période 1995-2003 et 32,8% sur la période 2004-2012, l’Allemagne peut s’enorgueillir de posséder des routes plus sûres que les nôtres au kilomètre parcouru à 7,8 morts par milliard de km parcourus contre 9,6 en France.

Il est donc permis de se poser la question du rôle prépondérant prêté aux radars automatiques dans la baisse de la mortalité routière et du lien direct, tiré du bon sens populaire, entre vitesse et nombre d’accidents. D’ailleurs, la seule étude tangible sur la baisse de la limitation à 70 sur le périphérique conclut que le nombre de PV pour excès de vitesse a littéralement explosé, sauvant ainsi d’une faillite certaine le parc de radars automatiques. En sera-t-il de même pour le réseau secondaire français lorsqu’il sera limité à 80, avant une baisse des limitations à 110 sur le réseau autoroutier ?

 

Je ne suis pas du genre à me plaindre…

… Et je ne vais même pas le faire…

… Mais :

Le gouvernement propose de geler l’avancement des fonctionnaires. Beaucoup de gens donnent leur avis sur ce sujet qu’ils ne maîtrisent vraisemblablement pas. Je ne suis pas spécialiste de la question mais je vais juste essayer de présenter l’état des lieux par le biais de ma propre expérience, de la manière la plus objective possible. Sans plainte, car je pense qu’il convient d’assumer ses choix et que ce serait indécent vis à vis des personnes qui vivent la crise de plein fouet, et sans revendication  pour les mêmes raisons.

J’ai donc débuté ma carrière de fonctionnaire en tant que « catégorie C » de la fonction publique d’État en 1995, à l’issue d’un concours de 1994. En 2008, j’ai passé et réussi un concours catégorie B, pour devenir « technicien supérieur » . Il s’est passé plein d’autres trucs, mais ce n’est pas le sujet.

Lorsque je suis entré dans la Fonction Publique, on m’a remis un document qui me présentait une évolution probable de carrière. Il s’agissait de la fameuse grille indiciaire.

Le « traitement » du fonctionnaire est calculé selon un « point d’indice » qui se monte à 4,63 € depuis 2010, et un échelon qui correspond à un nombre de points d’indice. Par exemple, l’indice d’un fonctionnaire catégorie C stagiaire (échelon 1, année de probation) est de 316. Son salaire brut sera de 316×4,63 = 1463 euro brut. La catégorie C est le niveau le moins élevé de la fonction publique, les cadres étant catégorie A.

Je vous ai fait un petit graphique qui synthétise cette grille « C » en 1994,  et la même en 2014 :

grille indiciaire 1994 et 2014

grille indiciaire 1994 et 2014, par rapport au SMIC de 1994 et 2004 (indice 100). Désolé, je n’ai pas trouvé de source sur les internets pour 1994 et, à part une pauv’  feuille qui m’a été remise à l’époque, je n’ai rien. J’ai fait le choix d’une carrière que j’estime moyenne, avec avancement au choix AAP2 après 20 ans de carrière, et AAP1 après 30 ans.

De prime abord, ça a l’air vraiment chouette, fonctionnaire : un avancement automatique qui permet de gagner du pouvoir d’achat à l’ancienneté sans faire trop d’efforts. C’est ce que je me suis dit aussi.

Mais ce n’est pas tout à fait ça.

Pour commencer, la grille indiciaire a évolué entre 1994 et 2014, avec une nette tendance à la baisse : il faut aujourd’hui avoir 15 ans de carrière pour espérer décoller du SMIC de manière presque significative et se retrouver au niveau d’un catégorie C « stagiaire » de 1994…

Dans les deux cas, le salaire semble bien augmenter avec l’ancienneté. Mais cette observation est en trompe-l’œil en ce qu’elle donne la situation à un instant T pour un personnel débutant, un autre ayant 5 ans d’ancienneté, etc. Or, à titre individuel, la progression du salaire traitement n’a rien d’aussi évident.

Le SMIC est lié à l’inflation, et donc revalorisé chaque année. Théoriquement, la grille indiciaire devrait évoluer de manière similaire afin de permettre une progression salariale du fonctionnaire. Soit par le biais de la revalorisation du point d’indice, gelé depuis 2010 (ce n’était guère glorieux les années précédentes), soit par la refonte de la grille indiciaire, elle aussi remise aux calendes grecques à l’exception de modifications à la marge, visant justement à aligner le bas de l’échelle sur le SMIC. Cela se traduit par un tassement de la grille indiciaire par le bas : Ainsi, en 1994, on comptait une différence de 11 points d’indice entre le premier et le deuxième échelon. Il n’y en a plus qu’un aujourd’hui. La conséquence, avec un point d’indice gelé à 4,63 €, ce sont des augmentations de salaire de 4,63 € toutes les 1 à 2 années. Dans les faits, le SMIC évolue plus vite…

Indice 1994 différence indice courant – indice précédent
cumul Indice 2014 différence indice courant – indice précédent cumul
1er échelon 243   316
2ème échelon 254 11 11 317 1 1
3ème échelon 264 10 21 318 1 2
4ème échelon 275 11 32 319 1 3
5ème échelon 285 10 42 320 1 4
6ème échelon 295 10 52 321 1 5
7ème échelon 306 11 63 323 2 7
8ème échelon 316 10 73 327 4 11
9ème échelon 327 11 84 333 6 17
10ème échelon 337 10 94 345 12 29
11ème échelon 342 5 99 358 13 42

Le résultat de cette politique se constate aisément sur l’évolution de mes salaires jusqu’en 2009, le montant 2014 étant une extrapolation de ma rémunération probable en tant que catégorie C (c’est assez facile, il suffit de lire la grille indiciaire) :

Évolution réelle du traitement d'un fonctionnaire catégorie C entre 1994 et 2014, rapporté au SMIC

Évolution réelle du traitement d’un fonctionnaire catégorie C entre 1994 et 2014, rapporté au SMIC (base 100)

On le voit, la progression des salaires par rapport au SMIC stoppe vers 2000. Jusqu’en 2005, l’augmentation des primes suppléé la baisse du traitement, puis l’ensemble baisse. Aujourd’hui, le traitement hors primes d’un fonctionnaire catégorie C avec 20 ans d’ancienneté est donc équivalent à ce qu’il était en début de carrière, à environ 109% du SMIC.

Si le gouvernement décide de supprimer l’avancement et l’augmentation des primes (qui, soit dit en passant, n’augmentent plus non plus, malgré la mise en place partielle des primes au mérite (PFR) censées motiver les fonctionnaires), il supprimera les seuls leviers qui permettent à l’État, depuis 20 ans au moins, de stabiliser le niveau de vie individuel des fonctionnaires (si l’on ne tient pas compte de l’augmentation des cotisations, puisque le raisonnement s’est fait sur des montants bruts). Le niveau de vie collectif, quant à lui, est en baisse constante par la non revalorisation de l’indice et de la grille indiciaire par rapport au SMIC (voir 1er graphique).

Un gel de l’avancement dans la fonction publique n’aura d’autre conséquence que d’augmenter mécaniquement le traitement du million de fonctionnaires proches du SMIC à chaque revalorisation de ce dernier. Par effet cliquet, l’évolution du SMIC multipliera le nombre de smicards dont il faudra alors également revaloriser le traitement. Le problème ne se limitera pas aux personnels de catégorie C, puisque la grille indiciaire B débute aujourd’hui sous la grille indiciaire C : Alors qu’un personnel catégorie C débute à l’indice majoré 316 à 1463,17 €, un cadre catégorie B débute à l’indice 312 avec une rémunération brute de 1444,65 € (73 centimes sous le SMIC). Avec une revalorisation du SMIC de l’ordre de 1,2% par an, le phénomène devrait toucher les cadres de catégorie A d’ici 6 ou 7 ans. Si cela dure, je devrais être touché d’ici une dizaine d’années, j’aurai alors 30 ans d’ancienneté.

Les mesures mises en place pour assurer le pouvoir d’achat  peuvent être considérée comme un signe de prise en compte du problème par l’État. Mais ne nous y trompons pas, tout est fait pour que les fonctionnaires n’y aient pas droit, notamment par le biais de la période de 4 ans sans revalorisation salariale pour pouvoir y prétendre, laquelle correspond généralement à la durée maximale d’un échelon.

Voilà, si vous voulez en discuter ailleurs qu’au comptoir, autant le faire en connaissance de cause.

Trackers sur Internet

Trackers sur InternetLes trackers, ce sont des programmes installés sur les sites que vous visitez, souvent dissimulés derrière des images (les liens vers les réseaux sociaux par exemple) et destinés à suivre vos pérégrinations sur les internets, le plus souvent pour vous refourguer des publicités « ciblées« . Mais c’est aussi à cause d’eux que votre vie privée est mise à nu, sans que vous ne sachiez vraiment ce qui est conservé, dans quel but précis, ni dans quelles conditions une certaine confidentialité est préservée.

Sur mes sites, je m’efforce de n’intégrer aucun tracker en essayant d’héberger tous les services dont j’ai besoin ou envie (exception faite de quelques vidéos dailymotion que je finirai bien par auto-héberger), par respect envers les quelques visiteurs ayant le courage de lire ma prose ou regarder mes photos sous licence Creative Commons. Pour la plupart de mes sites, ce n’est pas très compliqué : je les code moi-même, ce qui exclut tout problème.

En ce qui concerne ce blog, c’est différent : il s’agit d’un CMS open-source, le célèbre moteur de blog WordPress : il est open-source, répandu, fiable, adaptable, propose des centaines de greffons facilement utilisables… Bref, beaucoup de qualités qui ont orienté mon choix.

Sortez les trackers par la porte, ils entrent par la fenêtre

Las, en explorant le code source généré par WordPress, certaines lignes m’ont surpris :

<link rel='stylesheet' id='open-sans-css'  href='http://fonts.googleapis.com/css?family=Open+Sans%3A300italic%2C400italic%2C600italic%2C300%2C400%2C600&#038;subset=latin%2Clatin-ext&#038;ver=3.8.1' type='text/css' media='all' />
<link rel='stylesheet' id='twentytwelve-fonts-css'  href='http://fonts.googleapis.com/css?family=Open+Sans:400italic,700italic,400,700&#038;subset=latin,latin-ext' type='text/css' media='all' />

Il s’agit d’appels vers un service Google permettant de gérer les polices de caractère du blog, ce qui est à mon sens inutile. Cette « fonctionnalité » a été ajoutée en douce par les développeurs de WordPress et permet potentiellement à Google de suivre vos pérégrinations sur ce site. Je trouve qu’ajouter des services tiers propriétaires, connus comme trackers, dans un projet open source est  un peu cavalier, surtout en l’absence de communication sur le sujet. D’autres blogs en parlent déjà, et une réplique est déjà proposée sous forme du greffon Disable Google Font. Elle a été mise en place sur blog.00ced.fr, le code source semble à nouveau propre : Il s’agit maintenant de rester vigilant.

Adunblock, une mauvaise réponse à un problème mal posé

Du génocide de la publicité sur les internets

Amis webmasters, vous qui appuyez votre modèle économique sur la publicité, permettez-moi de vous parler de la guerre que vous déclarez aux bloqueurs de publicités, vue par l’utilisateur que je suis.

Au tout début était le popup. Idée géniale permettant d’ouvrir de nouvelles fenêtres sans action de la part de l’internaute, basée sur un nouveau langage permettant d’animer les pages web : Javascript.

Nous sommes à l’aube du XXIe siècle lorsqu’un modèle économique simple et pérenne se développe sur cette technologie. Ainsi vinrent LES popups et, histoire de surprendre les victimes internautes jusqu’au bout, les pop-unders. Fenêtres que devaient fermer les internautes (avec confirmation parfois souvent), lesquels tentèrent tant bien que mal de se défendre à l’aide d’anti-popups plus ou moins efficaces.

Le premier génocide des publicitaires et leurs affiliés débuta en 2005, avec l’arrivée conjointe d’Internet Explorer 6 SP2 et de Firefox, tout deux affublés d’un anti-popup intégré à l’efficacité redoutable. Ne souhaitant pas remettre en cause leur modèle économique, les publicitaires cherchèrent avec plus ou moins de bonheur, à contourner ces systèmes mis en place par défaut sur les nouveaux navigateurs. Et moururent. Euh ben non en fait : ils ont juste chouiné un peu sur le comportement peu civique des internautes qui allait, pour sûr, tuer le web. Et ils se sont adaptés.

Quand l’Histoire des internets a des hoquets

L’avènement de nouvelles technologies basées sur Javascript et sur le web dynamique (à l’aide de l’évolution de HTML, CSS, Javascript, les requêtes « AJAX », Flash, et leur support par les navigateurs) et la généralisation de l’ADSL, permettait déjà aux régies de pub  d’afficher du contenu dynamique à même la page, parfois en surimpression du site visité, avec machins multimédia particulièrement pénibles. Parmi mes préférés, il y a la vidéo qui démarre automatiquement en faisant un barrouf de tous les diables sans prévenir, situation d’autant plus drôle lorsqu’elle émane d’un des 18 onglets ouverts, si possible au boulot.

C’est l’agressivité même envers l’internaute, la même qui a généralisé l’emploi des anti-popups, qui est à l’origine de l’avènement des bloqueurs de publicités et autres contenus flash, pas la publicité en elle-même à laquelle tout un chacun est habitué sur d’autres supports. Le succès des systèmes anti-pub auprès des internautes est du seul fait de ceux qui, par leurs abus répétés, ont contraint les gens à se défendre.

De l’inutilité de résister

L’inutile riposte des webmasters se multiplie ces derniers temps : messages d’avertissement, blocage du site, on sent la tension monter, mais aussi la course à l’armement s’accélérer : Adblock engendre une série de répliques telles qu’Adunblock qui affiche un message ou bloque l’accès au site, d’autres systèmes redirigent l’internaute vers une page éducative. Ces systèmes sont contrés sans difficulté par une multitudes de greffons tels Request Policy qui interdit les requêtes vers des sites tiers, ou par stylish qui, par le biais d’une modification des styles, permet de cacher certains éléments d’une page. Une dernière astuce consiste à faire passer son navigateur pour un bot.

empécher l'affichage de adunblock
« Stylish »  permet de modifier les styles CSS des sites. Ici, la fenêtre modale d’avertissement est rendue semi-transparente.

D’autres systèmes retournent une page d’information à l’intention des internautes :

Site qui bloque les internautes utilisant Adblock : je ne le visiterai donc pas, ne pourrai pas partager des liens vers ses articles.
notre-planete.info bloque les internautes utilisant Adblock : je ne le visiterai donc pas, n’en connaîtrai pas l’intérêt ni ne partagerai des liens vers ses articles : ce blocage n’offre aucune plus-value au site, tout en diminuant sa visibilité. Le contournement de protections de ce type est par ailleurs trivial.

Là où ces blocages confinent à la débilité, c’est lorsqu’ils touchent des sites de commerce en ligne : il m’est par exemple impossible de commander sur le site Eveil et jeux. S’ils ne veulent pas vendre, qui suis-je pour insister ?

Oui, mais sur mon site, la publicité affichée est « soft ». Alors, tu peux l’afficher juste pour mon site s’teuplé ?

Sauf que oui, mais non.

On parlait d’abus un peu plus haut. Ce n’est pas fini : Parallèlement à ce qui précède, les marketeux ont développé des technologies dites de « tracking » , que l’on retrouve chez les publicitaires, les sites à gros trafic comme les réseaux sociaux, ou les sites de statistiques (Google Analytics, XITI…). Ce tracking est destiné à déterminer le profil de l’internaute pour lui envoyer de la publicité ciblée : ainsi la pub affichée ne dépend plus de la thématique du site, mais bien du profil de l’internaute.

Moi, je m’en fous, je n’ai rien à cacher

Moi non plus. Mais je distingue ce que je considère comme ma sphère privée, qui ne regarde que moi ou mes proches, de ma vie publique pour laquelle j’accepte de dévoiler certains aspects de ma personnalité ou de ma vie. Facebook a toutes les chances de vous connaître, peut-être même votre visage même si vous n’y êtes pas abonné, Apple a vos empreintes digitales et Androïd devrait probablement bientôt enregistrer vos empreintes rétiniennes Ces deux dernières entreprises savent où vous étiez, quels que soit le jour ou l’heure grâce à votre téléphone. Google commercialise des lunettes connectées qui espionneront vos faits et gestes en permanence, développe actuellement des outils de diagnostics médicaux connectés, Microsoft a déposé un brevet destiné à compter les personnes qui regardent la télé par le biais de leur caméra kinect. Ajoutez-y la reconnaissance faciale déjà active chez Facebook… Tous ces outils sont capables de dresser un profil de votre santé, vos loisirs, vos penchants sexuels ou religieux.

Google, pour ne prendre que cet exemple, exploite à la fois vos recherches par le biais de son moteur, vos goûts musicaux et en matière de vidéo via Youtube et ses services de musique, vos prochains achats par le biais de son service shopping, d’adsense ou d’analytics, vos correspondants (et ce que vous leur dites) par le biais de Gmail, l’agenda ou d’autres services. Il sait où et quand vous vous déplacez, à qui vous téléphonez grâce à son système Androïd. Pour peu que vous utilisiez Chrome tellement plus rapide (essayez Firefox avec Adblock, ça revient au même), il connaît même les pages exemptes de trackers que vous visitez. Son nouveau système d’identification unique lui permet de recouper ensuite toutes ces informations : Google connaît la destination de votre prochain voyage avant même que vous n’y ayiez pensé, sait si vous trompez votre conjoint, avec qui, quand et comment. Il sait où vous travaillez et probablement dans quelle branche.

Un mien collègue s’est vu proposé « aller au travail » par le GPS de son téléphone Androïd, alors même qu’il n’avait jamais déclaré son lieu de travail sur ce dernier : sa simple position géographique corrélée à des horaires a permis aux trackers de Google de déterminer « maison » et « travail » .

Tout ça pour vendre de la publicité ciblée.

Et savez-vous ce qu’ils en font et à qui ils les revendent ? Moi non plus, et cela m’inquiète : qui vous certifie que votre profil médical ou fiscal resteront confidentiel ? Ce que vous refuseriez de donner à un État en l’estimant, à juste titre, totalitaire, vous le donnez sans vous poser de questions quant aux tenants et aboutissants aux publicitaires (et aussi à l’État étazunien).

Last but not least

Depuis que j’ai disparu des radars des publicitaires, je ne reçois plus de mails non sollicités émanant de sociétés françaises que je ne connais pas, indiquent m’écrire suite au partenariat avec je ne sais qui  et qui me demandent de me désinscrire de leur liste pour ne plus être importuné : il n’y a plus de croisement de données, donc plus de spams.

Par ailleurs, le chargement des pages web est beaucoup plus rapide une fois les requêtes expurgées de tout le superflu : c’est très sensible sur les connexions un peu lentes.

Oui mais… Beaucoup de sites vont mourir sans publicité !

Vos visiteurs sont vos produits, pas vos clients. Déclarer la guerre à ses produits n’a aucun sens. Si votre modèle économique ne fonctionne pas, il est mauvais. Vos produits ne sont pas responsables de vos choix stratégiques ni n’ont aucune obligation de télécharger l’intégralité du contenu que vous proposez sur vos pages. Ce n’est pas en les admonestant comme des gosses mal élevés que votre modèle économique deviendra meilleur.

Restent deux possibilités : ou le nombre d’internautes visitant votre site et utilisant Adblock est négligeable et il n’y a aucune raison de leur déclarer la guerre, ou ce nombre devient trop important, et il va falloir réfléchir à un nouveau modèle économique.

Soyons clair : pour la plupart des sites, il sera difficile voire impossible de transformer leurs produits en clients par le biais du modèle payant traditionnel (par abonnement mensuel ou annuel) : ce modèle convient à des sites à forte valeur ajoutée, pas à des sites dont le contenu n’est pas assez exclusif pour justifier un abonnement : l’offre est pléthorique et l’information souvent redondante, c’est le principe du web.

Je suis personnellement abonné à l’excellentissime Arrêt sur Images ainsi qu’à PCInpact pour son contenu rédactionnel et l’absence de publicités pour ses abonnés. Je tenterais bien MediaPart si la procédure de résiliation n’était pas aussi compliquée. Et ça n’ira pas beaucoup plus loin.

Une solution serait de s’orienter vers un système mutualisé de micro-paiement, lequel permettrait de laisser le choix aux internautes entre une visite gratuite avec pub ou le paiement de quelques dixièmes de centimes à quelques centimes par article ou session de xx minutes (compensant en gros, l’équivalent de l’apport publicitaire), par le biais d’un porte-monnaie électronique. Des sommes absolument indolores, prélevées plus ou moins automatiquement à partir d’un portail unique pour l’ensemble des sites concernés.

C’est, à mon sens et en l’absence de toute forme de déontologie dans le milieu publicitaire, la seule porte de sortie. Mais je peux me tromper.

île de Ghoramara

En passe de devenir le nouveau symbole du réchauffement climatique avec les premiers (enfin) réfugiés climatique, elle est devenue célèbre notamment grâce à une (très belle) série de portraits  du photographe coréen DaeSung Lee, lauréate du Sony World Photography Awards 2013.

Le texte accompagnant ces clichés, repris quasiment in extenso par de nombreux sites, fait état de la disparition de cette île à cause de la montée des eaux des océans due au réchauffement climatique :

L’île de Ghoramara se situe à l’Ouest du delta du Bengale. Suite au réchauffement climatique et à l’élévation du niveau de la mer qui a débuté dans les années 60, le rivage de cette île est emporté, petit à petit, à chaque marée. Depuis les années 80, c’est plus de 50% du territoire de l’île qui a disparu et 2/3 de la population qui a dû quitter l’île.

Les 2 000 habitants de l’île sont pour la plupart des paysans ou des pêcheurs. Ils dépendent pour leur subsistance des ressources de l’île. D’ici 20 à 25 ans, le gouvernement indien pourrait décréter l’abandon de l’île. Un plan d’évacuation des habitants vers l’île de Sagar est déjà prêt. Pour autant, ce plan ne prévoit aucune indemnisation qui puisse aider les habitants à refaire leur vie.

Comme je suis curieux et que tout ça me paraît un peu étrange, je me suis amusé à googler pour trouver ce qu’était cette mystérieuse île en voie de disparition à cause de la montée des eaux.

Où se situe cette île ?

Première surprise, elle ne se situe pas en mer, mais dans le delta d’un défluent du Gange, la Hooghly.

Deuxième surprise, cette île n’est pas isolée : l’île de Sagar en aval, est celle vers laquelle les habitants de Ghoramara seraient évacués : il semble pour le moins étrange qu’une île proche, donc sans doute géologiquement similaire, plus près de la mer, ne souffre pas elle aussi de l’élévation du niveau des océans.

Il est donc permis de se demander comment la montée des eaux des océans peut expliquer la disparition d’une île fluviale située en amont d’une autre île qui ne semble pas touchée par le même phénomène.

Que montrent le photos ?

Extrait d'une photo de Daesung Lee

Extrait d’une photo de Daesung Lee : érosion de l’île

Indubitablement, les photos montrent une érosion des terres, avec des traces caractéristiques que l’on retrouve sans peine dans les méandres des rivières de plaine : les terres ne semblent donc pas passer sous le niveau de l’eau, mais simplement s’éroder.

Comment expliquer cette érosion ?

Une recherche « Hooghly barrage » mène directement au barrage de Farakka, le plus gros jamais construit sur le Gange, construit dans les années 60, et qui a passablement modifié le cours et le débit du fleuve, à tel point que la salinité pose des problèmes halieutiques, et par là même, l’accès aux poissons pour la population locale.

Alors ?

Il ne semble pas totalement déraisonnable d’attribuer au moins partiellement l’érosion de l’île à la modification profonde du comportement du fleuve dont elle dépend, par la raréfaction des alluvions, la disparition des crues ou la variation du débit qui avaient contribué à créer et consolider l’île.

Le travail de Daesung Lee, ostensiblement orienté, s’appuie semble-t-il sur une source unique, Greenpeace , qui a publié un article en 2006 mentionnant pour la première fois l’érosion de Ghoramara à cause de la hausse du niveau des océans. Cet article fut suivi de plusieurs rappels au fil du temps (2010 par exemple) et par des actions du WWF dès le début des années 2010, toujours sans le succès attendu pour une telle révélation.

L’unicité même de la source et l’orientation catastrophiste de cette dernière vis à vis du réchauffement climatique, devraient inciter tout bon journaliste à prendre l’information avec précaution. Par ailleurs, même si corrélation n’est pas causalité, la concomitance de la disparition de l’île et de la construction d’un barrage en amont mérite certainement que l’on s’y attarde. Enfin, la disparition des Sundarbans (mangroves) qui ont donné leur nom à ces îles, incite à penser que  l’arrachage de ces dernières et d’autres facteurs favorisant l’érosion pourraient également expliquer l’ampleur du phénomène.

Alors, les réfugiés de Ghoramara, réfugiés climatiques ou simplement réfugiés à cause de modifications incontrôlées du bassin de la Hooghly  ?

 

Al Gore : « La banquise pourrait entièrement disparaître d’ici cinq ans »

C’est un article du Point qui nous informe que le détenteur du Prix Nobel de la Paix 2007 tire la sonnette d’alarme : « La crise  climatique est nettement plus grave et rapide que ne l’ont montré les projections les plus inquiétantes du Groupe intergouvernemental d’experts sur le climat (Giec) » . De fait, « certaines projections montrent désormais que la banquise pourrait entièrement disparaître au pôle Nord, d’ici cinq ans. »

Par ailleurs, les scientifiques de la goélette Tara précisent que les glaces ont fondu 3 fois plus vite que prévu tout en observant « une nette diminution de l’épaisseur de la banquise » : Or, comme l’expliquait Al Gore dans le film de David Guggenheim Une vérité qui dérange , moins l’océan est recouvert de glace, moins il réfléchit la chaleur, plus il se réchauffe, plus les glaces fondent, moins l’océan est recouvert de glace… Un cercle vicieux.

L’article date de janvier 2008. Voilà l’état de la banquise Arctique aujourd’hui :

Sea_Ice_Extent_L_june_2013

Il reste encre un peu de banquise – cliquez sur l’image pour l’agrandir

La question que l’on peut se poser, c’est pourquoi croire les vendeurs d’apocalypse aujourd’hui, lorsqu’on voit leurs affabulations d’hier ?

Sécurité routière : premier bilan des radars embarqués

Le Point publie un article sur l’avenir des politiques de sécurité routière. 4 mois après la mise en place des radars embarqués (dits mobiles-mobiles), c’est l’heure des premiers bilans de ce dispositif. Selon Frédéric Péchenard, délégué interministériel à la Sécurité routière, « Les chiffres parlent d’eux-mêmes : sur une zone de 8 km autour d’un tel radar, l’accidentalité baisse en moyenne de 63 % » .

Voici donc le retour de la vengeance de l’effet magique du radar : voici un dispositif décrit comme mobile et indétectable, utilisés depuis 4 mois seulement et qui montre une efficacité redoutable dans un rayon de 8 km. L’histoire ne dit pas si, en plus, le radar mobile-mobile  fait revenir l’être aimé, garantit richesse et santé ou intensifie la repousse des cheveux.