Le blog de Laurent GUERBY

vendredi 21 février 2014

Campagne d'adhésion à l'APRIL

J'ai cité dans mon dernier billet de 2013 mes engagements citoyens, l'APRIL est un des plus anciens avec une adhésion le 26 novembre 2000, numéro d'adhérent 79, 4 ans après sa création.

Lors l'assemblée générale 2013 de l'APRIL j'ai été élu par les adhérent(e)s au conseil d'administration de l'APRIL avec le titre de Vice-Président.

Pourquoi cet engagement ?

L'APRIL est une association militante du logiciel libre, dans l'histoire le logiciel est le premier domaine ou le concept de libre a fait son apparition pour ensuite s'étendre a bien d'autres domaines comme les données libres, les cartes libres, le matériel libre, le réseau libre, l'énergie libre, etc... L'APRIL a fait le choix il y a quelques années de passer d'un mode bénévole à un mode ou les cotisations financent des permanents qui sont donc disponibles pour le travail de fond de l'association incluant les inévitables rencontres en horaire de bureaux qui sont difficilement gérables en bénévoles lors que leur volume augmente. Après un pic a 5000 adhérent(e)s la crise est passée par la et la baisse du volume de cotisation restreint les capacités de l'APRIL à agir, l'association a donc lancé une nouvelle campagne d'adhésion :

Le logiciel libre est en effet la première étape du combat pour le maintien de la vie privée : comment s'assurer que nos nombreux compagnons électroniques ne nous trahissent pas si nous ne savons pas comment ils fonctionnent ? Le logiciel libre amène la transparence nécessaire pour que vos amis orientés vers la technique puisse analyser le code source du logiciel et prévenir toute porte dérobée. Il reste du travail à faire en sensibilisation et en développement (éditeurs de documents collaboratifs en ligne) d'ou l'intérêt de soutenir l'APRIL.

Mais ce ne sont pas les dossiers qui manquent, dans la vie publique l'APRIL est en pointe sur l'épineux dossier Défense et Open Bar Microsoft ou la puissance publique sacrifie la sécurité et la souveraineté nationale et le développement économique local au profit d'une société qui ne paie que trop peu d'impot en France via des montages fiscaux peu éthiques.

L'APRIL accompagne et analyse au jour le jour les initiatives et celles et ceux qui découvrent les problèmes des logiciels privateurs par exemple dans le domaine de l'éducation ou Rémi Boulle pose les bonnes questions.

Faisons en sorte que l'APRIL gagne les moyens d'agir grace a nos adhésions !

mardi 31 décembre 2013

Engagements citoyens

Je viens de mettre à jour la section "Citizen" de ma page personnelle

Avec un peu de recul le fil conducteur de ces projets est la transparence citoyenne, particulièrement tetaneutral.net et regards citoyens mais pas seulement.

L'année 2014 sera l'occasion pour moi de développer mes idées sur le sujet sur ce blog, en attendant bon reveillon a toutes et a tous.

mardi 24 janvier 2012

Assemblée générale de l'association tetaneutral.net à Toulouse le lundi 30 janvier 2012

L'association tetaneutral.net organise sa première assemblée générale le lundi 30 janvier 2012 à Toulouse.

Les visiteurs sont bienvenus, le programme et les détails sont sur le site web de l'association.

samedi 21 mai 2011

Conférences tetaneutral.net à Toulouse les 25 et 29 mai 2011

L'association tetaneutral.net donnera deux conférences à Toulouse cette semaine sur son projet :

Le mercredi 25 mai 2011 a 20h, Rencontre Logiciels Libres et présentation "Tetaneutral.net, comment fonctionne Internet ?" organisée par Toulibre au Centre Culturel Bellegarde, 17 rue Bellegarde à Toulouse :

Laurent Guerby vous presentera le projet et les réalisations de l'association tetaneutral.net. Pour promouvoir la compréhension de l'internet et de ses enjeux par un large public l'association tetaneutral.net a décidé de devenir membre à part entière de ce réseau en exerçant les fonctions de fournisseur d'accès à internet, d'hébergeur internet et d'opérateur sous forme associative et sans but lucratif sur Toulouse et sa région. tetaneutral.net est aussi membre fondateur de la fédération FDN. Au travers de cette présentation, Laurent donnera des détails sur le fonctionnement du réseau Internet au niveau des opérateurs et comment Tetaneutral est devenu un opérateur à part entière. Une excellente occasion de mieux comprendre le fonctionnement interne du réseau planétaire.

Et une autre conférence le dimanche 29 mai à 17 heures Le projet tetaneutral.net à Mix'Art Myrys 12 rue Ferdinand Lassalle à Toulouse dans le cadre du Toulouse Hackerspace Factory organisée par le hackerspace toulousain tetalab :

L'internet est un réseau informatique mondial, souvent appelé le réseau des réseaux. Il est un enjeu social et politique majeur avec près de deux milliards d'utilisateurs dans le monde et il mets en oeuvre des sciences et techniques a un niveau avancé. Pour promouvoir la compréhension de l'internet et de ses enjeux par un large public l'association tetaneutral.net a décidé de devenir membre à part entière de ce réseau en exerçant les fonctions de fournisseur d'accès à internet, d'hébergeur internet et d'opérateur sous forme associative et sans but lucratif.

dimanche 31 janvier 2010

Larry Summers lit mon blog !

Larry Summers a déclaré selon la BBC :

The US president's economic advisor Larry Summers, also in Davos, called the level of unemployment in the US "disturbing".

He suggested there had been a fundamental shift in the US economy. "At the moment just one in five men in the US between 25 and 54 aren't working" he said.

Mr Summers warned that assuming there was a reasonable recovery, that number could rise to one in seven. That compares to 95% employment in the 1950s, suggesting a "profound change" in the structure of the US economy.

"This is a statistical recovery but still a human recession," he said.

Et en effet si on graphe le taux de sans emploi parmis la population des hommes de 25 a 54 ans aux USA (source BLS, sans ajustement saisonnier) :

Le dernier point en decembre 2009 donne 19.7% de sans emploi soit 12.2 millions d'hommes agés de 25 a 54 ans qui ne travaillent pas sur une population civile non institutionnelle de 62.1 millions. Comme ce taux a tendance historiquement a augmenter en janvier et février il devrait mécaniquement dépasser les 20% soit un sur cinq.

Je n'ai pas mis les emplois "a temps partiel" (moins de 35 heures par semaine selon le BLS) mais la série commence en 1986 autour de 4% et est actuellement à son maximum historique de 6.5% d'employés a temps partiel, soit plus de 26% des hommes de 25 a 54 ans qui n'ont pas d'emploi a temps plein.

Le taux de chomage officiel publié par le BLS pour cette population est lui de 9.9%, soit la moitié du taux de sans emploi.

La situation des femmes de 25 a 54 ans n'est pas meilleure, le pourcentage qui ne travaillait pas en décembre 2009 est de 30.9% soit 19.6 millions sur une population de 63.5 millions. La courbe de sans emploi des femmes de 25 a 54 ans descends depuis 1948, a atteint un minimum puis remonte maintenant : il faut remonter a mars 1988 pour retrouver le niveau de décembre 2009 soit deux décennies de gains effacée par la crise actuelle. Le taux de chomage officiel de cette population est lui de 7.6%.

Et bien sur toutes les autres catégories de population sont moins bien loties donc le 19.7% pour les hommes de 25 a 54 ans est un minimum.

Pour référence Eurostat donne pour la France au 3ème trimestre 2009 (les données mensuelles ne sont disponibles que pour le chomage ...) une population de 12.1 millions d'hommes de 25 a 54 ans, avec un taux de sans emploi de 12.3%, soit un homme sur 8 sans emploi, et un taux de chomage de 6.9% pour cette population via "LFS series - Detailed quarterly survey results / Total Population / Population by sex, age groups, nationality and labour status (1000)". Pour les femmes de 25 a 54 ans la population est de 12.5 millions, le taux de sans emploi de 23.3% et le taux de chomage de 8.2%, donc on retrouve pour cette population une inversion de type "plus de personnes travaillent mais le chomage est plus elevé" déja décrite dans ce blog (données de chomage non normalisées par l'OECD cependant, je n'ai pas trouvé de données récentes OECD).

Et l'INSEE lit ausi mon blog :) dans une publication intitulée Le « halo » du chômage : entre chômage BIT et inactivité on peut trouver quelques statistiques interessantes sur la différence entre les chomeurs et "les inactifs souhaitant travailler" (cela ne s'invente pas) :

  • 23.1% des chomeurs a un trimestre donné ont retrouvé un emploi le trimestre suivant, contre 14.1% des "inactifs souhaitant travailler" : il y a un écart entre les deux populations mais il n'est pas si grand.
  • si on regarde la situation de ceux qui ont un emploi 2.0% etaient chomeurs au trimestre précedent mais 0.4% etaient des "Inactif souhaitant travailler" et ... 1.3% des "Inactif ne souhaitant pas travailler" donc au total de ceux qui entrent dans l'emploi 2.0% sont chomeurs et 1.7% sont inactifs, la différence est très faible a 54% contre 46% dans la population accédant a un emploi.

L'attention est actuellement focalisée sur le taux de chomage mais si les "inactifs" sont oubliés le risque est grand de faire des erreurs de diagnostic et donc de ne pas trouver les bonnes solutions à la crise.

Billets précédents sur ce thème :

jeudi 3 décembre 2009

Conférence logiciels libres grand public sur Toulouse

Ce samedi 5 décembre Benjamin Bayart, président de French Data Network, fournisseur d'accès a internet associatif donnera une conférence ouverte au grand public à Toulouse :

Pour référence le blog de FDN vient d'ouvrir avec un premier billet intitulé "Intéressante question: les photos de Google Street View" qui donne matière à reflexion.

Benjamin Bayart est aussi connu pour sa conférence "Minitel 2.0" dont la vidéo a été vue plus de 300 000 fois.

Le cycle de conférence grand public durera de 14h a 20h30 avec un panel de conférenciers exceptionnel :

  • Pierre-Yves Gosset de Framasoft vous introduira aux logiciels libres
  • Nicolas Barcet de Canonical la compagnie derrière la distribution Linux Ubuntu
  • Alix Cazenave chargée des relations institutionnelles de l'APRIL sur pourquoi aller voir vos élus et comment les aborder sur le sujet des logiciels libres et bien communs
  • Jesús Muñoz sur l'édition multimédia son et vidéo sous Linux
  • Thierry Stoehr, président de l'AFUL sur les formats ouverts.
  • Et enfin a 19h30 Jérémie Zimmermann de La Quadrature du Net et Benjamin Bayart de FDN sur les enjeux d'internet.

Ces conférences en accès gratuit se dérouleront dans le locaux de l'ENSEEIHT 2 rue Charles Camichel en plein centre de Toulouse :

Venez nombreux à cette manifestation organisée par l'association Toulibre !

vendredi 27 novembre 2009

Climat, science et transparence

Le jeudi 19 novembre des plaisantins se sont amusés a mettre sur le net les courriels privés de la CRU - Climatic Research Unit.

George Monbiot dans un article intitulé "The Knights Carbonic" publié par the Guardian identifie quelques courriels dont deux (1 2) montrant les efforts spécifiques des membres de la CRU pour ne pas avoir a rendre disponible au public les données et code source sous tendant leurs études.

La communauté étudiant le climat terrestre est en effet depuis quelques années sur la défensive sur la mise a disposition du public de ces données brutes et codes sources, surtout après les efforts de Stephen McIntyre et de quelques autres.

On peut retrouver un historique d'une de ces démarches pour que le public puisse avoir accès aux données et codes, historique éclairé par les courriels rendus publics dans cet article.

Ne pas rendre ces données et codes publics n'est déja pas très "scientifique" car la science est basée sur la reproduction critique des résultats et avec l'internet tel qu'on le connait maintenant le cout de mise a disposition a tous est nul. Mais en plus vu que cette communauté demande sur la base de données et de code qu'elle garde totalement secrete un changement de politique majeur, douloureux et mondial on nage dans le ridicule total.

Heureusement, certains membres de la communauté du climat commencent a critiquer de l'intérieur cette obscurité tenace et déplacée par exemple Judith Curry :

What has been noticeably absent so far in the ClimateGate discussion is a public reaffirmation by climate researchers of our basic research values: the rigors of the scientific method (including reproducibility), research integrity and ethics, open minds, and critical thinking. Under no circumstances should we ever sacrifice any of these values; the CRU emails, however, appear to violate them [...]

If climate science is to uphold core research values and be credible to public, we need to respond to any critique of data or methodology that emerges from analysis by other scientists. Ignoring skeptics coming from outside the field is inappropriate; Einstein did not start his research career at Princeton, but rather at a post office. I’m not implying that climate researchers need to keep defending against the same arguments over and over again. Scientists claim that they would never get any research done if they had to continuously respond to skeptics. The counter to that argument is to make all of your data, metadata, and code openly available. Doing this will minimize the time spent responding to skeptics; try it! If anyone identifies an actual error in your data or methodology, acknowledge it and fix the problem. Doing this would keep molehills from growing into mountains that involve congressional hearings, lawyers, etc. [...]

Lire aussi son message a Climate Audit (quand le serveur sera revenu en ligne) :

Transparency. Climate data needs to be publicly available and well documented. This includes metadata that explains how the data were treated and manipulated, what assumptions were made in assembling the data sets, and what data was omitted and why. This would seem to be an obvious and simple requirement, but the need for such transparency has only been voiced recently as the policy relevance of climate data has increased. The HADCRU surface climate dataset and the paleoclimate dataset that has gone into the various “hockeystick” analyses stand out as lacking such transparency. Much of the paleoclimate data and metadata has become available only because of continued public pressure from Steve McIntyre. Datasets that were processed and developed decades ago and that are now regarded as essential elements of the climate data record often contain elements whose raw data or metadata were not preserved (this appears to be the case with HADCRUT). The HADCRU surface climate dataset needs public documentation that details the time period and location of individual station measurements used in the data set, statistical adjustments to the data, how the data were analyzed to produce the climatology, and what measurements were omitted and why. If these data and metadata are unavailable, I would argue that the data set needs to be reprocessed (presumably the original raw data is available from the original sources). Climate data sets should be regularly reprocessed as new data becomes available and analysis methods improve. There are a number of aspects of the surface climate record that need to be understood better. For example, the surface temperature bump ca. 1940 needs to be sorted out, and I am personally lacking confidence in how this period is being treated in the HADCRUT analysis.

In summary, given the growing policy relevance of climate data, increasingly higher standards must be applied to the transparency and availability of climate data and metadata. These standards should be clarified, applied and enforced by the relevant national funding agencies and professional societies that publish scientific journals.

Un peu de bon sens donc. Et au vu des caractériels qui sévissent dans la communauté, beaucoup de courage pour mettre sa carrière dans la balance.

Le sujet de la mise a disposition au public des données prends forme dans beacoups de domaines.

Liens utiles :

PS : je n'ai rien vu sur le café des sciences, je suis preneur de liens sur la blogosphère scientifique française.

Ajout 20091128 1202 : quelques liens (merci aux commentateurs)

Ajout 20091130 0954 : le bon sens semble se répandre :

Leading British scientists at the University of East Anglia, who were accused of manipulating climate change data - dubbed Climategate - have agreed to publish their figures in full. The U-turn by the university follows a week of controversy after the emergence of hundreds of leaked emails, "stolen" by hackers and published online, triggered claims that the academics had massaged statistics.

In a statement welcomed by climate change sceptics, the university said it would make all the data accessible as soon as possible, once its Climatic Research Unit (CRU) had negotiated its release from a range of non-publication agreements.



The publication will be carried out in collaboration with the Met Office Hadley Centre. The full data, when disclosed, is certain to be scrutinised by both sides in the fierce debate.

A grandfather with a training in electrical engineering dating back more than 40 years emerged from the leaked emails as a leading climate sceptic trying to bring down the scientific establishment on global warming.

David Holland, who describes himself as a David taking on the Goliath that is the prevailing scientific consensus, is seeking prosecutions against some of Britain's most eminent academics for allegedly holding back information in breach of disclosure laws.

Mr Holland, of Northampton, complained to the Information Commissioner's Office (ICO) last week after the leaked emails included several Freedom of Information requests he had submitted to the CRU, and scientists' private responses to them.

Within hours, a senior complaints officer in the ICO wrote back by email: "I have started to examine the issues that you have raised in your letter and I am currently liaising with colleagues in our Enforcement and Data Protection teams as to what steps to take next." [...]

SCIENTISTS at the University of East Anglia (UEA) have admitted throwing away much of the raw temperature data on which their predictions of global warming are based.

It means that other academics are not able to check basic calculations said to show a long-term rise in temperature over the past 150 years.

The UEA’s Climatic Research Unit (CRU) was forced to reveal the loss following requests for the data under Freedom of Information legislation.

The data were gathered from weather stations around the world and then adjusted to take account of variables in the way they were collected. The revised figures were kept, but the originals — stored on paper and magnetic tape — were dumped to save space when the CRU moved to a new building. [...]

lundi 12 octobre 2009

Et de trois : Elinor Ostrom et Oliver Williamson primés

Pour la troisième année consécutive l'édition 2009 du Prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué à des économistes plutot critiques de certains aspects de la propriété intellectuelle :

Elinor Ostrom Indiana University, Bloomington, IN, USA, "for her analysis of economic governance, especially the commons" and Oliver E. Williamson University of California, Berkeley, CA, USA, "for his analysis of economic governance, especially the boundaries of the firm"

Lire par exemple Ideas, artifacts, and facilities: information as a common-pool resource co-écrit par Ostrom, je cite :

There is an increasing concern about the implications of recent and impending legislation on the future of academic research, open science, traditional knowledge, and the intellectual public domain. The Duke Law School Conference on the Public Domain brought together, for the first time, an interdisciplinary group of leading scholars studying the increasing enclosure1 of the global information commons. In the past five years, law review articles have described an information arms race from various perspectives, with multiple sides battling for larger shares of the global knowledge pool. Information that used to be "free" is now increasingly being privatized, monitored, encrypted, and restricted. The enclosure is caused by the conflicts and contradictions between intellectual property laws and the expanded capacities of new technologies.3 It leads to speculation that the records of scholarly communication, the foundations of an informed, democratic society, may be at risk. [...]

Je suis preneur d'autres liens (les articles de Williamson ne semblent pas être en ligne).

Références :

Ajout 20091012 2155: Lire Une bonne nouvelle pour la théorie des Biens Communs par Hervé Le Crosnier, je cite :

Le prix Nobel d’économie a été décerné ce matin à Elinor Ostrom, qui travaille sur les Communs, cette forme spécifique de propriété et de gouvernance qui place les décisions collectives des « communautés » au centre du jeu socio-économique. Cette question des Biens communs a longtemps été ignorée par la science économique, par la politique et par les mouvements sociaux, mais elle est en passe de redevenir un « outil pour penser » majeur.

Le prix Nobel d’économie a été décerné ce matin à Elinor Ostrom et Oliver Williamson. Leurs travaux, quoique très différents, portent non plus sur la modélisation économique, mais sur le « retour au réel ». Ils prennent en compte des interactions humaines en s’échappant du modèle de la « rationalité économique » qui prévaut dans les constructions mathématiques à la mode au cours de la décennie précédente. Après la reconnaissance du travail de Paul Krugman l’an passé et de Mohamed Yunus l’année précédente, c’est à une ré-orientation globale de la recherche en économie que nous assistons. L’économie n’est plus cette théorie univoque qui servirait de hochet aux politiciens en mal d’instruments de pression sur les peuples (le « There is no alternative » de Margaret Tatcher, repris sous toutes ses formes par nos dirigeants néo-libéraux de tous bords depuis presque trente ans). Les décisions des humains de construire ensemble leur mode de production et de trouver des règles qui ne ressemblent pas à l’imagerie du marché afin d’autogérer leur actions communes pourraient revenir au centre de la réflexion. [...]

mercredi 23 septembre 2009

Jugement de la cour d'appel de Paris sur la licence GNU GPL

La FSF France vient de publier un communiqué de presse titré "Une cour d'Appel condamne pour non respect de la GNU GPL", je cite :

Le 16 septembre 2009, la cour d'Appel de Paris, dans un arrêt qui fera jurisprudence, a reconnu coupable la société Edu4 pour ne pas avoir fourni à son client l'AFPA les sources du Logiciel Libre VNC et pour avoir supprimé le texte de la licence GNU GPL. L'auteur de VNC n'était pas impliqué : l'AFPA a fait valoir ses droits en tant qu'utilisateur de Logiciel Libre. [...]

Le texte de l'Arret du 16 septembre 2009, Cour d'Appel de Paris, Pole 5 Section 10, RG n 04/24298 (PDF) précise :

[....] Considérant, de plus, que la société EDU 4 n'a pas remis à l'AFPA les codes sources du logiciel VNC modifié par ses soins, ce qu'elle s'était pourtant engagée à faire dans sa lettre du 15 janvier 2002; que dès lors, c'est en vain que la société EDU4 allègue que l'AFPA disposait d'une livraison conforme à la date du 5 avril 2002;

Considérant qu'il résulte de l'ensemble de ces éléments que la société EDU 4 a manqué à ses obligations contractuelles en livrant en décembre 2001, date à laquelle devait s'apprécier sa conformité, un produit, d'une part qui présentait pour les utilisateurs des EOF des risques d'atteinte à la vie privée, d'autre part qui ne satisfaisait pas aux termes de la licence GNU GPL puisque la société EDU 4 avait fait disparaître les copyrights d'origine de VNC sur les propriétés de deux fichiers en les remplaçant par les siens et avait supprimé le texte de la licence; [...]

La société EDU 4 n'est pas condamnée pour contrefaçon mais à cause de ses errements vis a vis de la licence GNU General Public Licence elle perd un marché public avec des montants en millions d'euros.

La FSF France conclue :

Le chemin reste encore long à parcourir pour que le Logiciel Libre soit respecté dans ses droits et obligations. Il est par exemple impossible, actuellement, d'obtenir les sources de la plupart des équipements électroniques contenant des Logiciels Libres vendus en grande surface. Pour se connecter à internet, des millions de foyers ont également reçu des boîtiers tournant avec des Logiciels Libres mais sans en être avertis. Mais on peut maintenant espérer que cette décision de justice provoque une réelle prise de conscience : d'abord auprès des personnes qui ne remplissent pas leurs obligations de partage et qui y travailleront sans plus attendre ; auprès des utilisateurs, ensuite, qui demanderont, par une mise en demeure si nécessaire, le respect de leurs droits ; et, enfin, auprès des employés qui réclameront à leurs décisionnaires que priorité soit donnée à la mise en conformité.

A ma connaissance c'est le premier jugement a ce niveau sur la GPL, ceux qui essaient de prétendre que cette licence est invalide en droit français devront réviser leur discours.

dimanche 23 août 2009

Confidentialité et inflation

Le gouvernement a répondu a la question sur l'inflation de M. Philippe Folliot, réponse publiée au JO le 18 aout 2009, je cite et je grasse:

L'indice des prix à la consommation est un indicateur de l'évolution « pure » des prix, c'est-à-dire à qualité constante des produits. Sa constitution fait l'objet de recommandations internationales et de plusieurs règlements européens. En France, il est calculé par l'Institut national de la statistique et des études économiques (INSEE) au moyen de 180 000 prix relevés chaque mois pour un échantillon fixe d'un millier de variétés (familles de produits), complété par des données tarifaires, représentatif de l'ensemble des biens et services consommés par les ménages. À partir de ces relevés, des évolutions de prix sont calculées au niveau des variétés puis à des niveaux de plus en plus agrégés (de 305 postes à l'indice d'ensemble) en tenant compte du poids des différents produits dans la consommation des ménages. Les pondérations utilisées sont mises à jour au début de chaque année et publiées au niveau des 305 postes et de leurs regroupements. Pour éviter tout risque de manipulation, la liste des variétés est quant à elle gardée confidentielle. L'échantillon des variétés est le même tout au long de l'année. Il est mis à jour au début de chaque année pour tenir compte de l'apparition de nouveaux produits et des évolutions ou disparitions d'autres produits. À l'occasion de ce renouvellement, l'évolution de la qualité des produits est neutralisée par une double collecte des prix en décembre de l'année précédente pour l'ancien et le nouvel échantillon, ces deux échantillons n'étant donc pas directement comparés. En cours d'année, chacun des 180 000 relevés consiste à suivre le prix d'un même produit (de même marque, de même conditionnement, etc.) dans le même point de vente tout au long de l'année. En cas de disparition d'un produit en cours d'année, les enquêteurs ont pour consigne première de trouver un produit équivalent : les prix sont alors directement comparés, sans aucun ajustement, exactement comme si l'on suivait le même produit. Environ la moitié des remplacements sont faits « en équivalent ». Lorsque le produit de remplacement ne peut pas être considéré comme équivalent (dans la moitié des cas environ), un ajustement de qualité est alors fait pour ne pas tenir compte dans l'indice de ce qui tient à des changements dans la qualité entre le produit disparu et le produit qui le remplace. Dans la plupart des cas, l'évolution du prix est l'évolution moyenne des prix constatée sur les autres produits suivis pour la même variété. Dans plusieurs cas particuliers, d'autres méthodes dites « explicites » sont appliquées, que l'INSEE s'efforce de développer. Celles-ci font appel à une estimation directe de la valeur de la différence entre les deux produits. C'est le cas des modèles économétriques estimant le prix de chaque produit en fonction de ses caractéristiques, ces modèles sont utilisés pour certains biens durables (lave-linge, lave-vaisselle, réfrigérateur notamment). D'autres modèles plus simples et n'utilisant qu'une seule variable d'ajustement sont mis en oeuvre pour certaines catégories de livres (en fonction du nombre de pages) ou les bijoux en or (en fonction du poids d'or). Du fait que chaque mois, environ 3 % des relevés élémentaires font l'objet d'un traitement qualité, ces principes généraux donnent lieu, en continu, à une myriade de micro-traitements qualité sur des relevés élémentaires. Ces microtraitements étant en très grande majorité décidés au cas par cas, il apparaît très difficile de les reprendre dans une publication, d'autant plus que celle-ci devrait respecter la confidentialité de la liste des produits figurant dans l'échantillon . L'impact de ces traitements sur le calcul de l'inflation est, du reste, limité. En effet, les évaluations réalisées par l'INSEE suggèrent que ces effets qualité ne comptent que pour 0,3 point par an en moyenne dans l'indice des prix à la consommation. Des résultats plus détaillés et une présentation générale des méthodes de traitement de la qualité dans l'indice des prix à la consommation sont cependant disponibles dans le document de travail de l'INSEE qui peut être consulté ici (PDF).

Donc l'INSEE campe sur sa position : c'est secret car cela doit être secret. Pourquoi le secret ? Parce qu'en France il y a des sociétés secrètes très puissantes capables de modifier significativement les 180 000 relevés mensuellement dans 27 000 points de vente rien que dans l'objectif machiavélique de fausser le calcul de l'inflation ... Je me demande si les employés de l'INSEE portent des chapeaux en aluminium pour se protéger des méchants manipulateurs d'inflation ...

Franchement qui peut croire une baliverne pareille ? Si les prix et ajustements sont publiés trois mois ou un an après ? Même si il faut augmenter la taille de l'échantillon et donc le cout de l'équipe de relevé (170 personnes en 1997) comme au final le contribuable beneficiera des données ou est le problème ?

Le papier cité donne sur une seule année (2003) un effet de 0.31% a la baisse (2.16% vs 2.47%). Mais si j'ai bien compris la méthodologie ne traite qu'une partie des choix subjectifs de l'INSEE car l'effet de remplacement de produit "équivalent" mais il y aura un biais non mesuré : par exemple si un produit a 10 euros disparait et que deux produits a 9 euros et 11 euros apparaissent dans le rayon le choix du produit "equivalent" va directement biaiser l'evolution des prix. Le Manuel des indices hédoniques et des ajustements de qualité dans les indices de prix mentionne ce biais.

Le papier cite L'indice des prix à la consommation surestime-t-il l'inflation ? par François Lequiller qui tresse des lauriers a l'INSEE sur l'inflation, François Lequiller étant le chef du service inflation de l'INSEE on peut en déduire qu'il est content de son travail. Mais comme les données sont secrètes l'exercice est sans grand danger ...

Enfin il est fait référence a l'harmonisation européenne des indices des prix. Mais qu'est-ce qui rends difficile cette harmonisation ? Le secret ... Dans une économie mondialisée et une économie européenne libéralisée ou les une grande partie des produits sont vendus partout pourquoi s'obstiner sur le secret au niveau national ? Par peur du ridicule lors que le public verra les divergences d'évaluation qualité et d'effet de choix de remplacement ?

Sans grande surprise le débat sur l'inflation reste donc stérile par construction et la transparence dans le calcul de l'inflation une chimère.