ZONES
pointille
filet haut
puceStatactivisme
Julien PRÉVIEUXEmmanuel DIDIERIsabelle BRUNO




Parution :15/05/2014
Format 205 x 140 mm
Pages : 208
Prix : 18 euros
ISBN : 2-355-22054-9


BONUS 
- Lettres de non-motivation à la radio
- Vous avez du courrier
- Le site de l’auteur
pointille Statactivisme

Vous avez ici gratuitement accès au contenu des livres publiés par Zones. Nous espérons que ces lybers vous donneront envie d’acheter nos livres, disponibles dans toutes les bonnes librairies. Car c’est la vente de livres qui permet de rémunérer l’auteur, l’éditeur et le libraire, et de vous proposer de nouveaux lybers et de nouveaux livres.

Isabelle Bruno
Emmanuel Didier
Julien Prévieux

Statactivisme

Comment lutter avec des nombres

Zones

Introduction pour un statactivisme !

Isabelle Bruno, Emmanuel Didier, Julien Prévieux, Cyprien Tasset

Il semble qu’il n’y ait guère aujourd’hui de meilleur exemple d’autorité capable de désarmer toute critique qu’un nombre, ou un réseau de nombresnote. La quantification joue souvent un rôle de premier plan pour produire l’« autorité des faits ».

Nous pensons qu’un des moyens, pour une pensée critique, de faire face à l’autorité des faits se trouve dans la distinction, proposée par Luc Boltanski dans De la critique, entre d’une part la « réalité », qui « tend à se confondre avec ce qui paraît se tenir en quelque sorte par sa seule force, c’est-à-dire avec l’ordre », et d’autre part le « monde », entendu comme « tout ce qui arrive », l’ensemble « des événements ou des expériences, dont la possibilité n’avait pas été insérée dans le dessin de la réaliténote ». La première s’organise à partir de « formats, déterminés sous la contrainte d’un pouvoir institutionnel », qui tendent à « arraisonner le monde dans sa totaliténote ». Le second, « plongé dans le flux de la vie », consiste en expériences qu’il est difficile de « faire accéder au registre de la parolenote ». Cette opposition nous paraît précieuse pour comprendre les effets de domination attachés aux statistiques mais aussi la force critique qui peut naître de leur retournement.

Malgré les imprécisions que le terme engendre, on peut convenir d’appeler néolibéral l’état actuel de la réalité. Celle-ci est en grande partie conformée et consolidée par les statistiques, ce qui ne doit pas, en soi, nous étonner. Comme l’étymologie du mot le rappelle, la statistique a eu partie liée depuis son origine avec le pouvoir, en particulier le pouvoir d’État, mais l’une comme l’autre ne sont pas restés immuables. L’instrumentation concrète de l’État néolibéral est singulière. Son noyau dur consiste en une évaluation quantitative et comparative permanente de l’activité des agents, ainsi mis en compétition par une technologie que l’on peut appeler le benchmarking note. L’évaluation est tellement systématique aujourd’hui qu’elle tend à se confondre avec l’action elle-même. Or, « une fois les procédures de quantification codifiées et routinisées, leurs produits sont réifiés. Ils tendent à devenir “la réalité”, par un effet de cliquet irréversiblenote ». Nous sommes alors tenus d’atteindre des objectifs chiffrés et d’intensifier indéfiniment nos performances dans le domaine défini par l’indicateur. La pratique est rabattue sur une ligne pauvre de reproduction optimale du même, au détriment des variations, expérimentations, accidents et imprévus. L’insertion des acteurs dans des réseaux de quantification de plus en plus serrés apparaît donc comme un des instruments majeurs du rétrécissement des possibilités pratiques qui leur sont offertes.

Avec le développement du benchmarking, les statistiques sont devenues l’objet de multiples critiques, et, finalement, d’un rejet de principe. Les premiers perdants de ces nouvelles méthodes d’évaluation néolibérales, parmi lesquels on peut compter ceux qui se sont regroupés dans l’Appel des appelsnote, ont immédiatement ressenti les effets néfastes de ces techniques et les ont dénoncées au nom de l’impénétrabilité à la quantification de ce que le sociologue Florent Champy appelle leurs « pratiques prudentielles », c’est-à-dire leur attention au cas particulier, aux situations complexes et spécifiquesnote. Cependant, d’autres auteurs ont généralisé cette dénonciation à toute quantification, quelle qu’elle soit, en s’appuyant notamment sur des arguments provenant de différents courants de psychanalyse lacanienne ou du paradigme du don. De telle sorte que des statistiques qui n’ont qu’un très lointain rapport avec le benchmarking et qui, jusqu’alors, jouissaient d’une image plutôt progressiste se sont retrouvées prises sous le feu de la critique. Alain Desrosières raconte ainsi une anecdote qui lui a été rapportée au printemps 2009 par une jeune statisticienne militante du « Comité de défense de la statistique publique » tout juste constitué. Participant à une manifestation des syndicats contre la politique gouvernementale, elle sollicite, par une pétition, le soutien des manifestants. Elle a la surprise de s’entendre dire : « Vos statistiques ne servent qu’à nous contrôler, à nous fliquer, à aggraver nos conditions de travail ! »

Pourtant, si aujourd’hui on reproche volontiers aux statistiques leur connivence avec le pouvoir et la sanction, l’histoire de leurs liens avec la réforme sociale et l’émancipation est tout aussi longue et riche. Les statistiques ont aussi, par le passé, montré qu’une autre réalité était possible ou ont rendu d’autres possibilités réelles. C’est pourquoi nous ne réagissons pas comme ceux qui les rejettent en bloc et crient « Non à la quantophrénie ! Non aux chiffres ! Oui aux qualités ! » car, ce faisant, ils laissent le monopole de ces instruments aux puissants. Or il n’y a pas de raison pour que la quantification se trouve toujours du côté de l’État et du capital.

Le statactivisme, qui est un néologisme de notre invention, doit être compris à la fois comme un slogan à brandir dans des luttes et comme un concept descriptif, utilisé pour qualifier les expériences visant à se réapproprier le pouvoir émancipateur des statistiques. Dans cet esprit, une conférence réunissant militants, chercheurs et artistes a été organisée à Paris le 15 mai 2012, qui a permis, d’une part, de cartographier un ensemble de travaux correspondant à cette ambition et, d’autre part, d’expliciter les tensions et les questions dans lesquelles nous plongeait cet usage de la quantificationnote.

Le statactivisme a un sens élargi et un sens restreint. D’abord, il désigne toutes les pratiques statistiques qui sont utilisées pour critiquer et s’émanciper d’une autorité, quelle que soit cette dernière. Ces pratiques statistiques existent depuis longtemps, comme le rappellent en particulier Luc Boltanski, Alain Desrosières, Louis-Georges Tin et Theodore M. Porter dans cet ouvrage. Mais, dans un second sens, plus restreint, certaines de ces pratiques sont plus spécifiquement adaptées au type de pouvoir exercé dans le cadre de la gouvernementalité néolibérale ; elles visent à s’émanciper des méthodes de gouvernement qui lui sont propres. Alain Desrosières a montré que l’on pouvait distinguer historiquement plusieurs modalités, très différentes, dans l’usage des statistiques par l’État. Par exemple, l’État keynésien recourt à la comptabilité nationale car elle lui permet de contrôler les flux utiles à la politique de relance de la consommation, tandis que l’État néolibéral mobilise plutôt des indicateurs de performance et des cibles chiffrées pour évaluer l’efficacité de ses services. Il y a adéquation entre forme d’action publique et outil statistique. Mais cette adéquation vaut aussi pour les outils de la critique, y compris quand ils sont quantitatifs. À chaque forme d’autorité sa forme d’opposition. Dans ce cadre, le statactivisme prend un sens particulier quand il désigne les méthodes spécifiquement articulées au gouvernement néolibéral.

Pour faire face à cette gouvernementalité qui s’infiltre dans de très nombreux mondes habituellement cloisonnés, le statactivisme permet de dépasser les frontières instituées. Cet ouvrage rassemble des contributions de chercheurs spécialisés dans l’étude des statistiques, de militants habitués à utiliser les chiffres pour faire avancer leurs causes et d’artistes plasticiens dont l’inspiration se trouve dans la quantification et les techniques contemporaines du management par les nombres. Nous montrons que critique universitaire, critique sociale et critique artistique peuvent converger.

Si le statactivisme consiste à mettre les statistiques au service de l’émancipation, on peut distinguer quatre grandes manières de faire. La première indique des pistes pour l’étude du statactivisme au sens large. Il s’agit, par un retour historique, d’interroger le degré de radicalité de la critique statistique. Nous analysons ensuite des pratiques plus contemporaines du statactivisme. La deuxième partie montre comment on ruse, individuellement et souvent secrètement, avec les règles de rendu des comptes de façon à s’approprier les résultats de l’exercice. La troisième mobilise les statistiques pour consolider des catégories collectives sur lesquelles s’appuyer pour revendiquer des droits et défendre des intérêts. Enfin, la quatrième produit des indicateurs alternatifs pour redéfinir le sens de nos actions. Ces quatre démarches sont illustrées, avec humour ou sérieux, en texte ou en image, par les contributeurs à cet ouvrage.

1. Critique radicale ou réformiste, exemples pris au passé

L’histoire du lien entre statistique et émancipation sociale est ancienne. La première partie de cet ouvrage nous fait replonger dans le passé afin de mieux suivre la carrière d’innovations statistiques allant dans ce sens et donc de mieux comprendre, sur la durée, comment elles ont pu être acceptées par le public.

Un exemple intéressant est offert par le livre Les Héritiers (1964) de Pierre Bourdieu et Jean-Claude Passeron. Il montrait que l’école ne remédiait pas aux inégalités culturelles entre les enfants, mais faisait l’inverse en reconnaissant et en validant le capital culturel de ceux qui le recevaient de leur famille. La démonstration était faite au moyen de variables croisées les unes avec les autres, en particulier la catégorie socioprofessionnelle du père avec différentes mesures de la vie étudiante et des succès scolaires, pour montrer que ce sont les enfants dont les parents appartiennent aux catégories sociales ayant déjà un capital culturel important qui parviennent à entrer dans les filières scolaires les plus prestigieuses. Ce livre montrait ainsi ce que tout le monde savait plus ou moins pour son cas personnel. Mais il totalisait une série d’expériences individuelles, qu’il objectivait statistiquement, donnant ainsi à chacun un appui pour comprendre comment son propre cas était le fruit moins de sa vertu scolaire personnelle que d’un système de domination s’imposant à tous. D’où un effet de déculpabilisation.

Il est intéressant de souligner ici que les nomenclatures utilisées et croisées étaient officielles, c’est-à-dire qu’elles reposaient sur une réalité consolidée par les institutions étatiques. Provenant du « système » lui-même, elles montrent ses contradictions internes. Le service public de l’éducation nationale prétend pallier les injustices, il fait appel à l’éthique du don des enseignants censés dispenser le savoir dans l’intérêt général mais, en fait, il ne fait que réinstituer et pérenniser les inégalités sociales.

Telle est l’analyse que présente Luc Boltanski dans son chapitre « Quelles statistiques pour quelles critiques ? ». Il en conclut que la critique statistique ne permet pas de capturer ce qu’il appelle des critiques existentielles. Ces critiques radicales, qui sont le plus souvent du ressort des artistes, consistent à puiser dans le monde des éléments qui comptent sans pour autant avoir été institutionnalisés d’une façon ou d’une autre. Les Héritiers n’incitait pas à mettre en cause l’existence même de l’école. Conformément à une dichotomie d’inspiration marxiste opposant le réformisme au radicalisme révolutionnaire qui avait cours alors, on dirait que le livre proposait plutôt une critique réformiste échafaudée à partir des catégories de la réalité institutionnelle. Il critiquait l’institution depuis celle-ci. Il n’en demeure pas moins que la publication de ce livre a rencontré un grand succès. D’après Boltanski, cet ouvrage aurait même « joué un rôle non négligeable dans le changement d’humeur collective qui a précédé mai 1968 ».

La longue controverse sur l’indice des prix en France, présentée par Alain Desrosières (« Statistique et émancipation sociale. Perspective historique »), est un autre exemple historique de la portée critique des statistiques. Il montre le cheminement des indices de prix alternatifs du début de la décennie 1970 aux années 1990. Pendant toute cette période, la Confédération générale du travail (CGT) publiait les résultats d’un indice qu’elle avait construit elle-même, différent de celui de l’Institut national des statistiques et des études économiques (Insee). Elle arguait du fait que l’indice Insee reposait sur des hypothèses qui correspondaient trop au mode de consommation des classes moyennes, très différent de celui des classes populaires.

Initialement, l’indice de la CGT a connu un succès important, et fut utilisé – à côté de celui de l’Insee – lors des négociations salariales. Les médias se faisaient même parfois l’écho de ses variationsnote. Pourtant, à partir de la fin des années 1980, il est de moins en moins repris jusqu’à ce que la CGT décide d’arrêter complètement son calcul pendant les années 1990. Comment cet indice a-t-il pu être recevable dans un premier temps, avant de perdre progressivement de son intérêt et, finalement, disparaître corps et biens ? Desrosières en propose une explication sociologique. Il considère que les arguments statistiques rencontrent des conditions de réception qui leur sont plus ou moins favorables et qui peuvent changer avec le temps. Parmi ces conditions, certaines sont macrosociologiques et comprennent des façons de penser et d’organiser les rapports sociaux ; d’autres sont plutôt microsociologiques et dépendent des réseaux d’acteurs mobilisés pour faire exister ces statistiques alternatives.

Dans tous les cas, le fait est que les promoteurs de ces indices s’accordaient sur l’appareil méthodologique qui permettait de les calculer et sur leurs usages institutionnels. Si la CGT modifia les produits pris en compte dans le « panier » du consommateur, elle reprenait néanmoins à son compte l’architecture des concepts économiques qui rendent pertinent un tel indice. En ce sens, la critique était à nouveau réformiste, et non radicale.

L’année où la CGT lançait son indice, l’artiste allemand Hans Haacke montait à la galerie new-yorkaise John Weber une exposition avec des objectifs que l’on peut rapprocher de ceux du livre Les Héritiers évoqué plus hautnote. Le jour du vernissage, le public ne voyait rien d’autre qu’une table sur laquelle reposaient des questionnaires d’une vingtaine d’items portant sur ses caractéristiques sociodémographiques et ses opinions concernant des événements d’actualité. Quelques jours plus tard, Haacke accrochait les résultats de son enquête sous forme de tableaux représentant des graphiques et des histogrammes. Ces derniers montraient que l’immense majorité des visiteurs étaient liés professionnellement au monde de l’art, appartenaient à une classe moyenne éduquée et aux moyens financiers limités, et qu’ils se déclaraient très majoritairement « libéraux » au sens états-unien du terme (voir le chapitre « Profil de visiteurs »). Haacke produisait ainsi un contraste avec une autre exposition qu’il réalisait à New York à la même période, où il affichait, sans commentaire, les nombreuses et opulentes affiliations des administrateurs du musée Guggenheim aux conseils d’administration de grandes entreprises capitalistes. Ainsi, dans les cadres institutionnels du monde de l’art – des galeries prestigieuses à New York et un musée –, et au moyen de catégories très solidement établies, Haacke exposait le fossé politico-social qui séparait radicalement le public de l’art contemporain et l’élite qui en est le commanditaire. La critique statistique était encore une fois plutôt réformiste, puisqu’elle s’appuyait sur les institutions qu’elle prétendait écorner.

Ces trois expériences, très conformes à l’esprit des années 1970, ont des auteurs qui n’étaient pas tous spécialistes de la statistique, mais qui pour autant étaient loin d’être démunis face à elle. Bourdieu s’inscrivait dans la longue tradition sociologique d’utilisation des statistiques que l’on peut faire remonter jusqu’au Suicide de Durkheim ; il était, en outre, personnellement lié à des statisticiens de l’Insee depuis les années 1950 et avait eu l’occasion d’enseigner à l’École nationale de la statistique et de l’administration économique (ENSAE) – l’école qui forme les administrateurs de l’Institut – l’année même où paraissaient Les Héritiers. De même, la CGT prolongeait une longue tradition de production de statistiques sociales qui remonte, pour les syndicats, à la fin du XIX e sièclenote. Quant à Hans Haacke, s’il a apparemment produit ses questionnaires seul, il fut aussi comme adoubé sociologiquement par Howard Becker qui raconte l’histoire dans ce livre. Les représentants de cette génération de statactivistes utilisèrent donc les riches ressources intellectuelles et institutionnelles auxquelles ils avaient accès pour produire des statistiques.

Prenant appui sur des éléments de la réalité stabilisés et institutionnalisés – nomenclatures, séries de produits, réseau de distribution et de publicisation d’un milieu, etc. –, ces statistiques ne remettent pas radicalement en cause cette réalité qu’en même temps elles dénoncent. Elles permettent plutôt de l’infléchir, de la réformer. Bourdieu et Passeron n’ont pas remis en cause l’existence de l’école, mais ils rendaient une réforme possible ; la CGT a construit un outil qui lui a permis de peser davantage, mais dans le cadre institué des négociations salariales ; enfin, Haacke a participé à la fondation d’un nouveau mouvement appelé la « Critique institutionnelle » qui a pris place dans le milieu artistique existant. L’accès aux ressources statistiques institutionnelles avait ainsi pour effet conjoint de rendre une réforme possible et de stabiliser le cadre dans lequel ces réformes ont trouvé leur place. Le statactivisme, c’était Framing and Being Framed, pour reprendre le titre du catalogue de Haacke, c’est-à-dire accepter de se placer dans un cadre préétabli, ce en quoi elle n’est pas radicale, mais en même temps y trouver les marges de liberté suffisantes pour le modifier, ce en quoi elle est réformiste.

La deuxième partie de ce volume nous fait faire un saut temporel par-delà la quarantaine d’années qui nous séparent de ce temps héroïque et explore la descendance actuelle de cet usage des statistiques.

2. Opérations. ruser avec la règle

L’échelle à laquelle s’appliquent les statistiques institutionnelles a beaucoup changé depuis les années 1970. Auparavant, elles valaient pour des institutions de grande taille, de vastes agrégats comme le système scolaire, les négociations salariales par branche, le monde de l’art, et le statactivisme se déployait à cette échelle. Aujourd’hui, dans les institutions, elles servent aussi à évaluer les agents individuels. Dans de très nombreux secteurs et de plus en plus souvent, chacun doit tenir un compte quantifié de sa propre activité, lequel sert régulièrement à son auto-évaluation, à la comparaison avec d’autres individus ou équipes au regard d’objectifs chiffrés préétablis.

De sorte qu’une pratique statactiviste très largement répandue aujourd’hui, même si elle reste aussi discrète qu’elle est commune, consiste, pour les acteurs situés au bas de la hiérarchie, à se ménager des marges de manœuvre à l’intérieur du cadre des comptes rendus statistiques qui leur sont imposés. Cette façon de résister à l’évaluation revient à se comporter exactement comme les dirigeants, c’est-à-dire à ne pas vraiment croire à la lettre de la règle, pour l’adapter dans un sens qui convient mieux à celui à qui elle s’applique. Mais la principale différence entre le haut et le bas de la hiérarchie consiste en ce qu’en bas ces réadaptations sont tenues secrètes, ou, plus exactement, sont effectuées discrètement, car tenues pour illégitimes, alors qu’en haut elles peuvent être proclamées comme n’étant rien d’autre que des adaptations salutaires de la règle, gages de souplesse et de flexibiliténote. L’émancipation statactiviste, en l’occurrence, consiste pour les dominés, d’une part, à prendre des libertés avec la lettre de la règle et, d’autre part, à rendre publique et légitime une pratique courante, mais mise sous le boisseau.

Pour illustrer ce point, nous avons choisi le cas de la police, un cas intéressant car sa fonction consiste – officiellement – à faire respecter les règles de la vie sociale. La police est depuis quelques années soumise à ce que ses détracteurs appellent péjorativement la « politique du chiffre » et ses thuriféraires la « culture du résultat ». On a coutume de localiser la naissance de ce système à New York, pendant le premier mandat du maire républicain Giuliani, entre 1994 et 2001. Son préfet de police, William Bratton, mit alors en place un système de management policier appelé Compstat (qui signifie pour les uns computer statistics et pour les autres comparative statistics) reposant fondamentalement sur la quantification de l’activité des agents. Les commissaires de precinct (équivalant à peu près à un arrondissement de Paris) avaient pour charge de quantifier leurs activités, de façon à rendre des comptes très régulièrement à la plus haute hiérarchie policière, ce qui devait leur permettre de prouver qu’ils avaient pris des initiatives et été particulièrement « proactifs ». Dès que cet instrument fut mis en place, la criminalité enregistrée baissa de façon impressionnante. Certains contestèrent le rapport de cause à effet de l’un à l’autre, affirmant qu’il n’y avait eu que concomitance, mais d’autres – comme le sociologue de la police Eli Silverman, qui publia une étude approfondie de Compstat – parlèrent de « miracle new-yorkaisnote ». En tout cas, de très nombreuses polices imitèrent ce système, aux États-Unis comme dans le monde. Ce fut le cas en particulier de Baltimore, dont le système Citystat apparaît dans la fameuse série télévisée Sur écoute (The Wire), ainsi que de la France, où le préfet de police de Paris, Jean-Paul Proust, importa Compstat en 2001note.

Depuis quelques années, on assiste cependant à un retournement spectaculaire des jugements portés sur Compstat. Même Silverman remet en cause très vigoureusement ses effets récents sur les agents, comme l’atteste sa contribution à cet ouvrage. Le système ne les encouragerait plus à mieux lutter contre le crime mais, au contraire, il les inciterait à ruser avec leurs propres règles. Pour donner à voir la dérive systémique de Compstat, Silverman et un ancien agent de police, John Eterno, ont élaboré et conduit une enquête statistiquenote. Le syndicat des policiers retraités leur a donné accès au fichier de ses membres. Ils ont fait passer à ces derniers un questionnaire anonyme qui leur demandait s’ils avaient le sentiment d’avoir transformé les chiffres ou leur comportement sous l’influence des chiffres d’une façon contraire à la déontologie et s’ils pouvaient attribuer ces comportements à la mise en place de Compstat. Parmi les répondants, plus de la moitié déclarent que, depuis Compstat, ils avaient effectivement eu des comportements très éloignés de la norme alors qu’un quart considérait avoir eu des comportements assez éloignés.

Cette enquête a la vertu de montrer, statistiquement qui plus est, que les agents se sont réapproprié les règles de Compstat dans un sens qui leur convient, sans pour autant contrevenir manifestement au règlement. Mais, en posant la question en termes de transgression de la déontologie, elle a l’inconvénient de porter un jugement moral négatif sur une activité qui, vue autrement, n’est rien d’autre qu’une défense.

En France, certains fonctionnaires des forces de l’ordre dénoncèrent aussi ces travers ; ils donnèrent à leur propos la forme d’un témoignage publié dans un livre. Le brigadier de gendarmerie Jean-Hugues Matelli écrivit ainsi avec le sociologue Christian Mouhana Police. Des chiffres et des doutes (2007), et le commandant de police Philippe Pichon publia son Journal d’un flic (2007). Dans les deux cas, les auteurs insistaient sur le fait que la quantification de l’activité n’incitait pas seulement les agents à agir plus efficacement, mais qu’elle les poussait surtout à adopter des comportements dictés par la course aux résultats, qui pouvaient être très différents de ceux attendus d’une bonne police. Pour obtenir de « bonnes » performances, le comportement individuel le plus spontané consiste souvent à biaiser les chiffres.

Julien Prévieux, artiste plasticien, pousse à son paroxysme la liberté engendrée par l’écart entre la règle et son application en faisant de cet espace l’occasion d’une activité proprement artistique. Ayant été mis en contact avec de jeunes policiers de la BAC du XIVe arrondissement, il leur a proposé de participer à un atelier de dessins statistiques à partir des données de la criminalité observée dans leur arrondissement. Les fonctionnaires ont utilisé les plaintes déposées dans leur commissariat pour un certain nombre d’infractions (cambriolages, vols, etc.). Prévieux leur expliqua alors comment transformer ces données en diagramme de Voronoï, une représentation graphique proche des isobares météorologiques, laquelle donne à voir le volume des crimes par une densité de traits plus importante. Les policiers ont exercé leur sens esthétique en traçant de splendides dessins, le week-end, sur leurs heures de loisir (et même peut-être pendant leurs heures de travail, mais nul ne peut en témoigner). Les résultats ont été exposés à de nombreuses reprises dans des lieux d’exposition reconnus qui attestent indubitablement du caractère artistique de ces productions. Certains ont été vendus à des collectionneurs et deux dessins ont été acquis par le musée d’art contemporain du Val-de-Marne (MAC/VAL). Les marges de manœuvre qui persistent dans l’application de la règle policière prenaient ainsi une valeur artistique. Notons d’ailleurs que cette activité n’est pas plus désintéressée que celle qui permet de présenter de bons résultats au chef, et donc de préparer carrière et prime, puisqu’il était convenu entre l’artiste certifié et les policiers qu’ils se répartiraient équitablement les produits d’une vente éventuelle.

De son côté, l’association Pénombre, composée en majorité – mais pas exclusivement – de statisticiens professionnels et de professeurs de mathématique qui interviennent dans le débat public pour lutter contre l’« innumérisme », tourna un petit film, prenant la forme des reportages télévisés, sur un commandant fictif appelé Yvon Desrouillé. Celui-ci y explique comment il est possible, avec un peu de chance et de malice, de dénombrer bien plus de faits élucidés (c’est-à-dire de faits que l’on peut attribuer à un suspect) que de faits constatés (sans le suspect), ce qui est jugé positivement par la hiérarchie. Ce résultat, même s’il se comprend dans une logique quantitative (si un fumeur de haschisch dénonce trois fournisseurs, il y a un fait constaté – consommation illicite – et quatre faits élucidés : un fumeur + trois suspects), reste tout de même paradoxal, dans la mesure où le sens commun voudrait qu’un fait élucidé ait toujours été, auparavant, constaté.

Ces cas sociologiques, artistique et militant, illustrent un statactivisme à double détente. Au premier niveau, il concerne tous les agents d’une administration et ne requiert que des ressources minimales pour être mis en place ; en particulier, il ne nécessite pas de savoir-faire statistique puisque cette discipline n’est pas enseignée aux policiers. Il consiste en l’appropriation des règles de production des données qui servent à l’auto-évaluation de façon à, plus ou moins discrètement, plus ou moins ouvertement, les adapter à ses propres intérêts – qui peuvent aller de la pure veulerie et flatterie des attentes du chef à la plus fière indépendance consistant à produire des œuvres d’art. L’activité statistique contraint au codage, sans quoi il n’y aurait pas de données quantifiées, mais le codage, qui est le plus souvent laissé entre les mains des agents les plus dominés de la hiérarchie, laisse nécessairement à ces derniers une marge de manœuvre. Il leur ouvre toujours des possiblesnote. Parce que, comme aujourd’hui, le codeur est celui-là même qui sera évalué par les données qu’il code, il utilise cette possibilité à son profit. Il s’émancipe. Cette « chanstique », pour reprendre un terme de l’argot policier, n’est rien d’autre que la pratique de la perruque, laquelle consistait pour un employé dans les entreprises industrielles à utiliser du temps ou des outils de travail pour effectuer, à des fins personnelles, des travaux qui ne correspondaient pas à ceux pour lesquels il était payé.

À un second niveau, le statactivisme consiste à agréger toutes ces pratiques locales et à montrer que, aussi silencieuses soient-elles, elles n’en sont pas moins si courantes que l’on peut accuser l’institution entière de ne pas réellement poursuivre les buts qu’elle affiche. Le statactiviste doit alors résoudre le paradoxe d’être à la fois à l’intérieur et à l’extérieur de l’institution. En effet, il est impossible d’avoir une trace des opérations discrètes des codeurs si l’on n’est pas avec eux dans l’institution et, en même temps, il faut avoir accès à une tribune publique pour rendre compte à un niveau agrégé de ce dont on a été témoin. C’est la raison pour laquelle les statactivistes ont tendance à travailler en couple ou à plusieurs, le cas typique étant un policier associé à un sociologue.

Les moyens de la publicité sont variés : E. Silverman et J. Eterno ont réalisé une enquête, J. Prévieux a animé un atelier de dessin, les policiers français ont publié des témoignages et Pénombre a réalisé un film. Dans tous les cas, ils ne dépendent pas de l’État ni de ses institutions. En effet, pour rendre publiquement discutables les effets de ces pratiques atomisées de jeu avec la quantification, il faut capturer des éléments non pris en compte, cachés, par l’institution. Il n’est donc pas possible de recourir aux ressources institutionnelles pour les agréger.

L’effet émancipateur de ce statactivisme de deuxième niveau est double. D’une part, il cherche à montrer la possibilité d’une autre réalité agrégée que celle qui est instaurée par l’institution. Il clame par exemple : « Non, contrairement à ce que l’État profère, nous montrons que le crime n’est pas en baisse continuelle car cette baisse s’explique mieux par les manipulations de codage effectuées par les forces de l’ordre. » Il désigne alors la possibilité d’une autre réalité que la réalité officielle. Du même coup, il dénonce, d’autre part, la capacité de l’institution à contrefaire la réalité. Ici, la formule de la clameur est : « L’État a les moyens de nous mentir. » Ce n’est pas alors sur la réalité que porte le doute, mais sur l’action de l’État, qui peut prétendre faire une chose (lutter contre le crime) tout en en faisant une autre (manipuler l’opinion). Les statactivistes dénoncent alors les possibilités d’action de l’État. Ce dernier ne se laisse bien entendu pas faire et, comme on a pu le montrer ailleurs en reprenant la structure des assauts d’escrimeurs, la série des parades-ripostes entre l’État et les statactivistes est loin d’être achevéenote.

Le statactivisme couvre ainsi une variété de pratiques allant du niveau le plus farouchement individuel au plus collectif. Il consiste d’une part à s’émanciper des règles que l’autorité lui impose et, d’autre part, à dévoiler les mensonges qu’elle profère. Mais à ce stade, le collectif qu’il construit n’est pas encore un sujet politique, doté d’intérêts et de volonté propres. C’est la troisième partie de ce livre qui met en évidence comment cette subjectivation est statistiquement possible.

3. Sujets. défendre de nouvelles catégories

Les transformations récentes de la société ont vu apparaître de nouvelles catégories sociales. Comme cela a pu être montré dans le cas des cadresnote, pour gagner en reconnaissance, les groupes sociaux ont intérêt à s’institutionnaliser statistiquement. Les contributions à ce volume montrent que l’invention de nouvelles catégories sociales – et leur critique – est déjà, et devrait être encore davantage, un terrain important de statactivisme. Elles portent sur le cas des intellectuels précaires et sur celui des Noirs.

Parmi les mondes sociaux les plus fortement affectés par le développement d’une gouvernementalité néolibérale se trouve celui des artistes et professions intellectuelles. L’envahissement de ces métiers vocationnels par les instruments quantificateurs du pilotage managérial provoque des expériences nouvelles, dont on peut faire ressortir le caractère ambivalent, étrange, grotesque, ou inversement, novateur et excitant. En outre, l’invocation d’expériences sociales ne cadrant plus avec les formats disponibles alimente une critique des nomenclatures officielles. Il arrive même que ces expériences soient insérées dans un travail politique et cognitif visant à construire une nouvelle catégorie sociale capable de porter des revendications.

Les efforts pour regrouper les travailleurs artistiques et intellectuels dans de nouvelles catégories sociales constituent l’objet du propos de Cyprien Tasset. Ce chercheur décrit en effet deux tentatives allant en ce sens, l’une opérée par le bas et l’autre par le haut. La stratégie par en bas est illustrée par l’ouvrage d’Anne et Marine Rambachnote. Pour ces auteures, les « intellectuels précaires » rassemblent des personnes précarisées par le système économique actuel, comme les chercheurs sans statut, les artistes peinant à obtenir la rémunération de leurs activités, les journalistes pigistes, etc. Il s’agit souvent de diplômés, pas toujours jeunes, mais qui ne trouvent pas d’emploi stable et dont, par conséquent, les modes de vie ne correspondent pas, loin de là, à ce que leur niveau d’études semblait leur promettre. L’argument des Rambach est que cette situation dépasse les compétences et propriétés individuelles, et est attribuable à un mode d’organisation sociale qui dévalorise le travail intellectuel et vise même à le rendre docile. Aussi exhortent-elles les « intellos précaires » à s’unir et à se compter, tâche à laquelle elles s’attellent en listant les résultats statistiques sur lesquels elles ont pu mettre la main au cours de leur enquête.

À l’opposé de cette stratégie par le bas, d’autres préfèrent passer par le haut. Richard Floridanote par exemple, mais il n’est pas le seul, observe l’émergence d’une « classe créative ». Ce groupe, quoique beaucoup plus large que celui des « intellos précaires », lui ressemble, à ceci près que les caractéristiques connotées négativement par les Rambach sont ici valorisées. Non pas précaires mais toujours prêts à exercer leur liberté sur le marché du travail, les membres de la classe étudiée par Florida seraient en quête d’opportunités créatrices. Ils ne sont pas suspectés d’être inutiles mais, au contraire, sont les fers de lance du capitalisme cognitif en train d’advenir.

Face à ces tentatives d’agrégation d’un sujet collectif, l’artiste Martin Le Chevallier s’interroge sur ceux qui « la jouent perso ». Il explique dans son chapitre qu’en atteignant les quarante ans, il s’est demandé à quel moment il cesserait d’être un jeune artiste prometteur, et comment il deviendrait un artiste qui compte. Pour résoudre cette énigme, il a eu l’idée de se tourner vers un cabinet de conseil, à qui il a demandé de faire son propre audit. L’activité d’un artiste était ainsi rendue équivalente à celle de n’importe quelle entreprise. Après une première réaction de surprise, le cabinet accepta. Le Chevallier raconte comment s’est déroulé l’audit, avec son modèle SWOT – Strengths (forces), Weaknesses (faiblesses), Opportunities (opportunités), Threats (menaces) –, la définition de différentes stratégies et de clients prescripteurs, et quelles conclusions en ont été tirées. Le rapprochement entre l’activité artistique et ce langage managérial est particulièrement détonant. Au lieu de militer avec des artistes intègres pour maintenir le système d’indemnisation leur permettant de « vivre dignement de leurs métiers », au lieu d’endosser un collectivisme volontiers associé à la fonction émancipatrice de l’art, il a, seul, eu recours aux outils que tout bon « entrepreneur de soi » est censé mobiliser à l’ère néolibérale. Évidemment, c’est aussi particulièrement drôle. Mais, au fond, qu’y a-t-il de si drôle dans une pratique à laquelle se livrent, au moins en secret, la plupart des artistes et beaucoup d’autres travailleurs culturels et scientifiques ? Pourquoi sommes-nous surpris de voir un artiste auditer sa carrière ?

Les luttes de définition entre les nouvelles classes prétendant inclure les précaires intellectuels ou créatifs sont un front important de statactivisme impliquant des catégories statistiques. Elles contribuent à définir le sujet qui portera le désir et les praxis d’émancipation. Le groupe dont il s’agit ici dispose, par définition, d’assez riches ressources intellectuelles qui peuvent apparemment assez bien pallier une éventuelle ignorance spécifique en statistique. À partir du moment où les acteurs reconnaissent l’avantage qu’il y a à passer par de tels arguments, ils bricolent les ressources dont ils ont besoin (lettres, enquête par boule de neige, recherche documentaire sauvage), ou n’hésitent pas à recourir à des spécialistes qui les leur fournissent (consultants, sociologues, statisticiens). Ces associations de compétences font d’ailleurs elles aussi partie de la constitution du collectif. Il ne s’agit pas seulement de subsumer beaucoup de cas individuels sous une catégorie unique, il s’agit aussi d’aligner une série de compétences diverses avec cet ensemble catégoriel.

Dans un tout autre ordre d’idées, nous avons voulu faire une place aux controverses concernant les statistiques de la diversité. On pouvait penser que les premiers débats autour de cette question étaient partis d’une dissension au sein de l’Institut national des études démographiques (INED) pendant les années 1990. Ils opposaient alors deux gauches. L’une, qualifiée de républicaine, s’opposait à toute catégorisation dite « ethnique » car elle craignait que cette dernière ne menace l’égalité politique entre les citoyens, quand l’autre, qualifiée de libérale, voulait utiliser de telles données car elle jugeait que c’était le seul outil permettant de lutter contre les discriminations observées. La contribution de Louis-Georges Tin, président du Conseil représentatif des associations noires (CRAN), met au jour les sources fort anciennes du statactivisme liées à ces catégories : Victor Schoelcher lui-même, dès l’abolition de l’esclavage en 1848, a utilisé des arguments quantitatifs pour défendre l’égalité d’accès aux droits des Noirs. Il nous donne ainsi un aperçu des transformations lentes du couple autorité/statactivisme opérées depuis lors.

Dans ce cas comme dans celui des intellectuels précaires, l’émancipation est donc encore une fois à double sens : elle désigne d’une part l’activité d’instauration de ce sujet politique collectif et, d’autre part, l’alignement d’une série de possibilités d’action de ce sujet. Elle se distingue du cas observé dans la police où le statactivisme est de l’ordre du dévoilement : il décompose la réalité institutionnelle qui s’autoproclame avec des résultats chiffrés, en exhibant l’autre réalité de la « chanstique » généralisée et des ruses avec les chiffres. Ici, le statactivisme est positif, il cherche à prouver qu’une catégorie existe bel et bien, alors qu’on ne lui reconnaît pas d’existence, et il cherche les moyens d’action permettant de la défendre. Bien entendu, dévoilement et affirmation ne s’excluent pas mutuellement et, dans bien des cas, ils s’entremêlent. Pourtant, ces deux notions permettent de tracer un axe allant de la négation d’une réalité préexistante à l’affirmation d’entités qui n’existent pas encore. Mais, une fois l’axe tracé, le plus intéressant est de comprendre la complexité des mélanges observés entre les deux pôles extrêmes du continuum. C’est ce à quoi se consacre la dernière partie de cet ouvrage en s’intéressant aux indicateurs.

4. Finalités. opposer des indicateurs alternatifs à l’institution

La gouvernementalité néolibérale fait un grand usage d’indicateurs. Un indicateur est une mesure qui transforme un phénomène complexe en une valeur unique et simple qui varie avec le temps. Le produit intérieur brut (PIB), par exemple, est supposé indiquer la richesse d’un pays et permettre d’en suivre les variations d’année en année. L’indicateur sert à donner un sens, à orienter l’action. Qui veut voir augmenter le PIB doit trouver les moyens de faire croître la valeur ajoutée. Il peut, par exemple, choisir de développer des engrais de plus en plus puissants, qui assurent des récoltes de plus en plus abondantes. Mais, par construction, un indicateur ne retient du réel que certains aspects jugés pertinents : dans le cas du PIB, on mesure exclusivement la production des différentes branches économiques en termes de valeur ajoutée. Il participe ainsi à consolider seulement certains aspects de la réalité et, de ce fait, à négliger les autres, qui peuvent pourtant, selon d’autres points de vue que celui de l’indicateur, être jugés prioritaires. Ainsi, les engrais ont des effets nocifs sur les nappes phréatiques, une conséquence néfaste qui n’est pas prise en compte dans le PIB. De nombreuses expériences statactivistes interviennent à ce niveau : pour que la statistique officielle redistribue les priorités de l’action des institutions, elles militent pour qu’elle tienne compte d’autres aspects de la réalité et proposent des indicateurs alternatifs.

Parmi ces derniers, certains épinglent les effets pervers insoupçonnés de politiques publiques ou managériales. D’autres pointent l’importance et la pertinence d’éléments qui ne sont pas pris en considération par les mesures quantitatives officielles. Les uns permettent de compter ce qui ne compte pas (encore), les autres de discuter l’indiscutable.

Les effets pervers peuvent être comptés de deux façons. D’une part, on met en série des faits qui sont évidemment déplaisants pour rendre visible leur caractère systématique et répété. Un cas d’autant plus efficace qu’il se révèle extrêmement violent est le décompte des suicidés de France Télécom. Dans le chapitre intitulé « Peut-on quantifier la souffrance au travail ? », Ivan Du Roy explique comment des syndicalistes en sont ainsi venus à dénombrer les suicides intervenus dans leur entreprise pour révéler la nocivité des méthodes managériales à l’œuvre. D’autre part, on passe par le détour de l’argent, et on rappelle le prix d’une politique – bien entendu trop élevé. C’est l’opération à laquelle s’est livré Damien de Blic en calculant le coût de la politique d’expulsion des « sans papiers ». Ce chercheur, excédé par la politique migratoire de la France, a pu ainsi rendre public un argument percutant, celui de la facture exorbitante à acquitter pour expulser des travailleurs qui ne demandent qu’à payer leurs impôts.

Le groupe Superflex pousse la critique des indicateurs d’activité jusqu’à l’absurde. Le projet Number of Visitors consiste à synchroniser le mécanisme de décompte des visiteurs à l’entrée d’un musée avec un compteur grand format accroché à l’extérieur, en évidence, comme si cette information était la plus importante de toutes, comme si la seule chose qui comptât fut que le musée soit beaucoup fréquenté. Il s’agit donc, avec une ironie acerbe, de mettre le mode de gestion néolibéral des musées tellement en évidence que son non-sens devienne tangible.

Les trois contributions suivantes relatent des expériences de statactivisme visant à affirmer des réalités négligées par l’institution et à mettre en débat des données officielles tenues pour indiscutables.

À mi-chemin entre le décompte d’événements et l’estimation d’un prix, on trouve le cas de la mesure des inégalités sociales et, en particulier, des inégalités de revenus, et la démonstration de leur accroissement incessant. En forgeant le « BIP 40 », Pierre Concialdi et quelques autres ont construit un indicateur dont le nom évoque le CAC 40 et le PIB, tout en suggérant un signal d’alarme (Biip ! Biiip !…). Leur idée-force était de dévoiler le fait que les bénéfices dégagés par l’envolée des cours boursiers creusent corrélativement les inégalités sociales. En contrepoint, Bernard Sujobert, représentant CGT à l’Insee, raconte comment ce BIP 40 ainsi que d’autres mesures de l’inégalité ont fait évoluer les publications de l’Insee. Il souligne le rôle tout à fait crucial joué par le Conseil national de l’information statistique (CNIS), une institution assez singulière au sein du paysage institutionnel français. Si les mesures des inégalités publiées par l’Insee sont aujourd’hui différentes de celles du début des années 1990, c’est en grande partie grâce au travail de ces acteurs qui nous livrent ici leur témoignage.

Les travaux du Forum pour d’autres indicateurs de richesse (FAIR), représenté dans ce volume par Florence Jany-Catrice, offrent un autre exemple de statactivisme cherchant à faire tomber le fameux PIB de son piédestal pour restituer à la richesse d’un pays ses dimensions non seulement économiques mais aussi sociales et environnementales.

Parmi les luttes qui prennent les indicateurs comme armes ou comme cibles, celle des syndicalistes de France Télécom doit être traitée à part. Ces statactivistes ont eu cette idée simple et dévastatrice de compter les suicides, ce qui n’exige certes pas des compétences statistiques très sophistiquées mais bien plutôt des qualités humaines pour rencontrer les familles des personnes ayant mis fin à leurs jours, comprendre leur geste désespéré et déterminer si ce dernier est lié, ou non, à leurs conditions de travail. Dans les autres cas que recense cette quatrième partie, le combat contre les indicateurs institutionnels implique qu’on les connaisse assez pour les analyser, les décomposer, et les recomposer ou, comme Superflex, les copier et déplacer leur lieu de publication. Ce statactivisme nécessite un certain savoir-faire technique. Son efficacité dépend alors largement de la question de savoir pourquoi les indicateurs institutionnels doivent être remis en cause, à quelle fin. L’adaptation des indicateurs d’inégalité a trouvé son usage, dans une nouvelle réflexion sur la fiscalité, ce qui explique qu’ils aient été repris par l’Insee. Mais la remise en cause du PIB ne semble pas, pour l’instant, avoir réussi à dépasser un ensemble de revendications générales sans application très concrète. Encore une fois, le statactivisme est émancipateur en ce qu’il donne la possibilité de faire exister davantage certaines réalités matérielles en les employant à certains objectifs, certaines fins, qui restent à déterminer.

Si l’on en revient maintenant à l’axe composé par le dévoilement et l’affirmation, on placera le dénombrement des suicides du côté du dévoilement le plus pur, n’affirmant rien que le néant de la mort face à l’ordre institué, puis l’acte artistique consistant à ridiculiser ce système qui n’est pas entièrement négatif en ce qu’il propose un nouveau lieu où le système est mis en spectacle. Viennent ensuite l’estimation des coûts engendrés par la politique d’expulsion, puis le travail au sein du CNIS et, enfin, la promotion du BIP 40 et du PIB alternatif qui cherchent à instituer, pour le premier, une autre mesure des inégalités entre les membres d’une société et, pour le second, un autre décompte des richesses d’un pays. Bien des modalités d’émancipation prennent ainsi place entre la destruction des objectifs de l’institution et l’affirmation de finalités alternatives.

5. D’autres nombres pour d’autres possibles

Le statactivisme est un étendard qui rallie une grande variété de pratiques ayant en commun de mettre les statistiques au service de l’émancipation. À l’examen des pratiques les plus contemporaines, nous avons vu que, premièrement, il consiste à mettre en évidence et à faire usage de toutes les marges de liberté que les règles de production des chiffres laissent aux agents qui les subissent. Les statistiques ne sont pas un corpus de lois immuables ; au contraire, qui les pratique apprend à jouer avec elles sans pour autant tomber dans l’erreur ou la faute. Deuxièmement, le statactivisme consiste à utiliser diverses méthodes de quantification pour produire les groupes, sujets à venir d’une aspiration à s’émanciper des conditions auxquelles ils sont soumis. Il faut s’allier pour être fort, et la statistique est un des tout premiers ciments de ces alliances. Enfin, il consiste à utiliser les statistiques pour redéfinir les objectifs qui sont poursuivis par les institutions. Il n’y a pas de raison de nous laisser imposer les éléments de réalités qui déterminent le sens de nos actions. Dans les trois cas, il s’agit de prendre en compte l’autorité des faits, sans oublier que nous participons à les faire, en particulier grâce aux statistiques qui nous permettent de les articuler aux éléments du monde auxquels nous avons un accès privilégié. Ces pratiques traversent les milieux de l’art, de la recherche et du militantisme. Toutes les contributions à cet ouvrage mettent en lumière l’intérêt à accorder aux statistiques comme argument politique.

En particulier, elles dissipent un des malentendus qui divisent les oppositions potentielles contre l’autoritarisme par les chiffres. Alors que la tradition romantique, développée avec l’industrialisation et aujourd’hui toujours vivace sous des formes nouvelles, est une puissante source de critiques, elle tend à percevoir la statistique uniquement comme une émanation de « l’esprit froid et quantificateur de l’âge industriel », incarné, par exemple, par le personnage de Thomas Gradgrind chez Dickensnote. La série d’expériences statactivistes que nous rassemblons comporte des usages du nombre qui parviennent à se tenir en prise avec les mécanismes de la cité néolibérale tout en se situant sur le plan de la libre créativité. Loin d’étendre le désert existentiel de l’utilitarisme, les inventions contestataires fondées sur le nombre étendent l’autonomie des acteurs et peuvent parfois présenter, en plus de leur portée émancipatrice, une valeur esthétique.

Surtout, si une certaine forme d’activisme par les nombres est devenue aujourd’hui incontournable, c’est d’abord en raison du rôle central joué par les instruments de quantification dans le maintien des fatalités contre lesquelles les luttes émancipatrices s’engagent. En effet, le codage, les catégories, les indicateurs, bref toutes les entités statistiques, apportent une contribution décisive à la construction de réalités qui se tiennent. À juste titre dénonçable en tant qu’équipement de base de la « cage de fer » de la raison capitaliste, la quantification ne doit pourtant pas être désinvestie au profit de l’exaltation des qualités, des singularités et de l’incommensurable. Un tel renoncement serait une erreur tactique, car la stabilité contraignante des entités statistiques n’est pas inébranlable. L’attention portée aux moments d’instauration des mesures et indicateurs révèle au contraire leur caractère créateur, et souvent leur capacité à en éclipser de plus anciennes. Moyen de réduire les incertitudes ou d’ouvrir des possibilités pratiques, la statistique est également un carrefour disciplinaire (mathématique, sciences sociales, comptabilité, gestion, etc.) où des rencontres inédites peuvent être favorisées.

Pour conclure, nous insisterons, avec Ted Porter, sur l’humour présent dans ces démarches statactivistes. On pourrait a priori penser que rien n’est plus éloigné du rire que les chiffres et, pourtant, plusieurs chapitres attestent qu’il n’en est rien. Bakhtine nous permet de comprendre pourquoi. Il montre, à partir de l’œuvre de Rabelais, qui est d’ailleurs truffée de jeux avec les nombres, que la structure du rire est ambivalente. D’une part, il rabaisse la réalité officielle, par l’ironie, la parodie, l’hyperbole. C’est là un levier humoristique bien connu, actionné notamment par Superflex et Pénombre. Mais ce n’est pas tout. D’autre part, le rire accompagne la joie de la contre-proposition, la matérialisation d’une nouvelle réalité inattendue, la liberté prise avec les carcans de la réalité instituée, la transformation productive. Bakhtine parle de la « force créatrice du rirenote ». Il écrit que « le rire rabaisse et matérialisenote », il est concomitant du rabaissement de l’officiel qui était grand, et de la matérialisation et de la libération, partant du grandissement, de ce qui gagne en réalité. Les travaux de Le Chevallier, de Prévieux avec les policiers du XIVe arrondissement, ou encore du BIP 40 l’illustrent à merveille. Et même ceux de Pierre Bourdieu, lui qui disait : « La sociologie, ça doit être rigolo » et s’efforçait de faire sourire ses lecteurs grâce à un « usage nouveau des statistiquesnote ». L’émancipation peut aussi prendre la forme d’un rire collectifnote.

Dès lors, « un autre nombre est possible » : ce qu’une logique hégémonique de quantification a instauré, une pratique statactiviste avertie peut chercher à le défaire, ou au moins à le bousculer. Ce détournement du mot d’ordre altermondialiste n’est pas ici l’incantation d’un possible indéterminé, mais un appel à produire des objets quantifiés qui reconfigurent le possible dans un sens voulu et, on le souhaite, favorable au plus grand nombre. Bien sûr, le sort d’un indicateur alternatif, du calcul du coût d’une politique ou du dénombrement d’une nouvelle catégorie sociale est incertain. Ces initiatives peuvent « prendre » dans l’espace public ou passer inaperçues. Il reste que, par rapport à d’autres productions intellectuelles, les débats et contestations portant sur les nombres en société sont susceptibles de prendre une portée pratique remarquable et, pourquoi pas, un tour heureux – voire comique.

Première partie - Critique radicale ou réformiste, exemples pris au passé

Quelle statistique pour quelle critique ?

Luc Boltanski

Les questions qui surgissent à l’intersection de la statistique et de la critique se sont formées au cours d’une histoire conflictuelle qui, sans être toujours explicitement rappelée, ni même parfois, peut-être, présente à l’esprit des statisticiens de terrain, n’en demeure pas moins sous-jacente aux débats les plus actuels, un peu à la façon d’un inconscient. Elles s’enracinent dans les tensions anthropologiques et politiques qui ont accompagné le développement des statistiques sociales, non seulement en tant que modes de représentation des êtres et de leurs actions prenant appui sur les mathématiques, mais, surtout, en tant qu’outils de gouvernement de ce qui, au cours du XIX e siècle, a pris le nom de sociétés. Or ce terme désignait des populations et des territoires, supposés homogènes ou en voie d’homogénéisation, dont les contours se superposaient, en fait, à ceux des États-nations, auxquels les pouvoirs de totalisation de la statistique contribuaient à conférer une représentation objectivéenote.

Cette histoire est aujourd’hui bien documentée, particulièrement, en France, grâce à Alain Desrosièresnote dont les magnifiques travaux ont accompagné et, en nombre de cas, précédé la diffusion des problématiques d’inspiration foucaldienne qui constituent aujourd’hui le cadre au sein duquel sont souvent analysées les relations entre représentation statistique et action politiquenote. Retracer cette histoire – même à partir de sources de seconde main – excéderait largement le cadre de cette intervention. Mais il peut être néanmoins utile de rappeler la situation qui prévalait dans les années 1960, période durant laquelle la statistique a commencé, surtout en France, à faire l’objet non seulement d’une utilisation gouvernementale, mais aussi d’un usage critique, et cela sur une large échelle.

La défense réactionnaire de la « singularité » contre la statistique sociale

Dans l’atmosphère intellectuelle qui prévaut en France au cours des années d’après guerre, les approches statistiques furent confrontées à des oppositions allant de la méfiance à une sorte de mépris. Ces dernières ne prenaient pas appui sur un rejet des formes de contrôle étatiques, qualifiées de « technocratiques », qui aurait pu se réclamer des courants libertaires et, par exemple, de leur résistance aux recensementsnote, mais sur des traditions spiritualistes, retraduites dans l’idiome du personnalisme ou de la phénoménologie. Partant des personnes et de leur relation au monde, considérées comme toujours singulières, ces approches mettaient en cause les formes totalisantes qui se réclamaient de la sociologie, particulièrement, dans ses expressions durkheimiennes, et qui entendaient identifier des phénomènes spécifiquement « sociaux », relativement indépendants des volontés, des intentions et des motifs d’ordre individuel. L’approche individualisante mettait ainsi l’accent sur la primauté de la différence, sur la valorisation des personnes en tant que sujets, dotés d’une conscience et susceptibles par là de choix moraux, sur la responsabilité, et sur la liberté ontologique des êtres humains, auxquels elle opposait l’abandon à la volonté impersonnelle de la foule, de la masse, de l’opinion (le « on »), ou même la dictature de la norme qui neutralise les consciences et les plonge dans l’enfer du banalnote. À l’inverse, le genre d’approches qui cherchaient à tirer parti des opérations de totalisation statistique mettait l’accent sur la puissance des effets systémiques et sur les contraintes, voire sur les déterminismes dits « sociaux », auxquels les agents devaient se plier, parfois, ou souvent, sans même être en mesure de les identifier en tant que tels.

Cette opposition était, dans une large mesure, polarisée politiquement. Tandis que les approches individualisantes ou personnalisantes étaient souvent adoptées par des auteurs que leur évolution allait conduire vers la droite ou l’extrême droite (comme ce fut le cas, par exemple, de Jules Monnerotnote), les approches totalisantes, utilisant l’outil statistique, étaient plutôt revendiquées par des auteurs se réclamant de la gauche et, souvent, du socialisme ou du communisme. Il leur était en effet reconnu une puissance critique pour la raison suivante. En mettant au jour des effets systémiques susceptibles de s’imposer aux agents sociaux, mais de façon différentielle, elles étaient créditées de la capacité à dévoiler les asymétries sociales et elles étaient utilisées, par là, pour disculper les acteurs dont les conduites étaient mal jugées de l’accusation d’être eux-mêmes responsables des maux, soit qu’ils s’infligeaient, soit aussi, d’ailleurs, qu’ils infligeaient aux autres. Traités, au moins implicitement, par les approches individualisantes comme fautifs ou comme incapables (comme stupides, paresseux, ivrognes, brutaux, etc.), ou condamnés pour leur passivité, ces acteurs dévalorisés pouvaient être considérés, depuis des positions critiques, en tant que victimes de processus sociaux d’exploitation et/ou de domination, sur lesquels ils n’avaient pas prise. Du même coup, les approches individualisantes et moralisantes pouvaient être accusées à leur tour de ne rien faire d’autre que de « blâmer les victimesnote ».

Les conséquences statistiques du tournant constructiviste

Cette situation épistémologique et politique s’est trouvée déstabilisée, disons vers le début des années 1970, quand a été mise au jour la dépendance des résultats statistiques à l’égard des opérations de codification et des nomenclatures sur lesquelles ils reposent. Ce tournant s’est opéré, de façon relativement indépendante, aux États-Unis et en France. Aux États-Unis, avec le développement de l’interactionnisme puis, surtout, de l’ethnométhodologie. En France, avec le rapprochement entre, d’un côté, les usages sociologiques des méthodes statistiques et, de l’autre, les traditions venues de l’anthropologie ou des différents courants postkantiens, qui avaient mis l’accent sur les processus de catégorisation, comme, par exemple, les courants de la linguistique humboldtiennenote ou les courants structuralistes plus ou moins inspirés de Durkheim. Mais on peut penser que, dans un cas comme dans l’autre, et par des voies différentes, a été prépondérante l’influence de l’ethnoscience, qui, aux limites de l’anthropologie et de la linguistique, s’appliquait à modéliser les taxinomies populaires dans les sociétés dites traditionnelles, notamment dans le domaine du corps et de la maladienote.

En France, c’est surtout autour de Pierre Bourdieu que ce rapprochement entre les méthodes statistiques et la problématique de la catégorisation s’est développé. Pierre Bourdieu, d’abord nourri de phénoménologie, s’était, en Algérie, tourné vers l’anthropologie mais aussi, après sa rencontre avec Alain Darbel, alors administrateur de l’Insee en poste à Alger, vers les usages sociologiques de la statistique. Il avait donné, à son retour en France, un enseignement à l’ENSAE qui avait sensibilisé un certain nombre de jeunes statisticiens et, au tout premier chef, Alain Desrosières, puis Laurent Thévenot et bien d’autres, aux nouvelles problématiques produites par le rapprochement entre les travaux anthropologiques portant sur la catégorisation et les approches statistiques.

Au titre de témoignage sur les problématiques qui imprégnaient les travaux des jeunes chercheurs réunis autour de Pierre Bourdieu, je me permettrai de faire référence à un article que j’ai publié, en 1970, dans la Revue française de sociologie, intitulé « Taxinomies populaires, taxinomies savantes : les objets de consommation et leur classementnote ». Ce texte, qui prenait appui sur les travaux que nous menions alors dans le domaine de la sociologie du corps et de la maladie, critiquait les principes de classement et les nomenclatures mis en œuvre dans une grande enquête de l’Insee portant sur la consommation alimentaire. La critique était menée en confrontant, d’un côté, les taxinomies implicites sous-jacentes aux opérations de classement accomplies par des acteurs sociaux appartenant à différentes classes sociales et, de l’autre, les nomenclatures utilisées par les statisticiens de l’Insee, cela de façon à mettre au jour les a priori implicitement contenus dans les modes de catégorisation officiels, souvent inspirés par la modélisation économique. Cette approche consistait donc à traiter, de façon devenue aujourd’hui banale, les classifications sur lesquelles reposaient les enquêtes de l’Insee comme des nomenclatures administratives, n’ayant qu’un lointain rapport avec les taxinomies populaires mises en œuvre par les acteurs sociaux dans le cours de leurs activités quotidiennes. À une réalité officielle et construite, performée par une administration d’État, on pouvait opposer ainsi une réalité officieuse, mais bien plus « réelle » puisqu’elle informait les pratiques.

Un pas de plus était accompli quelques années plus tard, avec un autre article de Pierre Bourdieu, publié, avec ma (modeste) collaboration, dans une des premières livraisons des Actes de la recherche en sciences sociales, « Le titre et le postenote », qui mettait l’accent non seulement sur la construction de la réalité sociale opérée par les nomenclatures statistiques officielles, mais aussi sur les effets sociaux qu’exerçaient ces constructions, par le truchement de processus de réflexivité. Dans cet article, une large place était en effet consacrée aux opérations cognitives et aux actions que les acteurs sociaux développaient, en retour, pour se déterminer et s’identifier par référence ou par opposition à ces nomenclatures officielles. Cela, d’ailleurs, dans un esprit qui n’était pas si loin des apports de la théorie des anticipations rationnelles qui allait, comme l’a bien montré Thomas Angelettinote, profondément transformer, à partir des années 1980, la logique de construction des modèles économiques et leurs usages sociaux. Ces effets de réflexivité seront analysés, par la suite, de façon beaucoup plus approfondie, par Alain Desrosières et Laurent Thévenot, notamment dans l’ouvrage qu’ils ont consacré aux Catégories socioprofessionnelles note.

Le constructionnisme contre les usages critiques de la statistique ?

Il faut bien remarquer que ce tournant taxinomique, annonciateur du tournant linguistique qui allait se développer dans les années 1980, allait avoir des conséquences importantes sur les usages critiques de la statistique, conséquences qui, à l’époque, furent sinon ignorées, au moins sous-estimées. En mettant en lumière la dépendance des totalisations statistiques par rapport à des systèmes de catégorisation dotés d’une assise administrative et/ou juridique ; la distance entre les catégorisations officielles et les taxinomies tacites ; enfin, les effets de réflexivité développés par des acteurs confrontés aux nomenclatures officielles, ce tournant taxinomique ne pouvait pas ne pas introduire un doute quant au pouvoir critique des outils statistiques. Suscité par l’avancée même de la critique qui, à la suite de la première école de Francfortnote, et même du premier Habermasnote, s’affirmait par la mise en cause de la neutralité des sciences objectives, dénoncées comme outils de gestion, ce mouvement ne risquait-il pas d’entamer la positivité même des méthodes statistiques qui constituaient pourtant l’un des principaux ressorts de la critique sociale ?

Si les instruments statistiques ne peuvent dénombrer que ce qui a été préalablement catégorisé, et si les modes de catégorisation sur lesquels ils reposent sont solidaires d’intérêts sous-jacents, comment ces outils peuvent-ils prétendre contribuer au dévoilement critique d’une réalité supposée « profonde » dissimulée par la réalité officielle et construite ? Une illustration particulièrement exemplaire de ce problème est fournie par l’un des premiers articles publiés par Emmanuel Didier, il y a une quinzaine d’années, portant sur l’histoire de la notion d’« exclunote ». Dans cet article, Emmanuel Didier suit les transformations des contours et des usages de la catégorie d’« exclu », depuis les premiers essais politiques des années 1970, où elle désigne ceux qui ne peuvent pas « suivre le rythme du progrès », jusqu’à son introduction dans la statistique positive au cours des années 1990, où elle sert la gestion administrative de la pauvreté, en passant par le truchement d’organisations charitables ou humanitaires dans le cours des années 1980.

Il est particulièrement intéressant, pour saisir la façon nouvelle dont s’est posée la question de la relation entre critique et statistique, de suivre le travail de Pierre Bourdieu au cours de ces années 1960-1970, et les positions relativement ambiguës qui furent les siennes à l’égard de ce problème. Peu de sociologues français ont poussé aussi loin qu’il l’a fait l’usage critique de la statistique. Prenons, par exemple, Les Héritiers note, publié en 1964 par Pierre Bourdieu et Jean-Claude Passeron, qui a sans doute joué un rôle non négligeable dans les changements d’humeur collective qui ont précédé mai 1968. Au moyen d’un appareil statistique relativement sophistiqué et détaillé, ce livre met en lumière les inégalités des destins scolaires des enfants originaires des différentes classes sociales et la dépendance de la réussite scolaire par rapport à l’origine sociale. On peut faire, à propos de ce livre, plusieurs remarques qui éclairent les usages critiques de la statistique. La première est que cette démonstration repose sur des nomenclatures officielles, qu’il s’agisse de la nomenclature des diplômes ou de celle des catégories socioprofessionnelles. La seconde est qu’il se propose bien d’utiliser la statistique pour porter au jour des effets de système et, par là, pour disculper ceux que le système scolaire éliminait de l’accusation selon laquelle ils seraient responsables de leurs propres échecs. Dénonçant la croyance dans l’« école libératrice » comme idéologie, il va à contre-courant des verdicts scolaires et entend montrer comment l’esprit méritocratique de l’« école républicaine » la conduit, en fait, à « blâmer les victimes ». La troisième remarque est que cette démonstration donne un relief particulier à un phénomène que, d’une certaine façon, personne n’ignorait et que chacun connaissait, en quelque sorte, par expérience. Puisque chacun savait bien, par expérience, ce qu’il en avait été pour lui, et ce qu’il en serait pour ses enfants et pour ses proches, on peut se demander si l’effet critique et politique du livre ne repose pas avant toute chose sur l’opération de totalisation elle-même. C’est bien, dans ce cas, la totalisation, avec les effets réducteurs qu’il est facile de lui imputer, et qui sont réels puisqu’il appartient à cette logique d’écraser les différences individuelles au profit de différences catégorielles, qui confère à l’expérience singulière des acteurs sociaux une autre teneur. Cela en la transformant en expérience partagée et par là, si l’on veut, en expérience « objective », ou plutôt en assurant la subjectivation d’une objectivation (pour ne pas dire d’une objectivité). Ou encore en transmuant ce qui, saisi depuis un point de vue phénoménal, n’était qu’une expérience vécue singulière, confrontée à d’autres expériences vécues non moins singulières – une épreuve en soi, idiosyncrasique et souvent douloureuse –, en épreuve pour soi, accomplie selon un certain format orienté vers la sélection sociale, et associée à des formes spécifiques de domination.

Il faut insister aussi sur le fait qu’une telle démonstration critique a été possible en ne prenant appui sur rien d’autre que sur des nomenclatures officielles. Dans ce cas, l’effet critique a consisté à rapprocher et – comme disent les statisticiens – à « croiser » des « variables », dont chacune ne pouvait avoir un effet de mise en ordre de la réalité qu’à la condition de n’être utilisée que dans son domaine et dans sa logique propre. Celui de l’organisation du travail et de la représentation des travailleurs, pour ce qui est des nomenclatures socioprofessionnelles ; celui de l’excellence et du mérite scolaires, pour ce qui est des catégories sur lesquelles repose le jugement scolaire. C’est ce croisement et lui seul qui a eu le pouvoir de faire surgir une factualité susceptible de discréditer l’économie morale sur laquelle reposait le système scolaire, qui était intériorisée par la plupart des enseignants qui le servaient, et de la dévoiler comme idéologie, c’est-à-dire ici, plus précisément, comme « idéologie du don ».

Comment Pierre Bourdieu faisait-il pour faire tenir ensemble l’usage critique de la statistique et la mise au jour de ce que les opérations statistiques devaient à un édifice de nomenclatures administratives et juridiques dont il soupçonnait – c’est le moins qu’on puisse dire – le rôle central qui était le leur dans la construction de la réalité sociale et, par là aussi, dans la maintenance des asymétries sociales et des formes d’exploitation ? Il faut bien avouer que, bien qu’il se soit souvent expliqué sur ce point, il est toujours difficile de clarifier cette question. Je me permettrai de faire référence à quelques souvenirs personnels, datant particulièrement de l’époque où j’écrivais mon livre sur Les Cadres note. D’un côté, Pierre Bourdieu approuvait cette analyse de la formation politique et sociale d’une catégorie sociale, dont j’entreprenais de montrer le caractère hétérogène et construit, notamment en mettant en parallèle différentes représentations possibles de la catégorie en fonction de la source statistique utilisée. Mais, à d’autres moments, il lui arrivait de m’opposer qu’« en fait » les cadres « n’existaient pas » ou n’étaient pas une « vraie classe sociale ». De même, par rapport aux travaux constructionnistes ou déconstructionnistes (comme vous voulez) qui, vers la même époque, stimulaient particulièrement les jeunes bourdieusiens particulièrement intéressés par ce que la sociologie cognitive pouvait apporter à l’analyse des opérations statistiques et de leurs usages (s’inspirant, en cela, d’une impulsion qu’il avait lui-même donnée), il arrivait à Pierre Bourdieu de nous reprocher de « scier la branche sur laquelle nous étions assis ». C’est-à-dire de mettre en péril l’outil statistique en tant, précisément, que principal instrument de la critique sociale.

On ne peut d’ailleurs pas lui donner complètement tort. Surtout si l’on pense à certaines interprétations de nos travaux qui furent formulées plus tard – à partir de la seconde moitié des années 1980 – par des sociologues se réclamant tantôt de l’individualisme méthodologique, tantôt des analyses de réseaux, ou encore tablant sur un supposé phénomène d’égalisation de la société française autour d’une vaste classe moyenne et de multiplication des différences individuelles ou entre petits groupes (les « tribus »). Ces appréciations nous créditaient d’avoir montré (en schématisant) « qu’en fait » les classes sociales « n’existaient pas », ou, au moins, qu’elles « n’existaient plus » puisqu’elles n’étaient rien d’autre que des « constructions sociales ». C’était, évidemment, une lecture de notre travail que nous ne pouvions approuver. Ce que nous avions voulu montrer était très différent et concernait, si l’on veut, la question de l’ontologie des collectifs. Nous voulions montrer – pour dire vite – que les entités collectives et, par conséquent, les entités qu’utilisent la statistique et, avec elle, la sociologie « existaient » bien, mais selon un mode particulier d’existence. Elles avaient besoin pour exister de prendre appui sur un incessant travail social dans lequel les tâches, toujours conflictuelles, de qualification occupent une place centrale. On peut dire de ce travail social de construction qu’il a « réussi » d’abord quand il parvient à modifier la sélection des différences jugées pertinentes et/ou à assurer la pérennité des différences déjà sélectionnées, et à les inscrire dans des systèmes catégoriels. Ensuite, quand ces entités une fois établies sont intégrées à des dispositifs dotés du pouvoir de faire pression sur les acteurs et de subordonner leurs chances de succès (ou de survie) à l’engagement dans certains cours d’action au détriment d’autres genres d’actions formellement possibles. C’est donc seulement en reconstruisant par l’analyse les linéaments de ce travail social que l’on peut comprendre comment les interactions et les luttes entre acteurs et entre groupes déjà constitués parviennent à faire exister ces « êtres inexistants » – comme disent les logiciens – que sont les entités qualifiées de « collectives » en les enracinant dans ce que l’on peut bien appeler, alors, la « réalité sociale ». Mais à condition de reconnaître que cette réalité est à la fois objective et construite. Elle est objective au sens où, soutenue par des institutions, elle guide et contraint les acteurs dont les actions concourent par là à la reproduire. Mais elle est construite au sens où elle résulte de la sélection de certains formats dans la pluralité des formes possibles qu’enferme le monde, compris comme l’ensemble, jamais complètement totalisable, de ce qui arrive. Or c’est précisément cette incomplétude de la réalité par rapport au monde qui constitue l’un des facteurs par l’intermédiaire desquels s’opère le changement des formats établis. Parce que les acteurs vivent des expériences qui sont enracinées à la fois dans la réalité construite et dans le monde, ils peuvent prendre appui sur celles de leurs expériences qui ne concordent pas avec les formats institutionnellement garantis et promus pour tenter d’en mettre en cause la réalité, et de les modifier en transformant leurs insatisfactions en revendication. C’est-à-dire en se livrant à la critiquenote.

Le tournant réflexif de la statistique

On peut se demander, toutefois, si ces analyses, comme celles aussi, par exemple, que menait, au cours des mêmes années, Bruno Latour dans le domaine des science studies note et, plus généralement, l’atmosphère intellectuelle dans laquelle ces travaux étaient plongés, n’ont pas joué un rôle dans le profond infléchissement des usages politiques de la statistique, qu’ont analysé Alain Desrosièresnote, Emmanuel Didier et Isabelle Brunonote. Comme ils l’ont montré, ces nouveaux usages de la statistique fondés sur les palmarès et sur le benchmarking marquent une rupture profonde avec la conception objectiviste de l’appareil statistique qui prévalait encore dans les années 1960-1970. Ce dernier supposait un statisticien enfermé dans son institut, susceptible d’aider, par la mise en œuvre d’outils impartiaux, le pilotage par l’instance étatique d’une réalité sociale supposée indépendante des mesures prises en sa faveur (ou en sa défaveur) et même, en quelque sorte, indifférente ou aveugle. Or les nouveaux outils prennent explicitement en charge les anticipations rationnelles, autrement dit les effets de boucles engendrés par la publicité donnée aux représentations statistiques dont la valeur tient non seulement à leur capacité descriptive mais, surtout, à leur puissance performative, puisque la description est solidaire d’anticipations concernant les réactions que l’on peut attendre d’acteurs sociaux rationnels confrontés à ces représentations. Ce nouveau tournant, que l’on peut qualifier de tournant réflexif, va de pair, comme l’a montré Laurent Thévenot dans l’article qu’il a consacré au « gouvernement par les normesnote », avec de nouvelles formes de gouvernementalité. Ces dernières, s’affranchissant du modèle objectiviste du pilotage visant à maîtriser un environnement instable, notamment en faisant le partage entre internalités et externalités, prennent appui non seulement sur les réactions aux effets des mesures adoptées, mais entendent aussi modifier les contours de la réalité en anticipant et en incorporant les boucles de réflexivité produites par ces mesures.

Critique réformiste et critique radicale

On peut chercher à éclairer la relation entre statistique et critique au prisme d’une distinction, proposée dans De la critique, entre réalité et monde, distinction visant, notamment, à échapper aux apories que peuvent susciter des interprétations exagérées de l’idée de « construction sociale de la réaliténote ».

Par monde, il faut entendre ici « tout ce qui arrive » – pour reprendre une formulation de Wittgenstein – et même tout ce qui serait susceptible d’arriver, ce qui renvoie à l’impossibilité de connaître et de maîtriser le monde en totalité. À l’inverse, la réalité est stabilisée par des formats préétablis, soutenus par des institutions, qui ont souvent, au moins dans nos sociétés, un caractère juridique ou parajuridique. Ces formats composent une sémantique chargée de dire ce qu’il en est de ce qui est. Ils établissent des qualifications, les organisent sous forme d’instruments de catégorisation, qu’il s’agisse de taxinomies implicites ou de nomenclatures standardisées. Ils contribuent par là à définir, à stabiliser et à faire exister des entités, c’est-à-dire, particulièrement, par rapport au problème qui nous occupe aujourd’hui, des collectifs dotés de contours plus ou moins nets. À ces formats sont également associés des procédures d’épreuve (au sens où le terme est utilisé dans De la justification note) et des modes de détermination des rapports que doivent entretenir entités et épreuves pour avoir un caractère acceptable. La réalité se présente ainsi comme un réseau de relations causales qui font tenir les uns aux autres les événements auxquels l’expérience est confrontée. La référence à ces relations permet de donner sens aux événements qui se produisent en déterminant quelles sont les entités auxquelles ils doivent être attribués.

Il est inutile d’insister ici sur le rôle très important joué par les appareils statistiques, dont le développement a accompagné la formation des États-nations modernes, quant à la mise en place de ces formats et, par conséquent, quant à la stabilisation de la réalité. Il a fait l’objet de nombreuses études à la suite des travaux séminaux de Michel Foucault et, sous un rapport permettant d’approfondir la relation entre mathématiques, droit et politique, d’Alain Desrosières. Comme l’ont montré ces travaux, la relation entre les instruments statistiques et la constitution de la réalité s’établit par un jeu de va-et-vient. Les instruments statistiques prennent appui sur des modes de catégorisation qui ont largement une assise juridique ou réglementaire. Mais, en même temps, en donnant aux entités ainsi définies une teneur numérique, ils contribuent à les inscrire dans une réalité conçue comme indépendante des actions individuelles et surtout comme autonome par rapport aux décisions politiques.

En prenant appui sur la distinction entre monde et réalité, on peut chercher à préciser la vieille opposition entre critique réformiste et critique radicale qui a joué le rôle que l’on sait dans les conflits politiques qui ont déchiré les mouvements se réclamant de la « gauche » au cours du XX e siècle.

Les formes de critique qui ont une orientation réformiste et les formes de critique qui ont une orientation radicale ne diffèrent pas profondément par les principes qui les fondent. Elles s’enracinent l’une et l’autre – pour dire vite – dans l’esprit des Lumières et dans les mêmes exigences d’émancipation, en sorte que l’on peut voir dans la critique radicale une sorte de passage à la limite des dispositions ouvertes par le libéralisme politique du XVII e siècle (ce que Jonathan Israel appelle les Lumières extrêmes note). Mais elles se distinguent l’une de l’autre par deux conceptions de la relation entre réalité et monde et, du même coup, par deux façons différentes d’envisager le rapport entre le probable et le possible.

La position réformiste se fonde sur la croyance selon laquelle les éléments qui composent la réalité sont suffisamment indépendants les uns des autres pour que certains d’entre eux puissent être progressivement améliorés sans que les contours de la réalité ne soient radicalement transformés, au moins d’un seul coup et en bloc. Elle suppose, notamment, une capacité de résistance de ce que l’on peut appeler la forme État, en tant que principe de stabilisation de la réalité pour une population sur un territoire, par rapport aux flux qui ne cessent d’en perturber la mise en ordre, c’est-à-dire, très concrètement, dans les sociétés modernes, par rapport aux effets liés aux changements du capitalisme.

À l’inverse, les positions issues de la critique radicale dénient cette possibilité. Elles mettent l’accent sur l’interdépendance entre les éléments qui composent la réalité et, par conséquent, sur la quasi-impossibilité d’en modifier certains éléments – au moins des éléments importants – sans changer, d’un coup, le tout. Or cette mise en cause de la réalité, conçue en tant que forme construite de totalisation, suppose que la critique soit en mesure de se soustraire, au moins par une expérience de pensée, à la réalité, en arrachant au monde des éléments qui ne concordent pas avec les formats établis, ou qui les contredisent. Cette opération prend appui sur l’expérience, dans ce qu’elle a de plus singulière, c’est-à-dire sur ce que l’on peut appeler les épreuves existentielles note. En effet, à côté des épreuves soumises à des formats plus ou moins institués, comme le sont, dans nos sociétés, les grandes épreuves sur lesquelles repose la sélection sociale, les acteurs font sans arrêt, dans le cours de leur vie quotidienne, l’expérience de modes de mise à l’épreuve qui sont ignorés ou déniés par les formats établis. Il est, de ce fait, très difficile, pour des acteurs laissés à eux-mêmes, de les rendre manifestes, et surtout de les transmuer en attentes explicites susceptibles d’être reformulées sous la forme de revendications. Toutefois, certaines situations d’interaction ou d’« effervescence collective » – comme dit Durkheim –, telles qu’on les observe dans le cours des mouvements sociaux (émeutes, manifestations, fêtes, etc.) favorisent le partage d’expériences jusque-là indicibles et la coconstruction de nouvelles ressources expressives susceptibles de servir de support à la mise en place de revendications affirmées dans l’espace public.

C’est la raison pour laquelle cette critique radicale ne peut se faire jour qu’en opposant aux constructions sémantiques, soutenues par le travail institutionnel, des éléments issus de la pragmatique de la vie quotidienne. Cela, par exemple, en mettant en cause les définitions instituées, par la recherche et par la mise en valeur de nouveaux exemples qui, souvent du fait de leur ambiguïté, tendent à introduire du trouble dans les classifications officielles. Mais c’est aussi la raison pour laquelle les expressions les plus radicales de la critique se sont d’abord manifestées, en nombre de cas, en prenant des chemins qui n’étaient pas ceux des sciences sociales, ni d’ailleurs de la philosophie universitaire, mais ceux des arts ou de la poésie. Ces derniers, étant moins soumis à des contraintes de cohérence argumentative, étaient en effet mieux à même d’élaborer les formes symboliques propres à donner corps à des expériences et à des épreuves dont la factualité pouvait paraître douteuse ou marginale si on la mesurait à l’aune de la réalité établie. C’est souvent du rapprochement entre l’action militante et l’expressivité artistique que sont nées les formes les plus radicales de mise en cause de la réalité de la réalité. Le montre, à l’évidence, l’histoire des avant-gardes du XX e siècle et, particulièrement, bien sûr, celle de mouvements qui, comme ce fut le cas du surréalisme puis du situationnisme, entendaient se maintenir au point d’indistinction entre la politique, la poésie et la vie quotidienne, c’est-à-dire là où réside la vie tout court.

Cette distinction entre les moyens de la critique réformiste et ceux de la critique radicale n’est pas étrangère – me semble-t-il – à la question de savoir comment et dans quelle mesure la statistique peut être mise en œuvre pour apporter sa contribution à la critique sociale. La critique réformiste peut prendre appui sur les instruments statistiques reposant sur des formats de réalité préexistants, notamment en rapprochant des formats relevant de domaines de réalité différents, et en établissant des corrélations entre « variables », comme on l’a vu dans le cas de la mise en cause du système scolaire présentée dans Les Héritiers. En revanche, la critique radicale peut beaucoup moins facilement se réclamer de l’approche statistique, parce qu’elle doit tabler sur des épreuves qui n’ont pas fait l’objet d’un relevé cartographique et qui, de ce fait, se présentent d’abord à l’expérience sous la forme de singularités, voire d’exceptions. On peut toutefois considérer qu’une des tâches privilégiées de la statistique, dans ses expressions radicales, consiste à mettre en place des sortes d’observatoires se livrant à une activité de veille, de façon à se donner les moyens de rapprocher des cas considérés jusque-là comme des « exceptions » et de constituer ainsi des formes nouvelles de totalisation susceptibles de donner corps à des « pathologies sociales » (pour reprendre un terme emprunté à Axel Honnethnote) traitées comme purement individuelles, ou liées à des singularités locales, par les instances de pouvoir.

Dans ce dernier cas, l’entreprise statistique doit prendre en charge à la fois l’opération de comptage numérique et la formulation des catégories sur lesquelles repose nécessairement la prétention à modifier les bases de la comptabilité sociale. On pourrait trouver de nombreux exemples de ce genre dans les efforts qui ont été menés pour mettre au jour la domination masculine et pour rendre formulables les revendications féministes. On peut penser, par exemple, aux démarches visant à introduire le travail ménager dans les formats de la comptabilité économique, ou encore aux tentatives, plus difficiles encore à mener à bien, qui cherchent à donner corps aux asymétries entre les genres, en tenant compte des relations les plus intimes et, notamment, des relations sexuelles.

L’un des écueils auxquels doivent faire faces ces entreprises, particulièrement quand elles sont couronnées de succès, est celui de contribuer à mettre en place de nouveaux formats de réalité et, par là, de concourir à brimer, voire à interrompre, le travail de la critique, en soumettant l’accès au monde à de nouvelles formes de forclusion. C’est dire la nécessité, pour la sociologie, particulièrement quand elle est envisagée du point de vue de ses usages critiques, de prendre appui, en même temps, sur des outils statistiques et sur une attention à l’activité pratique des personnes aux prises avec la diversité des situations de la vie quotidienne. Cela de façon à rester attentive à la pluralité des formes d’engagementnote, y compris, ou surtout, à celles qui n’ont pas été reconnues jusque-là comme suffisamment établies, valides ou « collectives » pour faire l’objet de prises statistiques.

La statistique, outil de libération ou outil de pouvoirnote ?

Alain Desrosières

La critique sociale prend souvent appui sur des arguments statistiques. Ceux-ci visent à exprimer et à rendre visibles des exigences d’égalité et de justice. La confiance accordée à ce type d’outils a cependant été érodée, dans la période récente, par la montée en puissance des politiques d’inspiration néolibérale. En effet celles-ci utilisent largement des « indicateurs » quantitatifs pour contrôler les acteurs sociaux et les mettre en concurrence à travers des techniques comme le benchmarking note. La statistique est-elle un outil de libération ou un outil de pouvoir ? La question peut sembler saugrenue pour qui a connu l’époque optimiste des années 1950 à 1970, où l’information fournie par la statistique publique était vue comme une des composantes majeures d’une société démocratique.

Cet optimisme peut aujourd’hui être réinterrogé, non seulement du fait des usages de la quantification par les pratiques de gestion néolibérales, mais aussi en prenant en compte les apports des recherches historiques et sociologiques menées sur la quantification depuis trois décennies. Ces travaux ont parfois pu donner, à tort, l’impression de relativiser, sinon de disqualifier, les arguments statistiques, par exemple à travers la floraison d’écrits sur la « construction sociale de ceci ou cela », finement analysés par Ian Hackingnote. En historicisant et sociologisant les productions statistiques, ces études semblaient en affaiblir la portée, en leur ôtant leur efficacité liée à leur image d’objectivité et d’impartialité. Les controverses fréquentes sur la mesure du chômage ou de l’inflation ne pouvaient que renforcer une méfiance par rapport à ce qui est trop souvent présenté comme des « chiffres indiscutables ». Pourtant, ces travaux ont permis de prendre du recul par rapport à des productions dont la discussion semblait réservée à des experts, en raison de leur technicité apparente, et de créer des espaces de débat public à leur propos, dont les colloques réguliers organisés par les syndicats de la statistique publique donnent de bons exemples.

La statistique comme « outil de faiblesse » aux mains des opprimés

La démocratie et la statistique ont en commun l’idée qu’il est possible de comparer et de « commensurer » les citoyens. Le principe d’égalité issu de la Révolution française est d’abord juridique, au XIX e siècle : un homme, une voix. Mais les femmes en sont exclues, non commensurables. À cette époque, les enquêtes sur les budgets et les conditions de vie, menées par Frédéric Le Play, ne portent que sur les classes populaires. Il est encore inconcevable d’interroger les bourgeois et de les comparer aux ouvriers. Puis, au XX e siècle, l’exigence d’égalité devient sociale, les enquêtes statistiques comparent les groupes sociaux, les femmes et les hommes. L’extension des droits sociaux et des systèmes de protection sociale est liée à une extension du domaine des questions pouvant faire l’objet d’enquêtes statistiques.

L’historien américain Ted Porter a analysé ce recours à l’argument statistique en parlant, de façon paradoxale, d’« outil de faiblessenote ». La statistique est en effet souvent présentée comme un outil de pouvoir, en suggérant, selon un raisonnement classique, que les classes dominantes orientent la production statistique en fonction de leurs intérêts. Porter suggère, au contraire, que l’hégémonie des classes traditionnelles est souvent fondée sur l’implicite, l’évidence non interrogée, vécue comme « naturelle ». L’argument statistique est alors mis en avant par les groupes dominés pour casser l’ordre ancien et rendre visible l’injustice. Plus finement, ce recours est souvent (mais non toujours) le fait de fractions dominées de la classe dominante, des classes moyennes plus scolarisées et mieux dotées en ressources pour construire l’argumentaire.

La première vague de construction des bureaux de statistique publique a lieu dans les années 1830 à 1860, sous l’impulsion d’Adolphe Quetelet. Cette statistique est constituée, d’une part, par les recensements de population et, d’autre part, par la compilation de registres administratifs de l’état civil (naissances, mariages, mortalité, morbidité, suicides) et de la justice (crimes et délits). Cette première statistique est interprétée par Quetelet en termes d’« homme moyen » et de régularité de phénomènes sociaux comme les crimes et les suicides. Elle contribue à diffuser l’idée que les sociétés peuvent être analysées en termes globaux, macrosociaux, relativement indépendants des comportements des individus. Cette idée peut être utilisée dans une perspective conservatrice (on ne peut rien changer), mais aussi dans une perspective critique : si les rapports sociaux sont indépendants de l’éventuelle bonne volonté individuelle des puissants, c’est tout le système qu’il faut changer. C’est bien de cette façon que raisonnaient Marx et, plus tard, les socialistes : ce ne sont pas les capitalistes qu’il faut changer, mais le capitalisme lui-même. De fait, Marx et Engels utilisaient largement les statistiques des manufactures de leur époque pour analyser et critiquer le capitalisme.

La deuxième grande vague de développement de la statistique est liée à la grande crise économique et sociale des années 1870 à 1890. En Angleterre, deux interprétations très différentes de la crise s’opposent alors. La première, biologisante, prend appui sur des arguments statistiques sur la supposée hérédité des aptitudes pour prôner des politiques eugénistesnote. La seconde, plus sociologique, décrit les conditions de vie des classes populaires, à partir d’enquêtes statistiques qui nourriront les projets des réformateurs sociaux et du mouvement travailliste (Beatrice et Sidney Webb, lord Beveridge). En Allemagne, les syndicats ouvriers organisent de grandes enquêtes sur les salaires et l’emploinote. En France, une tradition plus ancienne d’enquêtes sur les budgets ouvriers avait été initiée par un ingénieur catholique conservateur, Frédéric Le Play. Celui-ci reprochait au salariat capitaliste d’avoir déraciné les ouvriers de leurs solidarités anciennes, traditionnelles et familiales. Cette critique, venue pourtant d’un milieu conservateur allergique à la Révolution française, engendrera un mouvement d’enquêtes et de réformes sociales, dont le Musée social à Paris est un avatarnote.

Au début du xxe siècle, le travail est au cœur des activités statistiques

La crise de la fin du XIX e siècle est à l’origine d’une réorientation de la statistique publique vers les questions du travail, de l’emploi, du chômage. En France, un Office du travail (origine de l’actuel ministère du Travail) est créé en 1891, qui absorbe l’ancienne Statistique générale de la France (SGF). Des militants ouvriers syndicalistes, comme Fernand Pelloutiernote, y collaborent. Celui-ci insiste « sur l’usage de l’outil statistique qui permettra aux ouvriers dans la société postcapitaliste de non seulement appréhender les besoins, mais aussi de contrôler et d’organiser l’échange des produits ». La statistique est souvent perçue comme inséparable de l’État (ne serait-ce que par l’étymologie du mot, une science de l’État). L’idée qu’elle pourrait jouer un rôle important dans l’organisation d’une société postcapitaliste est pourtant plusieurs fois mentionnée dans les textes de militants libertaires fédéralistes (a priori hostiles à un État centralisé), comme le montre notamment un texte programmatique détaillé de la Fédération anarchiste publié en 1934 et republié plusieurs fois (Besnard, 1934)note. Cela suggère que la statistique peut intervenir de deux façons très différentes dans les activités et les projets du mouvement social : si elle fournit des arguments pour la contestation des injustices de la société, elle est vue également comme un outil d’organisation de la production et des échanges pour une éventuelle société postcapitalistenote, participant de la possibilité, envisagée par Michel Foucault, d’une « gouvernementalité socialiste ».

Dans les grands pays industriels, les réponses à la crise de la fin du XIX e siècle ont surtout porté sur l’organisation et la protection du marché du travail, et sur la mise en place des premiers éléments de ce qui deviendra plus tard l’État-providence : retraites des travailleurs âgés, assurance chômage, sécurité sociale. Les bureaux de statistique sont alors organisés autour des questions du travail. Le Bureau international du travail (BIT) est créé à Genève en 1920. Les syndicats de salariés y jouent un rôle important. Les enquêtes sur les budgets des familles ouvrières et sur les prix des biens consommés par celles-ci sont développées. Cette mise en forme statistique des rapports sociaux fournit un langage pour l’expression des revendications et pour les négociations résultant des conflits de classes. Elle a été présentée, après 1945, comme symbolique de rapports sociaux « apaisés », fondés sur la raison et les « constats partagés » à partir de statistiques, et non plus sur les passions et la violence.

Mais le succès du recours à l’argument statistique dépend fortement de la légitimité des institutions qui fournissent les données sur lesquelles il s’appuie. Soit celles-ci sont vues comme « incontestables » et il y a consensus sur les termes mêmes des désaccords, par exemple en cas de revendications d’augmentations de salaires pour compenser des hausses de prix. Soit, à l’inverse, l’outil lui-même est mis en cause, par exemple sur les pondérations des biens de consommation dont les hausses sont suivies par des indices de prix, ou encore sur la façon dont les changements des qualités de ces biens sont pris en compte. On le voit sur ces exemples et pour reprendre la dichotomie proposée plus haut par Luc Boltanski, la critique peut être « réformiste », en prenant appui sur les « chiffres indiscutables » ; ou, en revanche, plus ou moins « radicale », en récusant les modes de calcul de l’outil ou, a fortiori, en refusant même le recours à cette façon d’exprimer les rapports de classes. Une sociologie des usages critiques des statistiques doit prendre en compte toute cette palette de recours ou non-recours à ce type d’argument, ainsi que le jeu des acteurs, en situation, entre utilisation et refus de l’argument statistiquenote.

Pour qu’une statistique joue son rôle social de référent supposé neutre, au-dessus des parties d’un conflit et des groupes sociaux, elle doit être instituée, garantie par des procédures démocratiques elles-mêmes légitimes. Elle contribue alors à faire de la réalité et non pas simplement à la « refléter », comme il est souvent dit. Cette idée n’est pas relativiste, en ce qu’elle ne nie pas l’existence de l’inflation ou du chômage. Mais elle attire l’attention sur le fait qu’inflation et chômage peuvent être pensés, exprimés, définis et quantifiés de multiples façons ; et que les différences entre ces façons de faire ne sont pas de simples détails techniques, mais ont toujours une signification, historique, politique, sociologique. Les moments d’innovation sont ceux où des acteurs sociaux critiquent des manières de recourir à des mises en forme anciennes et en proposent de nouvelles, suscitant ainsi doutes et controverses. Mais le succès de telles entreprises n’est pas assuré. Il ne dépend pas seulement de la justesse intrinsèque de la critique, mais aussi de la force des réseaux sociaux qui appuient ou non celle-ci.

Nous examinerons cinq cas où de tels débats ont eu lieu : l’inflation, le chômage, la pauvreté, le produit intérieur brut et l’écologie. Dans chacun d’eux, le fait de quantifier et la manière de le faire ont été impulsés, puis discutés et remis en cause, par des mouvements critiques liés à de nouvelles façons de penser les rapports sociaux. Mais, si les innovations proposées par ces mouvements critiques ont eu pour effet de susciter réflexions et débats, en remettant en cause l’évidence des indicateurs statistiques institués, il a été plus rare que ces propositions acquièrent une visibilité comparable à celle de ces derniers. Nous citerons cependant deux cas où des innovations, de significations politiques très différentes (sinon opposées), ont eu un impact important : l’explosion des inégalités de revenus, le succès médiatique des palmarès d’universités.

Les critiques à rebondissement de l’indice des prix

L’indice des prix à la consommation est une des statistiques pour lesquelles ces controverses ont été les plus nombreuses. Le principe en est de suivre l’évolution dans le temps des prix de quelques biens et services, puis de faire une « moyenne pondérée » de ces évolutions. Cette moyenne peut servir à indexer des salaires ou, à tout le moins, fournit des arguments aux salariés qui souhaitent se protéger de l’inflation. Oui, mais comment sont choisis les biens de consommation suivis ? Consommés par qui ? Ouvriers, classes pauvres, tous les salariés, tout le monde ? Comment calculer la moyenne ? Quel système de pondération retenir ? Les biens suivis sont-ils vraiment identiques et comparables au fil du temps ? Toutes ces questions sont soulevées au cours de débats techniques et politiques.

Premier exemple : jusqu’au début des années 1950, le contenu du « panier de biens » suivi était négocié entre les syndicats de salariés et les patrons. Les premiers raisonnaient en termes de besoins, liste et quantité de biens minimales, indispensables selon eux pour la reproduction de la force de travail d’un ouvrier et de sa famille. Cet indice était dit normatif, car il semblait impliquer des choix de valeur : fallait-il intégrer le tabac et l’alcool ? Ces premiers débats ont été en partie dépassés dès lors que la statistique publique a pu produire des « enquêtes sur les budgets », portant sur les consommations effectives, soit des ouvriers et des employés, soit de la population entière. Cet indice était dit descriptif. Subsistait néanmoins la question : quelle population ? Longtemps fut publié un indice pour les seuls ouvriers et employés. À partir des années 1980, ce caractère « de classe » de l’indice disparut en partie, pour resurgir nettement depuis les années 2000, où l’indice fut à nouveau critiqué, accusé de ne plus « refléter la réalité », notamment depuis le passage à l’euro. Furent alors à nouveau proposés des indices différents selon la catégorie socioprofessionnelle.

Le consensus des années 1950 sur la méthode de l’indice descriptif n’avait cependant pas été complet, puisque la CGT continua longtemps de publier un indice distinct, au moins jusqu’à ce que l’inflation cesse d’être très forte, c’est-à-dire dans les années 1980. À ce moment, le problème du chômage était devenu le plus brûlant. Par ailleurs, la question de l’indice normatif ne disparut pas complètement, puisque, vers 1990, la lutte contre le tabagisme, prévoyant de fortes hausses des prix des cigarettes, suggéra de retirer le tabac de l’indice des prix, pour éviter un effet inflationniste. Devant les protestations, il fut décidé prudemment de publier deux indices, l’un avec et l’autre sans tabac, et aux « partenaires sociaux » de se débrouiller.

Une autre critique avait été soulevée par les syndicats de salariés dès les années 1970, celle de l’« effet qualité ». Un des moteurs de la dynamique concurrentielle du capitalisme est la création de nouveaux produits, rendant ou non de « vrais » nouveaux services et dont les prix sont bien sûr différents de ceux des produits antérieurs. Ceux-ci peuvent, dans certains cas, disparaître purement et simplement. Cela sape le principe de l’indice, supposé suivre des produits identiques dans le temps. Plus profondément, cela pose aussi le problème des « besoins ». Qui décide de ceux-ci ? Le mouvement écologiste, soucieux de la survie de la planète, pose ces questions en termes radicalement nouveaux, en mettant en balance l’épuisement des ressources et les émissions de gaz à effet de serre. Cette nouvelle vague de critiques suscite alors une forme de statistiques complètement nouvelle.

Chômage et pauvreté : les difficultés de changer le regard institué

À partir de la fin des années 1970, le chômage devient un problème grave. En France, sa quantification repose, de longue date, sur deux sources différentes. Une enquête par sondage sur l’emploi met en œuvre la définition dite du Bureau international du travail (BIT), laquelle comporte trois « conditions » : est chômeur « celui qui est sans emploi, fait des “démarches actives” de recherche d’emploi et est immédiatement disponible ». Selon les époques, cette enquête est annuelle, puis trimestrielle. L’autre source, mensuelle, est issue du nombre des inscrits dans les fichiers de l’Agence nationale pour l’emploi (ANPE), devenue Pôle Emploi en 2008. La statistique du chômage est très suivie et attendue par le monde politique, les acteurs économiques et sociaux et la presse. Même si la « qualité » de la source ANPE (puis Pôle emploi) est jugée mauvaise, sa fréquence mensuelle lui confère un avantage décisif. Un des enjeux des récurrentes controverses sur cette statistique du chômage – dont on ne détaillera pas ici les péripétiesnote – porte sur les façons d’articuler ces deux sources, pour bénéficier aussi bien de la qualité et la pertinence de l’une que de la fréquence mensuelle de l’autre.

Du point de vue des entrées pour la critique, les deux sources offrent de nombreuses possibilités, tant la notion de chômage et sa quantification sont conventionnelles – ce qui ne veut évidemment pas dire que le chômage n’existe pas. Ainsi des « trois conditions du BIT » : 1) quid des emplois à temps très partiel (une heure par semaine) ? 2) le fait de pointer à l’ANPE/Pôle emploi est-il une « démarche active » (cela fait débat) ? 3) une personne malade ou en stage est-elle « disponible » (ça se discute) ? De même, sur les fichiers ANPE/Pôle emploi, au moins huit catégories de chômeurs complets ou partiels sont enregistrées : lesquelles retenir ? (ça se discute). La méthode retenue pour le calcul du « chiffre officiel » rendu public chaque mois par les médias est vivement critiquée par les syndicats de salariés. La relative malléabilité de la définition du chômage alimente les soupçons, toujours présents, de manipulations gouvernementales.

Mais l’important pour notre propos est que, lors d’une controverse particulièrement vive au printemps 2007, un collectif de chercheurs et de militants a tenté de sortir de ce débat répétitif pour proposer une autre façon d’utiliser ces sources. Ce groupe milite pour que soient mis en avant d’« autres chiffres du chômage » (d’où son acronyme, ACDC)http://ur1.ca/gabfz>, 5 avril 2011.', FGCOLOR, '#ffffff', BGCOLOR, '#000000', BORDER, 1);" onMouseOut="return nd();">note. Il se présente ainsi sur son site Web : « Au-delà des actuelles controverses, la recherche d’un “vrai chiffre du chômage” est vaine, car il existe une diversité de situations de chômage, de sous-emploi et de précarité, qu’il importerait donc d’éclairer par un petit nombre d’indicateurs pertinents. Dans cette optique, nous présentons ici la première estimation, pour le cas français, du nombre de salariés au chômage ou en emploi inadéquat au sens du BIThttp://acdc2007.free.fr>.', FGCOLOR, '#ffffff', BGCOLOR, '#000000', BORDER, 1);" onMouseOut="return nd();">note. »

ACDC récuse ainsi la notion de « vrai chiffre du chômage » et propose que soit quantifié un autre agrégat, plus large. Cette idée est hardie, mais elle l’est trop dans l’état du débat au moment où elle est avancée. La notion de chômage est en effet inscrite fortement dans le débat social depuis au moins les années 1930note, en liaison avec l’institutionnalisation du travail salarié au cours du XX e siècle. Ce que demande ACDC revient à prendre en compte la désinstitutionnalisation du salariat, accélérée depuis les années 1980, et à en tirer la conséquence en proposant un autre indicateur statistique. Mais, pour réussir cette entreprise ambitieuse, ACDC devrait disposer d’un réseau d’alliés, scientifiques, politiques et administratifs, beaucoup plus important. Le saut que propose alors le collectif est en effet d’une tout autre nature que la rituelle dénonciation des manipulations vulgaires auxquelles se livrent les politiciens.

La quantification de la pauvreté a soulevé le même genre de débat et de proposition alternative. Classiquement, dans les pays européens, le taux de pauvreté dite « relative » est évalué par la part des ménages dont le revenu est inférieur à la moitié de la médiane de la distribution des revenus. Dans beaucoup d’autres pays, le taux de pauvreté dite « absolue » est fixé à partir d’un seuil de revenu monétaire (par exemple un dollar par jour). Sans revenir sur les débats sur les significations très différentes de ces deux modes de mesure, nombre de critiques observent que ces indices sont bien insuffisants pour exprimer la complexité des phénomènes de pauvreté. En France, ces questions ont notamment été débattues dans le cadre du Conseil national de l’information statistique (CNIS), une instance consultative paritaire où sont présentés et discutés les programmes de travail des services de la statistique publique.

Entre 2004 et 2007, plusieurs réflexions ont été menées au CNIS à la demande de militants, dont certains participent à un Réseau d’alerte contre les inégalités (RAI)note. En 2002, ce groupe avait proposé un indicateur annuel, le « baromètre des inégalités et de la pauvreté », dit BIP 40, lui-même synthèse de cinquante-huit séries statistiques concernant six dimensions des inégalités et de la pauvreté : travail, revenus, logement, éducation, santé et justice. Cet indicateur a subi le même sort que les propositions d’ACDC, pour des raisons analogues : malgré l’important travail mené pour le construire puis pour le faire connaître, les responsables politiques et les médias en ont peu fait usage, et sa publication semble interrompue depuis 2005.

Cependant, ces deux semi-échecs sont aussi des semi-réussites. Ils ont suscité nombre de discussions instructives. Issus d’un lourd travail militant bénévole, ils se sont essoufflés parce qu’aucune institution académique ou administrative n’a pris le relais pour produire régulièrement de nouveaux indicateursnote. Mais ces expériences montrent, a contrario, à quel point les statistiques publiques instituent de la réalité et que, à ce titre, elles peuvent être comparées à une Constitution. Elles sont le produit d’un travail de la société sur elle-même et incorporent l’état des rapports sociaux à une époque. Ce qui ne veut pas dire que ces statistiques sont purement et simplement l’expression des groupes dominants (comme il a pu être dit naguère), mais plutôt qu’elles mettent en forme une configuration historique de ces rapports en la réduisant, la simplifiant et la stylisant, par des médiations longues et compliquées, selon des formes très difficiles à défaire et à changer, comme le montrent les projets d’ACDC et du BIP 40 – et aussi, on va le voir, les critiques écologistes du produit intérieur brut (PIB) et les propositions alternatives d’autres façons de quantifier l’état économique, social et environnemental de la société, en construisant d’« autres indicateurs de richesse ».

Propositions alternatives : essais et réussites

Quelles sont les conditions de réussite d’une innovation statistique ? Il ne suffit pas qu’elle soit techniquement innovante. Il faut qu’elle corresponde à de nouvelles façons de penser et d’organiser les rapports sociaux, qu’elle contribue en retour à faire exister ; et aussi qu’un réseau d’innovateurs trouve suffisamment d’alliés pour la diffuser. La première lecture est macrohistorique, la seconde est plus microsociologique. Mais elles ne s’excluent pas. Quatre exemples très contrastés, de portée et d’implications sociales et politiques fort différentes, peuvent être examinés : la diffusion de la comptabilité nationale en France dans les années 1950 et 1960, les tentatives pour critiquer le PIB dans les années 2000, le suivi de l’évolution relative des 1 % des ménages les plus riches, le palmarès des universités dit « de Shanghai ».

Le PIB avait été conçu, dans les années 1950, comme pièce d’une construction large et complexe, celle des équilibres de la comptabilité nationale. Celle-ci visait à instrumenter des politiques macroéconomiques keynésiennes. L’histoire de cette création est bien documentée par trois récits complémentaires, qui présentent, comme un cas d’école, ces deux dimensions, macrohistorique et microsociologique. François Fourquet en fait une sorte de roman historique du projet modernisateur de l’après-guerre, centré sur des entretiens avec ses principaux protagonistesnote. Aude Terray décrit le contexte institutionnel de cette innovationnote. André Vanoli, un de ses principaux acteurs, en analyse de façon détaillée la genèse et le contenu techniquenote. Son fondateur, Claude Gruson, dirige l’Insee de 1961 à 1967. La comptabilité nationale a constitué, à partir des années 1960, le cadre organisateur de la plus grande partie du système de la statistique publique française. Ce succès vient de ce qu’elle était en adéquation avec le mode de gestion de l’économie de ce temps. Conçue au moment où le plan Marshall avait contribué à la reconstruction de la France après la guerre, elle fournissait le langage ad hoc aussi bien à la planification indicative imaginée par Jean Monnet qu’au pilotage des équilibres macroéconomiques pensés en termes keynésiens. Les trois livres cités présentent les facettes complémentaires de cette success story, notamment le petit réseau de personnalités qui, autour de Jean Monnet, Pierre Massé, Claude Gruson et André Vanoli, ont été à son origine.

Cette relative harmonie est entrée en crise à partir du milieu des années 1970. À ce moment, la croissance a ralenti, l’inflation et le chômage ont augmenté simultanément, ce qui n’était pas prévu dans les modèles antérieurs. La théorie keynésienne a été disqualifiée par une nouvelle théorie, dite des « anticipations rationnelles ». Celle-ci affirmait notamment que tout effort pour infléchir le cours des équilibres macroéconomiques par des actions publiques était voué à l’échec, dans la mesure où les acteurs microéconomiques en anticipaient les effets et prenaient des décisions qui tendaient à annuler ceux-ci. Cette innovation théorique contribuait au grand tournant vers les politiques néolibérales, qui l’emportent à partir des années 1980note. Dès lors, l’outil comptabilité nationale perdait de son lustre antérieur, mais acquérait pourtant un rôle nouveau, puisque, à partir des années 1980, le PIB va être utilisé d’abord pour fixer le niveau des contributions nationales au budget de l’Union européenne, puis surtout comme base du calcul des ratios encadrés par les « critères du traité de Maastricht » de 1992. Cela changeait profondément la nature de cet agrégat, qui cessait ainsi d’être une pièce dans un ensemble complexe construit autour de l’« équation keynésienne » des équilibres macroéconomiques globaux.

Puis, dans les années 2000, le PIB change encore de statut. Dans le cadre des débats, initiés notamment par la critique écologiste, sur les dangers du productivisme, sur la nécessaire transition énergétique et sur le réchauffement climatique, il est devenu un « indicateur de richesse », cette fois bien isolé de son contexte d’origine, le « tableau économique d’ensemble » (TEE), cohérent et équilibré, de la comptabilité nationale. Il lui est demandé désormais d’exprimer la santé sociale et environnementale d’un pays. Sa critique est liée à ce nouveau statut et à ce nouveau rôlehttp://sites.uclouvain.be/econ/Regards/Archives/RE075.pdf>.', FGCOLOR, '#ffffff', BGCOLOR, '#000000', BORDER, 1);" onMouseOut="return nd();">note. Dans la conclusion de leur livre sur Les Nouveaux Indicateurs de richesse, Jean Gadrey et Florence Jany-Catricenote font explicitement le parallèle entre la période actuelle et celle des années 1950, qui avait vu le succès de la comptabilité nationale de Gruson. Ils appellent de leurs vœux un renouvellement aussi important du système d’information économique, qui serait tiré par un vaste projet écologique, d’ampleur comparable au projet modernisateur des planificateurs de l’après-guerre. Cette comparaison est intéressante, puisqu’elle soulève la question du réseau des alliances de toutes sortes qui pourraient rendre plausible ce projet. Même si on le juge très pertinent, la comparaison suggère que ce projet éventuel est encore loin de susciter la même unanimité que celui des années 1950 (notamment en raison de la crise commencée en 2008). Ce parallèle sommaire entre des époques très différentes montre que le succès de la critique sociale exprimée dans le langage de la statistique ne peut reposer seulement sur la justesse des arguments, mais dépend largement du réseau politique et social dans lequel elle s’inscrit.

A contrario, on peut envisager le cas de deux innovations, de natures et de portées politiques très différentes, qui ont eu néanmoins un impact important dans les années 2000. L’une est la diffusion ultrarapide des références aux « palmarès des universités », à partir de celui de l’université de Shanghai, en 2003. Cette généralisation de la gestion fondée sur le benchmarking, c’est-à-dire une permanente compétition à partir d’indicateurs quantifiés, a profondément transformé les pratiques universitaires, en unifiant celles-ci autour d’un seul objectif : grimper dans le palmarès de Shanghainote. Une analyse sociologique de cette rapide transformation comporterait deux volets. L’un, microsociologique, suivrait la trajectoire de l’innovation, à partir de la Chine, ses acteurs, ses véhicules, ses retraductions d’un continent aux autres. L’autre, plus macrosociologique, analyserait en quoi cette innovation était cohérente avec le tournant néolibéral symbolisé par le « consensus de Washington », fondé sur le libre-échange et la concurrence généralisée au niveau mondial.

L’autre innovation dont le succès a été spectaculaire peut être vue comme la face noire de la mondialisation néolibérale, c’est-à-dire l’explosion des inégalités, avec l’enrichissement vertigineux de la partie déjà la plus riche des classes dominantes. À peu près au même moment, l’idée de Thomas Piketty et de certains chercheurs américains a été simple et originale. Au lieu de décrire les distributions de revenus, comme on le faisait auparavant, à partir des déciles (tranches de 10 %), ils « zooment » sur le centile (1 %) le plus riche, et même le millile (1 pour 1 000) et le dix-millile (1 pour 10 000). Ils rendent ainsi visible le fait qu’une très petite partie de la population, inscrite dans la fameuse mondialisation des échanges, en a monopolisé tous les profits, en se détachant ainsi complètement du reste du monde. Cela fut traduit par le slogan des « indignés » du mouvement Occupy Wall Street : « Nous sommes les 99 % »note. Dans une perspective microsociologique, on peut reconstituer la trajectoire qui va des travaux du groupe de Piketty jusqu’au slogan de New Yorknote. Le succès de cette innovation, apparemment simple, est représentatif des tensions de plus en plus explosives engendrées par la mondialisation.

Profil de visiteurs et comment j’ai rencontré hans

Hans Haacke et Howard Becker

L’œuvre de Hans Haacke que nous présentons ici, Visitors’ Profile, a été référencée pour la première fois dans un catalogue en 1975 note . Ce catalogue se termine par un article de Howard Becker et John Walton sur le travail de l’artiste. Nous avons demandé à Howard Becker quels intermédiaires les avaient rapprochés et si les sociologues avaient aidé l’artiste dans la rédaction du questionnaire. Voici sa réponse, qui est en même temps une très bonne introduction à l’œuvre de Hans Haacke.

Voici comment j’ai rencontré Hans. J’étais enseignant à l’université de Northwestern à Chicago. Les bureaux du département de sociologie étaient au fond d’un grand hall, et le département de sculpture était juste en face. Jack Burnham travaillait dans ce département (il en était même peut-être le directeur). Un jour (ce devait être à peu près en 1974), il toqua à ma porte, se présenta (nous ne nous étions jamais rencontrés avant) et me dit qu’il croyait savoir que j’étais un sociologue intéressé par l’art. Je répondis que c’était vrai. Il m’expliqua qu’il était en train de préparer un livre sur le travail de Haacke, et qu’il avait un problème sur lequel je pouvais peut-être l’aider. Je lui ai dit que je connaissais le travail de Haacke parce que le magazine Triquarterly, publié à Northwerstern, venait de consacrer un numéro à l’« art anti-objet », dans lequel était présentée la pièce de Haacke sur les administrateurs du musée Guggenheim, pièce qu’il avait créée après que le musée avait refusé de présenter une autre œuvre qu’il avait préparée pour une de leurs expositionsnote. J’avais lu le numéro et j’étais très emballé par son contenu, et spécialement par l’œuvre sur le Guggenheim, et j’ai donc demandé comment je pouvais lui rendre service.

Hans Haacke,   [Profil de visiteurs – Documenta], 1972. Questionnaire à choix multiples traité automatiquement, Documenta 5, Kassel. Courtesy Paula Cooper Gallery © ADAGP, Paris.

Hans Haacke, Documenta-Besucherprofil [Profil de visiteurs – Documenta], 1972.

Questionnaire à choix multiples traité automatiquement, Documenta 5, Kassel.

Courtesy Paula Cooper Gallery © ADAGP, Paris.

Il m’expliqua que Haacke était au départ un sculpteur, mais que les gens critiquaient les travaux qu’il commençait à faire sous prétexte que ce n’était plus de la sculpture mais de la sociologie. Or, comme il était sculpteur, il était, selon eux, censé ne rien connaître en sociologie. CQFD. Burnham avait donc décidé de faire évaluer le travail de Haacke par un sociologue sur le plan sociologique, et me demanda si je pouvais le faire. J’ai immédiatement accepté, mais j’ai précisé que ce travail relevait d’un type de sociologie auquel je ne connaissais rien (l’étude des « structures de pouvoir »), mais que mon collègue John Walton du département de sociologie en était un expert, et que j’allais lui demander s’il voulait bien travailler avec moi. Burnham accepta, Walton accepta, et nous écrivîmes cet article qui fut publié dans le livre de Burnham et qui a ensuite été réédité plusieurs fois, la toute dernière étant dans un petit volume (en français) publié à Bruxellesnote.

Haacke venait à Chicago pour travailler sur le livre avec Burnham. Jack s’arrangea pour que Hans et moi puissions passer un après-midi ensemble à discuter. Nous avons immédiatement trouvé plein de choses à nous dire et sommes devenus amis. Il était heureux (et en même temps assez amusé) de la conclusion à laquelle nous étions arrivés Walton et moi : Haacke était un très bon sociologue et les sociologues auraient beaucoup à apprendre de lui sur les façons d’étudier le pouvoir et de présenter les résultats de leur recherche sur le sujet.

Hans Haacke,   [Profil de visiteurs – Documenta], 1972. Remplissage du questionnaire, Documenta 5, Kassel. Courtesy Paula Cooper Gallery © ADAGP, Paris.

Hans Haacke, Documenta-Besucherprofil [Profil de visiteurs – Documenta], 1972.

Remplissage du questionnaire, Documenta 5, Kassel.

Courtesy Paula Cooper Gallery © ADAGP, Paris.

Je n’ai pas participé à la rédaction de ses questionnaires, ni à la galerie John Weber, ni au MOMA. Ils existaient déjà, de même que la pièce sur le Guggenheim, quand nous nous sommes rencontrés. Je pense qu’il a simplement rédigé les questionnaires seul. Ces derniers n’étaient ni très compliqués ni très sophistiqués, et ne requeraient pas de compétences particulières. Rien qu’une personne intelligente ne puisse faire seule.

À peu près un an après, je ne me souviens plus exactement quand, je me suis débrouillé pour que Hans parle à un colloque de sociologues de l’art, vaguement organisée sous le titre de « Conférence annuelle sur la théorie sociale et les arts ». Cette année-là, la conférence avait lieu à l’université d’État de Stockton (un des orateurs était le célèbre critique littéraire Kenneth Burke). Hans fit une vive impression sur les sociologues. Il présente bien, est très intelligent et très savant ; bien sûr qu’ils le trouvèrent merveilleux. Je lui étais très reconnaissant d’avoir parlé à ce groupe, et en même temps quelques années plus tard, sa femme Linda me dit qu’il était très heureux d’avoir ce genre de soutien de la part des sociologues. En effet, il était attaqué par les critiques d’art et d’autres acteurs du monde de l’art contemporain à New York.

Hans Haacke,   [Profil de visiteurs – Documenta], 1972. Présentation des résultats du questionnaire, Documenta 5, Kassel. Courtesy Paula Cooper Gallery © ADAGP, Paris.

Hans Haacke, Documenta-Besucherprofil [Profil de visiteurs – Documenta], 1972.

Présentation des résultats du questionnaire, Documenta 5, Kassel.

Courtesy Paula Cooper Gallery © ADAGP, Paris.

Depuis, nous sommes toujours restés en contact.

Hans Haacke,   [Profil de visiteurs – Documenta], 1972. Consultation des résultats du questionnaire par les visiteurs, Documenta 5, Kassel. Courtesy Paula Cooper Gallery © ADAGP, Paris.

Hans Haacke, Documenta-Besucherprofil [Profil de visiteurs – Documenta], 1972.

Consultation des résultats du questionnaire par les visiteurs,

Documenta 5, Kassel. Courtesy Paula Cooper Gallery © ADAGP, Paris.

Deuxième partie

Opérations. ruser avec la règle

Le jeu de la police avec les taux de criminalité

Eli B. Silverman

Introduction

Les usages, mésusages et exploitations des statistiques dans tous les domaines de la société moderne sont des sujets qui méritent d’être amplement explorés. Les recherches que j’ai menées avec John Eterno sur les statistiques criminelles démontrent que l’institution policière distord les prises de plainte et les classifications. De cette façon, elle étend sa nécessaire domination sur ses agents et elle présente une image favorable au public. C’est un tel portrait que le département de la police de New York (NYPD) diffuse par ses fréquentes proclamations officielles selon lesquelles le crime a décru de 75 % depuis 1993, l’année qui a précédé l’introduction dans le NYPD de « Compstat », un système de management de la performance et de la responsabilité.

Compstat a été mis en place en 1994. Il s’agit d’un système coordonné de management de la performance et de la responsabilité visant à faire diminuer la criminalité. L’essence de Compstat consiste en des réunions hebdomadaires au quartier général, pendant lesquelles les plus hauts échelons de la hiérarchie rendent les commandants de districts locaux responsables du contrôle de la criminalité en utilisant des rapports statistiques récents et des outils de cartographie électroniques.

Les médias et des universitaires complaisants ont fourni une légitimité symbolique à la machinerie Compstat, grâce à laquelle le NYPD fait appliquer la loi et produit les données officielles. De sorte que Compstat a été salué et imité partout dans le monde. Ainsi, en 1996, le magazine Time a pu faire observer que « Compstat est devenu le Lourdes des forces de l’ordre, attirant des pèlerins policiers de partout dans le monde […] venus prendre un premier contact avec la magie de New Yorknote ». Ces visiteurs étrangers venaient chercher le saint graal du management policier.

J’ai moi-même contribué à la success story de Compstat en publiant, en 1999, le livre NYPD Battles Crime. Innovative Strategies in Policing, qui loue les développements de Compstat et leurs bénéfices. Pourtant, lors de la réédition de cet ouvrage en 2001, j’ai ajouté un épilogue qui, malgré le jugement favorable émis initialement à l’endroit de Compstat, mettait en question certaines de ses conséquences très décourageantes :

La pression politique et policière visant à soutenir le phénomène de baisse de la criminalité a augmenté. Une stabilisation des taux n’était pas envisagée par les dirigeants. Ils demandaient toujours de meilleurs chiffres. Ceci a déclenché une multiplication des activités du NYPD « rentables », mais sans surveiller la santé structurelle de l’organisation.

En fait, Compstat marche maintenant sur la tête. Au lieu d’un instrument permettant de réévaluer objectifs et tactiques, et de chercher dans l’environnement des évolutions à venir, ces informations de statistiques comparées produites informatiquement ne sont plus connues que pour leurs aspects les plus visibles : la cartographie du crime et le déploiement des forces de l’ordre. La plus grande part de l’information est maintenant utilisée pour peser sur la gestion des opérations de rue. Les nombres – parfois n’importe quel nombre – règnent en maître. Pour reprendre les mots d’un participant, ce système bloqué est « complètement crispé ». Pour un détective blanc de Brooklyn retraité après vingt ans de service : « Compstat est devenu l’alpha et l’oméga. Pourtant, les gens en ont marre d’être harcelés, de subir des contrôles d’identité et d’être poursuivis dans la rue. Les gens n’en peuvent plus, et les flics pas davantagenote. »

Au même moment, j’étais en communication avec le Dr John Eterno, que j’avais rencontré dans le cadre de l’enquête sur le NYPD réalisée dans les années 1990. Eterno, alors capitaine, connaissait lui aussi de nombreuses anecdotes sur des policiers qui avaient subi de fortes pressions exercées par leur hiérarchie pour manipuler les statistiques. Le livre d’Eterno « La police conforme à la loi. Une étude de cas sur le NYPD », paru en 2003, faisait allusion à l’apparition de tels comportements liés aux réunions Compstat :

Les statistiques sur l’insécurité peuvent elles aussi être sujettes à des manipulations. Ceci est dû à la pression écrasante visant à faire reculer le crime. Les commissaires s’avèrent extrêmement inventifs pour mettre au point des techniques assurant qu’il y aura au moins une apparence de réduction de la délinquance. […] Après les réunions Compstat […] tout est fait pour que les plaintes ne soient pas classées parmi les crimesnote.

Le syndicat des gardiens de la paix fit des observations semblables concernant la pression managériale exercée pendant les réunions Compstat :

Compstat était une grande idée qui a été corrompue par la nature humaine. Le programme Compstat, qui attribuait aux commandants la responsabilité de contrôler la délinquance, a dégénéré en une situation où les dirigeants de la police font pression sur leurs subordonnés pour que les chiffres restent bas, peu importent les moyens. Les officiers de police font tout ce qu’ils peuvent pour éviter d’être traînés à la barre lors des réunions Compstat hebdomadaires. Par nature, ce sont des gens ambitieux qui convoitent une promotion, et des taux de délinquance en croissance ne sont bons pour la carrière de personnenote.

Voici comment on peut faire baisser la délinquance :

Alors, comment obtenir une fausse décroissance de la délinquance ? C’est assez simple. Il suffit de ne pas clore les procès-verbaux, ou de requalifier les crimes en simples délits et même de se contenter de les inscrire en main courante, ou de sous-évaluer la valeur des biens en cause de façon à ne pas dépasser la barre des crimes les plus graves, ou encore de regrouper plusieurs crimes dans un seul événement. Une façon particulièrement insidieuse de truquer les chiffres est de faire en sorte qu’il soit difficile ou même impossible pour les gens de déposer plainte – en d’autres termes, de faire en sorte que la victime ait l’impression d’être coupable, de façon à ce qu’elle tourne les talons pour s’épargner davantage de peine et de souffrancenote.

Étant donné le contraste saisissant entre les statistiques officielles du NYPD et les nombreux témoignages de falsification, Eterno me proposa de mener avec lui des recherches systématiques sur ce sujet, malgré le fait que le NYPD n’était plus ni transparent ni ouvert aux chercheurs extérieurs. Nous avions déjà collaboré sur des projets de recherche. Nous avons tous les deux le même diplôme, et nos collaborations ont été fructueuses car Eterno a une connaissance interne fine du NYPD tandis que j’ai travaillé et fait des recherches dans de nombreuses institutions judiciaires aux États-Unis et ailleurs. L’intention initiale était seulement d’écrire des articles scientifiques, mais la robustesse inattendue des résultats statistiques, ainsi que l’accumulation d’autres preuves nous ont convaincus d’écrire un livre qui couvrirait mieux la totalité du sujet.

1. Une enquête sur les retraités

Comme le NYPD ne diffusait pas d’information concernant les aspects les plus discutables de son style de police si largement publicisé, nous avions besoin d’une approche innovante pour produire nos données. La pierre de touche de notre méthode a été un questionnaire auto-administré, anonyme et envoyé par la poste aux retraités du NYPD ayant atteint le grade de capitaine et au-dessus. Par ailleurs, nous avons mené des entretiens approfondis avec des agents de plusieurs grades. En effet, les enquêtes, quand elles sont bien conçues, permettent aux chercheurs d’étudier des sujets sensibles comme l’usage de drogue par les jeunes ou les comportements sexuels. Dans ce cas, la construction de l’enquête est un des aspects les plus importants. Pour nous assurer d’une construction correcte, nous avons passé plusieurs mois à la mettre en place avec l’assistance de chercheurs du Molloy College et avec des groupes de discussion (focus groups) qui comprenaient des agents du NYPD en exercice et à la retraite. Ils ont ajouté certaines questions, ont repris des formulations, et nous ont aidés à tester l’instrument pour ce qui concernait sa clarté, sa concision et son objectif de dévoilement des dynamiques à l’œuvre dans les règlements et les procédures du NYPD.

L’enquête quantitative impliquait un questionnaire sophistiqué qui fut distribué, avec l’aide de l’Association mutualiste des capitaines (AMC), à tous les retraités enregistrés dans sa base de données. Les retraités ont l’avantage de moins craindre les représailles hiérarchiques que les agents en activité et, par conséquent, ont plus tendance à dire la vérité. De plus, nous avons spécialement décidé de préserver l’anonymat de nos répondants. Il leur était demandé de n’inscrire aucune donnée d’identification sur le questionnaire. Et, dès lors que la participation à l’enquête était entièrement volontaire, nous ne pouvions pas associer un questionnaire à un répondant – une caractéristique très importante de notre enquête car l’anonymat accroît les probabilités que les réponses soient sincèresnote.

Nous cherchions des données concernant le style de management du NYPD et les statistiques qu’il engendrait. Le questionnaire pouvait être rempli en quelques minutes, ce qui augmentait le taux de réponse. Et nous avions inclus nos propres coordonnées au cas où des questions ou des besoins de clarification seraient apparus.

Le 10 septembre 2008, nous avons envoyé le questionnaire à 1 197 membres retraités de l’AMC ayant le rang de capitaine ou au-dessus. 491 ont répondu, ce qui correspond à un taux de réponse de 41 %. Parmi ceux-ci, 323 (66 %) ont pris leur retraite en 1995 ou après, et 166 (34 %) avant 1995 – la première année complète où Compstat a été utilisé.

Le questionnaire lui-même consistait en une double page recto verso, sur laquelle étaient inscrites 23 questions. Il était intentionnellement court car les questionnaires longs découragent les enquêtés de les renseignernote. Nous avons longuement testé la formulation des questions. Elles étaient toutes fermées, excepté la dernière qui donnait au répondant la possibilité de partager un commentaire additionnel qu’il aurait souhaité ajouter.

Quelques précisions sur l’enquête doivent être apportées avant la discussion des résultats. Le questionnaire a été envoyé accompagné d’une lettre à en-tête de l’AMC qui demandait l’aide de la personne retraitée. Les frais ayant été financés par une bourse du Molloy College, aucune dépense n’a été engagée par l’AMC qui nous a seulement fourni l’accès au terrain. Outre cette aide et trois questions la concernant, l’AMC n’a eu aucun autre rapport avec l’enquête, les analyses et/ou les résultats. Nous lui avons néanmoins communiqué le rapport final en janvier 2010.

Un second aspect de notre méthode fut la réalisation d’entretiens semi-directifs. Ceux-ci ne pouvaient être anonymes puisque nous connaissions l’identité des répondants. Cependant, nous avons fait la promesse à chacun que leurs réponses et leur nom seraient gardés secrets. Ces interviews ne constituent pas un échantillon représentatif de tout le NYPD, mais elles ont été menées avec des agents de divers grades, allant de gardien de la paix à commissaire. Tous ont travaillé pendant l’ère Compstat. Quatre ont travaillé régulièrement avec Compstat dans les commissariats. Tous avaient et continuent d’avoir de bonnes évaluations. Aucun n’avait de sérieux problèmes de discipline. Ces répondants nous ont contactés après avoir vu des articles dans la presse, et ont accepté de nous aider ou nous ont dit qu’ils le feraient. Nous avons ainsi mené plus de cinquante entretiens. Ils furent menés sans structure préétablie, comme des « conversations informelles ». Comme le disent Maxfield et Babbie : « L’interviewer donne une direction générale à la conversation, puis relance sur des sujets qui ont été soulevés par le répondant. […] Idéalement, c’est le répondant qui parle presque tout le tempsnote. » En général, les interviews duraient entre une heure et une heure trente. Elles étaient décontractées et se déroulaient soit par conférence téléphonique, soit dans une atmosphère de travail. Nous étions présents tous les deux pour toutes les interviews. Cela nous a permis de clarifier certains propos, d’être plus précis, de comparer nos notes et de rappeler l’enquêté par la suite à propos de n’importe quelle question qui aurait pu rester floue.

2. Des résultats probants

Nous avons ainsi mené une recherche scientifique et sans biais. Nous avons traité les questions fermées en nous attachant à comparer ceux qui avaient travaillé avant le début de Compstat à ceux qui avaient travaillé après. Nous nous sommes concentrés sur la pression subie par ces agents à la retraite pour faire baisser les taux de délinquance. Ces derniers sont au cœur même de Compstat. Donc, si notre hypothèse est vérifiée, il devrait y avoir une différence significative dans les niveaux de pression. Nous avons utilisé une question de type « matrice de choix », c’est-à-dire que nous posons une question générale placée en tête ; en dessous à gauche, une liste de cas ou de critères est placée en colonne, et l’interviewé répond à la question dans les cas listés dans la colonne. En ce qui nous concerne, la question était : « En fonction des critères suivants, et en vous fiant à votre expérience personnelle, sur une échelle de 1 à 10 (1 étant le moins et 10 le plus), quelle est la pression exercée par les supérieurs hiérarchiques pour faire baisser le taux de criminalité ? » Pour cette question, notons que nous avons utilisé les mots « en vous fiant à votre expérience personnelle ». Notre groupe de discussion a jugé qu’il était redondant de le répéter pour chaque critère et qu’il était évident qu’il fallait répondre à toutes les questions de cette façon.

Cette question est celle qui donne la plus grande différence de toute l’étude. La réponse moyenne pour les officiers qui travaillaient avant Compstat était de 5,66. La réponse moyenne pour les officiers qui travaillaient après Compstat était de 8,26. Il s’agit d’une différence importante de 2,6. En termes statistiques, c’est une corrélation très forte (r = 0,557) et la probabilité qu’elle soit due au hasard est très faible (p < 0,001). Fondamentalement, cela signifie que les officiers qui travaillaient à l’ère Compstat ressentaient une pression exercée par la hiérarchie pour faire décroître le taux de criminalité bien plus grande que les autres.

Passons maintenant à la comparaison suivante. Elle repose sur la question 9 formulée ainsi : « Dans quelle mesure la hiérarchie vous demandait-elle d’être honnête avec les statistiques ? » Nous avons utilisé une échelle de 1 à 10 avec 1 signifiant une demande faible et 10 une demande forte. Nous nous attendions à ce que l’appel à l’honnêteté soit le même, ou même peut-être plus fort pendant la période Compstat puisque les chiffres y sont si décisifs. Pourtant, les résultats de l’enquête montrent étonnamment que l’appel à la probité était plus grand pendant la période précédant Compstat. La moyenne des réponses exprimées par les officiers d’avant Compstat était de 7,18 et pour leurs collègues de l’ère Compstat de 6,52. La différence entre ces deux moyennes est de 0,66 et elle est statistiquement significative (p < 0,01). De plus, parmi les 82 enquêtés qui ont répondu que l’appel à l’honnêteté était faible, près de 80 % travaillaient pendant la période Compstat. Cela révèle que les officiers travaillant sous Compstat ressentent une demande d’intégrité en matière de statistiques, émanant de leur hiérarchie, bien inférieure à celle que ressentent leurs prédécesseurs.

Nous affirmons que la combinaison d’une énorme augmentation de la pression pour faire baisser les taux de criminalité et d’une baisse de la demande d’intégrité en matière de comptes rendus statistiques est une recette pour que les chiffres soient manipulés. Le NYPD répond qu’il a mis en place un Service de l’intégrité des données et qu’en plus la Division de la qualité s’assure de la bonne préparation des rapports. Bien sûr, ces services peuvent examiner des plaintes écrites, mais la création d’un service de supervision supplémentaire ou d’un comité de veille interne n’est pas le propos. En effet, notre enquête ne questionne pas les règles bureaucratiques, mais bel et bien la perception des officiers. De sorte que la politique officielle du NYPD peut tout à fait être de débusquer la manipulation des rapports, il n’en reste pas moins que, selon notre enquête, les pratiques managériales du NYPD concernant l’intégrité ne sont pas efficaces. La perception des officiers est que la hiérarchie, à l’ère Compstat, est moins exigeante en matière d’intégrité concernant les statistiques qu’elle ne l’était pendant la période précédente.

Nous nous sommes aussi intéressés à la pression managériale visant à requalifier des plaintes portant sur des indicateurs de criminalité examinés publiquement pendant les séances Compstat en plaintes portant sur des indicateurs de criminalité non examinés. C’est là quelque chose de différent que la pression visant simplement à faire baisser les taux. La pression pour faire baisser le taux de criminalité est normale dans tout commissariat puisque la criminalité doit de toute façon être faible. Au contraire, la pression pour requalifier les plaintes depuis un délit ou un crime examiné publiquement à un autre qui ne l’est pas, comme une main courante, est une pratique spécifique qui demande aux agents d’inventer des façons de les déplacer d’une catégorie à une autre. C’est le cas, par exemple, lorsqu’un agent a l’impression qu’on le presse de transformer un vol en simple perte. Nous nous attendions à ce que cette pression soit faible car la requalification est par nature une activité répréhensible.

Pourtant, nous avons découvert que la pression à la requalification est significativement plus forte depuis l’implantation de Compstat. La moyenne des réponses des officiers travaillant sous Compstat est de 3,88 alors que celle de leurs prédécesseurs est de 2,51. La différence est de 1,37. Elle est statistiquement significative (p < 0,001) mais la corrélation est faible (r = 0,077). À nouveau, cela signifie que la pression exercée sur les officiers de la période Compstat pour, en l’occurrence, requalifier les faits est plus forte qu’avant.

Une autre question intéressante concerne les promotions obtenues grâce aux statistiques de la délinquance. Même si cela n’est peut-être pas aussi crucial que d’autres pressions, nous remarquons que parmi les 206 participants ayant répondu que les promotions dépendent des statistiques, 76 % travaillaient à l’ère Compstat. Voici une preuve de plus de la pression écrasante de Compstat pour que les statistiques aillent « dans le bon sens ».

Étant donné nos analyses, nous nous sommes intéressés à la manipulation de données proprement dite. À cette fin, nous utilisons une question filtre, c’est-à-dire que nous demandons aux agents s’ils ont connaissance de cas où des plaintes ont été manipulées à cause de Compstat. S’ils répondent « oui » à cette question, nous leur posons des questions plus précises. La question filtre est très importante car elle éveille leur attention. Ceux qui n’ont pas entendu parler de telles manipulations répondent « non » et passent à la question suivante.

Remarquons ici que, si l’ensemble des enquêtés avaient répondu en se fiant à leur connaissance globale (la presse, la rumeur, etc.) et non à leurs informations personnelles, alors presque tous les agents auraient répondu « oui ». Pourtant, ce ne fut pas le cas. Parmi les 309 officiers qui ont travaillé pendant la période Compstat, à peu près la moitié (160) ont répondu qu’ils avaient eu connaissance de telles manipulations. De fait, un enquêté nous a délibérément fait la remarque suivante :

Je pense que tout le monde au NYPD a eu connaissance de cas où des plaintes ont été manipulées à cause de Compstat. Pourtant, j’ai répondu « non », car les cas dont j’ai entendu parler peuvent n’avoir été que de simples rumeurs et je n’ai pas d’information factuelle sur ces cas.

Ainsi, tous les enquêtés étaient probablement informés de cas de manipulation, mais beaucoup ont répondu « non » pour dire qu’ils n’avaient pas d’information directe. Remarquons de surcroît que si les enquêtés ne répondaient que sur la foi de leur connaissance générale, ils n’auraient pas été capables de répondre aux questions suivantes. C’est une des raisons qui nous a poussés à utiliser une question filtre. Elle élimine ceux qui n’ont pas d’information précise et établit clairement que c’est un savoir personnel qui est mobilisé pour répondre aux questions suivantes. Pour être précis, insistons sur le fait que notre instrument sous-estime le niveau de manipulation rapporté car nous tenons compte des cas répétés.

Nous avons établi que 160 agents ont déclaré connaître des cas de manipulation de plainte engendrée par Compstat. Les requalifications de plainte à l’ère Compstat sont donc banales. Certes, de nombreuses transformations répondant à des exigences déontologiques sont acceptables. Par exemple, un enquêté, qui était commissaire central d’un arrondissement, a écrit :

J’ai personnellement envoyé un agent pour qu’il aille vérifier les données. Si une voiture a été déclarée volée alors qu’elle est en fait garée dans un endroit que le propriétaire ne retrouve pas, eh bien il faut corriger. C’est une question de précision qui doit apparaître dans les données de Compstat.

Mais cela pose deux problèmes. La première est que la pression exercée sur les commandants les force à mobiliser leurs agents pour réaliser des tâches telles que retrouver des voitures déclarées volées mais qui, en fait, ne l’auraient pas été. C’est un gaspillage de la force de travail, déjà trop rare. Les agents sont occupés non pas à lutter contre la criminalité mais à corriger les plaintes.

Le second problème est que les transformations des rapports de plainte sont excessivement communes. Cela signifie que quasiment tous ceux qui ont travaillé dans un commissariat local savent que l’on transforme les plaintes. C’est important parce que cela signifie aussi que ceux qui sont complètement ignorants de ces changements, même ceux qui se justifient, n’étaient clairement pas affectés à des postes où il leur aurait été loisible d’observer quoi que ce soit concernant les plaintes. Grâce à notre question filtre (une première question est posée et seuls ceux qui ont répondu d’une certaine façon répondent à la question suivante), nous pouvons identifier ceux qui ne travaillaient pas dans un commissariat local. Autrement dit, ceux qui nous répondent qu’ils ne sont au courant d’aucun changement dans les rapports de plainte doivent avoir travaillé au quartier général, dans l’école de police, ou quelque chose comme ça. Par conséquent, un avantage de la question filtre est d’identifier les répondants qui étaient en position d’observer des changements – sans avoir à leur demander de révéler des informations concernant leur tâche – tout en nous permettant de respecter l’anonymat (et, par conséquent, la validité et la sincérité) et, en même temps, de collecter des informations importantes. C’est pourquoi nous pouvons isoler les réponses des 160 enquêtés qui étaient au courant de changements et éliminer ceux qui ne l’étaient pas. Examinons ci-dessous les réponses de ceux qui étaient informés des transformations des rapports.

Les questions suivantes demandaient aux enquêtés : « Dans quelle mesure le(s) changement(s) étaient-ils déontologiquement inacceptable(s) ? » L’échelle allait de 1 à 10 avec 1 étant faiblement inacceptable et 10 hautement inacceptable. Pour étudier les réponses, nous les avons regroupées en trois catégories : « faiblement » (1-3), « moyennement » (4-7) et « hautement » (8-10).

Sur les 160 répondants qui avaient eu connaissance de changements, plus de la moitié (53,8 %) déclarent que les changements observés étaient hautement inacceptables. De plus, 23,8 % déclarent que les changements étaient moyennement inacceptables. Les autres déclarent que les changements étaient déontologiques. Avec plus de la moitié de ceux qui étaient au courant de changements déclarant que ces changements étaient déontologiquement hautement inacceptables, il ne peut y avoir de doute sur le fait que des manipulations allant contre la déontologie avaient bien lieu.

Nos données mettent en évidence la pression exercée par la direction du NYPD pendant les réunions Compstat, lesquelles contribuent à favoriser des manipulations de plaintes contraires à la déontologie. La combinaison de plusieurs pressions – une pression beaucoup plus importante pour faire baisser le taux de délinquance, une pression plus faible pour que les statistiques soient honnêtes, et une pression plus forte pour requalifier les plaintes – a provoqué une manipulation des statistiques de la délinquance à New York City contraire à la déontologie.

3. Interprétation

Les dirigeants politiques et policiers de New York annoncent fièrement les statistiques criminelles de la ville, comme si elles les couronnaient de succès. Et pourtant ces statistiques cachent plus qu’elles ne révèlent. La transparence et les contrôles extérieurs n’existent pas, puisqu’il n’y a pas d’agence externe et indépendante ayant l’autorité et la capacité de vérifier régulièrement les statistiques criminelles du NYPD.

Malgré quelques très rares – quoique remarquables – exceptions, les médias sont réticents à s’intéresser à la question que nous posons. Plusieurs facteurs expliquent cette réticence, parmi lesquels la relation étroite entre les médias et le monde des affaires, ainsi que « l’influence disproportionnée du NYPD sur les médiasnote ». Ces questions sont complexes, c’est pourquoi un chapitre entier de notre livre The Crime Numbers Game est consacré à l’étude de leurs relations.

Les résultats de notre enquête suggèrent que ce sont des besoins organisationnels et managériaux qui guident les présentations et maquillages des statistiques de la délinquance. Les conséquences de cette insistance à présenter des statistiques favorables sont étendues. Les victimes sont négligées et, de ce fait, doublement victimes. Les méthodes utilisées pour faire en sorte que les chiffres aient l’air bon sont discutables. Elles impliquent des gardes à vue excessives, des quotas à atteindre et des contrôles d’identité. Ces derniers sont passés de 100 000 il y a quelques années, en 2002, à 700 000 aujourd’hui – dont 87 % ont été réalisés sur des personnes appartenant à des minorités, alors que seulement 10 % ont donné lieu à une garde à vue. Des vies sont ainsi affectées et stigmatisées par de telles pratiques.

(Traduit de l’anglais par Emmanuel Didier et Isabelle Bruno.)

Julien Prévieux,  , 2011. Dessin : Benjamin Ferran, Courtesy Jousse entreprise.

Julien Prévieux, Atelier de dessin BAC du XIVe arrondissement de Paris, 2011.

Dessin : Benjamin Ferran, Courtesy Jousse entreprise.


Notes du chapitre 4

Esthétique des statistiques. A propos de quelques ateliers artistiques statactivistes

Julien Prévieux

Du début de l’année 2000 jusqu’à fin 2007, j’ai envoyé des lettres de non-motivation à une myriade d’entreprises pour refuser le travail qu’elles proposaient. J’ai posté plus de mille lettres sur une période de sept ans et reçu une cinquantaine de réponses des DRH dont une dizaine était personnalisée. Le reste des retours reprenait les formules de politesse consacrées.

Le processus de refus du travail était très régulier et très réglé. Je parcourais les petites annonces dans la presse spécialisée ou généraliste, comme on le fait habituellement pour chercher un emploi, je choisissais les offres en réagissant à leur contenu, à leur formulation, à leur iconographie ou à leur mise en page mais, surtout, en essayant de balayer le spectre des propositions le plus large possible pour refuser à la fois des postes d’apprenti boulanger, d’auditeur comptable et financier, de discothécaire, de responsable de rayon fruits et légumes, d’infirmier anesthésiste, de technicien SAV, de directeur d’établissement, etc. Il s’agissait de décliner les offres en jouant tous les rôles possibles pour être, tour à tour, le refuseur d’emploi ne souhaitant pas travailler pour un salaire dérisoire, le robot aux algorithmes réfractaires, le gangster des années 1950 à l’argot fleuri, le non-candidat sans compétences, ou encore le lettriste inintelligible. Sans jamais oublier, bien sûr, de terminer par un refus clair et net de l’emploi en question.

Cet exercice de style peut être imaginé comme un véritable atelier d’écriture impliquant un rédacteur de petites annonces, un chef du personnel et moi-même. Il donnait à voir, tout en l’amplifiant sur un mode tragi-comique, une facette de la réalité néolibérale qui nous entoure : celle du marché du travail, de sa puissance normative et des contorsions multiples qu’il nous impose. Cette correspondance, à la frontière de l’art, des sciences humaines et de l’activisme, a été montrée dans des expositions d’art contemporain et publiée dans un livre paru sous le label Zones en 2007. C’est à la suite de ce projet que nous nous sommes rencontrés avec Isabelle Bruno et Emmanuel Didier pour parler techniques d’optimisation, mise en chiffres et en indicateurs, et effets pervers ou absurdes de l’approche statistique.

Phase préparatoire d’un diagramme de Voronoï au crayon sur calque.

Phase préparatoire d’un diagramme de Voronoï au crayon sur calque.

En mai et juin 2011, après nos nombreuses discussions sur les processus d’évaluation quantitative des services publics et la mise en concurrence permanente des agents, j’ai mis en place un atelier de dessin avec quatre policiers du commissariat du XIVe arrondissement de Paris : Benjamin Ferran, Gérald Fidalgo, Mickaël Malvaud et Blaise Thomas. J’ai constitué ce petit groupe de travail de manière « sauvage », sans passer par la hiérarchie policière mais en profitant de mon réseau personnel. Un des participants est un ami d’un de mes très bons amis qui a gentiment fait passer le mot à ses collègues ; j’ai terminé de convaincre les autres membres du groupe autour d’un verre et de mes cartons à dessin, dans un café à proximité de leurs bureaux. L’objectif de cet atelier était d’apprendre à tracer, manuellement, ce qu’on nomme des « diagrammes de Voronoï » sur des cartes recensant des délits récents. En mathématique, les diagrammes ou partitions de Voronoï sont des formes géométriques subdivisant l’espace, composées de polygones définis à partir d’un ensemble discret de points.

, policier au travail.

Atelier de dessin BAC du XIVe arrondissement de Paris, policier au travail.

Ils tiennent leur nom d’un mathématicien russe du début du XX e siècle et sont utilisés dans des logiciels de conception 3D ou des outils d’analyse médicale. Ces diagrammes permettent aussi de référencer spatialement le nombre de délits recensés ; ils rendent visible la quantification de la délinquance et font partie des multiples outils de cartographie de la criminalité (crime mapping) intégrés aux systèmes de type Compstat. Destinés à visualiser les délits en temps réel, d’une manière toujours plus efficace, ils sont censés optimiser le déploiement des patrouilles en conséquence. Ces systèmes d’information géographiques accompagnent les polices états-uniennes depuis un certain temps et sont utilisés depuis peu dans certaines préfectures françaises. Les maillages du graphique superposés aux plans de la ville facilitent l’identification des zones où se sont déroulées les infractions : les cellules du diagramme se densifient quand le nombre de délits augmente ou, au contraire, se raréfient lorsque l’activité criminelle diminue. Fini les austères cartes recouvertes de punaises, les big data et leurs représentations graphiques sont mises au service de la lutte contre le crime. Certains fabricants de logiciels (PredPol utilisé par la police de Los Angeles ou la suite Blue CRUSH d’IBM vendu au département de la police de Memphis) vont jusqu’à proposer des solutions d’analyse prédictive qui croisent une multitude de données sociologiques, historiques et contextuelles pour permettre, en théorie du moins, d’identifier les circonstances (événements dans une ville, météo, vacances, etc.) ayant favorisé l’apparition des délits passés pour prévoir où et quand ils pourraient être perpétrés de nouveau. Habituellement, ces schémas sont tracés par des ordinateurs : les policiers sur le terrain font remonter l’information au serveur (le type de délit, sa localisation, la date et l’heure) et un programme renvoie automatiquement le graphique mis à jour que les policiers peuvent alors consulter.

Pour ma part, j’ai proposé à ces policiers français de dessiner à la main ces diagrammes, en prenant le temps d’exécuter, une par une, les différentes étapes de l’algorithme. Ces quatre policiers de la brigade anticriminalité (BAC) ont accepté de jouer le jeu. L’exercice est lent et laborieux, et nécessite une grande rigueur. Il faut d’abord déterminer quels sont les trois délits les plus proches et les relier entre eux, la carte est progressivement recouverte de triangles joints les uns aux autres. Il faut ensuite tracer les médiatrices de chaque segment et les connecter entre elles pour obtenir les polygones définitifs. L’atelier se déroulait sur le temps libre des policiers, on se retrouvait chez eux ou au café pour ces cours de dessin « particuliers ». Nous nous retrouvions une à deux fois par semaine pour finaliser les constructions géométriques en vue du vernissage de l’exposition où ils devaient être montrés.

, rendez-vous du 25 mai 2011.

Atelier de dessin BAC du XIVe arrondissement de Paris, rendez-vous du 25 mai 2011.

Avec cette technique de dessin traditionnelle, la visualisation en temps réel est évidemment mise à mal : les schémas sont terminés toujours trop tard, l’outil perd sa fonction d’optimisation. Ce que l’ordinateur trace en une fraction de seconde, nous mettions plusieurs jours pour l’obtenir, voire plusieurs semaines au début de notre collaboration, lorsque notre méthode de tracé n’était pas tout à fait au point.

Mais ce qu’on perd en efficacité, on le gagne sur d’autres plans.

Premièrement et logiquement, les policiers vont pratiquer le dessin de manière régulière et intensive pendant plusieurs semaines : le policier devient un dessinateur à part entière.

Deuxièmement, cette série de dessins abstraits a été présentée dans des galeries et différents centres d’art et musées. Le MACVAL/musée d’Art contemporain du Val-de-Marne a fait l’acquisition pour ses collections de deux des dessins. Les bénéfices des ventes étant répartis à parts égales entre l’artiste et les participants de l’atelier, le policier devient, pour un temps, un artiste professionnel.

Troisièmement, l’exploration approfondie de l’algorithme à l’origine des diagrammes permet de reprendre la main sur une technologie qui en occulte les différentes étapes. Le processus de construction géométrique, rendu opaque par la vitesse de calcul et de tracé des ordinateurs, est révélé par le dessin manuel. La dimension « artisanale » favorise la réappropriation d’un certain savoir-faire là où l’informatique déconnecte totalement l’outil de l’expérience commune.

Enfin, la construction d’une telle situation favorise les discussions entre les participants sur les transformations récentes de la police et l’implantation des nouvelles méthodes de management qui comprennent, pêle-mêle, ces outils cartographiques, les indicateurs, tableaux de bord, évaluations en tout-genre, et la prime au résultat. C’est bien l’implacable mot d’ordre « faire toujours plus avec toujours moins » qui constitue le cœur du programme. Ces outils sont de véritables chevaux de Troie dont les policiers pâtissent plus qu’ils ne bénéficient. La visualisation des délits camoufle une politique publique délétère, imposant des accessoires à l’efficacité limitée sur le terrain, cache-misère pernicieux incapables de combler le manque de moyens humains.

Ces nouvelles approches étant également accompagnées d’un ensemble de discours sur la « prise d’initiative » et l’« inventivité » des agents, il s’agissait de prendre à la lettre ces injonctions pour mieux se réapproprier ces techniques d’optimisation du travail policier et les faire dériver vers le point ultime et absurde où elles allaient pouvoir devenir un loisir du dimanche, un équivalent contemporain, dystopique et poétique, des maquettes en allumettes ou du tricot.

En mai 2013, j’ai travaillé sur une expérience artistique similaire à certains égards, à l’invitation du Frac Île-de-France/Le Plateau, un lieu d’exposition situé à Paris, en charge de l’acquisition et de la diffusion d’une collection d’œuvres d’art contemporain. Je proposai aux participants une expérience de quantification liée directement au contexte. Il s’agissait cette fois-ci de mesurer les regards des visiteurs sur les œuvres d’art exposées grâce à un protocole identique à celui utilisé par certains départements marketing qui tentent de déchiffrer l’attention visuelle de leurs clients. L’analyse par oculométrie – ou eye-tracking – s’attache à étudier la vision d’un panel d’individus sur des publicités, des emballages de produits ou des pages Internet.

Pour les entreprises, ce type d’observation permet d’identifier les zones vues ou non vues, et de décrire l’évolution temporelle d’un parcours visuel, autrement dit de quantifier précisément la manière dont le regard est attiré par un produit. Ce type d’étude comporte plusieurs étapes : on enregistre les mouvements des pupilles grâce à une caméra infrarouge, un logiciel détecte leurs déplacements et trace un diagramme qui donne à voir les trajets, les temps et les zones de focalisation de l’œil. Autant d’éléments que l’on peut ensuite analyser et tenter de « réorienter » grâce à des modifications graphiques. Dans notre cas, la mesure du regard des spectateurs sur les œuvres n’était pas sous-tendue par une quelconque volonté d’optimisation visuelle. En quoi pourrait bien consister d’ailleurs, selon cette méthode, l’amélioration du regard sur une photographie, un film ou un tableau ? Laissant à d’autres le soin de plancher sur cet épineux sujet, nous avons décidé de considérer les productions géométriques fabriquées par l’analyse des enregistrements pour elles-mêmes. La visualisation des différents mouvements oculaires a produit autant de diagrammes aux qualités visuelles indiscutables. Aussi avons-nous profité du temps intermédiaire entre deux expositions au Plateau pour reporter ces tracés au mur : après avoir décroché les œuvres et s’être munis de bobines de laine et de colle à chaud, nous avons dupliqué sur les cimaises, en lieu et place des productions artistiques, les différents mouvements des yeux. Dès lors, l’exposition initiale n’était plus visible que sous la forme de traces, de regards fantômes, dont le résultat final a pu être visité par les regardeurs eux-mêmes regardant leurs propres regards.

Vue d’exposition, galerie Jousse entreprise, 2011. © Marc Domage.

Vue d’exposition, galerie Jousse entreprise, 2011. © Marc Domage.

Vue d’exposition, galerie Jousse entreprise, 2011. © Marc Domage.

Vue d’exposition, galerie Jousse entreprise, 2011. © Marc Domage.

La dimension artistique des approches quantitatives n’est finalement jamais mieux perceptible que lorsqu’on les considère comme autant d’outils destinés à la fabrication de formes. En se concentrant strictement sur leurs qualités visuelles singulières, on peut en modifier l’objet en profondeur : l’évaluation et l’optimisation cèdent la place à la constitution de communautés temporaires utilisant ces outils pour mieux concevoir des expériences esthétiques. Le processus de travail statactiviste dans sa dimension artistique consiste ici à proposer d’autres usages de ces technologies pour activer leurs capacités critiques et libérer leurs potentialités ludiques et graphiques.

Vue d’exposition  , Le Plateau-Frac Île-de-France, 2013. À gauche : Dove Allouche,  , 2010. À droite : Bettina Samson,  . © Martin Argyroglo.

Vue d’exposition Paint it Black, Le Plateau-Frac Île-de-France, 2013.

À gauche : Dove Allouche, Au soleil de la Mer Noire (Yalta), 2010.

À droite : Bettina Samson, Comment, par hasard, Henri Becquerel découvrit la radioactivité. © Martin Argyroglo.

Résultats de l’expérience d’oculométrie reportée au mur du Plateau Frac Île-de-France, 2013. À gauche : regard de Patricia Morshed. À droite : regards reportés de Maryvonne Carrier et Jacques Carrier. © Martin Argyroglo.

Résultats de l’expérience d’oculométrie reportée au mur du Plateau

Frac Île-de-France, 2013. À gauche : regard de Patricia Morshed.

À droite : regards reportés de Maryvonne Carrier et Jacques Carrier.

© Martin Argyroglo.

Maryvonne Carrier regarde son propre regard porté sur l’œuvre de Mario Garcia Torres.

Maryvonne Carrier regarde son propre regard porté sur l’œuvre de Mario Garcia Torres.

Du nombreen public

Association Pénombre

Rendue publique par déclaration au Journal officiel parue le 7 juillet 1993, l’association Pénombre se donnait alors pour objet de « développer un espace de dialogue sur l’emploi des nombres, notamment dans le champ pénal, entre producteurs de données, chercheurs et universitaires, journalistes, responsables publics ou associatifs, acteurs politiques ». Les moyens choisis, publication régulière d’une lettre d’information dite Lettre blanche faite de courts articles et, moins régulièrement, d’une Lettre grise traitant plus à fond certains sujets, l’ensemble étant repris sur un site Internetnote, et organisation de rencontres publiques, ont permis à Pénombre de figurer parmi les ressources disponibles pour tous ceux qui s’inquiètent des mésusages des chiffres.

Un échantillon de la « production » de Pénombre est proposé ici. Il s’agit d’abord du « théorème de Demonque », qui est un des très rares théorèmes sociologiques jamais démontrés ; puis d’une transcription sous forme papier d’une émission croisant les propos du professeur Statone et du brigadier Yvon Dérouillé. Cet échantillon n’a pas de prétention de représentativité mais il est triplement significatif.

La forme et le ton adoptés sont caractéristiques de la place donnée par Pénombre à l’ironie et à l’humour. Les nombres sont réputés être ennuyeux et pourtant ils sont omniprésents dans le débat public. Les professionnels concernés (les statisticiens, les chercheurs ou les enseignants autant que les journalistes) partent avec un lourd handicap dans leur éventuelle course-poursuite contre les mésusages des chiffres : il faut prendre le temps d’y réfléchir et mettre en jeu des considérations techniques. La rhétorique politique joue souvent sur l’ambivalence du nombre : asséner un chiffre plus ou moins pertinent (et plutôt moins que plus) en interdisant à tout contradicteur la remise en cause de ce chiffre, au nom de la clarté du débat qui serait forcément obscurci par une querelle technique. Pénombre a développé sous diverses formes un art plaisant de l’information et de la critique à propos de la validité des données chiffrées et des contraintes que leur usage raisonné devrait respecter. Derrière la dérision reste toujours présent ce souci de compréhension.

Le sujet traité dans ces exemples (la mesure de la délinquance) est pour Pénombre une sorte de cœur de métier puisque l’association a débuté par une réflexion centrée sur le pénal et le nombre. Si ce sujet mérite d’être repris ici, c’est cependant d’abord parce qu’il n’a cessé pendant vingt ans d’être très présent dans le débat public sans pour autant que les arguments déployés progressent beaucoup. Le théorème de Demonque « fonctionne » encore après deux décennies de remise en cause des « statistiques de délinquance » et la pratique assumée de manipulation des « données » du brigadier Yvon Dérouillé est de plus en plus clairement un élément incontournable de toute réforme en la matière. Ce que dit ce brigadier, professionnel de la constatation et de l’enregistrement des délits, éclaire l’observation du professeur Statone (spécialiste de l’insécurité, une espèce en croissance soutenue) : « Plus on élucide les faits et plus la délinquance augmente. » Et, à ce point, l’humour doit laisser la place à une explication plus technique, graphique à l’appui.

Pédagogie de l’ironie et préoccupation fondamentale pour la vie publique du nombre vont donc de pair avec la volonté de provoquer la rencontre de ces professionnels et de leurs publics en évitant les jeux classiques d’instrumentalisation réciproque auxquels ils se livrent souvent. Observons au passage que Statone et Dérouillé ont l’un et l’autre bénéficié de la démarche de professionnels des médias (l’équipe de TV-Lolf) qui ont fait le choix de rapporter pour le téléspectateur des informations concernant la quantification elle-même et pas seulement des chiffres « qui parlent d’eux-mêmes ». Pénombre continue de rechercher de ce côté comment les journalistes peuvent contribuer à l’usage des nombres dans le débat public, autrement qu’en l’inondant de sondages qui ne semblent guère en remonter le niveau. L’exigence de qualité du public (les citoyens) reste un aiguillon de cette quête et Pénombre a toujours voulu être une association ouverte à tous et non un regroupement professionnel ou interprofessionnel de techniciens du chiffre.

C’est donc à une alchimie de publicité à tous les niveaux, à un mélange des points de vue et de distance critique qu’essaie de se livrer Pénombre pour tout sujet abordé dans l’espoir de contribuer à la création d’un espace de débat autour du nombre.

1. Le « théorème de demonque »

Théorème

Sur une courte période, les statistiques de la délinquance varient en proportion inverse de la popularité du ministre de l’Intérieur auprès des agents chargés du collationnement des données qui les fondent.

Exercice d’application

Sachant,

un : que les chiffres 1992-1993 sont « imputables » à un ministre de l’Intérieur socialiste à la fin d’une législature marquée par l’impopularité croissante des socialistes auprès de la population en général et des policiers en particulier,

deux : que les chiffres 1993-1994 témoignent de l’action d’un ministre de l’Intérieur RPR populaire auprès de la force publique en général – plus populaire chez les policiers que chez les gendarmes, et plus populaire encore chez les policiers parisiens que chez les provinciaux,

trois : que, en outre, les moyens d’influence dudit ministre vont croissant quand on passe de la gendarmerie à la police urbaine et de la police urbaine à la préfecture de police de Paris,

expliquez

un : que l’augmentation des délits enregistrés (France entière) est de + 2,05 % en 1992-1993 et de + 0,47 % en 1993-1994,

deux : que cette évolution nationale se décompose ainsi selon les corps chargés d’en établir les éléments :

Corps

1992-1993

(pourcentage)

1993-1994

(pourcentage)

Gendarmerie nationale

– 4,63

+ 2,28

Police nationale

+ 4,97

– 0,25

dont :

   Sécurité publique (province)

+ 4,98

+ 0,47

   Préfecture de police (Paris)

+ 4,87

– 5,09

Total

+ 2,05

+ 0,47

Source : BQ du 27 mai 1994.

trois : après avoir commenté ce tableau vous proposerez un projet de note à la signature du directeur général de la Gendarmerie nationale.

Pierre Demonquenote.

2. Le budget de l’état et ses indicateurs. lolf y es-tunote?

image
image
image
image
image
image
image
image
Source : publié initialement dans la Lettre grise de Pénombre, no 10, printemps 2006.

Pénombre a pu se procurer le graphique commenté par le professeur Statone. Il est reproduit ici. Nos spécialistes ont pu vérifier qu’il était bien construit à partir des chiffres publiés par le ministère de l’Intérieur pour l’année 2003.

Pénombre, l’association d’un monde qui pense

image

Vingt ans après sa création, Pénombre continue d’explorer des sujets variés. Le « champ pénal » n’a pas été abandonné mais il n’est plus privilégié. Reste alors, pour ceux qui font vivre l’association aujourd’hui, la préoccupation commune pour la peine des nombres, peine infligée aux et par les nombres. Reste aussi très présente la référence à des jeux de lumière, entre l’aveuglement produit par les projecteurs médiatiques et l’obscurité d’où peut naître la clarté pour l’œil attentif. La recherche d’un monde qui pense avant de compter se fait toujours plus ou moins dans la pénombre, au risque de paraître passéiste à l’heure du fact checking et de l’impératif d’immédiateté des réseaux sociaux. « Le nombre ne mérite-t-il que l’opprobre ? Cave numerum, ou meilleur ami de l’homme ? Sans lui, pas de débat public. Sans lui, pas d’alertes. Sans lui, pas de vulgarisation. […] Pourtant, alors que le nombre devrait enrichir le débat public, il devient souvent un puissant outil d’appauvrissement de ce débat. Peut-être, tout simplement, parce que la crainte de la plupart des gens devant le nombre favorise son statut d’idole. Auquel cas, une action citoyenne de premier ordre serait d’aider à l’apprivoiser, cet animal. Indispensable, le nombre mérite surtout d’être mieux connu, mieux considéré et mieux approprié. Notre société devrait lui être reconnaissante, et il aurait déjà sa statue… si on savait quelle forme lui donner. Rapace mais gardant les yeux ouverts dans la nuit, il nous alerte et détruit tant de nuisibles : au fond, le nombre, c’est chouettenote. »

Troisième partie

Sujets. défendre de nouvelles catégories

Les « intellos précaires » et la classe créative : le recours à la quantification dans deux projets concurrents de regroupement social

Cyprien Tasset

Parce qu’il est caractérisé par une organisation par projet, des carrières imprévisibles et une fonction d’innovation, le secteur professionnel des « travailleurs culturels et créatifs » est souvent érigé en symbole des « transformations contemporaines du travailnote ». Or ce secteur est marqué à la fois par des situations fortement contrastées et par des expériences sociales ambivalentesnote. L’hétérogénéité sociale des professions culturelles permet ainsi d’illustrer deux thèses diamétralement opposées : d’une part, celle des nouveaux professionnels flexiblesnote et, d’autre part, celle d’un « précariat », nouveau sujet politique appelé à mener les luttes socialesnote. Dans les deux cas, des travailleurs « créatifs », jeunes, diplômés, professionnellement peu stables sont invoqués pour représenter l’identité du groupe.

Mais, alors que les développements sur les professionnels flexibles sont d’emblée associés à un projet statistique, chez Richard Floridanote, le réseau international des militants et penseurs des « précaires » n’investit guère la quantification, voire la rejette pour des raisons théoriquesnote.

Pourtant, des ouvrages sont parus en France qui se focalisent sur les « précaires » des professions culturelles sans rejeter la quantification. En 2001, Anne et Marine Rambach, romancières et éditrices, ont écrit un livre pour mettre en lumière la condition de ceux qu’elles ont appelés les « intellos précaires », où elles s’incluaient elles-mêmes parmi les « guides de musée, enseignants du français pour étrangers, bibliothécaires, correcteurs, enseignants du secondaire, éditeurs, scénaristes, journalistes, chercheurs, traducteurs, photographes, rédacteursnote ». L’ouvrage décrit, à partir d’une trentaine d’interviews, leur condition d’existence commune : leur logement, leurs pratiques de travail, leur rapport à l’entreprise, leurs aspirations, etc. Dans le livre de 2001 comme dans sa suite parue en 2009note, le dénombrement des « intellos précaires » n’occupe que quelques pages, mais remplit, comme on va le voir, un rôle important.

Par ailleurs, les travaux états-uniens de Richard Florida sur la « classe créative » ont inspiré des économistes françaisnote. Au-delà des différences considérables qui opposent Anne et Marine Rambach à Richard Florida et Sébastien Chantelot, leurs démarches présentent des points communs qui justifient de les comparer. Premièrement, ce sont deux tentatives pour introduire dans les représentations du monde social un nouveau groupe, voire une nouvelle « classe ». De plus, toutes deux impliquent une critique des représentations admises jusqu’à présent. De part et d’autre, les auteurs s’expriment comme si les changements sociaux avaient été tellement intenses, en particulier dans la région de l’espace social qu’ils prétendent dévoiler, que les catégories anciennes, prises en charge par l’État, les disciplines académiques et la statistique, n’avaient plus de prise sur la réalité : « Les vieilles catégories n’ont plus aucune validité » écrit R. Floridanote, tandis que A. et M. Rambach affirment : « La nomenclature sociale n’est pas capable de prendre en compte ces situations qui ne correspondent plus à des systèmes de protection conçus avant la crisenote. » Autrement dit, les promoteurs des « intellos précaires » et de la « classe créative » partagent la même accusation de « déliquescencenote » à l’égard des représentations instituées de l’espace social. Par ailleurs, l’objet des Intellos précaires, c’est-à-dire les jeunes générations de travailleurs de la culture et de la science, constitue une partie, essentielle sur le plan symbolique, de la « classe créative ». Même si leurs promoteurs s’ignorent, les deux projets de regroupement sont ainsi en concurrence, puisque les aires sociales qu’ils visent se chevauchent. Enfin, dans les deux cas, les auteurs tentent de donner « consistance note » à l’agrégat social qu’ils promeuvent en le quantifiant, c’est-à-dire en le traduisant en nombre.

Notre parti pris est que, loin d’être une opération triviale, cette mise en nombre de deux projets concurrents de groupes sociaux peut, pourvu qu’on l’analyse, contribuer à l’explicitation des enjeux politiques qui sous-tendent ces projets de groupes sociaux.

L’ordre de grandeur des « intellos précaires »

Statistiques « à la louche » et construction du groupe par l’affinité

Le passage où les « intellos précaires » sont dénombrés intervient rapidement dans Les Intellos précaires. Il est introduit par une objection que les auteures auraient rencontrée plusieurs fois au début de leur enquête : « C’est un tout petit milieunote. » Pour y répondre, elles commencent par énumérer une douzaine de situations professionnellesnote, puis elles empilent des estimations sectorielles :

Dans le domaine de l’enseignement, de l’orientation et de la formation permanente, ils seraient plus de 70 000 maîtres auxiliaires, contractuels et vacataires. Selon la commission de la Carte professionnelle […], il y aurait plus de 5 000 journalistes pigistes […]. Officiellement, il y avait 3 320 précaires au CNRS en 1999. […] À l’Inserm, en 1998, ils étaient 3 483 précaires […]. Si l’on met ces chiffres bout à bout, on passe allégrement la barre des 100 000note.

En réitérant la même méthode, elles parviennent en 2009 à une somme supérieure :

Ainsi, nous pouvons nous amuser au grand jeu des chiffres : 13 000-14 000 journalistes, 60 000 enseignants dans l’enseignement secondaire, 20 000 enseignants ou chercheurs dans l’enseignement supérieur, 15 000-20 000 architectes, 13 000 formateurs, 8 000 photographes, plusieurs milliers de correcteurs et de traducteurs, 4 000 auteurs professionnels, ça fait environ 150 000 personnes, pour les troupes repérablesnote.

Autrement dit, elles se sont bornées à faire la « somme des précaires recensés dans certaines professions, avec une estimation approximative de ceux qui dans chaque secteur n’étaient pas comptabilisésnote ». Ce qui frappe, c’est le caractère rudimentaire, décousu et inachevé de ce dénombrement : les sources sont hétéroclites (organisations professionnelles, données fournies par des instituts, estimations sans sources). En 2001, les comptages à l’unité près cohabitent avec des estimations en milliers. La seule opération mathématique utilisée est l’addition.

C’est une méthode qui, au premier abord, ne semble pas très sérieuse, et dont les auteures plaisantent en disant que « la louche [est leur] instrument statistique privilégiénote ». Dans leur second essai, la distanciation vis-à-vis de la quantification, par ailleurs réitérée avec la même méthode, va jusqu’à lui opposer l’évidence partagée par tous ceux qui font l’expérience des secteurs concernésnote. Pourtant, ce côté décousu est au croisement de plusieurs de leurs arguments et s’intègre dans la cohérence de leur démarche. Les auteures anticipent les jugements négatifs que cette opération imparfaite pourrait leur attirer et avancent deux justifications, que nous allons tâcher de prolonger et d’expliciter.

Une première justification du caractère débraillé du dénombrement des « intellos précaires » est que « les chiffres manquent dramatiquement dans le domaine que nous avons abordénote », et que ce manque est inhérent aux rapports de pouvoir qui définissent la condition d’« intellos précaires » : « La difficulté à approcher les chiffres provient aussi de la réticence des employeurs à faire apparaître l’importance de leur recours aux travailleurs précairesnote. »

Les emplois précaires relèvent de stratégies de division, d’individualisation, d’informalisation et d’opacification de la gestion de la main-d’œuvre, qui se répercutent sur la possibilité d’un dénombrement. Si les données existantes ne permettent pas de repérer aisément les « intellos précaires », c’est que l’enregistrement statistique intervient au moment où les travailleurs font valoir leurs droits (par exemple, en s’inscrivant à Pôle emploi), ce dont les intellectuels précaires sont largement privés. Autrement dit, c’est encore une preuve de la domination qu’ils subissent.

Une autre raison de cet amateurisme revendiqué est la volonté de mener une enquête de l’intérieur, sans prendre la posture de surplomb du savoir expertnote. Cet argument peut être poussé un peu plus loin. On pourrait d’abord dire que l’aspect bricolé, hétéroclite et branlant de l’opération reflète les incertitudes des vies des « intellos précaires », et la nécessité où ils sont d’improviser avec les moyens du bord. De plus, une démarche experte rompant avec l’expérience des premiers intéressés pourrait fragiliser la convivialité mise en scène dans le livre par la tonalité empathique ou humoristique, les anecdotes et échanges de plaisanteries. Or la familiarité immédiate, le fait de se trouver, comme on dit, sur la même longueur d’onde, évoque de façon persuasive une similitude des expériences sociales, et, par là, la réalité d’une condition et d’intérêts communs. Tout se passe comme si l’insistance rhétorique sur l’affinité entre intervieweuses et interviewés, et l’effort pour y inclure le lecteur en s’adressant à lui sur le même ton que celui utilisé dans les interviews permettaient de prouver l’unité du groupe par la sympathie ou les « échosnote » qui se déploient entre ses membres, voire, en donnant l’exemple de la bonne entente qui règne entre « intellos précaires », d’inviter les lecteurs à la mettre en œuvre à leur tour. C’est un mode de construction de la généralité qui consiste à faire exister le groupe en le faisant éprouver et en appelant ses lecteurs à l’actualiser. Dès lors, la réalité des « intellos précaires » réside largement dans les pratiques et les relations personnelles de proche en proche entre ceux qui se reconnaîtront comme tels. Le livre relaye et diffuse cette réalité plutôt qu’il ne la révèle. Ce mode d’existence, peu objectivé, se prête difficilement au dénombrement méthodique d’individus répondant à une série de critères codifiésnote.

Autre avantage de ces démonstrations d’affinité : elles apportent des traits positifs qui contrebalancent les privations, les échecs et les frustrations qui donnent aux « intellos précaires » le statut de victimes d’une injustice. Cela permet qu’un tort soit mis en lumière sans entraver la capacité du groupe à se constituer comme sujet.

Quantité sociologique et grandeur civique

Dès lors, comment comprendre la raison d’être et les principes de ce dénombrement qui apparaît tellement approximatif et qui entre en tension avec une construction de la généralité par le biais du type social ? Il faut revenir à l’objection par laquelle elles l’introduisent : « “C’est un tout petit milieu”, nous disait-on au débutnote. » On peut se demander si ce contre-argument sur la quantité sociale n’en cache pas un autre, sur la qualité morale, et plus précisément la légitimité civique d’un collectif d’« intellos précaires ». En effet, la démarche de fonder un collectif en demandant justice, de sortir ses membres de l’isolement et de les mobiliser dans l’aspiration à leurs droits relève de ce que Luc Botlanski et Laurent Thévenot appellent le « monde civiquenote ». C’est dans un tel « monde » que l’on peut, comme l’avaient fait les promoteurs des « cadres » dans le deuxième tiers du XX e siècle, « construire la catégorie à la façon d’une cause, c’est-à-dire avec l’intention affirmée de réparer une injustice en faisant reconnaître l’existence d’un groupe jusque-là passé sous silencenote ». Or une telle construction politique repose sur la condamnation des intérêts particuliers qui menacent sans cesse de la dissoudre.

Que signifie, dans ce contexte, un « tout petit milieu » ? Il est facile d’imaginer les figures de disqualification civique désignées par ce terme : ce serait un milieu d’interconnaissances, un « réseau », une « coterie » « parisienne », une « clique » qui possède des intérêts propres avant qu’on l’érige en une cause ; bref, une combinaison opaque d’intérêts particuliers, bonne pour assurer une entraide informelle à ses membres, mais qui ne mérite pas que l’on prenne la parole publiquement en son nom. Ce qu’il faut entendre dans l’objection du « tout petit milieu », c’est donc la « petitesse civique ».

Ainsi, l’épreuve que le dénombrement des « intellos précaires » s’efforce de satisfaire n’est pas celle, « industrielle » dans le vocabulaire de Boltanski et Thévenot, de l’exactitude ou de la rigueurnote, mais la démonstration d’un effectif suffisant pour ancrer ce collectif dans le monde civique. Quelle dimension sociologique faut-il pour atteindre la « grandeur civique » ? La réponse d’Anne et Marine Rambach varie entre 2001 et 2009 de plus de 100 000 à plus de 200 000, mais toujours avec la valeur d’un minimum, d’un plancher auquel il faut ajouter des inquantifiables. Dans le cadre d’une épreuve civique, cet effectif, comparable, par exemple, à celui d’une grosse manifestation, à l’effectif d’une branche professionnelle, ou à une fraction d’électorat digne de considération pour un parti politiquenote, constitue un ordre de grandeur qui assure aux « intellos précaires » droit de cité dans le monde civique.

La « classe créative » : décrire une classe pour classer les territoires

La prophétie de la « classe créative »

Les secteurs professionnels où Anne et Marine Rambach décèlent la présence d’« intellos précaires », à savoir le journalisme, la recherche et l’enseignement, l’architecture ou la production culturelle au sens large, sont également revendiqués en tant que figures emblématiques d’un autre regroupement, celui de la « classe créative ». À la différence des « intellos précaires », la « classe créative », ou creative class, est une invention états-unienne, introduite en 2002 par un professeur d’université en « politiques publiques », Richard Florida, dans un ouvrage intitulé « L’essor de la classe créative ». Florida y embrasse la thèse, courante dans toute une littérature de prospective économique, selon laquelle la prospérité repose désormais sur la « créativité ». Son originalité est de centrer son propos sur la classe selon lui à l’avant-garde de l’économie créative : « Si vous êtes un scientifique ou un ingénieur, un architecte ou un designer, un écrivain, artiste ou musicien, ou si vous utilisez votre créativité comme un facteur clé dans votre travail, dans le domaine des affaires, de l’enseignement, la médecine, le droit, ou une autre profession, alors vous en faites partienote. » Le livre traite des changements dans le travail et les modes de vie qui donnent à cette classe, selon lui très mobile, un rôle central dans le développement économique à l’échelle locale. Outre la liste des professions emblématiques mises en avant par Florida, d’autres caractéristiques rapprochent la « classe créative » des « intellos précaires » : sa forte aspiration à l’autonomie professionnelle éventuellement au détriment de la sécurité de l’emploi (« Nous troquons la sécurité de l’emploi contre l’autonomienote »), son assimilation des « valeurs bohèmesnote », si bien que les entreprises ne peuvent l’apprivoiser qu’en lui offrant des lieux de travail informels, etc.

Cependant, si ces points communs suffisent pour établir que la « classe créative » revendique comme cœur symbolique le lieu social décrit par les Rambach comme celui des « intellos précaires », les deux démarches diffèrent considérablement.

Un des enjeux de la quantification, pour Florida, est de différencier sa proposition de classe de labels concurrents sur le marché états-unien des sciences sociales destinées aux décideurs publics : ses « estimations numériques » doivent lui conférer « pas mal de précision en plus par rapport aux définitions amorphes des travailleurs du savoir, des analystes symboliques ou des travailleurs des professions supérieures [professional] et techniquesnote ». Pour cela, Florida a sélectionné, au sein des 23 grands groupes professionnels de la « Classification standard des métiers [Standard Occupation Classification] (SOC) », dix groupes, dont cinq constituent un « super-noyau créatif », et cinq autres, les « professionnels créatifs [creative professionals]note », de sorte que la « classe créative » finit par compter pour dix catégories sur 23. En appliquant cette sélection au recensement de 1999, Florida établit que « la classe créative inclut actuellement 38,3 millions d’Américains, soit environ 30 % de la population active totale des États-Unisnote ». Afin d’attirer cette classe encline à la mobilité, les décideurs locaux doivent veiller à la qualité et à l’animation de la vie urbaine à laquelle elle est si sensible.

Malgré – ou à cause de – l’engouement international déclenché par la thèse de Florida, l’irritation de nombreux chercheurs a été vive face à un ouvrage qui vérifie « la caractéristique décisive du prophète » selon Max Weber comme « la proclamation d’une vérité de salut faite en vertu d’une révélation personnellenote », dans « une tentative de systématiser toutes les manifestations de la vienote » autour de l’ethos créatif. Cependant, les critiquesnote ne portent guère sur ses efforts de quantification.

La « classe créative », française : rigueur quantitative et compétitivité régionale

Un économiste français, Sébastien Chantelot, a entrepris non seulement de transposer à la France les analyses de Florida, mais encore de les perfectionner. Il juge sévèrement la méthode de Florida, qui a selon lui sélectionné sa « classe créative » en utilisant la nomenclature états-unienne à un niveau trop agrégé et de façon trop inclusive, puisqu’il s’agit d’une sélection de dix groupes professionnels sur 23. De plus, Florida n’a pas explicité les critères selon lesquels il a opéré son choix, ni en quoi ces dix groupes correspondent plus que les autres à la « classe créative ». Il faut donc, selon S. Chantelot, sélectionner les professions au niveau le plus fin possible, et les classer objectivement selon leur créativité. Pour cela, S. Chantelot fait un détour par une nomenclature états-unienne, le répertoire des professions « O*NET », qui renseigne le contenu de chaque profession selon 227 indicateurs quantifiés (de 1 à 5 ou de 0 à 7, selon les cas). Quatre de ces 227 indicateurs (« Originalité », « Créativité », « Résolution de problèmes complexes », « Penser de façon créative ») lui apparaissent comme des évaluations de la créativiténote. S. Chantelot est ensuite parvenu à établir une grille de correspondance entre les 802 professions de la base O*NET et les professions et catégories socioprofessionnelles détaillées de l’Institut national de la statistique et des études économiques (Insee). Désormais caractérisées chacune par un indicateur quantitatif de créativité, ces professions sont alors réparties, grâce à une méthode de classification statistique (la classification ascendante hiérarchique), en trois classes, plus ou moins créatives. Celle qui rassemble les scores de créativité les plus élevés contient 101 professions, dont 70 relèvent des « cadres et professions intellectuelles supérieures » de l’Insee et 25 des « professions intermédiaires »note. En appliquant cette grille de 101 professions au recensement national, S. Chantelot obtient que « la proportion nationale d’individus occupant une profession créative en France s’élevait à 18,15 % en 1999, et concernait 3 265 939 emploisnote ». Combiner procédure mathématique et classifications officielles a ainsi permis de déterminer, sans arbitraire personnel, le contenu de la nouvelle classe.

À la différence de l’approche adoptée par les auteures des Intellos précaires, l’usage du nombre ne s’arrête pas, dans le cas de la « classe créative » française, à ce dénombrement. Dans le numéro d’Économie Lorraine auquel S. Chantelot a participé, d’autres méthodes statistiques sont mises en œuvre, qui permettent d’éclairer dans quel « réseau plus vaste d’argumentation et d’actionnote » s’insère la quantification de la « classe créative ». Ce sont premièrement des régressions logistiques, qui visent à dégager l’effet propre d’une variable pour lui conférer un pouvoir causal dans son rapport avec une autre variable. Ici, il s’agit d’abord de démontrer que la présence de la « classe créative » contribue davantage que d’autres facteurs (comme le « capital humain ») à la croissance économique et à l’emploi dans les territoires et, ensuite, de tester les variables auxquelles les différentes composantes de cette classe sont « sensiblesnote », comme la part des étrangers dans la population (indice « d’ouverture »), l’offre de services publics, les « opportunités culturelles », etc. La « classe créative » s’insère ainsi comme un intermédiaire dans des chaînes de causalité qui relient le développement économique des territoires à des phénomènes sur lesquels les décideurs urbains et régionaux peuvent agir.

Le second type de méthodes statistiques utilisé relève de la comparaison. Il s’agit, par exemple, à partir de données issues du recensement national, de distinguer, sur un fond de carte divisé en cantons, ceux où la concentration de la « classe créative » est supérieure ou inférieure à la moyenne nationale, ou bien de mettre en place un « indicateur synthétique de l’attractivité d’une zonenote », qui « permet de comparer les zones entre elles ».

Le diagramme de Moran, expliquent les auteurs, permet de visualiser la tendance des créatifs au regroupement spatial. Il sert à distinguer, parmi les cantons plus ou moins créatifs que la moyenne, ceux dont les valeurs sont proches de celles de leurs voisins, et ceux qui tranchent avec eux. Les lettres utilisées dans la légende sont H pour high (haut) et L pour low (bas). Soit : HH pour un canton créatif entouré d’autres cantons créatifs, HL pour un canton créatif entouré de cantons qui ne le sont pas, et inversement pour LL et LH.
Source : S. CHANTELOT, S. PÉRÈS et S. VIROL, « La localisation des créatifs en France : une analyse exploratoire de données localisées », loc. cit., p. 9.

Le diagramme de Moran, expliquent les auteurs, permet de visualiser la tendance des créatifs au regroupement spatial. Il sert à distinguer, parmi les cantons plus ou moins créatifs que la moyenne, ceux dont les valeurs sont proches de celles de leurs voisins, et ceux qui tranchent avec eux. Les lettres utilisées dans la légende sont H pour high (haut) et L pour low (bas). Soit : HH pour un canton créatif entouré d’autres cantons créatifs, HL pour un canton créatif entouré de cantons qui ne le sont pas, et inversement pour LL et LH.

Prise isolément, explique Sébastien Chantelot, la valeur de Moran d’un canton n’a pas de signification. « Une valeur positive signifie une attractivité supérieure à la moyenne […]. La moyenne arithmétique des indicateurs synthétiques de l’ensemble des zones est nullenote. » Autrement dit, ces méthodes se limitent à établir la comparaison entre zones géographiques, classées selon la mesure d’une valeur, laquelle est ainsi prédestinée à servir d’indicateur de performances. Il s’agit, dans les termes de ce numéro d’Économie Lorraine, d’identifier les régions « leadersnote », celles qui « possèdent des dynamiques circulaires vertueuses d’accumulation d’individus créatifsnote » par opposition aux régions qui « présentent un retard de créativiténote », voire « perdent réellement la course à la créativiténote ».

Abordées selon cette méthodologie, les performances du Limousin dans l’économie de la créativité peuvent être comparées à celles de l’Île-de-France, pour que le premier s’inspire des bonnes pratiques de la seconde, suivant une démarche de benchmarking territorial. La « classe créative » apparaît ici comme une catégorie dont la quantification est avant tout destinée à faire advenir une concurrence entre les territoires pour les emplois et la croissance.

Conclusion

Les développements sur la « classe créative » relèvent, on le voit bien, d’un tout autre univers de quantification que ceux sur les « intellos précaires ». Leurs différences ne se résument pas à des niveaux inégaux de technicité mais engagent aussi différentes formes d’action.

La méthode ouvertement rudimentaire des deux essais sur les « intellos précaires » va de pair avec une tentative de regroupement reposant sur une condition commune (la « précarité »). Ces ouvrages s’adressent en priorité aux individus dénombrés eux-mêmes, appelés à se reconnaître pour s’organiser en vue de leur émancipation collective. Dans ce dispositif, la quantification vise à établir le bien-fondé civique d’un tel rassemblement, tandis que les commentaires et extraits d’interviews comptent, pour réaliser le groupe, sur la réflexivité de ses membres potentiels.

Le contraste est fort avec une entreprise de promotion de classe appuyée sur l’exploitation techniquement pointue, dans des publications savantes, de données d’origine étatique. Les travaux issus de The Rise of The Creative Class cherchent à établir des relations causales exactes, à grande échelle et opérationnelles, dont pourraient se servir des décideurs publics pour avoir prise sur la concurrence économique entre les unités qu’ils dirigent.

Les deux projets de regroupement ne sont pas sans interférence l’un avec l’autre. Chez Florida, la représentation d’une classe composée d’individus se déplaçant au gré des opportunités de réaliser leur potentiel créatif rend difficilement représentable une « précarité » comme condition injustement subie, de façon durable, par une fraction stable de cette population. Inversement, puisque l’opération de Florida consiste à diffuser vers une classe très inclusive l’aura créatrice d’un petit noyau de professions charismatiques, des mobilisations de travailleurs « créatifs » ou « intellos » pour lutter contre la précarité de leur situation affaiblissent son propos. Paradoxalement, dans les pays où les thèses de Florida influent sur les politiques urbaines et culturelles, elles peuvent servir d’appui pour construire une cause des travailleurs créatifs-précairesnote, hybride entre celle portée par A. et M. Rambach et la « classe créative ».

À travers ces deux projets antagonistes de regroupement social, ce qui s’oppose, ce sont moins des groupes (ils ne sont pas constitués) que des façons de faire les groupes, de représenter la société et d’agir sur elle. On espère avoir montré ici que l’examen de leurs modes de quantification était un bon point d’entrée pour expliciter de tels enjeux.

Réussir en art grâce aux méthodes du consulting

Martin Le Chevallier

L’audit de martin le chevallier

Une demande atypique

En mars 2008, une sollicitation inhabituelle est parvenue à Associates Consulting. Un artiste, Martin Le Chevallier, nous demandait de le soumettre à un « audit de performance artistique ». Il demandait que la « pertinence de son travail » soit évaluée, à ce que ses « chances de réussite » soient mesurées et à être conseillé sur les « orientations artistiques et commerciales » qu’il devrait prendre pour les années à venir.

Associates Consulting est un cabinet international de conseil en stratégie et management et, à ce titre, nous nous adressons aux directions générales de grandes entreprises. Nous les assistons dans leurs problématiques de développement, d’efficacité opérationnelle et de conduite du changement. Nous leur offrons de multiples expertises et compétences allant du conseil en stratégie au conseil en organisation en passant par l’intégration des systèmes ou l’externalisation.

La demande de cet artiste – dont le nom nous était d’ailleurs totalement inconnu – était donc particulièrement incongrue. Notre premier réflexe aurait donc dû être de lui adresser un refus poli. La curiosité nous a cependant conduits à lui consentir un entretien, afin de comprendre quelles motivations présidaient à sa démarche. Souhaitait-il tourner en dérision notre pratique et plus largement le monde l’entreprise ? S’était-il trompé d’interlocuteur ? Avait-il un simple besoin de coaching ? Était-ce un farfelu ?

Martin Le Chevallier. L’Audit, 2008. Courtesy galerie Jousse Entreprise, Paris.

Martin Le Chevallier. L’Audit, 2008. Courtesy galerie Jousse Entreprise, Paris.

Il nous a expliqué qu’il était conscient du caractère paradoxal, voire inapproprié, de sa démarche. Il nous a décrit sa situation, se présentant comme un « ex-jeune artiste prometteur » confronté à « l’implacable sélection du marché de l’art » et condamné à « rebondir ou disparaître ». Puis, il a évoqué les dimensions « ultralibérales » du monde de l’art contemporain, l’intensité concurrentielle et la nécessité de recourir à des stratégies de production, de diffusion ou de promotion. Il nous a alors exprimé sa conviction que ces stratégies avaient de fortes similitudes avec celles qu’emploient les entreprises lorsqu’elles veulent s’implanter sur un marché, lancer un produit ou s’imposer face à la concurrence.

Nous avons été très surpris par ces propos. Nous ne soupçonnions pas que de telles préoccupations pouvaient exister chez les artistes, dont l’activité nous semblait dédiée à des champs aussi nobles que la sensibilité, l’émotion ou la poésie. Mais, après réflexion, il nous est apparu que sa demande était légitime et faisait sens. Par un échange de vues entre deux mondes a priori étrangers, cette expérience permettrait d’évaluer la capacité des logiques d’entreprise à s’appliquer à d’autres sphères de la société. Elle permettrait également d’observer le rôle que peuvent avoir les questionnements économiques au sein d’une pratique artistique. Par ce changement d’échelle et de contexte, cette mission nous offrirait donc l’opportunité de nous interroger sur notre pratique, d’explorer un domaine économique inhabituel et de mettre à l’épreuve nos méthodes et nos modèles. Après quelques hésitations, notamment suscitées par les réticences de notre directrice de la communication qui craignait qu’une telle prestation ne nuise à notre image, nous avons accepté de faire à Martin Le Chevallier une proposition commerciale. Loin de craindre d’être tournés en ridicule, il nous apparaissait au contraire que participer à cette aventure ne pouvait que renforcer notre image d’entreprise ouverte et innovante.

La proposition commerciale

La propale (proposition commerciale) comprenait deux volets. Un volet méthodologique et un volet budgétaire. Contre toute attente, la question budgétaire devait être plus aisée à résoudre que la question méthodologique. En effet, en combinant le mécénat avec un tarif préférentiel – motivé par notre intérêt pour le projet –, nous avons pu formuler une proposition adaptée aux capacités budgétaires de Martin Le Chevalliernote.

L’établissement du volet méthodologique de la propale constituait un défi car il nous contraignait à repenser nos outils d’expertise. L’artiste nous demandait en effet de procéder avec lui exactement comme avec une entreprise normale. Cela nous a plongés dans une multitude d’interrogations aussi paradoxales que stimulantes. Quelles problématiques de gestion des équipes chez un artiste indépendant ? Quels modes d’optimisation des processus ? Quelles solutions d’apprentissage organisationnel ? Etc. Ces interrogations nous ont amenés à procéder à une première observation des caractéristiques structurelles et contextuelles de notre client ; grâce auxquelles nous avons pu, en concertation avec lui, adapter nos outils méthodologiques à la mission à accomplir.

Notre vision du projet

En préambule, afin d’exprimer notre compréhension de la situation de l’« entreprise Martin Le Chevallier », nous avons formulé une évocation succincte de ses origines, de son histoire et de sa position artistique et économique au moment de notre étude.

Issu d’une famille d’artistes, Martin Le Chevallier était à la fois familier des modernités artistiques et étranger à l’art contemporain. Due à un hasard de rencontre, sa venue à ce champ artistique est parfaitement fortuite (comme nous le verrons plus loin, cette dimension autodidacte aura une influence décisive sur sa production et sa diffusion). La liberté offerte par ce contexte de création l’a incité à poursuivre dans cette voie et à développer une œuvre aux confins de l’expérimentation formelle et de la critique politico-sociale. Il a ainsi conçu un jeu de vidéosurveillance, un serveur vocal téléphonique dévolu à l’auscultation des pulsions consuméristes, des peintures de propagande factices, etc. Après dix ans consacrés au développement de cette activité – années durant lesquelles il a bénéficié du soutien qu’apportent les institutions françaises aux créateurs émergents – il se trouvait à un moment charnière de sa carrière. Il était représenté par une galerie, avait participé à de nombreuses expositions collectives en France et à l’étranger et avait vendu à d’importantes collections publiques. Mais il sentait qu’à défaut d’un nouvel élan, lui donnant accès à un statut d’« artiste international confirmé », il risquait d’être submergé par le flot des nouveaux entrants, les nouveaux « artistes prometteurs ».

Ces premières observations nous ont permis de résumer les attentes de notre client dans une formule : « Un défi majeur pour Martin Le Chevallier : devenir un artiste de premier plan ».

L’énonciation de l’ambition de l’artiste n’a pas été la chose la plus aisée. Car s’il semblait venir vers nous avec la détermination de celui qui veut réussir, il n’en était pas moins encombré par un fardeau de scrupules. À l’entendre, la notoriété l’indifférait mais était la condition de sa survie en tant qu’artiste. S’il voulait continuer à exposer, à être soutenu, à vendre et donc à produire, il lui fallait accéder à un certain « palier » de notoriété sur la scène artistique. Il n’en voulait pas davantage. Il voulait juste pouvoir poursuivre ses travaux modestement, tranquillement et librement. Nous avons alors dû lui faire admettre que le malthusianisme économique qu’impliquait cette fausse pudeur était en contradiction avec l’attitude dynamique et offensive qu’exigeait une stratégie de développement efficace. En effet, comment conseiller un client qui voudrait vendre davantage mais pas trop ? Gagner de nouveaux clients mais pas trop ? Conquérir de nouveaux marchés mais pas trop ? Etc. Il a fini par en convenir et nous avons pu poursuivre la formulation de son ambition.

Les enjeux de la mission

Martin Le Chevallier se donnait donc pour ambition de conquérir une position de référence. Cette volonté de leadership s’articulait autour de quatre axes majeurs :

– être porteur de vision, d’avenir, d’orientations pour le marché, la critique et les institutions, qu’elles soient publiques ou privées ;

– prendre des risques, s’investir et réussir des projets phares faisant référence dans l’histoire de l’art ;

– avoir un mode de fonctionnement performant, articulé sur des réseaux commerciaux et médiatiques agiles et réactifs ;

– rester en cohérence avec ses convictions, sa foi artistique.

Ces quatre axes nous permettaient d’embrasser de manière large les enjeux de la mission qu’il nous fallait accomplir. Considérant cela, nous avons pu cerner de manière plus précise les attentes de notre client : il nous fallait l’aider à définir les orientations esthétiques, conceptuelles et commerciales nécessaires pour satisfaire son ambition et lui proposer une méthode efficace et objective sur laquelle s’appuyer pour faire émerger sa nouvelle stratégie de développement artistique. Ces attentes soulevaient un certain nombre de questions. Quelle était sa valeur marchande présente et potentielle ? Ses choix commerciaux, médiatiques et relationnels étaient-ils pertinents au regard de l’ambition qu’il affichait ? Son âge, son sexe, sa nationalité étaient-ils des atouts ou des handicaps ? La pertinence, la qualité et l’originalité de son travail lui permettaient-elles d’envisager une diffusion large et un accès à la postérité ?

L’étendue de la tâche qu’il nous fallait accomplir s’esquissait alors. Au-delà de l’évaluation et du conseil en stratégie de Martin Le Chevallier, il nous apparaissait que notre étude pourrait revêtir un caractère générique. Avant même de savoir que nous contribuerions au présent ouvrage, il était en effet perceptible que le cas de notre client avait valeur d’exemple. Mais allions-nous élaborer des recettes de survie applicables aux multitudes d’artistes vieillissants ? C’était peu probable.

Nous étions néanmoins certains que notre mission de consulting devrait permettre de poser un cadre de management, d’action et de communication à la démarche artistique de notre client, qu’il pourrait ainsi aligner ses projets et ses différentes initiatives artistiques sur la stratégie et les objectifs qu’il aurait retenus, et que ses prises de décision, lors du développement de ses nouveaux projets, en seraient facilitées.

La démarche globale d’intervention

Comme on peut le voir dans la figure 1, nous avons proposé à Martin Le Chevallier une démarche globale d’intervention en trois étapes.

Figure 1. Démarche globale d’intervention

image

Dans un premier temps, il s’agit de préciser la cible à atteindre, autrement dit, de lui faire exprimer une vision traduisant son ambition. Lors de cette étape cruciale, il lui faut formuler ses intentions artistiques et commerciales et déterminer quel positionnement il vise sur le marché de l’art en France et à l’étranger. Il lui faut pour cela définir des objectifs précis et quantifiables, ainsi que des indicateurs permettant d’évaluer de manière chiffrée l’atteinte de ces objectifs. Comme nous le verrons, cette objectivisation de ses désirs ne se fera pas sans difficulté.

La deuxième étape consiste à réaliser un diagnostic de sa situation lors de l’audit, assorti d’une analyse de son contexte de production et de diffusion. Il faut pour cela identifier ses forces et ses faiblesses, déterminer s’il y a une adéquation entre ses pratiques et les objectifs qu’il vise, observer quelles opportunités il aurait à saisir et à quelles menaces il devrait parer.

Enfin, la troisième étape a pour but de tracer le chemin à parcourir, entre sa situation initiale et sa vision. Cela revient à définir quelle serait une dynamique de progrès ambitieuse mais réaliste, quels leviers d’action seraient pertinents pour atteindre l’ambition fixée, quels facteurs clés assureraient le succès de son projet artistique et quelle conduite du changement serait à mettre en place. Il s’agit, en somme, de définir sa stratégie de développement.

Après quoi, l’élaboration de cette stratégie se fait en deux temps :

– l’analyse des écarts entre son ambition affichée et sa situation initiale permet d’abord d’esquisser plusieurs stratégies possibles, en identifiant les grandes lignes d’action et en distinguant les priorités, les renoncements et les progrès à réaliser ;

– une stratégie peut ensuite être retenue, précisée et formalisée dans un business plan.

La propale présentait ensuite les outils retenus pour la mise en œuvre des différentes phases de l’audit.

Le tableau de bord prospectif

Pour la première étape de l’audit, la définition du niveau d’ambition, nous avons préconisé la méthodologie de la carte stratégique, de type Balanced Scorecard. Cette approche, également appelée « tableau de bord prospectif », permet d’exprimer une position stratégique selon quatre perspectives complémentaires, interdépendantes et équilibrées. Elle donne ainsi une vision globale des performances d’une entreprise et croise les perspectives financières avec les dimensions humaines, décisives pour l’atteinte des objectifs. Les axes classiques sont :

– les bénéfices financiers ;

– l’impact client ;

– l’efficacité des processus internes ;

– l’apprentissage organisationnel.

Il était évident que cet outil ne pouvait être utilisé tel quel et qu’il nous faudrait l’adapter aux particularités de notre client. Aussi, après plusieurs échanges avec lui, nous sommes parvenus aux quatre axes de performance apparaissant sur la figure 2.

Figure 2. La définition du niveau d’ambition

image

L’axe « satisfaction des clients » a été conservé, mais la notion de « bénéficiaires » est venue s’ajouter, de manière à inclure l’audience non commerciale de l’artiste (le public, les institutions, etc.). D’ores et déjà, il apparaissait qu’optimiser ce domaine de performance impliquerait de caractériser les acheteurs cibles, d’identifier les décideurs et prescripteurs dont l’artiste devrait impérativement se faire connaître et de savoir dans quelles institutions, en France et à l’étranger, il devrait exposer en priorité.

L’axe de la « rentabilité financière » a lui aussi été conservé. Il faudrait donc définir quel niveau de rentabilité devrait être obtenu sur chaque projet, préciser le positionnement-prix optimal pour permettre un développement pérenne, et arbitrer entre une logique de production (étendre l’offre artistique) et une stratégie de rareté (stimuler la valeur).

En revanche, les axes « efficacité des processus internes » et « apprentissage organisationnel » ne nous ont pas paru pertinents, car relevant trop du management. Aussi avons-nous opté pour deux domaines de performance incontournables pour un artiste comme Martin Le Chevallier : l’« efficacité artistique et conceptuelle » et la « performance de diffusion ».

Optimiser la performance de diffusion conduisait à déterminer quelles seraient les aires géographiques de production, de promotion et d’exposition les plus porteuses et à définir quelles seraient les contributions attendues des différentes parties prenantes dans la diffusion des œuvres (galeries, institutions, médias, etc.).

Enfin, viser l’excellence en matière d’efficacité artistique et conceptuelle impliquait d’identifier les enjeux artistiques contemporains les plus cruciaux, de définir sur quels critères différencier l’offre artistique de l’artiste et d’inventorier les sujets esthétiques les plus porteurs.

Le modèle de Porter

Afin de procéder à une analyse sectorielle, c’est-à-dire observer et analyser le contexte de production et de diffusion de Martin Le Chevallier, nous avons conseillé le recours à la méthode de Porter, dite des « 5 forces de la concurrence ».

Classiquement, les forces mentionnées par ce modèle sont :

– les clients ;

– les fournisseurs ;

– les concurrents ;

– les entrants potentiels ;

– les produits de substitution.

Là aussi, une adaptation a été nécessaire. Nous avons donc écarté la notion de produits de substitution, qui ne nous semblait pas opérante. Il apparaissait également que le rôle des fournisseurs n’était pas décisif. Après avoir considéré que les nouveaux entrants pouvaient être inclus dans la catégorie des « concurrents », nous avons introduit deux nouvelles catégories, nous paraissant nettement plus pertinentes : les producteurs et les soutiens. La figure 3 nous permet ainsi de visualiser le contexte de diffusion de Martin Le Chevallier.

Les « acheteurs » sont les collectionneurs privés ou les collections publiques.

Les « diffuseurs » sont les galeries, les institutions (musées, centres d’art, etc.) et les médias.

Les « concurrents » sont les autres artistes et les nouveaux entrants.

Les soutiens sont les critiques, les curateurs (commissaires d’exposition), les galeristes associés, les amis, etc.

Enfin, les producteurs sont ceux qui concourent au financement des œuvres : les galeries, les institutions et, exceptionnellement, les collectionneurs.

Fig. 3. Le contexte de diffusion

image

Comme on peut l’observer, ces cinq forces constituent autant des menaces que des opportunités. Il s’agit donc d’un ensemble d’acteurs avec lesquels il faut composer, dont il faut parfois se prémunir et dont il faut surtout savoir tirer parti.

Le modèle SWOT

Le deuxième outil proposé pour l’analyse et le diagnostic de notre client était le modèle « SWOT » (figure 4). Acronyme des termes anglais strengths, weaknesses, opportunities, threats, cet instrument propose une analyse en deux temps :

– un diagnostic interne permettant d’identifier les forces et les faiblesses de l’artiste ;

– un diagnostic externe permettant de discerner les opportunités et les menaces qui se présentent à lui.

Analyser les forces de Martin Le Chevallier impliquait d’inventorier ses réussites, ses éléments de fierté et ses avantages concurrentiels. Étudier ses faiblesses conduisait à identifier ses échecs, les principales difficultés rencontrées dans la production de ses œuvres ou les points de fragilité de son réseau. Discerner les menaces pesant sur lui amenait à s’interroger sur les nouvelles concurrences auxquelles il faudrait qu’il se prépare, sur les évolutions de la demande qu’il ne devrait pas qu’il manque et sur les possibles récupérations ou préjudices médiatiques qu’il pourrait redouter. Enfin, l’identification des opportunités qui se présentent à lui permettrait de savoir quelles évolutions conceptuelles seraient les plus pertinentes, quelles opportunités commerciales saisir et quels coups médiatiques réussir.

Figure 4. Le modèle SWOT

image

La confrontation de ces quatre diagnostics permettrait de situer le positionnement stratégique de Martin Le Chevallier, d’en déduire les stratégies de développement possibles et de choisir la stratégie la plus pertinente.

Établie en concertation avec l’artiste, cette propale a été pleinement approuvée par celui-ci. Nous pouvions donc entamer la réalisation de cet « audit de performance artistique ».

La définition du niveau d’ambition

Comme annoncé dans la propale, la première étape était la définition du niveau d’ambition. Il revenait à Martin Le Chevallier de préciser quels objectifs stratégiques il voulait atteindre. Nous lui avons alors soumis le questionnaire ci-dessous. Cette étape était cruciale car ses réponses devaient être le socle de l’ensemble de notre mission.

Le questionnaire débutait par deux questions « exploratoires » et les questions suivantes s’articulaient autour des quatre axes de la Balanced Scorecard.

Le résultat fut calamiteux. Une fois encore, Martin Le Chevallier nous a répondu avec une fausse modestie parfaitement stérile. Il déclarait souhaiter « une reconnaissance qui [le] laisserait libre de prendre un chemin ou un autre, de produire ou de ne pas produire, tout en continuant à manger ». Interrogé sur les acheteurs cibles, il prétendait « ne viser personne » et se refusait à les quantifier. Il niait se préoccuper de la satisfaction de ses clients. Lorsqu’il lui était demandé de quels décideurs et prescripteurs il voulait se faire connaître, il bottait en touche en disant que « seul le hasard rend les décideurs décisifs ». Il se refusait également à définir les critères de différenciation de son offre artistique et à identifier les sujets esthétiques les plus porteurs. Ce déni de pragmatisme oscillait même entre l’incompétence et la paresse, lorsqu’il se contentait d’attendre des différentes parties prenantes de son activité (galeries, institutions, médias, etc.) « qu’elles fassent leur travail ».

Pouvez-vous exprimer, en quelques lignes, le scénario « conte de fées » que vous aimeriez vivre dans les cinq prochaines années ?

De même, le scénario catastrophe ?

 

Axe satisfaction des clients et bénéficiaires

Aujourd’hui, qui sont vos clients et bénéficiaires ?

Demain (projection à 5 ans) quels objectifs vous fixez-vous ?

Quels acheteurs cibles visez-vous ?

De quels décideurs et prescripteurs aimeriez-vous vous faire connaître ?

Dans quelles institutions en France et à l’étranger aimeriez-vous exposer ?

À chaque fois, illustrez avec une action qu’il faudrait mener (pour atteindre l’objectif) et avec un indicateur permettant de mesurer (de manière chiffrée) le résultat atteint.

Qu’aimeriez-vous que l’on dise de vous dans cinq ans ? Qu’on ne dise surtout pas ?

 

Axe efficacité artistique et conceptuelle

Aujourd’hui, quelle est votre situation ?

Demain (projection à 5 ans) quels objectifs vous fixez-vous ?

À quels enjeux artistiques contemporains aimeriez-vous répondre ?

Sur quels critères souhaiteriez-vous différencier votre offre artistique ?

Quels sont les sujets esthétiques les plus porteurs selon vous ?

À chaque fois, illustrez avec une action qu’il faudrait mener (pour atteindre l’objectif) et avec un indicateur permettant de mesurer (de manière chiffrée) le résultat atteint.

Qu’aimeriez-vous que l’on dise de vous dans cinq ans ? Qu’on ne dise surtout pas ?

 

Axe performance de diffusion

Aujourd’hui, quelle est votre situation ?

Demain (projection à 5 ans) quels objectifs vous fixez-vous ?

Quelles sont les aires géographiques de production, de promotion et d’exposition que vous aimeriez investir ?

Quelles contributions attendez-vous des différentes parties prenantes (galeries, institutions, médias, etc.) ?

À chaque fois, illustrez avec une action qu’il faudrait mener (pour atteindre l’objectif) et avec un indicateur permettant de mesurer (de manière chiffrée) le résultat atteint.

Qu’aimeriez-vous que l’on dise de vous dans cinq ans ? Qu’on ne dise surtout pas ?

 

Axe rentabilité financière

Aujourd’hui, quelle est votre situation ?

Demain (projection à 5 ans) quels objectifs vous fixez-vous ?

Quel niveau de rentabilité obtenir sur vos projets ?

Quel pourrait être selon vous le positionnement-prix à fixer aux œuvres pour vous fournir les moyens d’un développement pérenne ?

Logique de production ou stratégie de rareté ?

À chaque fois, illustrez avec une action qu’il faudrait mener (pour atteindre l’objectif) et avec un indicateur permettant de mesurer (de manière chiffrée) le résultat atteint.

Qu’aimeriez-vous que l’on dise de vous dans cinq ans ?

Qu’on ne dise surtout pas ?

Ce regain de réticence a sérieusement mis en péril notre collaboration. Fort heureusement, l’écoute, le dialogue et la pédagogie, associés à un désir partagé d’aboutir, nous ont permis de surmonter cette épreuve. Alors que Martin Le Chevallier s’attendait à voir déferler la logique et les préceptes de l’entreprise dans son univers préservé, à être le spectateur du processus dont il était l’objet, à découvrir, nimbé de son innocence d’artiste, la litanie de nos préconisations prosaïques, il a alors compris que l’essence du consulting n’était autre que la maïeutique. On dit souvent qu’un consultant est « un type qui vous emprunte votre montre pour vous dire l’heure qu’il est ». Quoique moqueur, ce résumé est assez juste. Notre tâche est de conduire nos clients à accoucher des réponses et des solutions qu’ils attendent. Jamais nous ne connaissons aussi bien qu’eux leur domaine d’activité, leur contexte concurrentiel, leur histoire, etc. Nous n’avons en définitive d’autres compétences que celles de l’obstétricien.

L’artiste devait donc trouver en lui les clés de sa réussite. Et, au préalable, accepter de s’avouer ce qui définirait cette réussite.

Cette prise de conscience eut un effet libérateur. Notre client se regardait enfin comme une entreprise, avec une mission et des objectifs, des partenaires et des concurrents, des écueils à éviter et des résultats à atteindre. Il prit toutefois quelques précautions oratoires : « Il me semble qu’exprimer mon narcissisme, mon égocentrisme, ma mégalomanie en toute liberté sera propice à l’établissement d’objectifs chiffrés. Je vous demanderai cependant de veiller à ce que ces objectifs ne semblent pas émaner de mon ambition démesurée mais bien de l’ambition que vous me recommandez. Une prétention excessive pourrait en effet être mauvaise pour mon image. » Nous pouvions donc enfin nous mettre au travail sur des bases solides.

Fort de cette détermination, il s’est alors montré d’une grande précision dans l’établissement de ses réponses. La quantification des objectifs – qui lui avait jusque-là paru aussi aberrante qu’impraticable – devenait soudain un jeu. Il était en mesure de nous livrer une liste d’acheteurs cibles, de curateurs clés, de lieux prescripteurs ou de collections phares. Il savait vouloir être identifié comme une valeur sûre, perçu comme l’auteur d’une forme artistique inédite et cruciale, habitué des manifestations majeures ou envié par ses pairs. Il pouvait nous proposer des indicateurs chiffrés de l’atteinte de ses objectifs, tels que le prix de ses œuvres en salle des ventes, le nombre d’occurrences sur Google, le nombre de galeries le représentant ou le nombre de monographies qui lui seraient consacrées dans un délai de cinq ans. Il pouvait définir quel créneau artistique il visait et quel serait le positionnement de son offre au sein de la scène artistique. Il était même disposé à reconsidérer totalement son axe de production, pour peu que nos préconisations l’y encouragent.

Nous devons reconnaître que ce revirement radical nous a momentanément laissés perplexes. Comment pouvait-il aussi brutalement changer d’attitude ? Pourquoi consentir soudain à bouleverser la substance de sa création ? Quelle alchimie pouvait affecter à ce point sa personnalité ? Cette question ne nous tarauda cependant que brièvement, car, habitués à voir surgir la part d’ombre de nos commanditaires, et fidèles aux principes d’efficacité qui ont fondé notre succès, nous avons su faire taire notre perplexité pour mieux nous emparer du matériau remarquablement prolifique qui nous était fourni.

Nous avons alors pu identifier les objectifs de notre client et les articuler autour des quatre axes du tableau de bord prospectif, au sein d’une carte stratégique (figure 5).

Nous connaissions donc les treize objectifs poursuivis par Martin Le Chevallier. Il fallait alors esquisser les moyens de les atteindre et trouver quels seraient les indicateurs de l’atteinte de ces objectifs. La lecture de l’inventaire qui suit pourra sembler fastidieuse. Le lecteur persévérant sera cependant récompensé, car il trouvera de précieuses réponses à ces questions cruciales.

Figure 5. Carte stratégique : objectifs poursuivis par l’artiste pour les 5 ans à venir

image

Axe 1 – Satisfaction des clients et bénéficiaires

Être parmi les dix valeurs sûres françaises

– Comment y arriver ?

Élargir son réseau de diffusion et de distribution.

– Comment vérifier que l’objectif est atteint ?

Nombre d’expositions personnelles dans des institutions de premier plan (Moma, Guggenheim, Tate Modern, Beaubourg).

Présence des œuvres dans les places dominantes du marché (Sotheby’s, Christie’s).

Nombre d’occurrences sur Google.

 

Ajuster le volume de production artistique aux attentes du marché.

– Comment y arriver ?

Concilier satisfaction croissante de la demande et stratégie de rareté.

– Comment vérifier que l’objectif est atteint ?

Hausse maîtrisée de la valeur unitaire des œuvres.

 

Alimenter de manière continue la demande curatoriale

– Comment y arriver ?

Opter pour un mode de production en flux tendu sous exigence de contrôle qualité.

– Comment vérifier que l’objectif est atteint ?

Absence de rupture dans la fourniture des pièces, qualités du feedback client, fidélisation et élargissement de la clientèle.

 

Maintenir un haut niveau de pertinence esthétique et conceptuelle

– Comment y arriver ?

Identifier et valoriser les pôles d’excellence de l’artiste.

– Comment vérifier que l’objectif est atteint ?

Validation par les leaders d’opinion (critiques, curateurs, décideurs, artistes, etc.).

 

Axe 2 – Efficacité artistique et conceptuelle

 

S’inscrire dans un processus d’innovation continue

– Comment y arriver ?

Privilégier la R&D et externaliser tous les domaines d’activité qui peuvent l’être (organisation, fabrication, promotion, etc.).

Assurer une veille permanente sur la concurrence.

– Comment vérifier que l’objectif est atteint ?

Augmentation significative du temps consacré à la recherche-innovation.

Taux de contrefaçons (reprise des idées par d’autres artistes).

Intégrer la stratégie de marque dès la conception des projets

– Comment y arriver ?

Définir une stratégie de marque Martin Le Chevallier.

Déterminer un portefeuille de produits artistiques, suffisamment resserré pour une bonne identification et permettant un renouvellement périodique de l’offre.

– Comment vérifier que l’objectif est atteint ?

Identification par le public de la marque aux produits.

 

Veiller à une constante adéquation de la production aux évolutions   de l’Histoire

– Comment y arriver ?

Se tenir informé des dernières actualités et innovations.

Cultiver sa spécificité.

– Comment vérifier que l’objectif est atteint ?

Citations dans les ouvrages de référence.

 

Axe 3 – Performance de diffusion

 

Accéder aux sites de diffusion les plus porteurs (musées, centres d’art, etc.)

– Comment y arriver ?

Développer une stratégie relationnelle amicale et ciblée (à destination des décideurs et prescripteurs : artistes, critiques et curateurs).

– Comment vérifier que l’objectif est atteint ?

Nombre de sollicitations par les cinquante établissements les plus prestigieux.

 

Disposer d’un réseau de distribution global

– Comment y arriver ?

Créer le désir chez des acteurs clés du commerce de l’art (galeristes, marchands, etc.).

– Comment vérifier que l’objectif est atteint ?

Représentation par des galeries dans les pays les plus porteurs (USA, Europe, Chine).

 

Bénéficier d’une couverture médiatique internationale

– Comment y arriver ?

Identifier et mobiliser les acteurs clés du réseau médiatique.

Imposer son agenda événementiel.

– Comment vérifier que l’objectif est atteint ?

Localisation, nombre et prestige des publications.

 

Axe 4 – Rentabilité financière

 

Être parmi les dix artistes français vivants les plus chers

– Comment y arriver ?

Bénéficier d’actions promotionnelles ambitieuses (galeries).

Définir une politique tarifaire audacieuse et pragmatique.

– Comment vérifier que l’objectif est atteint ?

Niveaux de prix atteints en salle des ventes.

 

Vendre aux principales collections privées et publiques

– Comment y arriver ?

Être identifié comme un placement prometteur.

Disposer d’une force de vente performante.

Concevoir des œuvres adaptées à la vente.

– Comment vérifier que l’objectif est atteint ?

Taux de pénétration des collections dominantes.

 

Être implanté sur les marchés émergents et à fort potentiel (BRICS,   « niches » porteuses)

– Comment y arriver ?

Initier une production adaptée aux références culturelles de la cible.

– Comment vérifier que l’objectif est atteint ?

Chiffre d’affaires dans les zones concernées.

Le contexte

Forts de cette vision stratégique, il nous fallait alors déterminer si l’atteinte de ces objectifs était à la portée de Martin Le Chevallier. Était-il un jeune artiste vieillissant incapable de résister au tri des artistes quarantenaires ? Avait-il les capacités artistiques et relationnelles pour surmonter cette épreuve ? Quels étaient ses atouts et ses handicaps ? À quelles menaces devait-il parer ? Quelles opportunités avait-il à saisir ? En résumé, l’entreprise « Martin Le Chevallier » était-elle viable ? Ou valait-il mieux qu’il renonce et s’épargne les affres et les humiliations d’une bataille déjà perdue ?

Pour répondre à ces questions décisives, nous avons quitté le chemin de la maïeutique pour embrasser celui de l’investigation et de la confidence. Nous sommes allés enquêter auprès d’un panel d’experts, composé de spécialistes du marché de l’art et de la scène artistique, et de fins connaisseurs du travail et des ressorts intimes de Martin Le Chevallier. Il y avait parmi ces experts des critiques, des commissaires d’exposition, des responsables d’institutions, des galeristes (dont le sien), des collectionneurs et des artistes.

Comme annoncé dans la propale, notre première tâche a été d’analyser le contexte de production et de diffusion de l’artiste, en observant les principales évolutions du secteur. Nous avons alors suivi le modèle de Porter, et organisé notre étude autour des cinq forces précédemment identifiées : les acheteurs, les diffuseurs, les concurrents, les soutiens et les producteurs. Voici quelles ont été nos principales observations.

Les acheteurs

Nous avons constaté que les grands collectionneurs s’inscrivaient dans une logique de valorisation de leur capital et que, à travers l’explosion du nombre d’acheteurs potentiels, acheter de l’art était devenu tendance.

Les diffuseurs (galeries, institutions ou médias)

Nous avons observé une véritable atomisation du marché de l’art (même si le tropisme sur les trois marchés initiaux est encore fort), avec en tête l’Amérique du Nord – environ 60 % de l’activité – suivie par l’Europe et l’Amérique du Sud. Nous est également apparue une disjonction entre un circuit commercial concentré sur les plus-values, et un circuit institutionnel attaché au contenu, notamment les principales biennales, ou des manifestations comme la Documenta.

Les concurrents (artistes et nouveaux entrants)

Nous avons observé une forte croissance du nombre d’artistes en activité, une tendance au jeunisme et une ascension de la cote des artistes est-européens.

Les soutiens (critiques, curateurs, artistes, galeristes, etc.)

Nous avons constaté une perte d’influence des critiques sur le marché de l’art ainsi qu’une certaine logique collective chez les jeunes artistes, leur permettant d’être plus visibles dans un marché élargi et atomisé.

Les producteurs (galeries et institutions)

L’analyse nous a montré que les flux financiers dominants étaient orientés vers les valeurs sûres, la spéculation et le second marché ; et non vers les galeries et, a fortiori, la production d’art contemporain.

En conclusion, nous étions face à un environnement en forte évolution qui présentait de nombreuses menaces, mais aussi créait des opportunités pour un artiste tel que notre client.

Qui a peur des statistiques ethniques ?

Louis-Georges Tin

Quand on met en place une politique publique, encore faut-il mesurer son efficacité concrète sur le terrain ; cela semble être une remarque de bon sens. Or, dans certains domaines, la France manifeste une forme particulière de schizophrénie : oui, on prétend combattre les discriminations raciales avec la dernière énergie, mais, non, on ne veut pas du tout mesurer les progrès réalisés en la matière. C’est à se demander si vraiment il y en a… Cet aveuglement volontaire porte un nom : cela s’appelle la politique de l’autruche. Est donc ici posée la question des « statistiques ethniques » ou, plus exactement, la problématique des « statistiques de la diversité », car il s’agit de mesurer non pas les « ethnies » représentées en France (les Fons, les Ouïgours ou les Nambikwaras), mais la diversité de la population dans son ensemble.

Le 31 janvier 2007, Le Parisien fit sa une avec une enquête inédite sur les Noirs en France. Réalisée par le CRANnote avec l’institut de sondage TNS-Sofres, cette étude donnait des informations sur le nombre de Noirs dans le pays, leur répartition socioprofessionnelle, leur taux de chômage, leurs revenus, etc. Cette enquête suscita une polémique considérable : avait-on le droit de faire des statistiques « ethniques » ? Aujourd’hui encore, beaucoup de commentateurs, y compris parmi les plus « autorisés », assurent, en général pour s’en féliciter, que les statistiques « ethniques » sont interdites en France. Cette affirmation péremptoire est rarement démentie. Or personne n’a jamais pu citer les articles de loi qui s’y opposent, et pour cause ; à ce jour, ni les responsables du CRAN, ni ceux de la Sofres n’ont été mis en examen, ni seulement inquiétés. Évidemment, il convient de respecter un certain nombre de règles, formulées par la Commission nationale de l’informatique et des libertés (CNIL)note, et cette enquête les respecta bien entendu. Mais a priori, contrairement à ce qu’on dit un peu partout, en tant que telles, les statistiques de la diversité ne sont pas interdites en France, qu’on s’en réjouisse ou qu’on s’en plaigne. L’enquête du CRAN constituait de ce fait la preuve par l’exemple.

Il faudrait d’ailleurs se demander pourquoi, aujourd’hui encore, est à ce point accréditée une contre-vérité aussi grossière : car enfin, être opposé aux statistiques « ethniques » est une chose, affirmer qu’elles sont interdites en est une autre. Il est clair qu’il y a en ce domaine un travail de désinformation active, relayée consciemment ou non par de nombreux agents qui prennent leur désir pour la réalité, dans l’espoir de transformer en effet la réalité par leur désir : à force de répéter partout que les statistiques « ethniques » sont interdites, on contribue efficacement à les discréditer et à les rendre sinon illégales, du moins illégitimes. Dès lors, ces stratégies rhétoriques finissent par acquérir une efficacité perlocutoire, au sens où l’entendait le philosophe Austin, dans son ouvrage Quand dire, c’est faire : lorsque l’on affirme sans cesse que ces statistiques sont interdites, tout le monde finit par se les interdire effectivement.

Quoi qu’il en soit, après l’étude du CRAN, le débat s’enflamma : pétitions, contre-pétitions, commissions, contre-commissions, tribunes, réponses, invectives – la controverse fut intense. Cependant, ce qui faisait scandale, c’était non pas le fait que les Noirs soient plus pauvres que les Blancs, qu’ils soient beaucoup plus souvent au chômage, ou qu’ils soient surexposés à la discrimination, comme le montrait l’enquête – de cela on se souciait fort peu –, mais la démonstration qui avait permis d’arriver à cette conclusion. Le contenu de l’étude et la validité des résultats furent somme toute assez peu contestés : seule était remise en cause la légitimité, pour ne pas dire la légalité de la méthode. Il était difficile, dans ces conditions, de ne pas penser à l’adage grec : quand le sage montre la lune, l’idiot regarde le doigt.

Un débat ancien…

On s’offusquait de cette nouveauté, et on reprochait au CRAN d’avoir proposé une mesure digne de l’Allemagne nazie, voire (horresco referens) du communautarisme américain – ce qui pour certains était presque pire ! Or la question des statistiques ethniques n’était pas une nouveauté en France. On peut penser à la « controverse des démographes » qui avait opposé Hervé Le Bras à Michèle Tribalat, sur le même sujet, dans les années 1990. La polémique avait été violente. Certes, elle s’était développée dans un contexte principalement universitaire, c’était un débat de spécialistes, mais elle avait été vive. Il faudrait également remonter plus avant dans le temps, pour évoquer par exemple les polémiques plus anciennes suscitées par Victor Schoelcher au XIX e siècle, après l’abolition de l’esclavage en 1848. À l’époque, il tentait d’attirer l’attention du public sur les séquelles de l’esclavage, sur le « préjugé de couleur » et les discriminations qui en résultent. En 1880, Schoelcher examinait les postes de l’administration publique à la Guadeloupe et à la Martinique, les commissaires de police, les juges, les procureurs, les services de la perception, et il constatait partout, chiffres à l’appui, que dans des îles où les Noirs sont très majoritaires, les postes les plus élevés étaient très majoritairement occupés par des Blancs. En d’autres termes, Schoelcher faisait… des statistiques de la diversité.

À l’époque déjà, le débat faisait rage, et les colons lui reprochaient de produire ces chiffres, en utilisant des arguments tout à fait semblables à ceux qui furent utilisés plus de cent ans plus tard. La polémique, on l’a dit, fut très vive en 2007. Elle ne l’était pas moins en 1880, comme en témoigne ce passage dans lequel Schoelcher met en scène les arguments de ses adversaires, extrait qui ne manquera pas de faire écho à nos débats contemporains :

Je sais bien à quoi je m’expose en dressant les tableaux que je viens de mettre en lumière ; on prétendra que j’excite les passions rivales. Il y a longtemps que j’ai passé par là : le sieur Bissette et les fiers « gens bien nés » qui s’étaient mis sous son patronage employaient déjà ce petit moyen il y a trente ans. Dites-vous que tous les juges de paix, tous les commissaires de police, tous les syndics de l’immigration sont pris dans la classe blanche et aucun dans la classe de couleur ; vous provoquez à l’antagonisme des deux races ! Vous plaignez-vous qu’en formant un collège d’assesseurs de 30 membres, l’administration de la Guadeloupe y fasse entrer 22 Blancs, ou que l’administration de la Martinique ayant à nommer un Comité d’exposition de 17 membres, y mette 16 Blancs ; vous réveillez les inimitiés éteintes en mêlant la question de couleur à une question purement judiciaire ou administrative ! Il n’y a plus, ajoute-t-on, aux colonies que des Français ; il ne s’agit pas de savoir si les élus sont blancs ou noirs, mais s’ils sont ou ne sont pas propres à l’emploi qu’ils obtiennent. À cela je ne puis que répéter ce que j’ai déjà répondu : « Aussi longtemps que les places seront données aux Français blancs à la presque exclusion des Français de couleur, quel que soit le mérite de chacun, je croirai nécessaire de faire ressortir que l’autorité “fait acception de personne”. Imputer la faute à celui qui la signale ne sera jamais honnête ; autant vaudrait imputer au médecin de donner la fièvre à un malade lorsqu’il constate que ce malade a la fièvre. Je ne serai jamais sensible à ce genre de reproche. »

Cet extrait de Schoelcher est cité par Aimé Césaire dans son livre Esclavage et colonisation note. En mettant en avant ce passage, il voulait s’appuyer sur Schoelcher pour montrer qu’après le combat pour la liberté, gagné en 1848, restait le combat pour l’égalité, tout aussi difficile que le précédent. Or si l’égalité est un rapport arithmétique, elle peut être mesurée. C’est pourquoi Victor Schoelcher avait eu recours aux statistiques pour démontrer que l’égalité n’était pas du tout réalisée dans les Antilles, ce que contestaient ses adversaires. Ainsi, bien avant le débat suscité par le CRAN en 2007, bien avant « la controverse des démographes » en 1991, Césaire apportait en 1948 son soutien implicite à Schoelcher qui, lui-même, avait fait des statistiques de la diversité en 1880, tout en rappelant que Bissette, le célèbre abolitionniste martiniquais, « et les fiers “gens bien nés” qui s’étaient mis sous son patronage, employaient déjà ce petit moyen il y a trente ans ». En d’autres termes, alors que les statistiques « ethniques » sont souvent présentées par leurs détracteurs comme étant une pratique étrangère aux traditions française et républicaine, il apparaît ici qu’elles furent en tout cas une pratique récurrente des mouvements antiracistes français depuis au moins les années 1850.

Les opposants de Schoelcher se recrutaient principalement dans le parti des colons et des anciens propriétaires d’esclaves. Pour certains d’entre eux, les statistiques étaient mauvaises en raison de leurs conséquences : vous excitez « les passions rivales » ; « vous provoquez à l’antagonisme des deux races », « vous réveillez les inimitiés éteintes », affirmaient-ils. Bref, Schoelcher nuisait à la paix sociale. Il est amusant de constater que ces arguments furent également utilisés en 2007. Mais il n’est pas très difficile d’y répondre : ce qui cause l’« antagonisme », c’est l’injustice. Ce n’est pas en étouffant la vérité qu’on arrive à la paix sociale. C’est en combattant l’injustice, laquelle doit d’abord être démontrée et mesurée.

Pour d’autres opposants de Schoelcher, le problème n’était pas tant leurs conséquences ; les statistiques étaient mauvaises en raison de leur principe même : « Il n’y a plus, ajoute-t-on, aux colonies que des Français ; il ne s’agit pas de savoir si les élus sont blancs ou noirs, mais s’ils sont ou ne sont pas propres à l’emploi qu’ils obtiennent. » Là encore, il est difficile de ne pas sourire face à ces arguments d’autrefois, toujours d’actualité pour les conservateurs d’aujourd’hui (de gauche comme de droite). Les colons ou anciens propriétaires d’esclaves, qui jusqu’alors avaient toujours promu une logique raciale, contestaient désormais ces mêmes catégories, et se retranchaient derrière la logique nationale : puisqu’il n’y avait plus « aux colonies que des Français », pourquoi compter les Noirs et les Blancs ? Ces concepts n’étaient-ils pas obsolètes ? Ainsi, on le voyait, la logique raciale ancienne aussi bien que la dénégation raciale nouvelle aboutissaient à un même résultat : la domination blanche.

Le dernier argument de Schoelcher est tout à fait emblématique. Dans ces domaines, souvent, celui qui montre le problème est accusé de le créer. « Autant vaudrait, disait Schoelcher, imputer au médecin de donner la fièvre à un malade lorsqu’il constate que ce malade a la fièvre. » Les statistiques ne sont qu’un outil, comme le thermomètre pour le médecin, mais hier comme aujourd’hui, certains estiment qu’il faut casser le thermomètre et attribuent la maladie au médecin qui en parle. Pareillement, en 2007, les statistiques ethniques, qui étaient mises en œuvre pour lutter contre le racisme, furent souvent accusées de contribuer à la racialisation de la société, et donc au racisme. On retrouvait là un des arguments récurrents de la rhétorique réactionnaire, mis en évidence par Albert Hirschman : l’effet perversnote. Selon les adversaires de Schoelcher et des statistiques ethniques, en 1880 comme en 2007, elles avaient des effets pervers absolument terribles, et ils préféraient en effet que l’on évite de mettre ainsi en lumière la vérité et l’injustice raciale.

À l’évidence, le recueil de textes qu’est Esclavage et colonisation fonctionnait sur la base d’une double énonciation : cet extrait de Schoelcher évoquait la réalité antillaise en 1880 (en faisant écho à la réalité des années 1850), mais il avait été choisi par Césaire pour dénoncer la réalité discriminatoire de 1948 (qui n’était peut-être pas si différente de celle évoquée par Schoelcher). Et l’on pourrait s’en servir, à un troisième (voire un quatrième) niveau, pour interroger la réalité d’aujourd’hui dans les Antilles, et dans le reste de la France. Dans quelle mesure le préjugé de couleur et les discriminations ont-ils reculé ? Comment s’en rendre compte sans chiffres ?

De l’utilité concrète des statistiques de la diversité

On pourrait longtemps philosopher sur le bien-fondé des statistiques ethniques. Le mieux est peut-être de sortir du débat principiel, où l’on s’enlise bien souvent en France. La question n’est pas tant : « Les statistiques ethniques sont-elles bonnes (ou pas) en elles-mêmes ? », mais plutôt : « À quoi peuvent-elles servir concrètement, et dans quels cas peut-on les utiliser intelligemment ? » On quitterait ainsi le débat déontique, tout à fait abstrait et bien souvent stérile, pour une approche plus pragmatique et plus pertinente.

Parmi les domaines où les statistiques ethniques ont fait avancer la lutte contre le racisme en France figure l’audiovisuel. Depuis longtemps, depuis au moins Calixthe Beyala qui, en l’an 2000, était montée sur la scène des Césars pour dénoncer le défaut de représentation des minorités visibles à la télévision, cette question est une des antiennes des mouvements antiracistes. Quand le CRAN (re)lança le débat sur les statistiques de la diversité, il sollicita à ce sujet le Conseil supérieur de l’audiovisuel (CSA), qui prit la question à bras-le-corps. À la demande du CRAN, en 2009, le CSA mit en place un « baromètre de la diversité » mesurant le nombre de personnes perçues comme noires, arabes, asiatiques ou blanches sur les écrans de la télévision française. Bref, après le CRAN, le CSA se mit lui aussi à faire des statistiques de la diversiténote.

Les chaînes qui, jusqu’alors, contestaient l’évidence des faits furent obligées de sortir du déni et d’accepter les remontrances et recommandations de leur autorité de tutelle. Le CSA ne leur imposa pas de quota, mais leur indiqua qu’elles devaient progresser, et d’ailleurs, compte tenu de leurs résultats, qu’elles ne pouvaient que progresser… Dès l’année suivante, des efforts significatifs furent faits pour apporter plus de diversité parmi les journalistes, présentateurs et animateurs, notamment. En 2005, quand Harry Roselmack présenta pour la première fois le journal sur TF1, on sursauta : « un Noir au 20 heures ? » Aujourd’hui, les présentateurs issus de la diversité sont bien plus nombreux à la télévision, c’est d’ailleurs pourquoi ils sont bien moins connus que Harry Roselmack ou Audrey Pulvar qui, à leur époque, faisaient figures d’exception. Bref, la diversité s’est banalisée parmi les journalistes de télévision, ce qui est une excellente nouvelle. À l’évidence, la télévision française a beaucoup évolué depuis quelques années, et le vrai tournant, ce fut 2009, quand le CSA accepta de mettre en place ces statistiques, pas du tout illégales (on le voit encore), et qui furent un levier considérable.

Un autre exemple parmi tant d’autres démontrera sans doute l’importance de cet outil. Le défaut de représentation des Noirs en général apparaît de manière emblématique dans la représentation nationale, justement. En 2007, lors des élections législatives, les statistiques de la diversité mises en œuvre par le CRAN permirent de démontrer le faible nombre de candidats noirs présentés par les partis politiques en généralnote. Cette réalité fut clairement reprise par les médias et, au bout du compte, il n’y eut dans l’hémicycle qu’une seule personne noire, originaire de l’Hexagone : George Pau-Langevin. Ce déficit de représentation des Noirs dans la représentation nationale, qui n’est pas totalement résolue en 2012, n’avait échappé ni à Aimé Césaire en 1948, ni à Victor Schoelcher en 1880. Celui-ci en parlait dans ses écrits, et celui-là ne manqua pas de recueillir un passage à ce sujet dans Esclavage et colonisation :

À ce propos, écrivait Schoelcher, laissez-moi toucher un sujet qui m’est personnel. Des gens de mauvaise foi m’ont accusé d’avoir déserté nos principes, lorsqu’à la dernière élection d’un député pour la Guadeloupe, j’ai proposé un candidat nègre, parce que nègre. Ils ont prétendu que c’était pour jeter parmi nous un élément de division. Rien de moins vrai. Vous le savez comme moi, je ne vous l’apprends pas, ce caractère de déchéance dont je parlais tout à l’heure, et dont l’esclavage a frappé l’homme noir, n’est pas encore entièrement effacé d’Europe. La présence d’un Nègre dans l’enceinte législative contribuerait, je crois, à corriger cette cruelle erreur ; elle y aurait une influence morale considérable […].Voilà précisément pourquoi j’engageais les électeurs à prendre pour député « un Nègre » « parce que nègre ». Je m’en étais expliqué souvent dans ma correspondance, personne n’en ignorait là-bas, aussi personne n’en fut-il choqué, chacun comprenant que, par là, j’entendais soutenir la cause de l’égalité, attaquer encore le mortel préjugé de couleur, en cherchant à lui créer au sein du Parlement une protestation vivante et permanentenote.

On le voit dans ces lignes, Schoelcher avait soutenu « un candidat nègre, parce que nègre ». Cela ne signifiait pas que celui-ci n’eût pas les compétences pour la fonction, évidemment. Mais parmi toutes les personnes compétentes, Schoelcher avait volontairement soutenu un Guadeloupéen noir, pour lutter contre « le mortel préjugé de couleur » et pour « créer au sein du Parlement une protestation vivante et permanente » contre le racisme. En d’autres termes, après les statistiques de la diversité, Victor Schoelcher (et sans doute, derrière lui, Aimé Césaire) faisait ici l’apologie de l’affirmative action.

De même, entre 2007 et 2012, George Pau-Langevin fut elle aussi « au sein du Parlement une protestation vivante et permanente », comme le disait Schoelcher. Son nom était un reproche constant fait à la République : elle était, on le répétait tout le temps, la seule députée noire originaire de l’Hexagone. Et la campagne du CRAN sur les statistiques de la diversité avait permis de faire émerger une prise de conscience nationale dans ce domaine. Le temps de l’action affirmative n’était-il pas venu ? En 2012, les partis politiques firent quelques efforts, quoique insuffisants : il y eut huit députés noirs ou arabes sur 550 originaires de l’Hexagone – c’était certes un progrès, mais qui permettait à peine d’arriver à 1 % au niveau de l’Assemblée nationale. En revanche, au gouvernement, sur trente-cinq ministres, sept étaient issus de la diversité, soit 20 %. C’était là un progrès considérable. Reste à voir évidemment quelle politique est mise en place contre le racisme, ce qui est une autre question, tout à fait essentielle au demeurant.

Troisième exemple montrant l’importance des statistiques de la diversité. Chez Renault, des centaines de travailleurs noirs ou maghrébins affirmaient être discriminés, et plusieurs d’entre eux sollicitèrent le CRAN en 2007. Ils se disaient confrontés dans leur carrière à un plafond de verre, ou plutôt, à un véritable plancher scotchant. La direction refusant d’en discuter avec eux, ils portèrent l’affaire au tribunal. Lors d’un premier jugement, le juge déclara qu’il manquait d’éléments concrets permettant de confirmer l’existence de discriminations raciales à grande échelle. Il affirma qu’il avait besoin de comparer des cohortes de travailleurs noirs ou maghrébins et des cohortes de travailleurs blancs pour vérifier si, oui ou non, il y avait des différences sensibles de traitement au fil des années dans le déroulement des carrières. Bref, le juge réclamait des statistiques de la diversité !

Lors du second procès en appel, les plaignants revinrent avec des outils statistiques percutants. L’examen de quelques cohortes montrant les évolutions de salaires d’ouvriers, en fonction de leur origine « ethnique », toutes choses égales par ailleurs, permit de convaincre le juge : le 2 avril 2008, la cour d’appel de Versailles reconnut que l’entreprise Renault s’était rendue coupable de discriminations raciales, et celle-ci fut condamnée à verser plus de 160 000 euros de dommages et intérêts aux deux plaignants, ce qui constituait une décision tout à fait nouvelle, et remarquable. De cette affaire historique résulte nettement que les statistiques de la diversité sont possibles et utiles. Loin d’être illégales, elles ont été réclamées par le juge lui-même ; sans ces éléments chiffrés, jamais la cour d’appel n’aurait pu constater les faits qui prouvaient le délit. Accessoirement, cette affaire explique peut-être aussi pourquoi M. Schweitzer, président de la Haute Autorité de lutte contre les discriminations et pour l’égalité (HALDE), mais aussi P-DG de Renault à l’époque des faits de discriminations ci-dessus évoqués, fut toujours si opposé aux statistiques de la diversité…

Un quatrième et dernier exemple pourrait être évoqué : le délit de faciès. Depuis longtemps, de nombreux jeunes, notamment noirs ou arabes, se disaient en France exposés à un véritable « profilage ethnique », et soumis à des contrôles de police réguliers et humiliants. Cette réalité fut longtemps contestée. Ces jeunes, disait-on, étaient forcément dans l’exagération, dans la haine de la police, et de toute institution quelle qu’elle soit. Mais deux enquêtes recourant aux statistiques de la diversité (l’une réalisée par le CRAN et l’institut de sondage CSA en 2008, l’autre en 2009 par deux chercheurs du CNRS, Fabien Jobard et René Lévy)note, permirent de démontrer que le contrôle au faciès était en France une réalité. Dès lors, le débat fut lancé publiquement, et plusieurs solutions furent proposées, même si le gouvernement actuel refuse encore de les appliquer. Mais sans ces études statistiques, on serait encore dans le déni du réel.

Jusqu’alors, la question des statistiques dites ethniques était en France un véritable tabou. Pour ce qui est des Noirs, par exemple, la volonté de ne pas savoir l’emportait largement. Personne ne savait d’ailleurs combien ils étaient dans le pays. Les chiffres les plus divers circulaient officieusement, et ils allaient de un à six millions. C’est comme si on disait : les États-Unis comptent à peu près entre 60 et 360 millions d’habitants ! Les statistiques de la diversité sont évidemment possibles (les exemples évoqués ci-dessus le montrent), mais rarement utilisées, ce qui contribue à invisibiliser la réalité de la discrimination systémique. Car c’est justement dans le domaine des discriminations systémiques (qui sont par définition les plus importantes) que cet outil se révèle le plus performant et le plus indispensable. Dans l’accès à l’école, à la culture, au travail, au logement, à la santé, à la justice, la situation des minorités dites « ethniques » est-elle aujourd’hui meilleure qu’elle ne l’était il y a dix ans ? Les politiques menées ont-elles eu la moindre efficacité dans ce domaine ? Nul ne le sait. Et certains font tout pour qu’on n’en sache rien.

Dans l’ensemble, s’il y a encore des résistances en France, de plus en plus de personnes conçoivent la nécessité de recourir à ces mesures statistiques, que l’Union européenne et les Nations unies recommandent pour lutter contre les discriminations. Comme ceux qui s’y opposent n’ont en général pas de meilleure solution à proposer, ils donnent l’impression de se satisfaire du statu quo et d’œuvrer en faveur de l’immobilisme. Et qu’ils le veuillent ou non, leur attitude contribue objectivement à couvrir d’un voile de pudeur – ou d’hypocrisie – la réalité des discriminations raciales en France.

Quatrième partie

Finalités. opposer des indicateurs alternatifs à l’institution

Peut-on quantifier la souffrance au travail ?

Ivan du Roy

Les nuisances et contraintes au travail mettant en danger la santé des salariés sont nombreuses. Des nuisances sonores jusqu’à l’exposition à des agents chimiques ou radioactifs, en passant par le travail de nuit et la répétition d’un même geste pendant des heures, les salariés sont confrontés à de nombreux risques. Autant de sources potentielles de pénibilités physiques auxquelles s’ajoutent les « risques psychosociaux » : le stress souvent produit par de trop grandes contraintes organisationnelles. Comment suivre l’évolution de ces pénibilités et leurs effets ? Quels en sont les indicateurs, les signaux d’alerte ? Comment détecter, au sein d’une entreprise, les conséquences d’une restructuration, d’une intensification du travail, voire d’un « harcèlement managérial » ou organisationnel, un délit reconnu par la chambre sociale de la Cour de cassation en novembre 2009note ?

Pénibilités physiques et souffrances psychologiques

Les populations des salariés soumis à ces pénibilités, souvent multiples, sont mesurées par les enquêtes « Sumer » (Surveillance médicale des expositions aux risques professionnels), réalisées tous les sept ou neuf ans par la Direction générale du travail (DGT) et la Direction de l’animation de la recherche, des études et des statistiques (DARES) du ministère du Travailnote. La dernière en date, menée entre janvier 2009 et avril 2010, s’appuie sur la participation de 2 400 médecins du travail et de prévention qui ont accepté de faire passer un questionnaire auprès de dizaines de milliers de salariés du privé comme du public, dont la grande majorité a accepté d’y répondre (moins de 5 % de refus). D’où un échantillon de taille importante : au total, 48 000 questionnaires exploitables ont pu être collectés.

Publiés en mars 2013, les résultats de l’enquête « Sumer 2010 » révèlent ainsi que 39,8 % des salariés sont confrontés à au moins une contrainte physique intense : travailler debout ou porter des charges lourdes au moins 20 heures par semaine, effectuer des gestes répétitifs (le travail à la chaîne, par exemple) ou être soumis à des vibrations au moins 10 heures par semaine. 33,5 % des salariés sont exposés à au moins un produit dangereux dans le cadre de leur travail avec, en cas de contact, des risques immédiats – brûlure, irritation, réactions allergiques – ou différés dans le cas des substances cancérogènes. Ces risques ont des conséquences aussi diverses que graves : stress, « TMS » (troubles musculo-squelettiques, comme le mal de dos, la tendinite, etc.) jusqu’aux cancers, tel celui lié à l’amiante.

Ces pénibilités et expositions stagnent depuis vingt ans, ou diminuent très lentement. Mais, parallèlement, les situations de « tension au travail » augmentent. Quantité excessive de travail, polyvalence, objectifs irréalistes ou flous, injonctions contradictoires se multiplient au sein des entreprises. La proportion de salariés soumis à au moins trois contraintes de rythme – lié à la cadence automatique d’une machine, à la dépendance immédiate vis-à-vis du travail de ses collègues, aux normes et délais de production à respecter en moins d’une journée, ou au contrôle permanent de la hiérarchie, etc. – est passée, de 1994 à 2010, de 28 % à 35,5 %. De plus, la part de ceux estimant rencontrer au travail un comportement hostile (22 % des salariés) ou méprisant (15 %) augmente de manière notable. « L’intensité du travail est l’une des principales dimensions des facteurs psychosociaux de risque au travail », rappelle la DARESnote. Ce risque s’accentue lorsqu’un salarié est confronté à une forte demande (rythme, objectifs, diversité des tâches à accomplir, etc.), sans disposer de la marge de manœuvre nécessaire pour y répondre. Le stress et la souffrance psychique au travail viennent s’ajouter aux problèmes de santé liés aux nuisances « traditionnelles ».

Les effets concrets sur les salariés de ces risques et pénibilités sont plus ou moins aisément identifiables et quantifiables. L’Institut national de recherche et de sécurité (INRS) recense chaque année le nombre d’accidents du travail et de maladies professionnelles déclarés à l’assurance maladie. En 2011, si les accidents du travail entraînant une incapacité permanente ont très légèrement baissé en un an (- 0,5 %, 40 986 salariés concernés), les décès ont progressé de 4,3 % (552 salariés tués dans le cadre de leur travail), en particulier dans les secteurs du bâtiment et travaux publics (BTP), des transports et du travail temporaire. Idem pour les maladies professionnelles, en hausse de 8,7 % entre 2010 et 2011. Les TMS, qui constituent la première cause de maladie professionnelle reconnue, continuent d’exploser : + 40 % en 5 ans. Telle est la photographie des conditions de travail et de leurs conséquences que nous livre l’enquête « Sumer 2010 » et le recensement de l’INRS. Un panorama global indispensable à la compréhension des grandes évolutions, mais qui ne permet pas de savoir plus précisément ce qui se déroule dans les entreprises.

Surtout quand les salariés sont soumis à des situations de « tension au travail » qui s’installent dans la durée, produisant un stress permanent. Les syndromes liés au stress sont multiples et peuvent intervenir de manière différée. Ils peuvent se déclarer sur le lieu de travail comme à l’extérieur de l’entreprise. Ils se traduisent physiquement comme psychiquement. Fatigue nerveuse (sentiment de lassitude, désintérêt pour les activités et tâches quotidiennes, dépression), troubles de l’humeur et du caractère (hyperémotivité, nervosité, agressivité) ou du sommeil (insomnie nocturne), troubles digestifs (anorexie notamment), tension musculaire et hypertension artérielle en constituent autant de signes. Le salarié en poste peut être subitement saisi d’angoisses, de palpitations, de vertiges ou de sensations d’oppression. En cas de « décompensation » (rupture de l’équilibre de l’organisme), ces symptômes de stress peuvent avoir de graves conséquences cliniques, comme un arrêt cardio-vasculaire. D’autres signes annonciateurs indiquent que le salarié est en train de perdre pied avec la réalité : problèmes de concentration, confusion, incapacité de se souvenir de la chronologie précise des événements, perte de l’« élan vital », cauchemars à thématique professionnelle ou même phobie de tout ce qui représente l’environnement professionnel. Le recours à la consommation d’alcool, d’antidépresseurs ou d’anxiolytiques, conséquence d’une situation de stress, en renforce les causes et accentue à terme la souffrance du salarié. Cette « décompensation psychique » peut déboucher sur une tentative de suicide.

L’affaire france télécom ou le « management par la terreur »

C’est ce qui s’est produit à France Télécom, dont le profond malaise social en interne a été tragiquement révélé sur la place publique par une « vague de suicides ». Un véritable mal-être collectif sur lequel j’ai enquêté en 2008 et 2009note. Cette enquête se terminait alors même que les suicides se multipliaient avant et pendant l’été 2009. Le 18 juin, un vendeur d’une boutique Orange de Montbéliard fait une tentative de suicide dans le magasin en absorbant des médicaments. Dans la nuit du 13 au 14 juillet, un technicien, Michel, met fin à ses jours. « Je me suicide à cause de mon travail à France Télécom. C’est la seule cause. Urgence permanente, surcharge de travail, absence de formation, désorganisation totale de l’entreprise. Management par la terreur ! Cela m’a totalement désorganisé et perturbé. Je suis devenu une épave, il vaut mieux en finir », écrit-il dans une lettre laissée à l’intention de sa famille et de ses collègues. Le 30 juillet, un technicien du site de Quimper, Camille, se suicide en se jetant d’un pont, juste avant de reprendre son travail. De l’autre côté de la France, à Besançon, Daniel, un technicien de 28 ans, se suicide le 11 août. Son relatif jeune âge comparé au profil des salariés de France Télécom – la moyenne d’âge y est alors supérieure à 48 ans – accroît l’émotion des salariés du groupe. Le 24 août, un technicien de 51 ans, en congé longue maladie, se suicide chez lui, près de Chartres. Le 11 septembre, une jeune femme de 32 ans de la « division entreprise » à Paris, se défenestre sur son lieu de travail. Elle avait subi une mutation forcée et sortait d’une réunion de service. Le 28 septembre, un téléopérateur de 51 ans à Annecy, marié et père de deux enfants, se jette d’un pont autoroutier en se rendant au centre d’appels. Il laisse une lettre à sa femme accusant ses conditions de travail. Ce énième drame provoque trois jours plus tard un débrayage national chez les 90 000 salariés de l’entreprise…

19 suicides et 15 tentatives de suicide en 2009. À partir du mois de juillet, la comptabilité morbide tourne en boucle dans les médias. Et devient le chiffre de référence pour montrer les effets dramatiques de l’immense restructuration entamée depuis la privatisation progressive de l’opérateur historique des télécoms en 1997. Une restructuration qui s’accélère en 2002 avec l’arrivée à la tête du groupe de Thierry Breton et de son armée de cost-killers (réducteurs de coût), dont le premier d’entre eux, Louis-Pierre Wenes, devient le no 2 du groupe. À l’époque, c’est un autre chiffre qui défraie la chronique, terrorisant dirigeants et actionnaires : celui de l’endettement de l’entreprise. Ses 68 milliards d’euros de créances font de France Télécom l’entreprise la plus endettée au monde. L’ancienne direction, profitant de la dérégulation du secteur en Europe, avait multiplié les acquisitions tous azimuts au Royaume-Uni, en Allemagne ou en Pologne, achetant des opérateurs privés dont le cours de l’action est au plus haut alors que la « bulle Internet » s’apprête à exploser.

Cinq ans plus tard, ce sont les salariés qui paient le prix du vaste plan de réduction des coûts, le plan NEXT (Nouvelle expérience des télécoms) piloté par Louis-Pierre Wenes. Entre 2005 et 2008, 22 000 emplois sont supprimés, soit 17 % des effectifs. Quasiment un salarié sur cinq quitte l’entreprise : départs en retraite anticipée, mutations ailleurs dans la fonction publique (les salariés embauchés avant la privatisation en ont gardé le statut), « projet personnel accompagné », le tout répondant à une « logique d’adaptation permanente dans un environnement instable », selon la terminologie managériale. L’entreprise, les salariés et le travail qu’ils accomplissent sont profondément déstabilisés. Interpellé par l’ampleur du malaise qui s’installe, un Observatoire du stress et des mobilités forcéesnote est créé en 2007 par deux syndicats : Sud-PTT, deuxième force syndicale de France Télécom, et la Confédération française de l’encadrement-Confédération générale des cadres (CFE-CGC).

L’idée de l’observatoire est en germe depuis 2004, année de la publication du livre La Machine à broyer note. Le journaliste Dominique Decèze y recueille témoignages et appels de détresse de salariés, un an à peine après la privatisation totale de France Télécom. Le livre est diversement apprécié dans le milieu syndical, mal à l’aise et mal armé face aux souffrances individuelles au travail. Considérée comme éloignée des terrains classiques de l’action syndicale – préservation de l’emploi, défense des salaires et des statuts –, la question de la préservation de la santé au travail est encore très peu abordée par les organisations syndicales.

Une comptabilité morbide

L’observatoire réunit des sociologues, des médecins et psychiatres du travail pour tenter de comprendre ce qui se joue et cerner les contours d’une véritable « maltraitance au travail » qui se développe. « Recenser les cas de restructuration, apporter une aide aux salariés, s’entourer de scientifiques pour objectiver les choses », résume alors Pierre Morville, de la CFE-CGC. L’observatoire va d’abord s’atteler à mesurer l’ampleur du problème et constituer un baromètre. Un premier questionnaire est mis en ligne sur le site de l’observatoire au début de l’été 2007. Il est conçu avec l’aide d’une agence spécialisée dans l’« e-mail marketing », pour vérifier que le public qui y répond fait bien partie de l’entreprise, et déterminer s’il est représentatif de l’ensemble du personnel ou, au contraire, s’il est majoritairement constitué de militants syndicaux ou de salariés stressés. Les réponses sont traitées par un cabinet d’experts de la santé au travail. Des sociologues, regroupés au sein d’un « conseil scientifique », planchent sur les résultats. L’objectif est d’être irréprochable quant à la méthode. Ce qui n’empêchera pas la direction de France Télécom de censurer l’accès au site en interne : « Le site demandé n’a pas de caractère professionnel », affiche un message lorsque des salariés tentent de s’y connecter. 3 234 salariés répondent cependant aux cinquante questions posées. Les résultats, publiés en novembre 2008note, sont accablants. Deux salariés sur trois se déclarent stressés, 15 % se disent en situation de détresse. Près d’un salarié sur six ! La très grande majorité estime que le travail ne cesse de se dégrader (93 %) et que leur expérience n’est pas reconnue (91 %). « Les chiffres du stress m’ont paru énormes, ceux sur la volonté de départ astronomiques », confie Patrick Ackermann, délégué syndical de Sud.

Surpris par la multiplication des suicides et des tentatives de suicide, l’Observatoire du stress entame en parallèle leur recensement à partir des signalements qui remontent des sections syndicales : 12 suicides et 2 tentatives en 2008, 19 suicides et 15 tentatives en 2009, 27 suicides et 16 tentatives en 2010. Comptabiliser les suicides de salariés à France Télécom, résumer en un chiffre l’ampleur du malaise, permet à ce moment-là de mettre en lumière, à l’extérieur de l’entreprise, le drame qui s’y déroulait jusqu’alors à huis clos. À la manière dont les six suicides qui ont endeuillé le technocentre de Renault à Guyancourt (12 000 salariés) entre 2004 et 2007 y ont révélé l’ampleur du stress généré par l’organisation du travail. L’Observatoire du stress multiplie les communiqués de presse. Plusieurs médias commencent à relayer le chiffre et à signaler de nouveaux suicides. « Que se passe-t-il chez France Télécom ? Le nombre de suicides ne cesse d’augmenter au sein du personnel… », annonce, le 20 mai 2009, le journal de 20 heures de TF1.

Mais l’exercice comporte de nombreuses limites. La première étant la question du lien avec le travail. Jusqu’au mois d’août, la direction de France Télécom refuse toute relation : « drame personnel », salariés « fragiles », « instables » ou « malades » avancent les dirigeants. L’entreprise ne serait donc pas en cause. Ces gestes ultimes devraient-ils être ignorés sous prétexte qu’ils ont généralement de multiples causes et qu’ils relèveraient d’abord du domaine privé ? « Question délicate, car il est difficile de faire la part du privé et du professionnel : le drame survient souvent lorsque des difficultés personnelles viennent s’ajouter à la pression au travail. Cependant, chacun le sait dans l’entreprise, le travail peut constituer une ressource précieuse pour passer une période de difficultés personnelles ; en cas de rupture, il est au minimum légitime de s’interroger sur le fait que l’activité professionnelle et les relations de travail n’ont pas rempli leur fonction de protection de la santé. La question devient incontournable lorsque le suicide a lieu sur les lieux du travail ou lorsque la personne laisse une lettre incriminant l’organisation de travailnote », répond Philippe Davezies, enseignant-chercheur en médecine et santé au travail (université de Lyon). Il poursuit : « Quoi que l’on puisse penser des motifs du suicide, dès lors que certains salariés soutiennent qu’il est lié au travail, cela constitue en soi un signal d’alerte. Cela montre qu’ils considèrent que le travail au sein de l’entreprise comporte des motifs de souffrance tels qu’ils pourraient, dans certaines circonstances, pousser au désespoir. La question se déplace alors vers la souffrance de ceux qui restentnote. »

Ne tenir compte que du seul chiffre des suicides laisse cependant la part belle à ceux qui ne tardent pas à expliquer que ce chiffre ne signifie rien, statistiquement parlant. « On se suicide plutôt moins à France Télécom qu’ailleurs », explique ainsi le statisticien René Pardieu, dans un entretien publié par le quotidien La Croix en octobre 2009note. Pour en arriver à cette conclusion, René Pardieu compare le taux de suicide au sein de France Télécom avec celui de l’ensemble de la société française. Selon cette comparaison, France Télécom est, au pire, dans la moyenne nationale, fixée à 19,6 suicides par an pour 100 000 habitantsnote. C’est ce qui permet au statisticien d’asséner : « Il n’y a pas de “vague de suicides”… » CQFD. Et d’ajouter : « Quand on se met à observer quelque chose, on le voit apparaître. » Bref, circulez, il n’y a en fait rien à voir. Un tel raisonnement est contestable à plusieurs titres : non seulement René Pardieu érige la moyenne des suicides en norme, ce qui est déjà discutable, mais il se fonde sur cette moyenne, ce benchmark des suicides, pour nier la complexité des comparaisons statistiques d’une population donnée – les salariés d’une même entreprise – avec la population plus généralenote.

Dans le même esprit, d’autres chercheurs avanceront que la « vague de suicides » n’existe que dans l’esprit des commentateurs médiatiques tant que l’on n’aura pas démontré de pic statistique sur le temps long. Pas de vague, pas de pic, donc pas de facteur éventuellement lié au travail, pas de harcèlement organisationnel provoquant massivement stress, mal-être et dépressions chez les salariés de France Télécom. À ce petit jeu des chiffres et des moyennes, on pourrait également procéder au calcul suivant : la France compte 23,8 millions de salariés d’après l’Inseenote et environ 400 suicides par an liés au travail, selon l’estimation du Conseil économique, social et environnemental. Soit 1,6 suicide lié au travail pour 100 000 salariés par an. France Télécom est donc bien au-dessus, même si l’on ne comptabilise que les suicides clairement liés au travail, soit par une lettre laissée par le défunt, soit parce que le drame s’est déroulé sur le lieu de travail.

Cette interprétation polémique du nombre de suicides et de ce qu’il signifie – ou pas – illustre parfaitement l’ambivalence des statistiques, surtout quand il s’agit de quantifier la souffrance au travail, en particulier la souffrance psychique qui ne peut se compter de la même manière que l’apparition de TMS ou de cancers professionnels. Cette interprétation fait écho à la monomanie du management moderne de tout évaluer, mesurer, chronométrer, benchmarker. Même si ces baromètres sur lesquels s’appuient les dirigeants d’une entreprise n’ont plus rien à voir avec ce qui se passe dans les ateliers et les bureaux. C’est également le cas d’un recensement éventuel des suicides de salariés. Si cela reste déconnecté d’informations, d’analyses et d’observations précises sur ce qui se joue à l’intérieur d’une entreprise, dissocié de la parole et du ressenti des salariés sur leur travail et son organisation, recenser les suicides est loin d’être suffisant. Se cantonner aux seuls suicides permet également aux directions d’entreprise de se contenter de répondre uniquement sur le terrain psychologique et individuel. Pour éviter que des salariés considérés comme « fragiles » ne perdent pied, on mettra en place ici un numéro vert pour converser avec un psychologue, là une cellule d’écoute pour identifier le « maillon faible » de l’équipe, ailleurs des exercices de détente, des temps de convivialité – imposés par le management – ou des cours de yoga. « On parle beaucoup des risques psychosociaux comme s’il s’agissait d’un nuage toxique planant au-dessus de l’entreprise ou de certaines de ses composantes, et qui atteint certains des salariés, en premier lieu bien sûr ceux dont les caractéristiques personnelles les fragilisent », constate François Daniellou, professeur d’ergonomie à l’Institut polytechnique de Bordeaux. Et il poursuit :

Selon ce modèle, l’atmosphère est un peu pourrie, et les plus sensibles vont avoir des problèmes. Les mesures qui en découlent sont à l’image du modèle : on peut faire des prélèvements d’atmosphère (mesurer l’environnement psychosocial). On peut faire des dosages sur les salariés (pour évaluer le risque psychosocial qu’ils courent). On peut mettre en place un système de signalement mutuel (alerter quand un collègue commence à ne pas aller bien ou si on le juge fragile). On peut tenter de désintoxiquer ceux qui sont déjà atteints, par exemple en leur offrant un soutien psychologique financé par l’entreprise, comme on met en caisson hyperbare les victimes du monoxyde de carbone. Par tous ces moyens, on vise à éviter que le nuage ne fasse trop de victimes, surtout celles dont la fragilité intrinsèque pourrait les pousser à la tentative de suicide, dont les effets sont délétères pour l’organisation et l’image de marquenote.

Mais sur ce qui fragilise les salariés, rien. Et sur la destruction des collectifs de travail, indispensables à la solidarité et à l’entraide entre employés mais dangereux pour les directions, encore moins.

Vers une responsabilité pénale des directions ?

Surtout, le nombre de suicides au sein du personnel d’une entreprise est l’indicateur ultime d’une situation sociale totalement dégradée. Lorsqu’un suicide en partie lié au travail survient, il est déjà trop tard. D’ailleurs, à France Télécom, les suicides se sont poursuivis avec encore plus d’intensité en 2010, alors que la direction a été remplacée, que les mobilités forcées ont été stoppées, que des négociations avec les syndicats ont été lancées et des premières mesures d’urgence mises en œuvre. Bien avant la crise des suicides de 2009, d’autres indicateurs ont révélé l’émergence du mal-être. Ainsi, dès 2002, dans son rapport d’information dressant le bilan de la transformation de France Télécom en société anonyme, le sénateur Gérard Larcher (UMP) constate « une inquiétude grandissante » des personnels de l’opérateur privatisé face aux « facteurs anxiogènes » que sont les réorganisations, les mutations, le surendettement, l’incertitude de l’avenir. En 2006, dans son rapport d’activité, un médecin du travail fait part de ses observations dans les régions Auvergne et Rhône-Alpes, auprès de 2 000 salariés :

Le stress, le désarroi, les troubles anxio-dépressifs liés aux transformations du travail ne cessent de s’accroître chez le personnel. Les salariés ont de plus en plus de mal à se reconnaître dans ce qu’ils font. Certains éprouvent un sentiment de culpabilité, ils s’isolent, se replient… Parfois, le coût psychique que représente cette épreuve est trop lourd, c’est alors qu’apparaissent la dépression et les problèmes de santénote.

Ce type d’observation se multiplie, dans toutes les régions et « sur toute la population » de France Télécom qui connaît, à des degrés divers, « des troubles de l’humeur, des insomnies entraînant une consommation d’anxiolytiques, d’antidépresseurs, des troubles cardio-vasculaires, des troubles musculo-squelettiques… », indiquent en 2007 des médecins du travail de la direction territoriale Normandie Centre (du Havre à Orléans, de Caen à Tours), qui suivent plus de 6 200 salariés. Ces observations ne seront jamais centralisées et synthétisées. Au contraire, la direction occultera, voire censurera, ces remontées du terrain.

La direction de France Télécom déniera de la même manière les expertises indépendantes toujours plus nombreuses qui remontent des comités d’hygiène et de sécurité des conditions de travail (CHSCT). Quasiment toutes disent la même chose à propos des effets des restructurations permanentes sur les salariés. « Ces évolutions sont particulièrement préjudiciables à leur santé mentale, parce que, d’une part, elles ne laissent pas de latitude pour penser le changement, s’y préparer et s’y projeter et, d’autre part, elles laissent les salariés dans une position d’attente face à leur direction, sans des issues professionnelles réalistes, à part l’accompagnement vers la sortie. […] Ces transformations ont remis en cause les identités professionnelles des salariés, le sens et leur motivation au travail, et leurs conditions de travail. Ces évolutions ont provoqué une diffusion du mal-être au travail auprès des salariés », constate le cabinet ISAST (Intervention sociale et alternative en santé au travail), en 2008, suite à un énième « projet d’optimisation » des services en Normandie. La direction du groupe ne cherchera pas à les synthétiser ni à en tirer les enseignements qui s’imposent alors.

D’autres indicateurs spécifiques aux entreprises existent, consultables dans leurs bilans sociaux : en particulier, l’absentéisme et les mouvements de main-d’œuvre. Pour le premier, en 2008, la situation est alarmante à France Télécom. Malgré la baisse des effectifs, le nombre de journées d’absence pour congé maladie continue de grimper. En 2008, un salarié de France Télécom est en moyenne absent pendant vingt jours pour cause de maladie. Et c’est une moyenne ! Pour les non-cadres, qui constituent la majorité de l’effectif, ce taux oscille entre 30 à 63 jours par an ! À titre de comparaison, un salarié d’EDF – ancienne entreprise publique elle aussi privatisée – est absent en moyenne neuf jours par an pour congé maladie, ce qui constitue la moyenne de l’absentéisme dans le secteur privé. Autre exemple d’actualité : La Poste. En cinq ans, de 2006 à 2011, le taux d’absentéisme pour maladie a progressé de 11 %. Et chez les cadres supérieurs, de 66 %note ! Une situation plus qu’inquiétante : La Poste, soumise à une vaste réorganisation interne, s’apprête-t-elle à suivre le même chemin que son ancienne sœur des PTT ? Côté mouvements de main-d’œuvre, les démissions représentent, à la veille de la crise des suicides à France Télécom, la troisième cause de départ, derrière la fin des contrats à durée déterminée (CDD) et les départs en retraite. En trois ans, la proportion des démissions, comparée au nombre total des départs, a presque été multipliée par quatre. Autant de signes supplémentaires de l’existence d’un problème.

Il faudra malheureusement attendre les 19 suicides de 2009 et leur médiatisation, pour que la direction, ainsi que l’État actionnaire (à 25 % environ) prennent enfin conscience de la gravité de la situation. Et tout s’accélère. Fin août 2009, la direction convie les syndicats à une réunion sur les « risques psychosociaux ». Mi-septembre, le ministre du Travail Xavier Darcos convoque le P-DG, Didier Lombard, qui annonce un gel des mutations. Le 5 octobre, le « no 2 », Louis-Pierre Wenes, est débarqué de la direction du groupe, remplacé par Stéphane Richard qui prend officiellement ses fonctions le 1er mars suivant. L’Inspection générale des affaires sociales (IGAS) diligente une enquête sur l’ensemble des suicides. Sept suicides et tentatives de suicide commis en 2009 seront reconnus comme accidents de service (pour les fonctionnaires), accidents du travail (pour les salariés de droit privé) ou classés en maladie professionnelle. En mars 2010, une information judiciaire est ouverte à la suite de la plainte déposée par plusieurs syndicats contre la direction de France Télécom pour « harcèlement moral », « mise en danger d’autrui » et infraction au Code du travail. L’affaire suit son cours. Le décompte des suicides a permis de la révéler, l’analyse qualitative des conditions de travail de la porter en justice.

Quantifier contre les chiffres ? une estimation du coût des expulsions de sans-papiers

Damien de Blic

Depuis le milieu des années 2000, les collectifs de défense des personnes sans papiers se sont efforcés de rendre visible la situation réelle de celles et ceux qui se trouvent en situation irrégulière sur le territoire français. L’activité militante a contribué à dévoiler plus particulièrement deux dimensions de cette réalité. Les mobilisations ont tout d’abord donné à voir les attaches nombreuses, variées et souvent anciennes nouées par les sans-papiers avec leur environnement français, réalité que la figure courante du « clandestin » tendait à dissimuler. L’autre dimension mise en lumière par les collectifs militants est la violence engendrée par l’intensification des expulsions subies par un nombre croissant de sans-papiers.

Du militantisme de terrain au statactivisme

Dès 2004, le Réseau éducation sans frontières (RESF) a œuvré à remettre au centre de l’actualité politique française la situation des sans-papiersnote, en organisant la défense systématique des parents d’enfants scolarisés et des jeunes majeurs lycéens menacés d’expulsion du territoire national. L’un des effets de la création de ce réseau a consisté indéniablement à défaire la figure du sans-papiers dissimulé et/ou en marge de la société puisqu’il révélait la présence de très nombreuses personnes ne disposant certes pas de titres de séjour mais très bien insérées dans la société française, y étant elles-mêmes scolarisées – le cas des lycéens majeurs – ou ayant des enfants inscrits à l’école, parfois depuis longtemps. De nombreux collectifs locaux se sont ainsi constitués à la suite de la découverte par des parents ou des enseignants que certains pères et mères d’élèves côtoyés quotidiennement à l’école étaient en fait des « sans-papiers ».

Cette découverte s’opère toutefois le plus souvent dans un contexte dramatique, car si ces lycéens ou ces parents dévoilent leur absence de titre de séjour, c’est parce qu’ils sont menacés d’une expulsionnote. Face à ces menaces, les militants qui se constituent en réseau assurent la défense juridique des personnes concernées mais s’efforcent aussi de dénoncer publiquement le décalage entre les dispositifs administratifs et policiers, qui supposent une dangerosité de la présence de sans-papiers sur le territoire national, et la réalité de vies ne différant pas fondamentalement de celles de nombreux Français, animées par le souci d’assurer son avenir par l’obtention d’un diplôme ou l’éducation de ses enfants, d’obtenir un revenu par le travail et de payer ses impôts. En choisissant comme mot d’ordre « On bosse ici ! On vit ici ! On reste ici ! », les travailleurs sans papiers mobilisés depuis 2008 entendent également témoigner de cette insertionnote. Si les militants du RESF défendent avec acharnement chaque régularisation, il ne s’agit pas pour autant de faire du « cas par cas » : chaque mobilisation autour d’un jeune ou d’une famille participe de la dénonciation de l’inhumanité engendrée par les choix politiques opérés à un niveau gouvernementalnote.

Si les expulsions ou les menaces d’expulsion justifient la création de nouveaux collectifs militants au milieu des années 2000, c’est que celles-ci se multiplient alors sous l’effet d’un nouveau management administratif fondé sur la fixation d’objectifs chiffrés à atteindre en matière de reconduites à la frontière d’étrangers en situation irrégulièrenote. C’est sous cette pression que des personnes sans papiers épargnées jusque-là se retrouvent directement menacées. Ces nouvelles pratiques s’accompagnent, de plus, du déploiement spectaculaire de moyens, en particulier policiers, mis en place pour cette « chasse aux sans-papiers ». Pour accroître le chiffre des reconduites, le ministère de l’Intérieur recourt à des contrôles d’identité dans un lieu déterminé et pour une période de temps déterminée (sur réquisition du parquet), les lieux choisis étant bien sûr des espaces fréquentés par des étrangersnote. Ces pratiques sont assimilées à de véritables « rafles » par de nombreux militants et la « politique du chiffre » devient un objet de dénonciation.

Face à ce déploiement inédit et très visible de moyens, une question revient fréquemment dans les conversations militantes : « Mais au fait, combien ça coûte tout ça ? » La transformation de cette interrogation oratoire en une enquête plus systématique est finalement intervenue à la suite d’une expulsion particulièrement choquantenote et d’une demande de la revue Mouvements note. Parmi les raisons qui ont motivé le calcul du coût global des reconduites à la frontière, l’une reposait sur le constat suivant : alors que l’argument du coût est fréquemment mobilisé par les pouvoirs publics pour justifier le caractère répressif des politiques migratoiresnote, le coût de ces politiques n’est, lui, jamais évoquénote. De même, si de nombreux arguments sont publiquement déployés pour dénoncer le caractère répressif de ces politiques, l’argument financier est en revanche rarement mobilisé. De cette lacune est née l’idée directrice de ce qui deviendra un premier texte en 2007note. Puisque la volonté de faire du « chiffre » est au principe des politiques menées depuis 2003, il faut se pencher sur l’autre chiffre que masque cette politique, à savoir son coût financier pour la collectivité. « Œil pour œil, nombre pour nombre ! »

Méthode et enseignements d’une enquête

Première surprise décelée par l’enquête : l’absence de production par le ministère de l’Intérieur de toute donnée sur le coût des expulsions, alors même qu’une « culture du résultat » est fortement mise en avant pour les justifier. La genèse de la politique de reconduite systématique à la frontière des étrangers en situation irrégulière est très instructive de ce point de vue.

On trouve en effet à l’origine de cette politique une initiative de Nicolas Sarkozy, alors ministre de l’Intérieur, qui demande, dans une circulaire en date du 22 octobre 2003 destinée aux préfets, de doubler à court terme les expulsions d’immigrants en situation irrégulière. Or la raison de cette instruction est précisée dans le texte : « L’exécution effective des décisions d’éloignement est la condition de crédibilité de toute politique publique de maîtrise de l’immigrationnote. » L’argument sera précisé, toujours par N. Sarkozy, à l’occasion de la présentation du budget 2007 du ministère de l’Intérieur aux préfets : « Je vous rappelle que les budgets de la LOLF ne fixent pas que des moyens, ils donnent des objectifs de performance. Dans le domaine de la sécurité, ce ministère a la chance d’avoir des objectifs particulièrement pertinents et compréhensibles par les citoyens. Je souhaite donc que mon successeur puisse annoncer qu’ils seront tenus. 28 000 reconduites exécutées, un taux d’élucidation de 33,5 %, une baisse de 1 à 2 % de la criminalité en zone police et de 2 à 5 % du nombre de tués sur la route. Cela parle à tous les Françaisnote. » Le nouveau dispositif est assorti de fortes pressions sur les préfectures, auxquelles le ministère assigne un nombre annuel d’expulsions à réaliser. Ces dispositions semblent porter rapidement leurs effets, comme en témoignent les chiffres annoncés à la fin de chaque année civile : plus de 15 000 expulsions sont réalisées en 2004, près de 20 000 en 2005, 24 000 en 2006, 28 000 expulsions en 2007, etc.note.

Or la mise en place de ces « objectifs de performance » s’exempte de tout calcul d’efficience du type résultats/coûts.

Dominique de Villepin, alors Premier ministre, évoque certes en 2005 un « effort considérable » réclamé par les reconduites massives et va jusqu’à estimer leur coût à 67 millions d’eurosnote, mais il s’agit d’insister sur l’« effort » et le détail du calcul n’est pas précisé. Plus significatif encore, la Cour des comptes elle-même, malgré les moyens humains et matériels dont elle dispose, avoue en 2006 avoir dû renoncer à une évaluation du « coût global » de la lutte contre les séjours irréguliersnote. L’impossibilité d’une évaluation complète, qui lui semble pourtant nécessaire au regard du caractère prioritaire donné par le ministère de l’Intérieur à cette lutte, est attribuée à la mauvaise volonté de l’administration à communiquer les chiffres nécessaires au calcul.

Si la Cour des comptes baisse les bras, fallait-il pour autant renoncer au calcul ? Nous avons tenté de prouver le contraire en reconstituant les coûts associés à chaque maillon de la chaîne administrative et policière rendant possible l’expulsion de 20 000 à 30 000 étrangers par an. Cette chaîne, reconstruite à partir du parcours type d’une personne effectivement expulsée, comporte en particulier les éléments suivants, dont on peut pour chacun procéder à une estimation du coût :

– les moyens policiers nécessaires à l’arrestation de sans-papiers ;

– les centres de rétention (fonctionnement et construction) ;

– les frais liés aux contentieux administratifs générés par les reconduites ;

– les frais liés aux expulsions effectives (billets d’avion notamment).

Enfermer

Une partie importante du budget officiellement consacré à l’immigration irrégulière est dédiée à l’entretien des centres de rétention administrative (CRA). Créés en 1984, les CRA ont pour but de retenir les étrangers en situation irrégulière avant leur éloignement du territoire national. Aussi constituent-ils une pièce essentielle du dispositif d’expulsion.

Or ces centres reçoivent un nombre croissant d’étrangers, tant en raison de l’augmentation du nombre de personnes interpellées que de l’allongement de la durée moyenne de rétention (de cinq jours en moyenne au début des années 2000 à dix aujourd’hui). Pour faire face à cet afflux, la capacité des CRA a été fortement accrue, passant ainsi de 1 012 places en 2005 à plus de 2 300 places en 2010. Pour atteindre cette capacité, de nouveaux centres sont construits tandis que les CRA existants sont agrandis. Il aura fallu dépenser 100 millions d’euros environ sur cette seule période 2005-2010 pour réaliser ces extensions, soit un coût annuel moyen de 20 millions d’euros. Le projet de loi de finances pour 2009 estime, par exemple, le coût moyen d’une rétention à 650 euros. Sachant que plus de 35 000 personnes sont passées en France par un CRA cette même annéenote, les seuls frais de fonctionnement des centres de rétention représentent ainsi 23 millions d’euros. Il faut ajouter à ces sommes les dépenses liées à la surveillance des CRA, soit les salaires du personnel policier ou de gendarmerie qui leur est affecté. Si l’on estime ce personnel à 2 000 personnes en moyennenote et sachant que le salaire moyen d’un fonctionnaire de police est de 36 000 euros annuels, il faut encore ajouter plus de 70 millions d’euros au budget des CRA. Soit un total qui approche déjà les 120 millions d’euros annuels.

Arrêter

Le budget de la police consacrée explicitement à l’immigration clandestine ou au fonctionnement des centres de rétention est difficile à reconstituer, mais peut donner lieu à des estimations en s’appuyant sur les dépenses « budgétées » dans les comptes de la LOLFnote. Ceux-ci masquent néanmoins tout un ensemble de moyens déployés pour atteindre les chiffres annuels d’éloignement qui ne font, eux, l’objet d’aucune évaluation. Avant d’être placés en CRA, les étrangers irréguliers doivent être interpellés.

Assurer plus de 20 000 expulsions suppose une importante mobilisation des forces de police et de gendarmerie. Les interpellations réalisées par ces forces supposent un déploiement considérable de moyens dont le coût n’apparaît cette fois dans aucune des lignes budgétaires de la lutte contre l’immigration clandestine. Un officier de police judiciaire (OPJ) dans un commissariat du nord de Paris, habitué à ce genre d’opérations et ayant accepté de répondre à nos questionsnote, explique ainsi : « Les critères de “réussite” des opérations, dont dépend la carrière de nos chefs, sont le nombre de gardes à vue, puis le nombre de placements en rétention. À moins de dix sans-papiers interpellés, l’opération est un échec. Pour parvenir à ces chiffres, il faut au moins dix fonctionnaires procédant aux interpellations sur la voie publique, sur une durée de deux heures en moyenne. Chaque garde à vue mobilise ensuite deux à trois fonctionnaires. Le nombre augmente pour peu qu’il y ait une mobilisation autour d’une personne arrêtée, s’il s’agit d’un parent d’enfant scolarisé par exemple. Au coût horaire des fonctionnaires, ça commence à chiffrer vite. Il faut ajouter ensuite, pour chaque interpellé, la venue d’un traducteur et le coût de la visite médicale, souvent demandée, et qui se situe autour de 50 euros. Il faut enfin ajouter les frais de transfert vers le centre de rétention ». Si l’on estime qu’une dizaine de policiers sont mobilisés pour une opération de contrôle et arrêtent en moyenne une dizaine de personnes sur une demi-journée, ces opérations étant rapportées au nombre moyen d’interpellations réalisées tous les ans, on peut estimer qu’à ces interpellations correspond un coût en personnel supérieur à dix millions d’euros par an.

De telles opérations sont plus difficilement envisageables en province ou dans des villes de taille moyenne, où les sans-papiers sont moins concentrés que dans certains quartiers parisiens. Les arrestations de sans-papiers posent alors d’autres problèmes à l’origine d’autant de coûts supplémentaires.

Escorter et expulser

De nombreux pays refusent d’accueillir leurs nationaux renvoyés de France sans preuve officielle de leur nationalité, preuve indispensable pour l’obtention du laissez-passer nécessaire à l’expulsion. En l’absence de passeport ou de pièces d’identité officielles, l’administration doit dès lors présenter l’étranger arrêté à son consulat, lequel consulat n’existe parfois qu’à Paris ou dans certaines métropoles régionales. Il est ainsi très courant qu’à l’interpellation et à la garde à vue succède un coûteux aller-retour du sans-papiers vers Paris, Toulouse ou Marseille, toujours sous escorte policière, et sans aucune garantie sur le succès de la démarche.

Par conséquent, en vue de « rationaliser » les expulsions, les opérations d’interpellations menées à Paris se focalisent volontiers sur certains ressortissants dont on sait que le pays d’origine délivrera sans difficulté le laissez-passer nécessaire à l’éloignement. C’est ainsi que les populations chinoises concentrent l’essentiel des interpellations réalisées dans certains arrondissements de la capitale. Certaines opérations ont pu ainsi être « cassées » devant les tribunaux parce que les équipes policières arrivaient sur les lieux de la rafle accompagnées d’un traducteur chinois, démontrant ainsi le ciblage a priori d’une population étrangère précise, contraire à la loi. De manière générale, les efforts de l’administration pour réaliser des économies d’échelle en matière d’éloignement aboutissent logiquement à de nombreux vices de procédure, au point qu’une proportion importante des personnes placées en rétention administrative sont remises en liberté à la suite d’une décision du juge des libertés et de la détention. Il faut donc ajouter au budget des expulsions l’ensemble des « surcoûts » supportés par la justice en raison de l’énorme contentieux engendré par les procédures d’expulsionnote.

Pour chaque personne effectivement expulsée sera enfin dépensé le coût d’un billet d’avion, en moyenne 2 000 euros, chacun des deux accompagnants coûtant la même somme, soit un prix en frais de transport de 6 000 euros en moyenne par expulsion (180 millions d’euros au total sur une année où 30 000 personnes sont expulsées).

Un calcul a minima permet ainsi d’estimer à plus de 700 millions d’euros le coût annuel moyen des expulsions réalisées en France depuis 2007, soit un coût moyen de l’expulsion supérieur à 26 000 euros. Les moyens consacrés aux expulsions correspondent, autrement dit, à l’équivalent annuel de 20 000 emplois de fonctionnaires.

Les effets d’une enquête

Les chiffres ainsi obtenus depuis 2007 ne sont pas restés sans effet. D’une part, l’enquête a connu un certain succès d’audience, mesuré autant par les consultations de l’article qui en restitue les résultats sur le site de la revue Mouvements, que par le nombre de reprises dans la presse ou de conférences tenues par son auteur dans des enceintes militantes et universitaires. Elle a ensuite fait l’objet d’actualisations et a donné lieu à d’autres publicationsnote, plus académiques, lesquelles ont contribué à légitimer la question du coût des expulsions, parfois étendue à d’autres aspects non encore pris en comptenote. La légitimité de ce questionnement s’est vue de plus confirmée par les calculs entrepris parallèlement, ou peu après, par d’autres chercheursnote ou publiquement évoqués par des collectifs militantsnote.

Alors même que la question du coût reste globalement ignorée lorsque nous publions nos calculs, un chiffrage gouvernemental est pour la première fois proposé à l’occasion de la publication du projet de loi de finance pour 2009. Or le chiffre initial de 2 186 euros par personne reconduite est réévalué à hauteur de 20 970 euros par la commission des finances du Sénat, se rapprochant ainsi de nos propres calculsnote. Cet intérêt nouveau des pouvoirs publics pour le coût des expulsions correspond à un contexte où les politiques migratoires font l’objet d’une institutionnalisation d’un genre nouveau avec la création d’un ministère de l’Immigration doté d’un budget propre appelant dès lors discussion parlementairenote. De sorte que les principales critiques qui lui sont encore adressées sont des demandes de rationalisation des coûts (par le recours, par exemple, à des procédures de passation de marchés publics)note. Ces chiffrages contribuent néanmoins à faire en sorte que la question du coût global des expulsions, initialement dissimulée, ne puisse être ignorée aujourd’hui.

Au final, du double point de vue d’une estimation réaliste des chiffres et de la mise en place d’un débat, les objectifs attendus de l’enquête ont donc été atteints. Il est évidemment plus difficile d’évaluer les prises de conscience que ces chiffres ont pu susciter. Nous espérons avoir mis en évidence ici que l’entrée dans un calcul relativement détaillé, même s’il est estimatif, du coût des expulsions de sans-papiers pouvait jouer comme un révélateur. L’opération même de sommation des postes budgétaires, qui ont bien leur contrepartie dans la réalité du fonctionnement de l’État en matière migratoire, fonctionne comme une mise au jour des dispositifs concrets par lesquels se construit et s’institutionnalise une politique d’État qui nous semble xénophobe. Introduire la dimension économique de la répression de l’immigration montre que caractériser celle-ci par son caractère industriel n’a rien d’une métaphore.

Si un collectif comme RESF insiste pour affirmer que « les chiffres ont un visagenote », argumenter sur la base de chiffres gestionnaires ne participe pas pour autant d’une déshumanisation : tout au contraire, la mise en rapport des moyens déployés pour maximiser les reconduites à la frontière et des drames vécus par ceux qui en sont les victimes – renvois vers des pays où les personnes sont parfois en danger, familles disloquées, enfants séparés de l’un de leurs parents, stigmatisation et culpabilisation des étrangers résidant en France, etc. – contribue à mettre en lumière le caractère inhumain d’une logique du chiffre poussée jusqu’à l’absurde.

Number of Visitors [Nombre de visiteurs], Superflex en collaboration  avec Jens Haaning, musée Tamayo, Mexico, 2012. © Diego Berruecos.

Number of Visitors [Nombre de visiteurs], Superflex en collaboration avec Jens Haaning, musée Tamayo, Mexico, 2012. © Diego Berruecos.

Nombre de visiteurs

Superflex

Superflex est un collectif d’artistes de Copenhague formé en 1993 par Bjornstjerne Reuter Christiansen, Jakob Fenger et Rasmus Nielsen.

Superflex est un groupe ouvert dont les projets artistiques tentent d’agir sur les relations de pouvoir économiques et politiques. Ils interviennent directement dans des situations réelles au moyen de mesures concrètes qu’ils nomment des « outils ». Ce terme désigne aussi bien des recettes « contre-économiques » que des machines élaborées avec des experts de différentes disciplines susceptibles d’être modifiées par les usagers. Ils ont par exemple expérimenté des méthodes de production d’énergie alternatives et autogérées qui critiquent et détournent les structures économiques existantes (pour exemple, le dispositif Supergas permet la production de gaz à partir de bouse de vache).

Le projet Nombre de visiteurs est un compteur connecté à la billetterie du musée ou du centre d’art qui accueille le projet. Ce compteur est installé bien en vue sur la façade de l’institution artistique et présente, en temps réel et à tous les passants, le nombre de visiteurs ayant fréquenté le lieu en question depuis le début de l’exposition. Le financement des institutions artistiques dépend en grande partie du nombre de visiteurs ; en rendant public l’indicateur et en le donnant à voir sur l’institution elle-même, Superflex élève au carré l’absurdité intrinsèque de ce critère d’évaluation. L’effet de loupe révèle à tout un chacun ce sur quoi reposent les choix des financements publics et comment la dimension qualitative attendue de l’expérience culturelle est ramenée à une unique problématique comptable.

 [Nombre de visiteurs], Superflex en collaboration avec Jens Haaning, Frankfurter Kunstverein, Allemagne, 2005. © Superflex.

Number of Visitors [Nombre de visiteurs], Superflex en collaboration avec Jens Haaning, Frankfurter Kunstverein, Allemagne, 2005. © Superflex.

Le bip 40 : alerte sur la pauvreté !

Pierre Concialdi

Le Baromètre des inégalités et de la pauvreté (BIP 40) a été élaboré par un collectif militant au début des années 2000. Cette contribution retrace les principales étapes qui ont jalonné la construction de cet indicateur, les débats qu’il a suscités et propose en conclusion quelques éléments de réflexion nourris par cette expérience.

Les origines du bip 40

Le BIP 40 a été élaboré par le Réseau d’alerte sur les inégalités (RAI). Ce réseau a vu le jour en 1994 à la suite du mouvement d’occupation de la rue du Dragonnote. À cette époque, la « fracture sociale » était au cœur des débats et l’opinion publique s’en inquiétait. L’occupation de la rue du Dragon par des sans-logis a cristallisé ces préoccupations et a contraint les candidats à l’élection présidentielle à s’engager malgré eux sur ce terrain. Elle est ainsi devenue le lieu de rencontre de militants associatifs, de chercheurs de différentes institutions et de syndicalistes. À l’initiative d’une sociologue, Catherine Lévy, un premier réseau d’alerte (le RAS, Réseau d’alerte sociale) s’y constitue dès 1995, avec pour but de dénoncer les décisions de politiques publiques qui concourent à l’aggravation de l’exclusion. En particulier, il produit quelques textes d’analyse sur la loi dite de cohésion sociale promise par Chirac aux associations caritatives, sur le RMI, sur le contrôle social, etc. Pendant le grand mouvement de grève de la fin 1995 et avec le mouvement des « sans » (sans papiers, sans logis, sans travail, etc.), le réseau organise de nombreux débats sur les revenus, l’emploi, la protection sociale. L’année 1996 sera marquée par l’occupation de l’église Saint-Bernard, la manifestation contre la loi Debré et l’émergence au premier plan des immigrés sans papiers. L’année suivante, alors que l’augmentation du produit intérieur brut (PIB), c’est-à-dire de la richesse nationale, est annoncée quotidiennement et de manière répétée dans les médias, une série d’actions « coup de poing » et d’occupations (Banque de France, château de Versailles, immeuble de la Caisse des dépôts…) est organisée pour demander une meilleure redistribution des richesses.

En 1997, avec l’arrivée au pouvoir du nouveau gouvernement de la « gauche plurielle », le RAS s’élargit et est rebaptisé RAI. Il demande que le Centre d’études des revenus et des coûts (CERC), dissous par Balladur, soit rétabli, comme l’avait promis le candidat Jospin. Placé sous l’autorité d’un conseil indépendant, le CERC avait notamment pour mission d’élaborer un rapport périodique sur l’évolution des inégalités de revenusnote. Le RAI travaille aussi à des contre-propositions sur la loi de la prévention des exclusions, les déséquilibres de la loi de finances, le surendettement, l’épargne salariale, la couverture maladie universelle (CMU), la fiscalité, et produit un certain nombre de textes d’analyse critiques, diffusés dans les syndicats et les associations ou encore auprès des élus.

C’est dans ce contexte qu’arrive la proposition de Denis Robert, journaliste qui devait, quelques années plus tard, se faire davantage connaître du grand public après la publication de son livre sur la multinationale de la finance Clearstream. Denis Robert propose d’élaborer un indicateur régulier de la pauvreté et des inégalités, qui pourrait s’inscrire en contrepoint du CAC 40, symbole de la spéculation financière et des licenciements massifs dans certaines grosses firmes. Le RAI s’en saisit. En effet, si l’on en croit le discours dominant de l’époque, la baisse du nombre de chômeurs, du nombre de Rmistes, dans un contexte de croissance économique et de sondages faisant état d’un optimisme retrouvé dans les ménages, les problèmes de l’exclusion sociale seraient derrière nous ou, tout du moins, en voie de résorption. La statistique publique va dans le même sens : les chiffres sur la pauvreté n’augmentent pas et baissent même légèrement. Pourtant, une série d’indices pointe en sens inverse. Des associations de terrain font ainsi état de difficultés croissantes (hausse du nombre d’expulsions, du nombre de détenus, etc.) et des enquêtes montrent la nette augmentation du nombre de salariés précaires ou à bas salaire (bas salaires, temps partiel contraint, emplois précaires, intérim).

D’où l’idée de constituer un baromètre composé de 40 indicateurs, en référence au CAC 40 de la Bourse des valeurs en France, qui parade désormais dans tous les médias d’information et apparaît en continu sur certaines chaînes de télévision. L’ambition du BIP 40 est de révéler, en quelque sorte, la face cachée de l’envolée des cours boursiers en vérifiant si la hausse du CAC 40 se traduit – ou non – par une augmentation des inégalités et de la pauvreté. Il a été forgé pour remplir une fonction d’alerte permanente de l’opinion sur la persistance de la pauvreté, des exclusions et des inégalités dans notre pays. Aussi a-t-il vocation à être diffusé par les médias.

Cet exercice d’élaboration se heurte assez vite à trois difficultés :

– traduire en un chiffre unique une réalité multiple (multidimensionnelle) ;

– trouver des variables qui permettent d’animer de façon aussi réactive que possible le BIP 40. L’ambition de départ est de produire un baromètre au moins mensuel et même, si possible, des indicateurs d’alerte à périodicité plus réduite ;

– disposer des ressources financières suffisantes pour mener à bien ce travail récurrent.

Dans le projet initial, l’idée est de réunir des indicateurs qui porteront sur tous les sujets révélateurs ou facteurs de pauvreté : revenus, emploi, fiscalité, santé, éducation, logement, handicap, patrimoine, loisirs, justice, politiques publiques, discriminations, transports, etc.

Un premier recensement des indicateurs disponibles permet de distinguer trois catégories :

– les « indicateurs d’actualité » : au nombre de six environ, ils prennent en compte les événements politiques et sociaux du mois écoulé comme, par exemple, le comportement de la presse face à la pauvreté, la Loi de finances et la lutte contre les exclusions, les mobilisations sociales, etc. Ces indicateurs ne permettent pas de construire un baromètre mais peuvent être des clignotants utiles entre deux actualisations mensuelles du BIP 40. Le RAI avait commencé à travailler au recensement de ces « indicateurs » dans l’idée de nourrir, à travers les réseaux de Denis Robert, une actualité télévisée, mais cette idée a assez vite été abandonnée ;

– les « indicateurs statistiques mensuels » : limités à une petite dizaine, compte tenu du déficit d’indicateurs conjoncturels dans ce domaine, ils délivrent des données sur l’emploi, les minima sociaux, la santé, les incarcérations, etc. ;

– les « indicateurs trimestriels, semestriels et annuels » : au nombre de 25 environ, ces données devraient compléter les aspects de l’exclusion non traités dans les indicateurs mensuels.

Parallèlement, une méthodologie se dessine, qui s’inspire de la démarche suivie par Marc et Marque-Luisa Miringoff pour élaborer un indice de santé sociale aux États-Unis et au Canadanote.

Faute de moyens, le projet reste à l’état d’ébauche et l’objectif de publier un premier BIP 40 en 2000 n’est pas atteint. Il faudra attendre 2001 et la sollicitation des journalistes d’Alternatives économiques pour donner au BIP 40 une première impulsion.

L’impulsion initiale : la première publication du bip 40 en 2002

À l’automne 2001, des journalistes d’Alternatives économiques, dont certains participent épisodiquement aux réunions du RAI, proposent aux membres du réseau une collaboration en vue de publier au printemps 2002 un dossier autour du BIP 40. Le journal propose notamment de recruter pendant plusieurs mois une personne qui prendra en charge la construction concrète de l’indicateur, avec l’appui des membres du RAI spécialistes des diverses questions prises en compte dans le baromètre (emploi, revenus, santé, éducation, etc.). L’occasion se présente alors de formaliser la méthode de construction du BIP 40, lequel doit se contenter, compte tenu des limites de l’information statistique, d’être un baromètre annuel. Trois principes méthodologiques sont notamment dégagés.

Dans un premier temps, on a procédé à un repérage aussi large que possible des séries statistiques pertinentes. Les indicateurs retenus doivent satisfaire une double exigence : pouvoir faire l’objet d’un suivi régulier (sans changement méthodologique « intempestif ») et être disponibles rétrospectivement sur une période relativement longue afin d’élaborer un baromètre permettant de repérer les tendances de moyen terme significatives. Ces exigences sont très bien satisfaites, par exemple, par les indicateurs de chômage qui, malgré des révisions périodiques, peuvent être suivis dans la continuité. Ce n’est pas le cas, en revanche, pour de nombreux indicateurs concernant les inégalités de santé. Celles-ci font souvent l’objet d’études ponctuelles sur des thèmes précis et très intéressants, mais ces études sont rarement actualisées par la suite ou avec une périodicité trop incertaine pour figurer de façon stable dans le BIP40. En fonction de ce repérage, il a fallu ensuite sélectionner les principales dimensions qui seront prises en compte par le BIP 40. Le baromètre portera finalement sur six dimensions principales des inégalités et de la pauvreté : emploi/travail, salaires/revenus, éducation, santé, logement, justice. Il s’agit là d’un choix raisonné largement contraint par les disponibilités de l’information statistique. Certains domaines envisagés initialement (participation à la vie politique, mobilité, etc.) n’ont pas été retenus faute d’indicateurs.

Enfin, il a fallu définir les pondérations accordées à chaque indicateur, c’est-à-dire l’importance relative que l’on attribue à chaque dimension. Ce choix s’est fait, là encore, sur une base raisonnée prenant en compte à la fois le point de vue subjectif assumé du collectif sur l’importance de chaque dimension du baromètre, mais aussi la solidité de l’information statistique permettant de nourrir chacune des dimensions. Compte tenu de ce double objectif, il a été décidé de retenir un système simple de pondération accordant le même poids à deux dimensions « majeures » (emploi/travail, salaires/revenus), ainsi qu’aux quatre autres dimensions (éducation, santé, logement, justice). Concrètement, cela signifie que les deux dimensions emploi/travail et salaires/revenus pèsent chacune pour 25 % (soit, au total, la moitié du baromètre) et les quatre autres dimensions (santé, éducation, logement, justice) pour 12,5 % chacune, soit également la moitié du baromètre.

Le BIP 40 est un indicateur d’alerte. Il a été conçu avant tout comme un point de départ pour remettre dans le débat public la question des inégalités et les rendre à nouveau visibles, plutôt qu’un point d’aboutissement. C’est, en quelque sorte, une « vitrine ». Mais, pour comprendre les évolutions du BIP 40, il est nécessaire de regarder plus en détail les multiples indicateurs qui le composent. Avec ce baromètre, le RAI ne prétend pas fournir la « vérité » sur cette question, mais propose une grille de lecture de la réalité sociale qui permet d’aborder de multiples problèmes. La question des inégalités ne saurait se résumer à un chiffre fétiche. Elle couvre de multiples dimensions dont le BIP 40 essaie, avec ses limites, de rendre compte. Cette démarche est finalement assez voisine de celle du Programme des Nations unies pour le développement (PNUD) qui, avec son indicateur phare sur le développement humain (l’IDH, Indice de développement humain, ainsi que les indicateurs dérivés), propose chaque année une somme d’informations et d’indicateurs sur cette questionnote.

Compte tenu des multiples choix méthodologiques nécessaires pour élaborer un tel indicateur, et de notre souhait de partager l’expertise avec le plus grand nombre, il était absolument indispensable de rendre le processus d’élaboration du BIP 40 aussi transparent que possible. C’est la raison pour laquelle le RAI a produit une série de fiches méthodologiques explicitant le contenu de chaque indicateur, les raisons qui avaient motivé son choix et une brève analyse de son évolution. Tout cela a été rendu accessible à travers un site Internetnote. On y a même ajouté un petit simulateur qui permet de calculer quelle serait l’évolution du BIP 40 en fonction de différents choix de pondération. Il ne s’agit pas, avec cet outil de simulation, de suggérer que chacun peut construire son propre baromètre, mais de permettre aux utilisateurs de s’approprier l’outil en évaluant sa sensibilité à divers choix de pondération. Dans les premières années de la publication du BIP 40, le site a aussi proposé des notes d’analyse sur divers sujets, l’objectif étant toujours, à partir d’une approche synthétique des inégalités proposée par le baromètre, de fournir des éléments de réflexion et d’analyse sur les inégalités et, aussi, de mettre en débat des pistes d’action pour les réduire.

Résultats et principaux débats autour et à partir du bip 40

Au niveau de l’indicateur agrégé, les résultats montrent que les inégalités et la pauvreté ont gagné du terrain depuis une trentaine d’années, même si ce mouvement n’a pas été continu. On observe ainsi quelques périodes de repli ou de diminution de l’indicateur (1989-1993 et 1997-2000). L’autre résultat significatif est que la plupart des dimensions prises en compte dans le baromètre ont contribué à cette croissance des inégalités, à l’exception de l’éducation où les inégalités ont eu tendance à baisser, du moins jusqu’à la fin des années 1990. Enfin, l’analyse plus détaillée des indicateurs élémentaires qui composent le BIP 40 signale aussi la montée de la précarité et de l’insécurité au travail. Ces résultats sont assez différents de ceux que délivrent les indicateurs statistiques usuels produits par le système statistique sur les questions d’inégalité et de pauvreté. Il fallait donc, assez logiquement, s’attendre à quelques réactions de la part du système statistique public.

Après une première période où le BIP 40 a d’abord été ignoré par les représentants de la statistique publique, le baromètre a fait l’objet de critiques portant sur le caractère conventionnel de ce type d’indicateur. Cette critique apparaît assez paradoxale quand on sait que tous les indicateurs d’inégalité comportent des conventions implicites et traduisent un certain point de vue de l’observateur. Certains économistes comme Anthony Atkinson et Serge-Christophe Kolm ont ainsi proposé dans les années 1970 des indicateurs d’inégalité qui ne sont utilisables que si l’observateur définit explicitement son degré d’aversion pour les inégalités, ce qui permet de rendre explicite le jugement de valeur qui sous-tend inévitablement toute mesure des inégalités. Le paradoxe tient au fait que le BIP 40 affiche une méthodologie totalement transparente et met donc en évidence les différentes conventions réunies pour sa construction, ce qui donne autant de motifs de critique à ses détracteurs.

Cette critique portée par le système statistique public n’a pas empêché la publication d’un article sur la « qualité de l’emploi » dans la revue phare de l’Institut national de la statistique et des études économiques (Insee) Économie et Statistique note. Pourtant, la méthode de construction de ces indicateurs de « qualité de l’emploi » est analogue à celle développée pour l’élaboration du BIP 40 et, dans l’article en question, les hypothèses retenues sont plus opaques et, souvent, plus critiquables que celles utilisées par le RAI pour la confection du BIP 40. Ce décalage entre, d’un côté, la tentative de disqualification du BIP 40 et, de l’autre, la promotion d’indicateurs de « qualité de l’emploi » s’inspirant de la même méthode conduit assez naturellement à s’interroger sur les priorités des décideurs de la statistique publique. À cet égard, il faut bien constater que la question des inégalités était – et reste peut-être encore – reléguée au second plan, tandis que celle de la « qualité de l’emploi » – thématique promue par l’Union européenne – recevait bien plus d’attention de la part du système statistique public.

Une autre critique a porté sur le caractère agrégé de l’indicateur. La pertinence d’un indice unique agrégeant une batterie d’indicateurs a été contestée. Ce débat est assez récurrent pour ce type d’indicateurs et ne concerne pas que le BIP 40. Cette critique pourrait d’ailleurs tout aussi bien s’appliquer aux indicateurs de « qualité de l’emploi » mentionnés précédemment. Elle manque ici sa cible car elle ne prend toutefois pas en considération le fait que la totale transparence dans les pondérations utilisées pour cette agrégation fournit des éléments soumis au débat et à la critique publique, ce qui est précisément un des intérêts de ce genre d’indicateurs.

De son côté, le RAI a lui-même ouvert en 2004 une controverse avec l’Inseenote. En effet, la courbe du taux de pauvreté publiée par l’Insee affichait étrangement une baisse de la pauvreté relative sur les vingt dernières années, à l’opposé des perceptions de tous les observateurs de la société française. Le RAI relevait que ce taux de pauvreté était manifestement de plus en plus sous-estimé, notamment parce que la mesure des revenus effectuée par l’Insee ne prenait que très marginalement en compte les revenus du capital, sous-estimant de ce fait la mesure des inégalités et de la pauvreté.

La réponse des directeurs de l’Insee et de l’Observatoire de la pauvreténote n’a pas permis de clore le débat, qui s’est poursuivi notamment avec l’intervention de responsables confédéraux de la CGTnote. La revue de l’Insee Économie et Statistique a alors publié un article qui portait un jugement critique sur le BIP 40note, ce qui a donné lieu à une réponse du RAInote.

La controverse a débouché sur la création, fin 2005, par le Conseil national de l’information statistique (CNISnote) d’un groupe de travail « Niveau de vie et inégalités sociales », présidé par l’économiste Jacques Freyssinet, spécialiste reconnu des questions d’emploi et de travail. Ce groupe, auquel des membres du RAI ont activement participé, a travaillé tout au long de l’année 2006. Cette expérience est relatée de façon détaillée dans la contribution de Bernard Sujobert (ci-après).

Éléments de bilan

Le premier constat que l’on peut dresser de cette expérience est qu’elle n’a pas obtenu l’écho que ses promoteurs espéraient. La première publication en 2002 du BIP 40 dans Alternatives économiques a donné au baromètre une visibilité certaine et les résultats ont été bien relayés dans la presse. En revanche, les actualisations successives réalisées jusqu’en 2005 ont quasiment été passées sous silence par les grands médias. Dans le cadre du collectif « Les autres chiffres du chômagenote » (ACDC), une actualisation a été publiée au printemps 2007. Les résultats ont bénéficié de la notoriété acquise à l’époque par le collectif ACDC dans la controverse qu’il avait ouverte sur les chiffres du chômage, mais il y eut, en définitive, peu de reprises du BIP 40. Depuis cette date, ce baromètre n’a plus été actualisé. Cette absence de publication régulière a évidemment nui à sa visibilité. Deux facteurs expliquent cette situation.

Le premier est la faiblesse des ressources militantes. La plupart des membres du RAI se sont aujourd’hui investis ou réinvestis dans d’autres formes d’action militante, ce qui limite singulièrement la capacité du réseau. Cela pose la question plus générale des formes d’action militante et de leur renouvellement. Il y aurait ici un champ d’analyse sociologique intéressant pour décrire et analyser les « déplacements » des acteurs militants d’une forme d’engagement à une autre, et tenter de décrypter les raisons de ces mouvements. Le relatif foisonnement des initiatives associatives (ou dans le cadre de collectifs) à partir des années 1990 semble se traduire par une fluidité beaucoup plus grande des militants d’un réseau à un autre, de « nouvellesnote » formes d’engagement se substituant apparemment à d’autres au fil des années. Il serait intéressant de disposer d’éléments permettant de mieux comprendre ce phénomène.

Le second facteur tient à une question de méthode que ce type d’indicateur doit régulièrement résoudre. Les indicateurs publiés par la statistique publique ne sont pas « éternels ». Certains disparaissent tandis que d’autres sont construits. Les méthodologies et les champs peuvent aussi changer. Si bien qu’il est nécessaire de procéder périodiquement à une révision méthodologique d’ensemble pour continuer à produire ce baromètre et assurer son suivi statistique. Il s’agit là d’un travail lourd qui n’a pu être mené à bien jusqu’à présent.

Il y a aussi une face très positive à cette expérience. Elle se traduit par une forme d’essaimage moins visible, plus souterrain, mais qui correspond peut-être davantage à la philosophie du projet. C’est ainsi qu’un certain nombre d’acteursnote ont repris le BIP 40 – du moins quand il était régulièrement publié… – dans leurs rapports ou leurs tracts. Initiative encore plus positive, à notre sens : certains conseils régionaux ont engagé des travaux visant à construire des BIP 40 régionaux ou régionalisés. Ce fut d’abord le cas dans la région Nord-Pas-de-Calais, puis aujourd’hui dans la région Picardie. L’expérience du Nord-Pas-de-Calais, la plus ancienne et la plus aboutie, montre que l’intérêt de la démarche n’est pas tant de produire un baromètre que d’engager un processus suscitant des débats à plusieurs niveaux. On peut en identifier trois. Premièrement, la construction d’un BIP 40 est révélatrice de l’état de la statistique publique. À cet égard, ce qui ne figure pas dans le baromètre est au moins aussi important que ce qui y figure. Cela fournit une matière propice à la discussion pour faire évoluer le système statistique. Deuxièmement, la déclinaison régionale du BIP 40 est aussi l’occasion d’enrichir la méthodologie initiale. Le BIP 40 de la région Nord-Pas-de-Calais a ainsi été construit selon trois méthodes différentes. Enfin, et peut-être surtout, les travaux engagés par cette région ont aussi fourni un support particulièrement utile pour nourrir des démarches participatives où un ensemble d’acteurs (producteurs de statistiques, décideurs ou élus locaux, responsables associatifs) ont été amenés à réfléchir ensemble, à partir d’une discussion sur les indicateurs, sur le contenu de l’information nécessaire pour mieux conduire l’action publique et en évaluer les effets. Ce qui montre que l’intérêt d’un baromètre comme le BIP 40 n’est pas seulement d’apporter des éléments de constat sur les inégalités et la pauvreté, mais aussi de permettre à l’ensemble des acteurs concernés d’exercer leur réflexion critique, de débattre et de mieux agir pour combattre ces inégalités. Si, à l’avenir, ce diagnostic – formulé ici à titre d’hypothèse – devait se révéler pertinent, alors l’expérience du BIP 40 aura incontestablement atteint un de ses objectifs essentiels.

Comment intervenir sur le programme de la statistique publique ? l’exemple des inégalités sociales

Bernard Sujobert

Le gouvernement français dispose d’un système de statistique publique dont le navire amiral est l’Institut national de la statistique et des études économiques (Insee). Ce système, qui inclut aussi près d’une vingtaine de services statistiques ministériels (SSM) plus spécialement dédiés aux domaines de compétence de ces ministères, produit les statistiques officielles au niveau national et pour des territoires plus fins, ainsi que les données transmises à l’office statistique européen (Eurostat) et à différentes autres institutions internationales. Il produit également toutes les informations chiffrées qui, au terme d’un processus formel de concertation, sont susceptibles d’intéresser la société en général.

De nombreux chapitres de ce livre pointent les carences de ces statistiques officielles et montrent comment il est possible d’en produire d’autres. Ici, notre objectif est tout autre : nous montrerons comment il est possible pour les acteurs de la société d’influer sur les statistiques publiques, de les pousser à se réformer, de façon à ce qu’elles informent des questions cruciales qui, autrement, lui auraient échappé. Le « statactivisme » n’attaque pas toujours les statistiques officielles depuis l’extérieur de la forteresse, il peut aussi agir de l’intérieur, en empruntant ses ascenseurs et ses couloirs.

La porte d’entrée officielle pour faire entendre la voix de la société et de ses acteurs à la statistique publique est le Conseil national de l’information statistique (CNIS), créé en 1984 en remplacement de dispositifs qui s’étaient succédé depuis les origines de l’Insee, pour « organiser de manière permanente la concertation entre utilisateurs et producteurs de la statistique publique ». Autrement dit, le CNIS est le lieu où sont censées se rencontrer les demandes sociales d’information et l’offre de la statistique publique.

Alors, comment procède-t-on pour interpeller les statisticiens publics et influer sur leurs programmes de travail ? Comment obtenir qu’ils répondent à des questions d’intérêt général portées par certains groupes ou secteurs de la société ? Est-il possible, en matière de statistiques et de connaissance des faits économiques et sociaux, de militer activement et efficacement pour participer à leur construction ?

Pour éclairer ces questions, nous décortiquerons ici un exemple encore assez récent et particulièrement significatif, du fait de l’ampleur et de l’importance du thème concerné : les inégalités sociales. Pendant plusieurs années jusque vers 2005, les rapports de l’Insee traitant de ces questions diffusaient toujours le même message : en France, les inégalités sociales ne se creusent pas. Elles restent à peu près constantes. Ces résultats en troublaient plus d’un, dont les syndicats représentés au CNIS. Ces derniers ont alors mené un travail qui s’est déroulé sur une période longue de près de trois années (de mi-2004 à janvier 2007). Ils ont décidé d’établir les modalités d’une réflexion précise au sein d’un groupe de travail du CNIS constitué à cet effet (mandat, acteurs du débat, calendrier), puis ont approfondi un ensemble de questions relatives à la connaissance des inégalités sociales dans divers domaines, et enfin ils ont validé un ensemble d’analyses et de propositions d’améliorations du dispositif statistique pour mieux connaître les réalités. Ce groupe est parvenu à faire adopter par l’Insee une nouvelle approche des inégalités qui montre que les différences entre les plus riches et les autres se creusaient de façon marquée, alors même que les anciennes façons d’en rendre compte ne montraient rien. Il a également préconisé un ensemble consistant de propositions d’investissements statistiques, dont la mise en œuvre progressive a encore occupé plusieurs années.

Coup de tonnerre dans un ciel serein…

Au début d’un été 2004 calme, un orage soudain éclate, provoquant une tourmente insolite. Trois tribunes paraissent successivement dans la presse nationale, suscitées initialement par le Réseau d’alerte sur les inégalités (RAI/BIP 40)note :

Le Monde, 2 juillet 2004 – « Cohésion sociale : des politiques à l’aveuglette », texte signé par quatre chercheurs, économistes et sociologues, proches ou membres du RAI/BIP 40, mettant en cause la capacité à rendre compte de la progression de la pauvreté et des inégalités là où les statistiques publiées montraient une stabilité de ces phénomènes. Ils militent entre autres pour l’indicateur synthétique du BIP 40 qui montre mieux que d’autres l’augmentation récente de la pauvreté.

Le Monde, 22 juillet 2004 – « Qui est pauvre en France ? », tribune de Jean-Michel Charpin, directeur général de l’Insee, et de Bertrand Fragonard, président de l’Observatoire national de la pauvreté et de l’exclusion sociale (ONPES), mis en cause par le précédent texte, dans laquelle ils réfutaient les arguments techniques avancés par les chercheurs. Pour ces auteurs, les mesures de la pauvreté « restent perfectibles », mais elles ont déjà « beaucoup progressé ».

Libération, 26 août 2004 – « Mieux sonder la pauvreté ». La contribution des deux syndicalistes CGT, dont son représentant au CNIS, qui se référait explicitement au débat amorcé par les deux précédentes, se terminait sur ces mots :

Le débat sur la connaissance des inégalités sociales doit donc se poursuivre dans les instances qui y sont spécialement destinées, comme le CNIS : nous avons proposé que cet organisme constitue un groupe de travail en son sein à cet effet. Il doit, simultanément, se poursuivre dans le grand public : cela ne peut qu’être utile à la qualité de nos politiques sociale et économique, ainsi qu’à la capacité du système statistique public de répondre aux attentes des chercheurs et de la société.

Les auteurs à l’initiative de la première tribune réagissaient à la publication par l’ONPES des chiffres officiels sur la pauvreté, construits sur la base de données de l’Insee, car ces derniers contredisaient leurs propres exploitations des données disponibles, menées depuis plusieurs années au sein du Réseau d’alerte sur les inégalités et publiées sous l’appellation BIP 40.

Une question de fond est latente dans ce débat – très politique au sens fort : celle de l’autonomie ou de l’articulation des questions de pauvreté avec celles des inégalités sociales en général. Au risque de caricaturer, la première et la troisième tribune de presse plaident pour examiner ensemble ces deux questions, la seconde étant exclusivement focalisée sur la pauvreté.

Il est rare que le directeur général de l’Insee s’exprime directement dans la presse et il ne répond lui-même par voie de presse à une mise en cause de son institution que dans des cas tout à fait exceptionnels. Les arguments échangés dans ces trois articles et la qualité des intervenants signalent d’emblée l’importance des enjeux, ce qui semble avoir été bien perçu par tous les protagonistes de cette affaire.

Un long processus de décision

Été et automne 2004 – Au sein de l’Insee, on note une prise en compte franche du problème de la part de la direction pour préparer des réponses acceptables de son point de vue.

Dès septembre 2004, on enregistre un premier effet de cette affaire, interne à la statistique publique : trois syndicats (CFDT, CGT et Sud) de la DG-Insee (direction générale de l’Insee à Paris) proposent d’organiser une assemblée du personnel sur le thème « Inégalités et pauvreté – que disent les statistiques ? Débat sur “le” débat statistique de l’été 2004 ». Pour cette réunion, ils sollicitent la présence et l’intervention des deux parties prenantes au débat du Monde : les contributeurs de la première tribune et les signataires de la seconde, ces derniers dûment invités par un courrier officiel des syndicats – ce qui va de soi s’agissant de syndicats sollicitant la participation du directeur général de leur administration.

Le directeur général de l’Insee n’a pas souhaité participer. Il s’en explique dans une lettre datée du 3 septembre : « Je tiens à rappeler que la politique constante de l’Institut consiste à replacer les débats avec les partenaires sociaux, et plus généralement avec l’ensemble des utilisateurs sur l’orientation de la statistique dans le cadre des instances du CNIS ».

Ainsi, le refus opposé à la demande syndicale locale est assorti d’une double ouverture : situer le débat au sein du CNIS et concevoir le débat avec les partenaires sociaux et l’ensemble des utilisateurs (ce qui n’en exclut aucun a priori). La réponse du DG-Insee plaçait donc d’emblée cette affaire là où il fallait : ni dans le déni et le refus, ni dans un placard, mais au sein de l’instance de concertation prévue à cet effet.

Certes, le recours au CNIS pour traiter une difficulté inattendue et soudaine justifiant une concertation n’est pas exceptionnel (mais pas fréquent non plus) et c’est le bureau du CNIS qui en est alors saisi, probablement au terme d’un premier échange de l’Insee avec son président. Ici, le fait nouveau et inédit était l’annonce publique et précoce que le DG-Insee faisait aux syndicats de l’Institut d’une ouverture sur le CNIS, avant même de le saisir officiellement et d’attendre sa première délibération.

Bref commentaire : la promptitude des premières réponses du directeur de l’Insee (tribune de presse et annonce d’une saisine du CNIS) marque la volonté du DG de s’appuyer pleinement sur une instance prévue à cet effet dans un environnement général qui, à l’époque, n’était clairement pas propice à des avancées de la statistique sociale (on rappelle entre autres que le ministre de l’Économie qui exerce la tutelle de l’Insee était alors Nicolas Sarkozy entre mars et novembre 2004).

Sur un plan plus strictement professionnel, le comité de direction de l’Insee (CD-Insee) du 16 novembre 2004 aborde le thème des « indicateurs d’exclusionnote », ce qui prouve que les services de l’Insee se sont réellement saisis de la question. Ce CD avait été préparé par une note de Françoise Maurel, chef du département prix-revenus-conditions de vie des ménages, intitulée « Quelles évolutions dans la mesure de la pauvreté et des inégalités ? », dans laquelle elle retrace sa perception des termes de la polémique de l’été. Elle se réfère précisément aux articles de presse publiés ; par exemple, elle mentionne « les critiques plus constructives de la CGT », peut-être par contraste avec celles des chercheurs… Deux autres notes préparatoires à ce CD discutaient l’intérêt et les limites des indicateurs synthétiques, notamment ceux du BIP 40 : trace d’un impact direct de l’initiative du RAI ? En tout cas, le compte rendu du CD (assez bref) retient finalement que « le comité de direction approuve l’idée d’étudier la faisabilité de nouveaux indicateurs de la pauvreté non monétaire, parallèlement au perfectionnement des mesures monétaires. Il recommande que ces travaux soient soumis pour discussion à l’ONPES ainsi qu’au CNIS ».

On ne retrouve pas dans les conclusions du CD la tension entre les deux thématiques « pauvreté/exclusion » d’une part et inégalités sociales d’autre part (rappelées dans les documents préparatoires) puisque, conformément à l’approche initiale de la contribution de MM. Fragonard et Charpin, la décision du CD met un accent exclusif sur la première. Par ailleurs, aucune proposition concrète de méthode de travail ni de calendrier n’est annoncée.

Au CNIS la prise en charge de cette question est plus lente, notamment en raison des calendriers de ses instances, peu adaptables à des situations inattendues, et probablement aussi en raison du temps de préparation nécessaire pour que l’Insee puisse s’accorder sur une proposition à lui soumettre.

Le CNIS se décrit ainsi lui-même sur son site : « Le Conseil comprend une quarantaine de membres et sa composition garantit une représentation large et équilibrée des milieux économiques et sociaux : les trois assemblées constitutionnelles, les syndicats de salariés, les organisations professionnelles, les chambres consulaires, les collectivités territoriales, les chercheurs, les associations, les journalistes, les présidents des commissions thématiques, l’Insee, la Banque de France et l’Ined. » Il est secondé par des commissions thématiques qui produisent des avis, qu’il ratifie lors de ses réunions plénières qui ont lieu une fois par an. La proposition faite par les syndicalistes qui y siègent de faire le détour par une telle commission thématique apparaissait donc comme une proposition acceptable par le principal intéressé.

Lors des réunions thématiques du CNIS au second semestre 2004, le problème des inégalités n’est absolument pas abordé, ni même évoqué. Aucune formation du CNIS, pas même l’inter-formation « statistiques sociales » n’est saisie de la question. L’Insee, selon toute probabilité, ne disposait à ce moment-là d’aucune ébauche de proposition un tant soit peu réfléchie et concertée à leur soumettre.

Le bureau du CNIS (30 novembre) prépare traditionnellement l’assemblée plénière de fin d’année (AP), ce qui permet de recenser les questions importantes du moment. Une très brève allusion du secrétaire général du CNIS (un directeur de l’Insee) est mentionnée dans le compte rendu officiel : « Jean-Pierre Puig propose au bureau, qui l’accepte, de mettre à l’ordre du jour de l’assemblée plénière une table ronde sur les indicateurs d’inégalités afin de faire suite aux débats qui ont eu lieu au cours des réunions de la formation démographie, conditions de vie et de l’interformation statistiques sociales… »

L’assemblée plénière du 11 février 2005 organise finalement un débat sur les indicateurs d’inégalités, présidé par Jean-Baptiste de Foucauld (alors président de la formation démographie/conditions de vie du CNIS). Parallèlement, un projet d’avis amendable en assemblée plénière lui est soumis :

Le Conseil apprécie les efforts entrepris par l’Insee pour éclairer le débat sur la mesure de l’inflation et du pouvoir d’achat et, en particulier, les résultats présentés sur la prise en compte de l’effet qualité et sur l’indice des prix par niveau de revenus des ménages. Pour compléter l’information relative à la mesure des niveaux de vie et l’analyse des inégalités, [le Conseil] souhaite que des propositions lui soient présentées concernant la mesure des revenus.

Une proposition d’amendement de la dernière phrase est formulée par la CGT :

[…] Pour contribuer à la poursuite de ces efforts, il demande au bureau de définir les modalités selon lesquelles pourrait être constitué un groupe de travail du CNIS ayant pour mission d’examiner les améliorations possibles en matière de production d’informations statistiques relatives à la mesure des niveaux de vie et à l’analyse des inégalités selon les différentes catégories de ménages et selon les territoires, ainsi qu’à leurs évolutions dans le temps.

L’assemblée plénière du CNIS aura ainsi consacré du temps à une discussion au fond sur les inégalités sociales et les besoins généraux de connaissance qu’elles appellent. Elle s’accorde aussi sur la création d’un groupe de travail du CNIS, c’est-à-dire qu’elle adopte sans difficulté et sans opposition l’avis amendé.

Dans la présentation de l’avis du CNIS, deux conceptions différentes se confrontent. Celle du secrétariat du CNIS qui avait préparé l’avis, qui situe le Conseil en position de réponse à des propositions qui lui seront faites, donc en aval d’un processus pensé en dehors de lui ; celle de la CGT, qui conçoit le CNIS comme l’instance d’élaboration d’un cahier de charges pour enrichir la connaissance statistique, au sein d’un groupe de travail, dont, par ailleurs, il précise brièvement les idées essentielles de son mandat.

Vers un groupe de travail du cnis

Lors du bureau du CNIS (31 mars 2005), le DG-Insee présente un projet de mission confiée à deux éminents cadres de l’Insee visant à définir le mandat d’un groupe de travail du CNIS portant sur la pauvreté et les inégalités. Ainsi, Françoise Maurel, qui avait préparé la première discussion du comité de direction de l’Insee, et Hugues Picard, inspecteur général de l’Insee, sont chargés de rédiger un rapport au directeur général de l’Insee.

Cette procédure itérative et très prudente (confier à des cadres supérieurs de l’Insee un prérapport pour définir et justifier le mandat d’un groupe de travail) est exceptionnelle pour la constitution d’un groupe de travail du CNIS et elle montre les précautions que l’administration pensait devoir prendre avant tout démarrage d’un quelconque travail. C’était aussi, selon l’opinion de J.-M. Charpin interrogé sur ce point, un gage du sérieux de l’instruction de cette affaire et de la qualité espérée de la concertation ultérieure, qui devait être, selon lui, « dégagée du caprice et de l’agitation ».

Pendant ce temps, la CGT a rédigé une note substantielle (8 pages), préparée conjointement par des syndicalistes de l’Insee et des responsables de la CGT membres du CNIS, et elle l’a communiquée au secrétariat du CNIS pour préciser ses attentes à l’égard d’un groupe de travail. Cette note était structurée en quatre parties : 1. Mieux connaître la réalité des revenus, des patrimoines et de la pauvreté ; 2. Mieux appréhender les différentes dimensions de la pauvreté ; 3. Améliorer la qualité des données ; 4. Un groupe de travail composé de façon à rendre compte de la diversité des points de vue. Cette note a été remise début mai aux deux rapporteurs, qui décident d’auditionner les représentants de la confédération, ainsi que ceux des autres syndicats de salariés membres du bureau du CNIS.

La note de la CGT a été rédigée après un important travail syndical sollicitant en interne des collègues compétent-e-s sur différents thèmes (une dizaine de fiches ont été préparées sur plusieurs sujets se rapportant aux inégalités sociales).

Cette démarche illustre un double souci :

– formuler des attentes et des besoins (et, ce faisant, s’exposer en les rédigeant à l’attention des rapporteurs ou d’autres lecteurs) avant même d’avoir à se positionner par rapport à des propositions faites par d’autres (ce qui n’empêche nullement d’y être attentifs lorsqu’elles viennent au débat) ;

– articuler la partie interne du syndicat (des professionnels de la statistique) et externe (des responsables placés du point de vue de la confédération) pour imaginer et rédiger des positions et pistes de réflexion pour le futur groupe de travail, à partir de perceptions et de besoins affichés et donc justifiés.

Ainsi, les positions et propositions de la CGT avaient une double caractéristique, volontairement recherchée et construite : d’une part, elles « parlaient le langage professionnel » des statisticiens (et ne méconnaissaient pas leurs caractéristiques et leur culture professionnelles), gage de crédibilité et de pertinence aux yeux de leurs pairs ; d’autre part, elles reflétaient les besoins et les attentes des responsables et militants syndicaux, dans leur recherche de description, d’analyse et de compréhension des réalités sociales (ici, les inégalités sociales) pour les transformer. A priori, seul un syndicat national ayant une section dans l’organe central de la statistique publique pouvait tenir ensemble ces deux exigences.

On ne sous-estimera pas non plus l’effet bénéfique pour une organisation syndicale d’avoir à expliciter des positions le plus tôt et le plus en amont possible, au terme d’un débat interne faisant forcément intervenir une certaine variété de points de vue et d’analyses des inégalités sociales existant dans toute organisation syndicale. L’idée est ici de raisonner à partir des idées et représentations des inégalités sociales d’une organisation syndicale, mises sur la table avec celles des autres parties prenantes qui souhaitent s’impliquer dans le débat, et non pas seulement de réagir et se positionner ex post à partir d’un schéma proposé par d’autres (essentiellement l’Insee ici) et modifiable seulement à la marge.

Lors du bureau du CNIS (6 juillet 2005), Mme Maurel et M. Picard remettent leur rapport ainsi qu’un projet de mandat. Le bureau approuve l’ensemble (le compte rendu de cette réunion et le rapport lui-même sont en ligne).

Au total, il aura donc fallu exactement une année pleine après la controverse initiale dans la presse pour que le bureau du CNIS décide de constituer un groupe de travail et adopte son mandat !

Une nouvelle année de travail

Novembre 2005 – Le groupe de travail démarre ses travaux sous la responsabilité d’un président prestigieux et familier de ces sujets : Jacques Freyssinet, secondé de deux rapporteurs : Michel Dollé, rapporteur général du Conseil de l’emploi, des revenus et de la cohésion sociale et Pascal Chevalier, le chef de la division revenus et patrimoine des ménages de l’Insee, laquelle fait partie du département des prix, etc. déjà évoqué. Lors de la séance inaugurale, le mandat proposé au groupe a été jugé trop étroit et trop limitatif. Une nouvelle mouture sera proposée à la prochaine séance par son président.

À cet égard, le choix du président du groupe de travail – généralement convenu entre le directeur général de l’Insee et le président du CNIS – aura été décisif tant du point de vue de sa personnalité et de sa notoriété que de celui de son expérience du CNIS, dont il avait présidé durant de nombreuses années une des formations thématiques (emploi-revenus-formation). C’était aussi un choix acceptable par les différents protagonistes de la polémique initiale et par les membres du groupe de travail.

Bref commentaire : mi-octobre 2005, soit un mois avant le démarrage du groupe et plus d’un an après le début de l’affaire, Françoise Maurel, chef de département de l’Insee chargée de rédiger le rapport de mission initial, considérait toujours (lors d’une réunion interne) que « le groupe aurait peu de temps et a priori un champ d’investigation restreint ». Le bras de fer initial continuait donc…

De novembre 2005 à novembre 2006, le groupe aura tenu treize séances plénières intenses et soutenues, le plus souvent sur une demi-journée, exceptionnellement une journée entière. Le groupe a produit un rapport qui, de notoriété générale, aura marqué les esprits tant par ses propositions que par sa méthode de travail.

En particulier, une caractéristique remarquable du fonctionnement du groupe aura été de faire participer des représentants associatifs dans les différents domaines abordés, soit en permanence tout au long du travail (le RAI déjà mentionné, l’UNIOPSSnote, la FNARSnote, etc.), soit sur des thèmes plus ponctuels (à l’intar du DAL – Droit au logement – venu à la séance consacrée au logement).

Lors du bureau du CNIS (10 novembre 2006), le projet de rapport final du groupe de travail est présenté, suivi d’un débat conclusif de l’ensemble de l’opération. Le rapport formule des propositions pour la statistique publique (il y en aura 60 dans le rapport final) et une liste d’indicateurs de pauvreté et d’inégalités, dont la publication périodique (généralement annuelle) est recommandée. Le bureau valide le rapport et décide de le présenter à la prochaine assemblée plénière

L’assemblée plénière du CNIS (le 18 décembre 2006) prend connaissance du rapport final et elle consacre un débat approfondi à l’ensemble de cette opération. En général, un large assentiment est exprimé, quant à la méthode, aux préconisations et finalement à l’utilité de ce travail approfondi, sans toutefois ignorer ses limites et ses incomplétudes, parmi lesquelles probablement une sous-estimation des besoins de connaissance au niveau de territoires infranationaux. Une contribution écrite de la CGT, préparée pour cette échéance, est jointe au compte rendu.

La version entièrement finalisée du rapport « Niveaux de vie et inégalités sociales » (datée mars 2007) se trouve sur le site du CNISnote. Des présentations en ont été faites devant différentes instances (par exemple devant le Conseil économique et social, en février 2007), assurant de ce fait une diffusion progressive des diagnostics et des propositions du groupe.

Il est hors de question ici de résumer le rapport ou même d’en extraire les principales conclusions et préconisations. On peut dégager quatre grandes catégories de recommandations :

– des préconisations générales ou très spécifiques concernant les concepts, les variables et les principales sources statistiques (enquêtes, sources administratives…) qu’il convient de mieux exploiter ou de solliciter davantage, voire de créer ex nihilo ou au moins de remanier profondément, pour suivre l’état des inégalités sociales et des niveaux de vie. S’il fallait évoquer un champ d’application parmi tous les autres, on mentionnerait les propositions visant à combler « une lacune centrale du dispositif : le patrimoine et les revenus associés » pour reprendre une citation du rapport. Il recommande ainsi de stabiliser le rythme des enquêtes, de recourir aux données de l’impôt de solidarité sur la fortune (ISF), etc. Ce qui n’était opéré qu’exceptionnellement par le passé. Pour mieux connaître la pauvreté et les inégalités, on proposait ainsi de focaliser aussi sur les élites les mieux loties. Mais plusieurs autres objectifs de progrès sont également étudiés :

– des préconisations relatives aux inégalités sociales selon quelques grands thèmes sociaux (éducation, santé, logement, emploi). Une place importante est donnée à la question des inégalités face au travail et à l’emploi, qu’un autre groupe de travail du CNIS, différent de celui dont nous parlons ici, approfondira ultérieurement ;

– des recommandations concernant la publication périodique des principales données et des indicateurs sélectionnés, ainsi que leur disponibilité à des niveaux de détail pertinent, selon les catégories de ménages et pour des niveaux territoriaux plus détaillés que le seul niveau national ;

– un dispositif de suivi régulier de l’avancement de la mise en œuvre des recommandations, notamment au CNIS.

Depuis l’adoption du rapport Freyssinet, la publication annuelle de référence de l’Insee intitulée « France portait social » (mise en ligne généralement en novembre de chaque année) a été progressivement enrichie et repensée pour tenir compte des avancées selon des recommandations du rapport. Par ailleurs, une annexe « indicateurs d’inégalités sociales » présente systématiquement la valeur la plus récente des indicateurs du rapport Freyssinet.

Janvier 2007 : on notera que dans ses vœux écrits adressés à l’ensemble des agents (le 2 janvier 2007) le directeur général de l’Insee fait une référence explicite au résultat final de cette opération : « Nous avons montré que nous sommes à l’écoute et que nous savons nous remettre en question pour progresser : j’en veux pour exemple le groupe de travail du CNIS sur les niveaux de vie et les inégalités sociales, qui a engagé des débats riches sur un sujet qui préoccupe nos concitoyens. » Formules convenues pour un moment d’unanimité traditionnel à cette date du calendrier ? Peut-être. On peut penser aussi qu’il y avait davantage d’attention et d’intention de la part du directeur général dans cette partie de son message aux agents de l’Insee. On peut effectivement mesurer le chemin parcouru en termes de « remise en question » et de « progrès » en se référant à la tribune de presse qu’il avait signée deux ans et demi auparavant, à l’été 2004.

Quelques remarques et compléments

– Un processus finalement long : la validation finale du rapport du groupe de travail intervient deux ans et demi après la controverse génératrice initiale, durée partagée en moitiés à peu près égales entre le temps de préparation du groupe, d’une part, et son travail effectif, d’autre part. Parmi les travaux du CNIS faisant appel à la formule « groupe de travail », c’est probablement un cas extrême.

– Une grande force de l’action syndicale a été la continuité de son action et la stabilité de ses représentants, qui gardaient toujours le dossier en main alors que leurs interlocuteurs avaient pu changer au gré des affectations professionnelles. Pour le thème qui nous occupe – l’intervention de la « société » sur la statistique publique –, on retiendra une présence et une participation syndicales actives et quasi permanentes au sein du groupe, notamment celle de la CGT, avec des contributions écrites à certains moments cruciaux. Ainsi, une note de trois pages relevant dix points clés était rédigée en juillet 2006, au moment où s’amorçait la phase de conception et d’écriture du rapport final. Ces efforts ne furent cependant pas tous couronnés de succès. Ainsi, le point conclusif de cette note suggérait la construction d’un véritable système de « Comptes sociaux de la nation », en contrepoint des Comptes économiques élaborés annuellement, généralement publiés en mai de chaque année. Inutile de préciser que nous n’en sommes pas là aujourd’hui ! Cette note était signée des deux représentants de la CGT au sein du groupe, ainsi que du « collectif CNIS de la CGT », lequel apparaissait ainsi tout à fait officiellement et ouvertement. On ne trouve aucune trace de cette note (très vraisemblablement diffusée aux membres du groupe de travail) dans les documents mis sur le site du CNIS, pas plus que de mention de son existence puisque le compte rendu de la réunion n’a pas été rédigé. Limites de la « transparence » du CNIS ?

– Le groupe a associé ponctuellement des participants inhabituels au CNIS à différentes phases du travail (par exemple l’association DAL, d’autres encore).

– En plus de la présence associative soutenue, FNARS, RAI, etc., des personnalités impliquées sur les questions des inégalités, notamment certains rédacteurs de la première tribune du Monde, ont participé attentivement et de bout en bout aux travaux du groupe. A contrario, certaines absences ont été formidablement visibles : ainsi, le patronat a été absent, de son fait, tout au long de l’existence du groupe, alors même qu’il est normalement représenté au CNIS.

– Des blocages de fait ou inconscients ont été très révélateurs : ainsi, il a été impossible d’auditionner des responsables politiques sur des sujets (lutte contre la pauvreté, inégalités sociales en matière d’emploi, de logement, de santé, d’éducation,…) où les effets de la politique paraissent pourtant évidents, malgré le souhait exprimé explicitement par plusieurs membres du groupe, dont l’un des deux rapporteurs. Par ailleurs, la participation ou l’audition de chercheurs tels que Michel Pinçon et Monique Pinçon-Charlot (chercheurs spécialisés dans la sociologie des riches et des grandes fortunes en France), souhaitée à plusieurs reprises lors des séances du GT, n’a jamais été possible en pratique.

– Des débats apparemment techniques mais à forte teneur politique se sont présentés. Ce fut typiquement le cas lors du choix des indicateurs de pauvreté. Lorsqu’il s’est agi d’en retenir un petit nombre, deux types d’indicateurs existants se sont d’abord imposés quasi « naturellement » : d’une part, les onze indicateurs de pauvreté de l’ONPES (définis antérieurement par cette institution et régulièrement publiés dans ses rapports annuels) et, d’autre part, les indicateurs dits « de Laeken », du nom de la ville belge qui en 2001 accueillit le Conseil européen au cours duquel les chefs d’État et de gouvernement ont adopté les indicateurs de pauvreté proposés par le Comité de protection sociale (CPS)note. Mais, ensemble, ces deux groupes représentaient une trentaine d’indicateurs et, par là, risquaient fort de saturer la commande passée au groupe de travail. Le groupe a alors considéré que les indicateurs de l’ONPES avaient fait antérieurement l’objet d’un accord de fait des membres de l’observatoire (très comparables à ceux qui sont représentés au CNIS), consensus qu’il n’y avait pas donc pas lieu de remettre en cause a priori. En revanche, les indicateurs de Laeken, dont l’existence a pourtant été saluée avec le respect qui leur était dû en tant que compromis purement politique de nature européenne, n’ont pas été considérés comme suffisamment légitimes pour cette seule raison et ils ont donc été écartés de la liste des indicateurs finalement recommandés par le groupe de travail.

Les conséquences les plus spectaculaires de cet épisode, car probablement les plus en rupture avec l’état antérieur de l’information statistique, sont, d’une part, une rénovation assez profonde des enquêtes sur les patrimoines (une surreprésentation des hauts patrimoines qui sont ainsi mieux connus), comme le montrent les travaux publiés à la suite de l’enquête Patrimoine 2009 de l’Inseenote ; et, d’autre part, l’exploration des distributions de revenus et patrimoines au sein des déciles extrêmes. Ce que la nouvelle mesure des inégalités a montré est que si l’ancienne méthode, qui comparait les 10 % des ménages les plus riches au 10 % des ménages les plus pauvres, ne montrait aucune variation sur les dernières années, c’est qu’elle restait en elle-même trop peu sélective. Au contraire, on voit exploser les inégalités avec la nouvelle méthode qui se concentre sur les 1 %, et même sur les 1 pour mille, des ménages les plus riches dont les revenus ont crû depuis dix ans dans des proportions insoupçonnées.

Bref commentaire conclusif

À cet égard, on peut aller jusqu’à qualifier ce changement de « révolution mentale ». Le responsable d’une unité de l’Insee, co-rapporteur du groupe de travail, expliquait encore en juin 2007 – donc bien après les conclusions du groupe de travail –, à l’occasion de la publication de travaux de Camille Landaisnote démontrant la formidable explosion des hauts revenus en France, qu’« on n’a rien trouvé de significatif qui prouverait une explosion des inégalités en France… » C’était faute d’avoir cherché dans la fine pointe des distributions de revenus, « simplement parce que l’Insee n’est jamais descendu dans un niveau aussi fin d’analyse chez les hauts revenusnote ».

Ainsi, par défaut de finesse de résolution de l’image des inégalités de revenus, la statistique publique montrait une remarquable stabilité des écarts interdéciles, au moment même où le mouvement des inégalités sociales se remettait spectaculairement en branle « par le haut » et même par « le haut du haut ».

Depuis, les choses ont été rectifiées et les publications ne manquent pas où l’Insee, entre autres, n’hésite plus à éclairer davantage ces anciennes zones d’ombre, situées à la fine pointe supérieure des distributions de revenus et de patrimoines.

Parmi d’autres exemples possibles, on peut citer le rapport du printemps 2009 intitulé « Partage de la valeur ajoutée, partage des profits et écarts de rémunérations en France », rédigé par J.-P. Cotis, alors directeur général de l’Insee, en conclusion des travaux d’une commission ad hoc à laquelle participaient des syndicalistes et des représentants du monde patronal. Une partie du rapport présentait des résultats inédits concernant les évolutions des très hauts salaires sur une dizaine d’années (1994-2006). J.-P. Cotis affirmait ainsi lors de sa conférence de presse du 14 mai 2009 :

C’est du côté du dernier centile, voire du dernier millile, que les évolutions ont été les plus marquantes au cours de la décennie écoulée, avec des taux de croissance des rémunérations trois à six fois plus rapides que les revenus médians. Et à partir d’une base de revenus déjà très forte.

Plus globalement, les travaux, conclusions et préconisations de ce groupe de travail, définitivement validés et disponibles début 2007, ont servi de « feuille de route » à l’Insee (selon l’expression d’un de ses responsables) pour le programme de moyen terme 2009-2013 de la statistique publique, débattu au sein du CNIS en 2008 pour validation par l’assemblée plénière à la fin de la même année.

Le thème des inégalités fait cependant l’objet d’une « bataille » idéologique et sémantique qui n’est jamais totalement gagnée. Ainsi, en 2010, un véritable « interdit linguistique », venu du sommet de la hiérarchie de l’Insee, prétendait frapper le mot « inégalités » et ses équivalents dans l’ouvrage annuel de référence sur les revenus et les patrimoinesnote, avant la composition finale de l’ouvrage. Selon la hiérarchie, il eût fallu parler plutôt de la « diversité » des revenus et des situations, des salaires « les plus modestes » – là où ils sont incontestablement bas, voire très bas… –, de « situations favorisées » à l’autre extrémité de la distribution – où les choses sont extravagantes. Heureusement, la sourde protestation des rédacteurs et des concepteurs de l’ouvrage, ainsi qu’une information plus ou moins informelle en interne, parfois sur le mode de la dérision, ont permis d’arrêter le ridicule de cette affaire ; seulement ridicule ? seulement en 2010 ?

Concernant plus particulièrement le collectif syndical CGT « autour du CNIS », cette expérience concrète – dont le début (mi-2004) a suivi de près la mise en place du collectif (mars 2004) – aura constitué, du fait de son inscription dans un temps long, de l’ampleur des sujets rencontrés, un ensemble d’expériences et d’expérimentations de pratiques utiles et transposables pour d’autres sujets et d’autres luttes ultérieures autour de la statistique publique. Ainsi en a-t-il été, très rapidement après les conclusions de l’histoire racontée ici, sur un tout autre sujet, non moins emblématique et lourd d’enjeux de connaissances utiles pour la société. C’était lorsque le système statistique de l’emploi et du chômage s’est révélé gravement défectueux au tout début de l’année 2007, année électorale majeure si l’on s’en souvient, où la question du chômage était déjà une priorité du débat économique, social et politique.

Depuis ces périodes qui s’éloignent, ce collectif n’a pas cessé de travailler, notamment au sein du CNIS et en relation avec les autres moyens d’action et d’intervention d’une organisation syndicale, pour agir sur la statistique publique. Il le fait au nom des besoins d’information et de connaissances statistiques d’un acteur syndical incontournable de la vie économique et sociale de notre pays.

Fair, le forum pour d’autres indicateurs de richesse

Florence Jany-Catrice

Depuis plusieurs décennies, les principaux outils de la régulation publique, en particulier le produit intérieur brut (PIB) et la croissance économique, sont critiqués. Les raisons de ces controverses sont maintenant bien connues et tiennent à trois aspects principaux. Premièrement, l’accroissement des inégalités socioéconomiques a engendré une extrême hétérogénéité des situations individuelles qui, à son tour, a défait le rapport des individus à un espace de référence commun ; dès lors, il est devenu difficile de se reconnaître dans un indicateur moyen comme le PIB car il « parle » de moins en moins à chacun. Deuxièmement, le dogme – ou la religion – de la croissance a peu à peu fait vouloir la croissance pour elle-même ; elle est progressivement devenue un outil de pilotage automatique, faisant basculer des indicateurs conçus comme des moyens en véritable fin. Troisièmement, cette obsession pour la croissance a fait perdre de vue son incompatibilité avec la soutenabilité sociale-écologique qui est pourtant devenue une priorité pour le public.

Depuis le début des années 1990, ces critiques sont accompagnées de contre-propositions, initiées notamment par le Programme des Nations unies pour le développement (PNUD). Certaines ont été produites par des autorités institutionnelles. D’autres ont été le fruit de concertations citoyennes. L’expérience originale du Forum pour d’autres indicateurs de richesse (FAIR), dont nous allons rendre compte, émane d’un groupe citoyen qui s’est constitué en force de contre-proposition face à l’hégémonie des indicateurs économiques de richesse.

L’émergence en france de la question de nouveaux indicateurs de richesse

La « mise en rapports » des critiques intellectuelles au tournant des années 2000

Les constats concernant les limites du PIB et de la croissance comme indicateurs ne sont pas récents, mais les crises financières, sociales et écologiques des dernières décennies ont parfois fonctionné comme de véritables caisses de résonance de travaux qui avaient largement anticipé l’ampleur des démesures du capitalisme productiviste et financier. En France, c’est en 1999 que l’ouvrage séminal de la philosophe et sociologue Dominique Médanote, Qu’est-ce que la richesse ?, a contribué, par sa parution et les débats qu’il ouvrait, à renouveler la réflexion sur les mesures de la richesse. Alors en poste à la Direction de l’animation de la recherche, des études et des statistiques (DARES) du ministère du Travail, Dominique Méda entend nourrir ces discussions et approfondir les propositions en commandant dès 2001 à Jean Gadrey et à Florence Jany-Catrice, tous deux économistes à l’université Lille-1, un rapport sur des « nouveaux indicateurs de richesse ». L’année suivante, Patrick Viveret, alors conseiller référendaire à la Cour des comptes, remet au secrétaire d’État à l’Économie solidaire, Guy Hascoët, un rapport allant dans le même sens, intitulé « Reconsidérer la richesse ». À la faveur de ce travail est créé un « collectif Richesses » dont le projet d’émancipation affirme qu’il appartient à tous de se réapproprier l’idée même de richesse. Composé de citoyens et d’« associations actives dans les milieux de l’art, de la culture, de l’écologie, de la santé, de l’éducation populaire, de l’action humanitaire, de l’économie solidaire », ce collectif se donne comme « vocation de relayer, sous diverses formes, la mobilisation citoyenne pour l’affirmation d’un autre regard sur ce qui fait richesse dans nos sociétésnote ». Il travaille et milite en dehors de l’académisme et de l’expertise.

2008 : la mise en place de la commission Stiglitz

Prenant à contre-pied les différents réseaux qui militaient pour de « nouveaux indicateurs de richesse », le président de la République française, Nicolas Sarkozy, annonce le 8 janvier 2008 la mise en place d’une commission visant à doter la France et, sur son modèle, d’autres pays de nouveaux indicateurs de performance économique et de progrès social. Il confie cette mission à un économiste de renommée internationale, Joseph Stiglitznote. Ce faisant, il entend ainsi inscrire la France à l’avant-garde de l’Union européenne, dont le Parlement avait organisé l’année précédente une manifestation sur le thème Beyond GDP (« Au-delà du PIB »), laquelle visait à doter l’Union et ses membres de nouveaux indicateurs de soutenabiliténote.

Aussi surprenant que cela puisse paraître, le « président des richesnote » justifie son initiative par le discours suivant : « Nous ne pouvons pas espérer changer nos comportements et nos façons de penser si nos critères de la richesse restent les mêmes. […] Nous avons besoin de prendre en compte la qualité et pas seulement la quantité pour favoriser un autre type de croissance. Il faut changer notre instrument de mesure de la croissancenote. » Il reprend ainsi à son compte les contestations les plus fermes à l’encontre du PIB et de la croissance. Son annonce, suivie par la mise en place effective de la « Commission sur la mesure de la performance économique et du progrès social », fait réagir les groupes militants de deux manières différentes, quoique non contradictoires. Pour les uns, la médiatisation des travaux de cette commission est l’occasion de faire valoir leur légitimité et de faire entendre leur voix. Ils arguent du fait que, depuis plusieurs décennies, ils ont mis à leur agenda non seulement la question des richesses, de leurs représentations et de leurs mesures, mais aussi l’élaboration de méthodes alternatives pour les évaluer. Ces groupes envisagent ainsi la commission Stiglitz et son rapport remis en 2009note comme une opportunité dont il faut se saisir : il est enfin reconnu que la maison brûle mais que les gouvernements successifs continuent, en utilisant de mauvais indicateurs, de regarder ailleurs. Pour les autres, cette commission comporte le risque de la confiscation par des économistes d’un débat citoyen dont les enjeux débordent très largement leur expertise, puisqu’il s’agit rien de moins que de construire des sociétés plus justes socialement et plus soutenables écologiquement.

L’émergence de fair, un réseau de vigilance

Parmi les économistes réputés, sollicités pour participer à cette commission, se trouve l’universitaire Jean Gadrey, connu pour ses prises de position critiques à l’encontre du capitalisme, notamment en tant que membre du Conseil scientifique de l’organisation altermondialiste Attac. Dénonçant l’ambiguïté des finalités du projet présidentiel, Gadrey est perplexe quant à l’indépendance dont bénéficierait ce groupe de collègues à l’égard du pouvoir politique. Afin d’ouvrir une réflexion collective sur cette initiative et l’intérêt – ou non – d’y participernote, il constitue un petit réseau informel composé de diverses personnalités, dont Dominique Méda, Danielle Mitterrand et Patrick Viveretnote. Tous ont déjà très largement entamé des réflexions et des travaux sur ces questions. D’emblée, ce réseau conteste ce qui apparaît très vite, pour une majorité de ses membres, comme un coup de force antidémocratique : une commission composée d’une poignée d’économistes pour réfléchir à des indicateurs de bien-être pour tous. Il entreprend alors d’opposer à cette commission élitiste et fermée un Forum pour d’autres indicateurs de richesse (FAIR). Sans statut particulier, ce Forum se propose d’agir comme un groupe d’alerte et de vigilance autour des modalités de fonctionnement de la commission Stiglitz, en particulier en l’invitant à s’ouvrir à la « société civile ». Il élabore une charte et organise, à l’occasion de la première réunion à Paris de la commission Stiglitz, un contre-forum. Prenant appui sur ses propres militants et bénéficiant, grâce au soutien d’un député de l’oppositionnote, d’un accueil symbolique à l’Assemblée nationale, FAIR organise sa propre manifestation publique. Y sont présentées des alternatives au PIB, souvent citoyennes, expérimentées dans différentes parties du monde et dans certaines régions françaises. Mentionnons les indicateurs du PNUD et, en particulier, les indices de développement humain (IDH) qui ont été territorialisés au cours des années 2000 dans différentes régions françaises ; un projet d’indicateurs pour la région amazonienne de l’Acre ; un Baromètre des inégalités et de la pauvreté (BIP 40note) élaboré antérieurement par un réseau citoyen d’alerte sur les inégalités ; un Indicateur de santé social (ISS) construit dans la région Nord-Pas-de-Calais sur le mode de la concertation ; un indicateur participatif de bien-être ; etc.note.

Tout au long de l’existence de la commission Stiglitz (2008-2009), FAIR continue à se structurer, essentiellement en tant que réseau de vigilance. Ses principales prises de parole relèvent de trois combats : un combat démocratique, un combat sur le contenu de la soutenabilité, et un combat sur les mesures statistiques alternatives.

Une invitation à l’implication de la société civile

Les prises de parole et les actions du collectif FAIR visent en effet à défendre la position selon laquelle les questions portant sur l’opportunité d’autres indicateurs de richesse ne sont pas techniquesnote mais nécessitent des débats publics : derrière les indicateurs, il y a toujours des conventions de représentation de la société et de sa soutenabilité. On pourrait appeler cela une action d’éducation populaire en vue de plus de démocraties sur les indicateurs alternatifs au PIB. Le réseau s’efforce de faire entendre les voix d’acteurs et de militants de la société civile, mais aussi de scientifiques, souvent eux-mêmes militants du développement humain durable. Ses efforts sont parfois couronnés de succès. Ainsi, deux de ses membres sont entendus par la commission Stiglitz. De même, une rencontre est organisée à l’Observatoire français des conjonctures économiques (OFCE)note avec les membres français de la commission, les statisticiens de l’Institut national de la statistique et des études économiques (Insee) qui ont en charge la rédaction de travaux intermédiaires du rapport, et une délégation de FAIR. Malgré ces balbutiements, la commission Stiglitz s’ouvre globalement très peu au débat citoyen et le rapport qu’elle produit, empreint des représentations de ses experts, reste enfermé dans ses propres cadres et outils d’analyse. De son côté, FAIR est à l’initiative de diverses prises de parole, y compris avec l’appui de syndicats, le réseau organisant, par exemple, une conférence de presse à l’occasion de la sortie du rapport Stiglitz. Ses prises de parole et ses actions, celles qui émanent de membres de FAIR sans être soutenues par tout FAIR, ont pour point commun de réfléchir à des modalités d’élaboration de nouveaux indicateurs de richesse qui viendraient engager les citoyens sur des questions que FAIR juge d’intérêt général.

Un soutien à des propositions et des processus d’élaboration d’indicateurs alternatifs

Un soutien assez ferme à l’« empreinte écologique ». Ainsi, FAIR apporte son soutien à l’« empreinte écologique », un indicateur de soutenabilité plutôt fortenote, non monétarisé, et soutenu, par ailleurs par de nombreux collectifs écologistes. Cet indicateur a fait l’objet de missions d’évaluation par différentes instances, telles que l’Assemblée nationalenote ou le Conseil économique, social et environnementalnote. L’intérêt de cette empreinte est d’agir comme une alerte lorsque les seuils critiques de renouvellement du capital naturel ont été dépassés. Un lien étroit unit cet indicateur d’empreinte et le niveau de PIB des pays, soulignant ainsi qu’une grande partie des déséquilibres écologiques émane des pays riches.

Des soutiens aux expérimentations territoriales. Parmi les initiatives plus originales, celle des Pays de la Loire a été soutenue par FAIR. Nouant un partenariat avec l’Observatoire de la décision publique (dirigé par Hélène Combe, membre fondatrice de FAIR), cette région ouvre, à partir de décembre 2010, un large débat public autour des six questions suivantes : « Quelles sont les richesses que nous avions, et que nous n’avons plus aujourd’hui ? » ; « Quelles sont les richesses que nous avons et que nous n’avions pas hier ? » ; « Quelles sont les richesses que nous avons préservées ? » ; « Qu’est-ce qui compte le plus ? » ; « Qu’est-ce qui serait le plus grave de perdre ? » ; « Quelles richesses voulons-nous transmettre aux générations émergentes et futures ? » Plus de 2 000 habitants participent à l’un de ces débats, à partir d’une organisation autogérée, sur les lieux de vie des citoyens (les écoles, prisons, lieux de travail, famille, etc.)note.

De même, des membres de FAIR accompagnent un projet de la région Nord-Pas-de-Calais baptisé « Indicateurs 21 ». Celui-ci met en avant l’« empreinte écologique territoriale » comme indicateur phare de mesure de la soutenabilité écologique, et l’Indicateur de santé sociale (ISS) comme l’un des indicateurs de mesure de la soutenabilité sociale. Construit au terme de dix-huit mois de concertation et de travaux, l’ISS montre en particulier qu’il n’y a aucune corrélation entre le niveau de PIB par habitant et la santé sociale des régions françaises ainsi estiméenote. S’emparant de cette initiative, l’Association des régions de France (ARF) publie un rapport en avril 2012 dans lequel elle recommande que les régions se dotent toutes de ces principaux indicateurs pour « piloter le développement de leur territoirenote ». Au-delà du niveau régional et national, FAIR est également temporairement associé au Conseil de l’Europe à la rédaction d’un guide méthodologique pour la construction d’indicateurs de bien-êtrenote, destiné à l’ensemble de ses 47 États membres sur tout le continent.

Au cours de ces expériences, et d’autres, il apparaît cependant que, parmi les indicateurs « alternatifs » avancés, tous ne sont pas forcément progressistes. D’où la troisième mission que FAIR se fixe progressivement : celle d’une veille critique s’efforçant de distinguer entre différentes sortes d’alternatives.

Une fonction de contestation à l’encontre d’indicateurs alternatifs très peu progressistes

Depuis quelques années, de plus en plus d’indicateurs émergent, dans le paysage national et international en tant qu’« alternatives » possibles au PIB, sans pour autant apparaître comme des projets crédibles en termes de soutenabilité. Comme le souligne très justement Jean Gadreynote, il s’agit pour partie de tentatives de « récupération régressive ». Le risque est grand de passer ainsi d’indicateurs émancipateurs et de soutenabilité forte à des indicateurs de soutien du capitalismenote.

La première contestation de FAIR à l’encontre d’un indicateur pourtant alternatif vise l’Épargne nette ajustée (ENA), dont le rapport intermédiaire de la commission Stiglitz laissait entendre qu’elle pouvait constituer une bonne mesure de la soutenabilité. Cet indicateur repose sur une monétarisation des principales dimensions de la soutenabilité (sociale, environnementale et économique). Les militants de FAIR considèrent qu’elle ne peut constituer une mesure de soutenabilité forte car elle repose sur une substituabilité entre les composants du capital. Pour les tenants de la soutenabilité forte au contraire, dont se réclament une partie des membres de FAIR, l’innovation sociotechnique permet sans doute l’élaboration de processus de production moins dégradants pour l’environnement, mais ce progrès technique ne suffit pas à pallier les trajectoires de destruction écologique en coursnote. Un autre caractère rédhibitoire de l’ENA – et concomitant du précédent – est que cet indicateur utilise le langage de la monétarisation. Outre que la monétarisation nécessite la construction de prix fictifs dont l’élaboration est toujours discutable lorsqu’elle s’applique à des espaces non monétaires et non marchands, ce langage produit aussi et surtout des mises en équivalence entre des dimensions très différentes : sont ainsi monétarisés un « capital naturel » et un « capital social ». Ce langage crée explicitement l’idée d’une substituabilité entre ces dimensions : si un capital se dégrade – par exemple le capital naturel –, il peut toujours être compensé par la progression d’un autre capital – par exemple le capital économique.

Cette fonction d’alerte à l’encontre des indicateurs monétarisés tend à constituer, depuis 2011, une partie importante de l’activité de FAIR. Cela est lié au fait que l’élaboration de nouveaux indicateurs est de plus en plus prise en charge par des organisations internationales qui mènent en quelque sorte de leur côté une contre-offensive au projet alternatif qu’aurait pu constituer la création d’indicateurs de soutenabilité forte. Ce mouvement de récupération des indicateurs s’est largement intensifié ces dernières années, à tel point que toutes les organisations internationales se sont généreusement équipées d’indicateurs de tout genre. L’Épargne nette ajustée a d’abord émergé au sein de la Banque mondiale, tandis que le Programme des Nations unies pour l’environnement, soutenu par des économistes environnementalistes anglo-saxons, fait avancer un projet d’indicateur global de richesse (Inclusive Wealth Index, IWI), auquel FAIR s’est officiellement opposé lors de la conférence Rio + 20 en 2012, et dans certaines productions écritesnote. L’opposition de FAIR à cet indicateur IWI est proche de celle qui a amené FAIR à réfuter l’ENA comme indicateur de soutenabilité. En effet, l’IWI repose aussi sur une monétarisation des capitaux non marchands. Mais cette opposition est aussi liée au fait qu’un tel indicateur aboutit, selon FAIR, à des conclusions ineptes : « Avec l’IWI, le pays qui détient le plus haut taux de croissance de sa soutenabilité globale est… la Chine. Et tous les pays riches évoluent paisiblement vers la soutenabilité globale, y compris les États-Unisnote. »

FAIR se positionne également contre l’indicateur du mieux-vivre de l’Organisation pour la coopération et le développement économiques (OCDE). Lancé médiatiquement en mai 2012, cet indicateur a pour ambition de mesurer le « mieux-être » d’une nation, à partir d’une « consultation » large de la « société civile », notamment par la création d’un « wikiprogressnote ». L’OCDE enrichit ainsi la notion de mieux-être d’une batterie de dimensions : logement, revenu, travail et emploi, éducation, santé, sécurité, équilibre temps de travail/temps familiaux, environnement, gouvernance, et satisfaction de vie. Toutes ces dimensions sont ensuite exprimées par une ou deux variables, la plupart du temps dites « objectives », à l’exception de la « satisfaction de vie » qui repose sur une mesure dite « subjective »note. En mettant ensuite à disposition de chaque individu, par le moyen du Web, un calculateur qui lui permet, de manière instantanée, de mesurer son indice de mieux-être personnel, l’OCDE individualise la mesure. Elle apaise ainsi la controverse collective sur l’agrégat économique, et permet à chacun de se faire « son » idée du bien-être des pays. Mais cette démocratisation de l’outil n’est qu’illusoire puisque seule la pondération des variables est modifiable, ce qui constitue une très mince avancée. FAIR constate ainsi que les variables sélectionnées ne sont pas l’expression d’un choix de valeurs qui seraient constitutives d’un bien-être collectif, de la préservation de biens communs ou de celle de la santé sociale. Le choix de ces variables suggère plutôt un mieux-être dans l’accès à toujours plus pour la moyenne des individus (toujours plus de revenus, de patrimoine financier, de grands habitats), indépendamment de la qualité, et indépendamment de la qualité des institutions de protection collective. Quantifier, c’est certes produire du savoir. Mais c’est aussi, et par là même, produire une réalité, qui se révèle souvent conforme à la doxa dominante, notamment à l’orthodoxie économique, comme l’illustre à merveille cette expérience de l’OCDE.

Enfin, sans avoir eu de position véritablement commune sur les indicateurs subjectifs qui connaissent eux aussi un regain d’intérêt, le réseau FAIR est sceptique sur les usages d’indicateurs visant à recueillir la « satisfaction de vie personnelle », voire le bonheur. De ce point de vue, les dernières mesures rendues publiques par l’Insee, lesquelles croisent des indicateurs de bien-être subjectif avec des données objectivées de qualité de vie, sont intéressantes. Elles suggèrent bien l’idée qu’il est possible, avec de telles mesures, de passer à côté de la préservation des biens communs : « La perception de la qualité de l’environnement ou celle de tensions dans la société n’ont pas d’influence significative sur le bien-être ressentinote. »

Conclusion

Le réseau FAIR accueille, depuis sa création, une grande diversité d’acteurs. S’il n’y a pas d’accord sur « tout » tant s’en faut, il y a une forte convergence sur un socle de principes communs à la fois éthiques, politiques et pratiques. Sur le plan éthique, ce qui motive la recherche d’autres indicateurs tient « à la volonté d’expliciter des fins qui sont hors d’atteinte si l’on s’en remet seulement aux valeurs actuelles accordant une priorité à l’économie marchande et monétairenote ». Sur le plan politique, les membres du FAIR s’accordent sur le fait qu’on « ne peut pas confier à des groupes d’experts, dont les contributions sont évidemment utilesnote, le soin de dire quelles sont les fins à considérer et comment les prendre en compte. La participation de la société, la délibération politique sont indispensables pour dire et sélectionner les fins que l’on vise, et pour pondérer les critères d’évaluation qui leur correspondentnote ». Ils insistent sur l’idée que la quête de sens collectif sur le bien-être ne se décrète pas, ni ne peut être déléguée exclusivement à des experts, mais qu’elle nécessite de penser les conditions de possibilité d’une autre vision citoyenne. Sur le plan pratique, enfin, le Forum suggère que « soient tirées les leçons des expériences existantes et des initiatives en matière d’indicateurs, en construisant une connaissance commune et une expertise critique des intérêts et limites des indicateurs », et certainement aussi de la quantification.

=
 baseline 
   mentions légales - plan du site - © éditions La Découverte, 2007