Vous avez ici gratuitement accès au contenu des livres publiés par Zones. Nous espérons que ces lybers vous donneront envie d’acheter nos livres, disponibles dans toutes les bonnes librairies. Car c’est la vente de livres qui permet de rémunérer l’auteur, l’éditeur et le libraire, et de vous proposer de nouveaux lybers et de nouveaux livres.
Le 1er mars 1990, armés d’un mandat de perquisition, les agents des services secrets étatsuniens font irruption dans l’entreprise Steve Jackson Games. C’est une petite société basée à Austin, Texas, qui conçoit et publie des jeux de rôle. Les fonctionnaires embarquent trois ordinateurs, deux imprimantes laser, des disquettes, des papiers. Dans leur prise, il y a aussi un manuscrit. Le tout dernier « GURPS » – pour Generic Universal Role Playing System, littéralement : « système de jeu de rôle universel générique » –, un produit dont la maison s’est fait une spécialité. Il s’agit d’une sorte de manuel de jeu fait de règles, de personnages et de scénarios qui constituent les briques élémentaires de l’univers que les joueurs sont invités à faire vivre. Le volume saisi s’intitule Cyberpunk. Son rédacteur, Loyd Blankenship, a été arrêté quelques temps plus tôt pour des faits de piratage informatique. Il est aussi l’auteur d’un manifeste hacker paru en 1986. C’est après lui que les enquêteurs en ont. La compagnie de télécommunications Bell avait en effet remarqué qu’un fichier décrivant l’administration du système d’appels d’urgence 911 avait été copié sur un serveur nommé « illuminati » administré par Blankenship. Sur le plan judiciaire, l’histoire est classée sans suite. Mais le livre en question, exagérément qualifié de « manuel de la criminalité informatique » par les autorités, va largement bénéficier de la publicité offerte par cet épisode1. C’est dans la section « économie » de ce texte, à la rubrique « Entreprises », qu’est introduite l’idée de techno-féodalisme :
Lorsque le monde devient plus rude, les entreprises s’adaptent en devenant elles-mêmes plus coriaces, par nécessité. Cette attitude de type « protégeons les nôtres en priorité » est parfois appelée techno-féodalisme. Comme le féodalisme, c’est une réaction à un environnement chaotique, une promesse de service et de loyauté arrachée aux travailleurs en échange d’une garantie de soutien et de protection de la part des firmes. […]
En l’absence de réglementation adaptée, les grandes entreprises se coalisent pour former des quasi-monopoles. Pour maximiser leurs profits, elles restreignent le choix des consommateurs et s’approprient ou éradiquent les rivales susceptibles de déstabiliser leurs cartels2.
Blankenship propose aux joueurs une dystopie cyberpunk dans laquelle il n’existe aucun contrepoids au pouvoir des grandes entreprises. Des firmes géantes, dont la puissance excède celle des États, se constituent en forces sociales dominantes. Il en découle une marginalisation de la figure des citoyens au profit de celle des parties prenantes (actionnaires, travailleurs, clients, créditeurs) liées à l’entreprise. Le rapport social qui prédomine est donc l’attachement, en ce que les individus dépendent des firmes. Celles-ci sont devenues des entités protectrices, des îlots de stabilité dans un monde chaotique. Ces puissants monopoles privés se dressent au-dessus des gouvernements au point de se constituer en fiefs. Les directions des grandes firmes exercent un pouvoir indissociablement politique et économique sur les espaces sociaux qu’elles contrôlent et sur les individus qui les habitent.
La projection cyberpunk des années 1980 n’a bien sûr aucune prétention prédictive. Ce n’est qu’une fantaisie ludique qui ne saurait nous livrer les clés d’une compréhension du monde contemporain. Pourtant… Quelques décennies plus tard, il est difficile de ne pas noter l’actualité de certaines des intuitions formulées dans cet imaginaire.
Il est d’abord indéniable que les entreprises transnationales ont considérablement accru leur emprise sur les sociétés contemporaines. Et ce n’est pas qu’une question de taille. Avec la télématique, les droits de propriété intellectuelle et la centralisation des données, c’est un contrôle beaucoup plus serré qui s’exerce sur les territoires et sur les individus.
Ensuite, s’il l’on n’observe pas un retrait des États à proprement parler, on constate cependant des signes d’un affaiblissement par rapport aux grandes corporations. Par exemple, le taux effectif d’imposition des multinationales est passé de plus de 35 % dans les années 1990 à moins de 25 % dans la seconde moitié des années 20103. Dans le même temps, la capacité d’influence des milieux d’affaires sur le politique s’est considérablement renforcée, notamment avec l’augmentation des dépenses de lobbying4 et l’étendue de jeux d’influence de moins en moins discrets5, loin des procédures démocratiques formelles. Éreintée par sa perte de substance, la démocratie s’épuise et la reconfiguration du champ électoral dans les pays à hauts revenus signale la fragilisation de l’ordre politique libéral. Aujourd’hui, cet auxiliaire de l’État moderne vacille sous la pression d’inégalités devenues abyssales.
Quant à l’idée d’un monde devenant plus chaotique, plusieurs signes tendent à l’accréditer. La multiplication des discours sur l’effondrement écologique réactualise la dystopie cyberpunk. Et l’une des réponses possibles aux vulnérabilités systémiques passe par un agenda sécuritaire, censé contenir la menace de chaos social6.
Ces éléments ne prouvent rien. Ce sont de simples indices faisant écho à l’intuition d’une régression techno-féodale. Un fil à tirer, une piste à explorer, un possible point de départ. Rien de plus. Mais un commencement, c’est déjà beaucoup s’il faut s’attaquer à l’une des principales questions d’économie politique de notre temps : qu’est-ce que le capitalisme et le numérique se font l’un à l’autre ? Comment recherche de profit et fluidité digitale interagissent-elles ? Se pourrait-il qu’un changement de logique systémique soit en train d’advenir et que nos yeux, troublés par l’enchevêtrement des crises du capitalisme, ne l’aient pas encore bien perçu ?
Ce livre explore cette hypothèse. Il est organisé en quatre temps. Le premier chapitre est celui de la déconstruction. Il s’agit de faire la généalogie du récit qui annonce un nouvel âge d’or du capitalisme grâce au numérique, et d’en dévoiler les apories. Nous vivons en pleine fantasy. Depuis les dernières années du XXe siècle, la Silicon Valley et ses start-up exercent une attraction magnétique sur l’imaginaire politique, offrant le lustre d’une jeunesse mythique au capitalisme tardif. Quelles sont les origines de cette idéologie ? Quels en sont les soubassements théoriques ? Quelles en sont les failles ?
Le deuxième chapitre porte sur les nouvelles formes de domination associées au numérique. Quels sont les ressorts de l’enracinement des conduites individuelles dans les territoires virtuels ? Comment les logiques de surveillance algorithmique s’articulent-elles aux logiques politiques et économiques ? Des grandes firmes californiennes au système de crédit social chinois, c’est un substrat social et politique entièrement nouveau dont il faut prendre la mesure.
Le troisième chapitre est consacré aux conséquences économiques de l’essor de ce que les économistes appellent les actifs intangibles, ces produits immatériels (logiciels, bases de données, marques déposées…) mobilisés bien au-delà du secteur des Techs. La mondialisation se manifeste par une dispersion internationale des processus productifs conduisant à la mise en concurrence des territoires et des travailleurs à l’échelle mondiale. En contrepoint de cette intensification de la compétition pour les subalternes, de puissantes logiques de monopolisation agissent en faveur des firmes multinationales qui contrôlent l’infrastructure informationnelle des chaînes globales de valeur. Tandis que le durcissement des droits de propriété intellectuelle restreint à leur profit l’usage des connaissances, l’industrialisation des processus informationnels nourrit des logiques rentières d’une puissance inédite, augurant d’un nouvel âge des monopoles.
Prenant acte de l’importance des mutations socioéconomiques à l’œuvre, le dernier chapitre du livre s’interroge sur leurs implications quant au devenir du capitalisme. La réflexion se situe ici au niveau de la logique du mode de production dans son ensemble, c’est-à-dire des contraintes politico-économiques qui pèsent sur les agents et des dynamiques qui en découlent. Une discussion approfondie du concept de féodalisme permet de faire ressortir les singularités du capitalisme et de mettre en évidence la résurgence paradoxale dans les sociétés contemporaines d’un métabolisme social de type médiéval : ce que j’appelle l’hypothèse techno-féodale.
« Et prompte à la manœuvre et peu procédurière,
Destinée à périr comme une aventurière. »
La Silicon Valley est le sobriquet donné au début des année 1970 à la zone située au sud de la baie de San Francisco, autour de la ville de San José, où se concentraient un grand nombre de firmes fabriquant des composants électroniques à partir de matériaux semi-conducteurs, dont le silicium. C’est là qu’Intel développe le premier microprocesseur, et que Steve Wozniak et Steve Jobs créent et commercialisent en 1976 leur premier ordinateur personnel, Apple I. Avec l’université Stanford, les sociétés de capital-risque de Sand Hill Road et le Ames Research Center où les ingénieurs de la NASA font fonctionner leurs supercalculateurs, c’est aussi un écosystème où les synergies entre recherche de pointe, investissements publics et entreprenariat privé jouent à merveille, attirant depuis des décennies des chercheurs et des ingénieurs du monde entier. Une dynamique exceptionnelle qui aboutit à ce que, dans ce petit territoire où résident moins de 4 millions d’habitants, se concentrent les sièges sociaux d’un nombre impressionnant de grandes sociétés high-tech telles qu’Alphabet, Facebook, Hewlett Packard, Netflix ou Tesla. C’est également là qu’on relève la plus grande densité de millionnaires et de milliardaires des États-Unis2.
Ce lieu singulier est le paradis des start-up. Véritable héroïne de notre temps, la start-up réalise l’unité immédiate de deux aspirations puissantes. D’une part, celle d’une pleine autonomie professionnelle, apportant la satisfaction d’une vie laborieuse à la fois intense et ludique et, d’autre part, celle d’une aventure collective où, si le risque d’échouer est grand, l’éclat lointain de l’invention et de la fortune fait valoir cette prise de risque. Gloire à ceux qui trouveront la formule magique : la bonne idée, au bon moment, susceptible de se répandre comme une traînée de poudre. La saga des jeunes pousses de la côte ouest étatsunienne devenues géantes nourrit cet imaginaire conquérant fait d’audace, d’ouverture d’esprit et d’opportunités.
Ce sont ces signifiés qu’Emmanuel Macron, fraîchement élu président de la République française, veut activer lorsqu’il tweete, en anglais, le 15 juin 2017 : « I want France to be a start-up nation. A nation that thinks and moves like a start-up3. » Pourtant, pris au sens littéral, le tweet présidentiel est une aberration ; le concept de start-up nation est un oxymore4. Le destin d’une start-up n’est-il pas d’échouer neuf fois sur dix ? C’est son principe même : lancer une entreprise innovante implique d’accepter un taux d’échec élevé pour un retour sur investissement potentiellement gigantesque. Si de tels risques peuvent être pris par des entrepreneurs individuels bien dotés, des grandes fortunes, des grandes firmes via des filiales ou des États via des programmes spéciaux, ce serait en revanche pure folie économique que d’engager un pays tout entier sur cette voie. Et pourtant, c’est à croire qu’engendrer une poignée de licornes – ces start-up valorisées à plus d’un milliard de dollars en dix ans – soit devenu le nec plus ultra d’une politique ambitieuse.
Cette nouvelle représentation des enjeux de politique économique en termes entrepreneuriaux résulte d’une évolution doctrinaire au sein des milieux en charge de leur élaboration. Le consensus keynésien de l’après-Seconde Guerre mondiale mettait l’accent sur le rôle de la politique budgétaire pour atteindre le plein-emploi. Le consensus de Washington de la fin du XXe siècle était obnubilé par la déréglementation, les privatisations et l’austérité pour parfaire le fonctionnement des marchés. Depuis les années 2000, le consensus de la Silicon Valley se focalise sur des enjeux d’innovation et d’entrepreneuriat dans l’économie de la connaissance5. Il prend pour matrice l’expérience californienne et convoque le puissant imaginaire qu’elle véhicule. Ceci, alors même que les évolutions socioéconomiques qu’il a suscitées débouchent sur une série de paradoxes qui minent ses postulats fondamentaux et annoncent son dépassement.
« Les faits idéologiques n’ont jamais été de simples chimères, mais la conscience déformée des réalités, et en tant que tels des facteurs réels exerçant en retour une action réelle déformante. »
Au début des années 2000, le projet de capitalisme global dans lequel les États-Unis ont enrôlé les élites politiques et économiques du monde entier est seul face à lui-même. Vainqueur par K.-O. sur le bloc soviétique, ses principes – libre-échange, libre circulation des capitaux, traitement égal des investisseurs, sans distinction de nationalité – sont mis en œuvre dans la plupart des pays7. Il est cependant fragilisé, à la fois par le bilan calamiteux des politiques issues du consensus de Washington et par les résistances qu’elles n’ont pas manqué de susciter.
Côté bilan, les différentes moutures des plans d’ajustement structurels menés depuis deux décennies en Amérique latine comme en Afrique n’ont en aucun cas favorisé leur développement. Dans la majorité des anciens pays socialistes d’Europe orientale, les thérapies de choc menées tambour battant par les experts occidentaux ont réussi à produire un effondrement économique dont, à quelques exceptions près, ces sociétés ne sont pas encore remises vingt-cinq ans plus tard8. Enfin, dans le sillage de la crise asiatique de 1997, les interventions brutales du Fonds monétaire international (FMI) ont pris pour cible les politiques non orthodoxes qui avaient permis un certain rattrapage industriel au cours des décennies précédentes. Non seulement les populations directement affectées se sont soulevées dans toute la région, mais une partie des élites des pays en développement ont ouvertement cherché à se dégager de l’influence des experts occidentaux. Pour échapper à l’emprise du FMI en cas de nouvelle crise, de nombreux gouvernements se sont alors engagés dans des politiques néomercantilistes afin d’accumuler des réserves de change. Chez les économistes, les critiques se sont intensifiées jusqu’au sein même des institutions internationales9, en écho aux mobilisations de rue qui se multipliaient. À cette époque, il n’est pas un grand rendez-vous international qui ne soit perturbé par des manifestations et des blocages, comme lors de la conférence de l’Organisation mondiale du commerce (OMC) à Seattle en 1999 ou du sommet du G8 à Gênes en 2002. Spectaculairement retransmises sur les écrans de télévision, ces protestations ont enterré l’idée d’une mondialisation heureuse et fissuré l’hégémonie de la doctrine qui la sous-tendait. En l’an 2000, l’euphorie en faveur du marché qui a salué la chute des pays de l’ex-bloc soviétique est complètement retombée.
Selon la fameuse formule d’Althusser, « l’idéologie représente le rapport imaginaire des individus à leurs conditions réelles d’existence10 ». Comme l’écrit un autre philosophe, Fredric Jameson, l’idéologie forme une « carte cognitive » qui permet aux individus de se représenter leur situation par rapport à une totalité plus vaste11. Ainsi, afin d’agréger des volontés et de devenir opérante, une idéologie qui se veut dominante doit offrir une perspective à la fois générale et pratique, c’est-à-dire proposer une vision du monde qui, en produisant du sens, permet de déployer des actions locales. Dans la nouvelle conjoncture, au tournant du siècle, pointer les défaillances des économies socialistes et des modèles de développement dirigistes ne peut plus suffire. Ce qui était le ressort idéologique central des décennies précédentes est périmé, depuis que le capitalisme est sans rival. On ne peut plus se contenter de proposer un retour à l’ordre naturel du marché selon la devise « stabilisation-libéralisation-privatisation ». Désormais, la fragilité est d’abord interne ; elle découle des oppositions que suscitent les politiques néolibérales et les crises à répétition qu’elles entraînent.
La doctrine qui prend forme au tournant du millénaire cherche son principe de légitimation dans la dynamique même du capitalisme. Le régime discursif positif qui est mis en place vise à fonder les pratiques économiques gouvernementales sur les vertus intrinsèques de ce que Marx appelait la « révolution permanente » du capital12. Pour consolider la légitimité d’un capitalisme à la fois triomphant et fragile, la voie idéologique choisie consiste à remettre au premier plan son devenir prométhéen, cette énergie révolutionnaire dont attestent alors le boom de la nouvelle économie aux États-Unis et la diffusion fulgurante d’Internet. Mais, à la différence du consumérisme de masse promis en son temps par Walt Whitman Rostow dans Les Étapes de la croissance économique13, ce processus vaut désormais pour lui-même, en tant que principe de régénérescence sociale et économique. On glorifie une grande épopée, dont l’expérience de la Silicon Valley offre une illustration édifiante. Ses héros sont les entrepreneurs, eux qui savent transmuer contre vents et marées la créativité humaine en un progrès technologique salvateur.
Stimuler cette force de propulsion technologique du capitalisme, tel est depuis le tournant du millénaire le nouvel horizon idéologique des politiques économiques. Cette doxa ne s’est pas écrite en un jour. Avant d’examiner comment elle s’est très largement diffusée jusqu’à se cristalliser, au tournant des années 2000, dans la littérature grise de l’Organisation de coopération et de développement économiques (OCDE), il faut retracer ses origines californiennes. C’est là-bas, dans la région de San Francisco, que se sont assemblées les particules élémentaires du noyau doctrinaire qui a permis à ce nouveau consensus de se propager sur toute la planète et de conserver bon an mal an sa force d’inertie jusqu’à la fin des années 2010, en dépit même du krach de la bulle Internet de 2001 et de la grande crise de 2008.
À la fin du XXe siècle, l’avènement d’Internet crée un nouvel espace social à la croisée de l’informatique, des télécommunications et des médias. Brusquement, les pratiques quotidiennes se transforment, de nouveaux avantages compétitifs surgissent, les informations empruntent des canaux inédits. Au milieu de tels bouleversements, ceux qui ont une interprétation à proposer ont de grandes chances d’être entendus. Cet état d’esprit explique la diffusion mondiale de ce que Richard Barbrook et Andy Cameron ont appelé l’« idéologie californienne14 ». Celle-ci est le produit de l’hybridation de la contre-culture hippie des années 1960 – elle-même ancrée dans un riche terreau de radicalité politique15 – et de l’adhésion enthousiaste des nouveaux entrepreneurs californiens aux principes du libre marché. C’est autour du potentiel apparemment libérateur des nouvelles technologies que ces deux cultures, que tout oppose à première vue, vont trouver un terrain d’entente.
Les dernières utopies. Publié en 1975, Ecotopia d’Ernest Callenbach est le dernier grand texte utopique du XXe siècle16. Nourri des alternatives qui fleurissent à cette époque un peu partout sur la côte ouest, le livre décrit un nouveau pays regroupant le nord de la Californie, l’Oregon et l’État de Washington. Ayant fait sécession du reste des États-Unis, c’est un territoire sans voiture, où le pouvoir est décentralisé, la consommation essentiellement locale, l’autogestion généralisée et les relations sexuelles non exclusives. La vie quotidienne est organisée en communautés autonomes, construites autour de familles élargies. Très au fait de l’état des connaissances technoscientifiques de l’époque, Callenbach décrit minutieusement un système productif écologiquement soutenable, notamment fondé sur la production locale d’énergie renouvelable et le recours à des équipements militaires de pointe qui assurent la défense de cette expérience politique radicale. Le récit traduit les aspirations de toute une génération à laquelle le productivisme, le consumérisme, l’autoritarisme et le conservatisme de la société étatsunienne font horreur. Il anticipe aussi la montée en puissance des préoccupations environnementales dans les modes de consommation.
Si une frange des hippies est profondément hostile aux avancées technoscientifiques et en appelle au retour à la nature, c’est loin d’être une attitude généralisée parmi eux. Certes, les ordinateurs sont pratiquement absents d’Ecotopia, mais les questions technologiques y sont omniprésentes. Cette technophilie se retrouve dans d’autres secteurs de la contre-culture californienne, plus sensibles aux balbutiements de la révolution numérique, et qui voient dans les nouvelles technologies de l’information les outils de réalisation de leur idéal libertaire. Les travaux visionnaires du théoricien des médias canadien Marshall McLuhan ont alors une grande influence. Dès le milieu des années 1960, il forge la métaphore du village global associant l’idée d’un réseau de communications horizontales planétaires à celle d’un écrasement des structures hiérarchiques. « Partout, écrit-il, nous commençons à renouer des relations interpersonnelles telles qu’elles existent dans le plus petit des villages. Ce sont des relations profondes, sans délégation de fonction ou de pouvoir17. » Dans cette perspective, c’est le changement technologique qui détermine l’émergence d’une forme de conscience collective à l’échelle de la société humaine :
Au terme de plus d’un siècle de technologie électrique, notre système nerveux central embrasse dans une unique étreinte la planète entière, abolissant à la fois l’espace et le temps. Nous approchons la phase terminale de l’extension de l’homme – le stade de la simulation technologique de la conscience, quand le processus créatif de la connaissance sera collectivement incorporé et étendu à l’ensemble de la société humaine, de la même manière que la portée de nos sens et de nos nerfs est déjà augmentée par les différents médias18.
McLuhan associe prophétisme technologique, augmentation de la puissance individuelle et refus de l’autorité, affirmant par exemple que « la marque de notre temps est le rejet de toute forme de modèles imposés19 ». Il offre ainsi à la fraction technophile des hippies une vision du monde qui fait cohabiter l’aspiration radicale à l’autonomie individuelle et la mise en partage de la créativité de chacun à l’échelle globale, sans en passer par une quelconque forme de délégation de pouvoir ou de subordination. Ce tour de force explique pourquoi l’engagement dans des médias communautaires alternatifs ou dans des clubs informatiques est alors vécu comme participant d’un même combat pour une démocratie authentique. Cette grille de lecture permet également de comprendre que l’engouement californien pour les technologies de l’information et de la communication (TIC) à partir des années 1970 semble prolonger les mouvements sociaux dans lesquels les étudiants s’étaient investis en masse au cours de la décennie précédente. Il s’agit de projeter à l’échelle globale les aspirations communautaires et antiautoritaires de la contre-culture, en donnant aux individus augmentés technologiquement les moyens de s’émanciper des grandes entreprises et du Big Government.
Steward Brand : de l’épopée Whole Earth au Global Business. Au milieu des années 2010, des réminiscences de l’aspiration techno-libertaire des années 1960 existent encore ici ou là, au titre de fossiles. Lorsque des dirigeants de Google affirment que le numérique va « déconcentrer le pouvoir loin des États et des institutions et le transférer aux individus20 », ils ne font que réitérer les promesses faites par McLuhan cinquante ans plus tôt. Mais le monde dans lequel ils s’expriment n’a plus grand-chose à voir avec celui de l’élan d’émancipation d’alors. L’optimisme technologique est désormais souvent associé à des motifs politiques ancrés à droite.
Plusieurs passerelles ont permis qu’une partie du souffle de la contre-culture californienne des années 1960 contribue à renouveler la pensée conservatrice à partir des années 1990. Parmi celles-ci, la trajectoire de Stewart Brand est emblématique21. Né en 1938, diplômé en biologie de l’université Stanford en 1960, il part faire son service militaire, puis revient étudier le design et la photographie à San Francisco où, entre autres aventures, il organise le mémorable Trips Festival de janvier 1966. À cette occasion, des milliers de personnes se pressent pour participer à des acid tests et assister à un grand spectacle multimédia où des performances rock, comme celle des Grateful Dead, se mêlent à la projection de films psychédéliques. En 1968, Brand participe à ce qu’on appelle depuis la « mère de toutes les démos », une démonstration informatique menée par Douglas Engelbart, du Stanford Research Institute, lors de laquelle les principaux dispositifs qui allaient former les ordinateurs personnels sont exposés : la souris, le traitement de texte, les fenêtres de navigation, les liens hypertextes…
Brand est aussi à l’origine d’une campagne exigeant que la NASA rende publiques des photos de la planète Terre tout entière (whole earth), vue de l’espace, afin d’accélérer la prise de conscience écologique. Dans la foulée, à la faveur d’un road trip dans les communautés hippies, il met en circulation le Whole Earth Catalogue, qui répertorie tous les objets jugés utiles et les moyens de se les procurer. Le livre connaît un succès phénoménal et devient un emblème de l’esprit do-it-yourself de l’époque. Après avoir lancé d’autres publications, il cofonde en 1985 le WELL (Whole Earth ‘Lectronic Link), un des tout premiers forums de discussion en ligne, devient chercheur invité au Media Lab du MIT, et donne une série de conférences auprès de grandes multinationales comme Shell et AT&T. En 1987, il est l’un des fondateurs du Global Business Network, une firme de consulting basée à Berkeley qui propose d’aider les organisations à saisir les opportunités des changements technologiques et sociaux en vue d’une « croissance soutenable pour un avenir meilleur22 ». Depuis, il se consacre à des conférences et des publications sur la pensée à long terme lors desquelles il popularise des arguments en faveur de la géo-ingénierie et de l’énergie nucléaire.
Le déplacement depuis les communautés hippies jusqu’à l’accompagnement des forces économiques et politiques dominantes dans la conduite du changement, qu’illustre si bien la biographie de Stewart Brand, prend un caractère organique au début des années 1990, dans un contexte marqué par une translation à droite des enjeux politiques structurants en Californie23. C’est en effet à cette époque, entre 1993 et 1995, que se noue une véritable alliance entre, d’une part, les réseaux technophiles issus de la contre-culture et, d’autre part, les milieux d’affaires ainsi que la nouvelle droite du Parti républicain autour du magazine Wired, de la Progress & Freedom Foundation et du politicien républicain Newt Gingrich24. Ce qui prend forme alors, c’est une lecture conservatrice des potentialités de la nouvelle culture informatique.
Au début des années 1990, la situation économique étatsunienne est morose. Paul Krugman publie un livre intitulé The Age of Diminished Expectations dans lequel il dresse un constat désillusionné25. L’économie du pays n’offre plus le genre de progrès que les générations précédentes tenaient pour acquis. Pour la majorité de la population, la stagnation des standards de vie est devenue la norme, et la réalité est même souvent celle d’un déclin de leur pouvoir d’achat. Dans la plupart des esprits, la cause principale de cette conjoncture maussade, c’est la faiblesse de la productivité. Et en effet, selon le célèbre aphorisme de Robert Solow, « les ordinateurs sont partout sauf dans les statistiques ».
Cependant, sur les marchés de capitaux, un frémissement apparaît. Dès 1992, le nombre d’introductions en Bourse et les fonds levés par de nouvelles start-up augmentent massivement26. Cet optimisme des investisseurs constitue l’arrière-plan de la transformation idéologique en cours.
De sa création en 1993 à sa dissolution en 2010, la Progress & Freedom Foundation (PFF) est un acteur clé pour la cristallisation d’une idéologie de droite associée à la révolution numérique. Financée par les grandes entreprises de l’informatique, des communications et des médias telles que Microsoft, AT&T, Walt Disney, Sony, Oracle, Vivendi, Google et Yahoo !, cette organisation a pour mission d’influencer les décideurs politiques et l’opinion publique sur les questions technologiques, en combinant une perspective conservatrice classique et une appréciation enthousiaste de la révolution digitale27. Les 23 et 24 août 1994, la PFF organise à Atlanta une conférence intitulée « Cyberspace and the American Dream » qui débouche sur un ouvrage sous-titré A Magna Carta for the Knowledge Age. Esther Dyson, George Gilder, Alvin Toffler et George Keyworth en sont les cosignataires. Les trois premiers ont la particularité d’être à la fois essayistes ou commentateurs et investisseurs ; ils circulent entre les milieux technoscientifiques et les milieux d’affaires et se retrouvent occasionnellement dans les colonnes de Wired. Ce magazine est né, comme la PFF, en 1993 et traite des nouvelles technologies des points de vue de l’économie, de la culture et de la politique ; c’est le principal organe de presse de popularisation de l’idéologie californienne. Le quatrième auteur, George Keyworth, est un ancien conseiller scientifique de Ronald Reagan qui travaille pour la fondation. Ensemble, ils produisent un document pensé comme un véritable manifeste, qui va exercer une influence importante. En voici la substance28.
La « charte » commence par reprendre l’idée, en vogue depuis plusieurs décennies, que l’âge de l’information succéderait à ceux de l’agriculture et de l’industrie29. Le principal événement du XXe siècle serait ainsi la « chute de la matière » :
Dans les domaines de la technologie, de l’économie, des politiques nationales, la richesse – au sens physique du terme – a perdu sa valeur et sa signification. Partout, les pouvoirs de l’esprit prennent le dessus sur la force brute des choses.
Les bouleversements potentiels sont énormes car « le cyberspace est un environnement bioélectronique qui est littéralement universel » ; occupé par des idées que l’on parcourt avec des logiciels, il ouvre une nouvelle frontière, vers le « territoire de la connaissance », que chacun doit être en mesure d’explorer.
Cependant, pour que ce nouvel âge de la connaissance délivre ses promesses, les attitudes du passé doivent être abandonnées. « Cela confère aussi aux dirigeants des démocraties avancées une responsabilité particulière – celle de faciliter, accélérer et expliquer la transition. » Et cela tombe bien, car le but de la Magna Carta est justement de leur donner des lignes directrices pour accomplir cette mission. En permanence, le texte joue sur une ambivalence entre descriptif et prescriptif ; il analyse et exige en même temps le retrait de l’État, une intensification de la concurrence et une grande cavalcade entrepreneuriale, porteuse de solutions technologiques aux problèmes pressants de l’humanité et, plus immédiatement, aux difficultés des États-Unis. On pense aux paroles prononcées par Jean-Pierre Léaud dans le film de Philippe Garrel, La Naissance de l’amour :
En réalité, on ne sait jamais ce qu’il se passe, on sait simplement ce qu’on veut qu’il se passe et c’est comme ça que les choses arrivent. En 17, Lénine et ses camarades ne disaient pas : « Nous allons faire la révolution parce que nous voulons la révolution. » Ils disaient : « Toutes les conditions de la révolution sont réunies, la révolution est inéluctable. » Ils ont fait la révolution qui n’aurait jamais eu lieu s’ils ne l’avaient pas faite, et qu’ils n’auraient pas faite s’ils n’avaient pas pensé qu’elle était inéluctable uniquement parce qu’ils la voulaient30.
À la manière des bolcheviks, les auteurs de la Magna Carta annoncent et prescrivent dans le même geste. Leur premier décret porte sur la mort d’une institution centrale de la vie moderne : l’organisation bureaucratique. Pendant près d’un siècle, les amoureux de la liberté ont souffert de l’hégémonie des valeurs de conformité associée à la société industrielle de masse ; ils tiennent maintenant leur revanche : « Les nouvelles technologies de l’information font que les coûts financiers de la diversité – pour les produits comme pour les personnes – tendent vers zéro, “démassifiant” ainsi nos institutions et notre culture. » Car il faut prendre acte du fait que la complexité du nouveau monde social « est trop grande pour qu’une quelconque bureaucratie centralisée puisse la gérer ». Outre la mise au rebut des projets socialistes, cela signifie un retrait massif de l’État. La Magna Carta prédit ainsi qu’« un gouvernement de la troisième vague sera considérablement plus petit (peut-être de 50 %, ou davantage) que l’actuel – c’est une conséquence inévitable du passage des structures de pouvoir centralisées de l’âge industriel aux institutions dispersées, décentralisées de la troisième vague ».
Les quatre auteurs jouent ici d’un déterminisme technologique assez rudimentaire. Déjà, à la fin du XIXe siècle, beaucoup ont pensé que l’apparition de l’électricité permettrait un retour en grâce de l’artisanat qui, grâce à l’accès à de l’énergie électrique distribuée, redeviendrait compétitif face aux grandes unités industrielles qui disposaient de leurs propres sources d’énergie31. En 1993, dans une interview donnée à Wired, George Gilder considère Internet comme une « métaphore de l’ordre spontané » de Friedrich Hayek, le réseau montrant selon lui « qu’il est possible d’avoir un dense tissu de services sans un système de contrôle disciplinaire. Quand il y a beaucoup d’intelligence à tous les bouts, alors le réseau lui-même peut être assez simple »32.
À cette intuition s’ajoute, dans la Magna Carta, l’idée que le cyberspace est constitué de marchés en perpétuelle mutation. Les effets du progrès technologique engendrent une dynamique de « destruction créatrice » à la Schumpeter, la compétition faisant de tous des gagnants ou des perdants, à l’échelle planétaire. Et de donner l’exemple de l’industrie informatique aux États-Unis. En 1980, celle-ci était dominée par une poignée de grandes firmes. Une décennie plus tard, l’effondrement de leurs parts de marché, à commencer par celles d’IBM, est spectaculaire. D’abord interprété comme un symptôme du déclin américain, ce bouleversement annonçait en fait l’inverse. Avec l’apparition de l’ordinateur personnel commençait la renaissance du leadership technologique américain face à ses concurrents asiatiques et européens :
Lors du passage des ordinateurs centraux aux PC, un nouveau marché d’importance a été créé. Ce marché se caractérisait par une compétition dynamique consistant en un accès facile et des barrières réduites à l’entrée. Des start-up par douzaines se sont affrontées aux grandes entreprises bien établies – et elles ont gagné.
La leçon est claire : les États-Unis doivent la prééminence de leur industrie informatique sur le reste du monde à la concurrence dynamique qu’ils ont su préserver sur leur marché domestique. Dès lors, « s’il doit y avoir une “politique industrielle pour l’âge de la connaissance”, celle-ci doit ambitionner de supprimer les obstacles à la concurrence et de déréguler massivement les industries des télécommunications et de l’informatique, en pleine croissance ». Le principal objectif des gouvernements doit donc être de laisser s’épanouir, voire de stimuler, une telle concurrence dynamique.
Cela ne signifie pas pour autant qu’ils restent inertes. Pour développer ce troisième niveau d’argumentation, les auteurs font appel à l’icône libertarienne Ayn Rand33. Les gouvernements doivent créer des droits de propriété clairs et opposables – adjuvants indispensables au bon fonctionnement des marchés : « Créer le nouvel environnement du cyberspace, c’est créer une nouvelle forme de propriété – c’est-à-dire de nouveaux moyens de créer des biens (y compris des idées) qui profitent aux gens. » Les droits de propriété intellectuelle, les fréquences électromagnétiques et les réseaux d’infrastructures sont les nouveaux objets qui doivent être pris dans les rets de la propriété. L’essentiel, expliquent-ils, est que « le principe clé de la possession par les gens – propriété privée – devrait commander toutes les discussions. Le cyberspace n’appartient pas au gouvernement mais aux gens » ; autrement dit, la propriété privée est seule fondée à se saisir du cyberspace, mais cela passe par une action positive du gouvernement pour la définition de ces nouveaux droits.
La référence à Ayn Rand est très significative. Autrice de romans allégoriques diffusés à des dizaines de millions d’exemplaires, disparue en 1982, ses idées sont extrêmement influentes aux États-Unis. L’axe principal autour duquel elles s’articulent oppose les pionniers – les hommes d’esprit – et les suiveurs – les hommes de la masse34. Lorsque les auteurs de la Magna Carta parlent de nouveaux droits de propriété à établir, il s’agit de ceux des « hommes d’esprit » du nouvel Eldorado qu’est le cyberspace. Les entrepreneurs de la Silicon Valley se complaisent dans le miroir que leur tendent les héros randiens35. L’image qu’ils y voient est celle, excitante et glorieuse, de leur supériorité. Le concept de disruption qu’ils chérissent est étroitement associé à tout ce que Rand valorise : la capacité à prendre des paris, à bouger avant tout le monde, et à forger le futur en ne s’appuyant que sur ses propres intuitions. Le versant destructeur du concept de disruption est complètement assumé puisqu’il s’agit de renverser au nom de l’innovation, dans un esprit schumpetérien, les règles établies. De Google jusqu’à Uber en passant par Facebook, les entreprises de la Silicon Valley ne se sont ainsi pas privées d’agir hors de tout cadre légal, voire contre les règles existantes, pour imposer leurs innovations par le fait accompli36.
Georges Montbiot va à l’essentiel lorsqu’il écrit qu’Ayn Rand « a produit la plus horrible philosophie de l’après-guerre. Selon elle, l’égoïsme est le bien, l’altruisme est le mal, l’empathie et la compassion sont irrationnelles et destructrices. Les pauvres méritent de mourir, et les riches ont droit à un pouvoir sans restriction37 ». C’est précisément cette philosophie qui inspire l’idéologie de nombreux entrepreneurs californiens, qui se pensent investis de la mission historique que trace la Magna Carta – rien moins que la création d’une nouvelle civilisation fondée sur les vérités éternelles de l’« idée américaine ».
Newt Gingrich a assisté à la conférence d’Atlanta, à l’origine de la Magna Carta. C’est une figure centrale de la droite américaine, depuis ses batailles pour radicaliser le Parti républicain dans les années 1980 jusqu’à son soutien à la candidature victorieuse de Donald Trump à la présidence des États-Unis en 2016. En 1995, un an après cette conférence, il est au faîte de sa puissance : président de la Chambre des représentants, il est désigné comme étant l’homme de l’année par Time Magazine. Il accorde alors une interview à Wired dans laquelle il affirme : « Si nous parvenons à construire une Amérique exaltante, en phase avec l’ère de l’information et prépondérante sur le plan économique, alors le reste du monde nous suivra38. » Cette déclaration témoigne du moment où l’idéologie californienne devient mondialement prépondérante, en fournissant une large part du substrat narratif justifiant les nouvelles politiques économiques qui ne vont pas tarder à être déployées. C’est en effet au cours de cette même année 1995 qu’Ira Magaziner, un consultant pour de nombreuses firmes hi-tech, est mandaté par le président Clinton pour définir une stratégie de croissance, mission qui débouche sur un document-cadre pour un commerce électronique mondial, rendu public en 199739.
Ce texte marque un véritable tournant pour l’administration Clinton. Alors que, dans sa position initiale, les technologies de l’information étaient abordées dans une perspective sectorielle de constitution d’avantages technologiques, désormais, l’idée d’un régime de croissance propre au numérique et radicalement distinct de celui qui caractérisait l’âge des industries manufacturières prévaut.
Durant la campagne de 1992, Bill Clinton obtient le soutien d’un nombre important de dirigeants d’entreprises de l’électronique et de l’informatique en leur faisant miroiter une politique industrielle d’inspiration traditionnelle menée en leur faveur. Le New York Times explique alors que « la politique technologique de M. Clinton, élaborée en concertation avec les leaders du secteur, est guidée par la conviction que le gouvernement fédéral doit jouer un rôle plus important dans le développement de l’industrie et des marchés40 ». Les mesures envisagées comprennent des baisses fiscales ciblées, des subventions pour des programmes technologiques précis, des investissements publics dans les infrastructures, mais aussi un durcissement de la politique commerciale extérieure des États-Unis. En effet, au début des années 1990, les entreprises informatiques accusent leurs compétiteurs internationaux de concurrence déloyale et attendent de la future administration Clinton les mesures antidumping que l’administration Bush leur refuse.
Cinq ans plus tard, les principes de la seconde administration Clinton en matière de commerce électronique révèlent un basculement complet dans le sens de la Magna Carta. Le problème n’est plus la défense d’un leadership technologique, mais la création d’un environnement adéquat pour une nouvelle révolution industrielle qui fera émerger une « communauté globale » et transformera radicalement le commerce grâce à la réduction des coûts de transaction. L’objectif de la stratégie définie dans le document-cadre de 1997 est d’accompagner cette révolution et, surtout, d’empêcher que des réglementations excessives ne viennent entraver le dynamisme du marché électronique global qui est en train de se constituer. L’idée même de politique industrielle est abandonnée au profit d’une série de préceptes qui nous sont devenus familiers : « C’est le secteur privé qui doit être à l’initiative » ; « les gouvernements doivent se garder de toute restriction abusive » ; « lorsque l’intervention publique est requise pour faciliter le commerce électronique, son objectif doit être de favoriser la concurrence et d’assurer la protection des droits de propriété intellectuelle » ; « les gouvernements doivent reconnaître le caractère exceptionnel d’Internet », à savoir « sa nature décentralisée et sa gouvernance ascendante ».
À cela s’ajoute une touche internationaliste insistant sur l’importance de doter le marché électronique global d’un cadre juridique cohérent par-delà les frontières. Ce dernier élément est très important car, étant donné le leadership des États-Unis dans les affaires internationales, c’est un programme d’action à proprement parler mondial qui est mis en branle avec, notamment, l’accord sur les technologies de l’information de Singapour, qui acte dès mars 1997 la suppression des droits de douane sur les produits manufacturiers associés aux technologies de l’information et sur les logiciels.
Le 24 août 1998, Ira Magaziner prononce un discours lors d’une nouvelle édition de la conférence « Cyberspace and the American Dream » organisée par la Progress & Freedom Foundation41. Il y explique son action au sein de l’administration Clinton sur les questions liées au commerce électronique, et évoque le travail engagé au niveau international pour faire advenir une architecture institutionnelle commune pour Internet et le commerce mondial. Dans la droite ligne de l’orientation randienne de la Magna Carta, il conclut sur la nécessité de « s’appuyer d’abord et avant tout sur le marché et sur l’autorégulation », ce qui implique « que les gouvernements se mettent d’accord sur quelque chose qui leur est très difficile de faire, à savoir accepter de ne pas agir ». Ce motif techno-libéral devient alors le cadre dans lequel se traitent les questions d’innovation dans les politiques économiques.
L’importance accordée aux questions d’innovation à l’OCDE et dans les cercles gouvernementaux n’a pas diminué depuis deux décennies. Ni le krach de la bulle Internet, ni les scandales comptables révélés dans son sillage, ni la grande crise de 2008 n’influèrent véritablement sur cet agenda, aujourd’hui encore actif. Dans un rapport de 2015, intitulé L’Impératif d’innovation, l’OCDE explique pourquoi :
L’innovation fournit les bases pour la création d’entreprises et d’emplois, ainsi que pour les gains de productivité, et c’est un moteur important de la croissance et du développement économique. Elle peut contribuer à répondre à certains problèmes sociaux et mondiaux pressants, tels que l’évolution démographique, les risques sanitaires, la raréfaction des ressources et le changement climatique42.
Il n’y a pas grand-chose de neuf dans ces platitudes sur les bienfaits du progrès technologique, censé à la fois dynamiser le développement économique et répondre aux grands problèmes de la planète43. Cette vision n’a rien d’inédit : elle a fait l’objet dans les années 1990 de travaux extrêmement stimulants portant sur les systèmes nationaux d’innovation44. Cette approche s’intéressait aux configurations institutionnelles et historiques qui sous-tendent les performances économiques et technologiques des différents pays. Elle étudiait les stratégies des grands acteurs (les firmes, les universités, les laboratoires de recherche), les politiques publiques et les équilibres sociopolitiques dans le but d’expliquer les trajectoires nationales. Par exemple, le soubassement de l’avancée technologique américaine, le rattrapage spectaculaire du Japon après la Seconde Guerre mondiale ou bien la spécialisation de long terme de l’Allemagne dans les industries mécaniques. Un tel cadre d’analyse est donc aux antipodes des préceptes néolibéraux qui louent l’autonomie des mécanismes marchands.
La nouvelle orthodoxie adoptée par l’OCDE rompt entièrement avec cette perspective systémique sur les dynamiques d’innovation. L’organisation basée à Paris rappelle dans toutes ses publications sur le sujet qu’une politique robuste en faveur de l’innovation exige une gestion macroéconomique saine, des marchés concurrentiels, une ouverture au commerce et aux investissements internationaux. Sa doctrine prolonge donc le consensus de Washington, mais elle y greffe un supplément qualitatif sous forme d’optimisme technologique. Elle n’a pas de manifeste à proprement parler, mais le compte rendu d’un workshop informel qui s’est tenu au siège parisien de l’OCDE les 6 et 7 juillet 2000 peut en tenir lieu45. Lors de cette rencontre, les participants confrontent leurs vues sur les causes de la croissance dans le contexte de la diffusion des technologies de l’information et de la communication. L’objectif est de comprendre le dynamisme de l’économie américaine depuis 1995, qui contraste avec l’instabilité généralisée dans les pays du Sud et l’atonie du reste du monde riche. Ils concluent que le succès étatsunien est à chercher du côté de l’innovation. Bien que l’importance de la recherche et de l’éducation soit mentionnée, la discussion se focalise surtout sur trois autres éléments, qui deviennent les piliers de la doctrine alors en formation.
Premièrement, le rapport note que « l’idée schumpetérienne de destruction créatrice […] permet de comprendre comment des développements au niveau des firmes et des établissements ont pu se transposer au niveau agrégé sous forme d’amélioration de la productivité46 ». En d’autres termes, les auteurs attribuent l’essentiel de l’amélioration de l’efficacité productive au remplacement des firmes les moins performantes par des entreprises innovantes. C’est un point clé, qui fait la jonction entre la question de l’innovation et celle de l’entreprenariat. Il conforte la croyance selon laquelle le processus d’innovation procède avant tout de l’entrée sur le marché de nouvelles firmes, libres de tout héritage organisationnel et donc suffisamment agiles pour porter la disruption au cœur de secteurs industriels établis. Il fait aussi écho à une nouvelle génération de travaux théoriques, initiés notamment par Philippe Aghion et Peter Howitt, qui modélisent les trajectoires de croissance à partir des mécanismes de destruction créatrice associés à la diffusion des innovations47.
Deuxièmement, les auteurs concluent que « la performance relativement forte des États-Unis est probablement associée à des institutions qui favorisent le déplacement de ressources au sein et entre les secteurs en réponse à l’innovation ». Ils insistent ce faisant sur la flexibilité des économies, c’est-à-dire sur le rôle d’institutions favorisant non seulement la concurrence sur le marché des produits, mais également la mobilité du travail et du capital. Pour permettre une meilleure réactivité dans l’allocation des ressources et une diffusion accélérée des innovations, le marché du travail doit être le plus flexible possible. L’argument vaut aussi pour le capital, et plaide en faveur d’un développement accru du système financier. Il est en particulier souligné que « faciliter l’accès des jeunes firmes au financement tend à fragiliser la position des firmes en place ». La réussite des États-Unis est ainsi attribuée à la libéralisation financière, étant donné que « la rapide réallocation des ressources vers les secteurs de la “nouvelle économie” n’aurait sans doute pas été possible avec un système financier moins développé ».
Troisièmement, le document met en avant « le système de brevets et, plus généralement, la définition et la protection des droits de propriété ». La question sous-jacente est celle de l’appropriation des rentes d’innovation, en lien avec leur rôle incitatif. Dans la lignée des travaux néoschumpetériens sur la croissance déjà évoqués, est relevé le risque que le rythme de destruction soit trop rapide, au point de décourager l’innovation48. Il s’agit donc de faire en sorte que les éventuels gains associés au succès de l’activité créatrice soient suffisamment garantis, ce qui plaide en faveur d’une faible fiscalité sur le capital et de droits de propriété intellectuelle stricts.
L’originalité de cette nouvelle doctrine de l’innovation tient ainsi à son insistance sur la notion de destruction créatrice. Outre la flexibilité des marchés, ce que les économistes réunis par l’OCDE à l’été 2000 retiennent du boom de la nouvelle économie aux États-Unis, ce sont les effets bénéfiques de la concurrence et des incitations sur l’innovation. Cette leçon – largement biaisée – va rapidement se diffuser dans les différents pays par l’intermédiaire de groupes d’experts en charge des réformes structurelles49.
Résumons. Depuis le tournant des années 2000, une nouvelle doctrine inspire les politiques économiques. Le consensus de la Silicon Valley est un dépassement du consensus de Washington. Il met davantage l’accent sur l’efficience dynamique du capitalisme en tant que mouvement de destruction créatrice que sur l’efficience statique de l’allocation des ressources par le marché. Ce faisant, cette doctrine élargit ses prescriptions au-delà du triptyque stabilisation-libéralisation-privatisation pour accorder une place centrale à la question des incitations. Dès lors, les principes de sobriété de l’intervention publique, de libération des énergies entrepreneuriales, de flexibilité des marchés des produits, du travail et du capital, ainsi que de protection des droits de propriété des innovateurs orientent les politiques publiques caractéristiques du consensus de la Silicon Valley.
« Les échecs éclatants et répétés d’un gouvernement, quel qu’il soit, contribuent à la perte de celui-ci. »
La force de propulsion du consensus de la Silicon Valley provient de sa prétention à donner un sens au déploiement des technologies numériques tout en s’appuyant sur le pouvoir évocateur de l’expérience californienne. La Silicon Valley, ou plutôt sa représentation enchantée, est la vitrine du nouveau capitalisme : une terre d’opportunité où, grâce aux start-up et aux sociétés de capital-risque, les idées fleurissent librement, les emplois abondent et les développements high-tech profitent au plus grand nombre. C’est à la lumière de cette expérience présumée heureuse que la prise de risque individuelle et l’appât du gain sont valorisés au nom du principe supérieur de l’innovation. Ce mythe peut être décomposé en cinq éléments fondamentaux : 1) la redynamisation continue des structures économiques grâce à la soif d’aventure des start-upers ; 2) l’apologie de l’autonomie et de la créativité au travail ; 3) une culture d’ouverture et de mobilité ; 4) la promesse d’une prospérité partagée ; enfin, 5) l’idéal d’un dépérissement de l’État. Or, comme nous allons le voir, le devenir effectif du nouveau capitalisme prend l’exact contre-pied de chacun de ces mythes. En découlent cinq paradoxes révélant autant d’apories sur lesquelles se heurte en définitive le consensus de la Silicon Valley.
Au cours de l’été 2017, l’éviction d’un critique de Google d’une fondation dédiée à l’adaptation à l’âge digital, en partie financée par la firme de Moutain View, a fait grand bruit. Barry Lynn, un analyste engagé de longue date contre les monopoles, fut remercié par la directrice de la fondation New America peu de temps après avoir publié un article dans lequel il saluait l’amende record de 2,4 milliards d’euros infligée en juillet 2017 par la Commission européenne au moteur de recherche pour abus de position dominante. Ce cas n’est pas isolé. Il illustre l’effort discret mais généralement couronné de succès de Google de faire taire les critiques en finançant généreusement think tanks et autres groupes de pression51. Barry Lynn et l’équipe de l’Open Market Institute qu’il dirige ont pris leur indépendance et continuent de documenter, via leur plateforme en ligne, le processus de monopolisation en cours, dressant un parallèle entre les nouveaux nababs de la Silicon Valley et les John Rockefeller, Andrew Carnegie et autres « barons voleurs » du tournant du XXe siècle. Ils contribuent ainsi activement à l’émergence d’un espace politique antimonopoles qui ne se cantonne plus à la gauche du Parti démocrate52. Lors de l’édition 2018 du World Economic Forum de Davos, le milliardaire George Soros s’est livré à un réquisitoire implacable à leur endroit : les monopoles de l’ère Internet, tout en fournissant des services d’intérêt général cruciaux, entravent l’innovation, le bon fonctionnement des marchés, et constituent une menace pour les libertés individuelles et la démocratie ; selon lui, il est inévitable qu’une nouvelle réglementation et de nouveaux principes fiscaux viennent rapidement mettre un terme à cette situation53. Sur un ton plus ironique, The Economist, prenant acte que ces plateformes sont décidément « too BAADD » (pour Big, Anti-competitive, Addictive and Destructive to Democracy), a publié un mémo pastiche à destination des P.-D. G. de Facebook, Google et Amazon dans lequel il détaille les options stratégiques dont ceux-ci disposent face à un retour de bâton considéré comme inéluctable54.
L’aporie de la start-up. C’est un fait, les sympathiques start-up d’hier sont devenues de féroces monopoles. Ce revirement a imprimé une brutale dissonance idéologique dans le consensus de la Silicon Valley. Ce dont il est question ici, c’est la fragilité de la figure politique de la start-up. Si elle incarne un idéal de réalisation professionnelle et économique – l’engagement enthousiaste dans le travail, la possibilité de la richesse individuelle –, la start-up, à l’instar de la jeunesse, n’est jamais qu’un moment passager. Les start-up qui réussissent passent vite du statut de jeunes pousses à celui de vieilles branches. Leur succès les prive des qualités d’agilité et de souplesse attribuées aux petites structures, pour leur en faire acquérir d’autres, propres aux grandes unités économiques, telles que la résilience. Si donc elles ne disparaissent pas, les start-up sont prises dans le processus de concentration et de centralisation du capital, c’est-à-dire la nécessité de croître, que ce soit par l’investissement interne ou par la fusion avec d’autres unités économiques. La start-up n’a rien à voir avec la petite entreprise pouvant prospérer modestement et durablement en servant un marché local et en assurant un revenu raisonnable à son propriétaire. Branché sur les avancées de la recherche, ce genre de projet ne tient qu’à condition de transmuter l’influx technique ou scientifique initial en une puissance économique susceptible de se déployer à grande échelle. Cette opération s’effectue sous la pression de sociétés d’investissement en capital-risque, ou de business angels ayant engagé une part de leur fortune personnelle. Ceux-ci n’acceptent la forte probabilité d’échec qu’en échange d’une stratégie de profit ambitieuse, dont le succès conduit à la mutation de la start-up en une grande firme classique ou à son absorption au prix fort par une société de plus grande taille.
Qu’advient-il de la start-up devenue grande ? L’impératif de valorisation du capital qui constitue au départ un accélérateur de croissance n’en demeure pas moins impétueux par la suite. L’audace initiale se mue alors, quand l’élan se ralentit, en appétit vorace pour l’appropriation des projets des autres. YouTube est acquis par Google en 2006 ; WhatsApp est acheté par Facebook ; Apple a déjà pris possession d’une centaine de firmes, parmi lesquelles l’application de reconnaissance musicale Shazam ; Microsoft s’est emparé de Skype en 2011 ; et Amazon compte parmi ses très nombreuses prises AbeBooks, une librairie en ligne spécialisée dans les livres anciens, ainsi que Whole Foods, une chaîne de supermarchés bio haut de gamme. La longue liste des nouveaux services absorbés par les géants d’Internet est révélatrice d’un changement de conjoncture. Ce n’est pas simplement que les start-up d’hier sont devenues grandes. Les travaux sur l’évolution des structures industrielles indiquent en outre un mouvement général de consolidation.
Un regain de la dynamique concurrentielle dans le dernier quart du XXe siècle. Jusqu’aux années 1980, la tendance dominante est à l’intégration. La figure paradigmatique de cette époque est la grande firme multidivisionnaire, intégrée verticalement, qu’Alfred Chandler a étudiée dans La Main visible des managers55. Cette phase est caractérisée par une certaine stabilité des organisations. Ainsi, aux États-Unis, la plupart des entreprises qui dominaient leur secteur industriel en 1919 occupaient toujours une position de leader en 196956. Bien sûr, cette stabilité n’est pas absolue. Il existe un certain turnover, des firmes disparaissant ou étant absorbées, tandis que de nouveaux entrants trouvent leur place, en raison notamment de la montée en puissance de certains secteurs. Mais cette mobilité interne liée aux mutations qualitatives des activités de production s’accélère brusquement à partir de la fin des années 1970. Dans plusieurs pays de l’OCDE on observe alors une diminution de la taille des entreprises. On constate également un plus grand nombre de créations et de disparitions de firmes, ce qui signale de grandes turbulences dans le tissu économique. Enfin, la mondialisation s’accompagne d’une certaine déconcentration des grandes multinationales en termes de parts de marchés57.
Pour rendre compte de cette séquence de reprise de la dynamique concurrentielle dans les années 1980 et 1990, cinq explications ont été avancées : les deux premières, d’ordre général, pointent la spécificité des technologies de l’information et de la communication et une phase d’onde longue capitaliste ; les trois autres renvoient à des caractéristiques du dernier quart du XXe siècle, notamment les rattrapages industriels successifs de l’Europe et d’une partie de l’Asie, la restauration de l’hégémonie financière et les effets des politiques néolibérales.
La première explication s’inscrit dans la lignée du consensus de la Silicon Valley, qui associe la convergence des TIC avec le délitement des vieilles structures économiques concentrées et la vitalité durable des petites unités diversifiées. L’intensification de l’activité entrepreneuriale serait ainsi due aux moindres avantages de l’intégration et à la plus grande facilité du recours à l’échange marchand, grâce à la baisse des coûts de communication et à l’amélioration des processus logistiques. À cela s’ajoute une diversification de la demande résultant de la hausse des revenus, mais reflétant aussi un phénomène de démassification liée à la diversification des préférences individuelles58. Selon ce modèle, les caractéristiques intrinsèques des TIC encouragent les structures productives à favoriser durablement les petits capitaux, la diversification des produits et la mobilité des facteurs de production.
Cette phase d’intensification de la concurrence et de restructuration par l’innovation a cependant été brève : ce que les tenants du consensus de la Silicon Valley ont pris pour un nouveau principe permanent de mutation des structures économiques n’était qu’une agitation passagère. L’idée selon laquelle les TIC sont porteuses d’une forme entrepreneuriale absolument singulière débouche sur une impasse, incapable de rendre compte de la rigidification des structures économiques observée depuis.
Il y a plus d’un siècle, Rosa Luxemburg remarquait que « les petits capitaux sont les pionniers du progrès technique, qui est lui-même le moteur essentiel de l’économie capitaliste59 ». Elle indiquait ainsi que c’est l’évolution technologique en général – et non spécifiquement telle ou telle technologie – qui ébranle les structures industrielles. En admettant cette hypothèse, il reste à éclaircir les raisons du rythme de ce renouvellement et, en particulier, le caractère passager des chamboulements qu’ont connus les structures industrielles dans les dernières décennies du XXe siècle. L’approche en termes d’ondes longues considère que les turbulences dans les structures productives ont un caractère temporaire mais récurrent, correspondant aux phases intenses de destruction créatrice : des grappes d’innovations apparaissent, se diffusent dans l’économie, détruisant les vieilles structures avant de s’installer et de déployer leurs potentialités dans de nouvelles formes d’organisation économique, jusqu’à perdre de leur dynamisme et être à leur tour déstabilisées par une nouvelle grappe d’innovations60. Le dernier quart du XXe siècle correspondrait à une telle phase de destruction créatrice, typique de l’installation d’un nouveau paradigme technologique. Un des symptômes de ces moments de bouleversement est que les cadres cognitifs qui déterminent les décisions des hommes d’affaires sont brouillés, ce qui conduit à des erreurs d’appréciation dont l’énormité n’apparaît que rétrospectivement. C’est ainsi, par exemple, que 17 firmes, y compris Xerox, IBM et Hewlett Packard, refusèrent la proposition de Steve Jobs de construire un ordinateur personnel, ce qui le conduisit à fonder Apple ; ou bien encore qu’en 1986 IBM refusa la proposition d’entrer à hauteur de 10 % dans le capital de Microsoft61.
L’interprétation en termes d’ondes longues peut être combinée à trois autres facteurs. Le premier est l’accentuation de la concurrence internationale. Opérant un rattrapage industriel progressif, les pays d’Europe, le Japon puis d’autres pays d’Asie prennent pied dans des industries clés où, au sortir de la Seconde Guerre mondiale, les États-Unis exerçaient une domination sans partage. Au dynamisme de la phase de rattrapage, où les différents stades industriels se complétaient relativement harmonieusement, succède une situation nouvelle où les rivalités s’aiguisent, différents pays occupant les mêmes segments62.
Une lecture complémentaire insiste sur la restauration du pouvoir de la finance. À partir de 1979, la hausse des taux d’intérêt oblige les firmes à réduire leurs activités les moins rentables, et précipite la disparition des entreprises les moins compétitives. Cette pression financière est aggravée par la montée en puissance de la valeur actionnariale dans les processus décisionnaires. Les managers, de plus en plus soumis aux impératifs de valorisation à court terme imposés par les actionnaires, doivent renoncer à poursuivre de manière autonome leur politique de croissance interne et limiter les activités non essentielles63.
Le dernier facteur consiste en la mise en œuvre des politiques néolibérales. Les mesures de déréglementation et d’abandon des programmes industriels au niveau interne, et de libéralisation du commerce et des investissements à l’échelle internationale bouleversent le terrain de la concurrence, amoindrissant une série de protections institutionnelles dont bénéficiaient les grandes firmes monopolistiques à l’échelle nationale64.
La tendance historique à la socialisation. Tandis que la thèse faisant des TIC un facteur persistant de déconcentration des structures économiques se heurte à la consolidation observée depuis une vingtaine d’années, d’autres éléments rendent donc compte des turbulences qui ont affecté le tissu productif à la fin du XXe siècle. La phase de destruction créatrice d’une onde longue, l’intensification de la concurrence internationale, la montée en puissance de la finance et les déréglementations caractérisent effectivement, à divers titres, cette période qui va du milieu des années 1970 au tournant des années 2000. Ce que les tenants du consensus de la Silicon Valley ont pris pour des caractéristiques intrinsèques du nouveau régime techno-économique – la capacité des start-up à dépasser les leaders d’autrefois, la libération des énergies entrepreneuriales par la baisse des coûts de transaction, l’affinité entre diversification des produits et petite taille des unités économiques – n’était que les traits transitoires d’une période d’installation. Or, depuis le tournant du millénaire, ces réalités se sont émoussées, laissant peu à peu la place à de nouveaux monopoles.
Si de nouvelles plateformes sont apparues ces dernières années, avec Airbnb et Uber comme figures de proue, ceci ne doit pas faire illusion sur l’épuisement de la dynamique entrepreneuriale des années 1990. On observe une tendance lourde à la consolidation, à commencer aux États-Unis. Net recul du nombre d’entrées et de sorties de firmes des marchés, division par deux du nombre d’entreprises cotées en Bourse, augmentation de la taille moyenne des entreprises et concentration accrue des ventes dans la plupart des secteurs65 : tous les indicateurs vont dans le sens d’une re-monopolisation des structures économiques. Une étude du FMI montre que le pouvoir de marché des entreprises s’est accru dans la plupart des secteurs dans les économies avancées66. Elle met en évidence une augmentation de 39 % du taux de marge entre 1980 et 2016, dont l’essentiel s’est produit depuis l’an 2000 et qui est associée à une amélioration de la profitabilité et de la concentration ; ce qui confirme que la hausse des marges reflète un accroissement du pouvoir de marché des entreprises. Autre enseignement : cette tendance générale est surtout tirée par quelques sociétés dont les revenus, les marges et la profitabilité ont considérablement augmenté. L’hypothèse de la montée en puissance de firmes superstars, d’abord documentée aux États-Unis67, apparaît finalement comme un phénomène généralisé dans les pays riches.
Pour aller un peu plus loin dans la compréhension du double mouvement d’intensification de la concurrence suivi d’un processus de re-monopolisation, on peut mobiliser ce que Marx appelle la « tendance historique du mouvement de l’accumulation du capital ». Pour lui, ce mouvement est lié au processus de socialisation de la production, autrement dit le fait que le travail et l’utilisation des moyens de production ont un caractère de plus en plus collectif. Avec le déploiement des machines par exemple, la latitude individuelle dans l’organisation du travail tend à être réduite. L’activité productive étant de moins en moins isolée, elle prend un caractère immédiatement socialisé ou commun :
Le caractère coopératif du procès de travail devient donc maintenant une nécessité technique dictée par la nature du moyen de travail lui-même68.
Le travail de chacun mobilise toujours plus du travail des autres, qu’il s’agisse de méthodes apprises, de standards auxquels on se conforme, ou des moyens techniques que l’on utilise. En outre, le rythme et la qualité mêmes du travail prennent un caractère plus collectif. C’est la contrepartie de l’approfondissement de la division du travail, de la diffusion des technologies et de l’intensification de la coordination qu’exige cette complexité croissante. En conséquence, la taille des unités de production augmente en même temps que leurs interrelations dans des « réseaux » d’entreprises, qui se densifient tant au niveau national qu’international69.
Ce mouvement historique de socialisation de la production, qui accompagne l’accumulation du capital, n’est cependant pas continu. La figure 1 le représente sous la forme stylisée d’une courbe en S, montrant à la fois cette tendance historique et le recul transitoire de celle-ci dans le dernier quart du XXe siècle. En effet, dans les phases de transition d’un paradigme techno-économique à un autre, cette socialisation marque le pas ; à la faveur du processus schumpetérien de destruction créatrice, certains liens se dissolvent tandis que d’autres commencent seulement à sortir des niches où ils se sont formés. Des procès de travail obsolètes sont mis au rebut par des faillites ; d’autres, plus individualisés, plus fragmentés, non encore standardisés, se déploient dans des espaces sociaux réduits. Beaucoup de tentatives échouent, qui sont autant d’options auxquelles la validation sociale sera refusée au moment de trouver un financeur ou des acheteurs. Ces dynamiques, destructrices ou créatrices, expliquent l’interruption de la socialisation de la production. En revanche, une fois mises en place, les innovations permettent une relance de la socialisation à une échelle plus grande encore, aboutissant à une interpénétration des procès de travail à un niveau de granularité plus fin : la machine à vapeur, l’électricité, la chimie, les industries mécaniques et, bien sûr, les TIC, chacune à sa manière, ces grandes innovations ont engendré des méthodes plus fragmentaires de production. Mais elles se sont aussi déployées à une plus grande échelle, contribuant à donner des traits et des rythmes communs aux activités productives les plus diverses dans un espace toujours plus vaste. Le passage de la concurrence monopolistique nationale à la concurrence monopoliste globale participe à ce titre d’une avancée dans la socialisation.
Le théoricien libéral Ludwig Von Mises écrivait en 1922 que
la grande majorité des cartels et des trusts n’auraient pu se constituer si les gouvernements n’étaient intervenus par des mesures de protection pour réaliser les conditions nécessaires à leur formation. Les monopoles des industries de transformation et du commerce doivent leur naissance, non pas à une tendance inhérente à l’économie capitaliste, mais à la politique interventionniste pratiquée par les gouvernements et dirigée contre le libre-échange et le laisser-faire70.
La tendance à la reconstitution de monopoles à l’échelle globale observée ces dernières années prend l’exact contre-pied de cette hypothèse et confirme plutôt l’idée marxienne d’une socialisation tendancielle.
Comme on l’a vu, la concurrence s’est intensifiée au cours du dernier quart du XXe siècle, du fait notamment d’un démantèlement progressif des barrières protectionnistes, mais aussi sous les effets du rattrapage industriel par plusieurs grands pays, des progrès dans le domaine des transports et du déploiement des TIC. Mais, après une phase de restructuration, ces évolutions n’ont pas débouché sur un régime concurrentiel stable. Elles ont conduit à une densification des liens techno-économiques entre organisations et à une projection plus internationale, sinon globale, des grandes firmes et des réseaux de production qu’elles dominent. Les procès de travail sont plus socialisés et plus internationalisés, au contraire de la re-dissémination de procès de travail individualisés annoncée par les tenants conservateurs de l’idéologie californienne.
Si le « nouvel esprit du capitalisme » analysé par Luc Boltanski et Ève Chiapello71 devait trouver un lieu pour s’incarner, les bâtiments modernes et lumineux réservés aux créatifs des grandes firmes high-tech de la Silicon Valley seraient des candidats évidents. Le siège de Google nous vend du rêve avec ses séances de yoga, ses restaurants gratuits et ses salles de gym ouvertes 24 heures sur 24. Il met ainsi en scène le monde innocent et ouvert que l’entreprise se propose de faire advenir72. Ce type d’espaces de travail illustre magistralement la réorganisation des subjectivités engagée par l’« épithumogénie73 néolibérale » identifiée par Frédéric Lordon :
Le désir de l’engagement salarial ne doit plus être seulement le désir médiat des biens que le salaire permettra par ailleurs d’acquérir, mais le désir intrinsèque de l’activité pour elle-même. […] désirs du travail heureux ou, pour emprunter directement à son propre lexique, désirs de l’« épanouissement » et de la « réalisation de soi » dans et par le travail74.
Créer, comme le propose Google, « un environnement dans lequel chacun peut à tout moment partager ses idées avec ses collègues et demander leur opinion75 » apparaît comme un moyen efficace de promotion de l’innovation. Une large place laissée à la sérendipité ainsi qu’au libre jeu des complémentarités et de la collaboration favorise l’émergence de ce qui, par définition, reste à découvrir. C’est ce même esprit d’innovation par l’amusement que Xavier Niel espère faire prospérer dans les bureaux flexibles et la chill zone de la Station F, son campus parisien de start-up.
La souplesse qui facilite le travail créatif apparaît comme une réminiscence de la révolte antiautoritaire des Sixties, et il est certes plaisant de croire une seconde que cela puisse vraiment être le nouveau visage du travail. Ce n’est hélas pas le cas. En règle générale, les changements organisationnels promus par les beaux discours secrétés dans les bureaux décontractés de la côte ouest nourrissent une dynamique exactement inverse. Marx pointait la possibilité d’une augmentation de la dépense de travail, dans un temps qui reste le même, grâce à « une tension accrue de la force de travail et une occupation plus intense des trous dans le temps de travail, c’est-à-dire une condensation du travail76 ». Philippe Askenazy évoque aujourd’hui un néostakhanovisme pour décrire le même phénomène. Dans les entrepôts d’Amazon ou de Lidl, sur les plateaux des centres d’appels, dans les cabines des chauffeurs routiers ou aux caisses des supermarchés, les technologies de l’information permettent de mener la chasse aux temps morts, d’introduire de nouvelles exigences vis-à-vis des travailleurs77 et de déployer des instruments de surveillance qui débordent amplement sur leur vie privée78.
L’implantation de systèmes de guidage vocal illustre de manière paroxystique le renforcement des contraintes qu’endurent les salariés des plateformes logistiques. Dialoguant directement avec l’unité informatique centrale par l’intermédiaire d’un logiciel de reconnaissance vocale, le préparateur de commandes d’Amazon exécute pas à pas les instructions transmises par une voix numérique via son casque. Il valide chaque prise de colis en prononçant dans le micro les chiffres correspondant aux quantités, produisant ainsi les données qui nourriront son évaluation et décideront de l’octroi de primes de productivité. Le dispositif est brutal. Arthur se souvient de sa première fois :
J’ai failli me barrer, tout de suite ! Je trouvais ça trop glauque. Franchement ça fout les jetons. […] La voix et tout, qui te fait des « répétez, ce mot n’est pas compris ». Surtout au début, quand tu gères mal le truc, ça le fait tout le temps, tu deviens fou…
Le sociologue David Gaboriau, qui a recueilli ce témoignage, observe que la commande vocale réduit drastiquement les formes d’appropriation temporelles79. Si des stratégies ludiques de détournement et des résistances minimales permettent de maintenir à une certaine distance la violence de la dépossession de soi, les marges d’autonomies individuelle et collective restent extrêmement limitées.
L’évolution de l’organisation du travail dans les centres d’appels nous donne un autre exemple des effets des innovations technologiques actuelles sur l’organisation du travail. Depuis le début des années 2000, l’emprise de l’encadrement sur l’activité des téléopérateurs s’est considérablement accrue du fait du couplage de l’ordinateur et du téléphone. En premier lieu, l’automatisation permet un contrôle du temps de travail beaucoup plus serré. Les travailleurs se « loggent » lorsqu’ils commencent leur journée de travail et se « déloggent » lorsqu’ils s’arrêtent. Leurs temps de pause sont automatiquement décomptés. Comme les retards, toute pause excessive est directement notifiée au superviseur. En outre, l’informatisation permet l’enregistrement et le traitement de toute une palette de données concernant la performance individuelle, ce qui met dans les mains des managers des informations quantitatives, décontextualisées, difficilement contestables par les salariés80. L’introduction de programmes d’intelligence artificielle dans les centres d’appels conduit à un raffinement supplémentaire de ce contrôle. Chacun connaît ces messages diffusés par les services clients indiquant que la conversation est susceptible d’être enregistrée pour des raisons de suivi qualité. C’est le cas de 1 % à 2 % des appels. Mais, désormais, l’entreprise Sayint, partenaire de Microsoft, offre bien mieux qu’une simple vérification par échantillonnage : une technologie grâce à laquelle « vous pouvez être certain que vos salariés sont au niveau de vos exigences 100 % du temps ». Le logiciel enregistre et analyse l’intégralité des conversations. Les algorithmes se chargent de vérifier si les règles prescrites ont bien été suivies, ils traquent les sentiments que les deux parties laissent transparaître dans leur diction et leurs intonations, et donnent une note à chaque prestation. Si un problème est détecté, il est immédiatement signalé au superviseur. Les machines se voient ainsi confier la surveillance, l’évaluation et donc, indirectement, les décisions influant sur la rémunération des travailleurs. Cette évolution ouvre un abîme de questions pour l’action syndicale, et des failles vertigineuses pour les ressources humaines81. Elle nous emmène en tout cas très loin du rêve de convivialité californien.
Ces deux exemples illustrent une dégradation de la qualité du travail qui, même si elle prend des modalités très diverses selon les secteurs et le type d’emploi, est corroborée par les données statistiques à grande échelle. Entre 1995 et 2015, on observe dans les pays européens à la fois une augmentation du niveau des exigences managériales et une latitude décisionnelle réduite pour la quasi-totalité des professions82. Chacun de ces deux facteurs est associé à une moindre satisfaction professionnelle. Un mix toxique qui fait basculer une part de plus en plus importante du salariat dans des situations de stress professionnel, ayant des effets sanitaires et sociaux délétères. Phénomène notable, seuls les cadres supérieurs sont préservés. S’ils font, comme les autres, face à des exigences accrues, celles-ci vont de pair avec une plus grande autonomie qui en contrebalance les effets négatifs. La sollicitude des médias pour le « stress des dirigeants » reflète en réalité davantage la capacité de visibilisation de ces couches sociales qu’une exposition particulière aux pressions, cette population étant, au contraire, plutôt épargnée dans l’ensemble.
Des travaux portant sur les États-Unis attestent également d’une dégradation tendancielle depuis les années 197083. Si, en moyenne, le travail s’est enrichi du point de vue de la variété des compétences mobilisées, de l’autonomie et de l’interdépendance entre les salariés, ces évolutions a priori positives ne se traduisent pourtant par aucune augmentation de la satisfaction professionnelle. En cause, l’absence de progrès en ce qui concerne le sens du travail accompli, perdu dans la fragmentation des tâches, et de son intérêt. Cette stagnation est la conséquence d’une réorganisation du travail imposée aux salariés, dans laquelle l’autonomie n’est concédée aux équipes qu’en vue d’obtenir une intensification de l’activité. Symptôme des désillusions quant aux possibilités d’épanouissement professionnel, les générations les plus jeunes valorisent désormais moins que leurs aînés les qualités intrinsèques du travail84.
Comme le montre le psychologue Yves Clot, la satisfaction au travail est indissociable du pouvoir d’agir des sujets, et c’est l’empêchement de ce pouvoir d’agir qui abîme le travail :
Vivre au travail c’est […] pouvoir y développer son activité, ses objets, ses instruments, ses destinataires, en affectant l’organisation du travail par son initiative. L’activité des sujets se trouve au contraire désaffectée lorsque les choses, en milieu professionnel, se mettent à avoir entre elles des rapports qui leur viennent indépendamment de cette initiative possible. Paradoxalement, on agit alors sans se sentir actif. Mais cette désaffection diminue le sujet, le déréalise, non sans effet quant à l’efficacité même de son action, au-delà des effets sur sa santé. Car alors, le cercle des processus psychiques se referme sur lui et ils deviennent intransformables. Dans ce mouvement-là, les émotions éprouvées, qui s’étendent du ressentiment à l’égard d’autrui jusqu’à la perte d’estime pour soi-même, ne sont plus conductrices et dynamogènes. Elles ne développent plus l’énergie subjective individuelle et collective. Au contraire, elles l’enveloppent, la protègent tout en la stérilisant. L’activité psychologique ne passe plus dans les émotions. Elle s’y arrête. Le développement avorté de l’activité se perd en émotions qui dégénèrent en « passions tristes », obstacles nouveaux au développement, en défenses psychiques – même collectives – dont l’entretien peut devenir une véritable tâche fictive85.
La qualité du travail requiert que s’y déploie la dynamique des énergies subjectives individuelles et collectives. Ce n’est qu’à la condition de pouvoir exercer une influence sur l’organisation de leur activité professionnelle et de se reconnaître dans ses finalités que les individus peuvent éprouver de la satisfaction dans leur travail. Si la diffusion de l’usage des TIC s’est traduite par une dégradation de l’activité professionnelle, c’est donc parce que les outils numériques ne permettent pas à la plupart des salariés de définir davantage l’objet et la forme de leur travail. En conséquence, suractivité et sentiment d’insignifiance vont souvent de pair, formant un mélange destructeur.
Ce constat contredit la promesse de l’idéologie californienne d’augmentation du pouvoir d’agir des individus grâce au numérique. Il n’y a cependant pas de raison de penser qu’il s’agisse d’un effet intrinsèque à ces technologies. Le problème est bien plutôt celui de l’usage de la technique dans le procès de travail capitaliste, et de ses déterminants. L’introduction des nouvelles technologies répond à une double pression, économique et politique. D’une part, elle est commandée par une logique de réduction des coûts. L’enjeu est celui de la survie des firmes et, plus immédiatement, de leur profitabilité. D’autre part, l’organisation du travail est aussi le lieu de la reproduction du rapport salarial en tant que subordination politique du travail au capital – une reproduction qui est d’autant mieux assurée que les ressources laissées aux subordonnées sont faibles.
La pression compétitive a rendu nécessaire une complexification du travail couplée à une montée en qualification des salariés. Ainsi, à rebours de l’hypothèse d’une déqualification tendancielle du travail sous l’emprise du capital86, il n’y a pas d’évolution linéaire vers un approfondissement de la taylorisation87. L’élévation du niveau d’éducation renvoie à la sophistication des pratiques professionnelles. Pour autant, cela n’est pas synonyme d’une libération du travail. D’abord, parce qu’il peut y avoir simultanément montée en compétence dans certains secteurs de l’économie et déqualification dans d’autres. À cet égard, l’exemple des magasiniers sous commande vocale numérique illustre la persistance, et même la radicalisation, d’une dépossession du travail qui est complètement contemporaine d’un relâchement de l’autorité dans les segments créatifs de l’économie numérique. Ensuite, parce que le travail peut être à la fois plus complexe et plus oppressant, car davantage contrôlé. Par exemple, la surveillance accrue dans les centres d’appels va fréquemment de pair avec une complexification, que ce soit en termes de précision et de technicité des arguments, de capacité d’analyse de la situation ou de mobilisation d’un travail affectif au cours de la conversation avec les clients.
L’impératif de compétitivité ne peut pas à lui seul expliquer pourquoi des formes d’organisation du travail plus démocratiques ne sont pas davantage développées. On a vu fleurir des initiatives d’« entreprises libérées » où des dirigeants se proposent de relâcher la contrainte hiérarchique afin de mieux mobiliser leurs salariés et d’accroître leur productivité, mais, quand il ne s’agit pas de simples effets d’annonce, ces expériences sont rarement prolongées – mêmes lorsqu’elles sont un succès sur le plan de l’efficacité productive, comme dans le cas de l’usine Volvo d’Uddevalla, fermée au début des années 1990, ou du projet Saturn de General Motors définitivement abandonné en 200988.
En somme, si l’introduction de nouveaux dispositifs liés aux TIC dans l’organisation du travail répond à des besoins économiques de compétitivité et exige, tendanciellement, une montée en compétences des salariés, elle doit être aussi analysée au prisme des mutations qu’elle entraîne dans les rapports de pouvoir89. La relation de pouvoir entre capital et travail n’évolue en faveur des salariés que si la latitude qui leur est laissée dans l’utilisation des moyens de production et l’organisation des opérations augmente ; à l’inverse, la position des employeurs – ou de l’encadrement – se trouve renforcée par l’information dont ils disposent sur les actions de leurs salariés, ce qui explique qu’ils aient en général une préférence pour les instruments de contrôle leur permettant de superviser au plus près l’exécution de leurs tâches.
La question n’est donc pas seulement celle de l’efficacité ou de la performance. Ce qui se joue est aussi d’ordre politique. Comme l’économiste polonais Michal Kalecki l’avait déjà souligné en son temps, « la “discipline dans les usines” et la “stabilité politique” sont davantage appréciées par les chefs d’entreprise que les profits90 ». C’est en sachant que la reproduction de leur position dominante est incompatible avec une organisation démocratique de la production que les managers et les dirigeants décident des formes que prend le déploiement des TIC au travail.
Comme les zélateurs de l’idéologie californienne en avaient l’intuition, les TIC ont donc bel et bien accompagné un phénomène de montée des compétences et de complexification des tâches. Cependant, les perspectives d’émancipation ont été troquées contre un accroissement du niveau d’exigence et de contrôle sur le procès de travail, générant des situations de stress et d’insatisfaction profonde. Pour la majorité des salariés, la préférence pour le contrôle du capital a donc eu raison des promesses du « nouvel esprit du capitalisme ».
Pour expliquer le succès de la dynamique d’innovation de la Silicon Valley, on met volontiers en avant la culture de liberté et d’ouverture censée régner dans cette région. À la fin des années 1980, des chercheurs français, à leur retour de mission de Californie, mettaient ainsi en exergue « la facilité et la rapidité des transferts de connaissances, d’idées et de technologies d’une entreprise à une autre et d’un domaine à un autre ». Davantage que « les conditions de production des connaissances, concluaient-ils, ce sont les conditions de leur circulation, de leur diffusion et de leur incorporation qui paraissent avoir joué un rôle décisif, et cela en relation étroite avec les formes de mobilité des salariés à haute qualification91 ». Une comparaison approfondie entre la Silicon Valley et le district de la route 128 dans le Massachusetts92 confirme que ce trait idiosyncrasique donna un avantage décisif à la côte ouest. En dépit d’une nette avance dans les années 1970 en termes de nombre d’emplois, le district étudié perdit du terrain dès le début de la décennie suivante en raison d’un modèle organisationnel fermé, où la firme, pensée comme une entité autosuffisante, existait en vase clos sans rapport à son environnement. À l’inverse, dans la Silicon Valley, la prédominance de la forme réseau et de marchés du travail ouverts a favorisé une grande souplesse entrepreneuriale et une spécialisation poussée des firmes. Cette différence est illustrée avec la comparaison de deux start-up lancées au tout début des années 1980 : Apollo Computer dans le Massachusetts et Sun Microsystems en Californie. La différence des profils de leurs dirigeants symbolise le gouffre qui sépare les deux mondes. Tandis que le P.-D. G. d’Apollo, nommé en 1984, était un cadre de 53 ans issu de General Electric, Sun Microsystems était dirigé par ses fondateurs, encore âgés d’une vingtaine d’années. Quand le premier impose un dress code strict, décourageant les moustaches et les barbes, les seconds organisent chaque mois des fêtes de la bière ; tandis le premier se déplace dans une limousine avec chauffeur, la Ferrari d’un des membres fondateurs de la seconde est plongée dans un bassin décoratif pour le Premier avril, au milieu d’employés hilares déguisés en gorilles… Ce climat d’irrévérence va de pair avec un individualisme radical qui dédouane chacun de tout patriotisme d’organisation : si les salariés ne peuvent compter sur aucune protection de la part de leur employeur, on n’attend pas davantage d’eux une quelconque loyauté, et chacun comprendra qu’ils voguent vers de nouveaux cieux à la première opportunité. S’il ne fallait retenir qu’un seul trait caractéristique de l’expérience de la Silicon Valley, ce serait cette atmosphère de libre circulation des individus favorisant la diffusion rapide des savoirs.
La conjoncture culturelle des années 1970-1980 dans la Vallée a sans nul doute joué un rôle décisif pour la propagation de cette disposition d’esprit et dans la prise de leadership de la région sur les technologies de l’information. Mais, une fois la position dominante acquise, le climat culturel n’est plus un facteur déterminant pour expliquer pourquoi la Silicon Valley demeure, aujourd’hui encore, l’un des pôles d’innovation les plus vibrionnants de la planète. L’économie géographique montre que les firmes bénéficient d’effets d’agglomération dès lors qu’elles peuvent puiser dans un pool de ressources territorialisées telles que des infrastructures, un vivier de travailleurs qualifiés et des fournisseurs spécialisés. Ce type de dynamique de fertilisation croisée est particulièrement fort en ce qui concerne les connaissances. La Silicon Valley d’aujourd’hui est ainsi le résultat d’un processus cumulatif où, à partir d’un avantage initial mineur, les acteurs bénéficient réciproquement toujours plus de leur coprésence, ce qui conduit à des écarts majeurs par rapport aux autres régions.
Cette dynamique de polarisation sociale a été renforcée par l’accent mis sur la mobilité des salariés. Si concernant les personnels très qualifiés elle peut avoir des effets positifs en termes de diffusion des connaissances, en revanche, pour les autres, c’est-à-dire la grande majorité, la flexibilité est synonyme de précarité. La Silicon Valley est, là encore, emblématique : près d’un tiers de la population n’a pas de revenus suffisants pour satisfaire ses besoins de base, et la pauvreté est endémique. La persistance d’inégalités raciales et de genre particulièrement profondes, souvent plus marquées que dans le reste des États-Unis, vient là aussi écorner l’idée pourtant extrêmement valorisée d’une ouverture à la diversité93.
Il y a enfin une dimension strictement géographique au rapport entre inégalités et innovation. L’innovation passe par la découverte de nouvelles combinaisons : il s’agit de mettre en rapport des choses qui ne l’étaient pas, de codifier des choses qui ne l’étaient pas. Pour y parvenir, la proximité, l’interaction directe, est un atout crucial afin de bénéficier de la pollinisation sociale indispensable au processus de découverte. Or une grande partie des connaissances tacites nécessaires à ce processus est incorporée à des réseaux sociaux ancrés dans la vie réelle. Les personnes engagées dans les activités créatives ont donc intérêt à se regrouper pour jouir d’échanges informels, et ainsi améliorer leur productivité et leurs revenus94. Mais cela provoque une véritable dynamique de ségrégation. Non seulement l’innovation tend à se concentrer dans les grandes zones urbaines95, mais cette polarisation entre villes et campagnes se double d’un approfondissement des fractures sociales entre les zones urbaines elles-mêmes, y compris au sein de chaque ville entre les différents quartiers.
L’idéologie californienne est là encore prise à contre-pied par les développements contemporains. La Magna Carta promettait qu’« en mettant entre les mains du plus grand nombre les technologies informatiques avancées, on allait soulager les problèmes d’engorgement des autoroutes, réduire la pollution de l’air, et permettre aux personnes de vivre plus loin des zones urbaines surpeuplées96 ». C’est exactement l’inverse qui s’est produit. De fait, il est devenu crucial d’être « là où ça se passe » : habiter dans les villes et dans les quartiers où circulent les idées en vogue est une condition clé pour capturer une partie des revenus associés à la diffusion mondiale des intangibles. Les lieux où se font les productions immatérielles valorisées sur toute la planète sont aussi ceux où se trouvent les opportunités professionnelles les plus attractives. Peut-être que les développements technologiques à venir feront disparaître les avantages informationnels de la proximité, ou que les forces de dispersion finiront par prendre le dessus (pollution, congestion, prix des loyers…), mais, jusqu’à présent, les intangibles nourrissent bien la polarisation spatiale97.
Insister sur cette dimension spatiale permet de souligner que l’idée même de Silicon Valley, dans son principe, n’est pas généralisable. Cette expérience procède d’une logique de spécialisation qui s’est autorenforcée au fil du temps jusqu’à singulariser ce cluster d’innovation d’envergure mondiale. Cela aide aussi à comprendre pourquoi, à côté de success-stories comme Bangalore, Singapour, les provinces chinoises de Guangdong et Zhejiang, Boston ou Tel Aviv, de nombreuses tentatives de faire éclore d’autres Silicon Valley de par le monde ont échoué. Bien entendu, il est à chaque fois possible de trouver dans les décisions politiques des erreurs qui semblent expliquer ces rêves brisés98, mais la raison fondamentale de ces échecs à répétition est qu’il est impossible que toutes les tentatives d’imitation aboutissent. En effet, les îlots de Silicon Valley ont besoin d’un océan de non-Silicon Valley pour subsister. C’est dans les non-Silicon Valley que les biens sont assemblés, triés, déplacés ; c’est sur ces terres aux marges que les animaux sont élevés, tués et que les plantes poussent ; c’est vers ces espaces ignorés que les déchets sont acheminés. Bref, tout ce monde où vit pourtant l’immense majorité de la population de la planète est réduit à quantité négligeable par un consensus qui ignore les conditions de possibilités extérieures de la spécialisation géographique pour l’innovation. Le consensus de la Silicon Valley repose ainsi sur un sophisme de composition : l’expérience est présentée comme un modèle à imiter alors qu’elle ne vaut précisément que parce qu’elle est quasi unique.
L’image d’ouverture et de libre circulation tranche en outre avec la réalité d’inégalités sociales galopantes. Afin d’encourager la circulation et la flexibilité des facteurs de production, de favoriser la prise de risque privée et d’attirer les investisseurs, les autorités réduisent la taxation du capital et des revenus élevés, font preuve d’une certaine mansuétude vis-à-vis de l’évasion fiscale et durcissent les droits de propriété intellectuelle. Immanquablement, une telle politique favorise les très hauts patrimoines et fragilise les finances publiques. La Californie a été pionnière également à cet égard, avec un puissant mouvement de délégitimation des politiques sociales. Pour cette région, les années 1980 furent une aubaine économique99. L’arrivée de Reagan aux affaires y fit tomber une pluie de contrats militaires mirifiques. Dans le même temps, la libéralisation financière y attisa une spéculation immobilière frénétique. Cette prospérité insolente encouragea une brutale contre-offensive de la droite, dont la première cible fut l’intervention publique, un terrain sur lequel la nouvelle gauche issue des Sixties était mal préparée à répondre. L’hostilité à toute forme de bureaucratie et la préférence pour les expériences locales laissèrent un boulevard idéologique aux partisans d’une baisse massive des impôts. Ceux-ci avaient remporté dès 1978 un référendum d’initiative populaire, la Proposition 13, qui introduisait un amendement à la constitution californienne limitant drastiquement le niveau des taxes foncières. Cette bataille n’était que le prélude à une série de réformes qui réduisirent dramatiquement les ressources fiscales de l’État et provoquèrent une crise budgétaire au début des années 1990, entraînant une forte réduction des services publics dans tous les domaines, sauf les prisons.
Même si la culture d’ouverture et de mobilité donna initialement un avantage décisif à la Silicon Valley, le facteur le plus puissant de son succès est donc sa dynamique territoriale de construction d’avantages cumulatifs dans la production des connaissances. De cette conjonction résulte un effet de myopie où la latitude laissée à l’ambition individuelle est survalorisée, tandis que le rôle des économies d’échelles régionales qui, par définition, ne peuvent pas se généraliser, est sous-estimé. Le résultat est doublement paradoxal. D’une part, la fluidité locale qui a fait le succès initial de la Silicon Valley se rabougrit sous le poids des inégalités et des dynamiques de ségrégation qui constituent l’envers des logiques d’agglomération. D’autre part, la prééminence de l’avantage économique qui en résulte interdit à l’expérience de la Silicon Valley d’être érigée en modèle généralisable. La distinction territoriale étant dans son essence exceptionnelle, elle ne saurait prétendre incarner l’avenir commun du monde.
Avec la notion de destruction créatrice, l’économiste Joseph Schumpeter a formulé l’une des idées économiques les plus influentes du XXe siècle. À la suite de Marx, et contre les approches en termes d’équilibre, il insiste sur le fait que la dynamique du capitalisme est un processus tumultueux d’évolution des structures économiques, dont l’impulsion fondamentale « est imprimée par les nouveaux objets de consommation, les nouvelles méthodes de production et de transport, les nouveaux marchés, les nouveaux types d’organisation industrielle100 ». La théorie économique de la croissance qui sous-tend sur le plan académique le consensus de la Silicon Valley a repris cette conception et l’a intégrée dans ses modèles. Son credo : les innovations entraînent la croissance en diffusant des technologies nouvelles et en éliminant des méthodes obsolètes101.
Dans une telle perspective, la trajectoire du capitalisme actuel semble paradoxale. Côté face, les exemples de développement des technologies numériques témoignent d’un foisonnement d’innovations et d’une mutation qualitative multiforme des modalités de production, de consommation et d’échange ; en bref, des signes qui indiquent un regain de vitalité. Mais, côté pile, on observe un ralentissement tendanciel de la croissance du PIB et de la productivité, un accroissement du poids mort de la sphère financière, la persistance du sous-emploi et, last but not least, une dégradation rapide des conditions écologiques – autant de phénomènes qui, pris ensemble, signalent un déclin.
Depuis les années 2000, on l’a vu, les questions d’innovation et de concurrence occupent une place centrale dans des politiques publiques censées apporter une cure de jouvence à des structures productives jugées vieillissantes. D’une certaine manière, ces politiques y sont parvenues. Elles ont contribué à transformer qualitativement le paysage techno-économique. Creusant l’écart avec les vieilles gloires du XXe siècle, les firmes emblématiques du numérique s’affichent en tête du palmarès des principales capitalisations boursières mondiales, alors même que la plupart ont moins de deux décennies d’existence (tableaux 1 et 2). Il s’agit d’un véritable bouleversement dans cette élite, longtemps dominée par un petit nombre de multinationales102.
Mais la surprise est que cette disruption techno-organisationnelle ne se traduise pas par un regain de dynamisme pour la machine capitaliste. Philippe Aghion, un des économistes de la croissance les plus en vue, doit bien le reconnaître, même si ce n’est que du bout des lèvres. Dans sa leçon inaugurale au Collège de France103, il constate, à partir des données usuelles sur les brevets, que « l’on assiste bien à une accélération de l’innovation non seulement en quantité mais également en qualité ». Puis il s’interroge : « Pourquoi cette accélération de l’innovation ne se reflète-t-elle pas dans l’évolution de la croissance et de la productivité ? » C’est qu’il s’agirait « pour l’essentiel d’un problème de mesure » lié au fait que les innovations, surtout celles qui se traduisent par la création de nouveaux produits, mettent du temps à être prises en compte dans les statistiques104.
Tableau 1. Les plus grandes firmes mondiales en termes de capitalisation boursière en 2000 (Forbes)
Rang |
Firme |
Secteur |
Pays |
Capitalisation (en milliards $, au 28/02/2000) |
1 |
Exxon Mobile |
Hydrocarbures |
États-Unis |
362 |
2 |
General Electric |
Conglomérat |
États-Unis |
348 |
3 |
Microsoft |
Tech/logiciel |
États-Unis |
279 |
4 |
Citigroup |
Finance |
États-Unis |
230 |
5 |
BP |
Hydrocarbures |
Royaume- Uni |
225 |
6 |
Royal Dutch Shell |
Hydrocarbures |
Pays-Bas |
203 |
7 |
Procter & Gamble |
Produits ménagers, soins |
États-Unis |
197 |
8 |
HSBC Group |
Finance |
États-Unis |
193 |
9 |
Pfizer |
Pharmaceutique |
États-Unis |
192 |
10 |
Wal Mart |
Commerce |
États-Unis |
188 |
Tableau 2. Les plus grandes firmes mondiales en termes de capitalisation boursière en 2019 (Ychart.com)
Rang |
Firme |
Secteur |
Pays |
Capitalisation (en milliards $, au 24/12/2019) |
1 |
Apple |
Tech/hardware |
États-Unis |
1 263 |
2 |
Microsoft |
Tech/logiciel |
États-Unis |
1 201 |
3 |
Alphabet |
Tech/média |
États-Unis |
926 |
4 |
Amazon |
Tech/commerce |
États-Unis |
887 |
5 |
Tech/média |
États-Unis |
584 |
|
7 |
Berkshire Hathaway |
Finance |
États-Unis |
551 |
6 |
Tencent |
Tech/commerce |
Chine |
461 |
8 |
Alibaba |
Tech/commerce |
Chine |
574 |
9 |
JP Morgan |
Finance |
États-Unis |
431 |
10 |
Visa |
Finance |
États-Unis |
416 |
La discussion technique sur la mesure de la productivité et de la croissance soulève des questions importantes (voir l’annexe I). Cependant, pour ce qui nous intéresse ici, à savoir la dynamique du capitalisme contemporain, la tendance ne fait aucun doute105. Contrairement à ce que suggère Philippe Aghion, les problèmes de mesure n’expliquent pas le déclin. Réévaluer l’impact de l’innovation ne changerait rien à l’affaire : la productivité et la croissance ralentissent. Plus intéressant encore, les réflexions des statisticiens indiquent qu’une grande part des effets des innovations numériques échappent aux filets de l’échange marchand et de la comptabilité correspondante. C’est évidemment le cas de Wikipédia qui, en se substituant à la production des éditeurs d’encyclopédies, fait baisser la production marchande. Mais c’est également vrai pour les services fournis par Google, les réseaux sociaux et bon nombre d’applications qui ne sont marchandisés que de manière résiduelle à travers la publicité. Les revenus de celle-ci sont bien pris en compte dans le calcul de la production marchande en tant que consommation intermédiaire des annonceurs, mais il n’y a pas d’imputation directe des services rendus aux consommateurs. Cela peut surprendre, quand on songe aux avantages majeurs qu’en retirent les utilisateurs. Mais les statisticiens ont raison d’affirmer que « les gains dans la production non marchande et leur contribution au bien-être, bien qu’importants, sont mieux traités comme un concept distinct du changement de la productivité106 ». Le fait que les effets utiles les plus puissants du numérique échappent pour une large part à l’économie marchande ne doit pas être escamoté. C’est un des symptômes des fragilités du capitalisme contemporain.
Il existe bien une difficulté conceptuelle et empirique à rendre compte, dans un système de prix, de la qualité de l’activité économique ; c’est pourtant une question fondamentale. Néanmoins, il est évident que la stagnation actuelle n’est pas un simple artefact statistique dissimulant le dynamisme de l’économie marchande. Sans compter que la grande fatigue du capitalisme ne se manifeste pas seulement par le ralentissement de la croissance et de la productivité : le choc financier et macroéconomique de la crise de 2008, un sous-emploi endémique et la montée continue du poids de l’endettement sont autant de symptômes d’un mal plus profond. L’antienne schumpetérienne peut alors être renversée en création destructrice, dès lors que les efforts pour déployer le nouveau paradigme techno-économique s’accompagnent d’une désagrégation des rapports sociaux caractéristiques de la phase précédente et fragilisent la dynamique économique du point de vue de la reproduction de ses conditions matérielles et politiques.
Il y a quelque chose de profondément triste et raté dans l’aventure européenne des dernières décennies. Unifié sous l’empire du marché et de la finance, le Vieux Continent s’embourbe dans un magma de rancœurs et de méfiances qui ramènent inexorablement toutes les discussions sur les avancées de l’intégration à des calculs budgétaires étriqués. Ce ressentiment partagé s’enracine dans un rêve de puissance brisé. En parité de pouvoir d’achat, le poids de l’Union européenne, dans ses frontières de 2018, est passé de 30 % du PIB mondial en 1980 à 16,9 % en 2018. Certes, ce recul reflète mécaniquement l’accroissement du poids de certains pays du Sud, et particulièrement de la Chine, dont le développement économique s’est accéléré durant la même période. Mais la comparaison avec l’Amérique du Nord, dont le poids ne s’est réduit que de 27 % à 18,5 %, atteste une forme de décrochage européen. Celui-ci se manifeste notamment par un décalage entre, d’une part, une sophistication institutionnelle sur le plan de la gestion macroéconomique, de la régulation de la concurrence et de la politique monétaire, qui fait de l’Union la pointe avancée du néolibéralisme ; et, d’autre part, un relatif échec économique qui se reflète non seulement par une sous-performance chronique en termes de croissance et d’emploi, mais encore par l’absence de capitaux européens dans le peloton de tête des entreprises clés des technologies de l’information. Il est frappant de constater que la plupart des services Web utilisés quotidiennement par les Européens sont fournis par des entreprises étatsuniennes. Pourtant, des pays initialement moins bien positionnés, comme la Chine ou la Russie, sont parvenus à développer des écosystèmes numériques autochtones extrêmement riches avec des moteurs de recherche (Baidu, Yandex), des réseaux sociaux (Vkontakte, Weibo) et des sites de commerce électronique (Tencent, JD.com) qui comptent parmi les plus visités au monde. À l’inverse, si l’on exclut les versions locales de Google (google.de, google.fr, etc..), l’Europe n’est présente que deux fois dans le classement des cinquante sites les plus populaires, et ce n’est que grâce à xvideos.com et xnxx.com, deux portails pornographiques contrôlés par une société polonaise dont les propriétaires sont des citoyens français107. Anecdotique, le constat n’en est pas moins cruel. Les dirigeants européens ambitionnaient en l’an 2000 de faire de la région l’« économie de la connaissance la plus compétitive et la plus dynamique du monde ». Aujourd’hui, elle est non seulement loin derrière les États-Unis, mais elle est aussi largement distancée, dans ce domaine, par la Chine et par la Russie. Que s’est-il passé ?
À la fin des années 1990, le boom de la nouvelle économie étatsunienne a été vivement ressenti en Europe où, en dépit de l’achèvement du marché unique et du lancement de la monnaie unique, les élites constatent que l’économie européenne, spécialisée dans les activités de la seconde industrialisation, s’éloigne de la frontière technologique à mesure que les États-Unis la repoussent. Sous l’impulsion de gouvernements sociaux-démocrates alors au pouvoir dans la majorité des pays, l’Agenda de Lisbonne est adopté. C’est un programme ambitieux qui mêle, d’un côté, des réformes allant dans le sens de la libéralisation des marchés – y compris du marché du travail – ainsi que des politiques budgétaires orthodoxes et, d’un autre côté, une volonté affichée de soutenir la recherche, l’éducation et la formation. Mais, très vite, le premier pôle prend le dessus ; les politiques d’innovation sont subordonnées au cadre néolibéral. Pour les économistes progressistes qui participent aux discussions, c’est une douche froide. Sans forces sociales mobilisées pour défendre leurs positions, le jeu politique laisse le champ libre à l’inclination naturelle des grandes firmes en faveur de la flexibilité du travail et de la non-immixtion de l’État dans leurs politiques d’investissement108. Selon Élie Cohen, c’est ce tournant qui explique le décrochage technologique relatif de l’Europe :
Dans les années 2000, pendant que l’Europe mène à marche forcée ses programmes de déréglementation et de libéralisation qui vont affaiblir les champions nationaux européens (Alcatel, Siemens, Nokia, Philips, STM, FT, DT, TI, etc.), la Chine constitue à partir de zéro une puissante industrie des télécoms, des composants et de l’électronique grand public, la Corée réussit à force d’investissements publics dans les réseaux et de constance de ses acteurs industriels à devenir l’un des leaders mondiaux du multimédia mobile. Quant aux États-Unis, ils réinventent en permanence l’industrie des TIC avec des leaders mondiaux dans l’Internet (Google et Facebook), dans les services informatiques (IBM), dans l’EGP (Apple), les logiciels (Microsoft, Oracle)109.
Grande ouverte aux vents de la concurrence, s’interdisant toute intervention sectorielle, incapable d’investir suffisamment dans la recherche et l’éducation, l’UE voit ses avantages industriels, patiemment construits au fil des décennies précédentes, se déliter sans être remplacés par de nouveaux points forts. Pendant ce temps, de nouveaux venus sur le marché international déploient des politiques stratégiques qui accélèrent l’accumulation des compétences dans les secteurs innovants. En Chine, par exemple, les commandes publiques, les transferts technologiques imposés aux investisseurs étrangers, mais aussi des mesures de contrôle politique sur le Web sont les instruments qui assurent un développement domestique des forces productives numériques. Le contraste est saisissant avec ce qui se passe au même moment en Europe, où le choix est fait de laisser aux entreprises seules l’initiative de l’innovation, et d’interdire l’intervention étatique qui altérerait les forces de la concurrence. Or cela implique, d’une part, que le financement public de la recherche doit rester très en amont des applications commercialisables et, d’autre part, que le soutien à l’innovation doit être indiscriminé – ce que l’on appelle des « politiques horizontales ».
Prenons l’exemple de la France. Les autorités ont été amenées à abandonner la logique de construction de filières et de grands projets, qui était jusqu’alors au centre du système d’innovation hexagonal. Celle-ci avait certes conduit à des échecs notables – en particulier le plan Calcul lancé dans les années 1960 dans le but de créer une industrie informatique française – et à des succès problématiques, comme la filière nucléaire. Mais, sans elle, le rattrapage industriel du pays jusque dans les années 1970 n’aurait pas eu lieu. L’instrument archétypique de la nouvelle approche est le crédit d’impôt recherche. Ce dispositif générique laisse les entreprises entièrement maîtresses du type de dépenses qu’elles engagent. L’idée est seulement d’accompagner et d’encourager leur effort spontané de recherche et développement en espérant que la prise en charge d’une partie du coût par la puissance publique encouragera l’augmentation du niveau des dépenses de R & D des entreprises. Ce type d’instrument est extrêmement coûteux – de l’ordre de 5 milliards d’euros par an en France entre 2008 et 2014 –, et favorise les effets d’aubaine, les entreprises faisant preuve de beaucoup d’inventivité pour comptabiliser comme des dépenses d’innovation des dépenses qu’elles auraient de toute façon engagées. D’après la majorité des études empiriques, ce dispositif n’a en réalité pas d’effet d’entraînement sur la R&D et n’augmente pas les dépôts de brevets110. On a donc là une politique de financement public dépourvue de toute réflexion stratégique.
Pour comprendre la nouvelle philosophie qui guide les politiques de soutien à l’innovation en Europe et saisir l’erreur d’appréciation qui a été commise, il faut remonter à 1994. L’idéologie californienne, qui se cristallise alors de l’autre côté de l’Atlantique, se diffuse dans le Vieux Continent sous la forme d’un rapport intitulé L’Europe et la société de l’information planétaire. Rédigé sous la direction du commissaire chargé du Marché intérieur et de l’Industrie de l’époque, Martin Bangemann, et avec le concours de dix-huit dirigeants de grandes entreprises, le texte dresse le constat d’une révolution industrielle autour des technologies de l’information, et invite l’Union européenne à faire confiance aux mécanismes du marché pour entrer dans cette nouvelle ère :
Le secteur de l’information se caractérise par son évolution rapide. C’est le marché qui jouera le rôle moteur, et c’est lui qui désignera les gagnants et les perdants. Compte tenu de la puissance des technologies en cause et de leur omniprésence, le marché ne peut être qu’universel. Le premier devoir des gouvernements est de préserver les forces concurrentielles et de créer un climat politique durablement favorable à la société de l’information de manière à ce qu’ici comme ailleurs, la demande puisse tirer la croissance111.
Le développement des forces productives associées aux technologies de l’information doit résulter d’un processus de sélection des gagnants et des perdants par le marché ; comme il a une dimension immédiatement universelle, il ne saurait tolérer aucune forme d’encasernement par l’État-nation. Sur la base de ces hypothèses, le rapport invite les gouvernements à agir vigoureusement en faveur de la concurrence – construction d’un cadre réglementaire adéquat, effort de standardisation, libéralisation interne et externe – et à renforcer la propriété intellectuelle. Il récuse tout recours « au dirigisme ou au protectionnisme » et insiste sur le fait que l’initiative du financement doit venir du secteur privé, le secteur public étant jugé incapable de prendre la mesure des évolutions en cours.
Avec le recul, ce positionnement semble bien naïf. Non seulement des pays comme la Chine, la Corée du Sud et la Russie ont su tirer parti de l’intervention publique pour accompagner leur entrée dans l’ère numérique mais, surtout, la position de leader des États-Unis est tout sauf l’œuvre des forces spontanées du marché, y compris dans le contexte de la Silicon Valley.
L’histoire de la Silicon Valley et, plus généralement, du développement technologique aux États-Unis est absolument indissociable de l’intervention publique : celle, au premier chef, du complexe militaro-industriel, mais aussi du secteur aéronautique et spatial, du fait notamment de la présence à Mountain View de l’Ames Research Center, un des principaux centres de recherche de la NASA. L’effort d’imagination et l’obstination des dirigeants de l’université Stanford pour obtenir des contrats de recherche militaire ont joué un rôle décisif dans cette histoire. Pendant la Seconde Guerre mondiale, les firmes Hewlett Packard, Litton et Varian décollent grâce aux commandes militaires, leurs instruments électroniques étant utilisés pour fabriquer des radars. Dans les années 1960, ce sont encore les militaires qui achètent l’essentiel de la production des semi-conducteurs qui viennent d’être mis au point112. Si l’industrie électronique s’émancipe en partie de la commande publique avec l’essor d’un marché de consommation de masse dans les années 1970, le soutien public reprend de plus belle dans les années 1980 avec le programme de « guerre des étoiles » lancé par Reagan, tandis que des mesures semi-protectionnistes sont mises en place en réaction au succès de l’informatique japonaise. Jusqu’à aujourd’hui, l’intervention étatique, par des programmes de recherches ciblés ou des commandes militaires, est un élément essentiel du dynamisme de l’innovation aux États-Unis. Dans The Entrepreneurial State, paru en 2013, Mariana Mazzucato a montré le rôle décisif de programmes publics dans toutes les grandes innovations de ces dernières décennies, depuis Internet et le séquençage du génome jusqu’à l’écran tactile et la géolocalisation113. Elle démystifie ainsi le rôle de l’entrepreneur dans les trajectoires technologiques, montrant par exemple que le succès d’Apple repose en très grande partie sur de la dépense publique. Surtout, elle remet au centre de l’économie de l’innovation la question de la réflexion stratégique, en démontrant que cette question n’est pas seulement celle du montant des dépenses de R & D, mais que c’est leur attribution aux secteurs où les opportunités sont les plus fortes qui est décisive. Il s’agit d’une invalidation sans appel de la doctrine qui a prévalu en Europe. En prenant pour argent comptant le mythe de la Silicon Valley, les dirigeants européens ont sciemment brimé les fonctions entrepreneuriales de l’État, contribuant largement à entraver le développement des forces productives et accentuant les difficultés sociales et économiques sur le Vieux Continent.
Au terme de ce tour d’horizon, la prégnance de la référence à la Silicon Valley se révèle éminemment paradoxale. L’« esprit start-up » a laissé place à la prédation de monopoles privés. L’ode à l’autonomie et à la créativité individuelle débouche sur des outils de management informatisés qui exacerbent la subordination salariale. La polarisation territoriale, la concentration des gains entre les mains de quelques « gagnants » et les entraves à la circulation des connaissances nourrissent des dynamiques de marginalisation qui font obstacle à la fois à l’innovation et à la jouissance de ses possibles bienfaits. En grandissant, la Silicon Valley et, plus largement, le monde de l’innovation dont elle est l’emblème, se sont donc mués en une réalité contraire aux principes qui en ont fait le succès initial. Cette évolution est si marquée que la doctrine qui en est à l’origine est largement périmée, ce qui rend aujourd’hui la mobilisation politique de ce mythe tout à fait anachronique. En fin de compte, comme le constatent avec désarroi Jonathan Haskel et Stian Westlake, les politiques de soutien à l’innovation héritées de cette époque sont prises dans un cercle vicieux :
Pour que l’économie prospère, les décideurs politiques vont chercher à créer de la confiance et des institutions fortes, favoriser l’ouverture d’opportunités, atténuer la conflictualité sociale et empêcher que des entreprises puissantes ne se laissent aller à un comportement rentier. Mais, dans le même temps, une économie des intangibles efficace semble justement exacerber tous ces problèmes, créant des formes d’inégalités très controversées, menaçant le capital social et donnant naissance à des firmes puissantes dont l’intérêt est de protéger leurs actifs intangibles114.
Les fissures qui lézardent le consensus de la Silicon Valley en témoignent : contrairement à ce qui était annoncé, les mutations socioéconomiques accélérées qui accompagnent l’essor du numérique n’ont pas donné lieu à une nouvelle jeunesse du capitalisme. Les indices qui s’amoncellent tendent plutôt à indiquer une involution de ce mode de production.
« Alors que l’économie valorise la croissance, l’efficacité, le choix et la liberté négative, la politique fait appel à l’intérêt public, à la citoyenneté égale, à la légitimité démocratique et à la souveraineté populaire. »
L’optimisme libéral des années 1990, qui promettait l’épanouissement de la démocratie dans le sillage de l’ouverture des marchés, a, lui aussi, fait long feu. Trois décennies plus tard, c’est le constat d’un hiver de la démocratie qui s’impose116. Celui-ci procède de deux dynamiques combinées. La première est la multiplication des formes non démocratiques de régulation du capitalisme. Si la Chine ou la Russie représentent le parangon de ce type de formation sociale, les victoires électorales de leaders autoritaires en Europe et aux États-Unis démontrent que, en Occident aussi, des offres politiques fort peu démocratiques peuvent accéder au pouvoir.
Sur un autre plan, le mépris dont les firmes de la Silicon Valley font preuve envers les libertés individuelles et les droits démocratiques est également significatif. On se souvient de l’annonce faite par McLuhan de l’écrasement des structures hiérarchiques du fait des technologies de l’information et de la manière dont les dirigeants de Google se faisaient fort de contribuer à « déconcentrer le pouvoir loin des États et des institutions et le transférer aux individus ». Ces promesses ne font pas le poids face aux perspectives de croissance, notamment celles offertes par le marché chinois. Apple a ainsi annoncé, à l’été 2018, avoir confié à une filiale de l’opérateur public China Telecom les données iCloud de ses utilisateurs basés dans le pays, y compris leurs e-mails et SMS117.
Les formes flagrantes d’autoritarisme se superposent à une érosion qui atteint plus subrepticement la vie politique des vieilles démocraties occidentales. Wendy Brown parle de « défaire le démos118 » pour indiquer la manière dont les politiques néolibérales vident de sa substance une vie démocratique prise en étau entre l’affadissement du débat public et la mise à distance de toute forme d’influence populaire sur les questions économiques clés.
Ces tendances convergentes interrogent la fragilité de ce qu’on appelle depuis le milieu du XXe siècle la « démocratie libérale » et invitent à reconsidérer sérieusement l’hypothèse d’une « reféodalisation de la sphère publique » formulée en 1962 par le philosophe allemand Jürgen Habermas119.
À l’époque, l’incursion des médias de masse au cœur du salon familial constitue pour Habermas un fait décisif dans la mue consumériste de la sphère familiale. La sphère publique cède alors la place à une consommation culturelle dans « un espace où une sorte de superfamille retrouve un climat, non plus d’intimité, mais de simple promiscuité120 », tandis que la conversation publique se professionnalise à mesure qu’elle se marchandise. Alors que l’individu est renvoyé à une position de consommateur de conversation publique, celle-ci est transformée en un produit de masse dont la visée première consiste à faire de l’audience afin de pouvoir être valorisée par la vente d’espaces publicitaires. « Réduite à n’être qu’une “affaire”, la discussion devient formelle […]. La manière de poser les problèmes devient une question de protocole et les conflits, qui autrefois se réglaient au sein de la polémique publique, sont ramenés au plan des frictions d’ordre personnel121. » Cette transformation altère profondément la qualité du débat public. Le business de l’information et du débat cherche en effet à fabriquer du consensus ou, plutôt, ce que l’on peut appeler des centres cognitifs de convergence des subjectivités. Ces points de reconnaissance s’incarnent dans des personnalités davantage que dans des opinions clairement articulées.
Dans la perspective du jeune Habermas, ces évolutions détruisent les conditions de possibilité d’une discussion critico-rationnelle des affaires publiques. Bien avant le XXIe siècle, la dégradation de la qualité de la discussion publique engendre une forme de « reféodalisation de la sphère publique », à comprendre en un double sens. En premier lieu, le critère de rationalité s’efface dès lors que la convergence des opinions résulte d’un processus où la mise en spectacle et la personnification des orientations politiques derrière la figure d’un leader fait écho à l’incarnation et la représentation du pouvoir féodal122 :
La sphère publique devient une cour devant le public, de laquelle un prestige est mis en scène – au lieu de développer une critique au sein de ce public123.
En second lieu, la fusion du divertissement de masse avec la publicité aboutit à un mélange des genres, caractéristique du féodalisme, dont l’État lui-même n’est pas indemne :
Puisque les entreprises privées prêtent à leurs clients la conscience qu’ils agiraient en citoyens lorsque leurs décisions sont celles de consommateurs, l’État se voit contraint de s’« adresser » à ses citoyens comme à des consommateurs. C’est ainsi que les pouvoirs publics s’ingénient eux aussi à bénéficier d’une publicité124.
Habermas indique que le développement capitaliste tend à saper les structures politiques qui l’ont historiquement accompagné et à éroder leur potentiel démocratique. Loin d’être linéaire, la dynamique interne de ce système produit, sur le temps long, des reflux charriant les mânes du féodalisme.
Cette analyse met en relief la dimension politique de l’imposture libérale qui prétend replier le capitalisme sur l’économie de marché, à savoir la fiction selon laquelle ce régime économique est fondé sur des échanges entre égaux. Ce mythe, développé par les théoriciens libéraux du XIXe siècle, vit toujours dans les élucubrations d’hommes politiques qui, à l’instar d’un Newt Gingrich embrassant l’idéologie de la Silicon Valley dans les années 1990, promettent un capitalisme de petits propriétaires. Mais qu’advient-il lorsque la concurrence ouverte entre fondateurs de start-up aboutit à un nouveau règne des monopoles ? Ou bien, plus généralement, lorsque la société est polarisée entre détenteurs des moyens de production et couches sociales prolétarisées et que, comme aujourd’hui, les inégalités se creusent à l’échelle mondiale au profit d’une infime minorité d’hyper-riches ? Ces situations indiquent une asymétrie radicale du pouvoir économique, détruisant toute possibilité d’une discussion démocratique rationnelle sur l’intérêt général. En raison de cette polarisation, la façon dont l’État intervient dans la lutte entre intérêts économiques accapare l’essentiel du débat public ; les secteurs affaiblis exigent une action correctrice à laquelle s’opposent, de toutes leurs forces, les plus puissants. L’inégalité structurelle du capitalisme, et, singulièrement, son exacerbation contemporaine, rend donc impossible la distinction entre sphère privée et action publique en même temps qu’elle supprime la catégorie d’intérêt général.
L’espace du débat critico-rationnel est étouffé par l’entremêlement des deux autres puissances de contrôle des ressources que sont l’argent et le pouvoir administratif. La montée en puissance de l’État social dans l’après-guerre avait laissé espérer à certains un dépassement progressiste de la sphère publique bourgeoise par la constitution d’une méta-sphère publique capable de structurer le débat entre des organisations, dont la vie interne aurait été nourrie d’un riche débat démocratique.
Ce n’est clairement pas le chemin qui a été suivi depuis quatre décennies. Comme le résume Nancy Fraser :
La démocratie est vidée de sens à tous les niveaux. Les agendas politiques sont partout restreints, tant par les décrets externes (les exigences « des marchés », le « nouveau constitutionnalisme ») que par la cooptation interne (l’emprise des lobbies d’affaires, la sous-traitance, la diffusion de la rationalité néolibérale). Des affaires qui étaient autrefois considérées comme relevant pleinement de l’action politique démocratique sont désormais dévolues aux « marchés »125.
En parallèle, le délitement des services publics et de la protection sociale ainsi que l’intensification du bombardement publicitaire ont généré une marchandisation accrue de la vie quotidienne, qui tend à produire des subjectivités atomisées, cantonnées à un rôle de consommation passive de la vie sociale et obnubilées par les performances individuelles.
Les transformations de la sphère publique consécutives à la banalisation des communications électroniques n’ont pas contrecarré ce déclin. L’espoir qu’Internet contribuerait à une régénérescence démocratique a pu sembler trouver un début de confirmation. Par exemple, en France, une intense effervescence en ligne a nourri la discussion publique lors de la campagne précédant le référendum sur le projet de constitution européenne en 2005. Lors des révolutions arabes de 2011 et des divers « mouvements des places », de nombreux commentateurs ont souligné le rôle des modes de communication électroniques dans les mobilisations, suggérant qu’elles auguraient d’un renouveau de la sphère publique. Ces potentialités sont réelles, mais de fortes dynamiques adverses sont aussi à l’œuvre. On sait notamment que la sophistication des mécanismes d’interaction dans les réseaux sociaux limite les possibilités d’une conversation pluraliste et aboutit à la formation de boucles largement autonomes et indifférentes les unes aux autres, un phénomène encouragé par exemple par Facebook, qui se sert des informations personnelles de ses utilisateurs dans son système de hiérarchisation des publications126. Plus encore, les potentialités démocratiques d’Internet sont aujourd’hui menacées par les appétits des grandes firmes du secteur, avec le développement des droits de propriété numérique (DRM) et la fragilisation du principe de neutralité du réseau. Enfin, l’appropriation massive des données par les grandes entreprises et les appareils de sécurité des États fait peser des menaces inédites sur les libertés individuelles et collectives. C’est dans ce contexte qu’en référence à la notion de reféodalisation de la sphère publique proposée par Habermas, la notion de « féodalisme digital » a été mise en circulation dans le champ des études sur la culture et les médias127.
Cette idée mérite d’être creusée. Pour ce faire, je vais à présent interroger les rapports entre capitalisme et contrôle à l’âge des Big Data : surveillance, dépendance, capture, monopolisation, nouvelles rentes… Par petites touches, ce qui va apparaître, au-delà d’une simple réminiscence de tel ou tel aspect du féodalisme, c’est une configuration qui évoque la logique féodale dans son ensemble. En d’autres termes, la possibilité d’un techno-féodalisme.
« Les plateformes numériques sont souvent décrites comme des biens immobiliers virtuels ; d’où la comparaison avec la découverte d’une frontière nouvelle et luxuriante. […] Dans les termes classiques du Far West, […] les rentes vont aux pionniers qui sauront impitoyablement surveiller et protéger ces territoires […]. Tout ceci sonne terriblement médiéval, parce que ce qui est à l’œuvre fait précisément écho à cette époque de l’histoire. La seule véritable différence, c’est le caractère numérique du paysage. En revanche, la nature des seigneurs qui prélèvent les tributs est la même1. »
C’est un rituel. Amazon reproduit systématiquement dans son rapport annuel la lettre adressée aux actionnaires par son fondateur, Jeff Bezos, lors de l’introduction en Bourse en 1997. Il est vrai que la cohérence est remarquable, tant du point de vue du projet que de la stratégie suivie. Bezos explique dans ce document que la vocation d’Amazon n’est pas simplement de faire économiser du temps et de l’argent à ses clients : « Grâce à la personnalisation, le commerce en ligne va accélérer le processus même de découverte2. » Via la personnalisation, c’est-à-dire l’accumulation de données personnelles et contextuelles, Amazon se positionne en amont du choix du consommateur : il s’agit d’anticiper sur la demande, voire de la susciter grâce à des suggestions pertinentes.
Le cœur de l’activité d’Amazon n’est donc pas, dès cette époque, la vente de livres, mais bien une transformation des conditions cognitives d’accès aux marchandises par le biais de la contextualisation. Friedrich Hayek considérait la concurrence, et notamment la concurrence marchande, comme une « procédure de découverte3 », un moyen de produire de la connaissance. Bezos situe le système d’Amazon dans le même cadre : il met en œuvre une méthode pour produire de la connaissance et guider l’accès aux biens et services marchands grâce à l’exploitation des données. C’est dans cette fonction socioéconomique générique que réside le devenir généraliste d’Amazon. L’ambition initiale de « développer une activité durable, y compris sur des marchés vastes et déjà bien établis » se fonde sur une innovation radicale : la collecte des données numériques en masse pour guider les transactions économiques4.
Amazon n’est pas un conglomérat rassemblant des activités disparates dont la combinaison peut conduire à des abus de position dominante. C’est une firme généraliste-spécialisée. L’oxymore tient au caractère universellement indispensable de son champ de spécialité dans les sociétés complexes. Amazon produit de la coordination économique : indiquer le bon produit, au meilleur prix, et le mettre à disposition au bon endroit au bon moment. Pour remplir cette fonction avec bien plus d’agilité et de précision que ne le faisait le Gosplan en Union soviétique, Amazon a besoin de données, donc de croissance. Cette soif d’augmentation, précondition à l’accumulation de données, explique pourquoi, dès le départ, le projet de Bezos s’inscrit dans la construction d’un leadership sur le long terme :
Nous croyons que la mesure fondamentale de notre succès sera la valeur que nous créerons à long terme pour les actionnaires. Cette valeur sera le résultat direct de notre capacité à étendre et à consolider notre position de leader sur le marché. Plus notre leadership sur le marché est fort, plus notre modèle économique est puissant. Le leadership sur le marché se traduit directement par des revenus plus élevés, une plus grande rentabilité, une plus grande vitesse de rotation du capital et, par conséquent, des rendements sur le capital investi plus élevés5.
Cette insistance sur le développement à long terme a d’ailleurs valu à Bezos de recevoir les louanges d’un des critiques les plus féroces du capitalisme financiarisé, Bill Lazonick6. Lazonick est un spécialiste de la financiarisation et un expert dans la question de la distribution de la valeur aux actionnaires. Lui et son équipe étudient depuis deux décennies la façon dont les dirigeants d’entreprises distribuent les profits aux marchés financiers sous forme de dividendes et de rachats d’actions plutôt que de les réinvestir dans le développement de leurs firmes. Ils voient dans cette propension à la distribution des profits une des principales causes des tendances stagnationnistes et de la hausse des inégalités. Or, sous cet angle, Amazon n’est pas une entreprise financiarisée. C’est l’une des très rares grandes sociétés américaines à conserver ses bénéfices. Durant les vingt années qui ont suivi son introduction en Bourse, Amazon n’a jamais versé de dividendes à ses actionnaires. Tandis qu’entre 2012 et 2017 les firmes de l’indice Standard & Poor’s 500 redistribuaient 98 % de leurs profits, Amazon investissait, innovait et étendait à une vitesse vertigineuse le spectre de son activité.
Pour comprendre la logique de cet investissement et l’accent mis sur l’importance de conserver le leadership, on peut revenir à l’une des intuitions de la Magna Carta : l’analogie entre le cyberspace et la conquête de l’Ouest :
Le cyberspace est la dernière des frontières américaines. […] Le besoin d’affirmer les principes fondamentaux de la liberté est […] nécessaire parce que nous entrons sur de nouveaux territoires où il n’y a encore aucune règle – de même qu’il n’y avait pas de règle sur le continent américain en 1620, ou sur les territoires du Nord-Ouest en 17877.
La préoccupation des auteurs de la Magna Carta est d’abord de construire une continuité idéologique entre le nouveau champ d’activité humaine qu’ouvrent les réseaux numériques et un imaginaire politique préexistant, celui de l’individualisme et de la petite propriété. C’est la raison pour laquelle ils recourent à la métaphore de la conquête. Mais, très vite, cette image revêt d’autres connotations : stratégiques d’abord, géologiques ensuite. Dès 2009, le service de presse des forces américaines explique ainsi que
les cyber-opérations sont un autre théâtre d’opérations pour l’armée américaine, et le ministère de la Défense doit y appliquer la même rigueur analytique et les mêmes ressources qu’à tout autre théâtre d’opérations8.
Puis, dans un rapport publié par la MIT Technological Review en 2016, l’idée est que les réseaux numériques ouvrent l’accès à un nouveau sous-sol regorgeant de ressources à extraire :
Du point de vue de la production de données, les activités sont comme des terres qui attendent d’être découvertes. Celui qui arrive le premier et en prend le contrôle obtient les ressources qu’elles recèlent – en l’occurrence, leurs richesses en données9.
Cette nouvelle terre à conquérir couvre l’ensemble de ce qui peut être numérisé : images tirées de la vidéosurveillance, historiques des tickets de caisse, données d’utilisation des appareils connectés (téléphones mobiles, enceintes connectées, réfrigérateurs, détecteurs de fumée, thermostats, compteurs « intelligents »), transactions et interactions sur les réseaux numériques (formulaires en ligne, services bancaires électroniques, publications sur les réseaux sociaux), données de navigation sur le Web, données de localisation, mesures des capteurs intégrés aux objets (senseurs sur les équipements industriels ; pass de transports en commun), passeports électroniques, échantillons d’ADN, etc., etc. La colonisation de ces nouvelles terres riches en données procède de dispositifs techniques et juridiques très divers, mais, dans tous les cas, elle implique une forme d’appropriation territoriale : il s’agit de planter des bornes là où il est possible de puiser des données. C’est le moment extractiviste dans la formation des Big Data, celui du captage des sources.
Cette logique extractiviste est par exemple à l’œuvre dans la diffusion du système d’exploitation Android. Google a mis ce système d’exploitation à disposition gratuite des constructeurs de téléphones portables afin de prendre une position stratégique sur le marché, en contournant l’écosystème logiciel Apple et en devenant le point d’entrée par défaut vers Internet depuis les smartphones. En 2018, 88 % des smartphones fonctionnent sous Android, et les applications Google comptent parmi les plus utilisées. Comme l’écrit le magazine Politico, reprenant à son tour la métaphore foncière, c’est grâce à cette incursion dans les mobiles via le système d’exploitation que Google s’est construit « un empire immobilier en ligne10 », donnant à la firme de Mountain View un relais de croissance pour ses recettes publicitaires.
Selon Nick Srnicek, un des théoriciens du courant accélérationniste, l’appétence des plateformes numériques pour les données est centrale pour expliquer leur croissance, qui suit « des connexions rhizomiques guidées par un effort permanent pour prendre des positions clés ». Les fusions et acquisitions ne procèdent pas d’une logique de concentration horizontale visant à accroître un pouvoir de marché dans un segment donné. Elles n’obéissent pas davantage à une logique d’intégration verticale dont l’objectif serait de combiner des activités immédiatement complémentaires comme, par exemple, les réseaux de télécommunications et la production de contenu audiovisuel. Ni simple concentration horizontale, ni pure intégration verticale, le développement des plateformes suit une stratégie d’expansion guidée par la conquête des sources de données. Srnicek tire de ce constat sa « thèse de la convergence » :
Les différentes plateformes ont tendance à se ressembler toujours plus et à empiéter sur les mêmes zones de marché et de données. Actuellement, il existe pléthore de modèles de plateformes différents […]. Mais, compte tenu de la nécessité d’accroître l’extraction de données et de prendre le contrôle des positions stratégiques, les firmes sont attirées par les mêmes types d’activités. Ainsi, en dépit de leurs différences, des entreprises comme Facebook, Google, Microsoft, Amazon, Alibaba, Uber et General Electric (GE) sont aussi des concurrents directs11.
En d’autres termes, quel que soit le business d’origine, les stratégies de conquête du cyberspace ont désormais toutes le même objet : prendre le contrôle des espaces d’observation et de captation des données issues des activités humaines. Contrairement à ce qui est souvent affirmé, la question de la rareté n’est donc pas étrangère aux Big Data12. Celles-ci peuvent certes être reproduites à un coût infinitésimal, mais les données originales sont rares. D’où la logique d’expansion cyberspatiale, sur un territoire limité, qui transcende les cloisonnements sectoriels. D’où aussi le caractère tendanciellement généraliste des plateformes, qu’illustre la liste vertigineuse des concurrents qu’identifie Amazon dans son rapport annuel :
Nos activités portent sur une grande variété de types de produits, d’offres de services et de canaux de livraison. […] Nos concurrents actuels et potentiels comprennent : 1) les commerces de détail, les éditeurs, les vendeurs, les distributeurs, les fabricants et les producteurs en ligne, hors ligne et multicanaux des produits que nous offrons et vendons aux consommateurs et aux entreprises ; 2) les éditeurs, producteurs et distributeurs de médias physiques, numériques et interactifs de tous types et sur tous les canaux de distribution ; 3) les moteurs de recherche Web, les comparateurs Web, les réseaux sociaux, les portails Web […] ; 4) les sociétés qui fournissent des services de commerce électronique, y compris le développement de sites Web, la publicité, l’exécution, le service à la clientèle et le traitement des paiements ; 5) les sociétés qui fournissent des services d’exécution et de logistique pour elles-mêmes ou pour des tiers, en ligne ou hors ligne ; 6) les sociétés qui fournissent des produits ou des services de technologie de l’information, y compris des infrastructures et d’autres services sur place ou dans le cloud ; et 7) les sociétés qui conçoivent, fabriquent, commercialisent ou vendent des produits électroniques grand public, des dispositifs de télécommunication et des appareils électroniques13.
À la fin des années 1990, le Web était encore un espace marginal pour le commerce. En 1997, les achats en ligne ne représentaient que 1,5 milliard de dollars sur un total 2 500 milliards. Une goutte d’eau14. La même année, les dépenses publicitaires sur le Web ne dépassaient pas les 550 millions de dollars. Certes, celles-ci croissaient rapidement, puisqu’elles atteignaient 2 milliards dès l’année suivante, mais leur poids était encore minime par rapport aux quelque 285 milliards de dépenses publicitaires aux États-Unis15. À cette époque, l’activité marchande sur Internet était encore très limitée et les modèles économiques hautement incertains. Les premiers retours des entreprises sur leurs ventes en ligne s’avéraient décevants et de nombreux responsables marketing étaient sceptiques.
En 1998, Procter & Gamble, le géant des produits de consommation courante (hygiène et produits de beauté), dépense 3 milliards de dollars pour promouvoir ses produits. Au mois d’août de cette année-là, il convoque des centaines de professionnels du marketing et d’Internet, y compris des firmes concurrentes, à son siège de Cincinnati dans l’Ohio pour une conférence intitulée « Future of advertising stakeholders summit16 ». Ce genre d’événement est tout à fait inhabituel. Il était motivé par la frustration face aux difficultés rencontrées par la publicité en ligne naissante. Certains problèmes étaient d’ordre technologique : une bande passante trop faible, des normes et standards non harmonisés, des mesures d’audience peu fiables. Mais l’autre grand sujet était l’acceptabilité de la publicité en ligne par les consommateurs, et tout particulièrement la question du droit à la vie privée. Le sommet de Cincinnati a contribué à identifier le verrou stratégique à faire sauter pour permettre la « commercialisation » du Web : l’acceptation par les consommateurs de l’utilisation de leurs données personnelles à des fins commerciales.
En 1999, Donna Hoffman et Thomas Novak, deux professeurs de marketing, publient un article intitulé « Advertising pricing models for the World Wide Web17 ». Ils y distinguent deux types de sites Web financés par la publicité : les sites dont le contenu est sponsorisé, comme CNN, et les portails qui guident les internautes sur le Web, et qui s’appellent alors Yahoo !, Netscape ou Excite. L’enjeu pour les éditeurs de ces sites est de créer un marché pour la publicité : format, audience, efficacité… tout est encore très instable, mais déjà deux modèles de fixation des prix apparaissent.
Le premier, le plus répandu à cette époque, est fondé sur le nombre de vues, selon une logique d’audience similaire à celle des médias traditionnels. Il s’agit tout simplement de comptabiliser les internautes qui visitent une page. Mais en rester à cette technique de mesure est peu satisfaisant, eu égard aux possibilités offertes par le Web. Les bandeaux placés sur les pages d’accueil de sites généralistes ne devraient pas être valorisés de la même manière que sur celles qui font directement écho au contenu d’une recherche étroitement ciblée. Sur Internet, du point de vue de la valorisation, « c’est le contexte, pas le contenu, qui est roi18 ».
La seconde mesure, qui permet de rendre compte de cette efficacité différenciée des publicités selon le contexte, c’est le clic. Là encore, Procter & Gamble est aux avant-postes. Dès 1996, l’entreprise exige de ne payer le moteur de recherche (Yahoo !, en l’occurrence) que pour les clics des internautes plutôt que pour les vues brutes des bannières publicitaires. Simple, direct, le paiement au clic des espaces publicitaires va être largement adopté. Ce qui intéresse les annonceurs, c’est la réponse des clients potentiels à leurs messages, or précisément, « avec Internet, pour la première fois un média permet de mesurer la réaction des consommateurs, et pas seulement de la supposer19 » : le clic devient l’étalon mesurable de la réaction.
Bannières ou clics, ces deux méthodes reflètent les positions distinctes de l’éditeur et du publicitaire : le premier cède une partie de son espace de publication et entend être rémunéré en proportion ; le second est intéressé au mouvement effectif des internautes dans la direction souhaitée. Dans les années 2000, cette différence conduit à l’émergence d’une mesure combinée : le taux de clics prévu, c’est-à-dire une estimation du nombre de clics qu’une empreinte publicitaire donnée recevra. C’est sur la base de ce taux de clics prévu, complété par des indicateurs marketing de qualité du message, que les espaces publicitaires sur le Web sont alloués au plus offrant, dans des systèmes d’enchères, par les principaux moteurs de recherche20.
Certes, le clic n’est pas un indicateur parfait. Il n’implique pas directement un engagement avec la marque et encore moins un achat effectif. Il constitue cependant le point de départ d’une nouvelle conception marketing fondée sur la fabrique et la mesure de l’interactivité. Le clic signale un déplacement de l’internaute, un mouvement depuis le site où il est arrivé intentionnellement vers là où l’annonceur cherche à l’attirer ; c’est une réponse directe au message publicitaire qui peut être mesurée avec précision. Ce changement de perspective marketing est porteur d’un bouleversement radical, qu’Hoffman et Novak perçoivent de façon étonnamment précoce en 1999. L’horizon de la publicité en ligne, expliquent-ils, c’est une saisie contextuelle, globalisante, de l’interaction client-message-marchandise :
Il sera nécessaire d’élaborer un ensemble de mesures de réponses intégrées dans l’espace et dans le temps afin de pouvoir apprécier précisément les effets de l’exposition et de l’interactivité sur la réaction des consommateurs. Les mesures d’exposition et d’interactivité peuvent prendre la forme, par exemple, du comportement d’achat dans une vitrine en ligne, du changement d’attitude et du nombre de visiteurs qui demandent des renseignements supplémentaires. Pour disposer de telles métriques, sont toutefois nécessaires : 1) l’identification des visiteurs, et 2) des données multisites sur chaque site Web participant à la campagne de marketing intégrée. Tant que ces données ne sont pas disponibles, il est difficile de mesurer les résultats.
En plus des paramètres décrits ci-dessus, d’autres mesures comportementales et psychologiques devraient être prises en compte pour préciser les effets de la publicité en ligne. Il s’agit de l’historique de navigation sur le site Web concerné et sur le Web en général ; les caractéristiques démographiques, psychographiques et comportementales des visiteurs […] ; les mesures cognitives et les attitudes, y compris les flux ; la fidélité des visiteurs et la fréquence des visites. Il est anticipé que les futurs modèles de tarification intégreront ces mesures de manière inédite21.
Multisites, intertemporelles et intégrant l’expérience dans le cyberspace et dans le monde réel… les données nécessaires à ces régimes publicitaires émergents posent des questions éthiques et politiques complexes dont les auteurs ont parfaitement conscience. D’un côté, les potentialités d’intrusion dans la vie privée sont considérables :
Les environnements informatiques en réseau et distribués, comme Internet, offrent des possibilités sans précédent d’atteinte à la vie privée. L’information sur les personnes est plus accessible et plus facilement combinée et intégrée que dans le monde physique.
D’un autre côté, les prévenances des consommateurs contre ces intrusions entrent directement en contradiction avec les attentes des firmes :
Il y a une tension entre, d’un côté, le besoin qu’ont les équipes de disposer de renseignements précis sur les consommateurs individuels pour pouvoir développer des dispositifs ciblés et, d’un autre côté, le droit des consommateurs à la protection de leur vie privée22.
Ces questions sont d’autant plus délicates que les droits des consommateurs et la protection de la vie privée « peuvent conduire les organismes publics à intervenir pour réglementer le commerce en ligne23 »…
Nous n’étions pas même entrés dans le nouveau millénaire, les techniques de pistages et d’agrégation étaient encore balbutiantes que, déjà, les théoriciens du marketing avaient saisi les coordonnées du problème politique central : la commercialisation du Web exige un régime de surveillance exhaustif dont la soutenabilité politique est incertaine.
« Ce quelqu’un d’autre nous regarde, nous nous sentons regardés par lui, hors de toute synchronie, avant même et au-delà de tout regard de notre part, selon une antériorité […] et une dissymétrie absolue, selon une disproportion absolument immaîtrisable. L’anachronie fait ici la loi. Que nous nous sentions vus par un regard qu’il sera toujours impossible de croiser, voilà l’effet de visière24. »
Trois éléments principaux caractérisent les Big Data : le fait d’être générées en continu, de viser simultanément à l’exhaustivité et à la granularité, et d’être produites de façon flexible afin de pouvoir toujours s’annexer des sources de données supplémentaires25. Autrement dit, les Big Data agrègent des informations relevant de différents domaines, non nécessairement liés les uns aux autres au préalable. Ces données hétérogènes sont traitées de manière agnostique : on fait apparaître des relations sans chercher à les expliquer. Ces propriétés des Big Data nourrissent une épistémologie empiriste naïve, l’idée étant que ce nouveau régime de connaissance procéderait par pure induction automatique – les données livreraient la vérité sans passer par le détour de la théorie. Or il n’en est rien26. Les données, aussi massives soient-elles, relèvent du domaine de la représentation, elles expriment un point de vue nécessairement partiel et ne font sens qu’en lien avec une connaissance préalablement constituée. Elles ne sont pas innocentes. Elles contiennent de la théorie, cristallisée dans les algorithmes qui les organisent, sachant que la recherche de régularité qui les gouverne présuppose la construction d’hypothèses.
Les Big Data sont aussi lestées de biais sociaux et de rapports de domination. Les programmes d’intelligence artificielle ne se contentent pas de refléter les inégalités raciales ou de genre incrustées dans les institutions et les rapports de pouvoir, ils peuvent contribuer à les amplifier27. Les préjugés qu’ils comportent sont en effet intégrés à leur tour dans d’autres résultats algorithmiques. Il est ainsi apparu que Word Embedding, un programme d’analyse linguistique, classifiait les noms à connotations européennes-américaines comme étant agréables, et les noms africains-américains, désagréables. Autre exemple : les bases de données qui entraînent les algorithmes des véhicules autonomes à reconnaître les piétons étant surtout constituées de personnes à peau claire, les machines détectent systématiquement moins bien les piétons à peau sombre, qui encourent donc un risque accru de collision. On appelle « injustice prédictive » les implications négatives de ces biais dans la vie quotidienne28.
Les Big Data ne sont pas neutres. Mais, même si les biais et les préjugés qu’elles colportent pouvaient être corrigés, les inquiétudes ne seraient pas pour autant levées. Antoinette Rouvroy et Thomas Berns proposent le concept de « gouvernementalité algorithmique » pour désigner « un certain type de rationalité (a) normative ou (b) politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles »29. Cette forme de gouvernementalité contourne les sujets humains et les prive de réflexivité. Il s’agit, résument-ils, de « produire du passage à l’acte sans formation ni formulation de désir30 ». Les individus sont absolutisés, pris dans la complexité de leurs multiples déterminations, mais aussi désarticulés, réduits à des suites de mesures qui les enferment dans des possibles probabilisables. À l’image d’Alphaville, la cité futuriste imaginée par Jean-Luc Godard, la société gouvernée par les algorithmes se met à ressembler à « une société technique comme celle des termites ou des fourmis » où « les gens sont devenus esclaves des probabilités »31.
La tentative de réduire les existences aux probabilités porte en elle le risque de dessaisir les individus et les communautés de la maîtrise de leurs devenirs. Privées de leur capacité à défier les probabilités, c’est-à-dire à mettre en crise le réel, les subjectivités perdent toute leur puissance. Ce risque de déréalisation n’a rien d’une fatalité, mais il ne cesse de croître sous les effets de l’instrumentalisation de la gouvernementalité algorithmique dans les stratégies de profit des firmes du numérique.
La mobilisation des Big Data par les firmes relève d’un projet social que Shoshana Zuboff nomme le « capitalisme de la surveillance32 ». La stratégie de profit sur laquelle ce système repose consiste à prévoir et à modifier le comportement humain en vue de générer des revenus et de contrôler les marchés. Le capitalisme de la surveillance exige par conséquent une connaissance unilatérale et exhaustive de l’expérience humaine, qu’il transforme en données comportementales génératrices de prédiction. Informées par les Big Data, la suggestion et la prescription augmentent la prédictibilité des comportements à des fins de ciblage marchand. Mais le capitalisme de la surveillance ne s’arrête pas là. L’horizon de la quête d’une prévision toujours plus précise, indique Zuboff, c’est le pilotage du comportement.
Ce Big Other (« Grand Autre ») qui absorbe toutes les données que nous lui concédons en vient à nous connaître mieux que nous-même. Il explore tout, depuis les détails de notre correspondance jusqu’aux mouvements dans notre chambre à coucher en passant par l’inventaire de nos consommations. Par le biais d’expérimentations massives en ligne, il apprend à guider nos actions et finit par incarner un nouveau genre de totalitarisme. Là où le totalitarisme du XXe siècle opérait par la violence, ce nouveau pouvoir, qualifié par Zuboff d’« instrumentariste », opère par la modification du comportement.
Hayek et Keynes, bien qu’opposés sur presque tous les sujets, partageaient la conviction que l’économie était au fond un problème d’information et de connaissance. Cela conduisit Keynes à mettre l’accent sur l’incertitude radicale, et les implications de celle-ci dans la psychologie des acteurs économiques. Selon lui, la politique économique doit prendre en compte cette dimension psychologique du comportement économique et être à même, par une intervention vigoureuse, de contrecarrer les spirales dépressives par lesquelles un sentiment négatif se mue en anticipations autoréalisatrices. À l’inverse, pour Hayek, le caractère intrinsèquement dispersé de la connaissance est incompatible avec l’intervention publique. Seul le marché permet de mobiliser des connaissances qui sont par essence inaccessibles, du fait de leur caractère tacite et situé. En conséquence, toute perturbation de la dynamique concurrentielle ne peut que détériorer la qualité du processus cognitif à l’échelle de la société et, de ce fait, conduire à de mauvaises décisions économiques33.
Le propre de la nouvelle logique d’accumulation est d’opérer un renversement par rapport aux préoccupations de Hayek et de Keynes. Ce qui est central, ce n’est plus l’incertitude ou l’inconnaissable mais, au contraire, le prédictible. Zuboff voit dans les stratégies des capitalistes de la surveillance une « course à l’augmentation des degrés de certitude » où ceux-ci n’ont d’autre choix que de resserrer leur emprise sur l’activité sociale. Chacun à sa manière, Amazon, Google et Facebook renforcent ce lien primordial entre extension de la surveillance et valorisation.
Amazon et la logique de la recommandation. Un des secrets du succès d’Amazon réside dans son système de recommandation et dans ses atouts en termes de personnalisation du contexte de vente :
Amazon.com a construit un magasin adapté à chaque client. Chaque personne qui vient sur Amazon.com voit le site différemment, car celui-ci est personnalisé en fonction de ses intérêts. C’est comme si vous entriez dans un magasin et que les rayons commençaient à se réarranger afin que ce que vous êtes susceptibles de vouloir acheter soit mis en avant et, à l’inverse, que ce qui ne vous intéresse probablement pas soit mis en retrait. En fonction du contexte présent et de votre comportement passé, le système de recommandation d’Amazon.com sélectionne un petit nombre d’articles dont vous pouvez avoir envie34.
Cette personnalisation de l’expérience provient d’algorithmes de filtrage collaboratif qui tirent parti de l’expérience d’autres utilisateurs. Mais, plutôt que d’apparier les clients à d’autres clients au profil semblable, le système inventé chez Amazon est organisé à partir des objets : chacun des articles achetés et évalués par l’utilisateur est associé à des articles similaires, qui sont ensuite combinés dans une liste de recommandations en fonction du degré de proximité35. Cette liste est affinée par différentes métriques. Elle inclut par exemple une dimension temporelle, de sorte que le système intègre la logique séquentielle de certains achats (comme les tomes successifs d’une série littéraire) ou bien la trajectoire sociobiologique des individus (vieillissement, cycle associé à la naissance d’un enfant…). Un des principaux avantages de cette technique est que l’essentiel des calculs est fait hors ligne, ce qui permet à la fois une grande puissance et une grande rapidité du système. Le dispositif est redoutablement efficace. Les taux de clics et leur conversion en achats sont très élevés. Il générerait environ 30 % des pages vues sur Amazon. Sur Netflix, qui utilise ce même type de procédé, 80 % des vidéos regardées passent par cet intermédiaire, ce qui en fait un des éléments essentiels de la valorisation de la firme36. Le rapport entre recommandation et action est donc circulaire : de la qualité du ciblage dépend celle du guidage ; et, réciproquement, les pratiques guidées sont validées par l’action de l’agent, informant ainsi le cycle des recommandations futures.
Google et la hiérarchisation contextuelle. Alphabet, la société mère de Google, est avant tout une entreprise de publicité. En 2017, cette activité engendre 87 % de ses revenus et l’entreprise contrôle 33 % de l’ensemble du marché publicitaire en ligne dans le monde (74 milliards de dollars sur un total de 224), et 42 % aux États-Unis37. Le système de vente d’espaces publicitaires qui a fait la fortune de Google repose sur deux éléments dont la puissance se combine. Le premier est la performance du moteur de recherche. Le système de classement inventé par Sergey Brin et Lawrence Page est fondé sur l’architecture des liens hypertextes du Web38. À la différence des premiers moteurs de recherche, qui fonctionnaient principalement à partir d’une analyse par mots clés, le prototype de Google prend en compte à la fois le nombre de liens pointant vers une page et l’importance relative des pages contenant ces liens, ainsi que d’autres éléments tels que le texte des liens, la localisation des demandes ou encore des caractéristiques visuelles, comme la taille des polices de caractères. Le succès rencontré par ce nouveau moteur de recherche provient de la puissance de son principe de hiérarchisation, capable d’offrir les résultats les plus pertinents, c’est-à-dire d’écarter non seulement les mauvais résultats (junks), mais également de discriminer ceux qui n’étaient que modérément intéressants du point de vue de la recherche formulée. C’est sur ce socle fonctionnel que le succès économique de Google s’est construit.
Le second élément décisif est la pertinence des annonces par rapport au contexte de navigation. C’est ce qui assure que, au pire, le caractère perturbateur de l’annonce par rapport à l’expérience de navigation sera limité, et qu’au mieux celle-ci sera perçue positivement par l’internaute. La finesse du ciblage publicitaire dépend de l’analyse des mots clés, de l’historique de navigation, et de nombreuses autres données collectées dans l’écosystème Google. Cette richesse contextuelle permet un ciblage extrêmement précis, qui augmente la probabilité qu’une publicité déclenche un clic. Maximiser l’effet comportemental recherché par l’annonceur accroît la valorisation de l’espace publicitaire.
Alphabet s’est diversifié dans les années 2010 en élargissant ses activités dans le domaine de la cybersécurité (Chronicle), de l’intelligence artificielle (Deepmind), de la maison intelligente (thermostats, caméras, senseurs, alarmes et sonnettes vidéo de Nest) ou encore des voitures autonomes (Waymo). En 2018, alors que cette filiale lançait ses premiers taxis robots sur les routes de l’Arizona, sa valeur estimée – entre 70 et 250 milliards de dollars – dépassait potentiellement celle des plus grands constructeurs comme Volkswagen (75 milliards) et Toyota (193 milliards). La stratégie de profit mise en œuvre par Waymo ne consiste pas à construire de meilleures voitures mais à prendre le contrôle de la voiture comme espace de vie, de mobilité et donc de « derrick à données », ce qu’explique une note de la banque UBS détaillée par le Financial Times :
La menace que fait peser Waymo n’est pas de construire de meilleures voitures. L’entreprise n’en a pas besoin. Au contraire, elle commande des véhicules à Chrysler et Jaguar – réduites au statut de fournisseurs – et les équipe ensuite de logiciels et de matériels de conduite automatique fabriqués en interne. Mais son potentiel va au-delà de ses capacités supérieures en matière d’autoguidage. Une fois que les robotaxis seront généralisés, Alphabet pourra recueillir des données à partir de Google Maps et Search, divertir les passagers avec YouTube et Play Store, offrir des conseils par le biais des haut-parleurs intelligents de Google Home ou encore utiliser sa puissance logicielle pour gérer les flottes. Outre le véhicule lui-même, Waymo est un « système fermé » intégré verticalement, explique UBS. Ce qui se joue avec les robotaxis « va influencer le secteur de la publicité, des médias et du secteur du divertissement », ajoute M. Thill. Ce n’est pas seulement la technologie autonome, ce sont tous les composants que Google apporte à la voiture qui sont importants. C’est pourquoi cette firme investit autant dans les équipements de salon, elle veut que la voiture ressemble à votre salon39.
La collecte, l’intégration et le traitement des données guident l’extension de Google, toujours avec la volonté d’offrir les produits les plus pertinents selon les individus et le contexte. Pour Lawrence Page, fondateur et directeur exécutif de la firme, « le problème de Google, c’est qu’il faut lui poser des questions ; il devrait savoir ce que vous voulez et vous le dire avant même que vous le lui demandiez40 ». Cibler donc, pour anticiper les conduites, mais, plus encore, pour les guider.
Facebook et l’intégration logicielle extensive. Ce principe de mise en contexte n’a cessé de s’affiner. Il tend à intégrer toutes les traces numériques laissées par chacun dans ses activités, dont les données relatives à son réseau social, ses déplacements, ses historiques d’achats, ainsi que ses informations personnelles – voire intimes –, administratives, financières, professionnelles. Il a été démontré que Facebook recevait directement, et sans que les utilisateurs n’en soient avertis, les données de certaines applications mobiles. C’est le cas notamment d’un programme de méditation appelée Breethe, et d’un autre appelé Instant Heart Rate, vanté comme « le premier, le plus rapide et le plus précis des cardiofréquencemètres portatifs », ou encore de l’application Flo. Cette dernière propose d’« enregistrer plus de 30 symptômes et activités afin de générer, à partir de l’intelligence artificielle, les prédictions les plus précises concernant le cycle menstruel et l’ovulation » et promet de mieux « connaître son corps en détectant des motifs physiques et émotionnels récurrents ». Dans chacun de ces cas, des informations, que ce soit sur les méditations, le rythme cardiaque ou la date d’ovulation, sont transmises à Facebook.
Les données collectées proviennent de petits programmes intégrés aux applications ou aux sites Web appelés Software Development Kits (SDK). Ils permettent de les enrichir par des fonctionnalités avancées : ils transmettent à une plateforme d’analyse des données telles que le nombre et la durée des sessions, la localisation, le type de terminal utilisé, mais aussi des informations entrées par les utilisateurs dans l’application, ce qui permet aux entreprises de mieux connaître le comportement des usagers et de mieux cibler la publicité qui leur est destinée.
Facebook Analytics propose ainsi des « analyses centrées sur les personnes pour un monde omni-canal41 ». Il promet aux entrepreneurs une « compréhension approfondie des lieux et comportements des personnes interagissant avec leur entreprise à travers leur site Web, leurs applications, leur page Facebook et bien plus encore » grâce à « des statistiques recueillies auprès de la communauté de 2 milliards de personnes ». Conformément à la thèse de l’unscaling42, qui pointe la possibilité d’associer échelle d’opération réduite et puissance des Big Data, cette firme géante propose des services informatiques sophistiqués, impossibles à mettre en œuvre pour une entreprise de taille moyenne.
Par le canal des SDK, le réseau social accède à des sources additionnelles de données personnelles qu’il met en relation avec les données utilisateurs qu’il possède déjà, densifiant ainsi son savoir sur les existences individuelles. Cela lui permet de faire des études de marché sophistiquées, d’alimenter le processus algorithmique afin de sélectionner finement le contenu à afficher sur le profil des utilisateurs et, bien sûr, de vendre des publicités de plus en plus ciblées. Selon le Wall Street Journal, qui a mené une enquête sur ces SDK, ces données d’applications mobiles sont cruciales pour les profits de Facebook :
En raison des connaissances accumulées par Facebook sur le comportement des utilisateurs, l’entreprise peut offrir aux spécialistes du marketing un meilleur retour sur investissement que la plupart des autres firmes. Par exemple, lorsque ceux-ci veulent cibler des utilisateurs amateurs d’exercice physique ou bien des personnes qui sont à la recherche d’une nouvelle voiture de sport, ces publicités ont un prix par clic plus élevé. C’est la raison pour laquelle les revenus de Facebook sont en hausse43.
Dans cette course à la ressource permettant d’extraire l’information pertinente, les géants du Web veillent jalousement sur les données qu’ils collectent eux-mêmes ou s’approprient chez leurs partenaires. Mais ils ont aussi recours, pour les compléter, à des courtiers spécialisés dans la compilation de fichiers :
Oracle possède ou travaille avec plus de 80 courtiers qui canalisent un océan de données […], notamment le comportement d’achat des consommateurs en magasin, les transactions financières, les comportements sur les médias sociaux et les informations démographiques. La société prétend vendre des données sur plus de 300 millions de personnes dans le monde, avec 30 000 attributs de données par individu, et mettre « plus de 80 % de la population Internet américaine à portée de votre doigt »44.
Avec 30 000 attributs par individu et des dispositifs de traçage multiples et enchevêtrés, on en sait beaucoup sur chacun. Cet avantage informationnel tiré de l’exploration systématique des données constitue ce que Zuboff appelle un « surplus comportemental », une connaissance holistique qui offre une position surplomblante à l’organisation qui la contrôle, et lui permet de ne la mobiliser que par rapport aux objectifs qu’elle se donne. Ainsi, l’information pertinente pour l’utilisateur ne sera divulguée que si elle converge avec l’impératif de valorisation.
La nouveauté et la force de l’argument de Zuboff, c’est de montrer où nous mène cette dynamique : l’horizon du capitalisme de la surveillance n’est pas d’accroître la prédictibilité des comportements, mais bel et bien de les piloter. Le ressort de ce pilotage peut être un dispositif subtil d’incitation, à l’instar du jeu Pokémon Go dont le modèle économique repose sur l’idée de faire payer des commerces pour guider les déambulations des foules vers des destinations qui leur soient favorables. Elle montre qu’il peut aussi être plus intrusif, par exemple en saisissant à distance le véhicule connecté d’une personne en retard sur ses échéances de prêts ou d’assurance. Les technologies télématiques, processus de gestion informatisés à distance, ont un objectif clair :
La télématique n’est pas seulement destinée à savoir mais aussi à faire […]. Elle promet de réduire les risques grâce à des processus machine conçus pour modifier les comportements dans le sens d’une rentabilité maximale. Le surplus comportemental est utilisé pour déclencher des sanctions, telles que des hausses de tarifs en temps réel, des pénalités financières, des couvre-feux et des blocages de moteurs, ou des récompenses, telles que des rabais sur les tarifs, des coupons et des étoiles d’or à échanger contre des avantages futurs45.
Pour Zuboff, les firmes du capitalisme de la surveillance construisent l’infrastructure d’un Big Other qui puise sans limite dans notre expérience sociale des ressources qu’il réagence lui-même, et nous retourne sous forme d’injonctions comportementales de telle manière que notre autonomie s’en trouve radicalement réduite. Ce Big Other est un spectre au sens de Jacques Derrida. Face à lui, l’asymétrie est radicale. Il dispose de l’« insigne suprême du pouvoir : voir sans être vu », tandis qu’en tant qu’individus nous sommes pris dans un « effet de visière : nous ne voyons pas qui nous regarde »46. Cependant, contrairement à la plupart des spectres, Big Other ne se contente pas d’habiter nos vies, il joue avec. Il active son pouvoir dans un travail de modelage existentiel fait de recommandations, suggestions et obligations qui affectent en profondeur nos comportements. Ce que montre Zuboff, c’est que le capitalisme de la surveillance prospère au mépris de l’intégrité de l’individu autonome, touchant au cœur la condition humaine.
Big Other a l’« intangibilité tangible d’un corps propre sans chair ». Insaisissable, il est partout à la fois : c’est « une incorporation paradoxale, le devenir-corps, une certaine forme phénoménale et charnelle de l’esprit47 ». Mais de quel esprit s’agit-il ? Comment est-il produit ? D’où tire-t-il sa puissance ? À ces questions, une première réponse peut être apportée, qui s’attache au genre de connaissance dont les Big Data procèdent et, plus précisément, au rôle des expériences aléatoires contrôlées.
Internet comme laboratoire. Les expérimentations contrôlées aléatoirement sont constituées de trois éléments48. Le premier est l’expérimentation proprement dite, c’est-à-dire l’essai, le traitement dont on souhaite tester les effets. Le deuxième, c’est le contrôle : il renvoie à l’idée de disposer d’un point de comparaison. Le troisième, la randomisation, vise à améliorer la qualité du contrôle en mobilisant les propriétés statistiques du hasard.
Ce dispositif a une longue histoire, à la croisée de plusieurs disciplines. Si ses racines plongent dans la médecine expérimentale du XIXe siècle, sa formalisation date des années 1920. Alors qu’il cherchait à évaluer l’efficacité d’un engrais sur des parcelles d’avoine, le généticien et agronome Ronald Fischer eut l’idée de déterminer aléatoirement quelles parcelles seraient traitées et quelles parcelles ne le seraient pas. Il explicite en détail sa démarche dans un article publié en 1926, qui lui vaut d’être retenu par l’histoire des sciences comme le premier théoricien de cette méthode d’expérimentation. Après la Seconde Guerre mondiale, la pratique se généralise et se standardise, en particulier dans le contexte des essais cliniques en médecine. Elle est aussi très utilisée aux États-Unis et au Canada pour l’évaluation des politiques publiques, notamment en matière d’emploi. Enfin, au début du XXIe siècle, ces méthodes sont redécouvertes dans le champ de l’économie du développement avec les travaux d’Esther Duflo et de l’équipe du JPAL au MIT49.
Ce qui est moins connu, c’est que des expérimentations de ce genre sont aujourd’hui déployées à une échelle inédite sur le Web. Nous servons régulièrement de cobayes pour des expériences dont nous ignorons tout, comme le révèlent Ron Kohavi et Roger Longbotham, deux chercheurs de Microsoft spécialistes de ces expérimentations :
Les expériences contrôlées en ligne ont commencé à être utilisées à la fin des années 1990 avec la croissance d’Internet. Aujourd’hui, de nombreux grands sites, dont Amazon, Bing, Facebook, Google, LinkedIn et Yahoo !, mènent chaque année des milliers ou des dizaines de milliers d’expériences pour tester les changements d’interface utilisateur (IU), les améliorations des algorithmes (recherche, annonces, personnalisation, recommandation, etc.), les changements d’applications, le système de gestion de contenu, etc. Les expériences en ligne sont maintenant considérées comme un outil indispensable, et leur utilisation se développe parmi les start-up et les sites Web de plus petite taille50.
La raison de cet usage massif est simple : la multiplication des objets connectés rend possible d’évaluer à grande échelle les effets de dispositifs distincts sur le comportement des individus. À la différence des autres techniques de datamining, il ne s’agit pas simplement d’exhiber des régularités statistiques spontanées, mais d’établir des corrélations contrôlées avec un très haut degré de probabilité.
Les expérimentateurs, qui sont souvent des économistes51, peuvent explorer des hypothèses telles que : « Si un changement spécifique est introduit, va-t-il améliorer des indicateurs clés ? » Typiquement, une expérimentation peut consister à modifier, à la marge, la forme d’une publicité sur un moteur de recherche, puis à distribuer aléatoirement à des utilisateurs la vue standard et la vue modifiée afin d’observer les variations de comportement. Les différences introduites sont souvent mineures – par exemple, dans le cas d’un test mené sur Bing, le moteur de Microsoft, l’ajout d’un lien interne dans un bandeau publicitaire, ou un changement de la taille des polices, ou encore du nombre d’annonces sur une page – mais elles peuvent avoir des effets qui se chiffrent en millions de dollars.
L’une des difficultés consiste à définir l’indicateur adéquat pour mesurer l’effet recherché, une métrique synthétique que les spécialistes appellent l’Overall Evaluation Criterion. Par exemple, un effet sur le taux de clics peut être faussement positif s’il conduit à une baisse de la fréquentation du site. Il convient donc de trouver une manière satisfaisante de capturer ces deux aspects. Il faut aussi s’assurer que les résultats sont fiables, en écartant notamment les faux signaux résultant de l’activité des robots logiciels. Mais, dès lors que ces difficultés sont bien prises en compte, les expériences sont concluantes.
Pour Hal Varian, l’économiste en chef de Google, les expériences aléatoires « sont la référence en matière de causalité. […] Si vous voulez vraiment comprendre la causalité, vous devez faire des expériences. Et si vous faites des expériences en continu, vous pouvez améliorer votre système52 ». Techniquement, Varian a tort. Les tests ne permettent pas de comprendre la causalité : ils indiquent la robustesse statistique d’un lien de corrélation, mais ils n’expliquent rien. Par exemple, on peut établir solidement qu’en changeant la couleur d’une publicité on augmente le taux de clics. Mais pourquoi ce lien existe, quels mécanismes culturels, sociaux, ou biologiques sont à l’œuvre ? On n’en sait rien. La seule chose démontrée, c’est le lien. Dans une logique instrumentale, cependant, c’est assez. Ces corrélations constituent des bases suffisantes pour construire des dispositifs profitables.
D’abord cantonnée aux grandes firmes, la méthode du « test and learn » devient la norme dans les cycles d’innovation en environnement numérique, les plateformes offrant aux entreprises tierces les outils pour réaliser leurs propres tests en ligne. Doit-on s’inquiéter de ces nouvelles méthodes ? Une expérience menée sur Facebook au cours de la semaine du 11 au 18 janvier 2012 a ouvert le débat. Elle cherchait à savoir si les phénomènes de contagion émotionnelle, par ailleurs étudiés en psychologie sociale, se retrouvent dans le contexte des réseaux sociaux53. Les résultats furent conformes aux hypothèses. Les personnes dont la quantité de contenus positifs fut diminuée dans leur fil d’actualités (news feed) utilisèrent un plus grand pourcentage de mots négatifs et un plus petit pourcentage de mots positifs dans la mise à jour de leurs statuts. Le mouvement inverse fut observé pour ceux dont le nombre de contenus négatifs avait été diminué. Certes, l’impact mesuré est assez faible (une variation de l’ordre de 0,1 %), mais cela indique tout de même que des centaines de milliers d’émotions exprimées chaque jour peuvent être altérées par de tels procédés de filtrage. L’étude a aussi montré que la réduction du nombre de messages à contenu émotionnel positif ou négatif diminue le nombre de mots qu’une personne produit subséquemment sur le réseau social. Autrement dit, il existe un levier par lequel Facebook peut jouer sur l’engagement des individus. Favoriser les contenus chargés émotionnellement tend à accroître la production de contenu, ce qui signifie que la firme a intérêt à hystériser la sélection des contenus pour augmenter l’implication de ses utilisateurs. Cette étude établit donc un lien entre la capacité de manipulation émotionnelle et l’engagement sur le réseau social – et donc la profitabilité de Facebook…
Cette expérimentation a suscité une vague de réprobation, parce que des individus ont pu être affectés sans jamais avoir explicitement consenti à participer à l’expérience54. À la différence cependant des institutions scientifiques, l’entreprise n’est pas tenue à des normes éthiques codifiées en matière d’expérimentation. Comme pour les autres firmes Internet, sa politique d’utilisation des données est stipulée dans ses conditions d’utilisation, sur lesquelles la plupart d’entre nous cliquons sans les avoir lues, telles que :
Nous utilisons les informations à notre disposition pour développer, tester et améliorer nos produits, notamment en réalisant des sondages et des recherches, et en testant et en dépannant les nouveaux produits et les nouvelles fonctionnalités55.
Un avertissement aussi vague laisse à l’entreprise les coudées franches. Mais ce n’est là que la pointe émergée d’un iceberg dont l’essentiel reste protégé par le secret des affaires. Ces manipulations expérimentales de masse sur Internet sont le pain quotidien des équipes de recherche travaillant sur les applications numériques. C’est même leur moyen principal d’innovation. La plupart du temps, les firmes ne publient pas les protocoles et les résultats des expérimentations auxquelles elles procèdent, puisqu’il s’agit d’éléments décisifs dans la construction de leur avantage concurrentiel.
Quand les machines expérimentent. Les enjeux des expérimentations en ligne ne font que s’accentuer avec le développement de l’apprentissage machinique en intelligence artificielle. En octobre 2015, AlphaGo, un programme développé par DeepMind, une société du groupe Alphabet, battait pour la première fois un joueur professionnel de go, Fan Hui, champion d’Europe en titre. En mars 2016, le programme réitérait son exploit contre l’un des meilleurs joueurs au monde, le Sud-Coréen Lee Sedol. Jusqu’alors, le jeu de go était considéré comme l’un des plus difficiles à maîtriser pour les programmes d’intelligence artificielle. La victoire de l’ordinateur ne tient pas seulement à une plus grande capacité de computation. Cette prouesse est le fruit d’un entraînement intensif de la machine ; celle-ci ne calcule pas les conséquences de tous les coups mais apprend, par accumulation d’expérience, quel genre de coup conduit aux meilleurs résultats56. Outre l’examen d’un nombre considérable de parties jouées par d’autres, la machine apprend à sélectionner les meilleurs coups en jouant contre elle-même. Elle expérimente sur elle-même.
Cette méthode de « renforcement par apprentissage » est une technologie mature dans le champ de l’intelligence artificielle, avec des applications développées dans de très nombreux domaines tels que la robotique, la vision informatique, les jeux, mais aussi la finance, l’éducation, les transports, les réseaux d’énergie et la santé57. Les expérimentations sont menées par des machines sur les humains en vue de maximiser un résultat non immédiat. De même qu’avec le jeu de go, il s’agit pour l’ordinateur de tester des coups, d’explorer des stratégies inconnues. La différence, c’est qu’ici la machine ne joue pas contre elle-même. Elle teste l’efficacité d’agencements qu’elle impose aux humains, dans le but de produire le comportement que les commanditaires de l’étude cherchent à promouvoir. Une expérience a par exemple été menée pour encourager des patients atteints de diabète de type 2 à pratiquer un exercice physique58. On a laissé la machine apprendre à personnaliser les messages envoyés aux participants en jouant notamment sur leur contenu, positif – avec ou sans éléments de sociabilité – ou négatif, et leur fréquence. Au fur et à mesure, le programme affinait ses interactions avec chacun des individus en fonction de ses réactions aux signaux envoyés. Il a ainsi appris à adapter individuellement les messages, parvenant à augmenter sensiblement le niveau d’activité des patients.
Après la Seconde Guerre mondiale et les procès de Nuremberg, le consentement éclairé a été posé comme l’un des réquisits éthiques pour les expérimentations sur des sujets humains. Dans le cadre des expériences en ligne cependant, ce principe est largement bafoué, le consentement étant le plus souvent extorqué via les conditions générales d’utilisation des plateformes validées lors de l’inscription. À l’âge du numérique, massification de l’expérience et extension du contrôle vont de pair. Si, au XIXe siècle, « il y a de fait une affinité profonde entre le savoir expérimental et le pouvoir des institutions disciplinaires59 », on peut dire que, au XXIe siècle, le développement des expérimentations en ligne est associé à un pouvoir de surveillance totale.
Cette mise en perspective inquiétante de l’emprise du Big Other sur nos existences pointe des menaces bien réelles, mais elle n’éclaire que partiellement le problème. Le risque, avertit Evgeny Morozov, c’est « qu’en cherchant à expliquer et à dénoncer ce qu’il y a de neuf dans la dynamique de surveillance du capitalisme, Zuboff ne normalise que trop le capitalisme lui-même60 ». Autrement dit, à trop se focaliser sur la dimension disciplinaire des dispositifs déployés, le danger est de négliger leurs ressorts économiques. Ce qui manque à la thèse du « capitalisme de la surveillance », c’est un questionnement en termes d’économie politique. Quelles modifications du mode de production sont intervenues pour en arriver là ? Comment se fait-il que la dynamique concurrentielle valide des stratégies de profits fondées sur la surveillance ?
À cette première critique, Morozov en ajoute une seconde, plus immédiatement politique. L’a priori normatif du livre de Zuboff, pointe-t-il, se fonde sur une sanctification de l’individu libéral : face aux dérives du capitalisme de la surveillance, son horizon est essentiellement celui de la protection de la souveraineté des choix du consommateur isolé. Mais n’y a-t-il pas là une autre dimension, plus collective, à penser ?
« Comme un millénial typique, constamment collée à mon téléphone, ma vie virtuelle a pleinement fusionné avec ma vie réelle. Il n’y a plus de différence. »
La théorie de Zuboff est sous-tendue par la prémisse atomistique libérale d’un être humain libre et autonome. C’est précisément ce présupposé que Frédéric Lordon met en pièces dans Imperium en critiquant l’idée que le social n’est qu’un rassemblement d’individus fondamentalement souverains, ne se liant les uns aux autres qu’à titre volontaire. Reconduisant le parti pris holiste de la sociologie héritière d’Émile Durkheim, Lordon considère au contraire qu’il y a « une excédence du tout sur les parties62 » :
Le social est nécessairement transcendance, quoiqu’une transcendance d’un genre très particulier : une transcendance immanente. Il n’est pas de collectivité humaine de taille significative qui ne se forme sans projeter au-dessus de tous ses membres des productions symboliques de toutes sortes, que tous ont contribué à former quoiqu’ils soient tous dominés par elles et qu’ils ne puissent y reconnaître leur « œuvre »63.
Deux chercheurs travaillant respectivement pour Amazon et Microsoft, Brent Smith et Greg Linden, suggèrent que les Big Data participent d’une logique similaire :
Les recommandations et la personnalisation se nourrissent de la mer de données que nous créons tous en nous déplaçant dans le monde, y compris ce que nous trouvons, ce que nous découvrons, et ce que nous aimons […]. Les algorithmes ne sont pas magiques, ils partagent simplement avec vous ce que d’autres personnes ont déjà découvert64.
Des productions symboliques qui émanent des individus mais qui, en se multipliant et en s’agrégeant, prennent une forme qui leur devient méconnaissable, c’est bien ce que sont les Big Data : une « mer de données » dans laquelle puisent les algorithmes, une excédence qui émane des actions individuelles mais qui, au cours du processus d’agrégation, en vient à les transcender et leur revient métamorphosée.
Entre le social et les Big Data, il y a plus qu’une analogie. Les Big Data ne sont bien sûr pas tout le social, mais elles sont du social. Elles procèdent d’un mouvement dialectique : dans un premier temps, cristallisation symbolique de la puissance collective saisie dans les régularités statistiques ; puis rétroaction de celle-ci sur les individus et leurs comportements. Ce qu’ont en commun la plupart des plateformes, c’est que les données qu’elles collectent auprès des utilisateurs rendent possible le service qu’elles leur apportent. Que les traces qu’ils y laissent soient des termes de recherche, des échantillons vocaux ou des notes attribuées à des prestations, « les utilisateurs sont dans une boucle de rétroaction dans laquelle ils contribuent aux produits qu’ils utilisent. C’est le b.a.-ba de la science des données65 ». La capture des données nourrit les algorithmes, et ceux-ci viennent en retour guider les conduites, les deux se renforçant mutuellement dans une boucle de rétroaction.
La puissance des Big Data tient à un effet de taille. Autrement dit, l’excédence algorithmique, l’effet de transcendance qui résulte de la collecte et du traitement des données immanentes, est d’autant plus forte que leur nombre est grand. Mais le revers de cette puissance des grands nombres est un risque de perte de contrôle66. Ce qui est possible à l’échelle des petits nombres en termes de pleine conscience partagée des ressorts et des effets de la vie collective devient, à l’échelle des grands nombres, une affaire de spécialistes, un job de data scientists. Difficile pour la multitude de s’autosaisir de sa propre puissance lorsqu’elle ne la reconnaît pas, celle-ci lui étant devenue étrangère. « Composer, c’est davantage qu’additionner : c’est faire surgir un supplément67 », écrit Lordon. Le drame, c’est que, dans ce mouvement vertical de composition du social, la puissance qui se manifeste s’expose au risque de dépossession :
Car la potentia multitudinis est la « matière » même de la capture, la « chose » à capter […]. C’est le fait institutionnel même qu’on pourrait caractériser comme capture. L’autorité des institutions, leur pouvoir normalisateur, pouvoir effectif de nous faire nous comporter d’une certaine manière, de nous faire faire certaines choses, choses édictées par leur norme, cette autorité n’a d’autre origine que la puissance de la multitude, qu’elles captent en lui donnant la forme pour ainsi dire cristallisée : les institutions sont des cristallisations de potentia multitudinis68.
Remplacez « institutions » par « Big Data » et vous saurez ce dont le Big Other est le nom. Ou plutôt, voyez dans les Big Data non pas des faits techniques, mais des faits institutionnels – quelque chose qui, comme l’écrit un des pères de l’institutionnalisme, John R. Commons, « contrôle, libère et favorise l’expansion de l’action individuelle69 ».
Dans le mouvement ascendant de chasse aux données, ce qu’il s’agit de capturer ce ne sont pas fondamentalement les données elles-mêmes, mais bien ce qu’elles recèlent de puissance sociale. Dans le mouvement descendant, cette puissance investit les individus, elle étend leur capacité d’action en les dotant des ressources cognitives de la force collective. Mais ce retour de la puissance du social opère sous l’empire des pouvoirs qui l’agencent : l’individu est ainsi simultanément augmenté de la puissance du social restituée par les algorithmes et diminué dans son autonomie par les modes de restitution. Ce double mouvement est une domination, car la capture institutionnelle est organisée par des firmes qui poursuivent des fins qui leur sont propres, sans rapport avec celles que pourraient se donner les communautés affectées.
Les Big Data procèdent d’un effet de transcendance immanente d’un genre particulier, placé sous l’empire du capital et des firmes numériques. Le processus ascendant de cristallisation symbolique de la puissance collective (potentia) rétroagit sous forme de pouvoir (potestas) exercé sur les individus par des organisations qui poursuivent leurs propres fins. C’est là que se situe le cœur de ce dispositif, dont Zuboff ne rend que partiellement compte avec son concept de capitalisme de la surveillance.
L’être humain augmenté de notre âge numérique n’échappe pas davantage à l’empire des algorithmes que l’être humain socialisé n’échappe à l’empire des institutions. La cristallisation dans le Cloud de l’excédence sociale imprègne les existences individuelles, elle les attache comme autrefois les serfs étaient attachés à la glèbe du domaine seigneurial. Cette force du social, qui émane des communautés humaines et façonne les individus, s’objective en partie dans les Big Data. Il faut y voir un nouveau genre de moyen de production, un terrain d’expérience auquel les subjectivités du XXIe siècle sont rivées.
Nos complémentarités s’incarnent désormais dans un nombre restreint de dispositifs informatiques hégémoniques au fort pouvoir d’attraction. La place qu’occupe encore aujourd’hui le logiciel Microsoft Word illustre ce mécanisme de manière élémentaire. Word m’est utile car il m’offre un moyen d’écrire et de mettre en forme mon travail, mais surtout parce que mes éditeurs, mes collègues, mes coauteurs et coautrices, mes étudiants et étudiantes, l’administration de mon université et plus de 1,2 milliard de correspondants potentiels70 travaillent également avec ce logiciel, ce qui garantit l’intégrité des documents que je veux envoyer ou recevoir. L’attention que nous avons consacrée à appréhender l’interface d’Office, les routines que nous avons apprises à son usage, les données utilisateur que nous avons accepté de transmettre à l’éditeur du logiciel nous inscrivent dans un écosystème sociotechnique contrôlé par Microsoft, et qu’il est coûteux de quitter. De surcroît, il n’y a pas de mécanisme de coordination simple permettant une migration simultanée de toutes les personnes qui utilisent Word vers un autre logiciel. Au final, si Word persiste, c’est parce que sa diffusion progressive depuis sa première version de 1983 a créé une « contrainte de sentier », un effet de verrouillage71.
La difficulté de renoncer à la suite Microsoft Office, alors même que des alternatives performantes et gratuites existent, est le revers de la médaille des complémentarités de réseau qui nous lient les uns aux autres. Pour la firme de Seattle, c’est une aubaine sans grand rapport avec la qualité intrinsèque de ses produits. Les utilisateurs sont poussés à utiliser le Pack Office pour assurer la continuité de leurs activités. Cela implique d’activer un code précis, propriété intellectuelle de Microsoft et qui lui rapporte des dizaines de milliards de dollars chaque année72.
L’attachement à ce logiciel est cependant bien léger en regard de la force d’attraction engendrée au sein d’autres écosystèmes des géants du numérique. Google est devenu un auxiliaire indispensable au quotidien de la plupart des Occidentaux. Si Google Maps est en mesure de me proposer le trajet optimal, c’est parce qu’il dispose en temps réel des données de géolocalisation fournies par d’autres terminaux utilisant ses programmes. Grâce à l’analyse de mes e-mails ou de mon agenda, Google connaît ma destination et m’informe sur mon parcours avant même que je ne l’interroge. Il saura de même me donner spontanément le résultat d’un match sur lequel j’aurai fait une recherche la veille.
En nous observant et en nous testant, les plateformes nous restituent de puissants effets utiles. C’est la force de nos complémentarités qui nous revient. On constate déjà la vigueur de cette emprise. Durant l’été 2014, quand Facebook est tombé quelques heures en panne dans plusieurs localités étatsuniennes, les services d’urgences furent submergés d’appels73. Devenues indispensables, les plateformes doivent être pensées comme des infrastructures74, au même titre que les réseaux électriques, ferroviaires ou télécoms. Leur gestion relève du même type d’enjeux que celle des infrastructures critiques, dont l’importance sociale se mesure aux troubles que leurs dysfonctionnements peuvent engendrer.
L’architecture de ces infrastructures digitales est organisée autour de trois éléments clés : des composants centraux à faible variabilité, des composants complémentaires à forte variabilité et des interfaces qui gèrent la modularité entre composants centraux et complémentaires. Cette structuration permet de concilier robustesse fondamentale et souplesse d’évolution. Le prix à payer pour cela est une asymétrie radicale entre les acteurs qui sont en charge des composants centraux, ceux qui interviennent sur les éléments complémentaires et, en bout de chaîne, les utilisateurs qui peuvent naviguer entre les modules mais restent attachés à la plateforme à laquelle ils ont confié leurs traces. Ils en sont captifs dans la mesure où ils y ont déposé, avec le temps, un ensemble d’éléments qui les singularisent : leur réseau de connaissances, leurs habitudes de navigation, leurs historiques de recherches, leurs centres d’intérêt, leurs mots de passe, leurs adresses…
Le développement de ces écosystèmes d’application fondés sur des plateformes fermées marque une rupture fondamentale avec le principe d’organisation qui avait présidé à la conception initiale du World Wide Web. Le Web repose sur une architecture décentralisée dans laquelle un protocole générique de transaction (http) et un format d’identifiant uniforme (URI/URL) créent un espace de contenu « plat » auquel les agents humains et informatiques peuvent avoir accès de manière uniforme et sans médiation. La plateforme, à l’inverse, recrée de la médiation : elle met en place des boucles rétroactives dans lesquelles les interactions deviennent plus denses. L’objet technique qui sous-tend cette architecture hiérarchisée, c’est l’interface de programmation des applications (API) dont la plateforme est propriétaire. D’un côté, via les API, les grandes plateformes offrent aux applications qui s’y nichent les données de base qui leur sont indispensables pour y prospérer ; d’un autre côté, la plateforme accède aux informations additionnelles que celles-ci génèrent. Et la plateforme accumule d’autant plus de données que l’écosystème s’étoffe. C’est ce que montre l’exemple de Google Maps :
En 2005, Google a lancé Google Maps et a fourni presque immédiatement une API. L’API permettait à des tiers d’ajouter ou de superposer d’autres données sur la carte de base de Google, créant ainsi des « surcouches » cartographiques. En d’autres termes, Google a transformé les cartes en objets programmables, avec Google Maps comme plateforme. Des exemples similaires se sont multipliés par l’ajout d’API à la plupart des produits Google. Comme pour Facebook, les principaux avantages pour Google sont les données sur l’activité des utilisateurs renvoyées par l’API et l’omniprésence de son interface de marque, tandis que la myriade d’applications connectées à la plateforme Google bénéficient de la possibilité de s’appuyer sur les données fournies par Google75.
Le passage de l’architecture ouverte et horizontale du Web à la structure en couches hiérarchisées des plateformes coïncide avec l’accumulation d’une excédence socionumérique dans le Cloud. La mise à disposition individualisée et instantanée de ces ressources collectives entraîne un bouleversement de nos existences personnelles et de la vie sociale. Connecté en permanence, notre « être-cyborg » se densifie. Se proposant de nous délester de ce qu’il y a de plus mécanique dans nos activités cognitives76, les algorithmes apportent à chacun de nos rôles le secours immédiat et continu de notre force commune. À mesure que ces interventions se multiplient, nos vies se lient plus étroitement au Cloud.
Les formes de cet enracinement dans les strates numériques des plateformes sont modelées par les stratégies de profit des firmes. La qualité du service proposé croît avec les profits à mesure que les utilisateurs engendrent davantage de données. Les plateformes ont donc intérêt à enserrer les utilisateurs dans leur écosystème en limitant l’interopérabilité avec leurs compétiteurs77. Leur montée en puissance s’accompagne donc d’une logique de fragmentation d’Internet.
Les plateformes sont en train de devenir des fiefs. Outre la logique territoriale d’accaparement des sources de données originales, la boucle de rétroaction inhérente aux services numériques crée pour les sujets une situation de dépendance. Ceci non seulement parce que les algorithmes qui se nourrissent de l’observation de nos pratiques sont en train de devenir des moyens de production indispensables à l’existence ordinaire, mais encore parce que l’inscription des individus dans les plateformes y est rendue durable par un effet de verrouillage dû à la personnalisation de l’interface et à des coûts de sortie élevés78.
En fin de compte, le territoire numérique organisé par les plateformes est fragmenté en infrastructures rivales et relativement indépendantes les unes des autres. Qui contrôle ces infrastructures concentre un pouvoir à la fois politique et économique sur celles et ceux qui y ont partie liée. L’envers de la logique de la surveillance propre à la gouvernementalité algorithmique est l’attachement des sujets à la glèbe numérique.
La question de la nature du lien entre les plateformes de mobilité et les travailleurs a suscité de grandes controverses à propos des relations de travail à l’âge du management algorithmique. Le cas Uber est à cet égard paradigmatique, avec une question récurrente pour les 3,9 millions de chauffeurs inscrits sur la plateforme au 31 décembre 2018 : sont-ils, comme l’affirme Uber, des travailleurs indépendants qui contractent librement avec elle ? Ou bien doivent-ils être considérés comme des employés de la plateforme et bénéficier à ce titre des protections que procure le salariat ?
La réponse reste incertaine sur le plan juridique, d’autant que le problème se pose dans des termes différents selon les contextes locaux et nationaux. Par exemple, en 2019, le législateur californien a tranché en faveur de la seconde interprétation, indiquant que les travailleurs des plateformes sont des salariés et qu’en conséquence les plateformes doivent assumer leurs responsabilités d’employeurs en matière de sécurité sociale, d’assurance chômage, de taxes sur les salaires, de couverture contre les accidents du travail et de respect de la réglementation sur le salaire minimum. À l’inverse, les autorités françaises ont plutôt suivi l’argumentaire des plateformes qui, comme Uber, nient être des sociétés de service traditionnelles et se présentent comme des entreprises technologiques mettant en relation des consommateurs et des entrepreneurs individuels. Depuis 2016, une série de dispositifs législatifs a ainsi été adoptée dans l’Hexagone afin de « sécuriser le modèle des plateformes79 ».
Dans le fond, la question est d’abord celle de la rémunération du travail. Si Uber insiste tant sur l’indépendance des chauffeurs, c’est parce que leur requalification en salariés représenterait un surcoût très significatif, de l’ordre de 20 % à 30 % aux États-Unis80. Son modèle, encore fragile sur le plan financier, n’est viable que par la mobilisation d’un travail payé au rabais, c’est-à-dire avec des revenus horaires qui se situent au niveau des bas salaires de la restauration et du commerce81, dégrevé du coût des obligations d’employeurs.
La justification de cet arrangement contractuel repose sur un argument principal : l’autonomie. Les chauffeurs utilisent leur propre véhicule, choisissent leurs jours et horaires de travail et conservent la possibilité de basculer vers une autre plateforme à tout moment. Cette flexibilité constitue indéniablement un aspect important de la relation, ce qui ressort effectivement des enquêtes menées auprès des travailleurs concernés. Comme le résume un chauffeur Uber à New York : « Vous êtes votre propre patron. Si vous voulez, vous travaillez ; si vous ne voulez pas, vous restez à la maison. Cela dépend de vous82. » Pour enfoncer le clou, des chercheurs, parmi lesquels une économiste travaillant pour Uber, ont effectué un exercice de modélisation empirique afin de quantifier la valeur de cette flexibilité, qu’ils ont estimée à 40 % des revenus des chauffeurs83. Aux yeux d’Uber et des zélateurs du modèle de la gig economy, cette flexibilité et l’opportunité qu’elle représente pour les chauffeurs impliquent une absence de subordination et, par réciprocité, le caractère non salarial de la relation de travail.
Si la question de la subordination ne se pose pas exactement dans les mêmes termes que dans l’emploi classique, il apparaît néanmoins clairement que le rapport entre travailleurs et plateforme est fondé sur une asymétrie radicale, et ce aussi bien dans la perspective des systèmes d’information que du point de vue de l’analyse juridique.
Les spécialistes des systèmes d’information parlent de « management algorithmique » pour désigner les pratiques de surveillance, de direction et de contrôle déployées à distance et à l’aide de dispositifs logiciels84. Cette forme de gestion passe « par le suivi et l’évaluation en continu du comportement et des performances des travailleurs, ainsi que par la mise en œuvre automatique de décisions ». Ainsi, ces agents interagissent non pas avec des superviseurs humains mais principalement avec un système rigide et peu transparent, dans lequel une grande partie des règles commandant les algorithmes leur est inaccessible. Dans le cas des chauffeurs Uber, cela débouche sur une situation paradoxale, où l’aspiration à l’autonomie se heurte à l’emprise extrêmement forte de la plateforme sur l’activité85 : contrôle en temps réel du déroulé de la course, soumission à l’évaluation des passagers, opacité de la fixation des tarifs, interdiction de prendre les coordonnées des clients, bonus incitatifs visant à fidéliser les chauffeurs ou à accroître l’offre dans certaines zones, sanctions pouvant aller jusqu’à la désactivation du compte… L’asymétrie radicale incorporée dans l’architecture logicielle affaiblit drastiquement le pouvoir de négociation des travailleurs, ce qui rend la fiction selon laquelle la plateforme assurerait une simple fonction d’intermédiation intenable86.
C’est pourtant au maintien de celle-ci que les dirigeants d’Uber consacrent toute leur énergie. Avec l’entrée en vigueur de la loi en Californie début 2020, la firme de San Francisco fait face à la menace d’une requalification massive en contrats de travail des arrangements existants. Pour tenter d’y échapper, elle a entrepris de reconfigurer les paramètres régissant le fonctionnement de l’application dans cet État, de manière à élargir la marge d’autonomie des chauffeurs. Ceux-ci peuvent désormais connaître à l’avance la durée, la distance, la destination et le prix estimé de la course qui leur est proposée. Ils peuvent aussi rejeter des demandes sans risquer d’être pénalisés. Enfin, un mécanisme d’enchères inversées, par lequel ils fixent eux-mêmes un prix, a également été introduit dans quelques villes, à titre expérimental87.
Les circonvolutions du management algorithmique d’Uber en Californie comme les difficultés des autorités françaises à sécuriser juridiquement ce type d’activité montrent que les travailleurs des plateformes se situent « à la lisière du lien de subordination propre au contrat de travail88 ». Mais, au-delà de la question de la subordination, celle du rapport de dépendance économique demeure. Les plateformes de transport de passagers, de livraison ou de petits travaux à domicile permettent une organisation de services qui n’existerait pas sans l’intervention des dispositifs logiciels. En effet, c’est bien la puissance des boucles de rétroaction algorithmiques – réputation, ajustement en temps réel, simplicité, historique des comportements… – qui donne à ces services une qualité particulière, inaccessible aux producteurs individuels dispersés. Autrement dit, même si l’on considère que les travailleurs disposent d’une marge d’autonomie substantielle pour produire les services en question, ils ne peuvent atteindre le même degré de qualité en dehors de leur attachement à la plateforme. Cet attachement est précisément la raison pour laquelle la plateforme est en position d’obtenir un profit de leur travail.
Il y a là un point essentiel, reconnu par le droit social français. Le critère de « profit économique tiré de l’activité d’autrui » s’applique même en l’absence de lien de subordination et justifie la contribution du donneur d’ordre au financement de la protection sociale, par exemple pour la sécurité sociale des artistes auteurs89. Ainsi, la production d’un service médiée par des dispositifs algorithmiques, même si elle n’implique qu’une subordination très parcellaire, n’exclut pas une relation de dépendance économique totale entre le travail et le capital qui l’exploite. Cette disjonction possible est précisément ce qui singularise le rapport au travail dans le contexte des plateformes de mobilité. Alors que la question de la subordination se trouve au cœur de la relation salariale classique, c’est le rapport de dépendance économique qui est prééminent dans le contexte de l’économie des plateformes.
« Est-on préparé à la vérité administrative, aux rapports froids sur la Table bien gardée des dieux ? »
Dans un article paru en 1970 et devenu un classique, George Akerlof démontre, à partir de l’exemple des véhicules d’occasion, que l’incertitude quant à la qualité d’un bien peut mettre en péril l’existence de certains marchés. L’impossibilité pour l’acheteur de connaître la qualité du véhicule et la possibilité pour le vendeur de dissimuler certaines tares conduisent les acheteurs à n’accepter qu’un prix correspondant à des véhicules de mauvaise qualité (des lemons dans l’argot étatsunien). Mais, comme ce prix n’est pas acceptable pour ceux qui souhaitent vendre un véhicule de bonne qualité, ceux-ci quittent le marché de l’occasion, qui se réduit finalement aux seuls lemons91.
La malhonnêteté des vendeurs constitue un problème sérieux pour la théorie économique. Alors même qu’il existe des acheteurs potentiels pour certaines catégories de biens, les asymétries d’information peuvent empêcher que des transactions se réalisent. Du point de vue économique, le principal coût lié à la présence de marchands véreux ne tient donc pas tant à la perte subie par des acheteurs victimes de tromperies sur la marchandise qu’au fait que, par manque de confiance, un grand nombre de transactions potentielles n’aboutissent pas.
Dans les années 1990, alors que le commerce électronique en était à ses premiers balbutiements, ces problèmes d’asymétrie d’information semblaient être des obstacles presque insurmontables à son développement. À la différence d’un achat en magasin, il est en effet impossible d’examiner, de toucher, de soupeser un objet avant de l’acquérir en ligne. Impossible également de vérifier l’identité du vendeur. Bien sûr, le système judiciaire prévoit des sanctions contre les fraudeurs et les escrocs, mais il est coûteux d’y avoir recours. Dans la vie courante, la confiance se construit surtout par la répétition des échanges, par des liens de proximité et dans la durée. Or si l’essor d’Internet promettait, en diminuant les coûts de communication, d’étendre immensément le champ des transactions, rien ne garantissait que la confiance indispensable aux échanges suivrait. L’activation de ces nouveaux liens économiques exigeait l’invention d’un vecteur de confiance adéquat au nouveau medium. À défaut d’un tel mécanisme, la multiplication des arnaques aurait asséché le marché en ligne, tout comme les lemons d’Akerlof chassaient les bonnes voitures du marché des véhicules d’occasion.
C’est eBay qui a le premier trouvé la solution : un système de réputation fondé sur l’évaluation mutuelle des agents92. Les utilisateurs sont invités à laisser, à propos des autres, une évaluation positive, négative ou neutre. Ces signaux sont ensuite agrégés et traduits en un score et en un taux d’avis positif. Acheteurs et vendeurs peuvent aussi rédiger des commentaires publics. Enfin, un système d’étoiles permet d’apporter une évaluation détaillée concernant différents aspects de la transaction. Ces outils de feedback sur la qualité de l’échange affectent les parties dans la durée, au-delà de la seule transaction concernée. En instituant un tel système, il s’agit d’inciter les parties à ne pas adopter un comportement opportuniste, c’est-à-dire à ne pas exploiter l’asymétrie d’information à leur profit. En clair, de pousser le vendeur à vendre ce qu’il promet et dans les conditions annoncées, en lui offrant une reconnaissance publique pour son comportement vertueux. La mise en place d’un tel référentiel d’évaluation permet aux futurs acheteurs potentiels de connaître le comportement passé du vendeur avant d’entrer en affaires avec lui. Nourrie par les retours des transactions passées, la réputation devient un levier incitatif puissant, qui facilite la confiance malgré l’anonymat.
Sur Airbnb, les locataires sont notés au même titre que les loueurs, car accepter de laisser son logement à quelqu’un implique de lui faire confiance. Les études montrent combien la réciprocité est valorisée : petites attentions, soins décoratifs, histoires en partage… La longueur des commentaires laissés par les hôtes accueillis révèle cette quête d’épaisseur sociale dans les transactions, ce que confirme le fait que les non-professionnels obtiennent des évaluations en moyenne meilleures que les loueurs professionnels93.
De même, selon Uber, « les notes favorisent le respect mutuel entre les passagers et les chauffeurs. Cela renforce notre communauté et permet à tout le monde de tirer meilleur parti des services ». La note est censée synthétiser la qualité de l’engagement des individus dans les interactions.
Afin de maximiser les transactions, les plateformes ont peu à peu complexifié leurs procédés de mesure de la réputation, enrichissant les retours explicites des internautes grâce à l’examen des indications implicites données via les traces de leurs échanges – par exemple, sur la messagerie Airbnb, par une analyse syntaxique du contenu de la correspondance entre loueurs et locataires. En ce cas, à la différence des méthodes de mesure directe de la réputation, la logique de classement échappe aux utilisateurs. Comme l’explique l’économiste Steven Tadelis, « les plateformes ont intérêt à adopter une approche paternaliste, de type normatif, qui ne suppose pas que les participants au marché puissent déchiffrer l’information efficacement94 ». Plutôt que de laisser les participants interpréter les informations disponibles, les plateformes les leur synthétisent sous forme de recommandations.
Ce glissement de la réputation à la recommandation est un déplacement du jugement : ce sont désormais les algorithmes qui décident pour nous des meilleurs appariements, à l’instar de l’application de rencontres Tinder, qui puise sans vergogne dans nos données personnelles afin de nous évaluer et de décider, sur des critères qui constituent son secret industriel, les partenaires potentiels qu’elle nous présente.
Certes, les plateformes affirment que, ce faisant, elles ne cherchent qu’à mieux satisfaire leurs utilisateurs. Mais les risques d’abus ne sont pas minces. Une plateforme peut manipuler son système de réputation à des fins moins avouables, comme lorsque le classement d’Amazon met en avant ses propres produits au détriment de ceux d’autres vendeurs.
Dans le contexte des réseaux sociaux, la gestion de la réputation pose des problèmes directement politiques. Facebook a commencé à attribuer à ses utilisateurs un score prédisant leur fiabilité sur une échelle de 0 à 1. Ce score, dont l’objectif affiché est de lutter contre les fake news, affecte la manière dont les publications des individus sont rendues visibles par l’algorithme. Ce qui revient à confier l’encadrement de l’expression publique à une entreprise privée, elle-même susceptible d’intégrer ses propres biais au filtrage des opinions. Le problème est que les critères sur lesquels l’évaluation est fondée ne sont pas transparents. Et « l’ironie, commente une journaliste, est qu’ils ne peuvent pas nous dire comment ils nous jugent – parce que s’ils le faisaient, nous pourrions duper les algorithmes qu’ils ont construits95 ».
On peut imaginer que ces nouveaux dispositifs d’évaluation se généralisent et s’étendent, au-delà de telle ou telle plateforme, aux liens sociaux dans leur ensemble. Un épisode de la série Black Mirror intitulé « Nosedive » (« Chute libre »), diffusé en 2016, met en scène cette possibilité dystopique. L’intrigue se déroule dans une société où tous les individus se notent continuellement les uns les autres. Le flux de ces évaluations réciproques permanentes se cristallise dans un score, qui détermine l’accès à des biens et services, objectivant une hiérarchie sociale mouvante. Chaque interaction fait alors l’objet de marchandages implicites, dont l’enjeu est l’amélioration de la note ou le déclassement. Dans la série, Lacie voit sa note glisser en dessous de 4 suite à une dispute avec son frère, ce qui l’empêche de prendre un avion et précipite sa descente dans l’enfer social réservé aux mauvais sujets. La force de ce système, son principe de légitimation, est que la stratification sociale ne découle d’aucune autorité, d’aucun cadre normatif surplombants. C’est un mode d’évaluation ascendant, dans lequel l’accumulation des opinions de la multitude produit un jugement social immanent, une réputation à laquelle tous les individus participent et qui leur est directement appliquée.
Nul besoin cependant de recourir à la science-fiction. Pour saisir les enjeux de telles pratiques, il suffit de tourner notre regard vers la Chine96. Les autorités de Pékin ont en effet l’ambition de déployer un système de « crédit social » destiné à couvrir l’ensemble de la population humaine et organisationnelle du pays. Individus, firmes ou administrations, toutes les entités ont vocation à être progressivement intégrées à ce système hybride, public-privé. Ce programme a été officiellement lancé en 2013 avec le mot d’ordre « Valoriser la sincérité et punir l’insincérité97 ». Comme le détaille une résolution du Conseil d’État, l’autorité gouvernementale suprême, il s’agit d’encourager les comportements jugés responsables sur les plans financier, économique et sociopolitique, et de sanctionner ceux qui ne le sont pas :
Ce programme recourt à l’encouragement pour préserver la confiance, et à la contrainte pour limiter la perte de confiance. Il s’agit de produire des incitations qui favorisent l’honnêteté et la responsabilité dans la société tout entière. […] C’est là une méthode de perfectionnement du système de l’économie de marché socialiste qui accélère et améliore la gouvernance sociale98.
L’objectif premier du système de crédit social est économique. Jusque récemment, l’accès des ménages chinois au crédit bancaire était très limité. La constitution d’un registre de notation vise à développer le système financier, comme ce fut le cas aux États-Unis avec l’essor du credit score après guerre99. L’idée est d’accumuler et de centraliser de l’information sur les emprunteurs afin de faciliter l’accès des ménages au crédit bancaire. Mais le terme utilisé, shehui xinyong, que l’on traduit par crédit social, signifie plus largement digne de confiance, fiable, intègre. Comme l’explique le Premier ministre Li Keqiang, une économie de marché repose sur la confiance, et le système de crédit social correspond à ce fonctionnement :
Un système de crédit fin fournit aux entités du marché les informations dont elles ont besoin pour leurs opérations commerciales. Une liste noire devrait être établie. L’accès à l’information et le partage de celle-ci peuvent servir d’incitation ou de discipline et contribuent à réduire les coûts de transaction et à améliorer l’environnement commercial100.
De fait, les détournements de fonds, la violation des règles environnementales ou le non-respect des normes de sécurité alimentaire sont des problèmes endémiques dans la société chinoise. Fraude et corruption participent d’un climat de défiance généralisée qui doit être mis en rapport avec les privatisations et la libéralisation de larges pans de l’économie. Ces réformes ont participé à la hausse brutale des inégalités depuis les années 1980101. Or plus les sociétés sont inégales, moins les individus peuvent espérer un comportement coopératif des autres, et moins la confiance est répandue102.
Le leadership du Parti communiste chinois entend donc s’attaquer à la détérioration de la confiance. Et la méthode choisie, c’est surveiller et punir. L’idée clé est que « la confiance, perdue quelque part, sera partout limitée103 ». Un agent pris en défaut dans un domaine particulier en subira les conséquences dans l’ensemble de ses activités.
Le système de planification chinois est très décentralisé. Il pose des objectifs pour l’ensemble du pays, mais laisse une grande latitude aux gouvernements locaux pour décider des moyens d’y parvenir104. Ce qui a permis une sorte de concours Lépine du contrôle social entre les gouvernements locaux. Souvent, les dispositifs imaginés débordent des seules sphères économiques et financières pour embrasser une conception très extensive de la confiance. Ainsi, dans la plus grande ville du pays, l’application Honest Shanghai recoupe les données de plus de cent sources gouvernementales, y compris des données de reconnaissance faciale, et assigne aux individus et aux entreprises, notamment aux restaurants, des notes. Pour les mauvais élèves, les procédures administratives sont alourdies, les inspections plus fréquentes, et l’accès à certains emplois restreint. Les entreprises et les associations professionnelles sont par ailleurs invitées à redoubler de leur propre initiative les effets de ces décisions publiques en
adoptant des mesures de récompense pour les entités dignes de confiance, telles que des recommandations ou l’avancement des membres ; et, à l’inverse, dans le cas d’entités non dignes de confiance, de prendre des mesures punitives telles que des mises en garde officielles, des critiques publiques, la rétrogradation ou l’exclusion de leurs membres105.
À Rongcheng, dans la province de Shandong, le système de notation prend en compte les gestes du quotidien : abandonner des ordures sur la voie publique ou commettre des petites infractions au code de la route fait baisser la note, tandis qu’un comportement exemplaire, par exemple rendre visite à une personne âgée, l’améliore. Dans les provinces de Zhejiang et Henan, deux districts ont mis en place un partenariat avec les compagnies de télécoms : lorsqu’une personne appelle quelqu’un qui n’a pas réglé une amende, un message automatique l’informe que son correspondant est sur liste noire et l’invite à enjoindre le contrevenant de respecter l’ordonnance de justice106.
L’intégration des données entre les différents échelons administratifs et les différentes organisations est encore très imparfaite. Outre les difficultés techniques, il y a aussi d’importantes résistances dans plusieurs secteurs de la bureaucratie. Mais l’efficacité du plan chinois tient à la sélection des expériences les plus concluantes et à la persévérance dans la poursuite des objectifs. Le rapport annuel du Centre national d’information sur le crédit public, un organisme affilié à l’agence de planification, donne une idée de la montée en puissance du système107. En 2018, 3,59 millions d’entreprises chinoises ont été ajoutées à la liste noire des entités indignes de confiance, ce qui leur interdit notamment de répondre aux appels d’offres pour des marchés publics. Cette même année, 17,46 millions de personnes « discréditées » ont été privées de la possibilité d’acheter des billets d’avion, et 5,47 millions des billets de train à grande vitesse. Ces mauvais sujets se sont également vu fermer l’accès aux assurances premium, aux produits de gestion de patrimoine et aux biens immobiliers.
Ces listes étant publiques, l’humiliation fait partie intégrante du dispositif de sanction : une caricature sur la plateforme de crédit gouvernementale montre ainsi un homme tenant un bouquet de fleurs dont une jeune femme se détourne parce qu’il apparaît sur les listes publiques d’infamie. Les accusations d’escroquerie, de défaut de remboursement de prêts, de collecte illégale de fonds, de publicité mensongère, ainsi que de petites incivilités (comme s’assoir aux places réservées dans les trains) sont les principaux griefs recensés dans le rapport. Celui-ci indique aussi que 3,51 millions de personnes et d’entités indignes de confiance ayant remboursé leurs dettes ou payé leurs impôts et amendes l’année précédente ont été retirées des listes noires.
Le déploiement du système de crédit social participe à la mise en place de ce que l’ancien président de la République populaire Jiang Zemin désignait en 1995 comme « l’informatisation, l’automatisation et l’intelligentification de la gestion économique et sociale108 ».
Dans un rapport publié par le ministère de la Défense étatsunien, la consultante Samantha Hoffman fait une généalogie instructive du système de crédit social du point de vue de l’idéologie du Parti communiste109. Le projet de management cybernétique du social est discuté depuis des décennies en Chine. Un article du People’s Daily du 13 septembre 1984 explique ainsi que, en la matière, ce n’est que
si nous saisissons pleinement [les concepts d’] information, de données, d’analyse des systèmes et de modélisation des décisions, que pouvons vraiment faire preuve « de prévoyance et de sagacité » et être en mesure de générer un courage et une vision audacieuse en accord avec le cours de l’histoire110.
Pour Hoffman, le management social en général, et le système de crédit social en particulier, sont un prolongement du principe maoïste de ligne de masse. Partir des masses pour retourner aux masses, c’est un point commun entre le processus politique à l’œuvre dans un parti de masse et les traitements algorithmiques des comportements que permettent les données massives. En 1945, Mao exposait ce point de doctrine de la manière suivante :
Dans toute activité pratique de notre Parti, une direction juste doit se fonder sur le principe suivant : partir des masses pour retourner aux masses.
Cela signifie qu’il faut recueillir les idées des masses (qui sont dispersées, non systématiques), les concentrer (en idées généralisées et systématisées, après étude), puis aller de nouveau dans les masses pour les diffuser et les expliquer, faire en sorte que les masses les assimilent, y adhèrent fermement et les traduisent en action, et vérifier dans l’action même des masses la justesse de ces idées.
Puis, il faut encore une fois concentrer les idées des masses et les leur retransmettre pour qu’elles soient mises résolument en pratique111.
Ce rapprochement a ses limites. Chez Mao, la ligne de masse est, à l’en croire, une méthode de mobilisation et de politisation de la population, alors que le contrôle social algorithmique vise plutôt le contraire : automatiser, et par là aussi dépolitiser, le fonctionnement de la vie économique et sociale. Il est cependant certain que la perspective adoptée – une approche holiste, qui pose la question de la gestion de la société dans son ensemble – diverge grandement de la pensée individualiste propre au libéralisme, qui ne voit le social qu’au prisme des individualités qui le constituent. Il n’est donc pas impossible qu’en assumant un tel point de vue sur la totalité sociale, le Parti communiste chinois ait un avantage épistémique sur le libéralisme pour penser ce qui surgit avec la banalisation des algorithmes à l’ère des Big Data.
Le fait est que les autorités chinoises tentent de construire un appareil de surveillance à des fins de pilotage en partie automatisé du social. C’est ce qui ressort de l’étude très fouillée que Fan Liang et ses coauteurs ont consacrée aux dispositifs techniques et institutionnels du système de crédit social112.
Ce système attrape-tout ambitionne de renseigner plus de 500 variables pour chacune des entités basées en Chine (entreprises, organismes divers, individus). L’objectif est de centraliser des éléments d’identification robustes et de les mettre en regard d’un registre des activités répréhensibles ou, au contraire, méritantes. On l’aura compris, s’il s’agit d’abord de contrôler les acteurs économiques, la surveillance comporte aussi une dimension politico-sociale.
La logique globale de ce programme s’articule en trois temps, comme on peut le voir sur la figure 2. Le premier est celui de la collecte des données auprès de diverses institutions privées et publiques. Les données financières sont des informations bancaires, fiscales mais aussi des données transactionnelles portant sur les paiements en ligne ou avec une carte de crédit. Les données non financières comprennent des informations personnelles très variées portant, notamment, sur l’éducation et la formation, les antécédents judiciaires, le dossier médical, l’emploi ou encore l’utilisation des médias sociaux. Les flux de données émanant d’un très grand nombre de sources, leur combinaison se heurte à des difficultés techniques et administratives. En conséquence, le système de crédit social n’est pas un organisme homogène mais plutôt un dispositif multiforme. Sa colonne vertébrale est la National Credit Information Sharing Platform (NCISP) développée par l’agence centrale de planification, la Commission nationale du développement et de la réforme. D’après l’agence de presse officielle chinoise Xinhua, en 2017 elle faisait déjà converger plus de 10,7 milliards de points d’information depuis 42 agences du gouvernement central, 32 gouvernements locaux et 50 acteurs de marché. Les grandes firmes technologiques comme Baidu et Alibaba partagent des données avec la NCISP. Parmi les 400 bases de données manipulées par cette plateforme, les deux tiers portent sur les entreprises, un cinquième sur les individus, le reste concernant les organismes publics et sociaux.
Dans le deuxième moment, celui de l’agrégation et du traitement, les choses sont moins claires. Outre la NCISP, on sait que cinq plateformes sont chargées de compiler les informations recueillies, mais les mécanismes sur lesquels reposent l’agrégation et le traitement des données sont tenus secrets. Toutefois le dispositif a beau être massif, il demeure relativement peu sophistiqué, permettant surtout de mettre en relation des données dispersées entre divers corps administratifs. Rien à voir, donc, avec la note sociale unique de Black Mirror. Et rien n’indique qu’au niveau central l’action administrative soit guidée par des modèles de prédiction des comportements, du type de ceux mobilisés par le marketing en ligne et dénoncés par Shoshana Zuboff. Toujours est-il que l’ambition d’un pilotage semi-automatique du social demeure l’objectif affiché des autorités chinoises.
Dans le troisième moment, celui du passage à l’action, le principal mécanisme incitatif recourt à une logique de bonus-malus. L’ensemble des individus, des entreprises et des organismes publics est divisé en trois catégories : les ordinaires qui suivent les procédures normales, les entités non dignes de confiance qui voient leurs existences compliquées dans tous les domaines, et les entités exemplaires qui bénéficient de procédures facilitées, de contrôles administratifs allégés et d’accès aux marchés simplifiés.
L’ambivalence du projet apparaît clairement dans cette déclaration du Premier ministre chinois :
Nous favoriserons un meilleur partage de l’information entre les ministères, de sorte que le public et les entreprises aient besoin de faire moins de démarches auprès des ministères, que les procédures soient simplifiées et que le service soit amélioré. Nous allons réduire la bureaucratie et éradiquer les illégalités afin de garantir aux citoyens une plus grande égalité des chances et d’élargir l’espace pour leur créativité113.
C’est le consensus de la Silicon Valley version capitalisme d’État : l’automatisation de l’administration grâce aux technologies de l’information doit libérer les individus du poids des procédures bureaucratiques tout en renforçant la puissance du contrôle social. Le fantasme de l’État cybernétique est ici pleinement à l’œuvre.
L’aspect le plus radical du système qui est mis en place est transversal à ces trois phases de collection, agrégation et instrumentation des données. Il s’agit de la construction d’une relation symbiotique entre l’appareil d’État chinois et les firmes numériques – ce que Liang et ses coauteurs appellent le corporate-state nexus.
Des entreprises ont mis en place leurs propres systèmes d’évaluation, connectés de différentes manières au système public. Il y a en Chine une dizaine de structures privées de ce type opérant à grande échelle. Le programme le plus important du pays s’appelle Sesame. Développé par Ant Financial, la filiale financière d’Alibaba, il touchait en 2018 plus de 520 millions d’individus. Par certains aspects, ces programmes privés se rapprochent des programmes de fidélité des grandes firmes occidentales. Leur fonction première est l’accès au crédit, mais les avantages dont bénéficient les membres bien notés sont très divers : location de bicyclette ou de voiture sans caution, procédure accélérée pour l’obtention de visas, traitement préférentiel dans les hôpitaux… Sesame combine cinq éléments principaux : l’historique d’emprunt ; le comportement d’utilisateur (types d’achat : une personne achetant des couches pour bébé ou versant des dons caritatifs sera favorisée par rapport à quelqu’un qui consomme des jeux vidéo) ; la stabilité du patrimoine ; les caractéristiques personnelles (éducation, emploi) ; et, enfin, la qualité du réseau social (avec qui l’argent est échangé)114. Des jugements sont effectués automatiquement sur ces éléments, qui ont des conséquences tangibles pour les utilisateurs en termes d’accès différencié à de nombreux services.
Pour le planificateur, ces programmes privés ont un double avantage. D’un côté, ils servent de caisse de résonance au système national de crédit social : en prenant en compte les listes de Credit China, les opérateurs privés démultiplient la puissance du système. Comme les trois quarts des bases de données constituées dans le cadre du système de crédit social sont accessibles au public, leurs informations sont progressivement intégrées au fonctionnement routinier des firmes privées. Ainsi, 80 % des données utilisées par Alibaba pour évaluer le crédit personnel des individus proviennent de sources externes à la firme, principalement de bases de données gouvernementales115. D’un autre côté, le gouvernement s’appuie sur les firmes privées pour perfectionner son propre système. L’expérience qu’elles accumulent constitue un réservoir de ressources dans lequel l’agence de planification peut puiser pour faire monter en puissance le dispositif de crédit social public. Les autorités accordent une telle importance aux enjeux financiers et sociaux des systèmes de crédit privé qu’ils entendent exercer un contrôle direct et permanent sur leur fonctionnement via un métasystème unifié. C’est à cet objectif que répond la création en 2018 de Baihang Credit, un consortium auquel participent les huit principaux systèmes de crédit privé, mais qui est de facto contrôlé par la Banque centrale chinoise116.
Sous le leadership de l’agence de planification, les différents acteurs collaborent à la construction d’une infrastructure de surveillance indissociablement publique et privée, économique et politique. Il s’agit de policer les échanges économiques d’une façon qui se présente comme neutre et impartiale, ce qui n’est pas sans rappeler les préoccupations ordolibérales. Les présupposés des normes qui structurent cette boîte noire tendent de fait à être escamotés, emportés qu’ils sont par la fluidité et l’évidence de l’automatisation117. Pourtant, en réalité, le système de crédit social déborde de politique dans toutes ses dimensions – à commencer par la pondération du positif et du négatif, de la récompense et de la sanction, du caché et du transparent : des choix qui répondent aux exigences des décisionnaires de l’architecture du système.
Autant que l’on puisse le savoir, une part importante de la population chinoise plébiscite la réduction de l’incertitude que permettent ces systèmes de contrôle. C’est ce qui ressort en tout cas d’une enquête où 80 % des personnes interrogées approuvent ce type de dispositifs. Genia Kostka, la chercheuse de l’Université libre de Berlin qui a supervisé cette étude, y voit une réaction au climat de défiance généralisé qui prévaut en Chine au terme de trois décennies de développement capitaliste effréné. Dans un tel contexte, constate-t-elle :
Les citoyens perçoivent les systèmes de crédit social non pas comme un instrument de surveillance, mais comme un outil permettant d’améliorer la qualité de vie et de combler les lacunes institutionnelles et réglementaires, conduisant à un comportement plus honnête et plus respectueux des lois dans la société118.
Dans une perspective polanyienne, l’acceptation du système de crédit social peut être analysée comme un mouvement de ré-encastrement de l’économie dans le social : il s’agirait de contrebalancer le développement des comportements opportunistes qui ont accompagné l’extension des relations marchandes par une structure d’incitations réintégrant aux calculs individuels des effets positifs et négatifs qui dépassent leur champ de vision et que les signaux de marché ne savent pas transmettre. De ce point de vue, le système du parti-État a beau jeu de se poser en calculateur du bien-être social : il part des masses et revient aux masses dans une boucle algorithmique dont l’autorité politique est à la fois assumée par la publicité et invisibilisée par l’automatisation.
Le système de crédit social chinois n’est pas qu’une curiosité techno-maoïste, une figure repoussoir que l’on pourrait commodément rabattre sur le caractère autoritaire du régime. À l’âge des algorithmes, la multiplication de systèmes d’évaluation plus ou moins décentralisés, plus ou moins automatiques et plus ou moins transparents devient un problème transversal. Qui conçoit ces systèmes ? À quelles fins ? Avec quels effets ? Les mêmes questions se posent aussi bien pour le système de crédit social chinois que pour les multiples dispositifs administratifs et commerciaux d’évaluation qui sont développés dans les sociétés occidentales119.
« La monstrueuse bête n’était pas un poids inerte ; au contraire, elle enveloppait et opprimait l’homme de ses muscles élastiques et puissants ; elle s’agrafait avec ses deux vastes griffes à la poitrine de sa monture. »
Les économistes appellent « actifs intangibles » les moyens de production qui, contrairement aux machines, aux bâtiments, aux véhicules ou aux matières premières, ne peuvent être touchés. Il s’agit de codes informatiques, de design, de bases de données ou de procédures pouvant être répliqués à l’infini sans rien perdre de leur qualité intrinsèque2. Ce sont des actifs non rivaux. Si vous cherchez sur Google les horaires de la chaloupe qui mène de Dakar à l’île de Gorée ou si vous regardez un épisode de Stranger Things sur Netflix, cela n’affectera aucunement la possibilité que j’en fasse autant, du moins tant que le réseau n’est pas saturé. En revanche, si nous souhaitons l’un et l’autre acquérir un vieux vélo Motobécane dans une brocante, ce sera impossible s’il n’y en a qu’un seul.
La distinction entre tangibles et intangibles est ancienne. Par exemple, au milieu du XIXe siècle, lorsque Friedrich List s’interroge sur les conditions d’un rattrapage industriel de l’Allemagne par rapport à la Grande-Bretagne, il pointe le rôle « des sciences et des arts » dans le processus de développement, en opposition au « travail corporel », allant jusqu’à avancer l’idée d’un « capital intellectuel de l’humanité vivante »3.
Cette différenciation est également omniprésente dans notre quotidien, mais elle est si triviale qu’on ne lui prête généralement guère attention. Il va de soi que pour faire une vinaigrette, il vous faut la recette (intangible) autant que les ingrédients et les instruments de cuisine (tangibles) ; ou bien que l’impromptu que vous vous préparez à jouer au piano tombera à l’eau si vous ne connaissez plus les notes du morceau (intangible) ou si l’instrument est désaccordé (tangible). En bref, intangibles et tangibles ne sont rien les uns sans les autres. Le fait qu’ils doivent être combinés pour produire des effets utiles est une vérité qui n’a pas pris une ride.
Ce qui a changé découle des avancées technologiques qui ont vertigineusement réduit les coûts de reproduction, de manipulation et de diffusion de l’information. Le prix des opérations de traitement informatique a été divisé par 100 milliards depuis le milieu du XXe siècle4. Désormais les communications sont presque gratuites et instantanées, et les coûts de stockage sont minimes. Comme le notait Hegel, « la variation apparemment innocente du quantitatif est en quelque sorte une ruse grâce à laquelle le qualitatif est atteint5 ». La variation de la puissance du traitement de l’information correspond précisément à un tel bond de la quantité vers la qualité.
En accélérant, la circulation de l’information est venue altérer la manière dont les intangibles s’inscrivent dans les agencements sociaux. Tant qu’ils ne pouvaient circuler que de proche en proche, par communication orale, sur support imprimé ou même plus tard par le canal de la radio et du téléphone, leur non-rivalité était en quelque sorte bridée. Leur faculté d’extension était entravée par la taille des réseaux interpersonnels et commerciaux, par la rareté des opportunités de contact, par le coût et la durée des transmissions ou encore par la rigidité de l’architecture du système de communication. Maintenant que le système d’information est suffisamment performant, être partout à la fois est le simple corollaire de cette non-rivalité. Mais quels en sont les effets sur le mode de production ?
Richard Baldwin parle de « seconde dissociation » pour désigner le lien entre la révolution des technologies de l’information et la mondialisation. Son idée est simple : une première dissociation est intervenue à partir de la fin du XIXe siècle, puis avec plus de vigueur depuis les années 1960. À la faveur de la diminution des coûts de transport, elle a mis fin à la nécessité de fabriquer les biens à proximité des lieux de consommation. Depuis la fin des années 1980, c’est une dissociation d’un nouveau type qui se fait jour. Avec la baisse des coûts de communication, les possibilités de coordination à distance se sont accrues de manière exponentielle. En conséquence, il n’est plus nécessaire que la plupart des étapes de fabrication soient réalisées les unes à proximité des autres.
Les voitures, les téléphones, les turbines des centrales mais aussi les vêtements, les produits alimentaires, les logiciels et même certains services de gestion ou d’analyse médicale sont issus de la combinaison d’étapes effectuées dans plusieurs pays, voire sur plusieurs continents. Le procès de travail est dispersé. Des activités de production pourtant étroitement interdépendantes sont synchronisées à des milliers de kilomètres de distance. Ainsi, comme le montre l’économiste, « pour assurer l’intégrité du fonctionnement opérationnel, les entreprises qui délocalisent doivent faire circuler leur savoir-faire managérial, marketing et technique en même temps que les étapes délocalisées6 ».
Les technologies de l’information ont rendu possible ce nouvel agencement productif. Ce sont elles qui permettent de faire voyager les capacités managériales et les spécifications techniques. Mais l’impulsion à l’origine de ce mouvement n’est pas technologique. Elle est économique. La recherche de profit pousse en effet à opérer ce que David Harvey appelle un spatial fix : un nouvel arrangement spatio-géographique permettant de mieux valoriser le capital7. Il s’agit de disloquer géographiquement le travail en délocalisant certaines tâches, les plus simples ou bien les plus aisément standardisables et contrôlables, dans des pays où les coûts sont plus faibles. Apple, par exemple, ne possède plus aucune usine et fait produire la totalité de ses appareils par des sous-traitants, notamment en Chine où sont concentrées les fonctions d’assemblage. Et, quand l’immeuble du Rana Plaza s’effondre à Dacca au Bangladesh le 24 avril 2013, on trouve au milieu des corps de 1 134 ouvrières textiles les étiquettes des marques Benetton, Bonmarché, Prada, Gucci, Versace, Moncler, Mango, Primark, Walmart, Carrefour, Auchan, Camaïeu8…
La smile curve9 représente de façon stylisée les effets de cette fragmentation productive sur la distribution de la valeur dans les chaînes globales (figure 3). Au milieu de la courbe se trouvent les activités les plus standardisées et les moins intensives en connaissances, celles qui sont massivement délocalisées depuis les années 1990. C’est sur ces segments que la compétition est la plus vive et, par conséquent, la capacité à capter de la valeur la plus faible. Aux deux extrémités de la courbe se trouvent les activités les plus en amont et en aval de la production, c’est-à-dire les tâches de conception d’un côté, et de mise à disposition du client de l’autre. Ce sont les segments les plus intenses en connaissances, où la captation de valeur est maximale.
Polymathe, concepteur en 1821 d’un premier prototype mécanique de l’ordinateur appelé machine à différences, Charles Babbage partait d’un constat simple : une production donnée exige que des compétences différentes soient mobilisées. Or certaines sont plus rares ou plus coûteuses à acquérir que d’autres. Pour l’employeur, il est avantageux de diviser ces tâches et de les payer séparément, afin que les travailleurs se différencient en se focalisant sur chacune selon leurs compétences :
L’objectif de cette division du travail est de faire en sorte que le personnel le plus qualifié, qui est aussi le plus cher, puisse consacrer tout son temps de travail aux tâches pour lesquelles il est seul compétent. En général, tout détail de la fabrication qui demande à être exécuté promptement et avec adresse devra être séparé des autres opérations, et devenir l’unique objet de l’attention spéciale d’un seul individu10.
En somme, la division du travail permet de diminuer le coût du travail pour l’employeur. Cela encourage une déqualification relative de la majorité des postes et une concentration des connaissances dans un nombre limité de fonctions. Ce principe d’économie sur les compétences est encore moteur dans la division cognitive du travail qui accompagne la segmentation internationale actuelle des processus productifs11. Mais la dynamique qui conduit à la polarisation des revenus dans les chaînes globales de valeur est davantage qu’une simple prolongation du principe de Babbage. Elle en est la magnification. La concentration de la valeur aux extrêmes de la chaîne est l’expression d’un processus de monopolisation intellectuelle au terme duquel le pouvoir économique est concentré dans quelques sites stratégiques.
La fragmentation internationale des procès de travail s’accompagne à la fois d’une plus forte standardisation des opérations et d’un usage plus intensif des technologies de l’information. Les systèmes d’information se densifient pour préserver l’intégrité du processus en dépit d’une dispersion accrue. La polarisation ne consiste donc pas en une simple séparation entre des tâches plus ou moins intensives en connaissances. Ce qui est à l’œuvre, c’est l’autonomisation de l’intégration elle-même, en tant que facteur de production. À l’échelle planétaire, les forces d’organisation du travail se concentrent sous la forme de forces de production intangibles. La monopolisation intellectuelle centralise la volonté de produire.
« Tout ce qui mûrit s’emplit de brigands. »
L’économiste italien Ugo Pagano propose le concept de capitalisme monopoliste intellectuel13 pour décrire le système économique issu du durcissement drastique des droits de propriété dans les dernières décennies du XXe siècle14. Avec les droits de propriété intellectuelle, explique-t-il, « le monopole n’est plus seulement fondé sur un pouvoir de marché dû à la concentration des compétences dans les machines et le management ; il devient également un monopole légal sur des connaissances ». Or « comme la connaissance n’est pas un objet circonscrit dans les limites d’un espace physique borné […], la privatisation de la connaissance a pour conséquence un monopole global qui limite la liberté d’une foule d’individus dans une multitude de lieux15 ».
L’essor des patents trolls est une illustration de cette dynamique délétère. Des firmes se spécialisent dans la détention de brevets, non pour les exploiter mais pour faire payer l’usage des connaissances qu’ils enserrent, avec pour conséquence de freiner l’innovation16. Pour Pagano, s’il a pu exister dans les années 1990 un effet schumpetérien de stimulation des investissements dû à la recherche de rentes d’innovation, celui-ci n’opère plus. Les nouvelles barrières limitent désormais drastiquement les opportunités d’investissement, ce qui ralentit l’accumulation et la croissance dans les pays riches, entrave le développement dans les pays du Sud, et explique la fuite en avant des capitaux oisifs qui nourrit l’instabilité financière17.
La concomitance entre durcissement de la propriété intellectuelle et mondialisation n’est pas une coïncidence. D’une part, les entreprises désireuses de profiter pleinement des opportunités internationales font pression en faveur de règles plus strictes en la matière18. D’autre part, la diffusion de normes rigoureuses réduit pour les firmes le risque de voir leurs innovations appropriées par d’autres, ce qui renforce leur volonté de s’engager dans la fragmentation internationale de la production19.
Le renforcement du contrôle exclusif sur des normes, des technologies et des marques est ainsi un ressort puissant de la monopolisation intellectuelle dans la mondialisation. Mais ce n’est pas le seul. Avec mon coauteur William Milberg, nous avons montré que trois mécanismes supplémentaires y contribuent20.
Le premier tient à ce que les économistes appellent une situation de monopole naturel, c’est-à-dire une structure de marché qui résulte elle-même de trois éléments21 : des complémentarités de réseau, des économies d’échelle et des investissements irrécupérables. Typiquement, un réseau de chemin de fer : plus celui-ci est étendu, plus il est utile (complémentarités de réseau) ; l’organisation du réseau implique cependant des coûts fixes (économies d’échelle) ; enfin, une fois les voies de chemin de fer installées, il est impossible de revenir en arrière et de récupérer l’argent investi (coûts irrécouvrables). Dans de telles situations, la gestion par une seule entreprise est plus économique qu’un marché ouvert à la concurrence.
On retrouve ces caractères dans les chaînes globales de valeur : jeu des complémentarités des firmes ; rendements d’échelle sur les fonctions qui organisent l’intégration des activités dispersées ; investissements irrécupérables pour rendre les opérations compatibles. La dynamique qui porte le succès d’Apple est archétypique de la logique du monopole naturel. Après avoir abandonné ses usines de Fountain à Colorado Springs et d’Elk Grove à Sacramento en 1996 et 2004, la firme a connu un retour de fortune dû à une gestion rigoureuse de la chaîne de valeur. Toute la fabrication est effectuée par des établissements basés hors des États-Unis, notamment en Chine, mais cela ne signifie pas pour autant que la société a relâché son contrôle sur les opérations de production. Elle a au contraire construit un écosystème fermé où elle exerce un contrôle sur presque tous les maillons de la chaîne d’approvisionnement, depuis la conception jusqu’au magasin de détail22.
Ce qui est en jeu dans cette maîtrise à distance, c’est la capacité de la firme à différencier ses appareils de ceux de ses concurrents. Du point de vue des fournisseurs d’Apple, participer à une chaîne de valeur aussi complexe et bien gérée offre de bénéficier de ces complémentarités de réseau. Mais cela les place aussi en situation de dépendance vis-à-vis de l’entreprise californienne qui les contrôle et se trouve de ce fait en position de s’approprier la part du lion de la valeur produite.
Outre ces deux premiers cas de figure bien balisés, il existe un troisième type de rente, plus méconnu. Il est associé aux intangibles, ou plus exactement à la différence qui existe entre les rendements d’échelle associés à une mobilisation classique d’actifs tangibles et les phases de production à forte intensité en actifs intangibles. Je m’explique : les actifs intangibles, tels que les logiciels ou le savoir-faire organisationnel, sont généralement extensibles. Une fois l’investissement initial réalisé, ils peuvent être reproduits à des coûts marginaux négligeables, si bien que les rendements d’échelle tendent vers l’infini. Or ce n’est pas le cas des actifs tangibles, tels que les bâtiments ou les machines. Pour ceux-ci, même si les rendements d’échelle existent, ils sont bien plus faibles : chaque opération matérielle supplémentaire entraîne un coût supplémentaire non trivial, ne serait-ce qu’en raison des dépenses en énergie et en matières premières qu’elle suppose.
Ces rendements différenciés constituent une des clés de compréhension des spécificités de la logique concurrentielle actuelle, par exemple, la rivalité croissante entre Walmart et Amazon dont le New York Times se fait l’écho :
Les firmes de la grande distribution doivent trouver comment gérer les chaînes d’approvisionnement sophistiquées qui relient l’Asie du Sud-Est aux magasins des grandes villes américaines afin qu’ils ne se trouvent pas à court de produits. Elles ont aussi besoin d’applications mobiles et de sites Web qui offrent une expérience utilisateur sans friction afin que rien ne s’interpose entre un acheteur potentiel et une commande. […] Les entreprises qui ont de fortes compétences dans les domaines de la gestion des chaînes d’approvisionnement et des technologies de l’information peuvent répartir ces coûts fixes sur un plus grand nombre de ventes totales23.
Il y a bien sûr un avantage décisif à pouvoir amortir le coût (approximativement) fixe des actifs intangibles sur des ventes les plus larges possible. Mais un autre aspect entre aussi en jeu : plus on opère dans des segments intensifs en actifs intangibles, plus l’activité est potentiellement profitable. Les chaînes mondiales de valeur combinent des segments intensifs en actifs tangibles et/ou en travail, et d’autres segments intensifs en actifs intangibles. Les premiers recouvrent par exemple la fabrication de vêtements, l’assemblage de téléphones, la fonte de semi-conducteurs, le transport ferroviaire. Les seconds comprennent la conception de circuits intégrés, de sites Web, le design de vêtements, les stratégies marketing, le codage de logiciels, le management des bases de données… Considérons maintenant ce qui se passe lorsque la production totale, à l’échelle de la chaîne de valeur concernée, s’accroît : les coûts des segments intensifs en actifs intangibles et ceux des segments intensifs en actifs tangibles et en travail augmentent à des rythmes différents. En raison de la répartition inégale des coûts fixes et de coûts marginaux différenciés, les coûts totaux augmentent rapidement pour les segments à forte intensité en ressources matérielles, tandis que les coûts moyens diminuent beaucoup plus vite pour les segments à forte intensité en ressources informationnelles. C’est ce qu’illustre la figure 4.
La différence d’économies d’échelle entre les actifs tangibles et intangibles implique que les entreprises qui contrôlent les maillons intangibles de la chaîne reçoivent une part disproportionnée des gains à mesure que la production augmente.
Un dernier type de force de monopolisation intellectuelle est associé à ce que l’on appelle la « rente d’innovation dynamique ». En voici le mécanisme : plus les chaînes sont intégrées et plus leur activité se développe, plus les quantités de données produites augmentent. Et ces informations s’amoncellent en des lieux très précis, où se concentrent les fonctions d’intégration. Les firmes qui organisent les chaînes contrôlent les systèmes d’information ; ce sont donc elles qui centralisent les données. Or ces données sont une matière première indispensable aux processus de recherche et développement modernes : grâce à elles, il est possible de cerner des fragilités, d’identifier des sources d’amélioration, de tester virtuellement des solutions innovantes. Selon la formule du P.-D. G. de Siemens, Josef Kaeser, les données « c’est le saint Graal de l’innovation24 ».
Comme on l’a vu, l’accumulation de données est au cœur du modèle économique des géants d’Internet. Les données engendrées par les utilisateurs permettent à ces entreprises d’améliorer l’expérience utilisateur, de concevoir des publicités ciblées ou de vendre des services personnalisés. Mais l’importance des données dans les processus innovants ne se limite pas à ces entreprises. C’est ce qu’explique Kaeser :
Nous fabriquons des machines qui produisent de l’électricité, qui automatisent les processus industriels, qui réalisent des images médicales (comme des scanners ou des IRM) ou déplacent des personnes et des objets d’un point A à un point B. Cela fait beaucoup de produits, et tous ces produits ont des capteurs. […] Nous récupérons les données générées par ces capteurs, nous les analysons sur notre plateforme, dans un cloud informatique propriétaire que nous hébergeons en site propre25.
Les données produites par les processus industriels, notamment dans le cadre de la maintenance prédictive, font l’objet de droits de propriété intellectuelle âprement négociés entre les fabricants d’équipements et leurs clients – pour la raison simple mais cruciale qu’elles constituent un input essentiel dans les processus de R & D.
Dans le cas des rapports entre Walmart et ses sous-traitants, l’avantage de Walmart est écrasant. La firme de Bentonville (Arkansas) recueille les données des activités de ses 245 millions de clients à raison d’un million de transactions par heure. Celles-ci s’ajoutent aux données logistiques et opérationnelles de plus de 17 500 fournisseurs. Ceux-ci peuvent améliorer leurs opérations en accédant aux données des points de vente concernant leurs propres produits. Mais l’avantage que Walmart obtient en retour est beaucoup plus grand, puisque l’entreprise a une vision sur les opérations de tous ses fournisseurs : planification de la production, conception et conditionnement des produits et, bien sûr, informations clients26.
Le privilège informationnel de Walmart repose sur sa position centrale, tant vis-à-vis de ses fournisseurs que de sa clientèle. À l’aide d’un logiciel fourni par l’entreprise allemande SAP appelé « HANA Business Intelligence Platform », le distributeur rassemble en temps réel les données issues de ses différentes parties prenantes. Selon le P.-D. G. Karenann Terrell, « HANA flotte sur l’ensemble du système d’information » de telle sorte que « l’innovation ne reste pas cantonnée au back-office »27. Au siège de la firme, un Data Café centralise les données fournies en temps réel par 200 flux internes et externes (y compris les bulletins météorologiques, les médias sociaux, les télécommunications économiques et les événements locaux). L’idée est d’exploiter cette masse d’informations unique en permettant aux équipes des différents départements de tester leurs hypothèses en sollicitant directement les experts du centre d’analyse28.
Il y a dans les chaînes de valeur une lutte concurrentielle verticale pour le contrôle des données. Leur circulation est une condition préalable à l’intégration et à l’optimisation des processus métiers au sein de procès de travail fragmentés. Mais une telle intégration octroie un accès aux données disproportionné à ceux qui lancent et organisent cette intégration. En raison de l’asymétrie constitutive des systèmes d’information et du pouvoir de négociation inégal entre les firmes, les entreprises dominantes sont en mesure d’apprendre des processus productifs et commerciaux de leurs partenaires et d’utiliser ces informations pour affûter leur propre capacité d’innovation. La dynamique de monopolisation intellectuelle se nourrit donc de la centralisation des données produites à l’aide des outils numériques qui permettent l’intégration des chaînes de valeur.
Le processus de monopolisation de la connaissance passe par un renfermement massif des connaissances dans des droits de propriété intellectuelle de plus en plus stricts à l’échelle mondiale. Mais il ne s’y limite pas. La fragmentation internationale des processus productifs et la dissociation accrue des activités de conception et d’exécution qu’elle nécessite à travers les fonctions d’intégration créent de nouvelles sources de rentes intellectuelles, comme on peut le voir dans le tableau 3.
Tableau 3. Taxonomie des rentes liées aux intangibles
Type |
Description |
Exemple |
Rente légale de propriété intellectuelle |
||
Brevets, droits d’auteur, marques de commerce |
Rationnement par le biais de droits exclusifs sur des productions et des procédés, des biens culturels et scientifiques et des investissements marketing |
Brevets sur les produits pharmaceutiques, les caractéristiques et le codage des logiciels, la protection des marques : Nike, Louis Vuitton |
Rente de monopole naturel |
||
Péage sur l’intégration GVC |
Rendement des actifs incorporels sous-jacents à l’intégration Complémentarités des réseaux au sein de la CMV Coûts irrécupérables résultant de la spécificité des actifs |
Gestion de la chaîne d’approvisionnement : Apple Valeo, Bosch pour les pièces automobiles |
Rente différentielle des intangibles |
||
Rendements d’échelle inégaux |
Les rendements d’échelle inégaux des actifs intangibles par rapport aux actifs tangibles permettent à des segments intangibles intensifs de la chaîne de capter une plus grande part des gains |
Fabrication sans usine : Apple et Nike par rapport aux usines d’assemblage, Nespresso contre les producteurs de café |
Rente d’innovation dynamique |
||
Schumpeter Mark II via la collecte de données |
Centralisation des données générées le long des chaînes de valeur via des systèmes d’information asymétriques Les données alimentent la voie de l’innovation du Schumpeter Mark II |
Capteurs Siemens sur machines, capteurs Goodyear pour pneus, système d’information de Walmart, historiques d’achats sur Amazon |
L’essor du numérique nourrit une gigantesque économie de rente, non pas parce que l’information serait la nouvelle source de valeur, mais parce que le contrôle de l’information et de la connaissance, c’est-à-dire la monopolisation intellectuelle, est devenu le plus puissant moyen de capter la valeur.
« Dans notre situation, le libre marché ne signifie pas la concurrence, mais plutôt le monopole, et ce à l’échelle mondiale ; ou plutôt, peut-être, le capitalisme féodal. »
Le 21 juin 2018, Anne-Marie Slaughter, ancienne conseillère de Barack Obama à la Maison-Blanche et dirigeante de l’influente fondation New America, publie dans le Financial Times une tribune intitulée « Les fusions verticales de médias font tellement XIXe siècle30 ». Elle y critique les opérations agressives de fusion engagées dans le secteur entre les propriétaires d’infrastructures et les producteurs de contenus – dans le contexte de la naissance d’un nouveau géant suite au rapprochement entre le groupe de télécoms AT&T et Time Warner, qui possède entre autres CNN, la chaîne HBO et des studios de cinéma.
Depuis les années 1990, le secteur des télécommunications s’est massivement concentré et AT&T et Comcast & Verizon constituent de fait un cartel. Depuis la fin des années 2000, ils sont partis en guerre contre la neutralité du Web : ces firmes entendent s’appuyer sur leurs réseaux télécoms pour constituer des conglomérats intégrés verticalement, afin de contrôler toutes les couches d’un empire médiatique, depuis les câbles souterrains et les bornes aériennes jusqu’à la création des contenus.
D’après Slaughter, au XXIe siècle, cette stratégie est vouée à l’échec. C’est une manœuvre digne du XIXe, quand le magnat de l’acier Andrew Carnegie cherchait à contrôler les chemins de fer, en plus des mines de charbon et des aciéries, pour écarter ses concurrents. Un tel projet n’a plus de sens à l’âge de l’information : « L’intégration verticale revient à construire des silos à une époque qui sera dominée par les plateformes, à posséder à l’ère de la location et à rechercher des marchés de masse alors que les clients veulent des produits individualisés. » Pour soutenir son argument elle cite Unscaled, l’ouvrage déjà évoqué que Hemant Taneja, un investisseur en capital-risque de la Silicon Valley, vient de publier et dans lequel il promet la renaissance d’un capitalisme entrepreneurial de petites firmes innovantes grâce à l’intelligence artificielle (IA) :
Dans une économie fondée sur l’IA et les technologies numériques, les petites entreprises spécialisées et agiles peuvent tirer parti des plateformes technologiques pour concurrencer efficacement les grandes organisations formées pour les marchés de masse. Cette évolution résulte du fait que les petites firmes peuvent désormais louer ce que les entreprises devaient auparavant construire. Elles peuvent louer l’informatique dans le cloud, louer l’accès aux consommateurs sur les médias sociaux, louer la fabrication à des firmes sous contrat dans le monde entier. […] Les marchés de masse d’autrefois font place à des micromarchés. C’est l’essence même de la réduction d’échelle : la technologie dévalorise la production et la commercialisation de masse, ce qui rend possibles une micro-production personnalisée et un marketing finement ciblé31.
Cet argument est exactement celui que Hal Varian développait en 2010 dans l’American Economic Review, à propos du modèle des plateformes de services informatiques :
De nos jours, il est possible pour une petite entreprise d’acheter du stockage de données, des services d’hébergement, un environnement de développement d’applications et une connectivité Internet « sur étagère » auprès de fournisseurs tels qu’Amazon, Google, IBM, Microsoft, Sun et d’autres encore.
Le modèle platform as service transforme ce qui était auparavant un coût fixe pour les petites applications Web en un coût variable, ce qui réduit considérablement les coûts d’entrée32.
Ce qui est fascinant, c’est la persistance du pilier idéologique du consensus de la Silicon Valley, la promesse d’un capitalisme entrepreneurial. Remplacez intelligence artificielle par Internet et vous retrouvez le mot d’ordre des auteurs de la Magna Carta for the Knowledge Age, écrit vingt-cinq ans plus tôt :
Les nouvelles technologies de l’information réduisent à néant les coûts financiers de la diversité, tant pour les produits que pour les personnes, ce qui conduit à une « dé-massification » de nos institutions et de notre culture.
Et c’est un argument qu’Anne-Marie Slaughter mobilise sans nuance :
Les entreprises deviendront plus petites, car il ne sera plus aussi efficace d’organiser l’activité humaine de manière centralisée. C’est certain, l’avenir appartient aux entreprises qui ont un petit nombre de managers qui supervisent des machines et des free-lances, la gig-économie en général.
Dans ce contexte, les vieux monopolistes qu’incarne l’alliance AT&T-Warner n’ont plus qu’une carte régressive à jouer. Dans une décision du 14 décembre 2017, la Federal Communications Commission des États-Unis a mis un terme à la neutralité d’Internet, c’est-à-dire à la garantie d’un traitement égal des flux de données par les opérateurs. Pour les propriétaires d’infrastructures comme AT&T, c’est une aubaine. Grâce au contrôle sur le réseau physique d’Internet mobile et par câble, ils vont pouvoir faire payer davantage les fournisseurs de contenus, ou bien favoriser la diffusion de leurs propres créations. Mais Slaughter n’y voit qu’un sursis : « Méfiez-vous, béhémoths ! » avertit-elle, car cette stratégie à contretemps ne tiendra pas le choc face à l’assaut d’une myriade de nouveaux entrants agiles.
La tribune d’Anne-Marie Slaughter fait d’une pierre deux coups. D’une part, elle attaque les propriétaires de réseaux avec lesquels les grands noms d’Internet de la côte ouest – qui comptent parmi les principaux financeurs de sa fondation – sont en guerre au sujet de la neutralité du Web ; d’autre part, elle allume un contre-feu face au renouveau de la critique antimonopolistique vis-à-vis des firmes du numérique. Alors que cette question prend une place centrale dans le débat public, elle s’attaque aux monopoles à l’ancienne (les réseaux de télécoms) pour mieux épargner les nouveaux. Ce faisant, elle tente de réactiver le noyau idéologique du consensus de la Silicon Valley : le mythe selon lequel les technologies de l’information sont indissociables d’un capitalisme entrepreneurial.
Moins d’une semaine plus tard, Alexandra Scaggs, alors chroniqueuse pour Alphaville (la section « marchés financiers » du blog du Financial Times), étrille la tribune de la présidente de New America. Elle commence par rectifier quelques faits. L’analogie historique avec la fin du XIXe siècle est approximative : Slaughter semble confondre l’intégration verticale défensive de Carnegie avec la stratégie de la Standard Oil de Rockefeller qui, effectivement, écarta ses compétiteurs en faisant en sorte qu’ils soient obligés de payer des tarifs de chemin de fer plus élevés. Mais, si cette erreur est symptomatique d’une fébrilité idéologique, l’essentiel n’est pas là. Ce que montre Scaggs, c’est qu’en dénonçant la menace que représente un vieux genre de monopole, elle fait la promotion d’un modèle encore plus dangereux :
Lorsqu’elle recommande de louer des capacités techniques au lieu de les développer en interne, elle omet de mentionner à qui ces entreprises agiles les louent. Quelqu’un possède ces capacités, bien sûr, et ce quelqu’un, ce sont les Big Techs. Garder vos fichiers de travail dans le cloud ? Vous devez payer Amazon ou Google pour pouvoir travailler n’importe où, n’importe quand.
La structure qu’elle recommande (la « gig-économie en général ») renvoie à une structure économique qui a précédé le capitalisme des barons voleurs. Dans ce système, les serviteurs et les travailleurs de rangs variables payaient pour le privilège de ne rien posséder et de travailler sur un territoire entièrement contrôlé par une personne ou une entité qui disposait d’un pouvoir absolu sur les résidents et ne rendait pas ou peu de comptes à qui que ce soit.
Nous parlons bien sûr de féodalisme. Il existe de solides arguments en faveur de la thèse selon laquelle la technologie nous fait entrer dans une nouvelle ère féodale où les individus doivent fournir des robota – un terme tchèque qui signifie corvée, travail gratuit, et qui se trouve être la racine du mot robot – juste pour maintenir un accès efficace aux plateformes des Big Techs par l’intermédiaire desquelles passe une partie toujours plus grande de la vie des gens33.
La charge est brutale. Elle mêle deux registres. Le premier mobilise une nouvelle génération d’arguments antimonopolistiques dont les thèses ont été propulsées sur le devant de la scène par le travail de la jeune juriste Lina Khan et de l’école dite de l’antitrust hipster (voir annexe II). Le second est la critique des Big Techs à partir de la question de l’extraction et de l’exploitation des données, dont il a été question plus haut. Mais, surtout, elle esquisse une piste qui vaut la peine d’être poussée plus loin, celle d’un devenir paradoxalement féodal de la nouvelle économie – ce que j’appelle l’hypothèse techno-féodale.
« Les économistes ont une singulière manière de procéder. Il n’y a pour eux que deux sortes d’institutions, celles de l’art et celles de la nature. Les institutions de la féodalité sont des institutions artificielles, celles de la bourgeoisie sont des institutions naturelles. »
Marx nous a avertis que la science économique est en général incapable de penser la variation des formes fondamentales d’organisation des sociétés. Les économistes classiques de son temps, comme les économistes mainstream du nôtre, considèrent les rapports marchands qui structurent les économies contemporaines comme des rapports naturels, dont les principes valent de toute éternité. Ce qui est rationnel, dans leur perspective, c’est ce qui est conforme aux règles de fonctionnement d’une économie capitaliste industrielle et marchande. Ce qui ne s’y conforme pas est considéré comme irrationnel, archaïque et finalement inintelligible2. Pour se donner une chance de rafraîchir notre regard et, peut-être, de mieux saisir les mutations en cours, il faut s’intéresser de plus près à ce qui apparaît comme des anomalies persistantes par rapport à la « naturalité » capitaliste.
Aujourd’hui, pour peu qu’on y prête attention, les spectres du féodalisme sont légion3. Des philosophes, des juristes et des anthropologues n’hésitent pas à mobiliser la référence à cet âge révolu pour penser les problèmes de notre époque : dévitalisation des processus démocratiques dans les sociétés occidentales, fragmentation de l’ordre juridique dans la mondialisation ou encore omniprésence des motifs d’appropriation dans les pratiques managériales4.
Ma question est plus précise. Elle porte sur la pertinence de la notion de féodalisme pour rendre compte de certaines tendances économiques actuelles. Pour y répondre, il faut commencer par revenir sur le sens originaire de ce terme. Le féodalisme est d’abord une notion d’histoire qui se rapporte à l’organisation des sociétés d’Europe occidentale au Moyen Âge. C’est aussi, comme nous allons le voir, le nom d’une forme socioéconomique très particulière.
L’objectif n’est pas ici d’en rendre compte de façon exhaustive, mais d’esquisser un tableau stylisé de ce mode de production, de schématiser sa structure logique. J’entends par là l’articulation des relations sociales fondamentales qui, partant d’un nombre limité de traits caractéristiques, structurent les aspects typiques de sa dynamique socioéconomique.
Aux IXe et Xe siècles, l’Occident médiéval est « une société abruptement hiérarchisée, où un petit groupe de “puissants” domine de très haut la masse des “rustres” qu’ils exploitent5 ». Selon Georges Duby, le principal effet de l’organisation féodale est de permettre de
drainer, dans ce milieu très pauvre où les hommes séchaient de fatigue pour de maigres moissons, les petits surplus gagnés par les maisons paysannes, par de dures privations sur des réserves infimes, vers le tout petit monde des chefs et de leurs parasites. Ils s’évaporaient ensuite très rapidement, par le gaspillage et les déprédations d’une aristocratie tout entière dominée par l’amour du luxe et le souci de manifester sa grandeur par la destruction des richesses6.
Cette très forte polarisation sociale résulte donc d’un processus d’accaparement et de centralisation des richesses dont l’objectif est la consommation. Le propre du noble, nous dit Duby, c’est « d’échapper en tout temps à la gêne : il devait pouvoir, au milieu des affamés, demeurer toujours prodigue ». Ainsi puissance, ostentation et prodigalité vont de pair. La raison à cela, c’est que l’aisance matérielle des maîtres conditionne leur capacité à reproduire leur pouvoir sur les hommes. Il leur fallait « avoir toujours le moyen, sans inquiétude pour le lendemain, de distribuer autour d’eux la provende, d’étendre leur “famille”, d’accroître le groupe de leurs obligés7 ». Les puissants règnent sur des domaines dont ils tirent une sécurité économique qui est indissociablement une sécurité politique.
L’aristocratie exerce un pouvoir qu’Alain Guerreau nomme dominium, qui constitue la liaison primordiale du féodalisme. C’est « une relation sociale entre dominants et dominés dans laquelle les dominants exerçaient simultanément un pouvoir sur les hommes et un pouvoir sur les terres8 ». Le rapport entre les seigneurs et les producteurs qui dépendent d’eux s’inscrit donc dans l’espace, sur un territoire. Il concerne tous les habitants d’une seigneurie, qui, bien que divers par leurs statuts et leurs types d’habitats, subissent via leur attachement au sol la domination du « maître des lieux ». L’Église s’inscrit, elle aussi, pleinement dans cette relation de dominium. Selon les époques et les régions, les institutions ecclésiales possèdent entre le quart et le tiers des terres. De ce fait, les autorités épiscopales et monastiques sont des seigneurs féodaux de plein titre dont la puissance est magnifiée par les fonctions spirituelles qu’elles exercent et qui charpentent tout l’édifice social.
La domination féodale est cependant loin d’être totale. L’absence de centralisation du pouvoir et l’enchevêtrement des seigneuries ont pour conséquences la fragmentation de la souveraineté et la persistance de marges d’autonomie paysanne. En particulier, comme l’avait noté Friedrich Engels, la propriété communale des terres donne « à la classe opprimée, aux paysans, même sous le plus dur servage médiéval, une cohésion locale et un moyen de résistance tels que ni les esclaves antiques, ni les prolétaires modernes n’en trouvèrent à leur disposition9 ». Les communs médiévaux sont des ressources économiques et politiques.
Si le dominium est l’institution pivot du féodalisme, ce n’est bien sûr pas la seule. Une des formes connexes est le servage. Ce trait persistant des sociétés féodales touche entre 10 % et 20 % de la population des campagnes. Contrairement à l’esclave, le serf n’est pas une propriété du maître. Pour autant, sa liberté est strictement limitée, en particulier dans ces moments clés de l’existence sociale que sont le mariage et l’héritage. Comme le veut l’adage, « le serf est attaché à la glèbe », c’est-à-dire à la terre du domaine, sur laquelle il a l’obligation de rester. En outre, l’importance de ses corvées est davantage laissée à l’arbitrage du seigneur que celle des autres populations dépendantes.
Autre institution essentielle du féodalisme, la vassalité ne concerne qu’une infime proportion de la population puisqu’elle est restreinte à l’aristocratie. Elle est néanmoins importante car elle y règle une grande partie des rapports en organisant, à côté d’autres formes d’association, les liens de solidarité et la distribution du pouvoir. Une part significative du contrôle exercé sur la terre passe ainsi par les liens vassaliques. Il s’agit d’une relation dissymétrique. Le vassal se voit attribuer un fief, c’est-à-dire une concession du pouvoir seigneurial sur un territoire et ses habitants, qui lui permet de tenir son rang et de remplir ses obligations. Il bénéficie aussi de la protection du seigneur. En retour, le vassal est son obligé : il doit s’incorporer à ses entreprises militaires mais également le soutenir financièrement ou par ses conseils. Le premier aspect est crucial puisque c’est sur lui que repose la formation des armées féodales. Cependant, le pouvoir seigneurial est fort précaire. Comme le souligne Max Weber, le vassal est
réduit à la volonté d’obéir, et par là, à la fidélité personnelle de la direction administrative qui s’est approprié les fiefs et qui se trouve en possession des moyens d’administration. De fait la lutte entre seigneurs et vassaux pour le pouvoir seigneurial y est chronique10.
La guerre joue un rôle essentiel dans la régulation et la reproduction du système seigneurial. Elle met en effet à l’épreuve les solidarités au sein de l’aristocratie et règle les rivalités entre seigneurs concurrents. Jérôme Baschet montre qu’elle joue aussi un rôle essentiel dans la reproduction de la soumission des paysans en rappelant combien ceux-ci, principales victimes des pillages, ont besoin de la protection de leurs maîtres11. C’est la guerre qui délimite les contours des terres contrôlées par les seigneurs et fonde leur domination sur les hommes qui les habitent. La fonction d’autorité publique des seigneurs se manifeste par l’exercice de la justice et le maintien de l’ordre à l’intérieur du domaine ; elle a pour pendant, dans les rapports vis-à-vis de l’extérieur, une fonction de protection qui prend un caractère vital précisément du fait de l’instabilité militaire.
Dominium, servage, vassalité sont les catégories élémentaires à partir desquelles les historiens pensent la société féodale. Le politique et l’économique y sont pour l’essentiel indistincts et la violence est le principe régulateur dominant – raison pour laquelle les rapports féodaux s’organisent autour de la question de la domination/protection.
Les théoriciens néo-institutionnalistes de l’histoire économique et les auteurs marxistes adoptent une perspective générale différente de celle des historiens. Leur objectif n’est pas de rendre intelligible l’époque féodale dans ses multiples dimensions et variations, mais d’isoler un noyau restreint de relations qui permette de caractériser, d’un point de vue analytique, une configuration sociale distincte de celle du capitalisme. Cela les conduit à se focaliser sur le servage, considéré comme l’institution décisive pour saisir l’essence du féodalisme. C’est une prémisse tout à fait discutable du point de vue historique, mais très féconde sur le plan théorique.
Dans un article de 1971, Douglass North et Robert Thomas proposent d’appliquer les nouvelles théories économiques des droits de propriété et du changement institutionnel à l’analyse du féodalisme, de sa crise et de l’essor économique ultérieur du monde occidental. Ils utilisent pour cela l’économie des contrats. Ils partent de l’hypothèse suivante : une croissance économique continue exige « que des développements institutionnels créent, stimulent ou bien fournissent un équivalent de la propriété privée du foncier et d’un marché libre du travail12 ». Une analyse économique « de l’ascension et de la chute de la seigneurie » est donc indispensable pour comprendre l’accélération de la croissance économique dans le monde occidental à partir de la fin du XVIIIe siècle.
Ces économistes néo-institutionnalistes scrutent le féodalisme par le prisme du servage. Ils considèrent que celui-ci n’était ni une « forme de servitude involontaire », ni un « mode d’exploitation ». Ils y voient autre chose, « essentiellement un arrangement contractuel où une quantité définie de services en travail était échangée contre un bien public de protection et de justice13 ». Voici comment ils résument leur thèse :
Le manque général d’ordre obligeait les paysans à dépendre d’individus spécialisés possédant des compétences et des équipements militaires supérieurs […]. C’est un cas classique de bien public, puisque la protection d’une famille paysanne impliquait aussi la protection de ses voisins. Chaque paysan aurait donc été enclin à laisser son voisin payer les frais ; dans un tel cas, une certaine forme de coercition était nécessaire pour obtenir les ressources indispensables à la défense.
La puissance militaire du seigneur lui donnait la force d’assurer la collecte de ces ressources. Logiquement, elle a également fait de lui la personne en charge du règlement des différends […]. C’est ainsi que l’administration de la justice s’ajouta très tôt au rôle de protecteur du seigneur14.
Cette théorie contractuelle du servage au sein du domaine seigneurial est fondée sur trois présupposés décrivant la situation initiale :
1) un contexte d’insécurité généralisée qui résulte d’une situation d’anarchie politique ;
2) l’existence de deux classes d’agents, les uns dotés d’une capacité militaire, les autres en étant dépourvus et qui sont en demande de protection ;
3) le caractère de bien public, c’est-à-dire de non-rivalité et de non-excluabilité, de la protection seigneuriale.
À ces trois prémisses s’ajoutent deux hypothèses indispensables pour asseoir la logique contractuelle :
4) l’existence d’« un marché du travail rudimentaire15 », ce qui implique que les serfs étaient fondamentalement libres. North et Thomas considèrent en effet que la concurrence entre seigneurs pour le contrôle du travail, l’absence d’autorité centrale et l’existence de vastes terres libres concourent à donner aux serfs une option de sortie ;
5) le fait que le paysan était « protégé des changements arbitraires dans les termes du contrat16 » de la part des seigneurs.
C’est à partir de ces cinq points que North et Thomas croient pouvoir affirmer que le servage représente « une solution efficiente » à une situation caractérisée par « l’anarchie, l’autarcie locale et des capacités militaires différenciées »17.
Si leurs deux premiers énoncés peuvent être considérés comme des simplifications acceptables, les trois autres en revanche sont très problématiques. On peut d’abord leur répondre que la protection n’était pas un bien public mais un service pouvant être rationné18. À la différence de la dissuasion mutuelle entre les États modernes ou des fortifications de la commune médiévale, le château fortifié ne protégeait pas les biens des paysans contre les pillages. Le village et les fermes étaient situés à l’extérieur de la zone fortifiée. De plus, les personnes elles-mêmes ne disposaient pas de garanties indiscriminées : la place dans les châteaux était limitée et, surtout, le seigneur pouvait décider ou non d’accorder sa protection aux différents individus. Du fait de ces caractéristiques de rivalité et d’excluabilité, la protection des paysans n’était absolument pas un bien public et mettait chacun d’eux à la merci de l’arbitraire du seigneur. La justice n’était pas davantage un bien public. Les individus ne disposaient d’aucune garantie et pouvaient être traités comme des hors-la-loi, également au bon vouloir du seigneur.
Ensuite, l’idée selon laquelle il existait un marché rudimentaire du travail est erronée. Les paysans n’étaient pas en position de mettre en concurrence différentes offres de protection offertes par les seigneurs car ils devaient faire face à des coûts de sortie élevés – afférents aux déplacements, dans une époque où les voies de communication étaient difficilement praticables et risquées. De surcroît, en raison de la faible circulation monétaire les paysans auraient dû emporter avec eux des outils et des réserves alimentaires leur permettant de subsister jusqu’à la moisson suivante. La fuite aurait aussi impliqué des coûts élevés en termes de pertes de revenu car, même s’il existait des terres arables non utilisées, celles-ci devaient être défrichées et préparées avant d’offrir des rendements équivalents à celles déjà occupées.
Enfin, si la fuite s’organisait en groupe, pour peu qu’elle réussisse à échapper à la vigilance et aux représailles du seigneur, elle attirerait inévitablement l’attention d’un nouveau protecteur autoproclamé, ce qui ramènerait la troupe à la situation de départ. Comme le résume un des premiers critiques de North et Thomas :
Les serfs avaient donc le choix entre supporter le servage là où ils se trouvaient ou bien supporter d’importants frais de déménagement et d’installation pour, in fine, parvenir à une nouvelle situation soit d’isolement (avec les désavantages qui s’y rattachent), soit d’un retour à un probable servage ailleurs19.
Quant au dernier point mis en avant par les deux auteurs, l’idée que les paysans étaient protégés de changements arbitraires dans les termes du contrat, il contredit frontalement, comme le rappelle Robert Brenner, ce qui fait la spécificité du féodalisme :
C’est précisément la conjonction des exactions arbitraires de la part des seigneurs et du contrôle de ceux-ci sur la mobilité des paysans qui donne à l’économie de servage médiévale ses caractéristiques spécifiques : l’extraction du surplus par l’application directe de la force plutôt que par un échange égal par contrat20.
North et Thomas se contredisent d’ailleurs eux-mêmes sur ce point essentiel quand ils introduisent la nécessité d’« une forme de coercition » de la part des seigneurs pour obtenir des paysans les ressources nécessaires à la défense commune. Contrat ou contrainte, il faut choisir. L’ambivalence des auteurs est révélatrice de l’impasse de leur démarche. Étant donné les coûts de sortie élevés et le rationnement de l’offre de protection, les paysans étaient à la merci de leur seigneur. La protection et l’exercice de la justice n’étaient donc pas des services librement acquis dans le cadre d’un arrangement contractuel. Au contraire, comme le résume Mehrdad Vahabi, « l’extorsion était le prix de la protection pour les paysans21 ».
Une autre façon de concevoir le servage part de la notion de prédation, définie comme un mécanisme d’allocation appropriatif appuyé par la violence22. Dès la situation initiale, le prédateur se situe en position dominante par rapport à la proie. Cette asymétrie primordiale est constitutive de ce type de relations23. À l’aune de cette définition, le féodalisme peut être caractérisé par la prééminence de rapports de prédation entre les seigneurs et leurs sujets : les premiers protègent les seconds mais exercent simultanément sur eux une contrainte extra-économique – une violence effective ou potentielle – qui est la condition de l’extorsion d’un paiement. Si l’idée de prédation permet de mieux caractériser le féodalisme que la notion de contrat, elle ne suffit cependant pas à saisir la structure dans son ensemble.
Dans une contribution novatrice, Mathieu Arnoux considère que le facteur décisif de la dynamique de croissance des XIe-XIIIe siècles n’est ni démographique ni technologique, mais renvoie à « une augmentation massive et durable de l’offre de travail paysan ». La question est alors de comprendre « ce qui poussa les habitants des campagnes à intensifier leurs efforts24 ». Selon Arnoux, cette révolution industrieuse s’inscrit dans une transformation de la place du travail dans la société médiévale. La consolidation de la structure sociopolitique en trois ordres distincts qui intervient à cette période combine, d’une part, une reconnaissance morale de la dignité du travail et, d’autre part, l’institutionnalisation de mécanismes de redistribution, notamment la dîme ecclésiastique jouant un rôle d’assistance aux pauvres. Ces éléments agissent de concert pour valoriser le travail, entraînant son intensification25. Cette interprétation très stimulante laisse cependant dans l’ombre les raisons de la stagnation économique qui se manifeste dès les premières années du XIVe siècle, avant que la conjoncture ne prenne un tour catastrophique.
Pour rendre compte de l’expansion médiévale, Isaac Joshua propose une analyse en partie distincte de celle d’Arnoux. Dans La Face cachée du Moyen Âge, il montre que la mutation des forces productives à cette période, tant du point de vue de la quantité que de la qualité de la production, est essentiellement due à l’apparition du capital seigneurial. La petite part de leur revenu que les seigneurs consacrent, à partir du haut Moyen Âge, à l’acquisition d’équipements (charrue, construction de moulin…) va de pair avec leur insertion croissante dans les rapports marchands et se prolonge dans l’amorce d’une logique capitaliste d’investissement pour le profit, ce qui induit l’emploi d’une main-d’œuvre salariée. Ainsi, « le développement des forces productives est inversement proportionnel à la place occupée dans le revenu seigneurial par les deux propriétés, du sol et de la personne26 ». Autrement dit, les progrès (limités) des forces productives au Moyen Âge ne se déploient que dans la mesure où la domination économique commence à basculer du contrôle sur le travail vers le contrôle sur les moyens de production. C’est ce timide infléchissement vers la logique capitaliste qui, selon lui, serait à l’origine de la phase d’expansion marquée entre le Xe et le XIIIe siècle. Inversement, le frein au développement des forces productives qui provoque la crise du féodalisme au XIVe siècle, tient à la rémanence de la rente sur la terre et sur les personnes, fondée sur le pouvoir de coercition des seigneurs.
Robert Brenner s’est focalisé sur cette question du blocage du développement économique et a explicité le rôle qu’y joue l’extorsion. Se situant au même niveau d’abstraction et de généralité que North et Thomas, il considère lui aussi le servage comme la relation fondamentale, mais, contrairement à eux, il ne pense pas du tout que ce rapport soit contractuel. Il s’agit plutôt d’« une relation de pouvoir » où les paysans sont contraints à un « échange inégal » par l’exercice rigoureux d’une puissance extra-économique de la part des seigneurs. Avec cette définition du servage, Brenner pose les bases d’une explication fondée sur l’agencement des rapports de classes plutôt que sur les seules dynamiques démographiques.
Longtemps en effet, la stagnation de l’économie médiévale qui débute à la fin du XIIIe siècle a été expliquée par un modèle malthusien : la société féodale étant incapable d’améliorer sa productivité, elle est prise en étau entre sa dynamique démographique et les terres disponibles. L’accroissement de la population permet d’abord une expansion, mais celle-ci entraîne bientôt une surutilisation des terres, ce qui conduit à la baisse des rendements agricoles et à l’annexion de terres moins fertiles. En résultent une baisse des revenus des paysans et une augmentation du prix des denrées. Et, en l’absence d’amélioration de la production agricole, la surpopulation engendre finalement des famines. Le système s’autorégulerait ainsi, par une alternance de phases d’expansion et d’appauvrissement en réaction aux variations de la population. Emmanuel Le Roy Ladurie atteste de la validité de ce modèle cyclique sur les presque six siècles du haut Moyen Âge dans son histoire des paysans du Languedoc. Il écrit « Malthus viendra trop tard27 », pour signifier que le modèle malthusien, incapable d’expliquer la croissance économique de l’ère industrielle, rendait en revanche correctement compte de la dynamique des sociétés anciennes.
Si l’analyse malthusienne est convaincante sur le plan empirique, elle n’explique pourtant pas l’essentiel : pourquoi l’économie médiévale était-elle incapable d’améliorer sa productivité ? Le Roy Ladurie évoque l’absence de capital, d’esprit d’entreprise et d’innovation, sans indiquer l’origine de ces manques. C’est exactement sur ce point que Brenner met l’accent, expliquant les dynamiques économiques à partir de l’agencement des relations entre paysans et seigneurs. Voici sa thèse :
Le cycle malthusien de stagnation à long terme […] ne peut être pleinement compris que comme le résultat des structures et des relations de classes (en particulier les « relations d’extraction du surplus économique »), de même que le développement économique ne peut être pleinement compris que comme le résultat de l’émergence de nouvelles relations de classes plus favorables aux nouvelles formes d’organisation de la production, à l’innovation technologique et à l’augmentation des niveaux d’investissement productif28.
Autrement dit, c’est la structure de classes qui détermine comment des modifications démographiques ou commerciales affectent les variations à long terme de la distribution des revenus et le développement économique, et non l’inverse. Pour Brenner, deux facteurs expliquent la trappe malthusienne de la répétition des cycles démographiques d’enrichissement et d’appauvrissement29.
Le premier, c’est l’extorsion du surplus par les seigneurs. Laissés avec juste de quoi survivre, les paysans étaient dans l’incapacité d’investir pour améliorer ou même seulement préserver la qualité des sols. Écrasés sous le poids des charges seigneuriales, en nature ou monétaires, ils n’avaient pas les ressources suffisantes pour en accumuler. La question du bétail est ici essentielle : acquérir des animaux contribue à l’amélioration de la productivité par leur contribution aux labours et à l’enrichissement du sol. Mais, quand la nourriture manque, c’est précisément sur les terres allouées aux pâtures que l’on étend les cultures, ce qui aggrave la baisse des rendements et renforce la crise démographique.
Le second facteur tient à ce que le surplus capturé par les seigneurs était en grande partie improductif, dilapidé dans des consommations ostentatoires et les frais militaires. Ces dépenses étaient nécessaires au maintien de leur rang, à la reproduction du cercle de leurs obligés et à la conservation voire l’élargissement du contrôle territorial duquel dépendait in fine leur position sociale. Mais les seigneurs médiévaux, lorsqu’ils le pouvaient, investissaient dans l’acquisition de terres :
La position d’un gentilhomme ou d’un baron dans sa région ou dans l’ensemble du pays ; les soutiens qu’il pouvait recruter et mobiliser en période de stress politique et militaire ; sa capacité de pourvoir aux besoins de ses filles ou de former des alliances familiales, et même d’assurer le salut de son âme par des dons religieux ou charitables – en fait, tous les avantages et les privilèges appréciés par un seigneur féodal – dépendaient de la taille de son domaine. C’est pour cette raison que les seigneurs ne consacraient pas la majeure partie de leur épargne à une utilisation productive30.
La seigneurie est animée d’une logique extensive d’investissement dans la terre, ou dans les équipements militaires permettant d’en prendre le contrôle. Dans le féodalisme, comme le souligne Perry Anderson, l’appropriation brutale de richesses apparaît plus avantageuse que la production :
On peut soutenir que la guerre était peut-être le mode le plus rationnel et le plus rapide d’expansion et d’extraction du surplus dont disposaient les classes dirigeantes sous le féodalisme. […] La productivité agricole ne stagnait nullement au Moyen Âge, pas plus que le volume des échanges. Mais, pour les seigneurs, ces deux phénomènes n’augmentaient que très lentement leurs revenus par rapport aux « rendements » instantanés et massifs que rapportaient les conquêtes territoriales. […]. Il était donc logique que la définition sociale de la classe dirigeante féodale soit militaire31.
Participer aux guerres de conquête apporte aux seigneurs féodaux des perspectives de gains bien plus attrayantes que les rendements qu’ils peuvent escompter d’investissements agricoles. Aussi la prééminence de la compétition militaire fait-elle de la rivalité féodale un jeu à somme nulle : l’enjeu principal n’est pas l’amélioration de l’efficacité productive mais le contrôle de la terre et des hommes qui la travaillent.
Selon Brenner, une raison supplémentaire des faibles progrès de la productivité tient aux obstacles à la mobilité du travail et à la propriété de la terre. Le contrôle que les seigneurs exercent sur les paysans instaure une situation de capture où il leur est plus facile d’intensifier la pression sur ceux-ci pour accroître leur revenu plutôt que de s’engager dans de difficiles et incertaines opérations de réorganisation de la production. Les paysans ne peuvent pas non plus céder librement les terres qu’ils cultivent à d’autres paysans plus efficaces, ce qui empêche la constitution de domaines plus vastes.
Concentration du surplus dans les mains du seigneur qui se tient à distance du procès de production et en fait un usage non productif, d’une part, et immobilisation des facteurs de production, d’autre part, sont les deux causes décisives de l’atonie de la productivité dans le féodalisme. Elles se renforcent mutuellement : la pression sur les paysans, solution de facilité pour accroître les revenus des nobles, s’oppose à toute velléité d’émancipation de leur part ; mais, en privant ainsi les producteurs des ressources nécessaires à l’investissement, cette pression fait obstacle à l’amélioration du processus productif.
L’approche de Brenner est matérialiste sans être mécaniste : elle laisse le processus historique ouvert, indéterminé quant à l’issue de la lutte des paysans contre la domination des seigneurs32. Cette lutte pour le niveau des corvées, des paiements, la liberté de circuler et le contrôle de la terre dure tout le Moyen Âge. Au XIVe siècle, le déclin de la productivité agricole livre des populations affaiblies à une série d’épisodes de peste qui déciment entre le tiers et 50 % de la population. Ce choc démographique conduit à un regain des affrontements de classes, qui trouvent dans les siècles suivants des issues divergentes en France, en Europe de l’Est et en Angleterre. En France, les luttes victorieuses des paysans aboutissent à la domination de la petite paysannerie indépendante. À l’est de l’Europe, l’écrasement des paysans débouche au contraire sur un renouveau du servage. En Angleterre, en revanche, la défaite des paysans se traduit par leur expulsion des terres et la constitution de vastes domaines loués par les seigneurs à des fermiers. Ce nouveau partenariat entre propriétaires fonciers et fermiers entrepreneurs est fondé sur une dépendance généralisée au marché ; les fermiers embauchent des travailleurs salariés et sont incités à investir, instillant la dynamique d’investissement et d’innovation qui est la marque du capitalisme et qui, selon Brenner, crée les conditions nécessaires au développement industriel.
La logique qui définit de ce point de vue la structure du féodalisme ne réside pas dans les relations juridiques entre vassal et suzerain. Elle ne se focalise pas davantage sur la faible place accordée aux échanges marchands, ni sur l’émergence du capital seigneurial. Ce n’est pas que ces aspects soient sans importance. Ils sont même, à bien des égards, des éléments cruciaux dans les variations spatiales et temporelles du féodalisme. Mais ils ne sont pas décisifs pour distinguer le féodalisme en tant que mode de production.
Approche combinatoire des modes de production. Un mode de production, c’est une manière de produire à l’échelle d’une société donnée. Dans des sociétés de classes, c’est toujours une combinaison particulière des éléments suivants : d’abord, un procès de travail, c’est-à-dire des travailleurs qui mettent en œuvre, de façon autonome ou subordonnée, les instruments de production et qui transforment les objets de travail ; ensuite, un rapport d’appropriation, c’est-à-dire des méthodes par lesquelles des non-producteurs captent une part du surplus économique33. Les agencements de ces rapports varient selon les modes de production, ce qui entraîne des dynamiques économiques, sociales et politiques distinctes.
L’historien Guy Bois, auteur d’une monographie sur l’économie de la Normandie à la fin du Moyen Âge, saisit d’une formule le féodalisme en tant que mode de production : « C’est l’hégémonie de la petite production individuelle (donc le niveau de forces productives que cette hégémonie suppose), plus le prélèvement seigneurial assuré par une contrainte d’origine politique (ou extra-économique)34. » Cette phrase présente quatre éléments essentiels que l’on trouvait déjà chez Marx :
1) l’hégémonie de la petite production correspond au fait que le producteur direct dispose individuellement « des moyens matériels nécessaires pour réaliser son travail et produire ses moyens de subsistance » ;
2) le niveau des forces productives que cette hégémonie suppose renvoie à l’absence de coopération sociale dans la production. Le producteur « pratique de façon autonome la culture de son champ et l’industrie rurale domestique qui s’y rattache35 ». L’horizon de cette manière sociale de produire demeure la sécurité relative que la sphère productive individuelle procure ;
3) le prélèvement seigneurial établit une tension entre le propriétaire foncier et le producteur indépendant ;
4) c’est l’intervention de la force, la coercition, qui permet de résoudre cette tension : sans contrainte, le producteur indépendant n’a aucune raison de consentir au prélèvement seigneurial :
Il faut des raisons extra-économiques, de quelque nature qu’elles soient, pour les obliger à effectuer du travail pour le compte du propriétaire foncier en titre. […] Il faut donc nécessairement des rapports personnels de dépendance, une privation de liberté personnelle, quel que soit le degré de cette dépendance ; il faut que l’homme soit lié à la glèbe, n’en soit qu’un simple accessoire, bref, il faut le servage dans toute l’acception du mot36.
On peut reprendre ces éléments pour élaborer une typologie sommaire des modes de production, et ainsi faire ressortir les caractéristiques qui distinguent le mode de production féodal à la fois de l’esclavagisme moderne et du salariat capitaliste.
Propriété, travail et appropriation du surplus. Tout d’abord, soulignons ce que féodalisme, esclavagisme et capitalisme ont en commun. Dans ces trois configurations, la propriété juridique d’au moins une partie des actifs indispensables à la production est monopolisée par une classe dominante. Dans le cas du féodalisme, c’est la terre qui est monopolisée par les seigneurs féodaux, les producteurs directs ne possédant que les instruments nécessaires à la production de leurs biens de subsistance. Dans le capitalisme et l’esclavagisme, la totalité des moyens de production appartient à la classe dominante. Ce monopole juridique d’une classe sur les actifs indispensables à la reproduction des conditions de subsistance est le fondement de l’appropriation d’un surplus, c’est-à-dire d’un surtravail au-delà de ce qui revient aux producteurs directs.
La deuxième dimension commune concerne le travail. Dans le cas du féodalisme comme de l’esclavagisme, les travailleurs ne sont pas libres, et une forme de coercition attache les producteurs à leur maître. À l’inverse, dans le capitalisme, les prolétaires sont réputés « libres » de vendre leur force de travail à qui bon leur semble. Ils doivent le faire pour survivre, donc ils dépendent bien des capitalistes en général, mais ils peuvent choisir leur capitaliste particulier. Il n’y a pas de relation de dépendance interpersonnelle directe.
La troisième dimension concerne le procès de travail lui-même. Dans les cas du capitalisme et de l’esclavagisme des plantations, les travailleurs sont subordonnés aux propriétaires des moyens de production. Ce sont eux qui organisent le travail, en définissent le rythme et lui donnent un caractère collectif. Le terme « plant », qui signifie « usine » en anglais, signale cette filiation entre l’organisation collective du travail dans les plantations esclavagistes et l’industrie capitaliste : la calibration au plus juste des quantités de travail et la soumission à des rythmes mécaniques sont des traits que l’on retrouve dans l’organisation du travail étroitement coordonnée de la plantation sucrière de la fin du XVIIIe siècle comme dans l’usine industrielle des XIXe et XXe siècles37. Ce n’est pas le cas au sein du féodalisme. Là, les producteurs sont indépendants, ils travaillent comme bon leur semble du moment qu’ils se conforment aux exigences de leur maître en termes de service ou de paiements. Cette autonomie (relative) est le corollaire d’une monopolisation seulement partielle des moyens de production : si l’usage de la terre ne leur est que concédé par les seigneurs, les paysans sont en revanche propriétaires des autres moyens de production que sont les outils, les constructions ou encore le bétail.
La quatrième dimension a trait à l’appropriation du surplus, c’est-à-dire au rapport entre travail et surtravail. Dans le capitalisme et l’esclavagisme, il y a coïncidence « dans l’espace et dans le temps » du travail et du surtravail approprié par la classe dominante, ce qui n’est pas le cas dans le féodalisme38. Le surtravail au profit du seigneur s’effectue sous forme de corvée ou de paiements, mais dans tous les cas dans une temporalité et un espace distincts, ce qui donne à l’exploitation un caractère transparent :
La coïncidence de la plus-value avec le travail non payé d’autrui ne nécessite aucune analyse, puisqu’elle est encore concrètement visible, le travail que le producteur direct effectue pour lui-même étant encore séparé, dans l’espace et dans le temps, de celui qu’il fournit au propriétaire foncier ; ce dernier travail apparaît directement sous la forme brutale de travail forcé pour le compte d’un tiers39.
La dynamique des forces productives. La cinquième et dernière dimension porte sur la dynamique des forces productives qui résulte de la combinaison des quatre coordonnées précédentes.
À l’inverse du capitalisme, il n’y a pas dans l’esclavagisme et dans le féodalisme de tendance systématique à l’accroissement de la productivité par l’introduction de technologies permettant d’économiser le travail. Il y a plusieurs raisons à cela.
D’abord, comme on l’a vu plus haut, dans le cadre du féodalisme les moyens d’investissement des producteurs directs sont quasi nuls. Lorsque le travail est principalement subjugué par la force, ceux-ci ne sont aucunement incités à collaborer à l’amélioration du processus de production40.
Le deuxième obstacle résulte de l’absence d’incitation pour les propriétaires à économiser le travail. Qu’ils soient féodaux ou esclavagistes, ils ne paient pas les travailleurs ; il n’y a donc rien à économiser41. Tandis que « les capitalistes peuvent réagir et réagissent effectivement à la chute des prix en “expulsant la main-d’œuvre” de la production – soit en réduisant la production, soit en introduisant des mécanismes d’économie de main-d’œuvre », les propriétaires d’esclaves sont dans l’impossibilité de se défaire de leur main-d’œuvre sans risquer de subir une perte en capital. Ils ne sont donc pas incités à économiser le travail mais, au contraire, à l’utiliser au maximum : ils réagissent à une baisse des prix en tentant d’augmenter la production et d’accroître le travail des esclaves jusqu’à épuisement, de la même manière que les seigneurs féodaux tentent d’augmenter les prélèvements lorsque les rendements diminuent. En règle générale, ni les uns ni les autres n’investissent dans des machines et des outils permettant d’économiser le travail.
La tendance à l’autosuffisance, soit le recours limité au marché, est un troisième élément qui fait obstacle à l’augmentation de la productivité dans les sociétés esclavagistes. Les propriétaires ont en effet intérêt à employer leurs esclaves en permanence, et pas seulement dans les périodes les plus intenses de la culture du coton ou de la canne à sucre. Les esclaves sont donc aussi employés à d’autres travaux, tels que la production du maïs, l’élevage des porcs ou la fabrication ou la réparation d’objets, de sorte que les plantations sont largement autosuffisantes, notamment en nourriture. Couplée au défaut d’investissement en biens de production, cette absence de demande de biens de consommation tend à bloquer l’approfondissement de la division du travail et l’élargissement d’un marché domestique pour l’industrie locale. Non seulement la productivité stagne au sein des plantations, mais l’économie locale se trouve privée de débouchés.
Ce principe d’autosuffisance est également essentiel dans le fonctionnement de la seigneurie jusque vers le XIe siècle. « Les maîtres, écrit Duby, mettaient leur idéal à tirer de leur terre de quoi subvenir à tous leurs besoins, et “qu’il ne fût pas nécessaire” de quérir ou d’acheter quelque chose ailleurs42. » Cela vaut aussi, plus tard, pour les producteurs féodaux et, plus largement, pour les petits paysans indépendants.
Lorsque les prélèvements seigneuriaux se font moins pesants, que les paysans gagnent en indépendance, les producteurs directs disposent de ressources au-delà de ce qui est nécessaire à leur subsistance. Ils utilisent alors ce surplus pour satisfaire de nouveaux besoins en élargissant le champ de leur propre activité, selon une logique autarcique, plutôt que sous forme d’investissement dans l’amélioration du processus productif en vue de l’échange.
Pourquoi le principe de satisfaction des besoins internes prévaut-il sur celui d’efficacité productive ? Tout simplement parce que l’autoproduction est moins risquée que l’échange. Quand les producteurs ont directement accès aux moyens d’assurer leur subsistance, ils ne sont pas contraints de se conformer à la discipline du marché et à ses incertitudes. Ainsi, « la petite propriété favorise une production individualisée et non spécialisée43 ». Sans dépendance généralisée au marché, elle est porteuse d’une logique de diversification qui est radicalement distincte de la logique capitaliste d’investissement pour les profits, où l’accroissement de l’efficacité productive passe par la spécialisation.
La logique capitaliste apparaît donc bien comme le résultat d’une configuration exceptionnelle. Elle prend l’aspect d’une production marchande généralisée, au sens où les moyens de production, tout comme le travail, sont libres d’être échangés et doivent impérativement être utilisés conformément au niveau de productivité en vigueur. Dans une telle structuration des relations sociales de propriété, la dépendance généralisée au marché, comme l’explique Brenner, fait de l’investissement et de l’innovation des obligations impérieuses :
Ce n’est que lorsque le travail a été séparé de la possession des moyens de production et que les travailleurs ont été émancipés de toute relation directe de domination (comme l’esclavage ou le servage) que le capital et la force de travail sont « libres » de rendre possible leur combinaison au plus haut niveau technologique possible. […] Ce n’est que dans des conditions de travail à salaire libre que les unités productrices individuelles […] seront obligées de vendre pour acheter, d’acheter pour survivre et se reproduire, et finalement d’étendre et d’innover afin de maintenir cette position par rapport aux autres unités productives concurrentes. Ce n’est que dans un tel système, où le capital et la force de travail sont donc des marchandises – et c’est ce que Marx a appelé la « production marchande généralisée » –, qu’il est nécessaire de produire en se conformant à la norme du temps de travail « socialement nécessaire » pour survivre au jour le jour et de dépasser ce niveau de productivité pour assurer la pérennité de cette survie44.
Rassemblons pour conclure les principaux éléments qui constituent la structure logique du féodalisme :
1) le caractère indissociablement politique et économique des rapports de domination, qui se cristallisait dans une institution centrale, le dominium, où le pouvoir sur les hommes se confondait avec le pouvoir sur la terre ;
2) un principe général de concentration et de consumation des richesses, selon lequel « tous les axes convergeaient vers une aristocratie toute-puissante et dépensière », concentrant « entre les mains des seigneurs tous les nouveaux revenus engendrés par l’expansion agricole » et qui « les détournait vers des achats de luxe »45 ;
3) l’exploitation économique de la plus grande part de la population par l’aristocratie recourait à la coercition plutôt qu’à un arrangement contractuel de type services contre protection présupposant une forme de symétrie entre les parties. Le prélèvement seigneurial relevait plus précisément d’une logique de prédation, c’est-à-dire un mécanisme d’allocation appropriative qui prolonge une situation d’inégalité par l’usage de la violence.
Tableau 4. Combinatoire des modes de production : esclavagisme, féodalisme et capitalisme
|
Esclavagisme |
Féodalisme |
Capitalisme |
Moyens de production |
Monopolisation par les esclavagistes. |
Terre détenue par les seigneurs, instruments par leurs dépendants. |
Monopolisation par les capitalistes. |
Travail |
Non libre. |
Non libre. |
Libre. |
Procès de travail |
Subordonné et coopératif. |
Indépendant et individuel. |
Subordonné et coopératif. |
Extraction du surplus |
Consubstantielle à la production. |
Disjointe. |
Consubstantielle à la production. |
Productivité |
Faible. |
Faible. |
Dynamique. |
L’approche combinatoire de ces trois modes de production – esclavagisme des plantations, féodalisme et capitalisme – permet de mettre en évidence la singularité de chacun (tableau 4). Le mode de production féodal possède trois traits distinctifs : la propriété d’une partie des outils de production par les producteurs directs, leur autonomie dans l’organisation de procès de travail pour l’essentiel individuels et fragmentés et, enfin, le caractère disjoint du prélèvement seigneurial par rapport au procès de travail lui-même. S’il n’a aucun élément en partage avec le mode de production capitaliste, il se définit, comme l’esclavagisme, par la non-liberté du travail et l’absence de dynamique d’accroissement systématique de la productivité. Contrairement, donc, au capitalisme, le féodalisme n’est pas productiviste.
Mon pari est que ce repérage des caractéristiques du féodalisme nous aide à mieux comprendre les mutations du capitalisme contemporain. Peut-on identifier des formes de résurgence paradoxales de logiques féodales dans des sociétés où la production marchande s’est pourtant généralisée ?
« Prélever plutôt qu’organiser la production, décider de la mort plutôt que gérer la vie. »
Das Digital : tel est le titre prometteur de l’ouvrage de Viktor Mayer-Schönberger et Thomas Ramge, traduit pour l’édition anglaise par Reinventing Capitalism in the Age of Big Data. Leur thèse est que la conjonction des Big Data, des algorithmes et de l’intelligence artificielle altère radicalement le fonctionnement des marchés. D’une part, les données permettent d’accompagner les transactions par une information beaucoup plus riche que sur les marchés traditionnels. D’autre part, les algorithmes accompagnent les agents dans leurs prises de décision de telle sorte qu’ils peuvent échapper à leurs biais cognitifs et adopter un comportement plus cohérent.
Grâce aux données massives sur les produits et les préférences et grâce aux algorithmes capables d’examiner les transactions potentielles dans de multiples configurations, le processus d’appariement devient beaucoup plus subtil. C’est ce qu’illustrent les systèmes de recommandation d’achats personnalisés, la mise en relation de voyageurs en fonction des envies de conversation sur BlaBlaCar, l’automatisation des premières phases de recrutement dans les grandes firmes ou encore la commande automatique de biens intermédiaires dans les chaînes de valeur.
Données et algorithmes se substituent pour une large part aux signaux prix dans les transactions : « Les marchés riches en données produisent finalement ce que les marchés, en théorie, auraient toujours dû faire : permettre une transaction optimale. Or, en raison de limites informationnelles, ce n’était pas le cas47. » La monnaie conserve son rôle de moyen de paiement et de réserve de valeur, mais une multitude d’indicateurs viennent compléter les signaux prix pour enrichir l’information économique.
L’approche de Mayer-Schönberger et Ramge ouvre des perspectives intéressantes pour la critique du système marchand et invite indirectement à rouvrir le débat sur le calcul économique et l’avenir de la planification48. Mais elle ne rend pas raison des questions soulevées précédemment : l’édification de citadelles monopolistiques inexpugnables, une surveillance généralisée associée à la puissance utile des algorithmes ou encore la faiblesse de l’investissement et de la croissance… Or ce sont précisément ces problèmes qu’il faut tenter de tirer au clair.
Une première attitude consiste à ramener ces phénomènes aux lois ordinaires du capitalisme. Centralisation, concentration et dévalorisation des capitaux font partie du jeu de l’accumulation. Nul besoin, par conséquent, d’introduire de nouveaux cadres d’analyse pour rendre compte des mutations des structures industrielles sous l’effet de l’innovation et de la concurrence.
Les traditions marxiste et schumpetérienne disposent certes d’un appareil théorique robuste pour analyser ces processus. Le concept de « compétition réelle » développé par Anwar Shaikh vise par exemple à expliquer comment l’objectif de profit conduit à un affrontement entre des capitaux dont les soubresauts font apparaître des schémas récurrents49. Dans une autre perspective, la tradition des ondes longues est mobilisée pour penser l’essor du numérique comme un nouveau paradigme techno-économique50. Il prend ainsi la suite d’autres configurations du capitalisme qui se sont agencées autour du pétrole et de l’automobile, de l’acier et de l’électricité ou, plus tôt, des chemins de fer et de l’industrie cotonnière. Les difficultés actuelles sont alors expliquées par le fait que les institutions nécessaires à l’installation d’une phase de prospérité font encore défaut.
Evgeny Morozov nous met en garde : à surestimer la radicalité du bouleversement digital, on court le risque de désarmer les formes traditionnelles de la critique du capitalisme51. La question du travail et de l’exploitation, celles des contradictions et des crises seraient escamotées au profit des questions de protection de la vie privée et de politique de la concurrence. Le souci de Morozov est légitime, mais il nous faut aussi échapper au travers opposé, celui qui conduit, comme l’écrit Nathalie Quintane, à relativiser les « changements en cours en identifiant et en relevant en eux uniquement ce qui était reconnu, de manière à les associer à une routine : à en couper les griffes52 ».
Je choisis ici de repartir d’un couple de concepts très classiques : ce que Marx appelle les rapports de production, « ces rapports déterminés, nécessaires et indépendants de leurs volontés » que les hommes nouent « dans la production de leur vie sociale »53, et les forces productives auxquelles ils sont associés, c’est-à-dire les ressources, techniques et savoirs mobilisés dans cette production de l’existence sociale.
Mais ceci pour tenter de répondre à une question nouvelle. Celle, au fond, que formule la philosophe McKenzie Wark lorsqu’elle se demande « si ce qui est apparu en plus et au-dessus du mode de production capitaliste ne serait pas quelque chose de qualitativement différent, qui est en train de générer de nouvelles formes de domination de classe, de nouvelles formes d’extraction de plus-value, voire de nouveaux types de formation de classes54 ». La proposition de Wark est très générale. Aux rapports de production existants – liés aux relations capital-travail et à la propriété foncière – elle surajoute une nouvelle opposition entre les hackers et la « classe vectorialiste ». La classe des hackers produit l’information mais ne peut pas la valoriser, tandis que la classe vectorialiste possède les vecteurs de l’information et concentre de ce fait les capacités de valorisation.
Là où je me démarque de la thèse de Wark, c’est que je ne considère pas que l’information soit en passe de devenir le principal mode de production de valeur. Comme le rappelle l’économiste hétérodoxe Duncan Foley, cette perspective est un mirage :
Les effets de rendement croissant peuvent créer l’illusion que la production de marchandises fondée sur l’information et la connaissance peut créer de la valeur sans aucun intrant autre que la créativité et l’ingéniosité humaines. Mais les créateurs de connaissances et d’informations sont des êtres humains qui ont besoin de manger, d’avoir un endroit pour dormir, de s’habiller, etc.55.
L’économie politique du digital relève à mes yeux principalement de la problématique de la rente. L’idée de rente numérique est aujourd’hui très répandue. On la trouve jusque dans les écrits de l’économiste néolibéral Jean Tirole, qui évoque une « manne numérique » par analogie à la manne pétrolière, mais sans en expliquer l’origine56.
Si l’exploitation du travail joue toujours un rôle central dans la formation d’une masse globale de plus-value, la spécificité actuelle réside dans des mécanismes de capture permettant à des capitaux de nourrir leurs profits par prélèvement sur cette masse globale, tout en limitant leur implication directe dans l’exploitation et en se déconnectant des processus productifs. C’est la signification que l’on donne ici à l’idée de rente57.
La dynamique du capitalisme est animée en son cœur par un impératif d’investissement lié à la concurrence et à la dépendance généralisée au marché. Or l’essor des intangibles bouscule cette logique classique. Les actifs numériques et leurs utilisateurs devenant indissociables, la mobilité des individus et des organisations est entravée. Cet attachement casse la dynamique concurrentielle et offre à ceux qui contrôlent les intangibles une capacité sans pareille de s’approprier la valeur sans véritablement s’engager dans la production. Ce qui prend alors le pas, c’est une relation de capture. Dans cette configuration, l’investissement n’est plus orienté vers le développement des forces de production mais des forces de prédation. Voyons cela de plus près.
Les stratégies de conquête du cyberspace passent par le contrôle des flux de données : l’accès à nos téléphones et à nos ordinateurs, les capteurs dans les machines-outils et les véhicules, les senseurs dans nos maisons… Tout comme les puits de pétrole, les points de capture des données engendrées par l’activité des individus et des organisations n’existent pas en nombre infini. Il en va de même lorsqu’il s’agit de capter notre attention58. Il y a donc une forme de rareté absolue des données originales.
Bien sûr, la rareté est aussi relayée par les droits de propriété intellectuelle qui restreignent l’usage des données et des logiciels. Mais ceux-ci consolident souvent des positions préexistantes. La logique de monopolisation intellectuelle que l’on a décrite dans la troisième partie opère au-delà des seuls instruments juridiques : les sites d’extraction des données sont des positions stratégiques, et les flux qui en jaillissent convergent vers des lieux où leur centralisation permet la production d’effets utiles. C’est le modèle Google.
Dans le même temps, l’univers numérique est caractérisé par le coût quasi nul de la reproduction de l’information. Si les données originales sont rares, elles peuvent néanmoins être reproduites pour un coût très faible. Celui-ci est principalement d’ordre énergétique. Au niveau agrégé il n’est pas négligeable, mais reste limité : en 2014, les datacenters consommaient 70 milliards de kilowatts-heures (kWh) aux États-Unis, soit environ 1,8 % de la consommation totale d’électricité dans ce pays59. Au niveau désagrégé ce coût est imperceptible, si bien qu’avec la diffusion des technologies digitales l’information est devenue abondante.
La logique des rendements croissants de l’industrie est radicalisée dans le cas du digital, où il y a une différence majeure entre les ressources numériques et les ressources naturelles. Tandis que le monopole lié à la rareté absolue de la terre est contrebalancé par des rendements décroissants, le monopole sur les données numériques originales est redoublé par des économies d’échelle60 et des complémentarités de réseau. Une fois les frais fixes de collecte et de traitement des données assumés, les effets utiles des services numériques peuvent être déployés presque sans frais.
Pour comprendre la logique turbulente de la compétition réelle, Anwar Shaikh a proposé le concept de « capital régulateur61 ». Cette notion désigne le capital qui opère aux meilleures conditions de production reproductibles pour une industrie donnée à un moment donné. Il s’agit du capital qui bénéficie du niveau des coûts unitaires le plus avantageux et qui peut croître encore à ces mêmes conditions favorables.
Dans le cas de l’industrie minière ou de l’agriculture, où les rendements sont décroissants, le capital régulateur fait face à des coûts unitaires supérieurs aux coûts moyens : les opportunités d’investissement restantes sont moins intéressantes que celles déjà en exploitation. Par exemple, le coût d’extraction du pétrole des gisements d’Arabie saoudite est d’environ 4 $ le baril, tandis que l’exploitation plus récente du pétrole des sables bitumineux de l’Alberta s’élève à 40 $. À l’inverse, dans le cas de l’industrie manufacturière comme de l’automobile, les nouvelles usines incorporent des technologies plus performantes qui leur permettent d’opérer à un coût unitaire plus faible que les installations déjà en fonctionnement.
Qu’en est-il dans le numérique ? Ni l’une, ni l’autre de ces dynamiques ne rendent compte de manière satisfaisante de la logique d’un investissement supplémentaire. En effet, si l’on accepte le postulat de la rareté des flux de données originales, un nouvel entrant ne peut opérer qu’à coût plus élevé, les nouveaux puits de données disponibles opérant à coûts plus élevés relativement aux effets utiles produits. Cependant, cette possibilité d’entrée à coût plus élevé est contrariée par le fait que les firmes en place bénéficient pleinement des complémentarités de réseau. Pour elles, les coûts d’extraction plus élevés d’un investissement additionnel sont contrebalancés par le fait que l’addition de nouvelles sources de données augmente davantage les effets utiles que si cette nouvelle source était utilisée isolément.
Prenons le cas de Siri. Cet assistant virtuel fonctionnant par reconnaissance vocale en langage naturel a été développé au cours des années 2000 au sein d’un institut de recherche lié à l’université Stanford grâce à des financements de la DARPA, l’agence de financement de la recherche du ministère de la Défense étatsunien62. Intitulé CALO, pour Cognitive Assistant that Learns and Organizes, ce projet était alors le plus gros programme d’intelligence artificielle jamais financé. Brièvement exploité par une start-up issue de cet institut de recherche en février 2010 et acquis quelques mois plus tard par Apple, Siri est rapidement incorporé à l’écosystème Apple, qui s’en trouve valorisé dans sa totalité. Ainsi, la centralisation du capital à l’œuvre dans l’absorption des start-up par les grandes firmes du numérique ne résulte pas seulement d’une logique stratégique visant à empêcher l’émergence de concurrents potentiels ; elle reflète également une logique économique selon laquelle un procédé exploité par une start-up est mieux valorisé au sein d’une entité plus grande, grâce aux complémentarités des diverses sources de données et à la combinaison de plusieurs traitements algorithmiques. L’organisation est ici supérieure au marché.
Tableau 5. Rareté et rendements pour différents moyens de production : la terre, l’industrie et le digital
Rareté |
Rendements |
|
Terre |
Absolue |
Décroissants |
Industrie |
Relative |
Croissants |
Digital |
Absolue |
Croissants et infinis |
On voit bien que le digital se distingue des autres moyens de production que sont la terre et le capital industriel. Sa singularité est d’associer la rareté des sites stratégiques de capture des données avec des rendements croissants infinis (tableau 5). Et, comme nous le constaterons, cette nouvelle configuration perturbe le processus de compétition réelle qui constitue le moteur du capitalisme.
À cette structure de coûts particulière s’ajoute un rapport de dépendance propre au monde des Big Data et des algorithmes.
Il existe de nombreuses sources de données originales, par exemple celles sur la biodiversité collectées par les biologistes, ou les données produites par les stations météorologiques, ou bien encore les données de la statistique publique en matière de démographie ou de fiscalité. Mais ce qui caractérise le Big Other de Zuboff, c’est la montée en puissance de données qui constituent l’envers des services numériques. Les individus et les organisations consentent à se défaire de leurs datas en échange des effets utiles que leur fournissent les algorithmes. Comme nous l’avons vu précédemment, c’est ainsi que se forment de puissantes boucles de rétroaction où des phénomènes d’intrusion grandissante et de performance algorithmique accrue se nourrissent l’un l’autre. C’est ce que l’on appelle, dans le jargon de la Silicon Valley, l’« hyperscale », en référence au problème de l’expansion des capacités (scalability) en informatique63.
L’élément fondamental est ici l’existence d’un réseau d’utilisateurs interdépendants. Ce qui fait la puissance de Google, ce n’est pas tant l’utilisation non rivale des algorithmes que les synergies entre services et les complémentarités entre utilisateurs. Eric Schmidt et Jared Cohen, dirigeants de Google, parlent d’« accélération d’échelle » (acceleration to scale) pour décrire cette boucle expansive qui caractérise les plateformes technologiques modernes :
Leur puissance résulte de leur capacité à croître – et plus précisément de la rapidité à laquelle elles s’étendent. Mis à part un virus biologique, il n’y a pratiquement rien qui puisse se répandre aussi vite, efficacement ou agressivement que ces plateformes technologiques64.
La conséquence d’une telle dynamique, responsable de tous les grands succès du numérique du début du XXIe siècle, c’est qu’en même temps que les services s’améliorent, chacun se retrouve plus fortement rivé à l’univers contrôlé par l’entreprise. Et vice-versa, puisque l’implication grandissante de chacun accroît en retour la performance des services numériques.
Pour essayer de rendre compte de cette dynamique, les économistes mettent l’accent sur le rôle des subventions croisées, consistant à faire payer au prix fort un certain type d’acteurs afin d’attirer d’autres participants avec des prix bas ou nuls65. Le cas de la gratuité de contenus en ligne, comme les recettes de marmiton.org, ou les services offerts par Google, Booking ou le Fooding, l’illustre : les consommateurs profitent du service, mais celui-ci est payé par les annonceurs. Par capillarité, les individus convergent vers les plateformes les plus importantes qui deviennent alors les plus performantes, concentrant l’offre, la demande et les données permettant d’optimiser leur mise en relation.
Les titans capitalistes d’aujourd’hui valorisent donc les nœuds qui distribuent l’information et accroissent sa qualité. Autrement dit, les services que nous vendent ces entreprises consistent pour l’essentiel à retourner notre puissance collective en information adaptée et pertinente pour chacun d’entre nous et, de la sorte, à attacher notre existence à leurs services.
Dans cette opération, une des clés du succès est la masse des données disponibles, ce qui introduit immédiatement un enjeu d’échelle. Or, à ce concours des échelles, les acteurs implantés en Chine ont, pour des raisons à la fois démographiques et politiques, un avantage territorial très net. D’abord, dans cette économie de plus d’un milliard de consommateurs, de loin la plus vaste au monde, les données sont potentiellement plus nombreuses. Ensuite, elles sont plus accessibles. En raison d’un développement capitaliste tardif, l’ethos bourgeois de protection de la vie privée n’y est pas enraciné socialement, et le système juridique qui l’implémente reste des plus rudimentaires66 ; si bien que les firmes et le gouvernement peuvent aisément s’approprier, croiser et exploiter les données individuelles – en témoigne l’essor du système de crédit social évoqué plus haut. Enfin, les restrictions imposées par les autorités chinoises à plusieurs services étatsuniens de premier plan – à commencer par Google, Facebook et Twitter – ont eu pour effet de favoriser le développement de firmes autochtones. En conséquence, les entreprises chinoises se positionnent à l’avant-garde dans la plupart des secteurs du numérique. Dans le domaine de la reconnaissance faciale par exemple, Megvii, une start-up soutenue par des fonds publics chinois et russes, surpasse techniquement les produits concurrents de Google, Facebook et Microsoft, notamment grâce à son accès à une base de données gouvernementale sans équivalent, de quelque 750 millions de photos d’identité67.
Ce qui est frappant dans cette logique de l’hyperscale, c’est la rapidité avec laquelle on s’éloigne du principe d’horizontalité de l’échange marchand censé opérer entre des agents libres de conclure une transaction. L’invasion des applications manifeste très soudainement la force du lien qui se noue entre les existences humaines et les cyber-territoires. La vie sociale s’enracine dans la glèbe numérique. Le socle des rapports de production numérique est désormais formé par la dépendance des individus et des organisations vis-à-vis de structures exerçant un contrôle monopolistique sur les données et les algorithmes.
Pour les consommateurs, certes, cette contrainte n’est pas absolue. Vous pouvez toujours décider de vivre à l’écart des Big Data. Mais cela implique des effets plus ou moins prononcés de marginalisation sociale. Toutes proportions gardées, ce genre de problème – une question de « coûts d’exit » – n’est pas d’une autre nature que celui des paysans médiévaux : pour s’affranchir de leur servitude, ils devaient affronter les périls de la fuite hors du fief et tenter une existence isolée sur un alleu, un terrain n’appartenant qu’à eux, aux frontières du monde connu.
Pour les producteurs, en revanche, la contrainte est absolue : toute entreprise ou tout travailleur de plateforme s’inscrit dans un environnement numérique qui reçoit nécessairement une part des données issues de son activité et qui, en retour, la soutient. Reste bien sûr la possibilité de changer de crémerie. Mais les effets de réseau et d’apprentissage sont tels que, même lorsqu’il existe une alternative – ce qui n’est pas toujours le cas – et qu’il est possible de récupérer ses données – ce qui est encore moins fréquent –, les coûts élevés de transition constituent une situation de verrouillage, amenuisant radicalement toute possibilité de sortie.
Les grands services numériques sont des fiefs dont on ne s’échappe pas. Cette situation de dépendance des sujets subalternes vis-à-vis de la glèbe numérique est essentielle car elle détermine la capacité des dominants à capter le surplus économique. Le modèle théorique correspondant à cette configuration où dépendance et contrôle du surplus vont de pair est, comme je l’ai introduit, celui de la prédation. C’est vers celui-ci qu’il faut se tourner pour comprendre la dynamique économique et le régime de conflictualité sociale qui caractérisent les rapports de production numérique.
Marx rappelle que « la bataille de la concurrence se mène par l’abaissement du prix des marchandises68 ». Être compétitives est la condition nécessaire pour que les firmes fassent des profits. Celles qui ne se soumettent pas à cet impératif voient leur activité invalidée : les pertes s’accumulent et elles finissent par disparaître. Au niveau agrégé, c’est dans ce processus que s’inscrivent l’exploitation du travail et la réalisation de la valeur sur le marché. Mais il y a une forme d’ironie dans ce jeu car, comme l’explique le magnat de la Silicon Valley Peter Thiel, l’objectif de l’entrepreneur individuel dans la bataille concurrentielle consiste précisément à échapper à la compétition :
Il ne suffit pas de créer de la valeur – vous devez également capturer une partie de la valeur que vous créez. […] Le mythe américain de la concurrence et le crédit accordé à cette idée nous ont permis d’échapper à l’emprise du socialisme […]. Mais, au fond, le capitalisme et la concurrence sont antagoniques. Le capitalisme est fondé sur l’accumulation du capital, or dans une situation de concurrence parfaite, tous les profits sont éliminés. La leçon pour les entrepreneurs est claire… La concurrence, c’est pour les losers69.
Duncan Foley souligne les effets paradoxaux et contrastés de cette volonté d’échapper à la concurrence pour mieux s’approprier la valeur :
La masse globale de plus-value émerge des rapports sociaux capitalistes comme un sous-produit involontaire de la compétition pour l’appropriation de la plus-value. Son ampleur est un phénomène émergent et contingent qui échappe à l’influence de tout capitaliste individuel, et qui ne répond qu’à de plus vastes facteurs politiques, culturels et sociaux. Le défi compétitif immédiat pour tous les capitaux est l’appropriation de la plus grande part possible de cette masse de plus-value. Certains modes d’appropriation contribuent indirectement à augmenter la masse globale de plus-value, mais beaucoup d’autres, y compris une grande variété de modes de génération de rentes, ne contribuent pas à l’augmentation de cette masse totale70.
Autrement dit, dans la compétition réelle entre les capitaux dispersés pour l’appropriation de la valeur, certains créent de la survaleur tandis que d’autres se contentent de nourrir leurs profits de transfert aux dépens d’autres agents71. Analytiquement, les profits des firmes individuelles trouvent donc leur origine, d’une part, dans le processus local d’exploitation du travail et, d’autre part, dans des mécanismes de pure et simple appropriation. Les profits appropriés sont un prélèvement sur le montant total de survaleur obtenue collectivement par les capitalistes à travers l’exploitation du travail, à l’issue d’un conflit de répartition interne aux détenteurs de capitaux. Ils peuvent aussi résulter d’un transfert depuis les revenus des ménages salariés, comme les intérêts sur un prêt à la consommation.
La problématique de la rente est directement liée à cette logique d’appropriation de valeur déconnectée d’un engagement productif. C’est le cas de la propriété foncière et des ressources naturelles, et c’est aussi le cas du secteur financier. Marx parle d’ailleurs à ce propos de « féodalisme industriel » – une formule qu’il emprunte à Charles Fourier. Il voit dans l’émergence du Crédit immobilier français, une société financière par actions constituée sous le Second Empire, une tentative de monopoliser le contrôle du financement de l’industrie. Ceci, commente-t-il, « non pas dans l’optique d’investissements productifs, mais simplement dans le but de réaliser des bénéfices par le biais d’actions. La nouvelle idée qu’ils ont lancée est de soumettre le féodalisme industriel à la spéculation boursière72 ».
La référence au féodalisme renvoie au caractère rentier, c’est-à-dire non productif, du dispositif de captation de valeur. Et l’on retrouve cette idée de prévalence de la rente sur la logique productive dans le cas des firmes intensives en intangibles, notamment les plateformes73. La montée en puissance des activités numériques pose la question de la pérennité du processus compétitif de génération des profits. Tant que les capitaux sont effectivement en concurrence, que les consommateurs peuvent faire appel à différents producteurs, que les actifs peuvent être cédés, le système conserve sa dynamique turbulente : stratégies d’appropriation et espaces de production de survaleur tendent à s’équilibrer ; et, si les activités d’appropriation accaparent trop de capitaux, des opportunités de profits apparaissent dans le secteur productif qui attire alors de nouveaux investissements. Pourrait-il en être autrement ? Serait-il possible que la génération de profits soit orientée majoritairement vers l’appropriation et non plus la production de valeur ? Et, si tel était le cas, quelles en seraient les conséquences au niveau macroéconomique ? Le problème ainsi posé est finalement celui de l’émergence d’un phénomène de régulation prédatrice à l’âge des algorithmes.
Publié en 1899, La Théorie de la classe de loisirs de Thorstein Veblen est le premier et l’un des rares livres d’économie consacrés au problème de la prédation. Son hypothèse fondamentale – la résilience de la prédation dans le capitalisme – s’appuie sur la distinction entre dispositif productif et stratégies de profit par accaparement, un phénomène qu’il ne cesse de souligner dans toute son œuvre74. Dans cette perspective, la maximisation des revenus du capital ne dépend pas de la maximisation de la production mais plutôt de la maximisation du contrôle sur la collectivité en général75, un contrôle qui passe par la maîtrise d’éléments stratégiques – des actifs intangibles, des connaissances réservées ou des biens de production exclusifs, autant d’éléments rassemblés sous le terme général de goodwill :
Le goodwill, pris dans son acception la plus large, comprend des choses telles que les relations d’affaires établies, la réputation d’honnêteté, les franchises et les privilèges, les marques, les brevets, les droits d’auteur, l’utilisation exclusive de procédés spéciaux protégés par la loi ou le secret, le contrôle exclusif de sources d’approvisionnement en matériaux. Tous ces éléments confèrent un avantage différentiel à leurs propriétaires, mais ils ne constituent pas un avantage global pour la collectivité. Ils constituent une richesse pour les individus concernés – une richesse différentielle – mais ils ne font pas partie de la richesse des nations76.
Dans la vision technocratique qui est la sienne, Veblen estime que l’économie, pourvu que les rênes en soient laissées aux mains des ingénieurs, peut assurer la prospérité de toute la population ; il conçoit d’ailleurs un plan de fonctionnement pour une économie administrée par « un soviet de techniciens » au service du bien-être matériel du plus grand nombre77. Mais les ingénieurs, regrette-t-il, sont subordonnés aux intérêts particuliers des propriétaires des moyens de production. Là où la plupart de ses contemporains sont éblouis par les progrès de l’industrie, Veblen remarque au contraire les obstacles imposés à celle-ci. À ses yeux, l’essentiel de l’activité déployée par les milieux d’affaires ne consiste pas à organiser la production, mais au contraire à saboter le processus productif, chacun s’efforçant de mieux rançonner les autres :
Le but immédiat de l’homme d’affaires est de perturber ou de bloquer le processus industriel en un ou plusieurs points. Sa stratégie est généralement dirigée contre d’autres intérêts commerciaux et ses objectifs sont le plus souvent atteints grâce à une forme de coercition pécuniaire78.
Une des intuitions les plus fortes de Veblen est d’avoir saisi le caractère moderne de la formation d’une classe prédatrice :
La prédation ne peut devenir la ressource habituelle et conventionnelle d’un groupe ou d’une classe quelconque tant que les méthodes industrielles n’ont pas été développées à un degré d’efficacité tel qu’elles laissent une marge pour laquelle cela vaut la peine de se battre79.
Ainsi, efficacité économique et innovation ne s’opposent pas à la montée des normes prédatrices ; au contraire, plus une société est développée sur le plan économique, plus elle offre de prise à la prédation. C’est sur cette prémisse que repose l’hypothèse techno-féodale.
La prédation est un mécanisme économique d’allocation par appropriation. Dans le cadre d’une régulation prédatrice, le résultat agrégé est au mieux un jeu à somme nulle – si l’appropriation correspond à un simple transfert de valeur –, au pire un jeu à somme négative, si le processus même de prédation entraîne des coûts et des destructions. Le contraste historique apparaît clairement lorsque Perry Anderson compare la dynamique économique du conflit au sein de la noblesse avec celle de la concurrence intercapitaliste :
La concurrence intercapitaliste a une forme économique, et sa structure est typiquement additive : les parties rivales peuvent à la fois s’étendre et prospérer – bien qu’inégalement […], parce que la production de produits manufacturés est intrinsèquement illimitée. La rivalité interféodale, par contre, a une forme militaire – et sa structure est le conflit à somme nulle du champ de bataille, où des quantités fixes de terrain sont gagnées ou perdues. Car la terre est un monopole naturel : elle ne peut pas être étendue indéfiniment, mais seulement redivisée80.
À la différence du parasitisme, la prédation passe par une relation de domination entre le prédateur et ses victimes81. Ainsi, selon cette distinction, un pickpocket n’est pas un prédateur, un parrain de la mafia si. Dans le cas d’un conflit militaire classique, la domination se constate ex post par la victoire d’une partie sur une autre et l’appropriation des ressources qu’elle permet. Mais, dans le cas où l’asymétrie est déjà présente ex ante, on est dans le modèle cynégétique de type prédateur-proie.
Ce modèle cynégétique a deux variantes. Dans la première, la proie est exterminée ou expulsée, le prédateur agissant alors essentiellement comme un agresseur. C’est le cas dans les opérations de nettoyage ethnique où la terre et les biens de la population ciblée sont appropriés par les agresseurs. Dans la seconde, le prédateur peut prendre un visage de protecteur : dans le cadre de l’esclavage antique, par exemple, le prédateur amende son comportement de manière à diminuer les coûts de surveillance en faisant en sorte que les gains relatifs que la proie peut espérer de la fuite soient réduits82. Il y a ainsi une forme de continuité entre la logique de la subjugation et celle de la propriété83.
Comme l’explique Mehrdad Vahabi, ce qui est décisif dans la relation de prédation de type cynégétique, c’est l’asymétrie préalable entre prédateur et proie : « Lorsqu’une relation de domination est établie ex ante entre la proie et le prédateur, seul le prédateur peut se comporter à la fois comme agresseur et comme protecteur, alors que la proie ne peut se protéger qu’en s’échappant sans pouvoir riposter à l’agression84. »
Coûts d’appropriation, domination et coûts de sortie sont des catégories adéquates pour penser la dynamique économique du numérique. Les coûts d’appropriation désignent dans ce contexte les investissements initiaux nécessaires pour impulser une dynamique de croissance hyperscale. Pour une start-up, ce sont des coûts fixes – par exemple la conception d’un algorithme et le développement d’une interface. Dans le cas d’une acquisition, c’est le prix payé par une firme pour acquérir une nouvelle position numérique stratégique. Dans ces deux situations, ce sont des coûts irrécouvrables, l’investissement étant pour l’essentiel perdu si le projet financé échoue.
La domination, ensuite, est consubstantielle au dispositif propre à la gouvernementalité algorithmique et à sa dimension politique de surveillance, d’anticipation et de contrôle des conduites. Qu’il s’agisse des consommateurs, des travailleurs ou des capitaux subalternes dans les chaînes globales de valeur, les façons dont les systèmes d’information se branchent sur les pratiques établissent des positions de surplomb – une présence spectrale –, qui octroient à ceux qui les contrôlent un avantage structurel, notamment par la centralisation des données.
Enfin, la dépendance à la glèbe numérique conditionne désormais l’existence sociale des individus comme celle des organisations. L’envers de cet attachement est le caractère prohibitif des coûts de fuite et, par conséquent, la généralisation de situations de capture qui entravent la dynamique concurrentielle.
Identifier la prévalence de la prédation sur la production dans l’économie politique du numérique pose plus de questions que cela n’en résout. Du point de vue de la dynamique macroéconomique, cela suggère que les investissements dans la protection et l’expansion du contrôle sur la rente numérique prennent le pas sur l’investissement productif. On voit bien le caractère proprement réactionnaire du mode de production émergent.
Avec trois décennies de recul, quelque chose de vrai subsiste des intuitions initiales du consensus de la Silicon Valley : la mutation qui accompagne l’essor des technologies de l’information touche aux fondements du mode de production, elle en déstabilise les principes élémentaires. Mais, là où un optimisme techno-capitaliste promettait une cure de jouvence, le cours des choses révèle une dégénérescence. L’essor du numérique bouleverse les rapports concurrentiels au profit de relations de dépendance, ce qui dérègle la mécanique d’ensemble et tend à faire prévaloir la prédation sur la production, accouchant de ce que j’ai appelé le techno-féodalisme.
Si la question du dépassement du capitalisme se pose à nouveau, ce n’est donc pas seulement en raison de ses effets, tels que le caractère politiquement explosif d’une concentration accrue de la propriété ou l’impasse écologique dans laquelle ce mode de développement nous enfonce. Un déplacement qualitatif est en train de se produire dans la logique même de ce système. Les opérations des géants du numérique sont pour l’essentiel des actions de sabotage au sens de Veblen, qui orientent les puissances de l’information en faveur de dispositifs de capture. Ce réagencement socioéconomique déborde le secteur des Techs pour embrasser tous les champs d’activité, comme nous l’avons vu avec la monopolisation intellectuelle dans les chaînes de valeur.
Sur ce paysage mouvant plane l’esprit des hackers des années 1980 : « C’est notre monde maintenant… le monde de l’électron et du commutateur1. » Or la critique théorique et politique n’en est qu’à ses balbutiements. Quelle est la cartographie précise des circuits d’extraction de la rente ? Comment se branchent-ils sur le système financier et, en particulier, sur les méga-fonds d’investissement qui organisent sa centralisation ? Comment se nourrissent-ils de l’exploitation des travailleurs du clic, de la gig economy2 et des formes plus anciennes du travail salarié ? Qui sont les proies et à quelles conditions leurs subjectivités peuvent-elles converger en une puissance sociale alternative ? Ces questions restent pour l’essentiel à explorer.
Identifier le glissement qualitatif à l’œuvre dans le capitalisme contemporain n’est donc qu’un début, mais il suffit à provoquer un effet de parallaxe puissant, qui percute aussi bien la doxa libérale que son unique véritable adversaire, la tradition marxiste.
Du point de vue libéral, l’économie numérique tourne au casse-tête idéologique. Pour celles et ceux qui font de la concurrence un mécanisme intrinsèquement vertueux, les citadelles numériques doivent être démantelées par les régulateurs, afin de restaurer une saine compétition. La difficulté, soulignée à bon droit par les grandes firmes du secteur, c’est que la force des boucles rétroactives dans le monde digital produit de la centralisation. Ainsi, tout effort de fragmentation implique une destruction de la valeur d’usage, dans la mesure où des bassins de données réduits engendrent des algorithmes moins agiles et, in fine, des dispositifs moins commodes pour les utilisateurs. Autrement dit, la logique économique de l’utilité du consommateur, qui constitue l’alpha et l’oméga de l’économie contemporaine, se dresse contre le renouveau de l’antitrust, lui-même stimulé par les menaces bien réelles que font peser les nouvelles méga-corporations sur nos sociétés.
Nous faisons face à un processus cumulatif auquel la politique de la concurrence ne peut pas mettre un terme. À la faveur de la centralisation de cette glèbe numérique, le scénario qui se met en place rappelle celui qu’imaginait l’économiste John Stuart Mill dans une situation où toutes les terres d’un pays appartiendraient à un seul homme. Alors, « le peuple entier dépendrait de lui pour les choses nécessaires à son existence, si bien que le propriétaire pourrait imposer à sa guise ses conditions3 ». Cette dépendance généralisée aux propriétaires de das Digital est l’horizon de l’économie numérique, le devenir cannibale du libéralisme à l’âge des algorithmes.
Du point de vue marxiste, la mue techno-féodale du mode de production capitaliste n’implique pas une invalidation aussi brutale que celle qui frappe le libéralisme. Il s’agirait plutôt d’une victoire à la Pyrrhus. La tendance historique à la socialisation se voit confirmée, mais elle prend de prime abord le visage franchement hideux de l’écrasement.
En effet, les relations marchandes ne cessent de s’approfondir, si bien que nos existences dépendent toujours plus de la division sociale du travail. La concentration des masses financières dans les mains des gestionnaires de fonds donne à la propriété un tour plus collectif, éloignant irrémédiablement le contrôle sur le processus de travail du droit au surplus économique. Mais, surtout, les modes de production et de consommation sont de plus en plus intelligibles et, du même coup, malléables à partir du traitement algorithmique des données massives. Les moindres fragments de la vie tendent alors à être incorporés dans les circuits numériques et enlacés dans l’objectivation d’une grammaire commune à tous les agents sociaux.
L’heure languissante de la subsomption pleine au capital a sonné, menant la civilisation humaine sur une ligne de crête. Sur un flanc, une pente abrupte et rocailleuse, celle de la chute catastrophique envisagée par Marx dans les brouillons du Capital : « L’application de la science, ce produit universel du développement social, au procès de production immédiat se présente comme puissance productive du capital, et non pas comme puissance productive du travail […] et en aucun cas comme puissance productive du travailleur individuel non plus que des travailleurs intervenant de manière combinée dans le procès de production4. » Par la négation de l’activité autonome et créatrice, les subjectivités individuelles et collectives sont disloquées. Le travail est pris dans cette mystification, les individus ne sont plus rien, le capital est tout. Les épidémies contemporaines de souffrance professionnelle procèdent en partie d’une telle dynamique de désaffection, qui diminue les sujets et les déréalise.
Cette calamité dépasse la sphère productive. Ainsi, l’aspiration de la gouvernementalité algorithmique à piloter les individus sans laisser place à la formation des désirs ne peut que dégénérer en une machine à « passions tristes ». L’individu, dans son travail puis dans toutes les phases de sa vie, se trouve tendanciellement exproprié de sa propre existence. Le philosophe Étienne Balibar appelle la possibilité de cette défaite définitive « subsomption totale ». Elle implique « une perte totale d’individualité, dans le sens d’une […] identité et d’une autonomie personnelles5 ».
Avec la poussée techno-féodale, la logique de l’écrasement avance au grand galop. Pourtant, plus elle se rapproche, moins elle semble devoir aboutir. Les secteurs les plus en pointe dans la fusion des logiques économique et algorithmique butent sur le mur de la déréalisation, comme des chercheurs en marketing l’observent à propos des projets de déploiement auprès des consommateurs de systèmes d’achat autonomes :
Les systèmes d’achat autonomes modifient profondément le processus d’achat en réduisant, voire en éliminant, la nécessité d’une prise de décision humaine, remettant ainsi en cause des relations homme-machine solidement enracinées. La suppression du processus de décision offre des avantages tels que l’allégement du poids cognitif des arbitrages. Cependant, les consommateurs peuvent être réticents à renoncer à leur capacité de décision autonome ; de plus, privées d’activité, leurs ressources d’autorégulation risquent de s’épuiser tandis que le sentiment de satisfaction qui découle du fait d’exercer des choix tend à s’évanouir6.
Voilà les entreprises averties : face aux tentatives de le vider de sa substance, le sujet humain s’enfuit. S’ils ne disposent pas de nouvelles formes de contrôle, les individus refusent la dépossession de leurs choix par les machines.
Sur l’autre versant de la ligne de crête, les ruisseaux rieurs et les vallons verdoyants irradient de promesses d’émancipation. Pour Marx, la loi historique de l’accumulation favorise, par certains aspects, le développement des individus. En effet, « la grande industrie [requiert] une disponibilité absolue de l’homme pour les exigences changeantes du travail », ce qui implique la « plus grande polyvalence possible pour l’ouvrier ». Elle pousse ainsi au « remplacement de l’individu partiel, simple support d’une fonction sociale de détail, par un individu totalement développé pour qui diverses fonctions sociales sont autant de modes d’activité qui prennent le relais les uns des autres7 ». La socialisation débutée sous les auspices du capital rend alors possible un processus libérateur. La puissance émanant de l’interconnexion et de l’entrelacement des activités productives offre à chacun d’élargir infiniment la palette de ses propres activités.
Une représentation évocatrice de cette émancipation à portée de main est proposée par Alexandre Bogdanov dans son roman utopique de 1905, L’Étoile rouge. Un hôte explique au visiteur étranger le principe de l’organisation du travail dans cette société extraterrestre avancée :
Grâce aux tableaux, nous pouvons répartir le travail : pour cela, il est indispensable que chacun puisse voir où l’on manque de forces de travail et dans quelle mesure on en manque. Alors, selon son penchant unique ou égal pour deux travaux, chacun choisit celui où la pénurie est la plus criante8.
Le système permet ainsi d’ajuster en temps réel l’évolution des besoins de travail aux envies changeantes des individus et aux processus de production :
L’institut des calculs a des agences partout, qui surveillent le mouvement des produits dans les stocks, la production des établissements et les fluctuations dans le personnel ouvrier. De cette manière, on arrive à définir la quantité et la qualité de ce qui va être produit de même que le nombre d’heures nécessaires à sa production. L’institut calcule également la différence existant, dans chaque branche du travail, entre ce qui est et ce qui devrait être produit ; cette différence, il la transmet partout. L’affluence des volontaires instaure l’équilibre9.
Cette science-fiction qui décrit une cybernétique de la valeur d’usage se trouverait désormais à portée de main, comme l’explique, à son corps défendant et en escamotant la question du travail, le cabinet de conseil McKinsey :
Les principales entreprises développent des systèmes de planification hautement intégrés qui utilisent déjà les solutions d’analyse et d’apprentissage automatique les plus perfectionnées. Ces méthodes de haute technologie, également appelées « planification avancée », prendront, à l’avenir, le pilotage [de l’activité économique] […]. Comme une main invisible, le système fonctionne de manière autonome, efficace et efficiente. Les planificateurs ne doivent intervenir que dans des cas exceptionnels pour vérifier et apporter des corrections. De plus, le système améliore la précision des prévisions car il s’appuie sur des sources de données très nombreuses et il les interconnecte grâce à l’intelligence artificielle et aux techniques d’apprentissage machinique. Parallèlement, la planification avancée entraîne une intégration toujours plus étroite de la gestion des stocks, des achats, de la logistique, du marketing et des ventes, ce qui produit une forte amélioration de l’efficacité des processus10.
L’avenir appartient à la main invisible des algorithmes. Grâce aux boucles de rétroaction numériques, le détour appauvrissant et chaotique par la marchandise devient moins nécessaire pour faire tenir la division du travail. À l’aube de l’hégémonie de ce nouveau genre de calcul économique, la question se pose de savoir quels en seront les opérateurs. Les chefs des citadelles techno-féodales prétendent monopoliser le contrôle intellectuel des processus socioéconomiques de production et de consommation. Mais les résistances à la déréalisation des individus forment un obstacle très sérieux à ce projet. L’avènement de l’« individu totalement développé » suppose que l’adieu au marché aille de pair avec un réinvestissement des subjectivités, en particulier sous la forme d’une véritable démocratie économique. Alors seulement, les limites librement choisies de l’autonomie de chacun seront compatibles avec une maîtrise collective et consciente de la question économique et de sa place dans la biosphère.
Les controverses sur la sous-estimation de la productivité et son corollaire, la surestimation du niveau des prix, reviennent à intervalles réguliers depuis les années 1950, généralement lancées par des économistes conservateurs ayant en ligne de mire les prestations sociales. En effet, comme l’indicateur du niveau des prix sert à déterminer le montant d’un certain nombre d’allocations, toute révision de celui-ci à des conséquences sur l’ampleur de la redistribution par l’action publique1. Ces économistes privilégient une conception de l’indice des prix en tant qu’« index d’analyse du coût de la vie à utilité constante ». Ils insistent donc sur la prise en compte des améliorations apportées aux produits existants et des nouveaux biens et services censés augmenter l’utilité des consommateurs : le passage du téléphone fixe au portable, des cartes Michelin à Google Maps, du ciné-club de quartier à Prime Video… Une telle orientation conduit à revoir à la baisse l’inflation et les revenus sociaux qui y sont juridiquement liés. À l’inverse, lorsqu’ils étaient plus puissants, les syndicats défendaient un indice fondé sur les dépenses des ménages, ce qui renvoie à l’idée d’un renchérissement du coût de la vie comprenant l’élargissement et les évolutions du panier de biens nécessaires au fil du temps.
Au-delà de cette question de distribution, la fabrique et les usages des indices de prix s’inscrivent dans de riches controverses sociales dans lesquelles les problèmes de la qualité ne peuvent être réduits à une sous-estimation des améliorations technologiques2. Considérer la dimension relationnelle des services et les enjeux de l’obsolescence programmée permet de voir, au contraire, des tensions dans le sens d’une sous-estimation de la hausse des prix. Ainsi, les stores installés aux fenêtres d’un logement francilien comme les meubles achetés en grande surface pour aménager une cuisine auront une durée de vie bien moindre que celle des placards en merisier qui ornent la salle de vie d’une vieille ferme auvergnate ou que les volets en bois qui, maintes fois repeints, en protègent depuis des lustres les ouvertures. Corrigé de l’effet qualité, le prix des stores et des meubles modernes, destinés à être remplacés au bout d’une quinzaine d’années au plus, tend à être sous-évalué en comparaison de celui des produits d’autrefois conçus pour traverser les générations. Sous cet angle, la productivité et la croissance sont donc surestimées et l’inflation sous-estimée. Par ailleurs, le passage au commerce en ligne altère radicalement l’expérience sociale d’achat et les relations dans lesquelles elle s’insère, ce qui est difficile à capturer dans les indices de prix.
La construction des chiffres de l’inflation, et donc de la croissance et de la productivité, procède de choix politiques et sociaux dont l’incidence est considérable sur la manière dont nos sociétés se représentent elles-mêmes et s’organisent. Il s’y exprime des jugements sur ce que sont les besoins légitimes3 qui mériteraient une meilleure explicitation et une plus grande publicité, en lien avec la montée en puissance de nouveaux indicateurs de richesse.
Fin 2018, la revue Competition Policy International consacre un numéro spécial à ce qu’un de ses éditeurs, Konstantin Medvedovsky, nomme l’« antitrust hipster », pour désigner l’attrait renouvelé de thèses hostiles aux grandes firmes en matière de politique de la concurrence :
Le principe de protection des consommateurs en matière d’antitrust est un élément important de la législation et de la pratique antitrust aux États-Unis, mais un nombre croissant d’analystes s’interrogent sur le fait qu’il doive ou non conserver sa primauté. Les tribunaux et les responsables de l’application des lois antitrust devraient-ils prendre aussi en compte des facteurs tels que l’emploi, les salaires, les petites entreprises dans l’évaluation des fusions et des comportements des firmes ? Avons-nous besoin de règles spéciales pour les plateformes technologiques ? Devrions-nous simplement empêcher les grandes entreprises d’acquérir d’autres firmes ou même envisager de les démanteler ? Et si nous devions reconsidérer le paradigme du bien-être des consommateurs, à quoi ressemblerait un autre régime1 ?
Depuis les années 1980, la politique de la concurrence aux États-Unis est dominée par la doctrine de l’école de Chicago. Il s’agit d’une position très favorable au big business qui considère que les interventions des pouvoirs publics dans le domaine de la concurrence furent souvent néfastes ; elles doivent donc être strictement limitées aux cas où le préjudice aux consommateurs est clairement établi. Voici comment Richard Posner, une des figures de proue de ce courant, résume leur argument :
En règle générale, les entreprises ne peuvent pas obtenir ou renforcer leur pouvoir de monopole par une action unilatérale – sauf, bien sûr, si elles agissent irrationnellement en préférant consolider une position dominante aux dépens de leurs profits. Les lois antitrust ne doivent donc pas porter sur les actions unilatérales, mais doivent plutôt se focaliser sur : 1) les ententes et 2) les fusions horizontales suffisamment importantes pour soit créer directement un monopole […] soit faciliter la cartellisation2.
On le voit, la préoccupation principale de Posner, ce sont les ententes illicites. Pour le reste, il propose de faire confiance aux forces de la concurrence – qu’elle soit effective ou potentielle. En particulier, les pouvoirs publics ne devraient pas se préoccuper des « actions unilatérales », c’est-à-dire principalement de deux choses : les prix d’éviction et l’intégration verticale.
La tactique des prix d’éviction consiste, pour une entreprise dominante, à tenter d’évincer ses concurrents en pratiquant des prix inférieurs à ses coûts de production. Pour Posner, c’est une stratégie vouée à l’échec : « Le prédateur perd de l’argent pendant la période de prédation et, s’il essaie de le récupérer plus tard en augmentant son prix, de nouvelles firmes entreront sur le marché, si bien que le prix sera abaissé au niveau concurrentiel, empêchant la récupération des pertes consenties lors de la phase de prédation3. » En somme, le jeu n’en vaut pas la chandelle puisque le prédateur putatif perd à tous les coups.
L’intégration verticale est elle aussi une action unilatérale qui ne risque pas de fausser le marché. Pour lui, « il n’est pas logique qu’un producteur en situation de monopole cherche à contrôler la commercialisation dans le but de réaliser des bénéfices de monopole, tant au niveau des ventes qu’à celui de la fabrication. En effet, le produit et sa commercialisation sont complémentaires ; dès lors, une augmentation du prix de commercialisation réduira la demande du produit ». Ce qui affecterait les ventes de l’entreprise et donc ruinerait tout espoir de surprofits. Conclusion, l’intégration verticale n’aura lieu que si elle « est motivée par une recherche d’efficacité et non par une tentative de contrôle monopolistique4 ».
Sans entrer davantage dans le détail de cette analyse, on peut en donner le principal résultat. L’intervention publique n’a pas à se poser le problème de la concentration industrielle :
Une concentration persistante implique soit que le marché en question ne laisse tout simplement pas de place à de nombreuses entreprises (économies d’échelle), soit que certaines entreprises sont en mesure d’obtenir des surprofits grâce à des coûts plus faibles ou des améliorations de produits que ni les concurrents, ni de nouveaux arrivants ne sont capables de reproduire. Dans aucun de ces deux cas une intervention publique visant à modifier la structure du marché n’est nécessaire5.
Une position monopolistique n’est pas en tant que telle contraire au bien commun. Elle n’est néfaste que si elle repose sur l’existence de barrières à l’entrée interdisant à la compétition de jouer. Dans le cas contraire, la possibilité d’entrer d’un nouveau concurrent suffit à discipliner les firmes en place. Dans la perspective de Chicago, ces barrières à l’entrée sont peu nombreuses et non déterminantes6. En pratique, il n’y a que deux cas de figure. Le premier est celui dans lequel la prime de risque que doivent verser les nouveaux entrants à leur pourvoyeur de capitaux au titre de leur inexpérience dans le nouveau champ d’activité est très élevée. Or, d’après la doctrine de Chicago, ce surcoût du financement des nouveaux entrants est insuffisant pour altérer foncièrement la nature concurrentielle du marché. Dans le second cas, considéré comme une situation exceptionnelle, le monopole repose sur le contrôle d’une ressource exclusive. En règle générale, les marchés sont réputés contestables et donc concurrentiels7.
L’antitrust à la mode Chicago relève des tendances anarcho-capitalistes analysées par Michel Foucault dans Naissance de la biopolitique8. C’est une approche extrêmement précautionneuse sur l’intervention de l’État et très bienveillante vis-à-vis des stratégies des grandes firmes. Même si elle n’est pas littéralement mise en œuvre par les autorités étatsuniennes, c’est bien elle qui exerce une influence dominante sur les politiques anticoncurrentielles depuis les années 19809.
Seulement voilà, depuis le début du nouveau millénaire et plus particulièrement au cours des années 2010, la concentration industrielle s’est accélérée aux États-Unis de manière spectaculaire, notamment dans le secteur du numérique (voir chapitre 1). En réaction à cette nouvelle situation, le courant antimonopolistique s’est considérablement renforcé. C’est désormais un des thèmes de bataille du Parti démocrate. Dès 2016 sa plateforme électorale affiche une volonté de « promouvoir la concurrence en mettant un coup d’arrêt à la concentration des entreprises ». Et de détailler :
Nous renforcerons la politique de concurrence et les lois antitrust et les adapterons davantage à notre économie d’aujourd’hui […]. Nous soutenons l’objectif historique des lois antitrust de protéger la concurrence et d’empêcher que se constitue un pouvoir économique et politique excessivement centralisé, qui peut être corrosif pour une démocratie saine. Nous appuyons la revitalisation de l’application des lois antitrust par le ministère de la Justice et la Federal Trade Commission afin de prévenir les comportements abusifs des entreprises dominantes et de protéger l’intérêt public contre les méthodes commerciales abusives, discriminatoires et déloyales10.
Cette position rompt nettement avec le réductionnisme de l’approche de Chicago, focalisée sur la seule question du bien-être du consommateur. Elle se préoccupe des dangers d’une trop grande concentration du pouvoir économique sur le mécanisme concurrentiel et sur le plan politique. Enracinée depuis le XIXe siècle dans la société étatsunienne, cette position a été marginalisée à partir de l’ère Reagan, mais elle fait un retour en force à la faveur d’une série d’études documentant l’augmentation de la concentration dans l’économie US, le recul de l’entrepreneuriat et, surtout, établissant un lien entre ces phénomènes et l’accroissement des inégalités11.
Parmi ces travaux, la note de Lina Khan parue en 2017 dans le Yale Law Journal fait désormais référence. Khan est une juriste qui a collaboré avec l’équipe de Barry Lynn à la fondation New America puis à l’Open Market Institute avant d’étudier à l’université Yale. Son article est intitulé « Amazon’s antitrust paradox » en référence à un ouvrage de Robert Bork de 1978 devenu un classique en matière d’antitrust : The Antitrust Paradox. A Policy at War with Itself12.
Le paradoxe auquel s’attaquait Bork peut être résumé de la manière suivante : en poursuivant une multiplicité d’objectifs et en ciblant l’idée jugée vague de domination, les politiques antitrust aux États-Unis en arrivent à nuire à ce qui devrait être leur objectif principal : la question de l’efficience. C’est donc un plaidoyer pour une politique antitrust prudente ; qui refuse de faire de la question de la domination un problème tant que les forces de la concurrence restent à l’œuvre, fût-ce de manière latente.
Pour Khan, le paradoxe est tout autre. C’est une affaire de cas. Et le cas Amazon révèle à la fois les limites de la doctrine de Bork et celles de l’école de Chicago :
Suite au changement intervenu dans la doctrine et la pratique juridiques dans les années 1970 et 1980, le droit antitrust évalue maintenant la concurrence en se focalisant sur les intérêts à court terme des consommateurs, et non des producteurs ou de la vitalité du marché dans son ensemble ; dans cette nouvelle perspective, de bas prix à la consommation suffisent à prouver la présence d’une saine concurrence. Du point de vue de cette métrique, Amazon a excellé ; sa stratégie commerciale et sa rhétorique orientées vers la réduction des prix pour les consommateurs lui ont permis d’échapper à la surveillance du gouvernement. La rencontre la plus proche d’Amazon avec les autorités antitrust a eu lieu lorsque le ministère de la Justice a poursuivi d’autres entreprises pour avoir coordonné leurs efforts contre Amazon. Tout se passe comme si Bezos avait pensé la trajectoire de croissance de l’entreprise après avoir dressé la carte des lois antitrust, puis conçu des moyens de les contourner en douceur. La marche d’Amazon vers le monopole s’est faite en chantant l’hymne de l’antitrust contemporain à la gloire des consommateurs13.
La contribution de Khan est édifiante. D’une part, elle mène une discussion serrée de la doctrine de Chicago et des arguments que lui objecte la tradition théorique et pratique de l’antitrust étatsunien depuis deux siècles. D’autre part, elle procède à un examen approfondi des pratiques anticoncurrentielles d’Amazon. Sa conclusion est sans appel : Amazon est une firme tentaculaire, aux pratiques anticoncurrentielles multiples, et qui pourtant passe entre les mailles de la justice.
Khan décrit de nombreuses situations où la conduite d’Amazon aurait dû susciter une réaction des autorités. Par exemple, le fait qu’Amazon commercialise en dessous de leur coût de revient des livres best sellers, la liseuse Kindle ou son service Amazon Prime ; cela permet à la firme d’établir une position dominante dans divers domaines et de jouer de leurs complémentarités pour que les effets de réseau se renforcent. La doctrine antitrust en vigueur est incapable de voir où et de quelle manière Amazon parvient à compenser ses pertes, caractéristique d’un abus de position dominante. Dans le domaine du livre, la construction de cette hégémonie fait planer le risque d’une réduction de la diversité des produits offerts aux consommateurs. Un risque qui est aussi politique, puisque l’organisation du secteur des livres est directement connectée à celle de la circulation des idées14.
Autre illustration, Amazon est une plateforme de vente pour différents producteurs, ce qui lui donne une position d’observatrice privilégiée : si elle constate que le produit d’un industriel remporte un franc succès, elle en commercialise bientôt une version sous sa propre marque, vendue moins cher ou mieux mise en valeur et qui raflera immanquablement l’essentiel du marché. Par exemple, constatant l’engouement des consommateurs pour des oreillers-animaux en peluche modelés d’après les mascottes de la National Football League, Amazon eu vite fait de sortir ces produits sous sa propre griffe, écartant le producteur original.
Amazon est aussi l’une des plus puissantes sociétés de services informatiques, notamment du fait de l’espace de stockage dans le cloud qu’elle propose aux entreprises. Là encore, la combinaison des différents métiers permet à l’entreprise d’accroître son avantage. Il a ainsi été montré qu’Amazon s’est servi des données d’utilisation des serveurs pour identifier, via le volume du trafic, les start-up dont l’activité décolle et ainsi guider ses opérations de capital-risque.
À travers son étude du cas Amazon, Khan diagnostique l’échec de l’approche de Chicago et des politiques qu’elle inspire. D’abord, même si l’on s’en tient au seul critère du bien-être des consommateurs, le critère prix est insuffisant et la politique antitrust doit laisser place à une préoccupation pour la qualité, la diversité et l’innovation dans la durée. À cette aune, la concentration industrielle est une menace qui doit être prise au sérieux. Mais un tel élargissement ne saurait suffire :
L’attention accordée au bien-être des consommateurs est excessive et malavisée. Elle trahit une histoire législative au cours de laquelle le Congrès a adopté des lois antitrust qui visaient à promouvoir une pluralité d’objectifs politico-économiques qui embrassent les intérêts des travailleurs, des producteurs, des entrepreneurs et des citoyens. Elle supplante aussi, à tort, une préoccupation pour le processus de marché et sa structure – c’est-à-dire le fait que le pouvoir de marché soit suffisamment dispersé pour préserver la concurrence – au profit d’un calcul réduit au seul résultat – c’est-à-dire aux effets sur le bien-être matériel des consommateurs15.
Khan revendique ici l’approche traditionnelle de l’antitrust étatsunienne, celle d’avant les années 1970. Souvent qualifiée de structuraliste, elle met justement l’accent sur les structures de marché et fait du degré de concentration un critère en tant que tel. Elle avance qu’en matière de concurrence les autorités doivent prendre en compte de multiples intérêts : il s’agit de protéger à la fois les producteurs, les consommateurs, les travailleurs et les citoyens contre les abus de monopole.
Les méfaits d’un pouvoir économique excessivement concentré peuvent prendre des formes très variées : pressions indues sur les fournisseurs, situations de capture des consommateurs, contrôle du système politique à travers les médias… Ou encore, configurations où des firmes sont tellement grandes qu’elles sont en mesure d’obtenir des pouvoirs publics de multiples avantages et soutiens. Too big to fail, leur éventuelle défaillance est inenvisageable car elle représenterait une menace systémique.
Tous ces arguments sur les dangers économiques, sociaux et politiques de la concentration du pouvoir économique sont parfaitement recevables. Mais la thèse de Khan et de l’antitrust hipster va plus loin : il ne s’agit pas seulement de pointer les dangers des monopoles privés, mais aussi de valoriser la concurrence pour elle-même. En fin de compte, Khan communie avec les auteurs de la Carta Magna dans l’aspiration à un ordre concurrentiel déconcentré et harmonieux. Ils partagent le même idéal normatif d’une économie d’entrepreneurs privés. Dans cette perspective, la concurrence n’est pas un moyen mais un but, un objectif désirable pour lui-même.
La politique antitrust doit empêcher une trop grande concentration industrielle, parce qu’elle constitue une menace pour la concurrence. Sur ce plan le propos de Khan est très clair : « La législation antitrust et la politique de concurrence devraient promouvoir non pas le bien-être des consommateurs, mais des marchés concurrentiels16. » Il s’agit de préserver « la neutralité du processus concurrentiel et l’ouverture des structures de marché17 ». Sur ce point, il faut souligner l’affinité entre l’antitrust hipster étatsunien, la politique de la concurrence de l’Union européenne et la doctrine ordolibérale qui en est le socle.
Les procédures engagées dans l’Union contre les géants étatsuniens du numérique ont en 2017 et 2018 coûté à Google deux amendes records, pour un total de 6,7 milliards d’euros. Dans un cas, Google a été condamné pour avoir privilégié dans son moteur de recherche la visibilité de son comparateur d’achats. Dans l’autre cas, c’est pour avoir imposé aux constructeurs de téléphones utilisant Android de préinstaller un bouquet de services Google, et par ce biais d’avoir pu centraliser les données utilisateurs de la majorité des smartphones. C’est suite à un communiqué se félicitant de la condamnation en Europe de Google que Barry Lynn a été évincé de la fondation New America.
À l’inverse, ce sont les travaux de Lina Khan qui ont justifié l’ouverture d’une enquête de la Commission sur Amazon. Margrethe Vestager, la commissaire en charge de la Concurrence, reprend à son compte l’analyse de Khan lorsqu’elle indique que ce qui est en cause, c’est le double rôle d’Amazon : à la fois plateforme de distribution pour les produits d’autres firmes et site de vente de ses propres produits. Cette structure intégrée donne à Amazon un accès exclusif aux données de ses clients et de ses fournisseurs, d’où l’entreprise tire sa suprématie18.
On assiste, avec la bataille à propos de l’antitrust hipster, à une nouvelle phase de lutte intestine au néolibéralisme. D’un côté, les héritiers de l’approche de Chicago se rangent dans le camp de ce que Michel Foucault appelle l’anarcho-capitalisme, par principe hostile à toute forme d’intervention étatique dans le champ économique et social. D’un autre côté, les tenants de l’antitrust traditionnel rejouent un rapprochement entre différents courants qui eut lieu aux États-Unis à partir de 1938.
À cette époque, économistes institutionnalistes et néolibéraux convergent, les premiers renonçant à leur préférence pour la régulation publique et la coopération, les seconds s’éloignant des préceptes du laisser-faire. L’intervention publique contre les monopoles leur apparaît alors nécessaire. Pour les premiers, il s’agit d’empêcher qu’une trop grande concentration de pouvoir économique menace les libertés politiques. Les seconds souhaitent préserver la qualité du processus d’allocation de ressources par les prix19.
Cette volonté de construire la concurrence est précisément celle des ordolibéraux. Elle est centrale dans la doctrine qui guide la politique économique de la République fédérale allemande après 1945, puis la construction européenne. Wilhelm Ropke, un des plus éminents représentants de ce courant, que Foucault cite, écrivait ainsi dans les années 1930 : « La liberté du marché nécessite une politique active et extrêmement vigilante20. » En prônant une intervention active de l’État pour protéger la concurrence au nom de ses vertus intrinsèques, Lina Khan et les antimonopolistes hipsters marchent dans les pas des ordolibéraux.
In fine, en dépit de ce qui oppose l’antitrust hipster et l’approche anarcho-capitaliste de Chicago, ces deux courants se retrouvent dans une même confiance dans l’entreprise privée et les vertus de la coordination marchande. Là où ils divergent, c’est sur l’analyse de la qualité du processus économique qui résulte du déploiement des technologies de l’information.
Les antimonopolistes hipsters ont toutefois le mérite de pointer les menaces associées à l’accumulation titanesque de pouvoir économique et politique résultant de la croissance exponentielle des plateformes numériques. Le danger est là : les grandes firmes du Web sont devenues des citadelles imprenables, capables de refouler les assauts de leurs concurrentes, de racheter ou de subjuguer des jeunes pousses et d’influencer l’agenda politique et les termes du débat public. Mais la question qu’ils esquivent, c’est celle des ressorts de cette puissance, celle des gains d’efficience associés à la concentration.
À l’âge des Big Data, la question se pose de savoir si les dynamiques de monopolisation sont adéquates au type de processus économique qui a cours. Les héritiers de Chicago ont beau jeu de souligner qu’un faisceau d’indices suggère que la concentration accrue résulte de changements techniques dans les économies d’échelle et des améliorations correspondantes de la productivité21. Autrement dit, réintroduire de la concurrence, par exemple fragmenter Google ou Amazon, conduirait à réduire la puissance des services proposés. À se cantonner à la seule question du pouvoir de marché des firmes, les antimonopolistes hipster passent donc à côté d’une question essentielle : l’altération de la qualité du processus économique associée au déploiement des technologies de l’information.
Razmig Keucheyan, Hannah Bensussan, Raphaël Porcherot, Cecilia Rikap, Hugo Harari-Kermadec et les participants du séminaire « Planifier les communs », Bernard Chavance, Thierry Kirat, Mehrdad Vahabi et les participants du séminaire « État prédateur », Bruno Amable, Mary O’Sullivan et les participants du « Political Economy Seminar » de l’UNIGE, Tristan Auvray, Riccardo Bellofiore, McKenzie Wark, William Milberg, Arthur Jatteau, Florence Jany-Catrice, Stefano Palombarini, Duncan Foley, Anwar Shaikh, Marc-André Gagnon, Mathieu Montalban, François Moreau, Nathan Sperber, Olivier Weinstein (†), Benjamin Coriat, Thierry Labica, Sterenn Lebayle, Luis Miotti, Agnès Labrousse, Céline Baud, Sébastien Villemot, Stathis Kouvelakis, David Flacher, Philippe Askenazy, Audrey Cerdan, Nabil Wakim, Mélanie Tanous et, bien sûr, Jeanne, Loul, Isidore, La Rocaille, Valcivières et la joyeuse compagnie du 108.
J’ai réalisé cette recherche dans le cadre du CEPN (CNRS, université Sorbonne Paris Nord), dont je remercie toute l’équipe. Dans la phase préparatoire, une mobilité au département d’économie de la New School (New York) a été soutenue par l’IFRIS.