Ce lyber est uniquement destiné à une lecture à titre personnel.
Éloge du bug.
Être libre à l’époque
du numérique
Ce livre montre que la pensée et le sens émergent toujours de la matière. La pensée, loin d’être le fruit de l’activité de l’intellect d’une personne, d’un auteur ou d’une autrice, est le résultat d’une série de conjonctures matérielles particulières, dont font partie des relations, des personnes, des espaces, des lieux, des institutions, des langues, d’autres livres ou écrits… Ce livre doit donc aussi reconnaître ses propres conditions d’émergence.
Il est né au sein du laboratoire sur les écritures numériques à l’université de Montréal, qui existe grâce à des organisations institutionnelles particulières et à des fonds de recherche, tels le Conseil de recherches en sciences humaines (CRSH) et le Fonds de recherche du Québec – Société et culture (FRQSC).
Dans ce lieu, et dans ceux qui lui sont connectés, se rencontrent des personnes qu’il serait impossible de citer de façon exhaustive, mais qui ont toutes contribué à la naissance de ce livre grâce à leurs idées, leurs travaux, leurs skholé. Parmi ces personnes, je cite notamment : Enrico Agostini-Marchese, Robert Alessi, Yann Audin, François Bon, Peppe Cavallari, Emmanuel Château-Dutier, Roch Delannay, Christine Develotte, Ollivier Dyens, Benoît Epron, Lai-Tze Fan, Antoine Fauchié, Giulia Ferretti, Dominic Forest, Jean-Claude Guédon, Timothée Guicherd, Marc Jahjah, Arilys Jia, Kathy Kleiman, David Larlet, Jean-Marc Larrue, Raphaël Lauro, Emmanuelle Lescouet, Pierre Lévy, Eugénie Matthey-Jonais, Margot Mellet, Servanne Monjour, Luca Paltrinieri, Arthur Perret, Stéphane Pouyllau, Markus Reisenleitner, Nicolas Sauret, Mathilde Verstraete, Stéphane Vial, Gérard Wormser…
Sans Michael Sinatra, l’idée du livre ne se serait jamais manifestée.
Marieke Joly a permis à ces pages d’exister et à des informaticiennes méconnues de retrouver un nom.
Grégoire Chamayou, avec ses précieux conseils d’éditeur, a fait en sorte que ce livre devienne un livre.
Merci à celles et ceux qui ont donné sa forme finale au texte et qui lui permettront d’être lu : à Charlotte Goure qui s’est occupée de la fabrication, à Facompo qui a réalisé la mise en page, à deValence qui a réalisé la couverture, et à l’attachée de presse, Carole Lozano.
Hélène Beauchef a cherché et trouvé un grand nombre d’idées, anecdotes, histoires ; elle a relu, réécrit, discuté, critiqué et loué, donné envie d’écrire.
à cléo, ariane et hélène
Je n’ai pas de smartphone. Cela fait de moi un étrange personnage, inadapté à la vie de nos sociétés numériques. Lors de ma dernière visite à la banque pour effectuer un virement, on m’a demandé de sortir mon téléphone pour m’identifier. Lorsque j’ai indiqué que je n’en avais pas, on m’a dit d’aller le chercher à mon domicile. Quand les employé·es ont finalement compris que je ne possédais tout simplement pas de portable, on m’a informé qu’il était impossible de m’identifier : ma présence physique, devant le guichetier, avec mon passeport à la main, n’était pas un moyen d’identification approprié, il fallait l’aval d’une application mobile.
Il fut un temps où, dans nos sociétés, c’était l’Église qui garantissait l’identité des citoyenn·es avec les registres de paroisse dans lesquels étaient inscrits les noms de baptême des personnes ; aujourd’hui, c’est à Apple et à Google que revient cette tâche. Avec la pandémie de la Covid-19 et la mise en place du passeport vaccinal, le fait de ne pas avoir de smartphone est devenu encore plus problématique qu’avant. Lors des contrôles à l’entrée des lieux publics, le QR code était difficilement lisible sur le papier plié et froissé, transporté dans mon portefeuille. On me regardait d’un air étonné, tantôt avec pitié, tantôt avec condescendance.
Sans smartphone, je ne fonctionne pas, je bugge, je suis incapable d’accomplir une série de tâches pourtant basiques dans notre monde contemporain. Pourquoi suis-je si mal adapté techniquement ? D’où provient mon dysfonctionnement numérique ?
L’université de Montréal m’a pourtant recruté sur un poste en « littérature et culture numérique » et mes collègues se réfèrent souvent à moi pour toute question informatique : je devrais être à l’aise avec un téléphone.
À moins que ce ne soit justement mes compétences qui me fassent refuser tel appareil ou, pour être plus précis, la rhétorique, les discours et les valeurs dont les smartphones sont les représentants les plus forts. Et ce sont en effet cette rhétorique, ces discours et ces valeurs que ce livre a pour ambition de questionner.
Pourquoi possédons-nous des smartphones ? Pourquoi, chère lectrice, cher lecteur, avez-vous un téléphone ? Ou, si ce n’est pas le cas, pourquoi êtes-vous propriétaires d’un ordinateur portable récent ? Pour quelles raisons utilisez-vous le moteur de recherche Google, la messagerie Gmail, ou encore Facebook, WhatsApp, Word, Amazon et Uber… ?
La première réponse qui vous viendra probablement à l’esprit est : « Parce que cela fonctionne bien. » Ou bien peut-être : « Parce que c’est pratique, simple, performant, intuitif. » Toute une série d’adjectifs et de qualités dont la valeur positive nous semble évidente et indiscutable.
Mais quelles visions du monde se cachent derrière ces adjectifs ? Et qui diffuse ces valeurs ? Depuis quelques dizaines d’années désormais, ce type de discours est au cœur de la communication de plusieurs grandes entreprises numériques. Ces protagonistes du monde actuel, auxquels renvoie l’acronyme GAFAM (Google, Apple, Facebook, Amazon et Microsoft), ont naturalisé cette manière de penser et de parler des environnements techniques. Leur rhétorique met en avant les concepts clés que je viens de mentionner : « simple », « performant », « rapide », « intuitif », « fonctionnel »… Le dernier téléphone produit par Apple sera toujours plus simple, plus performant, plus intuitif et plus fonctionnel que le précédent, comme le sera la nouvelle version de Word ou les fonctionnalités récemment implémentées dans la dernière application à la mode.
Il n’est jamais question d’un logiciel, d’une plateforme ou d’un dispositif qui soient tout simplement autres, différents ou – horreur ! – plus complexes, plus lents, moins performants. Oubliez la possibilité d’un outil qui bugge !
Pourtant, ces notions d’apparence neutre cachent des visions du monde particulières – ou, mieux, une vision du monde particulière –, bien souvent invisibles, presque jamais questionnées.
Ces concepts « évidents » rendent impossible une réflexion critique sur les outils, les plateformes et les supports. Ils réduisent la connaissance des environnements numériques à une simple adhésion au discours commercial : si le nouvel iPhone est le meilleur que l’on puisse désirer, s’il est capable de faire tout ce dont nous pouvions rêver, il ne nous reste qu’à apprendre à faire ce que nous propose l’outil.
La technologie nous promet de nous rendre libres en nous délivrant de toutes les tâches ennuyeuses, triviales, répétitives, purement matérielles, en nous fournissant des « solutions » de plus en plus performantes, simples, intuitives, rapides et efficaces. Les GAFAM nous font rêver d’un monde qui fonctionne tout seul, d’un monde où nous sommes pris·es en charge jusqu’à nos identités par un petit nombre de compagnies privées. Mais cette délivrance se fait au prix d’une perte totale d’autonomie, avec une dépendance complète à ces technologies et à ces entreprises.
La force de cette rhétorique devient de plus en plus évidente à la suite de l’accélération du « passage au numérique » déterminée par la pandémie de la Covid-19. Celle-ci a en effet promu de façon spectaculaire l’adoption d’environnements numériques dans notre vie quotidienne. Le télétravail s’est généralisé, les échanges à distance sont devenus une façon évidente d’interagir, l’enseignement se fait sur des plateformes numériques, tout comme les achats, le divertissement… Une myriade d’aspects de notre vie a basculé dans le numérique.
Les technologies permettant ce changement étaient disponibles depuis plusieurs années déjà. Cependant, le véritable « passage » s’est opéré là, dans un contexte où l’urgence a empêché une réflexion appropriée sur les enjeux politiques, éthiques, sociaux liés à certains choix et à certaines décisions. Quels outils utiliser ? Pour quels besoins ?
Le « passage au numérique » tel que nous le vivons aujourd’hui correspond largement à une délégation généralisée des choix politiques, éthiques, culturels et sociaux aux entreprises qui ont su rapidement proposer des « solutions » fonctionnelles, simples, intuitives, performantes. Mais, ce faisant, les espaces publics, les activités d’intérêt commun et l’ensemble de nos lieux de vie sont désormais gérés par quelques entreprises dont nous adoptons, souvent de façon acritique, les « solutions ».
À ce stade, il est urgent de réfléchir à ce qui est en train d’arriver, mais aussi d’analyser et de questionner le sens de ces adjectifs miracles. Et si, à la place d’outils fonctionnels, nous choisissions des outils dysfonctionnels ? Et si nous privilégions le lent par rapport au rapide, le complexe par rapport au simple, le laborieux par rapport à l’intuitif ? Et si nous nous livrions à un éloge du bug ?
Ce livre ne présente pas la réflexion d’un expert des technologies, mais celle d’un humaniste, un expert de rien, un philosophe qui n’a pas pour ambition de faire mieux fonctionner les choses, mais plutôt de les casser : de prendre sérieusement en compte les bugs pour voir ce qu’ils peuvent nous révéler, ce qu’ils peuvent nous faire comprendre et de quelle manière ils peuvent contribuer à nous rendre plus lettré·es et plus libres.
Chaque chapitre s’appuie sur un récit introduisant un concept clé pour proposer une analyse des valeurs des grandes entreprises du numérique et des contre-valeurs qu’on pourrait leur opposer.
Dans le chapitre 1, La Métamorphose de Franz Kafka nous permet d’analyser la manière dont nous devenons, pour ainsi dire, des insectes, des « bugs », lorsque nous ne respectons pas l’impératif fonctionnel, puis de montrer comment l’injonction au fonctionnement cache une série de valeurs données pour acquises et qu’il faut au contraire questionner.
À partir de l’histoire d’Aladdin, le chapitre 2 s’intéresse aux discours des GAFAM qui mettent en avant les valeurs de simplicité et d’intuitivité. Les appareils numériques, telles des lampes magiques, sont prêts à exaucer le moindre de nos désirs sans avoir même besoin qu’ils soient exprimés. Sommes-nous réellement les maître·sses de ces génies de la lampe ou les serviteurs sont-ils désormais devenus nos maîtres ?
Le chapitre 3 questionne le rapport entre matérialité et immatérialité dans notre compréhension des environnements numériques à partir du film Il était une fois dans l’Ouest de Sergio Leone. Les infrastructures numériques sont matérielles tout autant que les chemins de fer qui ont déterminé les grandes luttes dans l’Amérique du XIXe siècle. Par ailleurs, les infrastructures numériques actuelles se servent en bonne partie de ces infrastructures de transport construites il y a presque deux siècles. En mettant en question la rhétorique de l’immatérialité, nous devons comprendre à quel point ce qui est considéré comme trivial, banal, répétitif et ennuyeux est souvent, au contraire, le point de départ pour devenir autonome et libre.
Le chapitre 4 constitue un véritable éloge du bug. Le bug, une métonymie qui fait référence à toutes les formes de dysfonctionnement, est présenté en parallèle du démon socratique, ce petit être qui fait « planter » Socrate en déclenchant l’émergence de la pensée philosophique. Après une histoire du mot « bug » et de sa relation avec les spectres puis avec les insectes, le chapitre propose une typologie des bugs et autres formes de dysfonctionnement.
Enfin, le chapitre 5 suggère des pratiques concrètes de résistance à la rhétorique des GAFAM et à l’impératif fonctionnel qu’elle implique. Il montre de quelle manière nous pouvons augmenter notre liberté en devenant moins dépendant·es des technologies qui sont celles des grandes entreprises du numérique. Cela implique, en premier lieu, de minimiser nos besoins en nous interrogeant sur ce qui est réellement nécessaire et souhaitable pour nous et, en second lieu, de développer nos capacités de comprendre et d’aménager nos propres environnements numériques. Comme Épicure, qui invitait ses disciples à se rendre autonomes et libres en vivant en communauté dans son jardin, nous devons devenir capables de cultiver notre « jardin numérique » en en faisant un véritable espace habitable et collectif.
À travers ce parcours, ce livre cherche à faire émerger une attitude dont l’objectif n’est pas l’augmentation de la productivité ou des capacités de manipulation des environnements numériques, mais l’activation d’une pensée critique et d’une liberté véritable dans l’ère où nous sommes entré·es.
Un matin au réveil, attrapant machinalement son iPhone posé sur la table de chevet, Gregor Samsa constata que son téléphone s’était métamorphosé en un infâme appareil plein de bugs. L’écran, sur lequel défilaient habituellement des images savamment sélectionnées – par Apple – dans ses photos personnelles, affichait l’image d’un enfant – laid – qu’il ne connaissait pas, et pour date et heure apparaissaient les chiffres : 9:99 9-9-9999.
Il fixait son téléphone sans que celui-ci semble reconnaître son visage : il restait verrouillé. Après quelques secondes interminables, s’afficha sur l’écran le message suivant : « Συγνώμη, αδυναμία να ξεκλειδώσω τη συσκευή. Η αναγνώριση προσώπου δεν ήταν σε θέση να επαληθεύσει την ταυτότητά σας. » Gregor ne parlait pas grec, mais essaya cependant d’insérer son mot de passe. En accédant miraculeusement à son agenda, il vit une suite de rendez-vous dont il n’avait aucun souvenir.
Dans ces conditions, que faire ? Se faire porter pâle ? En ouvrant WhatsApp, il constata que son image de profil avait été changée : à la place de son portrait souriant et sympathique, il y avait celui d’un homme qui lui ressemblait quelque peu, mais n’était pas lui. Impossible dès lors d’écrire à son employeur : qu’allait-il s’imaginer ?
Un message l’attendait déjà : « Où es-tu ? La réunion commence dans cinq minutes ! » Après un coup d’œil rapide à son application météo – pluie et température en dessous des normales saisonnières –, il s’habilla à la hâte, enfila son imperméable et sortit de chez lui avec son parapluie.
Chaleur agréable, pas un nuage en vue. Les regards des passants étaient fixés sur lui. Ne voulant pas se fier à Google Maps, il fut obligé de demander des indications à une passante : « Pour aller rue… » La dame eut un sursaut et, apeurée, s’éloigna en pressant le pas.
Un policier accourut : « Monsieur, veuillez SVP me montrer votre passeport vaccinal. » Gregor chercha l’application, mais le téléphone afficha en grands caractères rouges un message de son employeur : « Tu es viré. » Impossible de faire disparaître le message. Le policier lui lança un regard soupçonneux : « Veuillez me suivre, Monsieur. Éteignez votre téléphone, posez-le par terre et mettez les mains en l’air. »
Les passants, manifestant leur approbation à l’égard du policier, applaudirent tandis qu’ils regardaient avec dégoût Gregor s’éloigner.
Il semblerait que les technologies doivent fonctionner. Comme le dit une publicité pour l’iPhone 14, « ça marche, c’est tout » (it simply works) : de ce seul fait, nous accordons à nos dispositifs électroniques une confiance presque aveugle. Il faut que ça marche, il faut que ça fonctionne bien, sans accroc, sans imprévu, sans problème, sans que nous ayons à nous poser de questions.
Nous avons horreur de ce qui ne fonctionne pas, nous avons horreur des bugs. Au point, si jamais ils se présentent, de devoir les cacher, de ne surtout pas les voir. Nos smartphones, nos tablettes, nos ordinateurs ne nous montrent pas les erreurs ; ils se limitent parfois à afficher un discret message : « Désolé – s’excuse notre appareil –, veuillez réessayer. » Les anciennes pages noires listant le détail des erreurs ont disparu derrière des interfaces graphiques friendly, polies, présentables.
Dans La Métamorphose, la transformation de Gregor en insecte déclenche les réactions horrifiées de sa famille : les personnes qui l’aimaient – ou qui étaient supposées l’aimer – démontrent immédiatement leur dégoût, jusqu’à décider de se débarrasser de Gregor et être finalement soulagées par sa mort. Ce que l’on découvre, en lisant la nouvelle de Kafka, c’est que le plus horrible, le plus incroyable, le plus absurde, le plus inacceptable n’est pas la transformation de Gregor en insecte, mais le fait que, face à celle-ci, ses proches se montrent moins humains que lui.
Ce chapitre propose de réfléchir à notre rapport au non-fonctionnement. Est-ce le non-fonctionnement lui-même qui est inacceptable ? Mais qu’en est-il du dégoût que le non-fonctionnement inspire ? En quoi cette réaction serait-elle plus acceptable ? En d’autres termes : pourquoi ce dégoût du bug ?
La réponse – ou du moins une réponse – est que ce dégoût dérive d’un impératif profondément enraciné dans notre culture : l’injonction au fonctionnement, le fait que tout doit fonctionner. Nous pouvons appeler cette injonction « impératif fonctionnel ». C’est l’impératif fonctionnel qui rend inacceptable le Gregor de Kafka : il est dégoûtant parce que, en devenant un insecte, il dysfonctionne. Il n’est plus utile, il ne sait plus se déplacer convenablement et, surtout, il n’est plus capable de travailler et de produire de la richesse. Notre Gregor numérique est dans la même situation : un téléphone plein de bugs le rend dysfonctionnel et ce dysfonctionnement se manifeste, en premier lieu, dans son incapacité à travailler.
Les technologies numériques avec leur promesse de tout simplement fonctionner sont une réponse parfaite à cet impératif fonctionnel. Tout bug serait une violation de cette injonction si fondamentale.
Mais pourquoi tout doit-il fonctionner ? Pourquoi cela nous semble-t-il si évident ? Pourquoi l’inverse est-il inacceptable ? D’où vient l’impératif fonctionnel ?
Après sa journée cauchemardesque causée par les bugs de son iPhone, Gregor vient dîner chez vous. Vous l’accueillez le cœur plein de pitié. Pendant le repas, vous commencez à lui vanter les qualités de votre dernier Samsung, qui a toujours bien fonctionné, lui, qui n’a jamais eu un bug. Ne serait-ce pas un bon choix pour Gregor ?
De façon inattendue, il vous répond que non, qu’il préfère quand ça ne marche pas, qu’il aime davantage les bugs. Il ne le dit pas ironiquement, ce n’est pas une plaisanterie : il est sérieux. Qu’en pensez-vous ?
Votre conclusion sera sans doute que Gregor est fou, qu’il a perdu la tête : il est irrationnel. Il n’est plus à plaindre pour sa mésaventure, c’est son attitude qui est à blâmer. Il n’y a pas d’autre possibilité car ce qu’il dit est absurde, cela contredit le bon sens.
L’impératif fonctionnel peut être compris comme le cas particulier d’un impératif plus général : l’impératif rationnel. Le fait que tout doit fonctionner est juste une application particulière d’un impératif plus général qui nous prescrit d’être rationnel·les et de ne pas être absurdes. Cet impératif nous semble tellement évident qu’il n’est même pas nécessaire de le défendre.
Sigmund Freud, qui connaissait bien cet impératif, en faisait le maître de notre vie consciente. Mais il montrait aussi que notre vie psychique n’est pas toujours rationnelle. Dans notre inconscient, la logique rationnelle ne prévaut plus et ce qui semble absurde peut s’imposer. L’impératif rationnel ne serait donc pas si inévitable ? On pourrait rester humain sans être rationnel ?
Pour le psychanalyste chilien Ignacio Matte Blanco1, ce n’est pas que la vie psychique serait scindée en deux parties, l’une rationnelle et l’autre irrationnelle, mais plutôt que deux logiques différentes la régissent en parallèle : d’une part, la logique « aristotélicienne », dite « rationnelle », qui correspond fondamentalement à celle utilisée par le discours scientifique ; de l’autre, une logique complètement différente, qui peut sembler « irrationnelle », mais qui, en réalité, répond simplement à d’autres principes, et que Matte Blanco appelle logique « symétrique ».
La force de cette intuition est de mettre entre parenthèses les distinctions entre conscient et inconscient et d’identifier deux modes de fonctionnement logiques incompatibles et coexistants. Au lieu de se concentrer sur certains sujets ou certaines thématiques qui caractériseraient le discours de l’inconscient (les complexes, par exemple), Matte Blanco propose l’analyse logique d’un type de discours qui s’oppose formellement à la logique aristotélicienne.
La logique aristotélicienne est la logique qui nous semble familière et naturelle, c’est la logique du raisonnement scientifique, elle est fondée sur les principes de non-contradiction et du tiers exclu. Elle n’accepte donc pas la contradiction : par exemple, il n’est pas possible d’affirmer que, dans le même temps, dehors il pleut et il ne pleut pas.
Selon Matte Blanco, Freud a découvert un nouveau monde qui n’est pas régi par cette logique. Or, comme Christophe Colomb, Freud est mort sans savoir ce qu’il avait découvert : il l’a appelé « inconscient » et il a affirmé qu’il s’agissait du « royaume de l’illogique », mais, en réalité, ce qu’il a découvert, c’est quelque chose de bien plus intéressant : un monde à part entière, réglé par une logique autre, qui a ses propres lois.
Matte Blanco définit cette logique comme « symétrique » parce que, à la différence de la logique aristotélicienne, qui est asymétrique, elle renverse les relations. Par exemple, en racontant un rêve, il est possible d’affirmer quelque chose du type : j’ai rêvé de mon père et j’étais son père. Cela va à l’encontre de la logique aristotélicienne selon laquelle la propriété « être père de » est asymétrique ; il est donc impossible de la renverser. Si A est le père de B, alors B n’est pas le père de A. Mais, dans le cadre d’une logique symétrique, toute relation peut être inversée et donc si A est le père de B, B est aussi le père de A. Matte Blanco analyse et étudie les différentes lois de cette logique et en identifie les caractéristiques.
Or le discours de l’inconscient répond à la logique symétrique tandis que le langage de la vie consciente répond à la logique aristotélicienne. Mais il faut souligner que le « mode symétrique » n’est pas limité à l’inconscient et qu’il se manifeste aussi dans d’autres domaines – typiquement dans la littérature. Le cas du Gregor Samsa de Kafka en est un exemple, ainsi que le cas de notre Gregor qui affirme de façon absurde que, malgré son horrible journée, il aime les bugs.
L’impératif rationnel apparaît ici comme une injonction caractérisant formellement tout système psychique. Comme tout impératif, celui-ci engendre des transgressions qui se manifestent dans une sorte d’appel de l’irrationnel, et ces transgressions, du fait de leur caractère inacceptable, font l’objet d’un refoulement. On peut analyser les lapsus, les rêves, les jeux de langage et aussi la littérature comme une série de formes de transgression de cet impératif.
Mais, selon cette conception, la rationalité, le fait de respecter les règles de cette logique-là ne serait absolument pas quelque chose de spontané : on ne naît pas rationnel, on le devient. Et on le devient à la suite d’un long apprentissage et d’une soumission progressive à l’impératif rationnel auquel chaque individu est exposé de façon continue depuis l’enfance. Chaque enfant se verrait imposer la rationalité et le respect des lois de la logique et iel y serait ramené·e à chaque fois qu’iel essaie de les questionner ou de les transgresser.
La vie psychique peut donc être vue, selon Matte Blanco, comme l’« énorme lutte entre une tendance à nier la loi de la contradiction et une autre à l’affirmer2 ». Une lutte continue qui voit, d’une part, l’impératif rationnel qui essaye de façonner les individus et, de l’autre, l’émergence de formes d’irrationalité que cet impératif refoule systématiquement. La rationalité est la conquête rendue possible par cette longue dynamique d’affirmation de l’impératif rationnel et du refoulement de l’irrationalité.
Dans ce sens, l’impératif rationnel n’est pas quelque chose d’évident, il ne s’impose pas tout seul et, surtout, il peut être questionné. On peut se demander d’où il vient, comment il s’est structuré, comment il se caractérise, comment il s’affirme. Et certains domaines de l’activité humaine sont particulièrement propres à développer ce questionnement : la littérature en est un exemple notable.
Cette mise en question est particulièrement importante dans le cadre d’un éloge du bug : je m’apprête à défendre quelque chose qui semble absurde, à aller contre le bon sens, à résister à ce qui semblerait évident.
Soulignons-le : dans sa formulation purement logique, l’impératif rationnel n’a rien de moral ou de pratique. C’est ce que remarque le théoricien de la littérature Francesco Orlando3, qui affirme que l’impératif rationnel est « vide a priori de tout contenu déterminé ». Mais cet impératif peut se « spécialiser », il peut se préciser suivant une orientation historique particulière. Typiquement, à partir de la révolution industrielle, selon Orlando, cet impératif se serait spécialisé en une injonction au fonctionnement. L’impératif rationnel est devenu un impératif fonctionnel.
Or, à une époque où l’injonction sociale par excellence semble être : « Il faut que ça marche », Orlando remarque que la littérature, au lieu de respecter cette prescription, lui résiste. Au XIXe siècle, elle abonde de listes d’objets désuets : inutiles, vieux, insolites, aberrants, laids… Il l’interprète, en mobilisant la théorie de Matte Blanco, comme des retours du refoulé irrationnel : à l’époque où être rationnel équivaut à être fonctionnel, le non-fonctionnel est réprimé et refoulé ; il réémerge alors dans le discours symétrique et typiquement dans l’inconscient et dans la littérature. Celle-ci est en effet, pour Orlando, le « lieu imaginaire d’un retour du réprimé ». L’amour littéraire pour les ruines, pour les raretés, pour les choses inutiles, moches, laides et inquiétantes – tellement fort au XIXe siècle – serait un symptôme du refoulé de la révolution industrielle, le contre-effet d’un impératif réprimant toute forme de non-fonctionnalité.
L’impératif fonctionnel est la déclinaison capitaliste de l’impératif rationnel, une rationalité inféodée à la nécessité de produire de la richesse et d’accumuler des marchandises. Il faut produire, il faut être productif, il faut que les moyens de production, les travailleurs et les travailleuses et l’ensemble de l’organisation de la production fonctionnent de façon efficiente.
Mais qu’en est-il plus précisément de cet impératif fonctionnel à l’« époque du numérique » ?
Pour répondre à cette question, il faut commencer par indiquer ce que le terme « numérique » recouvre. Suivant la suggestion de Milad Doueihi4, cet adjectif substantivé se réfère de façon générique à un ensemble de caractéristiques propres à notre époque : un ensemble de facteurs sociopolitiques, économiques et culturels qui convergent et qui contribuent à définir une situation sociale globale. Les développements technologiques ne sont, en ce sens, que l’une des composantes multiples et complexes qui contribuent à caractériser l’état actuel de notre culture.
En tant qu’époque, le numérique est indéniablement caractérisé par un mode de fonctionnement capitaliste. Pour être plus précis : une multiplicité de caractéristiques que l’on a l’habitude d’attribuer « au numérique » sont, en réalité, des caractéristiques qui fondent le monde capitaliste depuis ses débuts et qu’on peut retrouver déjà dans les descriptions que Karl Marx en donnait dans Le Capital. Notre culture actuelle est capitaliste car elle s’inscrit dans cette continuité ; le numérique n’est pas capitaliste en soi, pour quelques raisons intrinsèques à sa « nature », mais à cause d’une convergence historique entre certains développements techniques et des sociétés capitalistes. Cela ne signifie pas que l’on peut facilement séparer « le » numérique du capitalisme, car nous n’en connaissons pas un autre et il serait erroné de penser pouvoir séparer quelque chose – des technologies, des environnements, des outils – de ses conditions réelles d’émergence. Le numérique, en tant qu’époque, est donc sans doute capitaliste, même si des environnements, des outils, des technologies particulières peuvent l’être moins ou plus que d’autres.
Dans notre époque numérique, en tant qu’époque capitaliste, l’impératif fonctionnel a la même force, voire une plus grande, qu’au moment de la révolution industrielle. Et cet impératif semble avoir trouvé un allié parfait dans un certain discours technologique : la technologie est ce qui doit fonctionner et, en même temps, ce qui permet que tout fonctionne au mieux.
Encore une fois : il ne serait pas vrai de dire que la technologie ne peut qu’être quelque chose qui fonctionne ; si on revient à son étymologie, au concept de technè en Grèce et à son histoire, il serait évident que l’impératif fonctionnel n’est pas inévitable en contexte technologique – et c’est ce que nous essaierons de démontrer dans la suite de ce livre. Mais il semblerait que la technologie soit désormais de plus en plus réduite à cette seule vision.
Le but de ce fonctionnement – ça fonctionne pour faire quoi ? – n’est même pas explicité, car il est évident. La technologie est là pour accroître l’efficience de la production de richesse. Elle le fait d’une manière prédominante : en accélérant les processus5. Toutes les technologies seraient là pour rendre les processus plus rapides, pour produire plus vite. Une technologie fonctionne quand elle accélère un processus ; elle ne fonctionne pas quand elle ne l’accélère pas assez – l’hypothèse de ralentir quelque chose n’est même pas prise en considération.
Une série d’exemples peuvent servir à mieux illustrer cette idée. Commençons par un exemple prénumérique : les voitures. Selon cette rhétorique du fonctionnement, une voiture permettrait de faire ce que nous étions déjà capables de faire avant, mais plus rapidement. La voiture sert à nous déplacer et elle fonctionne bien quand elle accélère le processus de transport. Si, à pied, il faut une heure pour faire 5 kilomètres, en voiture il faut cinq minutes. Le déplacement serait le même, l’action la même, la seule différence serait le temps « gagné ». On aurait gagné cinquante-cinq minutes. Henry Ford parlait de ce type d’accélération dans son autobiographie My Life and Work6. Grand technophile, il affirmait avec enthousiasme que ce gain de temps correspondait à un gain de qualité de vie : le temps qu’on aurait dépensé à faire ce que font plus rapidement les machines serait employable dans des activités agréables. Les machines réduiraient donc la quantité de travail nécessaire. Nous reparlerons de cette vision fordiste dans le chapitre 5 et nous montrerons ses liens avec l’idée que notre liberté dépend de l’affranchissement des tâches les plus triviales, ou de la délivrance des nécessités de la vie7. Mais nous pouvons déjà souligner plusieurs raisons qui montrent en quoi cette idée est fausse.
La première est un simple constat : comme le souligne Hartmut Rosa8, depuis l’invention des moyens de transport mécaniques, le temps que nous dépensons en déplacement est resté le même. Cela signifie que, au lieu de passer moins de temps à effectuer les mêmes trajets, nous avons multiplié les trajets jusqu’à les faire correspondre à la même quantité de temps. Au lieu d’employer cinq minutes à parcourir 5 kilomètres, nous dépensons toujours la même heure que nous aurions dépensée à pied, mais pour parcourir 60 kilomètres.
La seconde raison est d’ordre plus philosophique : le fait de parcourir autrement un espace n’est pas neutre par rapport à ce que cet espace est pour nous. Comme l’a bien expliqué Henri Lefebvre9, l’espace n’est pas quelque chose de donné, mais le résultat d’une production : nous produisons l’espace. Et les infrastructures techniques sont les premières responsables de cette production. La voiture ne permet pas de parcourir le même espace en moins de temps, elle change le sens de cet espace. Elle change en effet ce qui est proche et ce qui est loin ; elle transforme physiquement les paysages – avec la construction des routes, des autoroutes, etc. –, elle modifie la physionomie des villes, elle fait émerger les banlieues… Loin d’être une technique neutre qui nous permet simplement de continuer à faire ce que nous faisions déjà mais « mieux » ou « plus rapidement », la voiture porte des valeurs, elle transforme l’espace, elle change nos modes de vie, et tout cela, fondamentalement, pour augmenter notre capacité de production. Dans ce sens, la voiture répond à l’impératif fonctionnel qui caractérise notre culture capitaliste. Soulignons que, selon l’interprétation proposée ici, ce n’est pas la voiture en tant que telle qui promeut une telle vision, mais la voiture en ce qu’elle répond à l’impératif fonctionnel. On pourrait imaginer des moyens de transport mécaniques qui implémentent d’autres visions du monde, et il y en a par ailleurs : pensons à un camping-car, à une limousine ou à une voiture de collection. Le point que je veux soulever avec cet exemple est justement que l’impératif fonctionnel pousse à la naturalisation d’une vision du monde unique qui est finalement celle du capitalisme. « Ça doit fonctionner » est synonyme de « ça doit être adapté à l’injonction de production de richesse ». L’incarnation de l’impératif rationnel en impératif fonctionnel n’est donc pas naturelle, elle n’est pas évidente : elle signifie que notre société considère comme aberrant de ne pas adhérer aux valeurs capitalistes ; tellement aberrant, d’ailleurs, que ces valeurs n’ont même pas besoin d’être explicitées. Elles semblent être les seules possibles, elles s’affirment comme transparentes et naturelles.
Passons maintenant à quelques exemples numériques, et pour commencer à celui de la communication électronique. Encore une fois, selon la doxa de l’impératif fonctionnel, la communication électronique – synchrone ou asynchrone – devrait nous permettre de faire ce que nous faisions déjà avant, mais plus rapidement. Nous avons toujours communiqué, mais il fallait auparavant des jours pour pouvoir s’échanger une lettre, tandis que la communication électronique nous permet de faire la même chose en un instant. En réalité, c’est loin d’être le cas. Pensons à un exemple télévisuel, la série Succession créée par Jesse Armstrong (2018). La série porte sur les luttes pour la succession d’une grande compagnie de médias. Frères et sœur complotent pour décider qui prendra le pouvoir à la suite de leur père. Les smartphones jouent un rôle fondamental dans les échanges : messages, appels, nouvelles qui arrivent via les différents réseaux sociaux. Les protagonistes sont accroché·es à leur téléphone nuit et jour. Les rapports familiaux et les rapports de travail ne font qu’un : dans le même appel, le père dit à son fils qu’il l’aime et il scrute ses phrases, ses hésitations, ses mots pour décider s’il sera le prochain P-DG de l’entreprise. Les smartphones, en effet, fonctionnent très bien, dans cette « mobilisation totale », comme l’appelle Maurizio Ferraris10.
Vaut ici la même analyse que pour les voitures : le nombre d’échanges communicationnels a explosé par rapport au courrier papier et cela a, dans ce cas, multiplié le temps passé à traiter ces informations. Notre rapport avec l’espace a encore été modifié radicalement en permettant des échanges continus sans tenir compte du lieu où se trouve le destinataire. Notre perception du temps a aussi été profondément touchée, car les informations électroniques nous rejoignent partout et non pas seulement en un lieu spécifique, comme c’était le cas pour la communication postale. Le bon fonctionnement est synonyme de joignabilité illimitée dans l’espace et dans le temps et les applications de messagerie instantanée ont radicalisé une tendance lancée par le courriel : les messages nous joignent sur nos smartphones qui sont toujours sur nous, le jour comme la nuit, au travail ou à la maison, le lundi comme le dimanche. Une série de choix d’ergonomie et de design poussent dans cette direction : les notifications ou les trois petits points qui apparaissent lorsque notre correspondant est en train d’écrire11. La messagerie est devenue un véritable dispositif de mobilisation en vue d’une augmentation radicale de la productivité. Et, encore une fois, nous avons l’impression qu’une application de messagerie est d’autant meilleure qu’elle permet cette mobilisation continue. « Ça fonctionne bien », dans ce cas, signifie qu’une application nous permet d’être connecté·es partout, rendant toujours joignables les personnes qui la possèdent, les alertant si jamais elles se laissent distraire et risquent de perdre un message ou de répondre avec quelques instants de retard. Aux courriels, on préfère les applications de communication synchrone. Parmi ces applications, on préfère celles qui sont utilisées par le plus grand nombre. Cela permet de rassembler dans un seul et même espace des communications concernant le travail, la famille, la vie privée, l’école, la culture, le divertissement. WhatsApp est l’exemple par excellence de ce type d’application qui « fonctionne bien » : elle relie un nombre très élevé de personnes (2 milliards d’utilisateurs et utilisatrices actives en 2022), elle les notifie, elle connecte l’ensemble des activités en un seul espace – avec la possibilité d’accéder facilement aux photos et aux autres contenus disponibles sur le téléphone. Ces usages, comme le souligne Ferraris12, entraînent la disparition de la frontière entre travail et vie privée et maximisent la productivité : nous travaillons 24 heures sur 24. Une application qui serait moins accessible, plus lente, qui ne notifierait pas, qui séparerait les espaces de vie, qui serait moins invasive serait considérée comme non fonctionnelle, justement parce qu’elle proposerait une vision du monde différente de celle de la productivité capitaliste.
Si nous revenons au cas de notre Gregor Samsa, les bugs de son téléphone l’empêchent de fonctionner, dans le sens – justement – où il n’est pas efficace dans son travail ; il ne fonctionne pas parce qu’il n’est pas capable de répondre toujours et en temps réel aux messages de son employeur. Cela nous semble aberrant. Mais son téléphone aurait pu être destiné à d’autres usages, par exemple ludiques : dans ce cas, les bugs auraient pu devenir amusants, le changement de son image de profil aurait pu le faire sourire et son incapacité à répondre aux messages aurait peut-être mis en place une situation de communication porteuse de nouvelles pratiques divertissantes.
Un autre exemple peut nous aider à mieux saisir comment l’impératif fonctionnel s’incarne dans les applications numériques des GAFAM : c’est le cas des logiciels de traitement de texte, ou plutôt du logiciel de traitement de texte, Microsoft Word. Encore une fois, nous sommes devant un outil qui s’impose comme un standard universel, le seul possible, apparemment neutre : on est porté à penser que Word n’a aucune vision du monde particulière, aucune valeur, aucune implication éthique ou politique. On pourrait imaginer que Word n’est qu’un outil qui nous permet de faire ce qu’on avait déjà l’habitude de faire avant, mais plus rapidement. Au lieu d’écrire à la main, de recopier avec une machine à écrire, puis, éventuellement, dans le cas d’un texte destiné à la publication, de composer lettre par lettre pour imprimer, Word nous permettrait de faire la même chose, mais en gagnant tout le temps des innombrables retranscriptions auparavant nécessaires. Selon cette interprétation naïve, qui semble pourtant dominante, le logiciel n’aurait aucun impact sur les « contenus » : l’important n’est pas quel logiciel on utilise, mais ce que l’on écrit. Il en est tout autrement, car le logiciel détermine justement à sa manière ce que l’on écrit.
Quelques éléments historiques sont nécessaires pour comprendre ce propos13. L’ordinateur n’est pas né pour écrire des textes, mais pour calculer. L’idée de l’utiliser comme une machine à écrire est loin d’être naturelle et n’a pas toujours été une évidence. Initialement, les ordinateurs, appelés à l’origine « calculateurs », sont faits pour calculer et, dans un texte, à première vue, il n’y a pas grand-chose à calculer. Au contraire, les littéraires, les gens du texte, affichent volontiers – et, à mon avis, à tort – leur distance par rapport au monde du calcul. L’idée d’écrire des textes avec un ordinateur est arrivée assez tard et pour des raisons très précises. Les informaticien·nes avaient l’habitude d’écrire du code avec l’ordinateur – car le code est un texte que l’ordinateur peut exécuter ; le code est un texte qui produit un calcul. Il était courant d’avoir une machine à écrire à côté de l’ordinateur pour documenter le code qui était écrit à l’écran. La documentation sert à expliquer ce que fait le code, c’est une sorte de guide qui doit être lu par des êtres humains. Elle ne doit pas être « calculée » et, pour cette raison, elle restait séparée du code et était rédigée comme un texte normal : à la machine à écrire. Certes, cette pratique n’était pas commode : deux dispositifs (l’ordinateur et la machine à écrire), deux claviers, un écran et du papier. Pour cette raison naît l’idée de tout faire sur le même dispositif et, à partir des années 1970, émergent des éditeurs de code qui permettent aussi d’écrire du texte pour documenter les programmes14. C’est le cas d’Electric Pencil, développé en 1976 par Michael Shrayer. On commence alors à utiliser les ordinateurs pour écrire. Dans les mêmes années, John T. Draper crée EasyWriter.
C’est alors l’avènement de l’ordinateur personnel : les ordinateurs ne sont plus des outils réservés à la recherche dans des grands laboratoires ; ils se mettent à entrer dans les foyers et dans les entreprises. Apple propose EasyWriter comme logiciel de traitement de texte ; EasyWriter est vite remplacé par WordStar, qui devient un véritable monopole sur le marché grâce à l’introduction du WYSIWYG (What you see is what you get).
Arrêtons-nous un instant sur cette idée, car elle nous donne de nombreuses informations sur l’idéologie sous-jacente aux types de traitement de texte qui sont devenus dominants à partir de WordStar. Que signifie vraiment WYSIWYG ? Qu’est-ce qu’on voit (see) ? Et qu’est-ce qu’on obtient (get) ? Ce qu’on voit, c’est ce que nous montre l’écran, et ce qu’on « obtient », c’est ce que nous donne l’imprimante. Il est évident que cette situation n’a rien de nécessaire : pourquoi le résultat final devrait-il être celui qui est donné par une imprimante ? Dans le cas, par exemple, de l’écriture d’un livre, ce que peut donner l’imprimante de l’auteur ou l’autrice n’a rien d’un « résultat final ». On pense donc à des documents très particuliers, ceux qui étaient produits avec des machines à écrire et qui avaient vocation à rester dans cet état – sans faire l’objet d’une publication ultérieure. Ces documents sont des documents de bureau, des lettres, des rapports, des documents internes, utiles au fonctionnement… des entreprises. Il est intéressant de souligner que le déclin de WordStar et son remplacement par WordPerfect viennent en bonne partie du fait que WordStar ne proposait pas une base de données assez exhaustive de pilotes d’imprimante.
Les traitements de texte ont vite choisi leur cible et leur « théorie du texte » : un texte est quelque chose qui sert à communiquer à l’intérieur d’une entreprise, il doit être imprimé car c’est ainsi qu’il circule, il doit s’afficher à l’écran de la manière la plus proche possible du résultat final, qui sera le papier produit par l’imprimante. Microsoft sera l’entreprise qui saura le mieux implémenter et radicaliser cette idée : le traitement de texte est une question de productivité d’entreprise. C’est l’idée fondamentale derrière le lancement, en 1989, de Microsoft Office, un ensemble de logiciels destinés à la « productivité personnelle », évidemment, comme son nom l’indique, au bureau. Le traitement de texte devient l’une des composantes du travail de bureau et s’accompagne d’une série d’autres outils comme Excel et Powerpoint. Le logiciel de traitement de texte est pensé et développé avec la volonté précise d’augmenter la production des entreprises en rendant plus rapide le travail bureautique. Les textes sont, dans cette optique, des informations dont la circulation rapide et claire est indispensable pour faire « fonctionner » l’entreprise.
Word fonctionne bien ? Oui, il répond tout à fait à l’impératif fonctionnel. À travers une série très large de stratégies, ce modèle s’est étendu au-delà des bureaux des entreprises, est entré dans les universités, dans les maisons d’édition, dans la vie privée de tout un chacun. Microsoft, dans les années 1990, tolère que ses logiciels soient facilement piratables et s’assure ainsi un monopole : tout le monde utilise Word, le logiciel, et ses formats propriétaires, doc et ensuite docx, deviennent des « standards » de facto. Aujourd’hui, notre manière d’écrire des textes universitaires, des romans ou des lettres d’amour est modelée par une idée du texte comme document d’entreprise et nous croyons que cela est neutre. Toutes les autres interprétations possibles de ce qu’est un texte ont été balayées en quelque dix ou vingt ans, au point que, quand on cite les questions de structuration du contenu scientifique, ou de créativité de l’organisation du support du texte (un écran ? une page ? de quelles dimensions ?), on ne sait même plus de quoi on parle.
Ces exemples montrent comment les GAFAM ont saisi cet impératif fonctionnel et ont su parfaitement l’implémenter dans leurs applications. On préfère Apple à d’autres systèmes d’exploitation parce que « ça fonctionne bien » ; on préfère Google Search à d’autres moteurs parce que ça fonctionne bien ; on préfère Word à d’autres logiciels parce qu’il fonctionne bien. Mais que signifie « fonctionner » ? Nous devrions systématiquement nous demander : « Ça fonctionne pour faire quoi ? » Nous découvririons que la réponse est trop souvent celle-ci : « Ça fonctionne pour augmenter la productivité dans un sens capitaliste. » Ça fonctionne parce que la vision du monde que cela propose est tellement omniprésente qu’elle nous semble presque la seule possible.
Les personnes et les institutions doivent s’adapter à l’impératif fonctionnel pour ne pas devenir monstrueuses. Il devient impossible de penser, par exemple, qu’une université n’a pas la même mission qu’une entreprise et que, par conséquent, son idée du texte pourrait diverger de celle d’une compagnie produisant des conserves. Il faut utiliser les mêmes outils, car ils sont plus performants, plus efficaces, parce qu’ils fonctionnent mieux. Si quelqu’un essaye d’agir différemment, iel fonctionne moins bien ; iel devient un·e inadapté·e. Et on ne saurait l’accepter.
Notre histoire kafkaïenne finit sur l’évocation d’un passeport vaccinal, et ce n’est pas par hasard.
Nous avons suggéré que le numérique est un phénomène de convergence entre plusieurs tendances, événements, discours. Nous avons vécu, à partir des premiers mois de 2020, une phase d’accélération fulgurante de la diffusion d’un certain type de numérique. La pandémie de la Covid-19 a déterminé une radicalisation de l’impératif fonctionnel et de son implémentation dans les environnements numériques. Comme le montre bien Alain Saulnier dans son livre Les Barbares numériques15, notre territoire numérique est désormais complètement occupé. Mais cette occupation a correspondu à une autre tendance qui avait commencé à se manifester depuis une décennie déjà : la convergence entre les politiques des États et celles des GAFAM. Ainsi, à la différence de Saulnier, je crois que les États, à l’heure actuelle, loin de contenir l’extension de l’emprise des GAFAM, en sont l’une des causes.
Comme l’a remarqué Luca Paltrinieri dans une analyse proposée en mars 202016, au tout début du confinement, la fonction des États depuis l’idée hobbesienne du Léviathan a été d’« assurer entre les individus les bonnes distances qui permettront la circulation et la croissance, [et de] reconduire le partage production/reproduction afin d’élargir continuellement le champ de la valeur d’échange ». La notion de juste distance est donc centrale pour les États afin de permettre l’augmentation de la richesse. La pandémie a été une confirmation supplémentaire de ce principe : les États ont été les meilleurs alliés du marché. Comme l’affirme Paltrinieri : « C’est la pire des illusions de croire que l’État-Léviathan ait été, depuis sa fondation hobbesienne, un ennemi du marché ou une alternative au marché : il est, depuis le début, “néolibéral” par essence, au sens où il existe (aussi) en fonction du marché et au service du marché. »
En effet, l’objectif déclaré de tous les gouvernements à partir du début de la pandémie a été de sauver l’économie. Cela posait un énorme dilemme : un nombre trop élevé de morts ou d’hospitalisations aurait un impact insoutenable sur l’économie, mais bloquer le travail pour une période, même courte, aurait le même impact néfaste. Il s’agissait de trouver une solution qui puisse réconcilier les deux : limiter les morts tout en restant productif. La solution est arrivée, comme par miracle, de la Silicon Valley. Jusqu’en 2020, les intérêts des États avaient parfois été en opposition avec les intérêts des GAFAM : typiquement, les GAFAM menaçaient de prendre une autorité qui empiétait sur celle des États – que l’on pense aux questions des droits d’auteur, par exemple, ou de gestion du patrimoine et des archives où des entreprises comme Google assumaient des rôles de numérisation et préservation (avec Google Books par exemple) dont les institutions publiques voulaient rester les dépositaires. À partir de 2020, ces intérêts semblent complètement alignés : les GAFAM permettent de continuer à être productif en temps de confinement et s’allient aux États dans la gestion de la crise sanitaire. Leurs infrastructures fonctionnelles, productives, performantes et efficaces se présentent comme étant les seules capables de gérer la situation, les seules solutions possibles. Ainsi, les applications mobiles – qui tournent exclusivement sur des systèmes d’exploitation Apple ou Android et appartiennent de fait à Apple ou Google – sont les dispositifs qu’utilisent par défaut les États pour tracer les contagions, récolter des informations sur le statut vaccinal, suivre le développement de la pandémie. Google et Apple deviennent de fait des institutions fondamentales dans la gestion de la crise. Parallèlement, les entreprises et tous les maillons de la chaîne de production – y compris les universités – se sont tournés vers les GAFAM pour chercher des « solutions » à leur problème. J’emploie ici à dessein le mot « problème » au singulier car il ne s’agissait pas d’identifier une panoplie de besoins différents et hétérogènes, de comprendre les visions du monde et les valeurs de chacun pour ensuite trouver des environnements numériques capables de répondre à ces besoins. Il s’agissait très simplement de tout bien faire fonctionner : de continuer à produire. Les solutions sont arrivées immédiatement des entreprises américaines : Microsoft en première ligne, Zoom, Apple, Google. Jamais, sans la possibilité de continuer à produire garantie par ces compagnies, un confinement d’une telle ampleur n’aurait pu être décrété : les coûts économiques auraient été trop importants.
Ces « solutions » ont permis une sorte de miracle : au lieu de déboucher sur une mise en question du système capitaliste, la crise de la Covid-19 a été un véritable catalyseur de ce système. Elle a permis une « amélioration » de la chaîne de production de la richesse. Tout cela aux dépens de la pluralité des valeurs et des modèles de pensée.
L’exemple de Zoom et de Teams, avec leur adoption massive dans des contextes tels que l’enseignement et les activités institutionnelles, me semble particulièrement parlant. Certes, là encore, on peut avoir une impression de neutralité et de naturalité, on peut penser que ces applications résolvent tout simplement un problème universel de la meilleure et de la plus simple des manières, qu’il s’agit juste de choisir la « solution » la plus fonctionnelle, efficace et performante. Mais, ce faisant, on oublie de s’interroger sur les besoins, les valeurs et les visions du monde. Faute d’une telle réflexion, la vision du monde des entreprises de la Silicon Valley a une fois de plus été « naturalisée ».
Les systèmes de vidéoconférence existent depuis longtemps et ont été rendus accessibles à un large public à partir du début des années 2000. Skype a été l’un des premiers logiciels à connaître une grande fortune auprès du public privé. Malgré la large diffusion et la facilité relative d’usage, ces dispositifs avaient peu de succès du côté des usages institutionnels. Pensons par exemple aux MOOC, les cours en ligne, souvent vus comme une éducation au rabais. Les institutions comprenaient que l’usage de la vidéoconférence pouvait mettre en question leur rôle et leur capacité à produire de l’autorité et de la légitimité. Dans le cadre de mon travail universitaire, je peux citer une série de cas de ce type : la vidéoconférence n’était pas acceptée par un grand nombre d’universités pour tout événement officiel, comme une soutenance de thèse. Ce refus avait souvent quelque chose d’incompréhensible. Dans le cadre de thèses avec des jurys internationaux, on était prêt à faire venir au Canada un·e collègue depuis la France pour participer à une soutenance d’une heure. L’impact carbone et l’effort que cela demandait n’étaient jamais questionnés : il était nécessaire d’être en présence. Le lieu comptait : pour pouvoir donner un diplôme, l’université devait avoir la main sur l’événement qui devait nécessairement se dérouler dans ses locaux. Cela permettait de légitimer l’événement, de l’authentifier et de lui donner une valeur officielle : l’université attestait, par exemple, que cette personne était devenue docteure. Si l’événement se passait ailleurs, si les membres du jury n’étaient pas physiquement présents, l’université considérait qu’elle ne pouvait plus l’authentifier. De même pour la « cérémonie de citoyenneté » au Canada, dont je parlerai plus loin. Il était évident qu’il fallait être là, en personne, devant les fonctionnaires qui entendaient le serment.
Au début du premier confinement en mars 2020, le passage « à distance » s’est installé partout très rapidement. Cela aurait été impensable quelques années auparavant. Les universités, comme les institutions étatiques, ont cherché « la » solution. Zoom et Teams ont été adoptés de façon presque universelle. Les rares institutions qui ont essayé autre chose – en utilisant, par exemple, Jitsi ou BigBlueButton – ont vite abandonné en affirmant que ces logiciels « ne fonctionnaient pas assez bien ». Zoom et Teams fonctionnaient parfaitement.
Or ces outils posent des problèmes qui ont été complètement ignorés. On peut en identifier deux : en premier lieu, le fait qu’ils implémentent une vision du monde particulière et qu’ils ne répondent donc pas à tous les besoins, mais à un besoin spécifique ; en second lieu, qu’ils sont propriétaires et privés et qu’ils ne peuvent donc pas véritablement servir à mettre en place des espaces numériques publics.
La première raison devrait désormais être claire : Zoom et Teams ont été conçus en tant qu’outils d’entreprise. Dans le cas de Teams, son intégration à la suite Microsoft Office en atteste : Teams sert à améliorer la productivité des entreprises, en s’intégrant à l’ensemble des activités de chaque salarié·e, en permettant de partager les documents produits avec les autres logiciels de la suite, en rendant les employé·es continuellement disponibles et joignables. Microsoft devient l’espace de travail lui-même : plus besoin d’un bureau, car tout se trouve physiquement sur les serveurs de Microsoft, qui peut ensuite envoyer des rapports de productivité à chaque employé·e ainsi qu’aux dirigeant·es. Un rapport à propos de Teams réalisé par le cabinet de conseil Forrester à la demande de Microsoft en 201917 montre clairement ce type de vision du monde : il s’agit de maximiser la productivité, de réduire les temps morts (y compris le temps nécessaire pour passer d’une salle à une autre). Les logiciels proposés par la Silicon Valley ont constitué des solutions pour maintenir la juste distance permettant de maximiser la production : les valeurs des GAFAM et celles des États étaient finalement parfaitement alignées.
Zoom se situe dans la même lignée ; certes moins intégré dans une suite d’activités de bureau, il propose cependant une forme de rencontre typique de la réunion d’affaires. Il vise à maximiser la productivité en proposant des systèmes pour que les employeurs et les employeuses puissent contrôler leurs employé·es (le « traçage d’attention », par exemple, qui permet de vérifier si une personne détourne les yeux de l’écran)18 : il permet donc de contrôler l’espace de la réunion en la rendant plus productive. Or, comment de telles visions du monde et des relations interpersonnelles peuvent-elles être compatibles, par exemple, avec la situation d’une soutenance de thèse ? Ou d’un cours ? La question ne semble pas s’être posée.
La seconde raison est liée à la première et elle est peut-être encore plus préoccupante. Comme je le soulignais dans l’exemple de la soutenance, l’espace où se produit un événement est très important pour le sens et la valeur mêmes de cet événement. Où ont lieu les événements qui sont hébergés par Teams ou par Zoom ? Sur leurs serveurs. Qui en est donc le garant ? Ces entreprises. Les institutions – notamment les universités, mais aussi les écoles, les gouvernements et une panoplie de structures publiques – ont accepté de déléguer à une entreprise privée la légitimation de leur activité.
Un curieux exemple peut nous aider à cerner l’absurdité de cette situation. Durant le confinement, au Canada, les cérémonies d’attribution de la citoyenneté se déroulaient sur Zoom. Il était obligatoire pour les personnes qui recevaient leur nationalité canadienne de se trouver physiquement sur le sol canadien. Mais cela n’avait rien à voir avec la légitimation de l’espace, il s’agissait uniquement de raisons bureaucratiques : si une personne se trouvait à l’étranger, son statut aurait changé avant qu’elle ne rentre au Canada et, à la frontière, il aurait été compliqué de traiter le dossier d’une personne sortie du pays non canadienne et rentrant canadienne. La personne était donc chez elle au Canada, mais l’événement avait lieu sur Zoom et – j’ai vérifié – cela se passait physiquement sur des serveurs américains, hors du sol canadien. Or l’aspect ridicule – ou tragique – de cette situation a échappé aux autorités canadiennes : pendant la cérémonie, on prêtait serment à la Reine dans un pays qui s’était libéré de cette même monarchie deux cent cinquante ans plus tôt. On reconnaissait la souveraineté du monarque anglais sur le sol des États-Unis républicains. Ou alors, plus probablement et plus simplement, l’idée même de souveraineté était détruite ou plutôt déplacée : le sol de l’État était garanti par une compagnie privée qui en partageait donc les valeurs ; GAFAM et États devenaient une seule et unique institution et la différence entre le Canada et les États-Unis ne devenait qu’anecdotique face à l’uniformisation du monde du capital.
Les assemblées de mon département à l’université de Montréal avaient lieu elles aussi sur des serveurs Zoom qui se trouvaient en Virginie et étaient la propriété d’Amazon : les GAFAM partageaient leurs territoires. Cela signifie, par exemple, que si jamais il se produisait quelque chose de polémique dans ces assemblées, le tribunal compétent serait celui de Virginie et non celui du Québec ; mais surtout, tout se passant dans le territoire de Zoom et d’Amazon, cela leur appartenait. Les GAFAM deviennent les territoires que nous habitons en tant que citoyen·nes et ces espaces remplacent ceux de nos communautés, de nos institutions.
Ces questions semblent être passées complètement inaperçues, mais on se rend rapidement compte qu’il n’en est rien. Ce n’est pas par manque de compréhension que nos gouvernements et nos institutions ont cédé aux GAFAM, ce n’est pas parce que, comme semble le dire Saulnier, nous ne nous sommes pas aperçus de la progressive « invasion barbare » : c’est au contraire parce que les visées de nos gouvernements correspondent à celles des GAFAM. Il ne faut pas oublier, juste pour donner un exemple, que l’une des raisons du succès de Zoom tient au fait que l’entreprise a su passer des accords avec des gouvernements totalitaires comme celui de la Chine19, pour permettre le contrôle du flux de données. Zoom est ainsi devenue la seule solution possible pour parler avec des citoyen·nes de certains pays qui bloquaient les autres logiciels. Les GAFAM ont offert aux gouvernements les moins démocratiques des systèmes de contrôle très efficaces et aux gouvernements – comme aux institutions – plus libéraux une grande promesse de productivité. Zoom fonctionne bien, nous disent nos administrations universitaires et publiques : oui, il permet en effet de « gagner du temps », d’être plus productif, de transformer l’université en une entreprise – ce que l’on essaye de faire déjà depuis plusieurs décennies – et de contrôler le travail des employé·es.
Un cas concret permet de mieux illustrer mon propos en démontrant qu’il ne s’agit pas seulement d’une question symbolique ou de principe, mais d’une véritable remise en question de notre autonomie et de notre liberté. Rabab Abdulhadi et Tomomi Kinukawa, chercheurs à la San Francisco State University, ont organisé, en septembre 2020, une table ronde en ligne – sur Zoom – sur la Palestine intitulée : « Whose narratives ? Gender, justice and resistance : a conversation with Leila Khaled ». Ils avaient invité l’activiste Leila Khaled, une militante palestinienne controversée pour avoir pris part à des actions terroristes en 196920. Zoom a refusé de diffuser l’événement. Le problème ici n’est pas de décider s’il est souhaitable, éthique ou politiquement correct d’inviter une personne avec ce profil, mais de savoir à qui doit revenir une telle décision. Qui doit décider de ce qui est souhaitable dans le domaine de la recherche et de l’enseignement d’une université ? En principe, il s’agit d’un débat qui concerne l’université et ses différentes instances, pédagogiques et administratives. Mais Zoom remplace l’université dans ses choix intellectuels ; étant donné que l’espace de l’université est désormais, physiquement, celui de Zoom et de ses serveurs, la personne en question devient l’invitée de Zoom, et c’est l’entreprise technologique qui prend donc la décision de la pertinence de l’événement. Ce renversement d’autorité n’en est en revanche pas un : il marque simplement l’alignement parfait entre objectifs institutionnels et gouvernance capitaliste.
L’impératif fonctionnel est en train d’atteindre une force et une omniprésence dont ne pouvaient même pas rêver les capitalistes les plus enthousiastes il y a encore dix ans. Depuis 2020, cela prend des proportions qui auraient, au début de la pandémie, semblé dystopiques, mais sont désormais entrées dans les mœurs. Nous nous concentrerons ici sur deux exemples particulièrement parlants : la gestion du travail et la gestion des données sanitaires.
L’injonction générique « Il faut que cela fonctionne » se décline d’une manière particulière selon le contexte et la situation historique. À partir de mars 2020, l’impératif fonctionnel est devenu une injonction à concilier confinement et productivité. Une application, un logiciel, un environnement numérique fonctionnent s’ils permettent d’être tout aussi productif à la maison que sur le lieu de travail. Ou mieux : ils fonctionnent s’ils permettent de devenir plus productif à la maison qu’au travail. Fonctionner signifie trouver la distance optimale pour faire augmenter la productivité. Cela implique une série de considérations : il faut que l’employé·e puisse garder ses enfants à la maison, avoir une connexion Internet suffisamment rapide, posséder une machine assez puissante, limiter ses distractions, être joignable en tout temps.
Les entreprises ont vite compris les gains potentiels que ce modèle leur offrait. En premier lieu, on peut ainsi économiser sur les locaux et sur les infrastructures : c’est ce qu’on appelle l’ubérisation du travail ; ce sont les employé·es qui achètent et possèdent le matériel pour travailler (ordinateur, voiture, connexion, etc.). En second lieu, le temps de travail peut devenir plus souple et finalement plus étendu. Les employé·es restent à la maison, ce qui convertit en temps productif le temps auparavant passé dans les transports. Leur maison est devenue lieu de travail. La frontière entre vie de famille et travail est supprimée, tout, à la limite, devenant temps de travail. Il était certes nécessaire de s’assurer que ce temps soit rendu le plus productif possible. Deux stratégies ont été déployées pour ce faire : d’une part, convaincre les employé·es que cette situation était dans leur intérêt ; de l’autre, mettre en place des dispositifs de surveillance pour augmenter le contrôle de productivité à distance.
La première stratégie n’a pas été compliquée à réaliser : rapidement, l’avantage de ne pas devoir se déplacer est devenu clair pour une grande partie des travailleurs et des travailleuses : pas de perte de temps dans les transports, possibilité de gérer son temps de façon plus souple, de profiter davantage de sa famille, etc. Mais ces avantages se sont accompagnés d’une augmentation de l’injonction à la productivité. C’est là qu’une série de méthodes de contrôle dystopiques se sont mises en place.
Microsoft en premier, suivi par une série d’autres compagnies, a commencé à proposer des dispositifs de contrôle de la productivité des employé·es. Ainsi, des « solutions » logicielles comme WorkPuls sont nées : un « logiciel de traçage des employé·es qui te dit exactement comment tes employé·es utilisent leur temps21 ». Ou ActiveTrack : « Grâce aux informations sur la productivité d’ActivTrak, vous pouvez comprendre comment le travail est effectué, mettre en évidence les modèles de réussite et réduire les distractions pour faire de la place au travail qui compte le plus22. » On pourrait en citer des centaines : Desktime23, EmailAnalytics, Timely, Time Doctor, ProofHub, Everhour, TMetric, TrackingTime24…
Le but de ces applications est toujours le même : contrôler algorithmiquement le comportement des personnes pour faire en sorte de maximiser leur productivité. Devant ces systèmes, le Big Brother de 1984 devient presque ridicule : la finesse du contrôle que permettent ces applications va bien au-delà d’une simple caméra qui espionne ou d’un microphone qui écoute. Ces logiciels proposent de contrôler les applications ouvertes sur l’ordinateur de l’employé·e, de vérifier la direction de ses yeux pour être sûr qu’iel regarde bien les applications de travail, d’analyser attentivement tous ses mouvements faciaux pour être ensuite capable de les associer à des états de concentration ou de distraction et de produire des métriques très détaillées pour les employeurs. Aujourd’hui, Big Brother ne se limite pas à nous regarder de l’extérieur, il est désormais capable de voir dans notre âme, et tout cela non pas, comme dans le roman d’Orwell, pour garantir un consensus politique, mais pour maximiser la production.
Les mêmes systèmes d’hypercontrôle ont commencé à être largement utilisés dans le cadre de l’enseignement. Des logiciels comme Proctorio ont été adoptés par plusieurs universités pour surveiller les examens à distance. Proctorio permet aussi de tracer le mouvement des yeux, de monitorer les mouvements du corps, de contrôler l’ensemble des applications ouvertes sur l’ordinateur, et produit des rapports très précis sur le comportement de chaque étudiant·e en « détectant » ce qui peut faire penser à de la triche. Les étudiant·es ne peuvent aller aux toilettes sans que cela éveille un soupçon de fraude.
Le cas de la gestion des données sanitaires est un autre exemple étonnant. Les avantages d’une centralisation des données sanitaires et de leur gestion électronique sont évidents depuis plusieurs années : si on est capable de tracer avec précision les conditions physiques d’un nombre élevé de personnes, on est en même temps capable de prévenir des maladies, de mieux les soigner, parfois d’éviter des décès. Des données massives sur les conditions sanitaires peuvent être une richesse énorme pour la médecine qui pourra les utiliser afin de mieux comprendre le fonctionnement du corps humain, les causes des maladies, etc. Cet avantage s’accompagne évidemment d’un inconvénient : la vie privée est fortement menacée dans le cas d’une récolte généralisée d’informations sanitaires. Ce problème se pose depuis longtemps et a été à l’origine de l’adoption très lente et prudente des dossiers médicaux numériques. Dans ce cas, il s’agit uniquement de mettre à disposition de façon centralisée et numérique le dossier médical d’un·e patient·e (examens, historique, etc.) et non de récolter des informations supplémentaires. Une attention particulière était portée aux abus possibles. Or la pandémie a non seulement passé outre ce type de réticence, mais elle a également éclipsé les réflexions sur les enjeux de la gestion des données sanitaires.
Nous pouvons identifier deux questions primordiales qui ne semblent cependant plus se poser : la première est celle des limites et des droits d’accès à des informations sanitaires, la seconde celle des acteurs et des actrices chargé·es de la collecte de ce type d’informations. En premier lieu : quelles sont les conditions qui devraient permettre à quelqu’un d’accéder aux informations sanitaires d’une personne ? Jusqu’en 2020, il semblait évident que seul un médecin avait ce droit, et pas n’importe lequel : dans le cadre du soin, seuls les médecins avaient le droit d’accéder aux données sanitaires de leur patient·e. Avec la pandémie, les priorités ont changé : il est devenu important de pouvoir connaître la situation sanitaire des personnes afin de tracer les contagions et limiter la diffusion de la maladie. On a commencé à accepter que l’on puisse nous demander un passe vaccinal pour entrer dans un magasin, ou qu’on trace nos mouvements en cas de contagion. Cela peut se justifier en tant que mesure d’urgence et cela n’est pas resté en place à l’issue de la pandémie, mais il s’agit déjà d’un changement important de notre perception des enjeux de vie privée et de nos priorités éthiques et politiques. La seconde question est encore plus sérieuse : qui récolte ces informations ? La réponse a été : Apple et Google. En effet, les deux compagnies se sont immédiatement mobilisées pour collaborer avec les différents gouvernements et offrir des applications pour smartphone permettant de tracer le développement de la maladie et de vérifier le statut vaccinal des personnes. Or il faut bien comprendre un point : le problème ici est que deux acteurs privés prennent en main la gestion des données sanitaires, indépendamment de la manière dont sont conçues les applications qui le permettent. Le discours public semble s’être – rapidement – intéressé aux problèmes de vie privée liés à l’usage de ces applications et l’avoir résolu en disant que celles-ci permettaient l’anonymat. Cette idée – outre le fait de ne pas être complètement vraie – ne change rien au problème fondamental : les acteurs de la récolte, les protagonistes uniques de la gestion de la crise ne sont pas publics mais privés. Et, de surcroît, il ne s’agit pas d’un nombre élevé d’acteurs privés, différents selon les États, les situations, etc., mais de deux acteurs : Apple et Google. Cela signifie que ne pas avoir un smartphone – Google ou Apple – rend difficile de respecter des consignes, des règles et des lois publiques, et c’est justement ce qui arrive à notre Gregor Samsa qui, avec un téléphone qui bugge, ne peut répondre à une demande des forces de l’ordre.
Les applications pour tracer le virus ont souvent été développées avec les meilleures intentions. Que l’on prenne l’exemple des applications québécoise, italienne, française… les principes étaient d’essayer de rendre anonyme la personne qui les utilisait et de ne pas laisser de trace de son identité sur les serveurs. Mais le fait que ces applications fonctionnent sur iPhone ou Android – sans autre choix – implique que les données d’identité restent entre les mains de ces deux entreprises. Les smartphones sont des boîtes noires, leur code est propriétaire et ce qui se produit dans le cadre d’une application qui tourne sur ces systèmes d’exploitation est hors de contrôle des informaticien·nes qui développent ces applications. Ce que Google et Apple font avec nos données est un mystère et le restera tant que le code de leurs systèmes ne sera pas complètement ouvert et accessible. À cela s’ajoute une autre considération : ces dispositifs ne se limitent pas à collecter les informations sanitaires, ils recueillent depuis longtemps une série d’autres informations sur leurs propriétaires. Un smartphone sait tout de nos mouvements, il connaît l’historique précis de nos positions géographiques, de nos déplacements même au sein de notre maison, des heures auxquelles nous mangeons, nous dormons, nous travaillons ou nous nous reposons, il sait tout de nos amis, de nos contacts, de nos intérêts… et désormais de notre statut vaccinal et du fait que nous ayons ou non contracté la Covid-19. Certes, tout cela fonctionne parfaitement : c’est fonctionnel de n’avoir qu’à sortir son téléphone pour pouvoir entrer dans un magasin ou un cinéma. C’est facile d’utiliser des systèmes qui fonctionnent déjà bien ! Y aurait-il eu des alternatives possibles ? Bien sûr, mais plus lentes, moins performantes, moins fonctionnelles : créer des dispositifs ad hoc, les distribuer auprès de la population, mettre en place des systèmes de sécurité, s’assurer que chacun adopte le réflexe de porter ces dispositifs partout avec soi…
Je répète : le fait que des systèmes de ce type puissent être acceptés dans nos sociétés aurait semblé impossible il y a tout juste quatre ans. L’impératif fonctionnel s’est naturalisé à tel point que nous semblons désormais prêt·es à lui sacrifier toute autre considération. Ce besoin de productivité et d’efficacité est devenu si omniprésent qu’il ne semble même plus être un modèle parmi d’autres : il se présente comme le seul possible, le seul rationnel, le seul acceptable. Il est complètement transparent. Si quelqu’un, comme notre Gregor Samsa, volontairement ou non, ne respecte pas cet impératif, il devient inacceptable socialement et humainement.
Est-il possible de questionner cette situation ? Est-il possible de voir autrement ce qui ne fonctionne pas ? Est-il possible de faire un éloge du bug ?
1. Ignacio MATTE BLANCO, The Unconscious as Infinite Sets. An Essay in Bi-Logic, Londres, Karnac Books, 1998 [1975].
2. Ibid., p. 48.
3. Francesco ORLANDO, Les Objets désuets dans l’imagination littéraire, Paris, Classiques Garnier, 2013 [1993].
4. Milad DOUEIHI, La Grande Conversion numérique, suivi de Rêveries d’un promeneur numérique, traduit par Paul Chemla, Paris, Seuil, 2011.
5. Paul VIRILIO, Cybermonde. La politique du pire, Paris, Textuel, 2010.
6. Henry FORD, My Life and Work, New York, Garden City, 1922.
7. Sur cette idée et sur la notion de « délivrance », voir Aurélien BERLAN, Terre et liberté. La quête d’autonomie contre le fantasme de délivrance, Saint-Michel-de-Vax, La Lenteur, 2021.
8. Hartmut ROSA, Social Acceleration. A New Theory of Modernity, New York, Columbia University Press, 2013, p. 69.
9. Henri LEFEBVRE, La Production de l’espace, Paris, Anthropos, 1974.
10. Maurizio FERRARIS, Mobilisation totale, traduit par Michel Orcel, Paris, PUF, 2016.
11. Giuseppe CAVALLARI, « Performativité de l’être-en-ligne. Pour une phénoménologie de la présence numérique », thèse de doctorat, université de technologie de Compiègne/université de Montréal, 2018.
12. Maurizio FERRARIS, Mobilisation totale, op. cit.
13. Voir Julien DEHUT, « En finir avec Word ! Pour une analyse des enjeux relatifs aux traitements de texte et à leur utilisation », L’Atelier des savoirs, 23 janvier 2018.
14. Thomas J. BERGIN, « The origins of word processing software for personal computers : 1976-1985 », IEEE Annals of the History of Computing, vol. 28, no 4, octobre 2006, p. 32-47.
15. Alain SAULNIER, Les Barbares numériques. Résister à l’invasion des GAFAM, Montréal, Écosociété, 2022.
16. Luca PALTRINIERI, « Social distancing », Sens public, mars 2020.
17. FORRESTER CONSULTING, « The total economic impact™ of Microsoft Teams », Forrester Consulting, 2019.
18. Kari PAUL, « “Zoom is malware” : why experts worry about the video conferencing platform », The Guardian, 2 avril 2020.
19. Matthew ROZSA, « Zoom capitulates to Chinese censorship, shuts down activist accounts », Salon, 15 juin 2020.
20. Colleen FLAHERTY, « Zoom draws a line », Inside Higher Ed, 24 septembre 2020.
21. « Employee tracking software that tells you exactly how your employees use their time », workpuls.com.
22. « With ActivTrak’s productivity insights you can understand how work gets done, spotlight successful patterns and reduce distractions to make space for the work that matters most », activtrak.com.
23. desktime.com
24. Jayson DEMERS, « 10 employee productivity tracking software tools every manager needs to be using », EmailAnalytics, mars 2019.
Nous avons tou·tes un jour rêvé d’être Aladdin. Nous avons tou·tes un jour rêvé de trouver une lampe magique, de la frotter par hasard et d’en voir sortir un génie omnipotent prêt à exécuter nos ordres et à exaucer tous nos désirs.
C’est là la promesse alléchante des GAFAM : nos smartphones, nos tablettes et nos ordinateurs sont devenus des lampes magiques, qui exaucent le moindre de nos désirs sans que nous ayons même besoin de le formuler.
Et, en effet, ce qui est remarquable – ou devrait-on plutôt dire « génial » – avec le génie de la lampe comme avec nos smartphones, c’est que la réalisation de nos désirs devient extrêmement simple, qu’elle ne demande aucune réflexion ni aucune compétence : tout est intuitif. Il suffit de frotter la lampe et le génie apparaît. Il n’y a rien à apprendre, rien à comprendre, rien à faire en fin de compte. La magie de la lampe est remarquable car elle ne demande même pas d’apprendre l’art de la magie.
Que demanderais-je ? Voilà la seule question à se poser. Ou peut-être même pas ?
Dans certaines versions de l’histoire – pas dans le texte des Mille et une nuits d’Antoine Galland, mais notamment dans le dessin animé de Disney –, le génie n’accorde que trois souhaits – une tradition qui vient d’autres contes arabes. Cette variante est intéressante parce qu’elle souligne l’importance des désirs que l’on exprime : ils sont limités, il est nécessaire de bien réfléchir avant de parler, il faut faire attention à ne pas demander quelque chose qui pourrait se retourner contre nous-mêmes, comme ce qui arrive au roi Midas ou à Jafar dans le film de Disney. Des efforts doivent être faits pour identifier les bons désirs. Il faut s’analyser en profondeur afin de savoir ce que nous voulons par-dessus tout, pour discerner nos véritables désirs d’autres besoins passagers ou velléités superficielles.
Mais restons sur la version de Galland, dans laquelle il n’y a aucune limite, car celle-ci correspond davantage à la promesse des GAFAM : désirs illimités, à la réalisation simple et intuitive. Cet Aladdin – à différence du héros rusé de Disney – est un bon à rien, qui n’a aucun talent et surtout aucune vision pour son propre futur. Il perd son temps et n’a aucune envie de s’appliquer à quoi que ce soit, au point d’en faire mourir de douleur son père tailleur, qui essayait de lui apprendre un métier. Aladdin ne sait donc pas ce qu’il veut ou, mieux, il ne veut strictement rien ; il ne désire rien.
C’est donc à quelqu’un qui ne désire pas, qui n’a rien à demander, qui n’a pas de besoins à exprimer, voire qui n’a jamais réfléchi à ses besoins, que le génie apparaît. Il lui apparaît sans qu’Aladdin l’ait cherché, sans qu’il l’ait voulu : c’est le méchant « magicien africain » (c’est ainsi que l’appelle Galland) qui cherche la lampe et utilise le garçon pour l’obtenir. Autre détail important : Aladdin n’a rien de particulier, rien d’exceptionnel. Le magicien sait qu’il ne lui est pas permis de prendre la lampe lui-même, il doit donc trouver une personne quelconque pour le faire à sa place. C’est ainsi qu’il choisit Aladdin : parce qu’il est un bon à rien et que le magicien pense – à juste titre – qu’il se fera facilement manipuler. Aladdin n’a donc aucun mérite. Le magicien, au contraire, a une connaissance profonde : grâce à son art de la magie, il a découvert l’existence de la lampe et met tout en œuvre pour s’en emparer. Il finit par enfermer Aladdin dans la grotte où il l’a envoyé chercher la lampe : c’était son plan dès le début. Ce qu’il n’avait pas imaginé, c’est que le jeune homme ne lui aurait pas, avant, transmis la lampe. Mais si ce dernier garde la lampe, ce n’est pas par astuce : il a les mains pleines de pierres précieuses et il ne peut l’attraper. Encore une fois : il n’a aucun mérite, aucune vision, aucune volonté particulière.
La première apparition est celle du génie de l’anneau : il se trouve dans la bague que le magicien a donnée à Aladdin pour le convaincre de descendre dans la grotte. Aladdin frotte l’anneau par erreur et, quand le génie apparaît et lui demande ce qu’il veut, il répond d’instinct, sans réfléchir. Plus qu’un vœu ou un souhait, il s’agit d’un besoin vital. Il est enfermé dans une grotte depuis trois jours : s’il ne sort pas, il meurt de faim, donc il faut qu’il mange.
On sait que le génie de la lampe est, lui aussi, découvert par hasard, au moment où la mère d’Aladdin veut nettoyer la lampe pour la vendre. Toutes les requêtes faites par Aladdin révèlent un manque total de réflexion et de volonté : il demande à manger quand il a faim, il cherche à satisfaire un besoin immédiat. C’est très tard dans l’histoire, et à cause de son amour pour la princesse, que certains souhaits deviennent un peu plus précis. Mais, à bien réfléchir, le jeune homme laisse toujours le génie décider pour lui : il lui demande les plus beaux vêtements afin d’obtenir l’admiration du Sultan et c’est le génie qui les choisit, Aladdin n’ayant aucune idée de ce que peut être un « beau vêtement ». Il n’est même pas capable de comprendre la valeur d’un plat en argent – le génie lui en donne plusieurs et il les vend à un soixante-dixième de leur valeur jusqu’à ce qu’un honnête bijoutier l’éclaire sur son erreur – ni de pierres précieuses – qu’il a prises pour des bouts de verre coloré.
La lampe magique est donc simple et intuitive d’utilisation, au point qu’un sot peut s’en servir, même sans savoir ce qu’il veut. En lisant l’histoire, on a l’impression que, finalement, on ne peut vouloir qu’une chose, que ce que l’on désire est toujours évident : devenir riche, épouser la princesse, avoir le plus beau palais, les plus beaux vêtements, les plus beaux bijoux. Le génie semble réaliser cette seule volonté possible. C’est tellement intuitif qu’il n’y a même pas besoin de le dire ou d’y penser. La meilleure des vies possibles est celle choisie par le génie, ce qui est beau est établi par le génie, ce qui est précieux est estimé par le génie. Aladdin vit la vie que le génie a décidée pour lui.
C’est simple et c’est intuitif. Ces deux adjectifs sont aussi au centre de tout notre imaginaire technologique et du discours des grandes entreprises numériques. La communication des GAFAM regorge de ces deux adjectifs qui s’imposent comme une nécessité évidente : il faut que ce soit simple et intuitif, car fonctionner signifie finalement ne pas poser de questions. Ainsi, l’iPhone 14 simply works ; « L’une de nos priorités était que cela reste intuitif », dit le communiqué de presse annonçant la sortie d’une montre Apple ; « Il n’y a pas besoin d’experts techniques pour déployer le bot. C’est très simple, rapide et intuitif », annonce Microsoft en proposant un chatbot pour répondre aux questions sur la Covid-19.
Et encore : « Compte tenu de l’utilisation active de Siri sur des centaines de millions d’appareils dans le monde, nous nous réjouissons de lancer cette nouvelle offre qui propose une expérience musicale intuitive, par le simple usage de la voix, et qui rend Apple Music encore plus accessible. » Même l’expérience musicale est « intuitive » – le sens de cet adjectif n’est ici pas très clair…
Avec un iPhone – ou avec n’importe quelle « solution » GAFAM – dans les mains, comme avec une lampe magique, nul besoin d’exprimer ses désirs qu’ils sont déjà réalisés, pas la peine de penser au problème que la solution est déjà trouvée.
Mais si les génies ne faisaient que réaliser leurs propres désirs ? Si, au lieu d’être, comme ils le disent, les esclaves du propriétaire de la lampe, ils en étaient les véritables maîtres ? Si ces génies n’étaient que des êtres rusés, capables de faire faire aux propriétaires de ces lampes tout ce qu’ils souhaitent en leur faisant croire qu’ils réalisent leurs volontés ?
Pour comprendre la rhétorique des GAFAM et le sens que leur discours fait acquérir aux adjectifs « simple » et « intuitif », il faut d’abord s’arrêter sur la notion de « numérique », qui est loin d’être évidente.
La langue française aime les substantivations : des adjectifs peuvent facilement être transformés en substantifs sans que cela semble poser de problème de sens. Ainsi, un adjectif à la signification assez précise et technique peut devenir un nom : « le numérique ». Dans d’autres langues, c’est plus délicat ; l’anglais, par exemple, tolère plus difficilement ce type de processus. Cependant, même en anglais, l’expression the digital commence à être utilisée. Or la substantivation a des implications sémantiques très particulières : elle produit un objet à partir d’une caractéristique ; à partir d’un attribut, d’une qualité, on crée une chose. Une pluralité d’objets qui partagent une seule caractéristique sont réunis ensemble pour former un nouvel objet.
Que se passe-t-il au niveau du sens lors du passage de l’adjectif « numérique » au nom « le numérique » ? Quelle est la signification originelle de ce terme et quel en est le sens aujourd’hui dans notre imaginaire collectif ? Et surtout : quelles sont les implications sociales, politiques et éthiques de cette histoire du concept ?
L’adjectif « numérique » se réfère à une manière spécifique de représenter le réel : avec justement une série discrète de nombres. En ce sens, « numérique » s’oppose à « analogique » : une représentation continue du réel, « analogue » à la réalité. La numérisation est donc la transformation du réel en une série discrète de chiffres.
Afin de mieux comprendre ce type de « représentation du réel », il est nécessaire de situer la numérisation à l’intérieur du processus plus global de modélisation. La modélisation consiste à créer un modèle pour représenter quelque chose. Tout peut être modélisé : un objet, un phénomène, un concept, un sentiment, une action… On peut modéliser une course de voitures, une discussion entre deux personnes, un livre, une maison ou même l’amour.
Oui, même l’amour, qui semble pourtant être une notion échappant à toute quantifiabilité. Car modéliser ne veut pas seulement dire quantifier, cela signifie d’abord décrire et seulement ensuite décider quels aspects de la description peuvent être quantifiés, de quelle manière et comment nous pouvons les calculer.
Le processus de modélisation est complexe et les différentes étapes qui le composent ne sont pas toujours bien définies et claires. Mais il est utile d’identifier trois étapes fondamentales que l’on peut appeler, avec Jean-Guy Meunier1, modélisation représentationnelle, modélisation fonctionnelle et modélisation physique.
La première étape consiste à observer l’objet que l’on veut modéliser, en définir les contours et en donner une description. La deuxième consiste à transformer cette description en une série d’éléments atomiques quantifiés et une série de fonctions qui les relient. La troisième étape consiste à implémenter le modèle fonctionnel en un modèle physique capable de le calculer.
Nous pouvons nous arrêter sur le cas complexe de l’amour afin d’identifier les enjeux de la modélisation. Dans « Hang the DJ », un épisode de la série Black Mirror (2017), il est question d’une application de rencontres très performante qui gère l’amour dans une société future imaginaire. L’application associe deux personnes – sur la base de critères inconnus – pendant une période déterminée qui peut aller de quelques heures à quelques années. Les couples sont tenus de respecter la prescription de l’application qui promet, après avoir monitoré l’ensemble des relations, de leur attribuer une âme sœur avec un taux de succès de 99,8 %. La question que se posent les personnages est de savoir quels sont les critères de l’application, sur quoi sont fondées les associations, le temps destiné à chaque relation et quels seront les paramètres pris en compte lors du « match » final. Les deux protagonistes sont associés au début de l’épisode puis séparés. Quand ils sont associés une deuxième fois, ils décident de ne pas respecter la date de séparation choisie par l’application, d’aller contre le système et de rester ensemble. On découvre dans la scène finale les principes de l’application : elle simule 1 000 fois la situation de rencontre et le taux de match correspond au nombre de fois où le couple s’est rebellé contre le système essayant de le séparer : dans ce cas, 998 fois sur 1 000, ce qui donne un « match » de 99,8 %.
Nous avons ainsi une modélisation de l’amour, un modèle représentationnel qui décrit ce qu’est ce sentiment. Ici, l’amour est décrit comme une force capable de s’opposer à toutes les autres. Cette idée de départ est le principe de tout, c’est l’idée la plus importante : la façon de définir, de comprendre, d’interpréter l’amour. Plus précisément, l’amour est défini comme le désir pour lequel une personne est capable de mettre en question tous ses autres désirs et même tous ses autres besoins, toutes ses croyances, tous ses principes. Cette définition est ce qui permet de distinguer ce qui est amour de ce qui ne l’est pas : une personne sera amoureuse quand, devant n’importe quel type d’obstacle, elle mettra la volonté d’être avec son aimé·e en premier. Ainsi, on sera prêt à aller contre les règles sociales, les principes moraux, les interdits, l’opinion des autres : rien ne pourra passer devant le désir pour l’autre.
Évidemment, il s’agit d’une des définitions possibles de l’amour, un des multiples modèles représentationnels qui peuvent décrire cette notion. Le modèle représentationnel implémente de véritables visions du monde, des points de vue éthiques précis. Il serait possible de fournir des modèles complètement différents. On pourrait, par exemple, s’amuser à analyser, formaliser et implémenter tous les modèles d’amour que propose Platon dans les deux dialogues qui portent sur ce concept, le Phèdre et le Banquet. Notamment, dans un des discours du Phèdre, on trouve une idée de l’amour très proche de celle décrite dans Black Mirror. Socrate, en faisant un jeu de mots, parle de l’amour (en grec, Éros) comme de la plus puissante des forces (« force » en grec se dit rome) : il plaisante en déclarant que le mot « éros » vient de « rome » car l’éros est la force par excellence. On pourrait ensuite prendre une définition radicalement différente en se fondant sur l’idée d’amour telle qu’elle est définie, toujours par Socrate, dans le Banquet. Dans ce cas, l’amour est défini comme un manque : la chance pour une personne de tomber amoureuse d’une autre serait déterminée par des différences, car l’amour est, selon Socrate, le désir de quelque chose que l’on ne possède pas.
Ou encore, on pourrait prendre une autre définition dans le Phèdre : l’amour est un désir de beauté ; ou plutôt le considérer (toujours dans le Phèdre) comme une recherche de la transcendance dans l’autre, ou finalement – ce qui arrive dans plusieurs applications de rencontres et qui se retrouve aussi dans l’une des définitions du Banquet – penser l’amour comme une forme de compatibilité due à une série de caractéristiques communes, goûts partagés, visions du monde semblables. Dans ce dernier cas, on pourrait continuer en spécifiant de façon précise chaque caractéristique possible et en pondérant ces caractéristiques. Ce dernier modèle représentationnel – évidemment très particulier et très loin de celui proposé dans « Hang the DJ », où la « compatibilité » entre les deux personnes n’est absolument pas prise en compte – est explicité, notamment, dans le brevet de Tinder2 : dans ce document sont spécifiées et décrites – en langage naturel – les règles qui permettent d’établir à quel point deux profils sont compatibles et donc à quel point deux personnes auront des chances de constituer ou non un « match ». En lisant le brevet, on se rend compte qu’il explicite et décrit une série de caractéristiques pour chaque personne : le niveau d’études, l’âge, la situation économique, l’intelligence. Chacune de ces caractéristiques fait l’objet d’un modèle représentationnel. Concrètement, on décrit une idée particulière de l’amour – qu’on utilise ce terme ou non – comme compatibilité, et une idée particulière de compatibilité fondée sur une série de valeurs culturelles. Dans le cas de Tinder, cette représentation est clairement et fortement sexiste3 : dans le brevet, par exemple, est affirmé explicitement qu’un homme plus âgé, plus riche et avec un niveau d’études plus élevé pourra être compatible avec une femme plus jeune, moins riche et avec un niveau d’études plus bas.
Comme on modélise l’amour, on peut modéliser n’importe quel autre concept, idée ou événement. Prenons un exemple très courant : la recherche d’une information « pertinente ». Nous pouvons produire un modèle représentationnel qui décrit cette activité comme suit : nous avons une série de documents et un individu veut trouver le document le plus pertinent pour lui. Pour ce faire, il fournit une série de mots qui feront l’objet de sa recherche. Sur la base de cette série de mots, il faudra d’abord sélectionner tous les documents qui contiennent ces mots. Ensuite, nous les classerons du plus pertinent au moins pertinent. Le document le plus pertinent sera celui qui est le plus souvent cité par les autres documents du corpus. Cette modélisation est celle qui est à la base du Science Citation Index, développé en 1964 par Eugène Garfield4. C’est en effet une interprétation particulière de la notion de pertinence qui porte une vision du monde spécifique : le fait qu’un document soit cité garantit sa qualité et son importance, et on présuppose que le fait que d’autres aient cité ce document détermine l’intérêt de celui-ci et donc aussi sa pertinence pour la personne effectuant la recherche. Cette idée est implémentée dans l’algorithme original de Google : le PageRank5. Bien évidemment, ce modèle n’est pas le seul possible pour interpréter la pertinence d’un document. Par ailleurs, le modèle utilisé pour décrire la situation de la recherche de documents est aussi très particulier : nous avons parlé de rechercher une série de mots, alors que nous aurions pu parler de recherche par auteur ou autrice, par titre, par date, par mots-clés, en nous référant plutôt à un modèle de recherche documentaire de type bibliothécaire. On pourrait ensuite produire un modèle qui décrive la pertinence sur la base de l’auteur ou de l’autrice du document ou de ses diplômes, ou encore de son style, du nombre de fautes d’orthographe ou de sa date de publication.
Il est important de souligner ici encore la multiplicité des modèles représentationnels possibles : chaque chose, chaque notion, chaque situation, chaque événement peuvent être interprétés de plusieurs manières et chaque interprétation peut être à la base d’un modèle représentationnel particulier qui se présentera comme une véritable vision du monde, structurée par des valeurs éthiques, politiques, morales, culturelles…
Les descriptions, très sommaires, des modèles représentationnels de l’amour et de la recherche de documents que nous venons de citer sont loin d’être exhaustives. La modélisation représentationnelle doit rentrer dans les détails, spécifier le sens de chaque concept et de chaque mot utilisés. Elle doit prendre en compte un grand nombre d’exceptions, de règles, de cas particuliers. Tout cela se fera en revanche dans le langage naturel, avec des descriptions semblables à celles données dans les exemples précédents.
À partir de la modélisation représentationnelle, il est possible de passer à la deuxième étape : la modélisation fonctionnelle. Il s’agit maintenant de transformer les descriptions données lors de la première étape en une série d’éléments atomiques quantifiables et l’ensemble des règles qui les relient en des fonctions calculables. Reprenons nos exemples pour clarifier ce passage.
Dans l’application de « Hang the DJ », il s’agit de simulations. On a ainsi des entités atomiques et discrètes, les mondes simulés, et une variable de succès ou d’échec. Le modèle fonctionnel est très simple : chacune des 1 000 simulations peut avoir valeur 1 (si le couple se rebelle) ou 0 (si le couple respecte la prescription du système). Le calcul est simple : 998 : 1000 x 100 = 99,8 %. Bien évidemment, dans cette description, nous sommes en train de faire abstraction des autres modèles nécessaires pour mettre en place les simulations, des modèles qui décriront ce qu’est le monde, ce qu’est une personne particulière, comment fonctionnent les interactions, etc. Mais ces modèles ne concernent pas vraiment la définition de l’amour, qui est fondamentalement fondée sur le résultat des simulations et non sur leur fonctionnement interne. Ce que nous montre la modélisation fonctionnelle, ici, c’est que le modèle représentationnel est intéressant et relativement riche d’un point de vue théorique et, en même temps, très simple d’un point de vue fonctionnel.
Dans le cas de l’amour tel que décrit dans le modèle représentationnel de Tinder, il faudra créer des symboles pour représenter chaque personne et avoir une liste de caractéristiques avec des points. Par exemple : âge = 27 ans, salaire = 50 000 $, études = 5 (après avoir transformé en chiffre chaque niveau, par exemple : brevet = 1, bac = 2, licence = 3, maîtrise = 4, doctorat = 5). Il sera ensuite possible d’établir des fonctions qui calculent la « compatibilité » entre deux profils, en comptant la différence de chaque caractéristique, en la pondérant et en donnant un résultat final. Évidemment, le choix des paramètres dépend de la modélisation représentationnelle : c’est uniquement leur implémentation mathématique qui se joue dans le modèle fonctionnel.
La modélisation fonctionnelle est l’étape qui implique une approche numérique. C’est lors de cette étape que les différents éléments du réel, décrits dans la modélisation représentationnelle, sont transformés en symboles discrets et que leurs relations sont exprimées avec des fonctions calculables. Cette deuxième étape implique la « numérisation ». En effet, la modélisation représentationnelle pourrait être suivie par une modélisation analogique – une maquette ou une représentation performée comme dans une scène de théâtre. Dans le cas de l’amour, on pourrait simuler une rencontre avec deux acteurs ou actrices. Le choix du numérique implique au contraire de transformer le modèle représentationnel en chiffres et en fonctions.
Passons à la dernière étape : la modélisation physique. Elle consiste à implémenter la modélisation fonctionnelle en un système physique qui soit capable de la calculer : ce qu’on peut appeler une machine de Turing réelle. Par exemple, implémenter l’ensemble des entrants en une représentation électronique où chaque symbole et chaque chiffre seraient transformés en une série d’impulsions électriques et où les fonctions pourraient être calculées automatiquement. Concrètement, on pourrait implémenter la représentation fonctionnelle de plusieurs manières : en réalisant des calculs avec nos doigts ou avec des billes, à l’aide d’une machine mécanique qui transformerait chaque symbole en une série de trous dans des rubans, en l’implémentant dans un système quantique… C’est alors qu’apparaît l’ordinateur – ou le smartphone, ou la tablette –, dispositif sur lequel, de nos jours, se fait le plus souvent la modélisation physique. Cette dernière étape n’a en soi rien de numérique, mais souvent, dans le langage courant, on fait une confusion entre modélisation fonctionnelle et modélisation physique, et on finit par assimiler le numérique à l’électronique.
Il faut préciser que ces trois étapes de la modélisation ne sont pas étanches et empiètent souvent l’une sur l’autre. Il est fréquent de commencer avec un modèle représentationnel vague qui sera ensuite précisé au moment de la production du modèle fonctionnel. Il est aussi fréquent que, au moment de l’implémentation physique, on se rende compte que le modèle fonctionnel n’est pas assez efficace (parce qu’il demande une trop grande force de calcul, par exemple) et qu’on soit amené à le revoir. Dans la réalité du développement informatique, il y a donc des ajustements continus entre ces trois passages et le modèle représentationnel est souvent profondément conditionné par les deux autres, jusqu’à devenir quelque chose de très différent de ce qu’on avait initialement imaginé. L’empiétement entre les différents niveaux de modélisation est fondamental, nous le verrons dans le prochain chapitre, pour comprendre la matérialité des environnements numériques : l’implémentation physique n’est pas la fin du processus, où on inscrirait des idées abstraites dans quelque chose de matériel, mais elle influence le processus dès le départ.
Si la dimension numérique se réfère en particulier à la deuxième étape du processus de modélisation, peut-être aussi à cause de cette fluidité relative entre les trois étapes, on finit, avec une sorte de métonymie, par utiliser ce mot pour définir l’ensemble du processus. On commence à utiliser le mot « numérique » pour signifier un type particulier d’implémentation physique : l’électronique. Puis on inclut aussi la modélisation représentationnelle. « Numérique » devient un mot à l’usage élargi, qui n’est plus directement lié à sa signification technique et qui commence à avoir une signification culturelle globale. Comme le dit Milad Doueihi6, « le » numérique devient une culture. Il absorbe toutes les interprétations du monde qui se produisent dans les modélisations représentationnelles.
Voilà ce qui se produit lors de la substantivation de l’adjectif : une qualité particulière concernant une étape de la modélisation du monde commence à signifier tout le processus et est ensuite utilisée pour qualifier l’ensemble des phénomènes qui se produisent dans le cadre des modélisations. Pourtant, les modélisations possibles sont très nombreuses et potentiellement hétérogènes. Peut-on réellement parler « du » numérique au singulier ? Quels sont les risques et les problèmes dérivant de cette unification de réalités différentes ?
Le génie de la lampe fait un peu la même chose : il cache dans l’opacité d’une boîte fermée – quelle meilleure métaphore que la lampe pour indiquer l’impossibilité de comprendre ce qui se passe à l’intérieur – une série de choix théoriques, de visions du monde, de valeurs. Aladdin demande uniquement à avoir des beaux vêtements, sans définir ce qu’est un beau vêtement. Le génie a une modélisation représentationnelle précise et particulière de ce qu’Aladdin demande et il réalise sa propre vision, Aladdin n’en ayant pas lui-même. Mais tout cela passe inaperçu parce qu’il n’y a qu’une lampe – comme il semblerait qu’il n’y ait qu’un numérique.
On pourrait imaginer qu’Aladdin trouve une multiplicité de lampes et que chacune cache un génie ayant des idées, des goûts et des caractéristiques différentes. Chacun interpréterait et réaliserait les désirs à sa façon. Il y aurait « des » lampes et non une lampe.
En ce qui concerne « le » numérique, cette multiplicité semblerait évidente, si on est conscient de la multiplicité de visions du monde qu’on peut décrire avec des modèles fonctionnels différents.
Mais le mot « numérique » est un adjectif substantivé utilisé au sens métonymique et cet usage a tendance à écraser la multiplicité. Il ne sera pas le premier de la langue française. Pensons à un exemple semblable : on parle bien des blonds ou des roux pour signifier l’ensemble des personnes qui ont les cheveux blonds ou roux. Une qualité particulière, un attribut qui ne concerne qu’une partie spécifique du corps de la personne sont utilisés pour définir la personne en tant que telle. Il s’agit bien d’utiliser une partie pour signifier le tout : une métonymie. Mais, dans le cas des blonds ou des roux, on utilise l’adjectif métonymique au pluriel. Dans le cas du numérique, on met ensemble toutes les réalités différentes partageant la qualité d’être passées par une modélisation fonctionnelle et cela a plusieurs implications.
Parler du numérique au singulier revient à suggérer une certaine uniformité qui caractériserait l’ensemble des environnements, des technologies, des applications et des approches qui partagent l’attribut numérique. Si l’on prend à la lettre la signification du mot, on devrait croire que le fait de passer par une modélisation fonctionnelle est suffisant pour déterminer une uniformité. Cela impliquerait que tout ce qui est numérique, par le fait d’avoir été modélisé, partage des caractéristiques et des propriétés très similaires et très importantes, ainsi l’ensemble de toutes ces « choses » peut être pensé comme un tout uniforme. Or cette idée est fausse pour une raison fondamentale : s’il est vrai que la modélisation fonctionnelle implique certaines caractéristiques, ces dernières ne correspondent absolument pas à ce que nous entendons normalement par le terme « numérique ». Comme nous l’avons vu, il y a un écart très important entre le sens propre du mot « numérique » et son usage, car ce dernier fait référence à l’ensemble du processus de modélisation en incluant surtout un type spécifique de modélisation physique : l’électronique. En se concentrant exclusivement sur la modélisation fonctionnelle et en essayant de tracer les caractéristiques du numérique dans ce sens plus propre, on remarque plusieurs divergences par rapport au sens commun du mot « numérique » tel qu’il est employé aujourd’hui. Essayons de les identifier.
En premier lieu, la modélisation fonctionnelle n’a rien de nouveau, ni de récent. Le mot « numérique », dans son usage courant, semble faire référence à un phénomène qui s’est développé depuis quelques années ou, tout au plus, depuis quelques décennies. Or, si on se concentre sur son sens strict et donc sur ce qui se produit lors de la modélisation fonctionnelle, le numérique existe depuis toujours, conditionne et informe depuis des siècles, voire des millénaires, notre culture. Pour donner quelques exemples : l’école de Pythagore (nous sommes au VIe siècle avant J.-C.) dédiait la plupart de ses efforts à la « numérisation » du monde. Que l’on pense aux travaux sur le son : Pythagore essayait de trouver des fonctions permettant de rendre compte des rapports harmoniques entre les sons et, à partir de ces fonctions, tentait de comprendre des lois mathématiques – fonctionnelles donc – qui puissent modéliser l’univers. Les pythagoriciens avaient déjà remarqué les problèmes fondamentaux de l’approche numérique : le premier étant le rapport entre discret et continu. Le monde réel est continu et la modélisation fonctionnelle demande une discrétisation de ce continu. Les travaux et les réflexions dans ce domaine ont occupé un très grand nombre de penseurs et de penseuses jusqu’à l’époque moderne puis contemporaine. On peut citer Gottfried Wilhelm Leibniz et l’invention du calcul infinitésimal, ou Johannes Kepler et Isaac Newton avec leurs travaux pour mathématiser la physique, ou encore Blaise Pascal et le calcul des probabilités qui consiste en une véritable numérisation du hasard. Or ces expériences et ces approches semblent trop loin de « notre » numérique. Quand nous parlons « du » numérique, nous ne sommes pas prêt·es à y inclure les études sur l’harmonie de Pythagore.
Ce n’est donc pas dans son sens propre que « le » numérique peut faire référence à quelque chose d’uniforme et d’homogène. Il est nécessaire d’analyser si, dans son sens plus large, ce terme peut signifier quelque chose de plus facilement identifiable. Nous avons dit que le mot « numérique » s’éloigne, dans son usage, du sens propre et commence à inclure les autres moments de la modélisation. En premier lieu, on identifie le numérique avec une modélisation physique particulière : l’électronique. Il est important de souligner une autre distinction : celle entre informatique et électronique. Avec le mot « informatique », on fait référence au passage de la modélisation fonctionnelle à la modélisation physique. Concrètement, l’informatique est la science qui s’occupe de passer d’un modèle fonctionnel, qui est « calculable », à un modèle physique, qui est « computable ». La différence entre calculabilité et computabilité réside dans le fait que la première se réfère à la possibilité d’une fonction d’être calculée alors que la seconde renvoie à la capacité d’une machine à réaliser le calcul automatiquement. Alan Turing7 a démontré en 1936 que toutes les fonctions calculables sont aussi computables : cela signifie qu’il est toujours possible de passer d’un modèle fonctionnel à un modèle physique. Mais ce modèle physique peut être de différents types : il peut par exemple être mécanique. Dans ce cas, on aura bien affaire à de l’informatique, mais non à de l’électronique. Or il est évident que l’électronique a joué un rôle fondamental dans le développement de l’informatique : elle a permis la vitesse de calcul, la miniaturisation des dispositifs, leur accessibilité pour un large public, leur diffusion… C’est pour cette raison que, lorsqu’on parle de numérique, on fait finalement référence à quelque chose qui, après avoir été modélisé du point de vue fonctionnel, est implémenté dans un dispositif physique électronique. Cela permet de limiter la signification du terme aux dernières décennies. La diffusion large des dispositifs électroniques est un phénomène récent : elle se produit à partir de la fin des années 1970.
Pris dans ce sens, le mot « numérique » fait finalement davantage référence à une époque et à une situation socioéconomique qu’à une série d’objets, de technologies ou d’applications. « Le numérique » est l’ensemble des phénomènes socioculturels qui ont caractérisé nos sociétés à partir de la large diffusion des dispositifs électroniques. Ces phénomènes se sont particulièrement intensifiés à partir de la fin des années 1990 avec la généralisation des ordinateurs dans les foyers, la naissance du Web et l’explosion des connexions Internet. C’est en effet à partir du début des années 2000 que l’on peut véritablement commencer à parler d’une « culture numérique ».
L’expression « le numérique » fait donc référence à quelque chose de très large et de très vague. Il peut être comparé à des expressions utilisées pour se référer à des époques : l’époque moderne, par exemple. « Le numérique » serait finalement une expression pour faire référence à notre époque historique, telle qu’elle émerge à partir du début des années 2000. Cette « époque » serait caractérisée par une série d’aspects qui touchent à toutes les sphères sociales : politique, économique, culturelle, technologique… Mais, dans ce sens large, l’expression « le numérique » fait forcément référence à une panoplie très hétérogène de pratiques : tout est finalement numérique.
Alors, pourquoi avons-nous ce sentiment de relative uniformité du phénomène numérique ?
Il est évident que l’un des traits caractéristiques de cette « époque numérique » est l’omniprésence du processus de modélisation. Revenons donc un instant aux étapes de cette modélisation. Nous avons vu que tout peut être modélisé et que le résultat final dépend de l’ensemble des trois étapes. Le modèle représentationnel est probablement celui où l’interprétation qui fonde le modèle est la plus explicite. Tout peut être modélisé, mais, surtout, tout peut être modélisé de plusieurs manières très différentes.
Nous parlions par exemple de l’amour ou de la pertinence, et de la modélisation dont ces deux notions font l’objet dans le cadre de deux applications très largement utilisées : Tinder et Google Search. Il est évident que l’interprétation que Tinder donne de l’amour et des rapports de couple n’est pas la seule possible et, surtout, qu’elle n’est pas neutre. On peut dire la même chose des critères de pertinence selon Google. Mais la diffusion de ces modèles est telle que nous nous y habituons progressivement jusqu’à ne plus les remarquer : ils deviennent transparents.
Ce phénomène peut être appelé « naturalisation8 » : une vision du monde, une opinion, une interprétation devient tellement courante et commune que nous finissons par oublier qu’elle est « une » vision du monde et non pas « le » monde en tant que tel. La pertinence de Google Search est « une » version de la pertinence et il pourrait y en avoir bien d’autres, mais nous nous habituons tellement à cette vision que nous considérons qu’elle est « la » pertinence, la seule possible, la seule qui soit « juste ». Toutes les autres visions sont de fait écartées comme si elles étaient des aberrations. Il n’est pas anodin que Google parle de « référencement naturel » pour signifier que le classement des résultats de recherche est effectué automatiquement, sans être retouché par des humains : l’algorithme est considéré comme neutre, comme s’il implémentait une vision « naturelle » de la réalité9.
Le modèle, de cette manière, devient transparent : nous ne voyons plus que, entre nous et le monde, il y a une interprétation, nous croyons avoir un rapport « immédiat » aux choses.
La transparence et la naturalisation des modèles sont liées à une situation politique et économique précise qui permet une sorte de monopole culturel au niveau mondial : une poignée d’entreprises américaines, plus précisément californiennes, détiennent pratiquement l’exclusivité sur la production et sur la diffusion des modélisations du monde. L’origine de ce monopole n’est en revanche pas typique de l’époque numérique, au contraire, elle se situe dans une longue histoire de domination culturelle au niveau mondial. La globalisation de la culture et des valeurs américaines – commencée au moins à partir de 1945 – est le point de départ permettant aux entreprises de la Silicon Valley d’avoir un si grand impact dans la structuration de notre monde actuel.
Reprenons l’exemple de Tinder. Si on lit attentivement le brevet qui expose assez bien le modèle représentationnel sur lequel s’appuie l’application, nous nous rendons compte que ce modèle repose fondamentalement sur une sensibilité courante et un imaginaire collectif déjà bien répandu et partagé dans ce qu’on pourrait appeler la culture occidentale dominante. Par ailleurs, c’est la justification qui est, dans le brevet lui-même, systématiquement citée pour expliquer les raisons de certains choix. Par exemple, l’affirmation sexiste selon laquelle une femme plus jeune et plus pauvre pourrait bien « matcher » avec un homme plus vieux et plus riche est justifiée avec la phrase : « Le serveur de matching 20 peut être configuré de cette manière parce que des données empiriques ont montré que ces différences démographiques n’ont pas un effet équivalent sur les choix que font les hommes et les femmes en matière de matches. » En d’autres mots : cette vision du monde est largement partagée par nos client·es potentiel·les.
Les grandes applications mainstream fondent donc leur modélisation sur la vision du monde qui a le plus de chances d’être partagée par le plus grand nombre. Évidemment, leur objectif est d’atteindre la cible la plus large possible et donc d’essayer de correspondre aux attentes de cette cible. Mais ce choix a un effet ultérieur : ces applications diffusent de façon encore plus large, et renforcent par ce fait, le modèle dominant. Leur usage global détermine que même celles et ceux qui ne partageaient pas le modèle représentationnel initial finissent par s’y habituer et par le naturaliser jusqu’à ne plus le percevoir. Si l’application lui propose systématiquement des femmes plus jeunes et avec un diplôme inférieur, même un homme qui ne partagerait pas cette approche sexiste finira, sans s’en apercevoir, par l’intégrer comme une pratique « naturelle ».
Dans le cas de Google, l’effet de naturalisation est encore plus évident. Comme le montre Dominique Cardon10, le modèle représentationnel de départ n’était pas si largement répandu. Le Science Citation Index est un modèle universitaire développé pour analyser la pertinence des contenus scientifiques. Quand il a été développé, dans les années 1960, il s’adressait à une communauté plutôt restreinte. Or Sergey Brin et Larry Page, les fondateurs de Google, étaient des universitaires ; ils partageaient ce type de culture et de modèle. Le fait qu’il soit implémenté dans le moteur de recherche et le succès de ce moteur de recherche ont déterminé que l’idée de pertinence du Science Citation Index est devenue l’idée de pertinence par excellence. Mais cet effet n’est pas conscient : la quasi-totalité des personnes qui l’utilisent ignorent le modèle et ne se posent même pas la question de son existence. En revanche, l’habitude de l’usage du moteur de recherche fait en sorte que ses résultats commencent à nous sembler les seuls pertinents : nous avons donc, indirectement, naturalisé la notion de pertinence que le moteur propose.
Les applications numériques associent la naturalisation des modèles – qui implique leur progressive transparence – et une énorme opacité de leur fonctionnement. Le processus de modélisation qui fonde les différentes applications est presque systématiquement caché et invisible. Les géants du numérique communiquent un peu sur leur modèle représentationnel, mais souvent sans le détailler, et en se limitant à affirmer ce qui peut rencontrer le consensus du plus grand nombre. Justement : le brevet de Tinder, par exemple, est public ; les principes de base de Google Search sont déclarés sur le site de Google et les fondements derrière l’algorithme PageRank ont fait l’objet de publications scientifiques11. Mais le modèle fonctionnel reste presque toujours inconnu et l’implémentation physique – le code source – non disponible.
Le modèle représentationnel est présenté comme quelque chose de désincarné et souvent laissé très vague ; cela permet de le faire passer pour universel et inévitable. La matérialité du modèle, l’implémentation fonctionnelle et physique semblent ne pas avoir d’importance, ce qui permet de les taire et de les laisser dans l’opacité la plus absolue. En réalité, ces deux étapes déterminent profondément le sens des applications.
Avec l’excuse du secret industriel, ces informations indispensables pour comprendre la vision du monde implémentée par une application ou un logiciel sont cachées. Le résultat est que la compréhension des enjeux éthiques et politiques, qui sont au fondement d’une modélisation particulière du monde, est profondément compromise. Les GAFAM profitent de cette opacité pour naturaliser leurs modèles qui ne sont pas visibles, pas analysables et finalement pas critiquables.
À l’opacité du code s’ajoute une véritable action de dissimulation qui caractérise de plus en plus les environnements numériques mainstream : tous les « mécanismes » nous sont cachés, nous sont rendus invisibles. Cette dissimulation est très bien décrite par Matthew Crawford dans son Éloge du carburateur et concerne tous les artefacts techniques. Comme le dit Crawford :
Soulevez le capot de certaines voitures (surtout si elles sont de marque allemande) et, en lieu et place du moteur, vous verrez apparaître quelque chose qui ressemble à l’espèce d’obélisque lisse et rutilant qui fascine tellement les anthropoïdes au début du film de Stanley Kubrick 2001, l’Odyssée de l’espace12.
Nos dispositifs GAFAM suivent le même paradigme de dissimulation. Dans les systèmes d’exploitation comme Mac et Windows, nous ne pouvons, par exemple, plus voir l’emplacement des fichiers ni leur extension. Les personnes sont de moins en moins conscientes du fait qu’un ordinateur a un stockage des informations organisé avec une structure arborescente : une racine dans laquelle il y a un certain nombre de dossiers, dans lesquels il y a d’autres dossiers, jusqu’à arriver à des fichiers. Cette organisation est ce qui détermine l’emplacement des fichiers, leur « chemin ». Ainsi, le fichier « livre.md » pourra se trouver dans le dossier « Document » qui se trouve dans ma « home ». Son chemin sera /home/marcello/livre.md. Ce chemin est la seule manière pour trouver le fichier. Son extension, ici .md, me renseigne sur son format et me dit qu’il s’agit d’un texte écrit dans le format markdown. Mais, sur le navigateur de fichiers d’un Mac ou d’un Windows – et encore pire dans les interfaces des dispositifs mobiles –, nous ne verrons qu’une icône colorée avec le titre « livre ». Son emplacement nous sera caché – très souvent remplacé par une série de liens symboliques : nous voyons l’icône dans un dossier qui, par exemple, s’appelle « iCloud », mais nous n’avons aucune idée du chemin véritable. Nous ne pouvons rien savoir sur le format, car, presque systématiquement – et à moins d’aller chercher des options elles aussi bien cachées –, l’extension n’est pas affichée. Nous ne pouvons que cliquer et laisser faire l’ordinateur. Au lieu de savoir où se trouve réellement le fichier, connaître son extension et choisir avec quel logiciel l’ouvrir, dans quel environnement, etc., nous ignorons tout cela et sommes dépendant·es des choix opaques de l’ordinateur. De la même manière, les fichiers de configuration sont cachés et souvent inaccessibles, avec l’excuse d’éviter les dégâts, les accidents que pourraient provoquer des personnes peu compétentes. Les GAFAM nous dissimulent les rouages des produits que nous avons pourtant achetés, avec l’excuse de nous protéger de nous-mêmes.
Ces formes de dissimulation nous empêchent de comprendre ce que nous faisons. Qu’on ne les voie pas à cause de leur transparence – du fait qu’elles nous semblent naturelles et neutres – ou de leur opacité – car elles ont été dissimulées, cachées dans la lampe –, les visions du monde des GAFAM nous échappent. Les génies des lampes numériques interprètent le monde pour nous, sans nous dévoiler les principes de leurs interprétations.
Ces dynamiques sont donc responsables de la perception du numérique comme un phénomène relativement homogène auquel on peut attribuer des caractéristiques communes. Pour résumer, l’époque numérique est une époque où les technologies et leur diffusion contribuent à une globalisation et à une naturalisation de certains modèles culturels dominants.
La « beauté » de la lampe est qu’elle ne demande pas de compétences pour être utilisée. Aladdin et sa mère « découvrent » le génie par erreur. Il suffit de frotter, le geste le plus simple et le plus intuitif qu’on puisse faire. Intuitif : il n’y a pas besoin de penser pour frotter la lampe, la frotter c’est le premier réflexe de la mère d’Aladdin lorsqu’elle a l’objet sale entre les mains.
Or la perte de vue de la multiplicité potentielle des visions du monde et la naturalisation d’un petit nombre de modèles comme s’ils étaient les seuls possibles sont profondément liées à l’usage généralisé de l’adjectif « intuitif » pour définir les applications et les environnements proposés par les GAFAM.
Nous avons désormais le sentiment que le fait d’être intuitif est un impératif indiscutable pour tout outil, toute application ou tout environnement. Une analyse rapide de la communication des GAFAM confirme l’importance de ce terme dans l’imaginaire collectif : tout produit proposé est loué pour son caractère intuitif. L’idée qui semble désormais évidente est qu’il est nécessaire de pouvoir utiliser l’application ou le produit sans devoir passer du temps à lire des instructions ou à en comprendre les principes.
Sur quoi cette idée s’appuie-t-elle ? Comment un outil peut-il être intuitif ? Que signifie, plus précisément, « intuitif » ?
Le mot « intuition » vient du latin et signifie « voir à l’intérieur ». Il est composé de la préposition in et du verbe tueor (voir). Ce concept désigne un rapport immédiat avec le réel : on s’empare du réel, on le saisit sans aucune médiation et, notamment, sans besoin de la médiation de la pensée. Dans ce sens, un outil intuitif est un outil qu’on peut utiliser sans aucune réflexion préalable.
Aux XVIIIe et XIXe siècles, le débat autour de ce mot portait sur la question de savoir si une intuition « intellectuelle » était possible. L’intuition intellectuelle serait celle qui fait accéder au réel en soi – en termes kantiens : au « noumène ». Pour Emmanuel Kant, ce type d’intuition est impossible pour les êtres humains qui ne peuvent avoir que des intuitions sensibles, rendues possibles par l’intuition a priori de l’espace et du temps. L’espace et le temps, en tant que catégories transcendantales, nous sont donnés a priori, à savoir avant toute expérience. On en a l’intuition, ce qui signifie qu’on n’a pas besoin d’une médiation conceptuelle pour les saisir. Ces intuitions a priori permettent ensuite les intuitions sensibles qui, pour Kant, sont fondamentalement des « perceptions ». Les intuitions sensibles nous font saisir immédiatement le particulier, mais, pour passer du particulier à l’universel, il est nécessaire de faire travailler la pensée : c’est la médiation du concept qui permet le passage à l’universel. Pour faire un exemple : grâce aux intuitions a priori de l’espace et du temps, je peux avoir l’intuition sensible d’une chaise particulière : « cette chaise-là ». Pour ensuite arriver au concept de chaise, il faut que je pense. Il n’est pas possible d’avoir l’intuition du concept de chaise (ce qui serait une intuition intellectuelle). Certains idéalistes (Johann Gottlieb Fichte et Friedrich von Schelling notamment) affirment la fusion totale de la pensée et de l’Être et croient donc en la possibilité de l’intuition intellectuelle. Georg Wilhelm Friedrich Hegel la critique durement comme étant irrationnelle – la fusion de l’Être et de la pensée à la base de la philosophie hégélienne est garantie par le fait que l’Être est toujours déjà médié et il n’y a donc pas d’immédiateté possible.
Ce qu’il faut retenir de ce petit détour philosophique est le lien étroit entre intuition et immédiateté. Et c’est cette idée qu’il est nécessaire de questionner. Présupposer un rapport au réel qui ne demande pas de médiation signifie croire qu’un seul rapport au monde est possible : l’immédiateté détermine l’unicité. Il y aurait donc un seul monde et un seul accès possible à ce monde. Cet accès serait complètement transparent parce qu’il se ferait sans aucune médiation. Face à une intuition, il n’y a aucune pensée possible : il n’y a rien à penser parce que le monde s’impose à nous, nous ne pouvons que le recevoir passivement.
La notion d’intuition est donc liée à la nécessité absolue de l’unité : il n’y a qu’une seule manière de voir le monde. Mais cette unicité est tout simplement fausse. Même l’intuition sensible que Kant considérait comme possible a fortement été mise en question, par exemple par l’émergence, au XXe siècle, des géométries non euclidiennes. Nous croyons que notre façon de percevoir l’espace est absolue et qu’il n’y en a pas d’autres possibles. Nous croyons donc que deux lignes parallèles ne peuvent jamais se rencontrer, car cette vérité est une nécessité absolue donnée par la structure même de l’espace. Notre vision euclidienne de l’espace nous semblait intuitive, naturelle et nous étions donc convaincus qu’elle était la seule possible. Mais, au XXe siècle, on commence à essayer de mettre en question cette unicité, on imagine des espaces différents, dans lesquels le postulat des lignes parallèles n’est pas respecté. Et on s’aperçoit finalement que ce postulat n’est intuitif que parce que nous y sommes habitué·es : il n’a rien de « naturel », il a juste été « naturalisé ».
C’est justement la situation d’Aladdin avec sa lampe : le jeune homme est ignorant, inculte, sot, il n’est pas capable de différencier des pierres précieuses d’un fond de bouteille en verre coloré. Aladdin est incapable de se représenter ce qu’est son bonheur, ce qu’est la richesse, ce qu’est un beau vêtement, ce qu’est un bel objet. Mais il croit qu’il n’y a qu’une vision possible de ce que ces choses sont. Il s’en remet donc au choix du génie comme si ce choix n’en était pas un, comme si un beau vêtement était un beau vêtement et puis c’est tout. Nul besoin d’une réflexion de la part de celui qui exprime le souhait car, au fond, on ne peut désirer qu’une et une seule chose.
C’est cette même logique – aux fondements métaphysiques anciens – que nous vendent les GAFAM : l’outil parfait serait celui qui nous donne un accès immédiat au monde. Cette immédiateté ne peut qu’être fondée sur l’unicité : il existe une et une seule manière de saisir ce que le monde est en soi – car, s’il y en avait plusieurs, il serait nécessaire de justifier cette multiplicité avec différentes médiations. Cela implique qu’il y a un et un seul bon outil et que le travail de conception devrait uniquement essayer de se rapprocher le plus possible de cet outil idéal.
La notion d’intuitif renvoie à une série d’autres concepts qui reviennent aussi de façon récurrente dans la communication publicitaire des GAFAM : simple, facile, performant.
Puisqu’il n’y a qu’une manière de se rapporter au monde, cette manière est « naturelle », tout le monde est depuis toujours capable de faire ce que les outils intuitifs lui proposent parce que cela est inscrit immédiatement dans le monde.
Mais, nous l’avons vu, ce qui semble intuitif est en réalité le fruit d’une naturalisation. Un modèle particulier d’accès au monde devient dominant au point qu’il n’est plus possible de le voir dans sa particularité : nous ne nous rendons plus compte qu’il s’agit d’un modèle, d’une médiation possible et qu’il pourrait y en avoir d’autres, différents. C’est comme si nous ne savions pas qu’il existe plusieurs langues et que, ayant toujours parlé seulement notre langue maternelle, nous croyons qu’elle est intuitive, immédiate et la seule possible.
Le discours sur l’intuitivité est connexe avec l’impossibilité de la différence : si les outils peuvent être véritablement intuitifs, c’est parce que notre pensée, nos usages, nos questionnements, nos besoins sont de plus en plus uniformisés et qu’il y a de moins en moins de place pour une réflexion sur les modèles à partir desquels les outils, les environnements et les technologies sont conçus. C’est une pensée unique qui émerge de ce manque de différence.
L’affirmation progressive de cette pensée unique se révèle par ailleurs de façon très claire dans le discours courant : les GAFAM deviennent de plus en plus des antonomases.
L’antonomase est la figure rhétorique qui consiste à transformer un nom propre en un nom commun. Par exemple, le mot « paparazzi » : il vient du personnage cinématographique Coriolano Paparazzo, le photographe de La Dolce Vita. Le fait que ce nom propre devienne un nom commun revient à naturaliser, dans ce nom, une série de caractéristiques qui, en réalité, concernent le personnage particulier et n’ont donc rien de nécessaire ni de naturel : pour le paparazzi, un style de vie, un look, un métier, une façon de l’exercer, un imaginaire, des valeurs, des visions du monde. Un paparazzi n’est pas un photojournaliste, c’est un paparazzi. Qui crée ces visions du monde ? Le cinéma, la littérature, l’art, l’imaginaire collectif… ou une entreprise. Les quelques logiciels propriétaires qui envahissent nos vies sont devenus les antonomases de leurs fonctions : Word signifie écriture, Google signifie recherche, Zoom signifie réunion.
En devenant des antonomases, ces logiciels numériques achèvent le processus de naturalisation de leur modèle et de leur vision du monde : « googler » signifie rechercher, il n’y a plus d’autres manières possibles d’imaginer ou de faire une recherche. « On se fait un Zoom » devient synonyme de se voir en vidéoconférence, en suggérant, d’une part, qu’il n’y a pas d’autres manières de faire une vidéoconférence et, de l’autre, que de toute façon le logiciel est « neutre », « naturel ».
Pour identifier cette situation et cette rhétorique, Evgeny Morozov13 parle de « solutionnisme technologique » : une approche selon laquelle tous les besoins sociaux sont, de fait, transformables de façon unique, claire et non ambiguë en « problèmes » qui peuvent ensuite être résolus par de bons algorithmes. Morozov dénonce cette idéologie parce qu’elle cache la complexité et la pluralité des besoins sociaux, et parce qu’elle fait passer pour transparentes, neutres et « naturelles » les stratégies de « réponse » mises en place par les GAFAM pour répondre à ces besoins. En d’autres termes : les GAFAM donnent des réponses sans que la question soit posée, alors que le passage du besoin à la question n’est pas neutre mais demande une interprétation impliquant des valeurs, des visions du monde et des choix.
Que se passerait-il si la lampe tombait entre les mains d’un·e enfant ? Ou plutôt : imaginez que vous ayez à la maison une lampe magique, laisseriez-vous votre enfant l’utiliser ? Je suis prêt à parier que non. Notre crainte serait, par exemple, qu’un·e enfant demande un nombre illimité de bonbons et que, en les mangeant, iel finisse par se rendre malade.
La notion d’intuition est, en effet, encore plus délicate lorsqu’elle se réfère aux pratiques des enfants. On entend souvent dire que les tablettes et les téléphones sont très intuitifs pour les petits. Plusieurs études se sont penchées sur la rapidité avec laquelle les bébés eux-mêmes sont capables de manipuler les écrans tactiles, parfois bien avant d’avoir l’habilité de manipuler des objets en trois dimensions14.
D’où vient cette facilité de manipulation ?
En 2001, Marc Prensky15 inventait l’expression « natifs numériques » (digital natives) : les personnes nées à partir de 1980 seraient « natives » de la culture numérique. Les autres seraient des « migrant·es numériques ». Les premières « parleraient » numérique première langue, comme un·e natif·ve d’un pays parlerait sa langue. Les migrant·es s’adapteraient plus difficilement au nouveau langage et à la nouvelle culture, en gardant toujours un accent. La métaphore, frappante, a eu un très grand succès. « Le » numérique est assimilé à une langue que l’on maîtrise plus ou moins bien. La métaphore permet d’induire que, comme une langue, le numérique peut être appris dès le plus jeune âge par exposition et que, comme une langue, il devient le mode d’expression et de rapport au monde principal – ou, pour être plus précis, l’unique mode. La métaphore de l’accent va dans ce sens : nous sommes à l’aise dans notre langue maternelle, jamais complètement dans une langue acquise.
Or la langue est très clairement une forme de médiation de notre accès au monde, mais la langue maternelle se présente à nous comme naturelle et transparente : nous n’avons pas besoin de penser pour savoir comment s’appelle un objet dans notre langue. La notion d’intuition revient ici.
Comment apprend-on sa langue maternelle ? Par exposition. C’est la langue à laquelle on est exposé depuis la naissance. L’idée de Prensky présuppose donc que le numérique est quelque chose d’homogène et uni, comme une langue. Il présuppose aussi que toute une génération est également exposée à cette langue et, finalement, que l’exposition produit une capacité de maîtrise.
Or, bien que ces assomptions comportent plusieurs problèmes, elles indiquent également quelque chose de vrai. Commençons par les problèmes.
En premier lieu, comme nous l’avons vu, il est très discutable de considérer le numérique comme une unité cohérente. Peut-on vraiment extrapoler des principes qui caractériseraient le numérique en tant que tel ? Prensky fait référence à la rapidité, à la quantité d’informations qui détermineraient un manque généralisé d’attention. Mais ces caractéristiques sont-elles vraiment numériques ? Ne sont-elles pas plutôt typiques d’une certaine société capitaliste ? Dans ce sens, Prensky a peut-être raison d’identifier certaines caractéristiques générationnelles, mais il a tort de les attribuer à la culture numérique.
En deuxième lieu, il est faux de croire qu’une génération entière aurait été exposée de la même manière à la même culture numérique. L’accès aux technologies n’est pas le même partout, il est différent selon les classes sociales, les lieux, les cultures… Le fait de faire partie de la même génération ne correspond pas au fait d’avoir baigné dans une culture semblable et encore moins identique.
En troisième lieu, dans le cadre des technologies numériques, il est difficile de pouvoir affirmer que l’exposition implique la maîtrise. Ce n’est pas par ailleurs ce que dit Prensky, mais c’est sans doute la doxa qui est souvent associée par les médias et par le discours public à l’expression « natif numérique ». À la différence de la langue, qui associe à l’exposition passive une nécessité d’emploi actif, les technologies numériques permettent souvent une exposition passive sans aucune nécessité d’activité. Les plus jeunes apprennent leur langue maternelle en la pratiquant activement et parce que leur entourage la connaît. Comment serait-il possible d’apprendre une culture et des technologies qui, d’une part, ne sont pas connues et maîtrisées par les personnes autour – les migrant·es numériques – et qui, d’autre part, ne nécessitent jamais vraiment une utilisation active ?
Prensky lui-même est revenu sur sa notion en la critiquant et en en montrant les limites16. Cependant, il me semble y avoir quelque chose de vrai et d’intéressant dans cette idée : non pas l’idée d’un groupe de personnes qui, naturellement, maîtriseraient une culture particulière, mais plutôt un groupe de personnes exposées de façon massive et passive à un certain type d’applications, de dispositifs et d’environnements numériques : ceux qui sont réalisés et diffusés par les GAFAM.
Avec toutes les différences sociales, géographiques et culturelles, il est certain qu’une large partie de la population est exposée depuis la naissance à un nombre très limité et homogène de technologies : fondamentalement, des iPhones, des iPads et des téléphones Android. Les ordinateurs sont beaucoup moins présents dans les pratiques des enfants, car leur usage est déjà plus « complexe », ne serait-ce que parce qu’il demande la maîtrise de l’alphabet et du clavier. Soulignons donc que ces technologies sont loin de représenter « le numérique » dans son ensemble : elles sont relativement uniformes, fondées sur le même design, les mêmes ergonomies, et proviennent des mêmes entreprises. « Le numérique » est et pourrait être un grand nombre d’autres choses, parfois complètement différentes et opposées : d’autres systèmes d’exploitation, d’autres principes, d’autres intérêts derrière le développement, d’autres communautés… Il est vrai cependant qu’une grande partie de la population est exposée à ces quelques technologies, avec leurs principes et leurs identités graphiques semblables et uniformes.
Cette exposition est passive : à part quelque geste minimaliste, comme le swipe, les jeunes n’effectuent aucune opération qui requiert de la réflexion quand iels sont face à ces écrans. Ces technologies sont tellement présentes qu’elles deviennent pour les enfants transparentes et naturelles : elles deviennent la seule manière possible d’avoir accès au monde. Le fait que les enfants fassent « naturellement » le geste du swipe ne signifie pas qu’iels ont acquis la maîtrise d’une action ni que cette action est « intuitive ». Cela veut dire qu’iels ont tellement été exposé·es à cette action qu’iels finissent par ne plus la voir et par considérer qu’elle est la seule possible.
Parce qu’elles sont uniformes et qu’elles proposent des formes d’accès au monde très pauvres, simplifiées et semblables, ces technologies ne requièrent finalement aucun effort et permettent une passivité presque totale. L’intuition des enfants, dans ce sens, est une forme d’appauvrissement cognitif qui consiste à réduire le travail intellectuel à une adaptation passive aux environnements limités que les GAFAM nous proposent.
L’intuition des enfants doit fortement nous préoccuper : elle révèle, d’une part, l’omniprésence inquiétante d’un modèle unique de pensée et de représentation du monde et, de l’autre, le fait que ce modèle est d’une grande pauvreté, simplification et limitation. Par ailleurs, l’exposition passive des enfants renforce la naturalisation des visions du monde derrière les applications GAFAM.
La lampe entre les mains des enfants – de façon encore plus forte qu’entre les mains des adultes – est un dispositif qui transforme les enfants en captifs et captives. La lampe dicte les désirs, prescrit les visions du monde et forme les plus jeunes à ne pas penser, à ne pas réfléchir, à se faire utiliser.
À partir de ces considérations, il est possible de commencer à se poser une question qui sera fondamentale pour la suite de ce livre : celle de la littératie numérique. La redéfinition de cette notion sera notre point de départ pour comprendre de quelle manière nous pouvons être libres aujourd’hui, dans notre époque numérique.
La littératie numérique ne doit et ne peut pas être assimilée à une forme simplifiée d’aisance à manipuler quelques appareils numériques qui se présentent comme « intuitifs ». La littératie numérique doit être une capacité critique, fondée sur l’analyse, la compréhension et la maîtrise. La littératie numérique doit être une manière de nous rendre libres en nous permettant d’être les véritables protagonistes de nos actions : nous serons libres seulement si nous sommes capables non pas d’utiliser, mais de comprendre et de choisir nos environnements numériques, de formuler de façon critique nos besoins en étant toujours conscient·es de la multiplicité des modèles et des choix possibles.
Nous pouvons commencer à identifier trois principes qui devraient fonder cette littératie et qui s’opposent radicalement aux idées proposées par la doxa des « natifs numériques » :
1. La conscience de la multiplicité des modèles. Une littératie numérique véritable doit être fondée sur la conscience des modèles interprétatifs sous-jacents à chaque technologie et à chaque environnement. Un usager ou une usagère averti·e sait que l’environnement, l’application ou la technologie dont iel se sert ne sont jamais neutres, mais qu’ils se fondent sur une interprétation particulière du monde. Iel sait aussi que cette interprétation a des implications précises. Iel sait qu’il y a une multiplicité d’autres modèles possibles et qu’iel pourrait en choisir d’autres selon ses besoins et ses pratiques spécifiques. Cela ne signifie pas nécessairement être capable de connaître tous les détails de la modélisation de chaque technologie, mais d’être toujours conscient·e qu’il y en a une et qu’elle peut être questionnée.
2. La recherche de complexité. La littératie numérique doit se fonder sur la capacité de choisir des environnements, des technologies ou des applications adéquatement complexes. Soulignons qu’il y a une différence entre la notion de complexité adéquate et celle de complication inutile. Il ne s’agit pas de préférer quelque chose de compliqué, mais de calibrer la complexité qu’on requiert à l’aune d’un environnement technologique sur la base des raisons qu’on a de l’utiliser. Cela a une double implication : d’une part, éviter d’utiliser des dispositifs inutilement complexes pour réaliser des activités qui ne requièrent pas une telle complexité ; de l’autre, ne pas se contenter de dispositifs « simples » quand il s’agit de réaliser des activités qui demandent un plus haut niveau de complexité.
3. La maîtrise de l’activité. La littératie numérique consiste en une capacité à être actif·ve par rapport aux environnements numériques. Toute attitude passive, de pure exposition, ne favorise pas une littératie, mais détermine au contraire une dépendance. L’activité se concrétise dans la capacité de modeler l’environnement numérique pour l’adapter à ses propres besoins. Dans ce sens, les technologies qui nous promettent de nous délivrer des tâches triviales limitent notre maîtrise et nous rendent dépendant·es et passif·ves. Pour être libres, nous devons rester les protagonistes de nos actions, nous devons donc prendre en charge l’effort de faire nous-mêmes ce que nous voulons faire, sans le déléguer à des solutions miracles.
Sur la base de ces idées, on peut déjà établir un principe qui pourrait sembler étonnant : l’usage de tablettes ou de téléphones ne peut absolument pas favoriser le développement d’une littératie numérique. Il ne peut au contraire que nuire à un tel développement, le freiner et même le rendre impossible. Dans ce sens, tous les programmes qui consistent à donner des iPads dans les écoles pour diffuser et développer une littératie numérique ont de fait l’effet contraire : ils contribuent à la mise en place d’un assujettissement ignorant, d’une dépendance totale et acritique à des technologies incompréhensibles qui sont nos maîtres au lieu d’être à notre service.
Dans Éloge du carburateur, Crawford raconte comment, aux États-Unis, les cours de technologie ont souvent été supprimés pour être remplacés par des cours d’informatique. L’« informatique » est presque systématiquement confondue avec la manipulation d’applications sur des dispositifs mobiles. On n’enseigne pas comment monter et démonter un ordinateur, apprendre l’usage d’un terminal, bricoler ; on apprend à swiper sur un écran plat, opaque et lisse. Cela fait partie des stratégies de dissimulation dont nous avons parlé : au lieu d’apprendre aux jeunes à bricoler, à démonter, à manipuler des objets matériels dont il faut comprendre le fonctionnement en les cassant, en les questionnant, en « ouvrant le capot », on leur donne des dispositifs lisses et opaques, qui dissimulent leurs mécanismes internes.
Les tablettes et les téléphones enfreignent en effet systématiquement les trois principes que je viens d’énoncer.
En premier lieu, ils présentent une vision du monde unique et uniformisée et, surtout, la naturalisent en rendant complètement transparents et donc invisibles leurs processus de modélisation. Dans ces environnements, l’usager ou l’usagère n’a aucun accès aux différentes étapes de modélisation : le code est inaccessible, les éléments manipulés le sont tout autant – aucune possibilité, par exemple, de se rendre compte de l’emplacement des fichiers et des différents objets numériques. Tout est dissimulé. Les ergonomies, les designs, les principes et les visions du monde sont celles de deux compagnies – Apple et Google – qui ont elles-mêmes progressivement convergé.
En deuxième lieu, la richesse du système symbolique rendue possible par des formes comme l’écriture est balayée et remplacée par un nombre très réduit de gestes. On « tape », on « swipe », on « zoome » et c’est ainsi que, avec ces trois symboles, se termine la richesse des signifiants. La manipulation d’un clavier d’ordinateur, ou d’une machine à écrire, est déjà une simplification par rapport aux possibilités symboliques qui s’ouvrent avec l’écriture manuelle, mais les caractères qu’on peut saisir avec un clavier sont tout de même des centaines. Les gestes symboliques sur écran tactile sont trois ou quatre tout au plus. Comment donner accès à un réel complexe en réduisant toute possibilité de manipulation à ces quelques symboles ? Par ailleurs, le niveau de complexité des applications est impossible à négocier par l’utilisateur ou l’utilisatrice qui se voient contraint·es d’adapter leurs besoins à l’offre applicative au lieu d’entreprendre la démarche inverse.
Pour finir, et en lien avec cette pauvreté d’expression, les possibilités d’activité dans ces environnements sont très minces et limitées : la nécessité de rendre tout accessible avec peu de gestes implique une limitation radicale des possibilités d’action. Avec un clavier d’ordinateur, dans le cadre d’un système d’exploitation ouvert, il est possible d’aller sur un terminal, de regarder et de retoucher la totalité des applicatifs, de ceux qui sont au niveau le plus bas – le noyau du système d’exploitation, la gestion des périphériques, etc. – à ceux qui sont plus haut – les logiciels et les applications. On a potentiellement accès à tout et tout dépend de l’activité des personnes utilisant le dispositif. Dans le cas des tablettes et des téléphones, l’activité est toujours suggérée et balisée par le dispositif : des notifications nous invitent à cliquer ou à swiper pour ouvrir une application plutôt qu’une autre, les mêmes gestes nous permettent de réaliser les quelques tâches que chaque application met à disposition, mais jamais il ne sera possible d’avoir une activité véritable, dont nous soyons le moteur premier et principal. Nous serons toujours fondamentalement dans la passivité et porté·es par l’ergonomie du dispositif.
Au lieu de donner des cours d’informatique en faisant swiper sur des applications iPad, il faudrait tout d’abord se poser la question de la pertinence de dispositifs électroniques : très souvent, on pourra acquérir une littératie numérique plus facilement en manipulant des objets qui n’ont rien de numérique et en apprenant à réfléchir à des problèmes en étant capable de comprendre de façon globale le contexte. Un cours de technologie, où on découpe du bois, on construit un circuit électrique ou on bricole pour faire fonctionner un dispositif mécanique fera acquérir plus d’esprit critique qu’accomplir de façon aveugle les mini-tâches répétitives et abrutissantes demandées par une application. Et si vraiment nous voulons introduire des dispositifs électroniques, on pourrait plutôt enseigner aux plus jeunes à démonter des ordinateurs – de vieux ordinateurs, ceux qu’on pouvait encore démonter et remonter – ou à taper des commandes sur un écran noir, en risquant de tout casser, en étant obligé·e d’essayer de comprendre ce qui se passe, en se posant toujours à nouveau la question de ce qu’on veut faire.
1. Jean-Guy MEUNIER, « Humanités numériques ou computationnelles : enjeux herméneutiques », Sens public, 3 octobre 2014.
2. TINDER, US Patent for Matching Process System and Method, 2013.
3. Judith DUPORTAIL, L’Amour sous algorithme, Paris, Goutte d’or, 2019.
4. Dominique CARDON, « Dans l’esprit du PageRank », Réseaux, vol. 177, no 1, avril 2013, p. 63-95.
5. Sergueï BRIN et Lawrence PAGE, « The anatomy of a large-scale hypertextual Web search engine », Computer Networks and ISDN Systems, vol. 30, no 1, avril 1998, p. 107-117. Il faut préciser que, désormais, le comportement du moteur de recherche Google Search n’est qu’accessoirement déterminé par le PageRank. Les résultats dépendent d’une série très complexe – et opaque – de facteurs, notamment en lien avec le profil de la personne qui effectue la recherche (caches, cookies, géolocalisation, etc.).
6. Milad DOUEIHI, La Grande Conversion numérique, op. cit.
7. Alan M. TURING, « On computable numbers, with an application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, vol. s2-42, no 1, 1937, p. 230-265.
8. Jean-Marc LARRUE et Marcello VITALI-ROSATI, Media Do Not Exist, Amsterdam, Institute of Network Cultures, 2019.
9. Aujourd’hui, cette vision est encore plus mensongère, car les résultats des recherches ne sont pas universaux, mais dépendent de critères contextuels : qui cherche, depuis quel lieu, en quelle langue, quel est son historique de navigation… ?
10. Dominique CARDON, « Dans l’esprit du PageRank », art. cit.
11. Sergueï BRIN et Lawrence PAGE, « The anatomy of a large-scale hypertextual Web search engine », art. cit.
12. Matthew CRAWFORD, Éloge du carburateur, traduit par Marc Saint-Upéry, Paris, La Découverte, 2016 [2009], p. 4.
13. Evgeny MOROZOV, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2013.
14. Brittany HUBER et al., « Young children’s transfer of learning from a touchscreen device », Computers in Human Behavior, vol. 56, mars 2016, p. 56-64.
15. Marc PRENSKY, « Digital natives, digital immigrants », On the Horizon, vol. 9, 2001, p. 6.
16. Marc R. PRENSKY, From Digital Natives to Digital Wisdom. Hopeful Essays for 21st Century Learning, Thousand Oaks, Corwin Press, 2012.
Jill s’est mariée presque en secret avec le gentil veuf Peter McBain, à La Nouvelle-Orléans. Ancienne prostituée, elle ne peut pas espérer grand-chose de la vie. McBain semble un homme bon, honnête et travailleur. De plus, il prétend qu’il va devenir riche. Elle doit le rejoindre dans l’Ouest où il a une ferme et où elle rencontrera aussi ses enfants. Mais, quand elle arrive en train à Flagstone, la gare la plus proche de la propriété de son nouvel époux, personne ne l’y attend. Jill rejoint donc Sweetwater seule, sur une petite carriole et, en arrivant, découvre que son mari a été assassiné avec ses enfants. La ferme se trouve dans un lieu isolé, aride et pierreux. Il n’y a rien de bon. Pas la peine pour Jill de rester, qu’elle rentre chez elle, comme le lui conseillent toutes les personnes qu’elle rencontre à Sweetwater. De toute manière, la ferme ne vaut rien, le pauvre McBain devait être fou pour l’avoir construite dans cet endroit qui n’a rien à offrir.
Mais Jill n’est pas convaincue. McBain ne semblait pas fou, ce lieu qui, matériellement, ne semble avoir rien à offrir doit avoir un sens, une valeur cachée. Il faut trouver quelque chose, un trésor est peut-être enseveli dans la maison ? De l’or ? Il faut qu’il y ait quelque chose de concret, de matériel, comme l’or que justement tout le monde vient chercher dans les rivières de l’Ouest. McBain a sans doute trouvé un trésor et Jill doit le découvrir. Elle cherche donc partout, retourne la maison, vide les tiroirs, découpe les matelas à la recherche de cette chose, cet objet, cette entité physique et matérielle qui doit donner un prix et une valeur à cette ferme fantasque.
Finalement, Jill trouve une maquette. La maquette d’une gare et d’une ville autour de cette gare. McBain n’était pas fou, loin de là. Il savait que les locomotives à vapeur avaient besoin d’eau et il savait qu’il y en avait à Sweetwater. Il savait donc que, pour poursuivre la construction du chemin de fer qui traversait l’Amérique d’est en ouest, il était nécessaire de passer par Sweetwater. La station après Flagstone ne pouvait qu’être là. Jill n’hérite pas d’une ferme construite sur un terrain aride et incultivable, mais d’une ville entière, qui pourrait être construite autour de la gare. Et c’est évidemment pour cela que son mari et ses enfants ont été assassinés par quelqu’un. Quelqu’un qui n’a pas eu vent du récent mariage…
Cette histoire, qui ouvre le chef-d’œuvre de Sergio Leone Il était une fois dans l’Ouest, nous apprend quelque chose de fondamental, à savoir que la valeur symbolique et économique dépend toujours de conditions matérielles précises. Dit autrement, le sens dépend de la matière. La ferme de McBain vaut une fortune. McBain était objectivement, même si virtuellement, riche, car le contexte matériel du territoire dont il était le propriétaire en fait une « mine d’or ». On pourrait se dire que Sweetwater n’est pas matériellement une mine d’or, car, justement, il n’y a pas d’or et que, par-dessus tout, le terrain n’est pas cultivable. L’idée de McBain pourrait être considérée comme immatérielle : juste une idée. Mais cette idée n’aurait pas de valeur objective, elle serait abstraite et donc vide, sans une situation matérielle concrète : les locomotives fonctionnent avec de l’eau, il est physiquement nécessaire de construire les gares à proximité de l’eau, il n’y a donc d’autre solution que faire de Sweetwater une ville de passage pour les trains.
Sans cette compréhension du contexte matériel de la géographie du territoire, les actions de McBain n’ont pas de sens, et son assassinat reste mystérieux, incompréhensible, dépourvu de toute signification. Mais la maquette révèle autre chose. Elle révèle une matérialité qui, même si elle n’est pas évidente pour tout le monde, est là. L’intelligence de Jill réside dans sa capacité à saisir le lien entre la valeur symbolique et économique de sa propriété et sa matérialité cachée.
Un siècle et demi plus tard, comme nous le verrons dans la suite de ce chapitre, la matérialité du territoire a changé, mais les infrastructures du XIXe siècle gardent une relation matérielle profonde avec les infrastructures contemporaines. Les nuages numériques – malgré la rhétorique immatérielle qui entoure notre imaginaire fait de « clouds » – passent physiquement le long des rails de chemin de fer. Si nous voulons comprendre nos sociétés numériques, nous devons donc faire le même effort que Jill, nous interroger sur les conditions matérielles d’émergence de la valeur symbolique et du sens.
Pour suivre l’exemple de Jill, et découvrir le sens et la valeur tels qu’ils émergent dans nos sociétés numériques, il est indispensable de questionner et de dépasser ce que nous pourrions appeler la « rhétorique de l’immatérialité ». Cette rhétorique est le discours qui oppose forme et matière, ou contenu et contenant, en présupposant qu’il y ait, d’un côté, quelque chose de pur, immatériel, noble et précieux et, de l’autre, son incarnation, impure, matérielle, imparfaite, vile et sans importance.
Il s’agit d’une polarité qui se manifeste dans plusieurs domaines ; un des exemples les plus omniprésents est l’opposition entre la pensée et ses inscriptions : d’une part, ce qu’on suppose être un « contenu » et, de l’autre, son incarnation ; d’une part, une idée et, de l’autre, un support particulier (livre, discours oral, etc.) qui la présente. Le premier pôle serait ce qu’il y a de plus important : l’idée, la pensée, le contenu. Le second serait trivial, banal, sans importance et sans impact. Une image peut bien illustrer cette dynamique : le grand homme (le genre n’est pas anodin, comme on le verra) pense, puis une foule de secrétaires, correctrices, relectrices, techniciennes… prennent cette pensée et en font un livre. C’est une image que l’on retrouve souvent dans l’iconographie occidentale ; un exemple illustre en est le fameux tableau Le Philosophe en méditation de Rembrandt (1632). On y voit sur la gauche un homme assis à côté d’une fenêtre, les mains jointes. À droite, plus bas et moins visible, une femme courbée, mettant du bois dans la cheminée. L’homme pense, il est éclairé par la lumière naturelle, il ne fait rien de matériel et, en cela, fait la chose la plus importante ; la femme est insignifiante, elle se fond pratiquement dans le décor, elle participe de la matérialité de l’espace qu’elle contribue à faire « fonctionner » en chauffant la pièce. La pensée du philosophe n’en est bien évidemment pas touchée. La partie matérielle relèverait ici d’une tâche répétitive, ennuyeuse et sans valeur, qui n’implique pas une production de sens. On pourrait oublier l’existence négligeable de cette femme, les noms de cette foule de personnes ordinaires, l’important serait juste de connaître le nom du grand homme.
Cette rhétorique a des origines anciennes et est liée à des structures théoriques et métaphysiques complexes et profondes. Mais elle est plus que jamais actuelle, car les technologies numériques l’ont fait réémerger en lui donnant de nouvelles formes. Elle se manifeste – et c’est là le point central de l’argumentation de ce livre – en particulier dans une certaine conception des « outils » et des environnements numériques comme des « solutions » matérielles neutres dont la structure et les caractéristiques seraient finalement peu importantes et donc laissées à des techniciens ou des techniciennes traité·es avec un certain dédain par celles et ceux qui croient penser et produire le sens.
L’hypothèse que je vais défendre dans ces pages est que la rhétorique de l’immatérialité n’est qu’une ruse qui permet de cacher la valeur et le sens réel des choses, pour qu’une minorité de personnes puisse finalement exploiter cette valeur. C’est justement ce qu’essayent de faire les ennemis de Jill : ils lui disent de partir car la ferme n’a pas de valeur. Sans découvrir la matérialité qui caractérise sa propriété, Jill ne peut pas en comprendre le sens. Si elle n’avait pas cherché – et trouvé – la maquette, elle serait partie en abandonnant sa « mine d’or », convaincue qu’elle n’était qu’un terrain aride. McBain n’était qu’un fou, pars ! Or la folie de McBain est en réalité sa capacité à questionner la rhétorique de l’immatérialité et à saisir que le sens dépend de la matière : l’eau de Sweetwater, sa situation géographique, les enjeux liés à l’infrastructure ferroviaire…
Mais commençons par illustrer les fondements théoriques de cette rhétorique de l’immatérialité à partir d’un texte qui a profondément marqué la pensée occidentale : le Phèdre de Platon. C’est un dialogue qui propose une réflexion sur plusieurs thématiques, ce qui lui a parfois valu la réputation d’ouvrage décousu et non unitaire : le sujet principal – annoncé dès les premières lignes – est l’amour. Mais, dans le dialogue, prennent une place centrale la théorie de l’âme, la notion de métempsychose et, finalement, une longue critique de l’écriture. Certains auteurs – le plus connu est Jacques Derrida, dans « La pharmacie de Platon1 » – ont cependant montré que cette apparente hétérogénéité cache une unité profonde. Le fil rouge du dialogue est justement ce que nous appelons ici la rhétorique de l’immatérialité.
La théorie de l’âme de Platon est expliquée à partir du fameux mythe de l’attelage : l’âme est composée par un attelage tiré par deux chevaux et dirigé par un cocher. Les âmes sont ailées et leur nature les pousse à aller vers le haut jusqu’à atteindre la fin de l’univers sensible (l’hypouranion, qui se trouve sous la voûte du ciel) pour rejoindre finalement le monde supra-céleste (l’hyperouranion), où se trouvent les entités intelligibles, les essences véritables, les idées. Le monde sensible est fait de choses particulières : cette chaise-là, cette table-là, cette personne-là et ces choses sensibles sont aussi, évidemment, matérielles. En revanche, les choses intelligibles, celles qui se trouvent dans les hauteurs de l’hyperouranion, sont universelles : l’idée de chaise, l’essence de la chaise dont dérivent toutes les chaises particulières, l’idée de table, l’idée d’être humain. Et les idées sont évidemment immatérielles. La vérité est dans ces choses intelligibles dont les manifestations sensibles ne sont que des imitations. Or les âmes, par nature, volent dans l’hyperouranion et essayent de contempler la vérité des idées. Mais, parfois, elles n’y parviennent pas, parce que les chevaux qui tirent l’attelage ne sont pas d’assez bonne race. L’attelage tombe, l’âme dans sa chute finit par s’incarner dans un corps matériel qui fait obstacle à sa chute.
La matérialité, dans ce mythe, est une déchéance. La métaphore introduit une série de termes qui soulignent la supériorité absolue du monde immatériel : la hauteur du monde intelligible s’opposant au monde sensible qui est en bas, le vol ailé des âmes qui s’oppose à la chute et ensuite à la pesanteur du corps, le spectacle éclatant des idées et la vue trouble et imprécise des choses sensibles.
C’est dans ce contexte que Platon explique l’amour, qui consiste en une forme de remémoration : en voyant la beauté sensible d’une personne, l’amoureux se souvient de l’idée de beauté que son âme a vue dans l’hyperouranion et ce souvenir le pousse à s’améliorer : cela signifie arrêter de s’intéresser aux choses sensibles et matérielles pour essayer d’atteindre à nouveau les choses immatérielles. Le philosophe, la personne qui aime la sagesse, est celui qui ne regarde plus le monde sensible qui l’entoure et qui, pour cette raison, est maladroit dans les choses triviales qui caractérisent la vie quotidienne ; il regarde en haut, les idées, les concepts, ce qui lui vaut, parfois, de tomber dans un trou, comme Thalès, en se ridiculisant auprès de ses semblables. Mais, en réalité, ce désintérêt pour le monde est le signe d’une supériorité : l’amour a porté le philosophe à se hisser au-dessus des autres, à monter vers le haut, à regarder le monde intelligible.
Ce n’est donc pas étonnant que, dans le même dialogue, on discute ensuite du rapport entre parole et écriture pour affirmer la supériorité de la première sur la seconde. La parole – le logos – est immatérielle et sa déchéance est représentée par l’incarnation de l’écriture.
Certes, une analyse plus attentive du texte de Platon fait surgir des doutes sur la netteté de cette opposition : on comprend vite que Platon ne cautionne pas complètement cette structure et que, finalement, la matérialité a dans sa pensée une place bien plus nuancée et importante. Mais la simplification que l’on vient d’esquisser représente bien la doxa platonicienne telle qu’elle a été transmise à travers les siècles dans la pensée occidentale. Le platonisme reste fondamentalement lié à cette supériorité de l’immatérialité sur la matérialité et à l’association de la notion de matière à une forme de déchéance.
On retrouve cette doxa dans plusieurs théories antiques, mais un exemple notable et particulièrement parlant est celui de l’un des plus grands philosophes néoplatoniciens : Plotin. Dans La Vie de Plotin, son élève Porphyre nous décrit les pratiques d’écriture de son maître. L’écriture est explicitement méprisée par Plotin. Porphyre raconte que le philosophe aurait d’abord composé dans sa tête la totalité des Ennéades, son grand ouvrage, pour ensuite l’écrire comme si le contenu lui avait été dicté. Plotin fait peu de cas de la matérialité de l’écriture, il écrit mal, il ne se relit pas, car cette forme incarnée de sa pensée n’a finalement aucune importance : ce qui compte, c’est ce qui vient avant, la pensée désincarnée et immatérielle. Quand il écrit, Plotin est ailleurs, car cette activité ne requiert pas de concentration ; il parle en même temps avec ses amis. Le mépris pour l’écriture correspond à un égal mépris pour son propre corps, dont il ne s’occupe pas du tout – il ne s’intéresse ni à la nourriture ni à la santé ou à l’hygiène. Il y a donc deux Plotin : le grand penseur, qui habite dans le monde intelligible, et le Plotin secrétaire de lui-même qui a un corps et une écriture car il est inévitable, dans ce vil monde sensible, de faire des compromis avec la matière.
On retrouve cette rhétorique et ce mépris dans la tradition aristotélicienne – pourtant connue comme une pensée plus matérialiste que celle du maître Platon. Chez Aristote se manifeste de façon claire le lien entre rhétorique de l’immatérialité et sexisme – qui sera souvent mentionné dans ce livre. Dans son traité sur la reproduction des animaux (De generatione animalium, 716a5), Aristote pose les bases d’une théorie qui restera centrale dans toute la médecine occidentale pendant plusieurs siècles : selon son idée, le mâle apporte le principe de mouvement et la forme immatérielle, tandis que la femelle apporte la matière qui permet l’incarnation sensible de ce principe. La forme – ce qui est important, ce qui porte l’essence – se trouve dans la semence des mâles ; l’apport des femelles n’est que la nourriture qui permet à ce principe de se développer.
La matière joue un rôle fonctionnel et utilitariste : elle sert à quelque chose, mais ne détermine pas ce à quoi elle sert. L’exemple de la reproduction selon Aristote est très clair : la matière ne structure pas l’être qui naîtra – l’essence est déterminée par le principe formel –, la matière sert juste de nourriture. Comme dans le tableau de Rembrandt, le rôle de la femme se limite à chauffer la pièce. Ce qui est immatériel définit des objectifs, implique des visions du monde, des modèles, des attentes, des cibles ; la matière doit uniquement garantir le bon fonctionnement de ce qui a été défini. Ce que la matière peut faire de mieux, c’est donc de ne pas se faire voir, de ne pas se faire remarquer : si tout fonctionne bien, elle aura rempli sa tâche sans trop déranger. Mais, dès qu’elle se manifeste, c’est que quelque chose ne fonctionne pas bien, pose problème. Quand elle se fait voir, la matière semble nous déranger.
De cette base métaphysique ancienne, on peut comprendre une série de structures politiques et sociales qui caractérisent encore la société d’aujourd’hui. Les activités humaines sont divisées en travaux intellectuels et en travaux manuels ; nous avons, d’une part, des personnes qui se trouvent du côté de l’immatérialité, aux mains propres et aux grands cerveaux, et, de l’autre, des personnes matérielles, aux mains abîmées et sans nécessairement beaucoup d’éducation. D’une part, des métiers et des rôles qui bénéficient d’une grande reconnaissance symbolique et économique – presque systématiquement associés au genre masculin : avocats, médecins, dirigeants… ; de l’autre, une foule d’activités peu reconnues – même si considérées comme indispensables – car définies comme matérielles, prises en charge par des subalternes qui peuvent donc aussi être des femmes : une foule de plombiers, mécaniciens, secrétaires, infirmières… Les premiers sont ceux qui décident où le monde peut et doit aller ; ce sont ceux qui ont les idées, qui portent des valeurs politiques, morales, éthiques et sociales, qui ont des visions du monde. Les second·es devraient avoir comme unique aspiration de disparaître : si iels font bien leur travail, s’il n’y a pas de glitch2, si iels ne causent pas de problèmes, tout ira bien. Les objectifs imaginés par les intellectuels seront atteints et la foule de manuels pourra passer inaperçue.
N’est-ce pas ainsi qu’on pourrait interpréter la situation de Jill ? La valeur d’une terre qui n’a pas de valeur matérielle serait donnée par le génie de quelqu’un qui, immatériellement, intellectuellement, en imagine un usage quelconque. La terre ne vaut rien. C’est l’idée d’y faire une gare qui apporte la valeur. C’est évidemment ce que Morton, le malveillant propriétaire de la ligne de chemin de fer, voudrait faire croire à Jill : ce n’est pas la terre qui a une valeur, c’est son idée d’y construire une gare. Mais la folie de McBain contredit cette interprétation. McBain sait que la valeur ne dépend pas d’une idée abstraite, que l’homme des idées, le propriétaire de la compagnie ferroviaire, ne vaut pas plus que lui, le fermier : car lui, en tant que manuel, sait reconnaître le sens produit par la matière. Sa terre vaut parce que, matériellement, elle a une valeur : le chemin de fer ne peut que passer par là.
S’il est vrai que des changements se sont fait sentir ces dernières décennies – Crawford3 en parle et montre à quel point cette tendance commence à être mise en crise –, il reste que ce schéma, qui attribue de la valeur à ce qui est immatériel et en nie à ce qui est matériel, a conditionné la culture occidentale pendant des millénaires et qu’il est encore fortement prégnant.
Comment expliquer ce mépris de la matière ?
Pour le comprendre, il est utile de revenir à Platon et à sa définition de l’âme. Dans le mythe raconté dans le Phèdre, les âmes sont, à l’origine, sans corps. Elles sont immatérielles. Puis certaines d’entre elles tombent, c’est le cas des âmes de moins bonne qualité, à cause de leur incapacité à voler correctement. Les âmes parfaites restent immatérielles : ce sont les âmes des dieux. Les autres continuent de tomber jusqu’à rencontrer quelque chose de matériel pouvant arrêter leur chute, un corps dans lequel s’incarner. L’incarnation crée ainsi une dualité : âme et corps.
Ce mythe décrit finalement ce qu’est un être humain : un composé d’âme et de corps. D’une part, il y a ce que les êtres humains ont de meilleur – l’âme – les rapprochant des dieux et, de l’autre, ce qu’ils ont de pire. Le corps (soma), dit Platon en jouant sur la consonance en grec, est le tombeau (sèma) de l’âme : soma sèma.
On retrouve la même structure dans une certaine doxa chrétienne – qui s’inspire fortement du platonisme – et qui voit dans tout ce qui est sensible le mal – la chair qui porte au péché, qui se corrompt et nous rapproche des animaux – et dans ce qui est immatériel le bien – l’âme qui a un rapport avec Dieu et qui est faite à son image.
Dans ce type de discours, l’identification de deux éléments contradictoires composant l’être humain sert justement à le différencier des autres choses qui l’entourent : parce qu’il n’a pas qu’une composante matérielle, mais qu’il a en plus, par rapport à toutes les choses sensibles, une composante immatérielle, l’être humain est supérieur aux autres animaux, supérieur aux autres choses peuplant l’univers. Il vaut plus que tout ce qui est dans le monde. Le monde étant sensible, nous avons besoin de ce quelque chose en plus, de cette différence, qui détermine que nous, êtres humains, nous valons mieux que tout ce qui nous entoure.
La polarisation matériel-immatériel s’ajoute ainsi à d’autres oppositions, qui, à leur tour, renforcent cette idée anthropocentrique : l’opposition entre sujet et objet et celle entre activité et passivité notamment.
La notion de sujet apparaît à l’époque moderne, mais elle s’apparente à la notion classique d’âme. Le sujet est l’instance qui regarde le monde. Il est actif car c’est la force qui permet l’appropriation des choses. Le sujet devient le point d’appui de tout rapport avec l’univers : la seule manière pour pouvoir affirmer qu’il y a un monde, c’est d’en avoir une expérience subjective. Au sujet, actif, s’oppose l’objet, passif, qui ne fait qu’être là, donné, exposé au regard du sujet.
Il est évident que la matière est du côté de l’objet : elle est là, passive, donnée, elle n’a aucune activité propre, elle ne peut que faire résistance, jouer de son inertie. Le sujet – peu importe qu’il soit pensé comme conscience, intellect ou « je pense » cartésien – est du côté de l’immatérialité.
Dans un tel contexte, il est évident que l’être humain a quelque chose d’irréductible à la matière. Nous valons plus que tout le reste de l’univers parce que nous sommes fait·es de quelque chose qui dépasse les limites de l’univers même. Cette idée de dépassement est le fondement de tout anthropocentrisme : elle permet d’affirmer la supériorité humaine et de justifier une série d’actions et de comportements qui l’accompagnent.
Nous verrons, dans le chapitre 5, que ces idées sont aussi au fondement d’un discours particulier qui concerne la technique : celui qui la lie à la possibilité de nous délivrer de tout ce qui est matériel – et donc banal, trivial, ennuyeux et dépourvu de sens – en déléguant ces tâches à des machines. Dans ce contexte, la rhétorique de l’immatérialité est le point de départ d’une dépendance : nous ne sommes plus autonomes, notre délivrance de la matière, au lieu de nous garantir la liberté, nous l’ôte en nous rendant esclaves des technologies et de ceux qui les possèdent et les maîtrisent. Si nous voulons être libres à l’époque du numérique, nous devons nous émanciper de la rhétorique de l’immatérialité.
La rhétorique de l’immatérialité n’est pas la seule approche possible au monde. Si ce type de discours est très présent dans la tradition occidentale, de Platon jusqu’à nos jours, des théories et des approches plus anciennes critiquent le mépris de la matière et proposent des visions du monde où elle joue un rôle central.
Ces approches, qu’on peut définir comme « matérialistes », remontent au moins à des philosophes nommés « atomistes », comme Leucippe et Démocrite qui ont vécu avant Socrate. La figure la plus en vue du matérialisme classique est en revanche Épicure, dont les écrits ont presque complètement été perdus, mais dont les théories nous ont été transmises par d’autres auteurs, notamment par Lucrèce dans son chef-d’œuvre Sur la nature. Pour Épicure, tout est matière, il n’y a que de la matière ; même les émotions, les sentiments, les concepts sont en dernière analyse de la matière.
Au XIXe siècle, c’est Marx qui, en reprenant les matérialistes antiques – sa thèse de doctorat portait justement sur Démocrite et Épicure –, revendique un matérialisme radical en montrant que le réel est fait d’un ensemble matériel de relations sociales. Ainsi, Marx réinterprète la dialectique hégélienne en remplaçant les idées pures de Hegel avec des réalités concrètes : les moyens de production, les marchandises, le capital, les rapports de classe. Jill, dans sa recherche des conditions matérielles qui déterminent la valeur économique de sa ferme, est donc profondément marxiste.
Si le matérialisme a toujours existé, on ne peut pas pour autant dire qu’il ait bénéficié d’une bonne renommée à travers les siècles. Méprisé par les platoniciens puis accusé et censuré par la théologie chrétienne, il a toujours joué un rôle secondaire par rapport à la rhétorique de l’immatérialité.
Cependant, plusieurs théories philosophiques récentes, rassemblées sous l’étiquette « nouveaux matérialismes », essaient d’encourager une reconsidération de la place et du statut de la matière dans nos conceptions du monde. Ces théories sont multiples et hétérogènes4, mais il est possible d’en identifier certains traits communs.
Selon les nouveaux matérialistes, la matière n’est pas passive, donnée, neutre, vile et dépourvue de sens, mais elle est active, vivante. Elle porte et produit le sens. Il est ainsi possible de questionner le fait que la pensée et les autres activités considérées comme proprement humaines et supérieures se trouvent du côté de l’immatérialité.
Parmi ces approches, il est intéressant de s’arrêter ici sur celle proposée par Karen Barad, notamment dans son ouvrage Meeting the Universe Halfway5. Barad est une philosophe et physicienne proposant une théorie de la matière que l’on peut qualifier de révolutionnaire, en offrant un point de vue neuf et particulièrement éclairant, surtout pour les objectifs de ce livre.
À partir de la philosophie et des découvertes en physique de Niels Bohr, Barad explique que matter matters : la matière compte car elle porte du sens. Cela implique qu’il n’y a pas de distinction et de séparation entre, d’une part, discours, pensée, idées et concepts et, de l’autre, matière, comme le voudrait la rhétorique de l’immatérialité.
Pour comprendre la profondeur de la proposition de Barad, il est utile de s’arrêter sur une expérience physique imaginée par Bohr qui a eu un rôle fondamental dans le développement de la physique quantique et illustre de façon claire le propos qui nous intéresse ici. Il s’agit de l’expérience de la double fente.
L’expérience sert à déterminer si le phénomène observé est une onde ou une particule. Elle est initialement réalisée en 1801 par Thomas Young, qui l’utilise pour démontrer que la lumière se comporte comme une onde. L’expérience consiste à envoyer un faisceau de lumière vers un support avec deux fentes puis à observer son comportement. Dans la physique classique, on considère qu’un phénomène est soit constitué d’une série de particules soit une onde. Or, si on lance contre ce support des balles de tennis, par exemple, puis que l’on regarde derrière l’endroit où celles-ci sont arrivées, on s’attend à trouver deux concentrations de balles : une derrière chaque fente. Certaines balles seront bloquées par le support, d’autres passeront par l’une des fentes et d’autres encore par l’autre fente. Les balles se comportent donc comme des particules. Dans le cas où ce sont des ondes qui passent par les deux fentes, elles produisent des interférences. Si on place un écran derrière le support, puis que l’on examine les endroits atteints avec une plus grande densité, on verra non pas, comme dans le cas des balles, deux lignes, mais une série de lignes d’épaisseurs différentes. C’est ce qu’on appelle un patron d’interférence.
Or, si on réalise l’expérience en lançant contre les deux fentes des électrons, le résultat est surprenant : les électrons – qui pourraient pourtant être assimilés à de petites balles – ne se comportent pas comme des particules, mais comme des ondes. Ils produisent un patron d’interférence : les électrons semblent « interférer » les uns avec les autres.
Pour tenter de comprendre le phénomène, il est possible de ruser : nous pouvons lancer les électrons un par un, en empêchant ainsi qu’ils interagissent les uns avec les autres. Les résultats sont là aussi étonnants : chaque électron arrive en effet à un point précis de l’écran. Mais si on regarde tout à la fin, après avoir lancé séparément tous les électrons, on constate un patron d’interférence. Étant donné que les électrons sont lancés un par un, ils ne peuvent pas interférer les uns avec les autres : chaque électron semble donc passer par les deux fentes et interférer avec lui-même.
Pour vérifier ce fait étrange, nous pouvons modifier le dispositif de façon à être capables d’observer par quelle fente passe un électron. Nous envoyons un électron à la fois et, pour chaque électron, nous notons la fente par laquelle il est passé. L’expérience est identique à la précédente à part le dispositif qui a été modifié pour nous permettre d’identifier la fente empruntée par l’électron. Là encore, le résultat est surprenant : le patron d’interférence disparaît !
Ces expériences sont d’abord imaginées par Niels Bohr en tant qu’expériences de pensée (Gedankenexperiment). À l’époque de Bohr, il n’était en effet pas techniquement possible de les réaliser. Mais, plus récemment, elles ont été réalisées et les résultats étonnants prévus pas Bohr ont été effectivement observés.
Comment comprendre ce qui se passe ? Il semble évident, d’abord, qu’il est impossible d’établir si un électron est une onde ou une particule. Son comportement a les caractéristiques typiques d’une onde dans certaines circonstances et celles d’une particule dans d’autres. Sa nature est incertaine ou indéterminée. Barad souligne la différence entre ces deux idées, incertitude ou indétermination, et affirme que certains interprètes (typiquement Werner Heisenberg) optent pour la première alors que Bohr défend la seconde. Si la nature de l’électron est incertaine, cela signifie que l’électron a une nature mais que, à cause des limitations de nos dispositifs d’observation, ou de notre cadre théorique, nous ne sommes pas capables de la comprendre. Si la nature de l’électron est indéfinie, cela signifie que l’électron n’a pas une nature stable, que cette « nature » se précise dans un contexte particulier. Et c’est là l’idée de Bohr : selon lui, les concepts de « particule » et d’« onde » sont définis par les circonstances nécessaires pour leur mesure. Le concept de particule n’est pas une idée abstraite, mais le résultat d’un dispositif qui permet d’identifier un phénomène en tant que particule. Nous avons vu dans l’expérience de Bohr que, lorsque nous modifions le dispositif pour être capables d’identifier la fente par laquelle passe l’électron, l’électron est une particule. Dans le dispositif non modifié, le concept de particule n’est pas implémenté. Il n’est donc physiquement, matériellement pas possible.
Les concepts théoriques, affirme Barad pour conclure, ne sont pas des entités immatérielles, mais des « arrangements physiques spécifiques6 ».
Ce détour par la physique quantique nous montre à quel point la rhétorique de l’immatérialité est insuffisante pour comprendre le monde. Ce qu’il nous enseigne est que la pensée, le sens, les idées, les concepts sont matériels. Il faut bien comprendre cette phrase : elle ne signifie pas que la pensée est « conditionnée » par un contexte matériel, mais, plus profondément, que la pensée est ce contexte matériel.
Revenons maintenant, avec ces résultats à l’esprit, à l’anecdote de Porphyre sur l’écriture de Plotin ; non seulement Plotin se trompe sur le peu d’importance de l’écriture, mais les Ennéades sont ce type particulier d’écriture. Elles ne sont rien d’autre que cela. Les Ennéades sont l’ensemble des arrangements matériels qui les ont fait émerger et donc un certain type d’écriture, l’interaction entre des personnes particulières et aussi, après Plotin, une série de contextes de transmission, d’inscription, d’archivage, de copie, de citation, etc. qui ont permis qu’un texte particulier soit lu aujourd’hui.
Les erreurs de langue de Plotin ont été corrigées par Porphyre, qui a probablement contribué non pas à la lisibilité ou au style de ce texte, mais à son sens. Le « style » final, compliqué, parfois incompréhensible, a constitué et constitue une des spécificités des Ennéades et il détermine aussi leur sens. Loin d’être une activité secondaire et sans importance, l’écriture et l’ensemble de circonstances matérielles – si quelqu’un interrompait Plotin, si l’outil pour écrire avait des caractéristiques d’un type ou d’un autre, si le support gardait les traces des inscriptions de façon plus ou moins claire, la taille de ce support, la graphie des lettres utilisées… – font le sens des Ennéades. Le sens n’est rien d’autre que l’ensemble de ces éléments matériels.
C’est finalement ce que voulait dire Marshall McLuhan : « Le média est le message7. » Il n’y a pas un contenant et un contenu, il n’y a pas un support et quelque chose qui est porté par ce support. Le message, le sens, n’est pas une entité abstraite qui préexiste au média qui la porte : le message n’est rien d’autre que le média. Nous pouvons ajouter avec Barad : le message est un arrangement physique spécifique ; et c’est exactement ce qu’est aussi un média.
Il est donc fondamental de se pencher sur les environnements de production et de diffusion de la pensée et de la connaissance si nous voulons comprendre d’où viennent cette pensée et cette connaissance. Car les idées ne sont pas le fruit du cerveau d’un individu, mais le résultat d’un arrangement physique.
C’est pour cette raison que ce qu’on appelle « numérique » vaut la peine d’être questionné de façon approfondie.
L’informatique et le monde numérique – dans le sens culturel que nous avons attribué à cet adjectif – entretiennent une relation ambiguë avec la question de la matérialité. On peut identifier deux discours apparemment contradictoires par rapport à cet aspect qui contribuent à définir le sens que le mot « numérique » a dans nos sociétés. D’une part, les environnements numériques et ce qui s’y produit ont souvent été associés à l’immatérialité ; de l’autre, certains éléments de la technologie sont très clairement considérés comme matériels et dévalués justement pour cette raison. La contradiction n’est qu’apparente et les discours définissant le rapport entre technologies numériques et matérialité ne font que confirmer ce que nous avons dit jusqu’ici à propos de la rhétorique de l’immatérialité : lorsqu’il est considéré comme immatériel, « le numérique » est prisé ; lorsqu’il révèle son caractère matériel, il est considéré comme quelque chose de trivial qui ne mérite pas d’attention particulière.
La rhétorique de l’immatérialité, dans le cadre des technologies numériques, est souvent utilisée comme un fort argument de marché et caractérise une grande partie de la communication des entreprises du secteur. Les enjeux et les implications politiques, éthiques, sociales et économiques de ces discours sont fondamentaux. Plusieurs auteurs et autrices ont analysé le rapport entre numérique et matérialité, donnant lieu à ce que Nathalie Casemajor appelle digital materialism8.
L’histoire d’un projet souvent cité comme le premier dans le domaine des humanités numériques – ou plutôt la façon de raconter cette histoire – peut nous aider à mieux saisir ces enjeux. Il s’agit de l’Index Thomisticus, la numérisation de la totalité de l’œuvre de Thomas d’Aquin, réalisée par le père Roberto Busa au début des années 19509. Il est significatif que le seul nom associé à ce projet soit celui d’un homme : un père jésuite. Mais il est nécessaire de préciser que nombre d’autres noms ont été oubliés. Melissa Terras et Julianne Nyhan10 ont entrepris un travail d’archives pour essayer de retrouver certains de ces noms. En voici quelques-uns : Livia Canestraro, Rosetta Rossi Bertolli, Gisa Crosta. Cette recherche a récemment fait l’objet d’un livre, Hidden and Devalued Feminised Labour in the Digital Humanities11. Le grand travail « du père Busa » a consisté à encoder l’œuvre de Thomas d’Aquin dans des cartes perforées, mais le jésuite est-il vraiment l’auteur de ce travail ? En réalité, Busa n’a jamais rien encodé. L’équipe en charge de l’encodage était constituée de dix-sept personnes, toutes des femmes. Dix-sept opératrices qui avaient acquis des compétences complexes et qui ont réalisé le travail de numérisation en étant probablement confrontées à des décisions d’ordre épistémologique et théorique ayant profondément conditionné le résultat final. L’Index Thomisticus a de fait été réalisé par ces dix-sept personnes dont les noms ont systématiquement été oubliés. Pourquoi n’est-il resté que le nom de Busa ? Le travail fourni par Livia Canestraro et son équipe était manuel et matériel : le support utilisé pour enregistrer le texte était des cartes et le travail d’encodage consistait concrètement à les perforer. Il était par ailleurs réalisé dans les locaux d’une ancienne usine textile. Le travail manuel – et, pour cette raison, considéré comme trivial – des femmes qui tissent devenait le travail encore une fois manuel et matériel de femmes qui perforent. Ces femmes réalisaient pourtant un travail informatique complexe qui, quelques décennies plus tard, gagnerait une grande reconnaissance symbolique.
Un des premiers ordinateurs de l’histoire fait l’objet d’un récit similaire : l’ENIAC (dont une photo, avec les informaticiennes Ruth Lichterman Teitelbaum et Ester Gerston, illustre la couverture de ce livre), une machine conçue pour automatiser les calculs balistiques pendant la Seconde Guerre mondiale. Jennifer S. Light raconte cette histoire dans l’article « When computers were women12 » et Kathy Kleiman dans un livre ainsi que dans un film documentaire13. Light et Kleiman démontrent que, dans ce projet également, les seuls noms mis en avant sont ceux des deux ingénieurs hommes ayant conçu la machine. Le très grand nombre d’informaticiennes qui ont travaillé sur l’ENIAC sont presque systématiquement ignorées. Dans les photos officielles, on voit très souvent des hommes poser devant la machine. Lorsqu’on y voit des femmes, elles ne sont pas identifiées en légende, considérées comme des subalternes ou de simples figurantes. Pourtant, six femmes en particulier, Kathleen Antonelli McNulty, Jean Jennings Bartik, Betty Snyder Holberton, Marlyn Wescoff Meltzer, Frances V. Bilas Spence et Ruth Lichterman Teitelbaum, choisies pour leurs grandes compétences en mathématiques, ont eu un rôle décisif dans le projet ENIAC comme dans l’histoire de l’informatique : celui de produire l’ensemble des calculs. Considérées comme de simples opératrices, qui devaient être remplacées par des hommes dès que la guerre serait finie et que la valeur symbolique associée à leurs tâches augmenterait, ces femmes ont vu leurs noms et leurs contributions longtemps ignorés. Par ailleurs, leur activité matérielle était assimilable aux machines elles-mêmes : nommées computers, elles réalisaient une activité triviale qui pouvait ensuite être confiée à une machine. Les computers ont d’abord été des femmes avant de devenir des ordinateurs – c’est l’idée à laquelle fait référence le titre du livre de Katherine Hayles, My Mother Was a Computer14. Wendy Hui Kyong Chun15 souligne également que la programmation de l’ENIAC se faisait en branchant et en débranchant des câbles : il s’agissait d’une activité manuelle et matérielle. Sa matérialité – comme dans le cas de la perforation des rubans de l’Index Thomisticus – a probablement induit le peu d’importance qu’on attribuait à ces tâches et le fait qu’elles soient associées aux femmes.
Femmes et machines sont donc assimilées comme deux entités dont la caractéristique est de réaliser des tâches matérielles et triviales au service des hommes et de leurs plus hautes préoccupations. C’est la même idée que nous avons évoquée en début de chapitre en parlant du tableau Le Philosophe en méditation de Rembrandt, où le personnage de la femme s’occupe de tâches matérielles au service du « grand homme ». Les servantes et les secrétaires deviennent des machines : les femmes qui calculent deviennent des ordinateurs comme, quelques années avant, les typewriters – des secrétaires qui tapaient à la machine – étaient devenues elles-mêmes des « machines à écrire16 ». On retrouve aujourd’hui ce sexisme et cette assimilation des femmes aux machines dans le design des assistantes virtuelles intelligentes, dont la voix est presque systématiquement féminine. Lai-Tze Fan17 analyse en particulier le cas d’Alexa, l’assistante virtuelle produite par Amazon, clairement identifiée femme – à partir de son prénom. Alexa est conçue pour correspondre au stéréotype d’une personne au service d’un homme, une sorte de secrétaire ou une servante à la Rembrandt – parfois même une mère – toujours prête à faire tout ce que son supérieur – ou son fils – lui demande. Fan démontre que le design d’Alexa « reflète le travail traditionnellement féminisé » et incarne une vision du monde profondément sexiste au point d’implémenter des réponses très problématiques à des commandes de l’utilisateur – imaginé évidemment comme masculin – qui incluent des abus verbaux.
On voit clairement dans ces exemples les deux côtés du numérique : d’une part, son aspect immatériel – représenté par l’homme, par l’intellectuel qui pense et imagine un projet – et, de l’autre, son aspect matériel, consistant à faire concrètement et manuellement des choses, perforer des cartes pour que le texte soit lisible par une machine ou brancher des câbles comme Ruth Lichterman Teitelbaum et Ester Gerston sur la couverture de ce livre. La partie matérielle est considérée comme triviale, elle ne semble pas avoir d’importance. Elle est donc assimilée à un travail bureautique, une tâche de secrétaire laissée à des femmes, des ouvrières dont le nom peut bien être oublié, la matérialité de leurs actions n’ayant supposément pas d’impact sur les « contenus ».
Au début de son histoire, l’informatique est donc associée à la matérialité. Elle est pour cette raison considérée comme quelque chose de neutre, non important et banal. Cette perception change avec le temps et, en particulier, à partir des années 1980. C’est justement à partir de ces années que le monde de l’informatique commence à être associé au concept de virtuel et que les technologies informatiques sont rattrapées par la rhétorique de l’immatérialité. En effet, la virtualité est immédiatement perçue comme une possibilité de liberté et d’émancipation et déclenche l’émergence d’un imaginaire du numérique qui verra apparaître la figure du hacker – en déterminant, comme le remarque Isabelle Collet18, une disparition soudaine des femmes du monde de la technologie informatique.
Dès que le numérique est associé à l’immatérialité, il acquiert une valeur symbolique très élevée. En 1989, Tim Berners-Lee imagine le protocole (http) et le format (HTML) qui permettront la naissance du Web. Dans les mêmes années, les ordinateurs commencent à entrer dans toutes les maisons. En 1996, John Perry Barlow19 rédige la déclaration d’indépendance du cyberespace, où il affirme la liberté qui caractérise les citoyen·nes immatériel·les de l’espace numérique en opposition à la servitude matérielle à laquelle nous sommes assujetti·es dans le monde « physique ». Le début de cette déclaration est un exemple très parlant :
Gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace, la nouvelle demeure de l’esprit.
D’une part, l’industrie capitaliste, le monde gâché par la pollution et la souffrance, qui a rendu les êtres humains dépendants et leur a ôté toute liberté ; de l’autre, l’espace libre, celui auquel les méchantes institutions du monde physique ne peuvent pas accéder. Les gouvernements du monde industriel sont matériels, ils sont faits de chair et de métal, ils polluent, ils commettent des violences ; les habitant·es du cyberespace sont immatériel·les, iels ne sont que pur esprit. Le plus beau de l’être humain se trouve dans ce monde immatériel qui échappe au corps-tombeau. On est très proche des thèmes de Platon avec lesquels nous avons ouvert ce chapitre.
Bien loin du souhait de Barlow, l’industrie a rapidement récupéré cette rhétorique pour se l’approprier : les entreprises de la Silicon Valley vendent l’immatérialité de la déclaration d’indépendance du cyberespace et l’idée de liberté qui y était associée. Elles vendent la délivrance de tout ce qui est matériel. La terminologie utilisée par la plupart des GAFAM pour parler de leur infrastructure le montre bien. Un des produits les plus importants d’Amazon, celui qui engendre plus de 10 % de ses revenus, est le service d’infonuagique (ou informatique en nuage – cloud computing), proposé par la division AWS (Amazon Web Service). Le mot utilisé pour décrire ce service – « cloud », « nuage » – est particulièrement significatif : il renvoie à quelque chose de léger, d’aérien. L’idée que ce terme transmet est que, au lieu d’avoir un ordinateur, matériel, devant nos yeux et à portée de main, nous pouvons avoir quelque chose d’immatériel qui n’est donc pas situé, qui est partout, qui ne peut pas se casser – car il n’a pas de matière. La notion d’infonuagique est née pour signifier un changement important de marché : les principaux produits proposés par les entreprises du numérique ne sont pas des objets, mais des « services ». Au lieu de vendre un ordinateur, Amazon vend ce qu’un ordinateur peut faire et donc une série de services : archiver des données, réaliser des calculs, faire tourner des applications. L’utilisateur ou l’utilisatrice a accès à cet ensemble de services, les uns connectés aux autres jusqu’à former une sorte de « nuage ». L’expression rend bien l’ensemble de produits considérés comme immatériels – des services et non des objets – et dont les relations sont aussi fluides et ouvertes que celles entre des particules de gaz. De plus, ces services sont « dans le ciel », accessibles partout car ils ne semblent être nulle part. Et les nuages se trouvent en haut, en reprenant la dialectique entre haut et bas qu’on retrouve déjà chez Platon… les services d’infonuagique sont finalement dans l’hyperouranion.
Ce discours sur les services nuagiques entre dans une rhétorique plus large fondée sur l’idée de « dématérialisation ». Les entreprises comme Google, Amazon, Facebook, Apple, Microsoft, pour ne citer que celles qui forment l’acronyme GAFAM, insistent sur le fait que leur infrastructure est dématérialisée. Tout est symbolique : le calcul, les services, les données. Il n’y a plus un document, mais des ressources disséminées qui permettent de produire un document lorsqu’on en a besoin. Rien n’est situé, tout est partout, toujours accessible, jamais localisé.
Mais, en suivant l’intuition de la protagoniste d’Il était une fois dans l’Ouest, nous devons nous poser la question : que se cache-t-il derrière cette rhétorique ? Où se trouvent les nuages ? Quelles sont les conditions matérielles de la production et de l’émergence de la valeur symbolique et économique ? En réalité, ces « services », comme l’eau de Sweetwater et son emplacement stratégique, sont bien matériels : concrètement, ils sont réalisés par des machines puissantes, connectées à d’immenses infrastructures de réseaux, d’énormes câbles capables de transporter un grand débit d’informations. Ces machines ont un impact environnemental important, elles consomment beaucoup d’énergie, chauffent énormément, utilisent des matériaux rares ou d’accès critique sur le marché. Leur présence sur des territoires particuliers a un impact majeur sur la politique, l’économie et la vie de ces lieux. Les emplacements de ces machines sont choisis pour des raisons précises, souvent reliées à des histoires géopolitiques anciennes – et toujours très matérielles.
Le lien entre anciennes et nouvelles infrastructures nous ramène étonnamment à l’histoire de Jill et de Sweetwater. Les histoires de lutte pour la construction des chemins de fer au XIXe siècle ont un lien direct avec la mise en place des « nuages » numériques, comme démontré dans l’exemple documenté par Ingrid Burrington20 : le cas de Council Bluffs. Il s’agit d’une petite ville de l’Iowa, qui compte (en 2020) 62 000 habitants. En 2007, Google décide d’y construire une ferme de données, un de ces lieux où se trouvent les nuages. D’autres entreprises numériques prennent bientôt la même décision : Facebook21 et Microsoft22. Pourquoi Council Bluffs ? L’histoire, comme le montre Burrington, remonte justement au XIXe siècle et elle n’a rien d’immatériel ni de nuagique. À partir de 1864, la petite ville de Council Bluffs, tout comme l’imaginaire Sweetwater de Sergio Leone, est le point de départ du chemin de fer. La ville devient un nœud fondamental du réseau ferroviaire. Quel est le rapport avec les nuages ? Pour pouvoir installer un centre de données, il est nécessaire d’avoir une excellente connexion ; pour avoir une excellente connexion, il est indispensable d’être proche d’un endroit où passent de gros câbles de réseau. Or, pour câbler un territoire, il est nécessaire de pouvoir enterrer l’infrastructure et donc d’avoir l’autorisation des propriétaires de chaque bout de terre où l’on veut creuser. Il est évident qu’avoir l’autorisation de citoyen·nes privé·es pour faire un ensemble de trous, terrain après terrain, afin de traverser les États-Unis d’est en ouest n’est pas une simple entreprise. Mais cette entreprise a déjà été accomplie, certes avec beaucoup de dégâts « collatéraux » et énormément de violences – semblables à l’assassinat de McBain –, au XIXe siècle pour faire passer le chemin de fer. Au lieu de devoir passer un accord avec chaque propriétaire de la côte est à la côte ouest, il est suffisant de démarcher les quelques sociétés qui possèdent le chemin de fer : le câblage des États-Unis suit donc les voies de train et Council Bluffs est ainsi devenu un point stratégique pour installer une ferme de données. Dans son A Prehistory of the Cloud, Tung-Hui Hu23 explique justement cette superposition entre les infrastructures des « anciens médias » et celles des « nouveaux ». Hu raconte comment les sociétés des chemins de fer ont vendu aux compagnies de télécommunications leurs infrastructures abandonnées : là où se trouvaient des rails, on enterre la fibre optique. De cette manière, affirme Hu, les anciens médias ne disparaissent pas vraiment, ne sont pas simplement remplacés par les nouveaux, mais ils continuent à structurer notre société et à déterminer ses enjeux politiques. Si Jill avait vécu deux siècles, elle aurait découvert qu’elle n’héritait pas seulement d’une station ferroviaire et d’une ville, mais aussi d’une série de fermes de données.
Cet exemple montre bien la matérialité qui se cache derrière la « dématérialisation ». Des câbles enterrés, des contrats, des impacts démographiques, économiques, sociaux et politiques, des implications environnementales…
Encore une fois l’immatérialité semble préférable à la matérialité. Comme Morton, qui ne veut pas qu’on connaisse les conditions matérielles nécessaires à la construction de son chemin de fer, pour pouvoir plus aisément s’approprier les terres dont il a besoin, les grands acteurs du numérique communiquent très peu sur la matérialité de leurs infrastructures. L’exemple de l’infrastructure d’Internet est particulièrement parlant et analysé de façon exemplaire par Nicole Starosielski dans son livre Undersea Network24. Starosielski montre à quel point nous sommes peu conscient·es de l’existence et de l’importance sociale, politique et économique de cette infrastructure. La quasi-totalité des informations auxquelles nous avons accès, la quasi-totalité des actions et des pratiques de notre vie quotidienne passent par des câbles. Il s’agit d’une infrastructure énorme, très coûteuse et appartenant à un nombre peu élevé d’entreprises et d’États. Dans l’imaginaire collectif, ces câbles ont peu de place. Starosielski montre que plusieurs entreprises fournissant des infrastructures de réseau préfèrent être associées aux satellites qu’aux câbles, alors que, en réalité, les connexions satellitaires représentent un pourcentage minime par rapport aux connexions via câbles. Mais les satellites semblent « plus sexy », comme un manager d’une compagnie australienne le dit lors d’une entrevue avec l’autrice. Les satellites sont plus sexy – en revenant à notre analyse initiale – car, dans le dualisme matérialité-immatérialité, ils semblent être du côté de l’immatérialité. Non qu’un satellite soit immatériel, bien sûr, mais la connexion qui passe par un satellite ne se voit pas, ne se touche pas, à la différence d’un câble. La représentation préférée des réseaux est sans fil : wireless. Aussi, un satellite se trouve en haut, dans le ciel, avec les nuages et les idées de Platon. Imaginer qu’Internet passe par l’hyperouranion est sans doute plus sexy que l’imaginer au fond des océans.
Outre le fait d’être plus sexy, la rhétorique de l’immatérialité a un autre avantage : elle cache les véritables enjeux et limite la capacité de compréhension – et surtout de critique – du public. Nous sommes encore une fois face à des dynamiques de dissimulation. Comme l’affirme Starosielski, le fait de cacher la matérialité des infrastructures « réduit la conscience que le public a de l’infrastructure et donc semble réduire la possibilité de la détruire et semble protéger le flux de pouvoir ancré tout le long des câbles25 ».
Derrière la promesse de nous délivrer de la matière en nous projetant dans le monde idéal et immatériel rêvé par Barlow, les GAFAM cachent leurs stratégies de dissimulation, qui leur permettent de défendre leurs intérêts sans se laisser déranger par des critiques potentielles.
Nous arrivons ici à comprendre quelque chose de fondamental : la rhétorique de l’immatérialité n’est pas seulement fausse, elle est dangereuse parce qu’elle fait obstacle à la pensée critique.
La rhétorique de l’immatérialité est profondément enracinée dans notre culture. Comme on l’a dit, une des raisons qui justifient l’omniprésence de ce type de discours est qu’il permet de donner une définition de l’humain comme un être qui se détache des autres choses peuplant le monde. Il y a les êtres humains d’un côté et les autres choses de l’autre.
Nous l’avons vu dans le Phèdre de Platon : ce qui est immatériel est meilleur et appartient à un autre monde ; les êtres humains ont la caractéristique d’avoir un lien avec ce monde, à la différence des autres animaux et, plus généralement, des autres choses qui se trouvent dans le monde sensible. Cela signifie que les êtres humains, même s’ils se trouvent dans le monde sensible, ont un lien direct avec quelque chose de meilleur, ce qui fait d’eux le sommet de la pyramide du monde sensible.
Le même type d’argument se retrouve dans une bonne partie de la tradition judéo-chrétienne, à partir de la Genèse : les êtres humains participent de l’essence de Dieu, ils ont donc quelque chose qui les abstrait du monde où ils se trouvent en les projetant ailleurs. Les êtres humains – à différence de toutes les autres créatures et de toutes les autres choses – sont faits à l’image de Dieu.
L’immatérialité est l’aspect des êtres humains qui les différencie de tout le reste en les plaçant au-dessus de tout ce qui est sensible, dans une position intermédiaire entre l’immanent et le transcendant.
Cette idée est ce qui permet d’affirmer une supériorité des êtres humains par rapport aux animaux, et de justifier et fonder certains comportements. Mais c’est aussi ce qui fonde une supériorité de l’intérêt humain sur l’environnement, par exemple, et sans doute sur les « machines ».
Or il est évident que ce discours n’est pas sans poser problème. Des penseuses comme Katherine Hayles ou Rose Braidotti26 ont souligné que cette prétendue supériorité humaine a des effets néfastes d’un point de vue éthique et politique. Que l’on pense à notre rapport aux animaux ou aux problèmes environnementaux qui affectent de plus en plus la planète : pouvons-nous vraiment, en tant qu’êtres humains, détruire et traiter sans aucun sens éthique tout ce qui nous entoure sous prétexte que nous sommes supérieur·es ? Cette attitude – certes un peu caricaturée ici – relève encore du mépris pour la matérialité : ce qui est juste de la matière ne semble même pas entrer dans le champ du questionnement éthique.
Ces problèmes ne sont pas les seuls à émerger de ce discours : une définition forte d’être humain implique une délimitation nette – ou prétendument telle – des frontières de ce qui est humain et de ce qui ne l’est pas. Le fait de fonder la définition de l’humain sur cette participation à l’immatériel implique aussi de trier les caractéristiques des êtres humains et d’en déclarer certaines supérieures à d’autres. Parmi les êtres humains, il y aura donc des êtres humains qui sont plus humains que les autres, car ils correspondent davantage à cette définition idéale. Ce qui peut se réclamer d’une telle approche est évident : racisme, sexisme et tous types de violences sociales.
L’argument consiste simplement à dire que ce qui définit l’humain en tant que tel est sa proximité à l’immatérialité – des idées, de la pensée… On différencie ensuite les genres : masculin du côté de l’immatérialité et féminin du côté de la matérialité. C’est ce que fait typiquement Aristote, mais c’est aussi ce que nous retrouvons dans la plupart des représentations sociales de l’Antiquité à nos jours : les hommes pensent, les hommes dirigent et décident – sur la base de principes immatériels, de valeurs, de visions du monde… – et les femmes sont les « petites mains27 » qui appliquent et réalisent les décisions masculines. Et, si l’immatérialité est ce qui est le plus proprement humain des êtres humains, cela signifie que les femmes sont moins humaines que les hommes. Le même type de discours peut être construit par rapport à des populations, à des groupes sociaux, à des ethnies…
Plusieurs auteurs et autrices28 ont récemment dénoncé cette dérive en critiquant une certaine idée d’« humanisme » qui consisterait justement à définir l’humain de cette manière. Ce courant peut être identifié avec l’étiquette « posthumanisme », dont il vaut la peine de dire quelques mots. L’idée de fond est d’affirmer qu’il est nécessaire de questionner la stabilité de l’idée d’humain. Dans ce sens, ce type d’approche se distingue de façon très nette de mouvements comme le transhumanisme. On pourrait même dire que le transhumanisme est l’opposé du posthumanisme. Pour les transhumanistes, il s’agit d’« augmenter » l’humain en profitant notamment des technologies pour en faire un « super-humain ». Avec des prothèses et des extensions technologiques, il s’agirait de rendre l’être humain encore plus humain. Les transhumanistes radicalisent la définition d’humain et imaginent des moyens pour faire correspondre à cette définition de véritables êtres vivants. Le transhumanisme se situe complètement dans la rhétorique de l’immatérialité : la technologie est utilisée pour arracher l’humain à ses contingences matérielles et le projeter dans une sorte d’immatérialité rendue possible par la technologie.
Pour les posthumanistes, l’objectif est exactement l’opposé. Il s’agit de questionner ce qu’est l’humain, d’interroger sa supériorité ainsi que son étanchéité par rapport aux autres choses du monde. Comme l’affirme de façon très claire Karen Barad29, il s’agit de questionner les frontières entre humain et non-humain en s’interrogeant à chaque fois sur les enjeux politiques et éthiques des définitions possibles. Au lieu de croire qu’il y a des humains et des non-humains, il s’agit de s’intéresser aux phénomènes qui permettent d’établir des frontières entre ce qu’on considère comme humain et ce qu’on considère comme non-humain. Dans la réalité, il y a donc une continuité entre ces deux catégories et l’opposition n’est que le résultat d’un processus qui ne peut que rester ouvert. Certains contextes et certaines situations détermineront certaines frontières entre l’humain et le non-humain, d’autres contextes en produiront des différentes – par exemple plus inclusives ? plus attentives à l’environnement ? aux autres animaux ?
Dans ce débat, la place du numérique, des outils et des technologies est bien évidemment essentielle. Les approches posthumanistes nous invitent à questionner davantage l’idée selon laquelle il y aurait des pratiques puis des outils pour les réaliser. L’idée d’un penseur dont la pensée est ensuite inscrite sur un support devient complètement indéfendable : où commence « le penseur » et où commence l’outil d’écriture ? Y a-t-il une frontière nette entre, par exemple, un individu et le stylo, entre un individu et un ordinateur ?
Il n’y a pas d’outils dans nos mains : nous sommes le résultat des interactions avec les outils. Notre pensée, nos vies, nos valeurs, nos sociétés sont des phénomènes qui émergent dans des contextes matériels particuliers, dont les outils, les technologies, les environnements – numériques ou non – sont une partie fondamentale.
Il nous reste maintenant à nous interroger sur les moyens de décrypter la matérialité et le sens dans les environnements numériques. Comment faire en sorte de ne pas nous laisser tromper par l’apparente immatérialité des « solutions » GAFAM ? Comment en saisir les véritables enjeux ? Comment pouvons-nous – en suivant l’exemple de Jill – fouiller pour trouver la maquette de la gare ? La piste que je propose est de s’arrêter sur ce qui peut faire résistance au discours lisse des entreprises numériques. Il faut trouver une prise, une aspérité à laquelle nous accrocher, quelque chose qui casse le flux bien huilé des rhétoriques de l’immatérialité, de la simplicité, de l’intuitivité et du bon fonctionnement. Quelque chose, donc, qui ne fonctionne pas… comme un bug.
1. Jacques DERRIDA, « La pharmacie de Platon », Tel Quel, no 32-33, 1968.
2. Un « glitch » est une forme de bug normalement caractérisée par le fait d’avoir une courte durée et des effets moins graves sur le fonctionnement de l’infrastructure logicielle.
3. Matthew CRAWFORD, Éloge du carburateur, op. cit.
4. Pour un panorama général sur ces approches, voir Christopher N. GAMBLE, Joshua S. HANAN et Thomas NAIL, « What is new materialism ? », Angelaki, vol. 24, no 6, novembre 2019, p. 111-134.
5. Karen BARAD, Meeting the Universe Halfway. Quantum Physics and the Entanglement of Matter and Meaning, Durham, Duke University Press Books, 2007, 2e édition.
6. Ibid., p. 108.
7. Marshall MCLUHAN, Understanding Media, New York, Signet, 1966.
8. Nathalie CASEMAJOR, « Digital materialisms : frameworks for digital media studies », Westminster Papers in Culture and Communication, vol. 10, no 1, septembre 2015, p. 4-17.
9. Steven E. JONES, Roberto Busa, S. J. and the Emergence of Humanities Computing. The Priest and the Punched Cards, New York, Routledge, 2016.
10. Melissa TERRAS, « For Ada Lovelace day – Father Busa’s female punch card operatives », Melissa Terras blog, 15 octobre 2013 ; Melissa TERRAS et Julianne NYHAN, « Father Busa’s female punch card operatives », in Matthew K. GOLD et Lauren F. KLEIN (dir.), Debates in the Digital Humanities 2016, Minneapolis, University of Minnesota Press, 2016.
11. Julianne NYHAN, Hidden and Devalued Feminized Labour in the Digital Humanities. On the Index Thomisticus Project 1965-67, New York, Routledge, 2023.
12. Jennifer S. LIGHT, « When computers were women », Technology and Culture, vol. 40, no 3, 1999, p. 455-483.
13. Kathy KLEIMAN, Proving Ground. The Untold Story of the Six Women who Programmed the World’s First Modern Computer, New York, Grand Central Publishing/Hachette Book Group, 2022 ; Kathy KLEIMAN, The Computers. The Remarkable Story of the ENIAC Programmers, vidéo en ligne, février 2016.
14. Katherine HAYLES, My Mother Was a Computer. Digital Subjects and Literary Texts, Chicago, University of Chicago Press, 2005.
15. Wendy Hui Kyong CHUN, « On software, or the persistence of visual knowledge », Grey Room, no 18, janvier 2005, p. 26-51.
16. Friedrich A. KITTLER, Gramophone, Film, Typewriter, Stanford, Stanford University Press, 1999.
17. Lai-Tze FAN, « Reverse engineering the gendered design of Amazon’s Alexa : methods in testing closed-source code in grey and black box systems », Digital Humanities Quarterly, vol. 17, no 2, juillet 2023.
18. Isabelle COLLET, « La disparition des filles dans les études d’informatique : les conséquences d’un changement de représentation », Carrefours de l’éducation, vol. 17, no 1, 2004, p. 42-56.
19. John Perry BARLOW, « A declaration of the independence of cyberspace », Electronic Frontier Foundation, 1996.
20. Ingrid BURRINGTON, « How railroad history shaped Internet history », The Atlantic, 24 novembre 2015.
21. Stephanie MIOT, « Facebook’s Iowa data center up and running », PCMag, 17 novembre 2014.
22. Matthew PATANE, « West Des Moines’ data center will be Microsoft’s “largest” in U.S. », Des Moines Register, 2016.
23. Tung-Hui HU, A Prehistory of the Cloud, Cambridge, The MIT Press, 2015.
24. Nicole STAROSIELSKI, The Undersea Network, Durham, Duke University Press, 2015.
25. Ibid., p. 68.
26. Katherine HAYLES, How We Became Posthuman. Virtual Bodies in Cybernetics, Literature, and Informatics, Chicago, University of Chicago Press, 1999 ; Rosi BRAIDOTTI, The Posthuman, Cambridge/Malden, Polity Press, 2013.
27. Margot MELLET, « Manifeste des petites mains », Blank. blue, 2021 ; Margot MELLET, « Les petites mains de l’édition : réflexions pour des environnements éditoriaux équitables, pluriels et inclusifs », in Annaïg MAHÉ et al. (dir.), Communication scientifique et science ouverte, Louvain-la-Neuve, De Boeck Supérieur, 2023, p. 83-102.
28. Katherine HAYLES, How We Became Posthuman, op. cit. ; Karen BARAD, Meeting the Universe Halfway, op. cit. ; Cary WOLFE, What Is Posthumanism ?, Minneapolis, University of Minnesota Press, « v. 8 », 2010 ; Rosi BRAIDOTTI, The Posthuman, op. cit.
29. Karen BARAD, Meeting the Universe Halfway, op. cit.
Un soir de l’année 416 avant J.-C., Socrate se met sur son trente-et-un pour se rendre à une fête. Lui qui, habituellement, va toujours nu-pieds et n’est jamais soucieux de son apparence, est propre, bien habillé et chausse même des sandales. Un événement. Au point que, quand Aristodème, un de ses nombreux soupirants, le rencontre dans la rue, il reste ébahi : « Où vas-tu, Socrate, tout beau comme ça ? » Socrate répond qu’il s’est fait beau pour aller dîner chez Agathon, qui vient de gagner un prix pour sa première tragédie. Il propose étonnamment à Aristodème de l’accompagner, bien qu’il ne soit pas invité, et de s’incruster au banquet.
Aristodème est trop amoureux de Socrate pour refuser et, par ailleurs, le dîner chez Agathon est un véritable événement : il accepte donc de suivre Socrate, mais exprime ses doutes. Il a honte d’aller à la fête sans invitation, de s’imposer chez des gens célèbres, de fins littéraires, d’aller dîner chez un écrivain en vue. Socrate devra inventer une bonne excuse afin de justifier sa présence.
Socrate le rassure : « Nous sommes ensemble, nous allons tous les deux à la fête et je trouverai bien un prétexte pour te faire entrer. » Sauf que, bien entendu, rien ne fonctionne comme prévu.
Quand Aristodème, gêné, arrive chez Agathon, Socrate n’est pas avec lui. Aristodème se retourne, cherche… pas de Socrate. Heureusement, tout se passe bien : Agathon invite Aristodème à entrer, lui disant qu’il l’avait cherché la veille sans succès pour l’inviter lui aussi. Mais où est Socrate ?
Socrate a planté. Littéralement : il s’est bloqué au milieu du chemin, comme un ordinateur qui freeze ; il est resté là, figé comme une statue. Agathon propose d’aller le chercher, mais Aristodème lui explique que ce type de plantage arrive souvent à Socrate. Cela lui arrive même tout le temps : il reste bloqué, il ne répond plus aux commandes, il bugge. Il peut rester planté pendant plusieurs heures, absent, imperméable à son environnement. Effectivement, Socrate n’arrivera qu’au milieu du banquet.
Tout cela est comique : un épisode embarrassant, un convive qui s’incruste dans une fête branchée et un invité planté au milieu du chemin.
L’ouverture du Banquet de Platon n’est pas le seul passage décrivant Socrate qui bugge. Dans le Phèdre (242b8-242c3), on assiste au même phénomène, et on en a l’explication : Socrate, après avoir fait son premier discours sur – ou plutôt contre – l’amour, est sur le point de traverser la rivière devant laquelle il se trouve avec Phèdre pour rentrer chez lui et, là, il se bloque. Il ne peut plus avancer. Encore une fois, tout allait bien et, d’un coup, ça ne marche pas, ça ne fonctionne plus. Socrate nous explique qu’il s’agit du « démon » en lui qui, de temps en temps, le bloque. Il dit à Phèdre :
Mon beau garçon, quand j’étais sur le point de traverser le fleuve, il m’est arrivé de sentir le démon et le signe familier – qui m’empêche toujours de faire ce que je suis sur le point de faire.
Ce démon est un « signal familier » pour Socrate. Cela lui arrive souvent. « Toujours » même. La fonction de ce signal, de cette force divine, n’est pas positive. Elle est systématiquement négative : elle interdit de faire quelque chose. Plus précisément : elle lui interdit – toujours – de faire ce qu’il est sur le point de faire. C’est une étrange formulation. Socrate ne dit pas que cette force lui interdit de faire ce qu’il est sur le point de faire quand cette chose n’est pas bonne ou juste. Il dit que la force agit toujours. C’est quelque chose qui limite et entrave les actions qui sont sur le point de se produire. C’est quelque chose qui limite l’efficacité de Socrate en tant que personne agissante.
Le démon est véritablement un bug, un petit ver qui s’introduit dans le système et en empêche le fonctionnement correct. Il bloque Socrate et le rend inopérant. Tout comme les bugs en informatique : ils bloquent le cours normal des choses, ils interrompent l’action qui est sur le point d’être produite par l’algorithme et ils détruisent le « bon » fonctionnement des choses.
Socrate est donc un logiciel qui ne fonctionne pas, une plateforme au design boiteux : il ne marche pas. Et cela à cause du démon, le bug. Mais ce démon, on le sait bien, n’est rien d’autre que la philosophie. La philosophie en tant qu’amour de la connaissance est un petit ver qui bloque le fonctionnement normal des choses, qui arrête le flux et qui – voilà le positif dans tout cela – déclenche la réflexion.
Car que fait Socrate quand il est bloqué ? Que fait Socrate quand il ne marche pas (au sens propre comme au sens figuré) ? Il pense, il réfléchit, il questionne.
Le bug pourrait nous permettre de résister à la rhétorique des GAFAM, de la comprendre, de ne pas en être dupes, de la saisir, de l’analyser de manière critique et de la contrer avec différentes pratiques. Le bug pourrait être la petite aspérité qui nous permet d’avoir prise sur ce pouvoir lisse. Une petite aspérité à partir de laquelle on deviendrait capable de tout détruire, de tout changer. C’est pour ouvrir à cette possibilité que nous faisons ici l’éloge du bug.
Mais qu’est-ce qu’un bug ? D’où vient ce terme et à quoi faisons-nous référence ici en l’utilisant ?
Le terme « bug » signifie initialement en anglais « spectre ». C’est la première définition que donne par exemple le Century Dictionary en 1901 : hobgoblin, specter. Le terme serait dérivé du gallois bwg, faisant référence à des créatures imaginaires dont les attributs principaux sont le fait d’être invisibles et terrifiants. Le Webster de 18861 met cette signification en relation avec le deuxième sens du mot, le plus courant aujourd’hui : punaise ou, pour être plus précis, Cimex lectularius, à savoir punaise de lit. Le bug est quelque chose qui fait peur et qu’on a du mal à voir. Il est donc un spectre qui nous terrorise – l’idée de faire peur est évoquée par tous les anciens dictionnaires anglais – sans qu’on puisse le voir, ou alors un petit insecte. Une punaise de lit mesure 5 millimètres. Notre peur vient du fait que nous ne la voyons pas, nous ne nous apercevons de sa présence que lorsqu’elle nous pique, qui plus est pendant notre sommeil, la nuit, comme un spectre. Ensuite, par extension, le terme commence à être utilisé pour faire référence à n’importe quel type de punaise et finalement à n’importe quel type d’insecte.
L’Oxford English Dictionary atteste déjà d’un usage métaphorique du mot « bug » pour parler d’un problème technique en 18752. Dans la phrase citée, on comprend que cet usage était déjà bien établi : « The biggest “bug” yet has been discovered in the U.S. Hotel Electric Annunciator3. » La question est de savoir si l’usage métaphorique du mot vient de son premier sens, à savoir « spectre », ou du deuxième, « punaise ».
Une histoire très connue4 a fait pencher pour la seconde hypothèse. En 1947, le Harvard Mark II, grand ordinateur de l’université Harvard, semble dysfonctionner. Grace Hopper, avec son équipe, en cherche la cause et trouve un papillon de nuit coincé dans les circuits. C’est cet insecte qui a entraîné le dysfonctionnement. Quelqu’un écrit dans le logbook : « First actual case of a bug being found5. » Dès lors, on a souvent relayé l’idée selon laquelle le terme « bug » en informatique venait de cet épisode : à partir de l’événement initial qui concernait un véritable insecte – un papillon de nuit –, on a commencé à utiliser le mot pour tous types de dysfonctionnement. L’histoire du papillon dans le Harvard Mark II est authentique. Le logbook existe – même si on ne sait pas s’il a été écrit par Grace Hopper ou par un autre membre de son équipe. Mais cette note laissée nous fait comprendre que le terme « bug » était déjà utilisé pour signaler un problème technique et que la personne ayant écrit la phrase se voulait ironique : un « vrai » (actual) insecte a été trouvé quand, normalement, on ne trouve que des insectes métaphoriques.
On ne peut pas savoir avec certitude d’où vient l’usage métaphorique, mais il me semble que l’idée de « spectre » représente davantage ce que l’on souhaite signifier quand on se réfère à un dysfonctionnement technique : il y a une entité consciente qui détermine un événement non souhaité. Le spectre produit des situations qui ne sont pas supposées arriver et dont la cause ne semble pas être un agent visible. La machine – mécanique ou électronique – fait quelque chose qu’elle ne doit pas faire ; cela signifie qu’un autre agent – qui n’est pas la machine ou son concepteur – a déterminé, de façon intentionnelle, le comportement. Un spectre donc, qui hante la machine. Comme quand, dans la nuit, un bruit soudain nous réveille : qui est à l’origine de cet événement ? Un spectre.
Cela nous ramène au démon de Socrate : un agent conscient qui prend possession du philosophe et l’empêche de faire ce qu’il souhaiterait faire.
Mais pourquoi faire l’éloge du bug ? Pourquoi se réjouir de la présence d’un spectre ? On devrait logiquement en avoir peur, essayer de l’éviter.
L’hypothèse que je propose ici est que les bugs – et plus généralement toutes les formes de dysfonctionnement – seraient le point de départ parfait pour une analyse critique du discours des GAFAM et que l’on pourrait, à partir de cette analyse critique, esquisser des formes de résistance.
En effet, la situation que nous avons décrite dans les chapitres précédents n’est pas rose. Les cris d’alarme n’ont pas manqué, un grand nombre d’écrivain·es, intellectuel·les, chercheur·es ont signalé les risques du numérique et, pour être plus précis, de ce type particulier de numérique produit à l’image des valeurs capitalistes6.
Il y a de quoi être pessimiste et il me semble qu’il faut prendre très au sérieux l’injonction radicale de Julia Laïnae et Nicolas Alep qui, dans leur Contre l’alternumérisme7, affirment qu’il n’est pas possible de développer un « bon » numérique, et que la seule solution possible est de désinformatiser le monde. Si, sous certains aspects, je suis convaincu qu’ils ont raison et qu’il ne suffit pas de chercher des solutions « alternatives », il me semble cependant que cette injonction n’est pas tout à fait correcte, surtout parce que, dans leur livre, Laïnae et Alep ne donnent pas vraiment une définition du « numérique ». Le numérique est fondamentalement assimilé à un certain type de modélisation (qu’ils appellent « numérisation ») dont ils affirment qu’il est nécessairement une simplification du monde. Or, comme nous l’avons montré précédemment, les modèles fonctionnels ne sont pas « simples » par nature. Je reviendrai sur cette question à la fin de ce livre. Nous pouvons encore imaginer un futur « numérique » différent, libre, critique et pluraliste. Le premier pas pour aller dans cette direction est de développer une véritable littératie numérique. J’en ai dessiné rapidement les traits à la fin du chapitre 2. Nous pouvons les résumer ici. Une littératie numérique véritable est fondée sur trois principes :
– la conscience de la multiplicité des modèles ;
– la recherche de complexité ;
– la maîtrise de l’activité.
Quels sont les moyens d’atteindre une telle littératie ? Que devons-nous faire pour être conscient·es que les technologies portent des valeurs et qu’il existe une multiplicité de modèles possibles parmi lesquels chercher ceux qui s’adaptent le mieux à nos besoins ?
Acquérir une telle littératie suppose trois étapes à franchir :
1. Prendre conscience des modèles. Comme nous l’avons montré dans le chapitre 2, il est nécessaire de comprendre quel est le modèle qui fonde une technologie particulière en gardant bien à l’esprit le fait qu’il n’y a jamais un seul modèle et qu’il n’y a pas de modèle neutre ou universel. Les modèles sont des visions du monde : ils portent des valeurs éthiques, politiques, sociales et culturelles. Ils ne sont pas nécessairement – comme semblent le suggérer Laïnae et Alep – des simplifications du monde. Ils peuvent au contraire incarner des analyses très complexes.
2. Prendre conscience de l’importance de la matérialité. Il faut prendre conscience du fait que la matérialité porte le sens. C’est ce que nous avons expliqué dans le chapitre 3 : l’idéologie de l’immatérialité est erronée et elle nous empêche de comprendre comment les choix technologiques informent, structurent et produisent notre pensée.
3. Chercher activement des solutions. Une fois que nous serons conscient·es de notre situation de départ, nous pourrons mettre en place des comportements – individuels, mais surtout collectifs – pour trouver des alternatives. Il s’agira parfois d’aller dans le sens de Laïnae et Alep, de refuser les technologies et d’opter pour d’autres pratiques. D’autres fois, il s’agira de développer des modèles autres, plus complexes, peut-être, ou plus simples, ou tout simplement différents. C’est ainsi que nous pourrons trouver des stratégies qui nous rendent libres et qui nous émancipent de notre servitude croissante et de notre dépendance vis-à-vis des GAFAM.
Ce chapitre est destiné à illustrer une stratégie pour franchir les deux premières étapes : la prise de conscience. Le chapitre 5 explorera des pistes pour passer à l’action.
La prise de conscience présuppose la mise en crise de l’impératif fonctionnel, car c’est lui qui nous pousse à ne pas nous interroger sur la matérialité et sur la multiplicité des modèles. Pour prendre conscience, il est donc nécessaire de le court-circuiter. Il faut faire en sorte que cela ne fonctionne pas, il faut que ça pose problème, il faut que ça se casse. C’est là le premier avantage des bugs : un bug détermine un non-fonctionnement qui fait obstacle au flux de l’impératif fonctionnel. Sur ce point, je rejoins les thèses de Contre l’alternumérisme : il ne suffit pas de remplacer les « solutions » GAFAM par d’autres « plus libres ». Il faut d’abord détruire le principe et les visions du monde que porte « le » numérique ; il faut briser l’impératif fonctionnel.
La machine – et ses concepteurs ou conceptrices – voudrait que ça fonctionne mieux, plus vite, plus simplement, pour produire davantage. Mais le bug arrive, qui produit tout le contraire : dysfonctionnements, ralentissements, complications, perte de production, faillite.
Ainsi, en 1990, la grande compagnie téléphonique AT&T « améliore » le logiciel avec lequel elle gère les appels de longue distance pour « maximiser » le fonctionnement de son réseau et augmenter le nombre d’appels traitables8. Le logiciel doit s’occuper de choisir le meilleur chemin pour connecter un point A à un point B lors d’un appel. Il fait en sorte que le commutateur téléphonique qui est contacté envoie un message au commutateur le plus proche. Si le commutateur est occupé, il cherche un autre commutateur. Mais la tentative de rendre ce processus plus rapide engendre un bug : les commutateurs commencent à envoyer des messages d’erreur et tout le système tombe en panne pendant plusieurs heures, entraînant une perte de 60 millions de dollars pour AT&T. Comme le démon de Socrate, le bug – un spectre terrifiant pour l’entreprise – a bloqué l’action souhaitée par AT&T – maximiser le profit, maximiser le fonctionnement – et l’a renversée. Le logiciel était censé multiplier le nombre d’appels, et le bug en a fait perdre 75 millions.
Un autre exemple notable a concerné la firme financière Knight Capital Group. Le 1er août 2012, le logiciel de trading sur lequel elle se reposait pour une partie de ses opérations boursières, et qui venait d’être mis à jour, a commencé à acheter très rapidement des actions, ce qui ne correspondait pas au comportement voulu : en trente minutes, l’entreprise a acheté pour 7 milliards de dollars d’actions, faisant en même temps gonfler puis retomber les prix. L’entreprise a évidemment été obligée de vendre, car elle n’avait pas le capital suffisant pour payer les actions achetées. La perte finale a été estimée à 440 millions de dollars.
Les grands bugs de ce type sont très communs : en 2016, on a estimé à 1,1 milliard9 les pertes économiques dues aux bugs. Et, dans les grandes lignes, le scénario est toujours le même : une quête d’accélération, une volonté de maximiser le fonctionnement et l’efficacité, et un spectre qui fait l’inverse. Alors, au lieu de gagner de l’argent, les entreprises en perdent, parfois jusqu’à s’effondrer complètement.
Il est clair que les bugs font dérailler la poursuite de l’impératif fonctionnel. Mais cet arrêt ne suffit évidemment pas à résister aux GAFAM, à leurs valeurs et à leur discours. Ce n’est qu’un point de départ. Il faut maintenant poursuivre notre éloge en identifiant le deuxième avantage des bugs : permettre l’émergence d’un esprit critique.
Pour expliquer cette propriété des bugs, nous allons suivre une suggestion de Martin Heidegger. Dans L’Être et le Temps10, le philosophe allemand souligne un rapport particulier que nous avons aux outils : le rapport avec un outil (Zeug) n’est pas caractérisé par une observation de ce dernier en tant qu’étant, en tant que chose. Le rapport avec un marteau ne consiste pas à l’observer, à penser que c’est un marteau et qu’il a certaines caractéristiques particulières ; le rapport premier avec un marteau consiste à s’en servir, pour marteler. Le mode d’être de l’outil n’est pas la présence, c’est la disponibilité : la Zuhandenheit. La Zuhandenheit renvoie à l’idée d’avoir quelque chose « sous la main » : ce quelque chose est disponible pour être utilisé ; il est utilisable. L’outil est disponible pour faire ce qu’il fait : un marteau pour marteler, un balai pour balayer, etc. On pourrait dire que l’outil est toujours là pour réaliser ce que nous avons critiqué jusqu’à maintenant : il propose de faire ce qu’il fait en rendant invisibles les visions du monde qu’il représente.
Ainsi, nous faisons « naturellement » ce que les outils numériques nous proposent de faire sans même voir ces outils en tant que tels : ils sont juste disponibles.
Heidegger spécifie qu’observer un outil est de fait impossible tant qu’il est disponible. Tant que nous martelons et que le marteau joue son rôle d’outil, il est impossible d’en avoir une conscience. Le marteau est invisible, seule compte l’action qu’il produit en tant qu’utilisable.
Ainsi, tant que les outils numériques fournis par les GAFAM font ce qu’ils font sans accroc, il est impossible d’en avoir une conscience et donc une compréhension critique : ils restent dans l’ombre, invisibles. Nous continuons d’avoir l’impression qu’ils ne sont pas là, qu’ils sont neutres.
Cependant, il est possible que, d’un coup, l’outil devienne inemployable (unverwendbar). L’outil qui était disponible acquiert une dimension d’indisponibilité (Unzuhandenheit) : il est inutilisable. Il ne fonctionne plus, il est cassé, il dysfonctionne. C’est à cet instant précis que l’outil devient soudain visible. Il n’est plus transparent et se manifeste comme quelque chose devant nos yeux. Il a des propriétés, il n’est plus neutre. On peut l’analyser et peut-être le comprendre, le critiquer.
Outre sa force de résistance – propriété négative qui consiste à mettre à l’arrêt –, le bug a aussi une propriété positive : il permet l’émergence d’une conscience puis d’une pensée critique. L’outil cassé est un outil qui peut être questionné. C’est en cela que le dysfonctionnement peut être un point de départ pour la formation d’une littératie numérique.
Un marteau cassé m’oblige à arrêter de marteler et à regarder l’outil : comment est-il fait ? Pourquoi s’est-il cassé ? Le manche était-il long, fin, épais, court ? Étant donné que je ne suis plus en train de marteler, je peux par ailleurs m’interroger sur ce que j’étais en train de faire : pourquoi martelais-je, au juste ? Ai-je vraiment besoin d’un marteau ? Puis-je faire autre chose ? Y a-t-il d’autres approches pour assouvir mes besoins ?
En premier lieu, le bug casse et interrompt le cours de l’impératif fonctionnel. Ensuite, il fait prendre conscience des outils et de leurs sens. Mais il suscite encore autre chose : un autre comportement, inattendu, remplace le comportement attendu. C’est la surprise, la révolution. J’étais en train de marcher et, d’un coup, je me suis bloqué. Et, au lieu de marcher, j’ai commencé à réfléchir. J’étais en train de faire du profit et, d’un coup, j’ai commencé à perdre de l’argent.
Le spectre qu’est le bug fait quelque chose de nouveau et d’imprévu. En effet, cette nouvelle « chose » n’est pas souhaitée ; mais elle est tout de même une proposition. Elle s’impose comme une alternative.
Cette idée est à la base d’une expression récurrente dans le monde du développement de logiciels : It’s not a bug, it’s a feature (« Ce n’est pas un bug, c’est une fonctionnalité »). Cette expression, qui se veut comique, révèle une vérité profonde : le fait qu’un comportement soit considéré comme un défaut ne dépend que des visions du monde que ce comportement doit représenter. En d’autres termes : un bug est un bug seulement par rapport à une idée précise de ce que le code doit faire. « Ne pas fonctionner » signifie « ne pas se comporter comme prévu ». Mais, si on change nos attentes, le bug devient une nouvelle fonctionnalité, possiblement géniale.
Le spectre peut gagner : on fait ce qu’il nous propose au lieu de faire ce que l’outil nous poussait à faire. Github, la plateforme de partage et de versionnage de code utilisée par un très grand nombre de projets informatiques, regorge d’exemples de ce type. L’expression It’s not a bug, it’s a feature est souvent citée dans les discussions ou dans les issues, billets dans lesquels sont normalement signalés les problèmes.
Ainsi, par exemple, dans le dépôt où se trouve le code de Requests, une librairie python pour faire des requêtes sur le Web, on trouve une issue intéressante, la 6071 (https://github.com/psf/requests/issues/6071). La librairie Requests permet de dialoguer avec des contenus sur le Web : par exemple de télécharger un fichier, ou de récupérer une information disponible dans une base de données via une interface de programmation (API). Or, parfois, les données sur le Web sont protégées par des systèmes de sécurité, par exemple des certificats SSL qui garantissent un cryptage sécurisé des informations. Pour avoir accès à ces contenus, il faut envoyer au service Web une série de caractères cryptés qui constituent la clé pour accéder au contenu – comme une sorte de mot de passe. Or la bibliothèque Requests a un bug : si, à la place de cette série de caractères, on envoie une chaîne vide (quelque chose comme ""), la bibliothèque donne l’accès en contournant le dispositif de sécurité. C’est un bug. Mais ce bug permet de récupérer des informations dans des situations où l’on n’a pas accès au certificat. Il est utilisé comme manière de résoudre un problème d’accès.
Le billet signale donc le bug, mais, dans la discussion, certaines personnes demandent que le bug ne soit pas corrigé, car il est désormais devenu une fonctionnalité utile.
Si l’on n’en est pas conscient, le bug peut impliquer un comportement non attendu et, selon ce que nous voulons faire avec le code, ce comportement peut avoir des effets négatifs – ici, par exemple, accéder à un contenu non sécurisé. Mais si l’on en est conscient, ce comportement inattendu devient une possibilité alternative, une ouverture à quelque chose d’autre.
Les bugs font émerger des nouvelles idées, ils produisent des visions du monde différentes, ils ouvrent à des manières de penser qui vont au-delà des possibilités étriquées que tout environnement numérique propose. Ils permettent de diversifier et de complexifier les modèles fonctionnels avec lesquels nous appréhendons le monde en nous donnant parfois de nouvelles pistes de réflexion, jamais imaginées. Le bug est la preuve que le numérique n’est pas nécessairement une simplification du monde.
Un autre exemple de bug qui se transforme en fonctionnalité concerne la notion de « fichier caché » dans les systèmes Unix – comme McOss ou Linux11. Initialement, les développeurs et les développeuses imaginent un système pour naviguer dans les dossiers : un point . désigne le dossier dans lequel on se trouve. Deux points .. signifient le dossier parent. Par exemple, si je me trouve dans le dossier /home/marcello/, . désignera ce même dossier et .. signifiera le dossier /home/. La commande cd.. me déplacera donc dans le dossier/home/. Pour rendre possible ce comportement, des fichiers vides qui s’appellent . et .. sont automatiquement mis dans chaque dossier. Les développeurs et les développeuses définissent ainsi un comportement par défaut de l’affichage des dossiers : pour ne pas rendre visibles les fichiers vides . et .., tous les fichiers dont le nom commence par . ne s’affichent pas. D’où le bug : si j’appelle un fichier .nomdufichier, celui-ci ne sera pas apparent. Ce bug devient une fonctionnalité : on peut créer volontairement des fichiers invisibles en mettant un point au début de leur nom. L’idée même de fichier caché naît du bug. Cette idée se révèle utile : je peux avoir toutes sortes de raisons pour exclure certains fichiers de l’affichage. Par exemple, je peux vouloir cacher des fichiers de configuration que, normalement, je ne veux pas voir ou modifier et qui rendraient moins lisible ma liste de fichiers. Le bug produit une nouvelle idée, un nouveau concept.
Le terme « bug » peut être utilisé comme métonymie pour faire référence à plusieurs formes différentes de dysfonctionnement.
Pour commencer, arrêtons-nous sur le terme « dysfonctionnement » et sur son rapport avec l’idée de « fonctionnement ». Il est clair que « dysfonctionner » signifie, d’une certaine manière, « ne pas fonctionner », mais le préfixe « dys » dit quelque chose de plus précis. Il n’est pas seulement une négation, il renvoie à une multiplicité, à une altérité. Peppe Cavallari12 fait une analyse de ce préfixe dans son travail sur le concept de « distance » et sur le sens que ce mot acquiert dans le cadre des formes de présence numérique – comme les vidéoconférences ou les chats : on retrouve le préfixe dans « différence », par exemple, ainsi que dans « distraction », « dispersion » ou « dissémination ». Le « dis » (ou « dys » ou « dés ») contient l’idée d’une séparation. Ainsi, être « distrait » signifie « être tiré ailleurs ». Un terme d’usage courant contenant ce préfixe est « désastre ». Le désastre fait référence à une situation qui s’est éloignée de ce que les « astres » voudraient. Au lieu de suivre les astres et ce qu’ils prédisent sur ce que le futur doit être, le dés-astre est un chemin autre, alternatif, qui peut certes, pour cette raison, devenir une catastrophe, mais qui pourrait aussi donner lieu à quelque chose d’imprévisible, de nouveau et d’étonnant. De la même manière, dysfonctionner, comme nous l’avons déjà souligné, peut certes signifier « ne pas fonctionner », mais aussi « fonctionner autrement ».
À partir de cette considération, il est possible d’identifier plusieurs types de bugs, au sens plus ou moins propre. Nous pouvons en définir trois :
1. L’outil cassé. C’est le cas le plus simple de dysfonctionnement, qui correspond à l’usage restreint et propre du terme « bug ». Il est souvent caractérisé par une chronologie précise : un outil fonctionne et, ensuite, arrête de fonctionner pour une raison quelconque. Son dysfonctionnement correspond au fait d’arrêter de fonctionner. L’outil est donc initialement fonctionnel, il fait ce qu’il doit faire, mais quelque chose ne va pas comme prévu et c’est là que tout s’arrête.
2. L’outil complexe. Il s’agit ici d’un outil qui, en réalité, fonctionne très bien : mais il ne fait pas ce qu’on croit qu’il doit faire. En d’autres termes, pour revenir aux catégories que nous avons analysées, c’est un outil non intuitif ; il se fonde sur un modèle qui n’est pas le plus courant et il semble donc ne pas faire ce qu’on attend de lui. Dans ce cas, l’outil reste toujours comme il est, mais notre rapport à lui peut changer : de dysfonctionnel, l’outil peut devenir fonctionnel à condition que nous changions notre modèle mental.
3. L’outil inutile. C’est un outil conçu dès le départ pour mettre en question l’impératif fonctionnel. L’outil nie par design le fonctionnement. Il fonctionne donc, en un certain sens, mais il fait des choses qui ne correspondent pas à l’impératif fonctionnel : des choses inutiles. L’outil inutile peut naître comme tel ou il peut être transformé en outil inutile à la suite d’un détournement.
Commençons par mieux saisir le premier type de dysfonctionnement, le bug au sens propre.
Le bug n’est pas dû à une erreur de calcul – l’ordinateur ne se trompe pas –, mais à une erreur dans le code13. Le code comprend une série d’instructions que l’ordinateur exécute l’une après l’autre. Si le code prend souvent en compte une large panoplie de cas possibles, d’exceptions, de particularités, il ne peut pas prendre en considération la totalité des cas possibles. Le bug est un comportement qui suit les instructions, mais qui montre leurs limites : en suivant les instructions, l’ordinateur fait une chose qui n’était pas souhaitée par celles et ceux qui ont écrit le code. Ce n’était pas ce que le logiciel ou l’application devait faire, donc ça ne fonctionne pas. Comme le démon de Socrate, le bug produit un blocage par rapport au comportement attendu. Mais le bug est lui-même une instruction faisant partie du code.
Pour comprendre ce qu’est un bug, il faut être au plus près des structures informatiques. Prenons un exemple concret pour expliquer cette idée, un exemple de tous les jours. Il vous sera sans doute déjà arrivé de voir, à la place de caractères accentués ou d’autres diacritiques ou caractères spéciaux, des symboles étranges, qui rendent le texte difficile à comprendre. Par exemple, vous avez peut-être déjà vu dans votre navigateur, à la place d’un « é » dans un mot, quelque chose comme « é » : à la place du mot « édition », la chaîne de caractères « édition ». C’est un bug dû à l’encodage des caractères.
Chaque lettre et chaque signe, pour être traités par un ordinateur, doivent, en effet, être transformés en une représentation binaire. L’ordinateur ne peut manipuler que deux symboles : le 0 et le 1, qui correspondent tout simplement au fait que l’électricité passe ou ne passe pas dans un circuit. Chaque lettre de l’alphabet correspondra donc à une série de 0 et de 1. Pour comprendre la raison de notre bug initial, pour comprendre pourquoi nous ne voyons pas correctement notre é, nous pouvons commencer par écrire un algorithme qui nous montre ces correspondances entre les séries de 0 et de 1 et les lettres. Nous allons essayer de faire un programme qui bugge comme notre navigateur. Nous allons pour cela utiliser un langage de programmation de très haut niveau – à savoir très proche du langage humain : python. En python, il y a déjà une fonction qui permet de faire ce que nous voulons ; nous allons donc écrire deux lignes de code très simples pour avoir notre algorithme :
lettre=raw_input(«Tapez la lettre ici: »)
lettre_bin = bytes(lettre, 'ascii')
print(bin(lettre_bin[0]))
Dans la première ligne, nous demandons d’afficher à l’écran le message « Tapez la lettre ici : » et d’attendre qu’une lettre soit écrite. Ensuite, cette lettre deviendra la valeur de la variable lettre. Dans la deuxième ligne, nous attribuons à la variable lettre_bin la valeur de la variable lettre en bytes (en binaire) encodée avec le standard ASCII, un standard qui sert justement à faire correspondre des lettres et des signes à des chiffres en base 2. Nous choisissons le standard ASCII car il est le plus fondamental, le plus simple, le plus basique et aussi l’un des plus anciens. C’est le standard utilisé par défaut par nos machines, à moins que nous en spécifiions un autre. Enfin, nous allons « imprimer » (en réalité, il s’agit d’afficher à l’écran) la valeur binaire de la lettre.
Maintenant, testons notre code. Nous lançons notre application et celle-ci nous demande de taper la lettre. Commençons par taper un a. Le résultat affiché sera : 1100001. Ce chiffre en base 2 correspond au chiffre 97 en base 10. Nous avons donc découvert que la lettre « a » correspond au chiffre 97, 1100001 en base 2.
Notre algorithme fait ce que nous voulions, il fonctionne.
Essayons maintenant de découvrir à quoi correspond un autre signe, plus complexe, ou du moins plus rare : le $. Nous faisons encore tourner notre code et il nous donne la réponse : 100100. Tout va bien, tout fonctionne, le symbole du dollar est le numéro 36 en base 10, 100100 en base 2.
Nous pouvons distribuer notre algorithme, nous l’avons testé, il fonctionne, il fait ce que nous voulions.
Or nous n’avions pas pensé à tester le symbole é. En faisant tourner notre code et en donnant é comme input, nous avons une mauvaise surprise. Le code bugge, il plante. Ça ne marche plus. Pourquoi ? Essayons d’être plus précis. Que veut dire qu’il ne marche pas ? Nous nous attendions à une réponse avec une série de 0 et de 1 et nous obtenons une réponse étrange et esthétiquement désagréable :
File "<stdin>", line 1, in <module>
UnicodeEncodeError: 'ascii' codec can't encode character '\xe9'
in position 0: ordinal not in range(128)
Nous ne la regardons même pas, nous sommes juste fâché·es. Pourquoi ce satané ordinateur ne marche-t-il pas ? Le code avait pourtant été testé, avec une lettre et un caractère particulier comme le $. Pourquoi celui-ci ne marche pas avec un simple é ?
Du point de vue de l’impératif fonctionnel, cette situation est juste embêtante. Les applications que nous avons sur nos cellulaires masquent ce type d’événement – encore une fois, elles le dissimulent –, les erreurs ne s’affichent pas, car on essaye de rendre le non-fonctionnement le plus invisible possible. Nous sommes habitué·es à ce que ça marche et, si erreur il y a, nous ne voulons pas nous en occuper. Dans le cas du navigateur, le bug est en quelque sorte masqué par des symboles incompréhensibles, les fameux é.
En réalité, l’erreur est très intéressante et cela vaudrait la peine de la lire, même si elle n’est pas « jolie ». Car notre esthétique est elle aussi conditionnée par l’impératif fonctionnel. Il est donc évident que l’erreur ne nous est pas agréable.
Alors prenons l’impératif fonctionnel à contre-pied et essayons de lire l’erreur. Elle est en anglais, ce qui nous révèle déjà la situation de domination de cette langue dans le monde informatique. Mais nous pouvons faire l’effort de la décrypter : il y a une erreur d’encodage. Le code ASCII ne peut pas encoder le caractère que nous lui avons donné (le é) car ce caractère ne se trouve pas dans sa liste – qui n’en contient que 128. L’erreur nous a bien expliqué ce qui s’est passé et pourquoi. Le symbole é ne fait pas partie du tableau ASCII. Pour avoir une correspondance de ce symbole avec un chiffre en base 2, il faudra utiliser un autre standard, qui contient plus de symboles (par exemple, l’UTF-8). Or, évidemment, un standard qui contient plus de symboles occupe plus de place : au lieu de pouvoir encoder chaque symbole avec sept chiffres, il nous en faudra huit, neuf ou plus.
Il s’agit bien d’un bug dans notre code : nous avons pris en compte une série de cas (notre code fonctionnera pour 128 symboles), mais pas tous. Nous pensions que si le code marchait pour un signe comme $, il fonctionnerait a fortiori aussi pour é, un signe plus courant dans notre expérience de francophones, mais ce n’est pas le cas. Le bug consiste à dire à l’ordinateur de toujours utiliser le standard ASCII alors que, pour certains signes, ce standard n’est pas suffisant. Le dysfonctionnement dépend du fait que le modèle sur lequel s’appuie le code ne prend pas en compte la totalité des possibles, mais juste une partie, et le bug souligne cette partialité : le monde que tu as modélisé – nous dit-il – n’est pas le monde dans sa totalité. C’est un monde particulier, avec des frontières et des limites précises. Dès que nous sortons de ces frontières, le code ne fonctionne plus et le bug fait signe vers tout ce qui dépasse les limites du modèle : il fait signe vers d’autres visions du monde. C’est exactement ce qui arrive lorsque les caractères spéciaux « sautent », dans la page d’un navigateur ou dans la nomenclature d’un fichier : l’encodage des lettres n’a pas été déclaré correctement ; l’ordinateur utilise un standard par défaut – par exemple ASCII – et cela ne marche pas.
Le bug nous bloque, nous empêche de continuer à faire ce que nous étions en train de faire, mais il nous dit et nous apprend aussi des choses. Que nous apprend-il ? Il nous fait nous rendre compte, en premier lieu, de la matérialité des environnements numériques et, en second lieu, de la spécificité du modèle utilisé par le code qui bugge. Le bug nous fait donc avancer dans les deux premières étapes vers la littératie numérique. Dans notre exemple, le bug nous fait comprendre que nos signes sont matériellement des circuits électriques, de l’électricité qui passe ou ne passe pas et qui est ensuite interprétée sur la base d’un tableau – ici, l’ASCII. Le bug nous apprend aussi que les diacritiques utilisés dans une langue comme le français ne sont pas pris en compte par les premiers encodages. Cela signifie que, pour exprimer un é en informatique, nous aurons besoin de plus de chiffres. Or, matériellement, en informatique, exprimer un é est plus complexe et plus coûteux qu’exprimer un $. Cela nous renseigne sur la vision du monde des personnes qui ont conçu ces encodages : l’idée de l’anglais comme lingua franca, des besoins mathématiques et économiques devant des besoins textuels et linguistiques.
Ces choix, faits aux débuts de l’informatique, ont un impact majeur aujourd’hui encore dans nos usages. Ils impliquent justement que certaines langues restent dominantes dans les environnements numériques. Ils impliquent aussi des contraintes, par exemple dans le nommage des fichiers qui utilise nativement le standard ASCII. Si nous utilisons des diacritiques dans le nom d’un fichier, nous mettons dans l’étiquette qui nous permet d’identifier cet objet quelque chose que l’ordinateur ne reconnaît pas. Dans les systèmes d’exploitation récents, on trouve des manières de contourner ce problème et on ajoute des couches permettant d’interpréter plus de caractères. Mais ce n’est qu’un patch, un peu dangereux, car on risque de ne pas être capable de retrouver le fichier, si on change par exemple d’environnement ou de système d’exploitation.
Évidemment, dans ce premier exemple, tout reste assez simple : nous avons conçu nous-mêmes le code, nous l’avons testé, nous avions accès aux erreurs et l’algorithme était tellement basique qu’il a été facile de comprendre le problème. Dans le cas d’applications et de logiciels complexes, cette tâche est parfois difficile. La structure reste cependant la même.
Un autre exemple peut illustrer la situation face à laquelle nous nous trouvons lors de l’apparition d’un bug. C’est une histoire personnelle qui a été le point de départ de ma réflexion sur les technologies numériques et, plus précisément, sur les logiciels de traitement de texte. Au début du mois de juin 2002, je venais de terminer mon mémoire de maîtrise qui portait sur la philosophie d’Emmanuel Levinas. Il s’agissait d’un texte d’environ 250 pages que j’avais rédigé avec Microsoft Word. Le jour précédant le dépôt, j’étais allé imprimer les exemplaires nécessaires, mais, lors de l’ouverture du fichier – à partir d’une disquette –, j’obtenais des erreurs de lecture. La version de Word installée sur l’ordinateur de l’imprimerie n’était peut-être pas la même que la mienne et la taille du fichier, très grande, posait probablement des problèmes de traitement pour le vieil ordinateur de la boutique. Le fichier était corrompu et, après de nombreux efforts, je suis parvenu à ouvrir un texte absolument illisible. Toute la mise en page avait sauté. J’ai dû retourner à mon domicile et essayer de trouver une solution : diviser mon texte en plusieurs fichiers, simplifier la mise en page et finalement la refaire à l’imprimerie. L’imprimeur avait eu pitié de moi et m’avait laissé travailler jusqu’à minuit pour me permettre de tout refaire et enfin imprimer un document plus ou moins lisible. Dans ce cas, je n’avais pas accès aux erreurs, je ne savais pas exactement ce qui se passait, mais, à partir de ce moment, j’ai commencé à comprendre la manière dont le texte était traité par Word. Je me suis interrogé d’une part sur la raison de la taille du fichier, de l’autre sur la manière dont le logiciel gérait la mise en page. Il ne s’agissait pas, à proprement parler, d’un bug, mais de la structure même de Word : sa façon de créer des balises invisibles autour du texte pour en exprimer l’habillage graphique, l’inaccessibilité de ces balises, l’impossibilité d’avoir accès au texte brut et à la structure du document. Ce problème m’a poussé à réfléchir à ces questions, à interroger des personnes plus compétentes que moi et, finalement, à découvrir d’autres formes d’écriture.
Même avant de comprendre quoi que ce soit, le dysfonctionnement, à lui tout seul, nous oblige à nous arrêter ; l’impératif fonctionnel est mis hors combat. Puis il faut profiter de ce blocage pour réfléchir. Le premier pas est d’avoir accès aux erreurs : nous devrions exiger que les applications que nous utilisons nous donnent accès au code et aux erreurs. Cela suppose ensuite de savoir lire et décrypter les messages d’erreur. S’il est parfois difficile de remonter à la cause de l’erreur, ce travail permet de comprendre ce qui se produit et de saisir la matérialité de l’environnement ainsi que le modèle sur lequel il repose. Cette démarche est par excellence celle de l’esprit critique et, plus précisément, celle de la philosophie.
On pourrait objecter qu’il est impossible d’avoir les compétences pour faire des opérations de ce type et que cela nous ferait perdre trop de temps. La réponse à cette objection est double. En premier lieu : il faut faire attention à ne pas croire que l’unique acteur de toute action est un individu. Ce processus peut être partagé, pris en charge par des communautés, des collectifs. La conscience du bug et l’analyse de ce qu’il comporte, ainsi que l’apprentissage qui en dérive, peuvent être une question collective. Dans le chapitre 5, nous consacrerons plus de réflexion à ce propos. En second lieu : en effet, perdre du temps est exactement ce que l’impératif fonctionnel veut éviter. Il veut que, en tant qu’individus, nous soyons le plus productifs possible, que nous ne perdions jamais de temps. Le temps perdu est le temps qui ne produit pas de valeur marchande. À titre personnel, je crois au contraire que la perte de temps est précieuse en ce qu’elle amorce une résistance face à l’impératif fonctionnel.
Jusqu’ici, je n’ai mentionné que des exemples de bugs dont les conséquences sont, somme toute, bénignes : le pire scénario est celui qui implique une perte d’argent. Mais il n’y a pas que des bugs bénins. Il y a des bugs dont les effets sont indéniablement tragiques. Il y a des dysfonctionnements, des désastres qui ne sont pas seulement une route alternative, mais de véritables catastrophes. Il y a des bugs qui, littéralement, tuent.
Martyn Thomas et Harold Thimbleby14 analysent le cas de bugs dans des outils numériques utilisés dans les infrastructures de santé et montrent à quel point ce type de dysfonctionnement peut être mortel. Selon leurs calculs, les bugs informatiques seraient responsables d’environ 880 morts par an en Angleterre – un chiffre probablement sous-estimé. Il y a plusieurs cas notables, le plus connu étant peut-être celui du Therac-2515. Le Therac-25 était une machine de radiothérapie contrôlée par ordinateur et produite par une entreprise canadienne (Atomic Energy of Canada Limited) en 1982. En 1987, à la suite d’un bug, elle causa la mort de six patient·es par surexposition à des radiations. Le bug concernait le commutateur permettant de changer la quantité de radiations envoyées : la machine ne changeait pas de modalité – malgré le fait que l’opérateur ou l’opératrice tournait le commutateur – et envoyait des doses létales de radiations sur les patient·es. Un cas semblable – lié cette fois au calcul computerisé de la quantité de radiations nécessaires pour chaque patient·e – arriva à l’Instituto Oncológico Nacional (ION) du Panama en 2000 et causa la mort de vingt-trois personnes16.
Mon propos n’est bien évidemment pas de faire un éloge de ces bugs-là avec leurs conséquences funestes. Mais il faut, là encore, se demander ce que ces dysfonctionnements nous apprennent, mener l’enquête, chercher qui est vraiment l’assassin. Comme l’ont montré Thomas et Thimbleby, ces bugs sanitaires tragiques, loin d’être étroitement attribuables à la machine ou au code, sont aussi causés par une organisation du travail hospitalier qui le soumet à l’impératif fonctionnel et à ses applications dans le domaine numérique. Les institutions sanitaires, comme toutes les autres institutions, suivent l’idée selon laquelle la technologie ne peut qu’améliorer les choses. Il faut adopter ces solutions le plus rapidement possible afin de se moderniser et permettre le progrès. Mais qu’est-ce que ce progrès ? Qui définit les besoins ?
Thomas et Thimbleby donnent l’exemple de l’achat massif d’iPads dans les hôpitaux anglais et posent une question qui peut sembler banale : est-ce que les iPads sont une bonne idée pour remplacer le papier étant donné les conditions souvent précaires dans lesquelles se déroulent les consultations médicales ? Le papier, par exemple, résiste davantage à des liquides qui pourraient être renversés ; il reste accessible en cas de panne de courant ou de batterie faible ; il est très facile à consulter… Quant à des dispositifs médicaux moins triviaux, lorsque la course à l’équipement dernier cri pousse à ce qu’ils ne fassent pas l’objet d’études et de vérifications assez approfondies, les risques sont grands.
Ces bugs questionnent l’idée de progrès. Ils nous montrent que l’informatisation et l’achat de la dernière technologie existante sur le marché ne sont pas forcément synonymes d’amélioration, mais au contraire que des pratiques aveuglément technophiles peuvent être des vecteurs de mort.
La deuxième forme de dysfonctionnement est due à la complexité. Elle ne consiste pas, à proprement parler, en un non-fonctionnement, et ce n’est pas un « vrai » bug, mais plutôt une difficulté à saisir le modèle derrière un outil ou un environnement. Elle questionne donc l’impératif de simplicité et la notion d’intuitivité que nous avons analysés dans le chapitre 2 : l’outil est complexe, il ne correspond pas au modèle unique que nous avons naturalisé et il devient inutilisable.
Ce type de dysfonctionnement oblige à questionner l’unicité du numérique – le numérique en tant que tout unitaire – et à se rendre compte de la multiplicité des visions du monde possibles. Il oblige aussi à réfléchir à nos besoins pour faire en sorte que l’outil choisi réponde à ce que nous voulons et éviter d’adapter ce que nous voulons à ce qu’un outil nous propose de faire. Il montre, par ailleurs, que la numérisation ne doit pas forcément correspondre à une simplification.
L’exemple des systèmes d’exploitation est particulièrement parlant. Nous sommes désormais habitué·es à utiliser un ordinateur ou tout autre dispositif électronique immédiatement après l’achat, sans devoir rien faire, sans devoir rien apprendre, sans devoir rien questionner. C’est l’idée de l’ordinateur prêt à utiliser out of the box. Apple a fait de ce modèle l’un de ses arguments de vente les plus forts et il a été suivi sur cette voie par Microsoft. Vous achetez un Mac, vous ouvrez la boîte et vous commencez à travailler. La batterie n’a même pas besoin d’être chargée : dans le monde idéal de l’impératif fonctionnel, cela a déjà été fait pour vous. Tout est déjà prêt. Il ne vous reste plus qu’à travailler. Soyez productif·ves out of the box. La simplicité repose sur le modèle unique qui est proposé et sur lequel on nous dit de ne pas réfléchir : comme s’il n’y avait pas de modèle, comme s’il n’y avait pas de choix, comme si tout était naturel et transparent. Bien évidemment, cette simplicité se fait payer cher : elle repose sur le fait que nous avons délégué tous nos choix à Apple.
Imaginez vouloir passer à un système d’exploitation Linux. Linux a justement la renommée de « ne pas fonctionner », non pas parce qu’il produit des erreurs ou des bugs, mais parce qu’il est complexe. Cette complexité se manifeste d’emblée, au moment où vous vous posez la question d’acheter un ordinateur. Vous allez très difficilement avoir un ordinateur Linux prêt à utiliser dès l’achat. Au lieu de cliquer sur le bouton « commander » du dernier Mac, vous devez commencer par chercher un ordinateur dont les différents périphériques sont compatibles avec un système Linux. Cela vous fait perdre un temps important : l’ordinateur n’est pas une boîte noire ; il est fait de plusieurs composants assemblés. Si vous voulez être certain·es que votre nouvel achat fonctionnera sous Linux, vous devez les connaître tous : la carte graphique a-t-elle un pilote pour Linux ? Et la carte réseau ? Etc. Dès cette étape, vous avez été obligé·e d’augmenter sensiblement votre degré de compréhension de ce qu’est un ordinateur. Vous avez aussi dû vous confronter aux politiques des différents producteurs de matériel informatique : la plupart diffusent leurs composants avec des pilotes propriétaires, dont le code n’est pas accessible. Pourquoi ?
Vous commencez déjà à vous transformer en bug, comme notre Gregor Samsa. Pendant ce temps, vous n’êtes pas productif·ves, vous n’êtes pas efficaces, vous ne satisfaites pas aux exigences de l’impératif fonctionnel. Vous êtes comme Socrate, bloqué dans la rue en train de réfléchir au lieu d’aller manger chez Agathon. Mais cette première perte de temps vous fait avancer dans la compréhension de la matérialité du numérique. Une fois que vous avez mené cette analyse – qui comporte évidemment plusieurs heures de recherche et de lecture –, vous vous décidez à acheter un ordinateur. Peut-être d’ailleurs que, à la fin de votre réflexion, vous décidez que vous pouvez vous passer d’en acheter un nouveau, car le vieil ordinateur qui traîne chez vous convient, après tout. Mais mettons que vous achetiez un ordinateur et qu’il n’a pas Linux. Vous devez l’installer. Le dysfonctionnement de Linux s’impose de façon encore plus nette : vous vous retrouvez face à des centaines de choix. Rien n’est prêt pour vous, rien ne fonctionnera tout de suite, il faut que vous passiez du temps à réfléchir. En premier lieu : Linux n’est pas un système d’exploitation, mais un « noyau » libre. Cela signifie que, à partir du noyau Linux, il y a plusieurs systèmes d’exploitation qui ont été créés : des « distributions ». Il ne s’agit pas d’un système d’exploitation, mais de centaines de projets, chacun avec ses particularités. Quelle distribution voulez-vous ? Comment choisir entre Debian, Ubuntu, ArchLinux, Fedora, OpenSuse, RedHat, CentOS… ? Vous voilà donc à nouveau face à la nécessité de lire, étudier, essayer de comprendre, questionner les modèles et les présupposés théoriques derrière chaque distribution. Et vous n’êtes qu’au début du processus. Admettons que vous choisissiez l’une des distributions les plus connues de Linux : Debian. Vous allez sur la page de téléchargement, et une panoplie de choix s’offre à vous : voulez-vous télécharger le système entier ou procéder à une installation en réseau ? Quelle est l’architecture de votre processeur (des sigles étranges apparaissent : amd64, i386, AArch64) ? Saviez-vous qu’il existe plusieurs architectures possibles selon votre processeur ? Savez-vous ce qu’est un processeur ? Qui en produit ? Une fois que vous avez pris ces décisions, d’autres questions se posent, et ainsi de suite…
Tout cela n’est pas un « vrai » bug, disais-je ; au contraire, les systèmes Linux ont une excellente renommée parmi les expert·es : Linux est fiable, même plus fiable que les autres systèmes. C’est la raison pour laquelle la quasi-totalité des serveurs utilisent Linux. Mais ces difficultés sont perçues comme des bugs : nous avons l’impression que tout ce qui nous fait perdre du temps fonctionne mal, car ce qui nous fait « perdre » du temps pour réfléchir réduit notre productivité par rapport aux impératifs capitalistes.
Récemment, plusieurs distributions Linux ont décidé de s’adapter fortement à l’impératif fonctionnel et il est désormais possible d’avoir des Linux « Apple-like » qui prennent toutes les décisions pour vous et minimisent, jusqu’à les annuler, les efforts nécessaires. Ubuntu, par exemple. Linux évolue lui aussi dans notre système capitaliste, des entreprises se l’approprient et le transforment en un système d’exploitation fonctionnel. De plus en plus, on entend dire que Linux « fonctionne mieux » et c’est malheureusement vrai. Ce qu’il a d’intéressant, en revanche, c’est justement le dysfonctionnement dû à son ouverture, à sa richesse et à sa complexité. Une complexité qui bloque le système de fonctionnement, qui empêche d’avancer rapidement, qui interdit l’efficacité et la productivité, qui fait « perdre du temps » pour réfléchir. Encore une fois, comme Socrate qui arrive en retard chez Agathon, la personne qui choisit une distribution « non fonctionnelle » de Linux ne sera pas prête à travailler out of the box ; elle sera moins productive, moins efficace, plus philosophe. Ce qui me semble important ici, ce n’est pas tellement de défendre Linux contre d’autres systèmes d’exploitation, mais de proposer une approche différente devant les environnements numériques : au lieu de chercher quelque chose de simple, nous devrions essayer de comprendre ce que nous voulons et nous rendre capables de faire des choix complexes.
Passons à l’exemple d’un outil qui, par son ergonomie et par sa structure, semble ne pas correspondre à l’impératif fonctionnel. Il s’agit d’un éditeur de texte : Vim. On ne peut certes pas dire de Vim qu’il ne fonctionne pas ni qu’il n’est pas performant. Au contraire, Vim est considéré dans le monde de l’informatique comme l’un des éditeurs de texte les plus puissants. Mais sa conception le rend très anti-intuitif, si par « intuitif » on entend ce qui ne demande aucune réflexion pour le grand public et donc ce qui correspond aux modèles dominants sur le marché. Vim est un éditeur de texte qui dérive d’un autre éditeur de texte, Vi, présent dans toutes les distributions Unix par défaut. Il en est une « amélioration ». Vim signifie en effet « Vi improved ».
Tout d’abord, il faut dire quelques mots sur ce qu’est un éditeur de texte : c’est un logiciel qui permet de manipuler du texte brut. Il ne faut pas confondre les éditeurs de texte avec les logiciels de traitement de texte, comme Microsoft Word, qui manipulent non pas du texte brut, mais du texte formaté. Quand on écrit « Bonjour » sur Word, ou sur un autre logiciel de traitement de texte, les lettres qui forment le mot « Bonjour » sont une partie de l’information que nous produisons, une minuscule partie. Le fichier contenant le mot « Bonjour » contient aussi une quantité énorme d’autres caractères : environ 4 200 de plus que les 7 lettres composant le mot « Bonjour ». Tous ces caractères et ces symboles servent à spécifier le formatage du texte : la taille de la page, les métadonnées, la police, sa taille, etc. Si on écrit « Bonjour » avec un éditeur de texte, le fichier contiendra 7 lettres, pas une de plus – ce qui fait que le fichier texte contenant le mot fera 8 bytes et le fichier docx environ 4 200.
Vim permet donc de manipuler du texte brut. Un éditeur de texte devrait être plus « simple » qu’un logiciel de traitement de texte, pourtant ce type de logiciel est moins connu et moins utilisé par le grand public. Le marché des GAFAM nous a progressivement convaincu·es que la manière la plus « simple » de manipuler du texte était d’avoir affaire à du texte formaté. Une deuxième caractéristique de Vim qui le rend « anti-intuitif » est qu’il n’implémente pas l’utilisation de la souris. Sur Vim, on écrit en utilisant exclusivement le clavier. Pour se déplacer dans le texte, pour le sauvegarder, pour le copier et le coller, etc., on n’utilise que les touches du clavier. Ici aussi, il semblerait évident que Vim est donc plus « simple ». Mais non : nous sommes tellement habitués à l’emploi de la souris que son absence semble rendre les choses plus compliquées. Pourtant, lors de l’écriture, l’absence de souris rend tout bien plus rapide : au lieu de devoir éloigner une main du clavier, la porter sur la souris, se déplacer sur un mot, le sélectionner, cliquer quelque part sur l’écran en cherchant avec le regard le bon bouton…, on reste les mains sur le clavier et une simple combinaison de touches fait l’affaire. Une troisième caractéristique de Vim est qu’il est très personnalisable : on peut définir une série de comportements particuliers, installer un nombre infini de plugins, personnaliser le logiciel à volonté. Évidemment, comme dans le cas des distributions Linux, cela demande beaucoup de réflexion : une autre chose anti-intuitive. Vim a une série infinie d’avantages ou, mieux, une série de spécificités qui le rendent particulièrement adapté à certains besoins spécifiques : par exemple, puisqu’il n’a pas besoin d’une interface graphique, il peut être utilisé pour travailler sur des textes sur un ordinateur à distance – notamment un serveur. Il est léger, rapide, adaptable. Mais il ne correspond pas aux usages les plus diffusés et il reste donc utilisé exclusivement par des technicien·nes, des informaticien·nes et des geeks.
Cela nous révèle quelque chose en plus sur l’impératif fonctionnel : il ne se limite pas à nous pousser à produire le plus possible, il nous oblige à le faire d’une certaine manière. L’impératif fonctionnel nous pousse à travailler et à penser tou·tes de la même manière car il est plus facile de rendre productif un groupe uniforme de personnes plutôt qu’une série d’individus ayant chacun ses propres pratiques. S’approprier Vim demande du temps, mais cela permet de réfléchir à des modes particuliers et innovants d’écriture. N’est-il pas étrange que les personnes supposées avoir la réflexion la plus poussée sur ce qu’est un texte – les humanistes, les écrivain·nes, les auteurs et les autrices… – se limitent à adhérer à un seul modèle textuel, celui proposé par Word ? N’est-ce pas étrange que les personnes qui ont les pratiques les plus hétérogènes et diverses par rapport au texte soient en fait les technicien·nes ? Il semblerait désormais que les gens du texte ne sont plus les humanistes, mais les informaticien·nes. Un outil d’écriture complexe comme Vim oblige à s’arrêter avant de commencer à écrire. Il nous bloque et il nous pose d’abord la question : que signifie pour toi écrire ? Qu’est-ce qu’un texte pour toi ? Qu’est-ce que ce texte que tu es sur le point de commencer à écrire ? Comment peux-tu adapter l’environnement d’écriture pour qu’il représente le plus fidèlement possible ton idée de ce que ton texte doit être ?
Ces exemples nous invitent à réfléchir sur la multiplicité des modèles et des pratiques possibles ainsi que sur leur implémentation dans des environnements numériques spécifiques. Les outils « complexes », les outils qui ne correspondent pas au modèle unique diffusé par les plateformes mainstream sont dysfonctionnels parce qu’ils mettent en crise l’unicité « du numérique » et ouvrent les portes à une pluralité hétérogène de « numériques », chacun portant sa propre vision du monde, chacun répondant à des besoins et à des questions particulières, chacun appropriable, personnalisable au prix d’une réflexion, d’un temps « perdu » dédié à penser.
Le 7 juillet 2022, les participant·es au colloque « Interactions multimédiales par écran », organisé par Christine Develotte à Lyon, se retrouvèrent, comme par magie, tou·tes téléporté·es en Chine. Ou, du moins, c’est ce que disaient leurs smartphones et ce que moi, qui n’en ai pas un, constatais en regardant les écrans de mes voisin·es. Tout le monde était géolocalisé en Chine, malgré le fait que nous nous trouvions dans une salle de l’ENS à Lyon.
La magie avait été réalisée par Simon Weckert, un artiste allemand qui, depuis plusieurs années, défie le « fonctionnement » des technologies numériques. Weckert avait placé des antennes dans la salle et avait développé un script qui envoyait un signal GPS à travers ces antennes. Il pouvait donc choisir n’importe quelles coordonnées et tromper les appareils présents dans la salle qui recevaient un signal de géolocalisation très fort couvrant celui des « vrais » satellites.
Il s’agit d’une action/œuvre, une pratique artistique qui détourne les outils pour leur faire faire quelque chose d’autre, quelque chose qui n’a rien d’utile, qui ne sert à rien, si ce n’est à s’amuser et, comme je vais essayer de le démontrer, à réfléchir.
Parmi les nombreuses œuvres de Simon Weckert, une avait attiré l’attention des médias – et des GAFAM. Weckert se promenait dans des rues vides et sans circulation avec un petit chariot où il traînait cent smartphones allumés. Cela créait des bouchons dans Google Maps17. Cette démarche a beaucoup fait parler car elle met en question le « fonctionnement » d’une application aussi utilisée que Google Maps. Est-elle fiable ? Comment fonctionne-t-elle exactement ? Weckert révèle les mécanismes de l’application en en montrant en même temps la fragilité. L’artiste me racontait que sa démarche lui avait valu des attaques personnelles assez violentes sur les réseaux sociaux : il semblerait que nous n’aimions pas que nous soit montré le peu de fiabilité d’une chose en laquelle nous avons une confiance aveugle.
Ces démarches sont des exemples d’outils inutiles. L’outil inutile représente peut-être la forme la plus extrême de dysfonctionnement : il est conçu pour ne pas fonctionner, il est conçu pour résister à l’impératif fonctionnel. On pourrait donc se dire que l’outil inutile n’est pas vraiment un outil, mais cela n’est pas vrai : l’outil inutile a toutes les caractéristiques de l’outil, il fait des choses, il implémente une conception et une vision du monde, il produit des effets, il peut être utilisé.
Lié souvent à des pratiques artistiques ou créatives, l’outil inutile est par nature hétérogène et multiple, et il serait impossible d’en donner une représentation exhaustive. Nous nous contenterons de certains exemples.
L’inutilité de l’outil inutile est souvent recherchée pour mettre en question un aspect de l’impératif fonctionnel. Produire un outil inutile est donc souvent un geste de ce qu’on pourrait appeler, avec Guy Debord18, un « détournement » : réutiliser une structure ou un matériau – ou un outil – dans des buts complètement différents de ce pour quoi cette structure a été pensée. Dans son Surveiller et sourire19, Sophie Limare analyse une série d’exemples de détournement donnant lieu à des outils inutiles : un ensemble de pratiques artistiques consistant à résister aux dispositifs de vidéosurveillance. Des artistes comme Mobstr ou Spy installent ainsi dans l’espace public une série de caméras de surveillance complètement inutiles : une caméra pointée sur un cygne, une autre posée sur une poubelle qui cadre des déchets, des centaines de caméras qui cadrent toutes le même point… Ces caméras de surveillance ne surveillent rien. Leur but est détourné : au lieu de surveiller, elles dénoncent la surveillance.
Servanne Monjour, dans Mythologies postphotographiques20, analyse des dispositifs semblables : le travail de différents artistes qui détournent Google Street View. Michael Wolf (StreetView), Jon Rafman (9eyes) ou Clement Valla (Postcards from Google Earth) utilisent ces applications de géolocalisation non pas pour s’orienter dans l’espace, mais pour le déformer. Ces artistes montrent les « glitches » de l’application, les cartes aberrantes, les routes qui semblent cassées ou suspendues dans le vide, les épisodes de violence captés par hasard par les yeux de la caméra de Google… Au lieu d’avoir affaire à l’espace unique et uniforme qui nous est proposé par les GAFAM, ces artistes mettent en place ce que Monjour appelle des « anamorphoses ». L’anamorphose est un effet optique donné par des perspectives particulières qui fait en sorte qu’une même image apparaît de plusieurs manières différentes selon les points de vue. Le concept d’anamorphose permet d’avoir une multiplicité qui ne peut jamais être réduite à l’unité : il n’y a pas un point de vue privilégié, il n’y a pas un modèle unique. On voit des choses différentes selon la perspective. Ces détournements brisent ainsi l’unicité du modèle proposé par les GAFAM en le faisant exploser en mille morceaux anamorphiques. Ces pratiques apparemment inutiles nous invitent à penser la pluralité des rapports que nous pouvons avoir avec l’espace.
Il en est de même des pratiques littéraires qu’analyse Enrico Agostini-Marchese21, en particulier celle du collectif montréalais qui anime les Dérives. Il s’agit d’une série de tweets avec le hashtag #dérive associé à un autre hashtag qui spécifie un nom de lieu. Cette pratique a un effet de redéfinition de l’espace de la ville qui se voit réapproprié et réinterprété par un imaginaire littéraire et poétique. Les membres du collectif, avec un geste fortement inspiré par Debord et ses dérives, redéfinissent en même temps l’espace de la ville et l’espace de l’infrastructure numérique : la géolocalisation, ici aussi, est anéantie, rendue non fonctionnelle car son but n’est plus d’orienter mais plutôt de désorienter. À la place des informations qui aident l’impératif fonctionnel, au lieu des messages qui nous permettent de trouver un restaurant ou un magasin, les dérives nous font découvrir un sens différent de l’espace de la ville. Elles multiplient les représentations possibles.
Les pratiques de détournement permettent de faire émerger une pensée critique en questionnant les modèles en place. On pourrait en citer des milliers : avec les bouchons artificiels de Simon Weckert, les Utterings d’Annie Abrahams22 ou les performances sur Zoom d’Alice Lenay qui renversent le « fonctionnement » des dispositifs de vidéoconférence en remplaçant la « communication efficace » par des sons vides ou des bruits de bouche…
Mais il y a d’autres formes d’inutilité féconde qui ne passent pas nécessairement par des détournements. Un exemple intéressant nous est à nouveau fourni par Monjour. Dans un article où elle analyse les gestes d’écriture à l’époque du numérique23, elle souligne à quel point ces gestes sont devenus une propriété des GAFAM et surtout à quel point ils se sont appauvris. Les ergonomies proposées, pour être « intuitives » et « simples », sont restreintes, simplistes et pauvres. Les gestes de lecture s’étiolent en étant réduits à un catalogue proposé par une poignée d’entreprises. Pour résister à ce type de phénomène, des artistes réfléchissent à des alternatives : un exemple particulièrement remarquable est celui de l’écran à manivelle inventé par la start-up Manivelle de Montréal, un dispositif qui comprend une manivelle pour tourner les pages numériques. Contre-intuitif, résistant et finalement inutile, ce dispositif nous renvoie à un imaginaire différent face au geste le plus simple lors de la lecture : les manivelles, des outils qui semblent révolus, reviennent et ramènent leurs visions du monde, leurs anecdotes, leurs représentations de ce que peut être la lecture.
Il y a aussi toutes les technologies avortées, tous les outils qui n’ont pas eu de succès et dont l’échec met en crise l’idée d’un progrès linéaire vers le meilleur fonctionnement possible. C’est ce que Charles Acland appelle des « médias résiduels24 ». Ces « outils » ne sont pas nés inutiles, ils le sont devenus. C’est juste que le modèle qu’ils proposaient n’est pas devenu le modèle dominant. Leur échec les fait disparaître : pour croire qu’il y a « un seul » numérique, il est nécessaire d’oublier ces avortons ou, pour être plus précis, de les refouler. Selon l’idéologie des GAFAM, il n’y a qu’un modèle possible et les outils se succèdent toujours en s’améliorant, en faisant toujours la même chose mais de mieux en mieux. Or ces technologies disparues témoignent du contraire : il y avait d’autres voies possibles, d’autres modèles. Dans le passé, on n’a pas seulement fait la même chose moins rapidement, on a aussi fait tout autre chose.
Un exemple curieux et parlant est celui de la « sonorine » décrit par Cavallari25. La « sonorine » était une carte postale sonore, brevetée en 1905 par E.J.-B. Brocherioux, L. V. Marotte et P. J. Tochon. Il s’agissait de permettre d’enregistrer sur un appareil dénommé « Phonopostal » un message sonore et de l’envoyer par la poste, comme une carte postale. « N’écrivez plus ! » disaient les slogans publicitaires. Cette technologie se fondait sur l’idée que la présence passe davantage par l’oralité que par l’écriture. Or cette idée – qui était aussi celle d’un grand théoricien comme McLuhan, convaincu que les nouveaux médias auraient progressivement déterminé la fin de l’écriture – n’a pas été prépondérante dans notre histoire : désormais, nous savons – comme le montre Cavallari – que nous pouvons avoir de la présence en écrivant et que, parfois, cette présence « écrite » est plus forte que toute forme d’oralité. L’écriture, loin de disparaître comme le prévoyait McLuhan, est désormais partout. La sonorine est rapidement devenue un outil inutile, un rebut, digne des analyses d’Orlando. En effet, ce type de technologie n’a pas simplement disparu : il a été refoulé26. Il faut oublier la sonorine si l’on veut pouvoir avancer dans le progrès que nous promet l’impératif fonctionnel. Ainsi, le fait de s’arrêter sur ces outils avortés est une manière de questionner l’impératif fonctionnel, et cela constitue, comme le dit Orlando, un « lieu de retour du réprimé » antifonctionnel.
Les outils inutiles révèlent à la fois les visions du monde qui se cachent derrière l’impératif fonctionnel et ils en soulignent la fragilité. Ils dévoilent la matérialité des dispositifs numériques et en exposent les rouages, quitte à les détourner. Ils détruisent l’unicité fictive sur laquelle se fonde une idée de progrès linéaire et font apercevoir des mondes parallèles hétérogènes, différents, étranges.
Comment apprécier le dysfonctionnement ? Comment aimer le bug ? Que faire concrètement pour résister à l’impératif fonctionnel ? Essayer d’établir des actions précises qui aillent dans ce sens sera l’objet du prochain chapitre, mais nous pouvons déjà identifier une posture, une attitude générale devant les environnements numériques qui rend possible la liberté : celle du bidouilleur ou de la bidouilleuse. Selon le dictionnaire Larousse, « bidouiller » signifie « trafiquer, bricoler un appareil, un matériel ». Il faut que nous cessions d’être des utilisateurs ou des utilisatrices et que nous devenions des bidouilleurs et des bidouilleuses, des bricoleurs et des bricoleuses.
Dans La Pensée sauvage, Claude Lévi-Strauss rappelle le lien entre la notion de bricolage et celle de détournement : « Le bricoleur reste celui qui œuvre de ses mains, en utilisant des moyens détournés par comparaison avec ceux de l’homme de l’art27. » Bricoler n’implique pas une expertise dans un domaine précis, mais plutôt la capacité de s’adapter à un grand nombre de situations en trouvant des manières de faire ce qu’on veut faire « avec les moyens du bord ». Or, vu qu’il n’est pas possible d’être expert·es de tout, la posture du bricolage semble la plus pertinente pour éviter la passivité devant les outils.
Un utilisateur ou une utilisatrice est passif·ve et se limite à faire ce que l’outil lui suggère de faire. L’idée d’« utiliser » renvoie à l’assomption passive de quelque chose qui détermine ensuite des effets.
En tant que bidouilleurs, bidouilleuses ou bricoleurs et bricoleuses, nous devons au contraire perdre du temps à jouer, à détourner, à casser les choses devant nous pour les concevoir activement, pour les mettre au service d’une idée, d’un besoin ou d’un rêve. Une personne qui bidouille est souvent une personne qui casse : elle casse parce qu’elle ne s’adapte pas à ce que l’outil propose. Il est toujours mieux de casser en essayant de s’approprier que d’utiliser en devenant passif. En bidouillant, on se salit les mains, on fait les choses soi-même, on ne délègue pas, car on sait que c’est dans la bidouille qu’émerge la pensée, que la pensée n’est jamais abstraite.
« Bidouiller » signifie accepter le bug, le dysfonctionnement, l’erreur, la casse, la perte de temps, en comprenant que ces situations sont les seules où peuvent émerger la pensée et la critique. Les bidouilleurs et les bidouilleuses ont les mains dans les environnements qu’iels habitent ; iels essaient de les comprendre ; iels ne veulent pas juste faire ce que les outils leur demandent ; iels veulent comprendre pour être autonomes et donc, par rapport à l’injonction productiviste de l’impératif fonctionnel, iels perdent du temps.
La perte de temps des personnes qui bidouillent est la seule solution de résistance possible devant l’injonction à être productif, rapide, efficace.
1. Noah WEBSTER, Webster’s Complete Dictionary of the English Language, Londres, George Bell & Sons, 1886.
2. « Bug, noun² », OED (Oxford English Dictionary) Online, Oxford, Oxford University Press, 2023.
3. « Le plus gros “bug” à ce jour a été découvert dans le système d’annonce électrique des hôtels américains », Operator 15 Aug. 1875 5/1.
4. Bryan LUNDUKE, « The story of the first “computer bug”… is a pile of lies », The Lunduke Journal of Technology, août 2022.
5. « Premier cas réel de détection d’un bug ».
6. Paul VIRILIO, La Bombe informatique, Paris, Galilée, 1998 ; Cédric BIAGINI et Guillaume CARNINO (dir.), La Tyrannie technologique. Critique de la société numérique, Paris, L’Échappée, 2007 ; Cédric BIAGINI, L’Emprise numérique. Comment Internet et les nouvelles technologies ont colonisé nos vies, Montreuil, L’Échappée, 2012 ; Evgeny MOROZOV, The Net Delusion. The Dark Side of Internet Freedom, New York, PublicAffairs, 2012 ; Evgeny MOROZOV, To Save Everything, Click Here, op. cit ; Dominique CARDON et Antonio A. CASILLI, Qu’est-ce que le digital labor ?, Bry-sur-Marne, INA, 2015 ; Paolo SORDI et Domenico FIORMONTE, « Geopolitica della conoscenza digitale. Dal web aperto all’impero di GAFAM », DigitCult. Scientific Journal on Digital Cultures, vol. 4, no 1, juin 2019, p. 21-36 ; Jacques FONTANEL et Natalia SUSHCHEVA, « GAFAM, l’influence des grandes entreprises numériques sur le développement de l’économie mondiale », Sciences de l’homme et de la société, 2019 ; Lionel MAUREL, « Culture libre et droit d’auteur : une alternative au pouvoir des GAFAM ? », L’Observatoire, la revue des politiques culturelles, no 55, 2020, p. 95-97 ; Christophe BÈZES et Maria MERCANTI-GUÉRIN, « Stratégies d’acquisition des GAFAM : derrière le contrôle des technologies, celui des corps. Une analyse inspirée par Michel Foucault », Management Avenir, vol. 125, no 5, octobre 2021, p. 45-67 ; Fabrice FLIPO, La Numérisation du monde. Un désastre écologique, Paris, L’Échappée, 2021 ; Alain SAULNIER, Les Barbares numériques, op. cit., pour ne citer que quelques exemples.
7. Julia LAÏNAE et Nicolas ALEP, Contre l’alternumérisme. Pourquoi nous ne vous proposerons pas d’écogestes numériques ni de solutions pour une démocratie numérique, Saint-Michel-de-Vax, La Lenteur, 2023, 2e édition.
8. Dennis BURKE, « All circuits are busy now : the 1990 AT&T long distance network collapse », California Polytechnic State University, novembre 1995.
9. KUALITEE, « 3 cases where software bugs deteriorated company’s profitability », Kualitee, décembre 2018.
10. Martin HEIDEGGER, L’Être et le Temps, Paris, Gallimard, 1986 [1927], p. 15. et suiv.
11. Michael BOELEN, « Linux history : how dot files became hidden files », Linux Audit, 30 mai 2016.
12. Giuseppe CAVALLARI, « The distances of presence : what does it mean to be online and offline with others ? », IMG Journal, février 2021, p. 118-135.
13. Il existe, en réalité, aussi des bugs dus à un dysfonctionnement physique de la machine. Dans ce cas, en effet, le calcul peut être faux. Mais nous n’allons pas nous occuper de ce type de bug ici.
14. Martyn THOMAS et Harold THIMBLEBY, « Computer bugs in hospitals : a new killer », Gresham College, 6 février 2018.
15. Bien documenté dans l’appendix de Nancy G. LEVESON, Safeware. System Safety and Computers, Reading, Addison-Wesley Professional, 1995.
16. Cari BORRÁS, « Overexposure of radiation therapy patients in Panama : problem recognition and follow-up measures », Revista Panamericana de Salud Publica/Pan American Journal of Public Health, vol. 20, no 2-3, 2006, p. 173-187.
17. Rory SULLIVAN, « Artist uses 99 phones to trick Google into traffic jam alert », CNN, 4 février 2020.
18. Guy DEBORD, « Introduction à une critique de la géographie urbaine », Les Lèvres nues, no 6, 1955.
19. Sophie LIMARE, Surveiller et sourire. Les artistes visuels et le regard numérique, Montréal, Presses de l’université de Montréal, 2015.
20. Mythologies postphotographiques. L’invention littéraire de l’image numérique, Montréal, Presses de l’université de Montréal, 2018.
21. Enrico AGOSTINI-MARCHESE, « How to do cities with words. Ville, espace et littérature à l’ère hyperconnectée », in jake MOORE et Christelle PROULX (dir.), L’Agir en condition hyperconnectée. Art et images à l’œuvre, Les Ateliers de [sens public], ateliers.sens-public.org, 2020.
22. Annie ABRAHAMS, Utterings, bram.org, 2020.
23. Servanne MONJOUR, « Le sens du geste. Remédiations et poétiques tactiles de la littérature numérique », Ecranosphère, 2018, p. 17.
24. Charles R. ACLAND (dir.), Residual Media, Minneapolis, University of Minnesota Press, 2007.
25. Giuseppe CAVALLARI, « Le Phonopostale et les sonorines : un échec riche d’idées », Cahier Louis-Lumière, no 10, 2016, p. 77-86.
26. L’usage croissant des messages vocaux est une autre démonstration de la non-linéarité des développements technologiques. La sonorine n’a certes pas été un succès, elle a été abandonnée et refoulée, mais l’usage de la voix revient dans des pratiques d’écriture récentes. Ainsi, des outils pensés principalement pour écrire deviennent des espaces d’échange oral.
27. Claude LÉVI-STRAUSS, La Pensée sauvage, Paris, Plon, 1962, p. 26.
Entre 1920 et 1942, l’entreprise Ford publie un magazine bimensuel destiné aux client·es et aux employé·es. On y trouve des informations sur la firme et ses produits, mais pas uniquement : Henry Ford profite de cette publication pour diffuser sa vision du monde et édifier son lectorat. Il choisit par exemple des personnages illustres auxquels dédier des articles et, surtout, il se réserve un encart en deuxième page pour exprimer ses idées et afficher ses valeurs tout comme celles de son entreprise. Ce petit encart a souvent pour titre « Motto ».
Le 8 août 1925, il écrit ce qui suit :
L’homme sans la machine est un esclave ; l’homme avec la machine est un homme libre. Comparez les personnes dont le corps est la seule machine et celles qui disposent d’inventions mécaniques modernes, et vous verrez qui est esclave et qui est libre. Les personnes capables et aptes à la liberté se libèrent de leur servitude physique en remplaçant les muscles par l’esprit1.
L’ethos de Ford est condensé dans cette maxime : les machines nous libèrent, elles améliorent notre vie en prenant en charge toutes les tâches pénibles et en nous permettant de vivre une vie meilleure. Les machines nous permettent de nous délivrer de tous les besoins.
Cette rhétorique est au fondement de la pensée de Ford et on la retrouve abondamment dans son autobiographie, où l’industriel américain construit une hiérarchie de valeurs au sommet de laquelle se trouvent la créativité, l’esprit, la pensée, la réflexion, et, tout en bas, les muscles, les actions matérielles, les corps. Nous reconnaissons la doxa platonicienne selon laquelle il faut s’affranchir du corps pour devenir plus humain. Les machines, en prenant en charge les aspects les plus trivialement matériels de la vie des êtres humains, leur permettent de s’occuper des aspects les plus élevés et donc les plus immatériels.
Ford le répète dans My Life and Work :
Lorsque l’on parle d’augmentation de la puissance, des machines et de l’industrie, on se représente un monde froid et métallique dans lequel les grandes usines feront disparaître les arbres, les fleurs, les oiseaux et les champs verdoyants. Et que nous aurons alors un monde composé de machines métalliques et de machines humaines. Je ne suis pas d’accord avec tout cela. Je pense que sans une meilleure connaissance des machines et de leur utilisation, sans une meilleure compréhension de la partie mécanique de la vie, nous n’aurons pas le temps de profiter des arbres, des oiseaux, des fleurs et des champs verdoyants2.
Les machines nous libèrent du travail matériel et nous laissent le temps de profiter de la vie, de la nature, des belles choses. Délivré·es de tout ce qu’on peut déléguer à une machine, nous pouvons nous concentrer sur ce qui est plus purement humain.
Maintenant, faisons un saut de 2 200 ans en arrière et passons des États-Unis à la Grèce. En 306 avant J.-C., Épicure laisse Mytilène, où il enseignait, pour se rendre à Athènes, où il achète un jardin, à la campagne, loin du centre de la ville, dans un lieu quelque peu reculé. C’est là qu’il fonde son école, qui s’appelle justement « le jardin » (κῆπος, képos). Dans le jardin vivent en communauté les amis d’Épicure, qui apprennent sa philosophie tout en s’occupant de l’assouvissement de leurs besoins naturels en cultivant la terre. Car l’idée centrale d’Épicure est qu’être libre signifie être capable de satisfaire ses propres besoins. Il faut donc limiter ces besoins tout en œuvrant à devenir autonome pour les satisfaire, d’où la culture de la terre. Sénèque raconte à Lucile (lettre 21) que, devant la porte du jardin, il est inscrit : « Passant, tu feras bien de rester ici ; ici le suprême bonheur est la volupté ! » Cette volupté ne consiste pas à exciter le désir, mais à l’apaiser.
Deux visions opposées de la liberté donc. Pour Ford, la liberté est la délivrance rendue possible par la dépendance des machines. Pour Épicure, la liberté correspond à l’autonomie et à l’indépendance rendues possibles par le fait de se charger soi-même d’assouvir ses propres besoins. D’une part, l’idée selon laquelle nous devons nous libérer des choses matérielles en les laissant, par exemple, à la machine ; de l’autre, l’idée selon laquelle s’occuper de ce qui est matériel nous libère de la dépendance – des machines ou des autres – et nous rend par conséquent foncièrement heureux.
Dans Terre et liberté, Aurélien Berlan propose une réflexion semblable et prône une idée de liberté très proche de celle d’Épicure :
Un mode de vie libre n’est pas basé sur le dépassement de la nécessité, mais sur la minimisation des dépendances matérielles asymétriques qui constituent le fondement des relations de domination3.
Au fantasme d’émancipation à travers la libération de toute contrainte, typique du discours capitaliste, Berlan oppose l’autonomie des classes populaires qui savent pourvoir à leurs propres besoins. Car le fantasme de délivrance des contraintes matérielles se concrétise dans un assujettissement à la domination de personnes gérant les systèmes de production et permettant ainsi l’assouvissement des besoins fondamentaux.
Le cas des technologies, et encore plus des technologies numériques, me semble ici particulièrement significatif. Le discours des GAFAM consiste justement à promettre de nous libérer de toute contrainte matérielle grâce à leurs solutions magiques. C’est ainsi qu’on peut comprendre l’impératif fonctionnel, la notion d’intuitivité et la rhétorique de l’immatérialité : des technologies qui fonctionnent sont, selon ce discours, des technologies qui délivrent du besoin de réfléchir et de s’occuper de ses propres besoins. Les GAFAM pensent pour nous. Elles nous promettent de nous prendre totalement en charge. Nous n’avons pas besoin de connaître la route, car Google Maps va nous l’indiquer ; nous n’avons pas besoin de nous demander ce que nous avons envie de manger, Tripadvisor nous mentionnera le meilleur restaurant ; nous n’avons pas besoin de nous poser des questions, Airbnb nous trouvera le bon logement, Netflix le bon film à voir, iPhoto rangera nos souvenirs dans le bon ordre, Uber réglera la circulation dans nos villes en nous permettant de trouver un chauffeur ou une chauffeuse ou une trottinette électrique, Tinder s’occupera de nous faire rencontrer la bonne personne… Nous sommes délivré·es de toutes ces préoccupations et nous sommes complètement dépendant·es non seulement des services de ces technologies, mais aussi de leurs visions du monde. D’une part, sans ces « solutions », nous ne sommes plus capables de trouver notre chemin, de l’autre, nous croyons que les valeurs incarnées par ces applications sont neutres, les seules possibles.
Pour résister à ce discours, nous devons adopter l’idée de liberté que propose Épicure et, avec lui, Berlan : une liberté qui consiste à ne pas dépendre des technologies, à ne pas être dominé·es par les entreprises de la Silicon Valley.
Pour ce faire, en suivant les conseils d’Épicure, deux choses sont nécessaires. En premier lieu, minimiser les besoins, en réfléchissant à ce qui nous est réellement indispensable et en évitant de désirer ce dont nous n’avons pas besoin – et souvent aucune envie. En second lieu, augmenter notre littératie pour devenir de plus en plus autonomes. Apprendre à cultiver notre jardin.
Les technologies numériques configurent et restructurent de manière forte nos espaces de vie. Dès les prémices de la large diffusion des connexions Internet dans les années 1990, cet aspect spatial a été mis en avant. Nous avons mentionné la notion de cyberespace popularisée par Barlow dans sa déclaration d’indépendance du cyberespace4 : le numérique nous promettait de déployer un espace de vie habitable. Un espace parallèle, où nous serions libéré·es de tous les pouvoirs qui exercent traditionnellement leur empire sur les espaces non numériques. Barlow n’a pas été le seul à diffuser cette rhétorique : grâce à l’influence de l’imaginaire littéraire et cinématographique, s’est développé dans les mêmes années un véritable imaginaire de l’espace virtuel. Le numérique ouvrirait un espace parallèle, souvent fictif – comme celui des jeux vidéo –, représenté dans des livres comme Neuromancien de William Gibson5, ou dans des films comme Existenz de David Cronenberg (1999) ou Matrix des Wachowski (1999).
Selon ce discours, les technologies numériques seraient effectivement à l’origine d’un espace, mais cet espace ne serait pas « réel ». À cette idée sont liées plusieurs critiques des technologies numériques accusant ces dernières d’être « déréalisantes ». Sans entrer dans les détails de cette discussion6, nous pouvons affirmer que cette vision est désormais révolue : les usages et les pratiques ont profondément changé notre perception de l’espace numérique et nous sommes désormais loin de l’idée d’un « espace virtuel ».
Le numérique est encore perçu comme un espace, mais il est progressivement devenu notre espace de vie. Il a intégré la quasi-totalité des espaces prénumériques et n’a plus rien de parallèle.
Un exemple peut nous être utile afin de bien saisir cette hybridation : la généralisation des achats en ligne. Dans ce cas, la correspondance entre infrastructure numérique et infrastructure non numérique est devenue éclatante. Nos villes se sont remplies de camions Amazon, les entrepôts de cette même compagnie se sont multipliés changeant la configuration des banlieues, produisant de nouvelles formes de travail – souvent précaires –, modifiant la circulation routière et entraînant des conséquences majeures dans nos habitudes quotidiennes. L’espace d’Amazon est l’espace à la fois d’une plateforme numérique, d’un site Web, d’une série d’algorithmes qui font fonctionner la plateforme ou prennent en charge la gestion de la distribution et de la logistique, d’applications mobiles pour les livreurs et les livreuses comme pour les acheteurs et les acheteuses, de centres de données, de centres de stockage, de camions, etc. L’espace d’Amazon est un espace hybride, composé par des éléments proprement numériques et d’autres non exclusivement numériques (des camions, des colis, des lieux d’entreposage).
Nous pouvons dire la même chose d’un lieu de travail qui est désormais composé par l’hybridation d’un bâtiment, de locaux, d’agencements architecturaux particuliers et de câbles, de protocoles (comme le TCP-IP), de formats, de logiciels de vidéoconférence, etc. Les maisons sont progressivement devenues des extensions des bâtiments d’entreprise ; le smartphone, un outil de travail ; la vidéoconférence, un mode de présence au même titre que la coprésence dans une salle…
Nous vivons désormais – et la pandémie n’a fait qu’amplifier et accélérer un phénomène déjà en cours depuis deux décennies au moins – dans un espace numérique. Le numérique est notre principal espace de vie7. C’est un espace que nous devrions pouvoir aménager, personnaliser et investir8. Nous habitons le numérique, ou bien le numérique est la fonction première de production de l’espace dans lequel nous vivons.
Or, si le numérique est l’espace que nous habitons, il est fondamental de s’interroger sur la manière dont cet espace est agencé, sur les instances qui contribuent à le produire, sur la nature des enjeux liés à ces agencements. Nous savons être sensibles aux éléments architecturaux prénumériques et à leurs implications : nous savons reconnaître ce que nous disent les espaces d’une ville, par exemple, ou d’une habitation. Nous sommes notamment capables de décrypter le sens de l’organisation d’une maison dès que nous y entrons : nous reconnaissons les espaces et leurs fonctions, nous comprenons rapidement les habitudes et les goûts des personnes qui y vivent. S’agit-il de personnes qui reçoivent beaucoup ? Quel est leur degré de pudeur ? Comment séparent-elles les espaces ? Le lit est-il visible ou non ? Cohabitent-elles avec des enfants ?
La disposition des pièces, le choix des meubles, les couleurs, les accessoires : tout nous parle d’habitudes, de styles de vie, de valeurs, de visions du monde.
Étant donné que l’espace est aujourd’hui aussi numérique, une maison n’est plus seulement l’ensemble des éléments que nous venons de citer (murs, meubles, couleurs…), mais elle est aussi constituée d’un ensemble d’infrastructures numériques : connexions, appareils, applications, environnements, plateformes. Aménager notre domicile – tout comme aménager notre ville ou nos espaces communs – signifie aussi aménager nos environnements numériques. Dans cette action d’aménagement, il est nécessaire de comprendre que les choix que nous faisons ont des implications fortes : aucun choix n’est neutre. Certes, pour rester dans l’exemple de la maison, nous pouvons rapidement aménager un appartement IKEA : nous pouvons prendre des « solutions » toutes faites, prêtes à être installées, avec très peu d’effort. Mais cette décision équivaut à affirmer que nous n’avons pas le temps ou les moyens de réfléchir à la manière d’organiser notre logement.
Cette réflexion est possible et elle est le point de départ pour que nous redevenions les protagonistes de nos pratiques et de nos actions et pour que nous réduisions notre dépendance aux grandes entreprises numériques. C’est le début d’une libération potentielle.
Il s’agit de penser les conditions de possibilité pour construire notre jardin numérique, pour penser des lieux où nous puissions être autonomes et pourvoir à nos besoins tout en mettant en place une architecture qui soit adaptée à nos visions du monde et qui soit, comme le jardin d’Épicure, source de bonheur et de volupté.
Si le numérique est un espace, la première question est de connaître le statut de cet espace. Est-il privé ou public ? À qui appartient-il ? Quelles en sont les règles d’accessibilité ? Est-il ouvert ? fermé ? perméable ? imperméable ? un ? multiple ?
Comme, pour Épicure, les conditions de possibilité de sa philosophie sont étroitement liées à la mise en place du jardin, ainsi, dans le cas des technologies numériques, notre possibilité de les habiter de façon libre et active dépend de la structure de leur espace.
Pour comprendre les enjeux spatiaux relatifs aux environnements numériques, commençons par réfléchir à la distinction entre espace privé et espace public en suivant les suggestions du philosophe Jürgen Habermas. Dans son livre L’Espace public. Archéologie de la publicité comme dimension constitutive de la société bourgeoise9, Habermas souligne la pluralité de sens que peuvent avoir les adjectifs « public » et « privé ». Il en fait une histoire pour parvenir à définir ce qu’il appelle la « sphère publique » (Offenlichkeit en allemand). Ainsi la notion de « public » peut-elle renvoyer à quelque chose d’ouvert ou, au contraire, à quelque chose de fermé : par exemple, nous disons d’un événement qu’il est « public » quand il est ouvert à tou·tes, mais nous caractérisons aussi un bâtiment de « public » par son appartenance à l’institution, alors que, dans ce cas il n’est pas forcément accessible10. Ce qui intéresse Habermas est l’émergence, au XVIIIe siècle, d’un type particulier de « publicité » : la sphère publique bourgeoise. Cet espace d’ouverture est, selon le philosophe, un lieu d’émergence de la pensée, de débats et de négociations qui donnent corps à l’opinion publique. Cette sphère publique se forme, paradoxalement, non pas dans le domaine public, mais dans le domaine privé. Il ne s’agit pas de quelque chose d’institutionnel, qui découle officiellement des politiques et des actions publiques, mais d’un espace qui naît dans le cadre de la libre rencontre entre des personnes. L’exemple par excellence de ce type d’espace est, selon Habermas, le salon français du XVIIIe siècle.
Le philosophe poursuit son analyse en remarquant que, à partir du XIXe siècle, la sphère publique est de plus en plus menacée par la superposition progressive du public et du privé : au fur et à mesure que la société et l’État se confondent, la sphère publique décline. Ce processus atteint son sommet avec le développement des médias de masse au XXe siècle.
En effet, selon Habermas, la société bourgeoise était organisée de telle manière que tout ce qui concernait les affaires relevait du domaine privé. La sphère publique était possible puisqu’il était entendu que les affaires ne relevaient pas de l’intérêt public. Le domaine privé et le domaine public étaient clairement séparés, et la sphère publique appartenait au domaine privé. Cependant, à partir du XIXe siècle, « les pouvoirs de la société eux-mêmes ont assumé des fonctions d’autorité publique ». Les domaines privé et public ont commencé à se chevaucher et à écraser ce qui se trouvait entre les deux : la sphère publique a ainsi commencé à disparaître. On observe ici un double phénomène : le domaine des affaires et du travail devient d’intérêt public et commence à influencer la politique ; en réaction, les États deviennent plus interventionnistes dans le domaine des affaires et du travail. Cela implique une « socialisation de l’État » et, en parallèle, une « statalisation de la société ».
Dans la reconstruction de Habermas, nous pouvons identifier un besoin fondamental pour toute société libre : afin qu’une société puisse évoluer dans une liberté de pensée et d’opinion, il est nécessaire qu’il existe des espaces non prédéterminés par des pouvoirs forts. C’est la première caractéristique de la sphère publique bourgeoise telle que décrite par Habermas : elle n’est pas définie ou organisée par les pouvoirs étatiques et elle est émancipée d’un pouvoir privé précis. C’est ce vide de pouvoir qu’il nous faut essayer d’obtenir aujourd’hui. Ces espaces sans pouvoir fort ne doivent appartenir ni à un État ni à une instance privée.
On pourrait toutefois aller plus loin et faire une critique de l’analyse habermassienne : la sphère publique bourgeoise est fortement élitiste. Habermas idéalise le phénomène des salons ou des espaces de rencontre et de débats « publics » en les pensant comme des lieux ouverts et accessibles à tous et toutes. En réalité, ils ne sont accessibles qu’à une partie très restreinte de la population, celle qui a les moyens économiques, sociaux et culturels nécessaires d’y accéder. Comme l’ont remarqué plusieurs critiques11, la sphère publique de Habermas est très problématique, car elle se veut unique et absolument ouverte. Ainsi, Nancy Fraser souligne que la sphère habermassienne implique un seul sens possible du public et nie la possibilité – et la réalité – d’une multiplicité de « contre-publics subalternes ». L’idée d’une sphère publique universelle et universellement accessible suppose en effet une unité indiscutable d’intérêts et de perspectives. Avec l’excuse qu’elle serait ouverte à tous et à toutes – ce qui est de fait faux –, la sphère publique bourgeoise habermassienne peut prétendre être la seule possible et réduire au silence toutes les autres perspectives. Au lieu d’une sphère publique, nous devrions donc rechercher une multiplicité de sphères et d’espaces publics, chacun se construisant sur la base des besoins, des cultures, des visions du monde et des valeurs des groupes, collectifs et communautés particulières qui les développent. Cette multiplicité – que Lionel Ruffel essaie de saisir avec la notion de « brouhaha » – représente bien le besoin d’aller au-delà d’« un » numérique unique dont nous avons déjà longuement parlé.
Nous avons jusqu’ici parlé d’espace, mais les critiques soulevées contre la notion habermassienne nous obligent à nous arrêter sur ce terme et à nous poser une question fondamentale : est-ce que l’espace peut être pluriel ? Est-ce qu’on peut vraiment parler d’espaces ? Est-ce que le concept d’espace est le bon pour penser l’habitabilité du numérique ?
Dans une conférence donnée le 25 avril 2023 à l’université de Montréal, Luca Paltrinieri12 prenait au sérieux l’idée que le numérique soit un espace, non pas métaphorique, mais un véritable espace, et affirmait qu’en effet « le » numérique – au singulier – peut être considéré ainsi, justement parce que l’espace n’est pas un lieu. Il y a une différence fondamentale entre ces deux notions : d’une part, nous avons des lieux qui sont particuliers, hétérogènes, singuliers, avec des caractéristiques propres et, de l’autre, l’espace qui est homogène, unique, mesurable. L’espace est ce qui permet de créer des relations entre des lieux différents en les reliant et en les rendant commensurables. L’espace est donc toujours au singulier, il n’y a pas des espaces, mais juste un seul et unique espace qui permet de rendre homogène tout ce qui était hétérogène.
Le concept d’espace entre parfaitement dans l’esprit capitaliste qui caractérise « le » numérique des GAFAM et qui sert l’impératif fonctionnel en rendant possible un marché unique, « simple » et performant. Paltrinieri affirme :
L’avènement du capitalisme est caractérisé, au moins au niveau cognitif, voire imaginaire, par une abstraction ultérieure, qui est le passage de la notion de territoire national à celle d’espace commercial, ou, si vous voulez, par l’invention du marché.
Paltrinieri continue son analyse en s’appuyant sur le livre Blinding Polyphemus de Franco Farinelli13, qui cite l’épisode de l’Odyssée où Ulysse rencontre le cyclope Polyphème : Ulysse représenterait la volonté occidentale de transformer tout lieu en espace, car l’espace est toujours traversable, c’est la condition de possibilité du marché. Polyphème, de son côté, représente le lieu, irréductible et incommensurable, une entité très spécifique, qui porte des valeurs propres, différentes de toutes les autres et bien circonscrites, presque enfermées et imperméables à l’extérieur, comme peut l’être une grotte. Les Grecs sortent de la grotte – le lieu où reste le sauvage – pour devenir marchands. Ce faisant, ils l’ouvrent aux principes du capitalisme et de l’impératif fonctionnel.
Tout devient traversable – et maîtrisable –, car tout est homogène, et tout devient aussi commensurable : tout peut être compté, calculé et donc échangé, vendu. Dans ce sens, le numérique – au singulier – semble être la réalisation du rêve d’Ulysse : il réduit toute différence et toute multiplicité locale à une unité homogène, quantifiable et calculable.
Tant que le numérique reste un espace, nous ne pouvons qu’être d’accord avec la critique de Laïnae et Alep qui affirment qu’il n’y a pas de possibilités « alternatives » en restant dans le monde numérique. Le numérique en tant qu’espace rend tout homogène et toute tentative de faire quelque chose de différent – tout « alternumérisme » – sera destinée à être absorbée par l’unité de l’espace, par l’unité du marché.
Mais est-ce que le numérique doit nécessairement être cette incarnation du rêve d’un espace homogène total ? En suivant l’analyse de Paltrinieri et sa critique à l’arrimage parfait entre espace numérique et espace du marché, je voudrais ici proposer l’idée, presque iconoclaste, d’une démarche opposée à celle proposée par le rêve d’Ulysse. Et si nous arrêtions de nous féliciter d’être sorti·es de la grotte et que nous faisions au contraire un effort dans le sens opposé pour y revenir ? Si nous abandonnions, pour un instant, notre fascination pour le héros de l’Odyssée et essayions de prendre la défense du méchant – et rétrograde – Polyphème ?
Car une chose est certaine : le numérique est désormais devenu notre espace principal de vie. Cavallari avance même l’hypothèse selon laquelle le numérique serait « le principal espace de raccordement de tous les espaces sociaux dans lesquels nous vivons14 ». En tant qu’espace, le numérique tel qu’il a été construit détruit la possibilité de multiplicité ainsi que celle de complexité : il « décloisonne et décomplexifie [l]es espaces, facilite leur superposition15 ».
C’est la raison pour laquelle le numérique en tant qu’espace n’est pas habitable. Car on ne peut pas, en réalité, habiter l’espace. On le traverse, comme Ulysse, justement ; on le parcourt pour relier des lieux différents et les uniformiser en échangeant des marchandises.
La possibilité même pour nous d’habiter le numérique réside dans le fait de ne plus le regarder comme un espace, mais comme une multiplicité hétérogène de lieux. Non pas donc l’espace numérique, mais les lieux numériques, au pluriel. Et, par conséquent, non pas « le numérique », mais « les numériques ». Seule une possibilité de multiplicité, nous permettra, comme le suggère Louise Merzeau16, de nous l’approprier, de le faire nôtre, de le personnaliser. Cette idée de multiplicité est ce que propose notamment Agostini-Marchese17 en réinvestissant le concept des « oligoptiques » de Bruno Latour : des fenêtres particulières qui donnent accès à des visions situées, multiples et irréductibles, d’un espace qui se voudrait au contraire unitaire et homogène. « Aucun oligoptique ne peut aspirer à l’unicité ou à l’universalité et ne peut que coexister à côté des autres ; [les oligoptiques] sont sociaux et même politiques et ils s’opposent point par point à la totalisation uniformisante de Google18 » et, ajouterions-nous, des autres GAFAM.
Si l’espace numérique est l’unité homogène dénoncée par Laïnae et Alep, les lieux numériques, compris comme des « oligoptiques », sont la multiplicité de modèles hétérogènes et irréductibles dont nous avons parlé dans le chapitre 2 : la multiplicité de visions du monde dont chacune peut être une maison, ou une grotte. Le modèle fonctionnel, mathématique et calculable, n’est jamais unique. Il repose sur un modèle représentationnel, ou conceptuel, une vision du monde, un récit, une interprétation. Et il y a une multiplicité inépuisable de modèles possibles. Une multiplicité de lieux avec leurs valeurs propres, leurs caractéristiques et leurs spécificités locales.
Habiter les lieux numériques signifie d’abord œuvrer à la mise en place de son chez-soi, de sa maison, de sa grotte ou, comme dans le cas d’Épicure dont nous reparlerons, de son jardin.
Les lieux ouverts et publics que nous voulons rechercher sont des lieux décentralisés, multiples, souvent habités et mis en place par des subalternes. Ce sont des lieux qui ne peuvent pas être reliés dans une unité par un espace traversable. Ce sont des entités qui mettent en crise l’unité de la sphère publique bourgeoise pensée par Habermas et qui font signe à la possibilité d’un brouhaha tel qu’imaginé par Ruffel.
Ainsi Épicure s’écarte-t-il du centre d’Athènes pour créer son jardin : à la différence de Platon ou Aristote, qui fondent leurs écoles au centre de l’espace public institutionnel, Épicure s’éloigne. C’est aussi ce qui caractérise les exemples et les pratiques décrites par Berlan : le retour à la terre et à des organisations communautaires pour garantir une autonomie tout en reconnaissant l’interdépendance politique des lieux.
Comment pouvons-nous rendre possible et faciliter l’émergence de tels lieux à l’époque du numérique ? Comment nos lieux de vie hybrides peuvent-ils devenir des possibilités d’émergence d’une multiplicité de sphères publiques locales et irréductibles ?
Abandonnons l’espace numérique et concentrons-nous sur la multiplicité des lieux. Si nous voulons être en mesure de les comprendre et d’en saisir les spécificités locales, une considération s’impose tout d’abord sur leur statut de propriété. Comme pour les lieux prénumériques, il semble évident de se poser la question : à qui appartiennent-ils ? Qui peut y accéder ?
Une maison privée n’a en effet pas le même statut qu’un bâtiment public, une place, un jardin municipal, un parc national, un champ géré par un collectif ou un jardin… La même réflexion vaut pour les lieux numériques, qu’il s’agisse de plateformes, de logiciels, d’applications.
Commençons par une série de distinctions. Les technologies numériques peuvent être gratuites ou payantes, ouvertes ou fermées, propriétaires ou non propriétaires. Ces trois caractéristiques ne doivent pas être confondues – comme c’est souvent le cas dans le discours public – car elles sont profondément différentes et ont des implications très spécifiques.
La gratuité est la caractéristique la plus simple à comprendre : les personnes qui utilisent l’application, l’outil, le service numérique gratuit ne doivent pas payer. C’est le cas des logiciels que l’on peut télécharger gratuitement, des plateformes que l’on utilise sans sortir sa carte bleue, des applications, services, environnements qui sont mis à notre disposition sans qu’un paiement nous soit demandé. La gratuité est très fréquente dans notre société numérique : les GAFAM en ont fait leur force. Ainsi, des services comme Google Search, Google Maps ou Google Street View, un réseau social comme Facebook, des logiciels comme AcrobatReader, Microsoft Teams, des plateformes de contenus comme YouTube ou Instagram… tout comme le nombre infini d’applications pour dispositifs mobiles qui permettent d’accéder à des services tels que Uber, AirBnB, Amazon… sont gratuits. Précisons que la gratuité n’implique pas que les utilisateurs et les utilisatrices ne donnent rien en échange du service. S’il est vrai qu’il n’y a pas de paiement monétaire dans la transaction, il y a tout de même une transaction : nous cédons à ces plateformes nos données, notre temps, souvent notre travail. Le concept de « travail numérique » (digital labor)19 sert justement à préciser cette situation : dans une série de tâches et micro-tâches – écrire des recensions, mettre des étoiles, ajouter un like, partager… –, de fait nous travaillons, car nous produisons de la valeur pour ces plateformes. Ces tâches ne sont pas rémunérées et, alors que nous avons l’impression d’utiliser un service gratuit, ce qui est gratuit est en réalité notre travail. Dans tous les cas, la gratuité ne constitue jamais un critère de liberté : le fait qu’un environnement numérique soit gratuit ne nous dit rien sur la possibilité qu’il soit par la même occasion un lieu potentiellement « public », dans le sens que nous avons défini plus haut.
La deuxième caractéristique est celle de l’ouverture ou de la fermeture : le code et les spécifications qui font un outil, une application, un format, etc. peuvent être accessibles ou non. Dans de nombreux cas, les entreprises qui produisent des applications numériques décident de ne pas rendre le code accessible. Concrètement, cela signifie que les utilisateurs et les utilisatrices n’ont aucune manière de savoir ce que l’application fait exactement : au-delà du comportement affiché, les actions réelles que le code fait accomplir à la machine restent inconnues. La possibilité d’être face à un environnement fermé ne concerne pas seulement la partie logicielle de l’infrastructure numérique, mais aussi la partie « matérielle ». La quasi-totalité du matériel informatique disponible dans le commerce – des processeurs aux cartes graphiques et cartes réseaux en passant par les imprimantes, les caméras, etc. – n’a pas de spécifications ouvertes. Cela signifie que nous pouvons acheter une imprimante dont le fonctionnement n’est pas connu et peut nécessiter l’usage d’un pilote particulier – dont le code sera à son tour inconnu. C’est-à-dire que nous achetons du matériel informatique, de véritables objets physiques, que nous n’avons pas le droit d’utiliser sans conditions : nous ne pouvons les utiliser que dans un cadre prédéfini, dans des environnements clos au fonctionnement opaque. À ce type d’approche s’oppose l’ouverture : des formats, des logiciels, des spécifications. Le code qui est derrière la technologie est alors disponible et accessible à tou·tes, de même pour les spécifications d’un format ou d’un appareil. C’est ce qui arrive dans l’univers de ce qu’on appelle l’open source.
Nous arrivons au dernier point : l’opposition entre libre et propriétaire. Il faut préciser que l’ouverture n’est pas une garantie de « liberté ». Il y a plusieurs exemples de technologies ouvertes qui appartiennent à une entreprise. Un exemple très connu est le format PDF (Portable Document Format) : il s’agit d’un format dont la spécification est ouverte, mais qui est la propriété d’une entreprise (Adobe). Le fonctionnement du format et ses spécifications sont publics et standardisés ; cela permet à tout un chacun de produire des documents au format PDF sans devoir nécessairement passer par un logiciel d’Adobe (Acrobat, par exemple) ou payer l’entreprise. Mais le format est la propriété d’Adobe : c’est l’entreprise qui en possède le brevet, c’est elle qui peut le faire évoluer, le modifier. Lorsqu’on parle du « libre », il ne s’agit pas seulement de technologies ouvertes ou gratuites, mais de technologies qui n’appartiennent pas à un acteur privé et sont donc de l’ordre du bien public.
Comme le raconte Sébastien Broca dans son Utopie du logiciel libre20, le phénomène du libre a été lancé dans les années 1980 par Richard Stallman et dépasse largement le cadre d’une simple caractéristique d’une série de technologies : c’est un véritable mouvement politique et culturel. L’idée fondamentale est d’avoir accès au code des technologies que nous utilisons et de pouvoir le modifier. La raison de ce besoin résonne fortement avec l’analyse proposée dans ce livre. Le code porte des valeurs, des visions du monde, les outils ne sont pas neutres. Il est donc nécessaire de pouvoir, d’une part, les analyser pour en comprendre le sens et les implications (et donc d’avoir accès à leur structure interne et à leur code) et, de l’autre, les modifier à merci pour les adapter à nos besoins.
Stallman est radical : un logiciel non libre est un malware, un logiciel malveillant. Nous ne savons pas ce qu’il fait, donc il ne répond pas à ce que nous voulons, mais il nous fait faire, subrepticement, ce qu’il veut. Dans le cadre des technologies propriétaires, les utilisateurs et les utilisatrices sont en réalité utilisé·es par l’outil.
Pour promouvoir ces principes, Stallman crée un noyau pour des systèmes d’exploitation libres (GNU) et fonde en 1985 la Free Software Foundation (FSF), qui, depuis lors, a garanti l’existence et la promotion des logiciels libres.
Le mouvement du libre est donc profondément attaché au concept de liberté. Comme le rappelle le site de la FSF, le fait qu’un logiciel soit libre (free en anglais) ne correspond pas au fait qu’il soit gratuit (le terme anglais porte cette ambiguïté). Il faut entendre free comme free speech (libre expression) et non comme free beer (bière gratuite). Avec cette précision, Stallman et la Free Software Foundation soulèvent clairement le problème que nous avons souligné précédemment : le point fondamental est celui des implications éthiques, sociales, culturelles et politiques des technologies numériques.
À partir de cette idée, le logiciel libre est défini sur la base de quatre critères ou, mieux, de quatre libertés :
– la liberté de faire fonctionner le programme comme vous voulez, pour n’importe quel usage (liberté 0) ;
– la liberté d’étudier le fonctionnement du programme et de le modifier pour qu’il effectue vos tâches informatiques comme vous le souhaitez (liberté 1) ; l’accès au code source est une condition nécessaire ;
– la liberté de redistribuer des copies, donc d’aider les autres (liberté 2) ;
– la liberté de distribuer aux autres des copies de vos versions modifiées (liberté 3) ; en faisant cela, vous donnez à toute la communauté une possibilité de profiter de vos changements ; l’accès au code source est une condition nécessaire21.
Ces principes résonnent fortement avec les trois règles que nous avons identifiées afin de définir une véritable littératie numérique. Nous pouvons les résumer ainsi :
1. La conscience de la multiplicité des modèles. Cela est rendu possible dans l’approche du logiciel libre par la liberté 1, celle d’étudier le fonctionnement du programme. Le fait que le code soit ouvert permet de savoir ce qu’il fait, de comprendre sa matérialité et d’en analyser les conséquences.
2. La recherche de complexité. La liberté promue par le mouvement du libre est attentive aux besoins particuliers. Le fait d’avoir accès au code et d’avoir le droit de le modifier permet de l’adapter, de le personnaliser. C’est un premier pas vers la complexité et la multiplicité des modèles dont nous avons longuement discuté. La liberté 3 permet aussi la redistribution des copies modifiées, rendant possibles la multiplication et la pluralité des technologies : non pas une seule technologie non modifiable, mais une panoplie de technologies, chacune avec ses caractéristiques et ses particularités, chacune répondant à des besoins précis et spécifiques. Non pas un espace, mais des lieux.
3. La maîtrise de l’activité. La communauté peut agir : en étudiant, en analysant, en modifiant et, finalement, en distribuant le résultat de ses efforts. Il n’y a plus de différence entre des personnes qui utilisent passivement les outils et des personnes actives, car les mêmes communautés sont utilisatrices et productrices en même temps.
Le mouvement du libre s’inscrit donc clairement dans les valeurs que nous essayons de promouvoir avec cette réflexion. Par ailleurs, il est nécessaire de souligner à quel point ce mouvement – à première vue utopiste et peu réaliste – a eu et a toujours un impact important dans nos sociétés. Depuis les années 1980, les logiciels libres se sont multipliés, les distributions de Linux prospèrent. Il est aujourd’hui possible d’avoir un ordinateur complètement libre, qui n’utilise aucune technologie propriétaire – c’est le cas de celui avec lequel je suis en train d’écrire ce livre, un Lenovo X200 avec Librebot reconditionné et préparé par Viking.net, dont je dirai un mot plus tard.
Il y a cependant plusieurs éléments que l’approche du mouvement du libre laisse dans l’ombre et qui lui ont valu des critiques. Pour les résumer en une seule question : comment faire en sorte que le libre ne soit pas repris et englobé par l’action des GAFAM ?
Cette question soulève un point crucial – analysé par Broca dans ses travaux22 : le rapport du libre avec le monde capitaliste. Les libertés listées plus haut permettent en effet n’importe quel type d’usage du logiciel libre. Une technologie libre peut donc être aussi utilisée à des fins commerciales. Or cette possibilité a été largement exploitée par les grandes entreprises numériques : chaque morceau de code libre peut être réutilisé et inséré dans des applications qui ne sont pas libres. Dès qu’on s’intéresse de près à un grand logiciel propriétaire – par exemple Zoom –, on remarque immédiatement qu’il se sert d’une série de composants développés en tant que logiciel libre (pour Zoom, voir https://explore.zoom.us/en/opensource/source/). Cela signifie concrètement qu’une grande entreprise s’enrichit en utilisant des composantes bien souvent développées gratuitement par la communauté. Certes, inversement, les GAFAM contribuent également au monde du libre en produisant des applications et des technologies libres. On peut citer par exemple Google avec Chromium, le navigateur libre à partir duquel est produit Chrome. Les GAFAM profitent du monde du libre tout en y contribuant à leur tour. Cette contribution, évidemment, oriente les développements, car les GAFAM ont les moyens économiques de produire bien plus que les communautés de bricoleurs et bricoleuses bénévoles.
Le libre s’intègre finalement assez facilement dans l’univers du capitalisme et commence lui aussi à être assujetti à l’impératif fonctionnel : son développement est orienté en partie – et souvent de façon déterminante – par les mêmes entreprises contre lesquelles le mouvement voudrait lutter.
Cela nous fait comprendre un principe un peu plus théorique qui règle la culture numérique. Comme l’a montré Dominique Cardon dans La Démocratie Internet23 ou encore Broca24, la culture numérique se caractérise par une conception ambiguë de la liberté : le libéralisme de la culture capitaliste se mélange au caractère libertaire de la culture hippie puis de la culture hacker. Le mouvement du libre hérite de cette ambivalence qui est constitutive, historiquement, du monde numérique.
Cette ambiguïté a un effet néfaste sur les opportunités de littératie numérique permises par le mouvement du libre. Si, théoriquement, les quatre libertés ouvrent la possibilité de la conscience des modèles, de la recherche de complexité ainsi que d’une plus forte implication des utilisateurs et des utilisatrices, dans la réalité les deux derniers points sont menacés par l’emprise que les GAFAM ont sur le monde du libre. De fait, les technologies produites par les GAFAM ont une force de communication et une visibilité bien plus importantes, tout comme les personnes employées par les GAFAM ont une plus grande capacité de production et donc d’activité. De cette manière, l’espace du libre risque d’être élitiste comme l’espace bourgeois décrit par Habermas en limitant son accessibilité à des groupes restreints et privilégiés du point de vue économique comme du point de vue de leurs compétences et de leur littératie.
Si les principes du libre sont fondamentaux dans la quête d’une véritable littératie numérique ainsi que dans la recherche de liberté qui peut suivre, ils ne sont, à eux seuls, pas suffisants pour la garantir.
Dans un texte récent, Sébastien Broca propose une piste de réflexion intéressante pour résoudre ce problème : il faudrait penser le logiciel libre en accord avec la notion de « commun ». Dans la tradition lancée par Elinor Ostrom25, il s’agit de penser le logiciel libre comme un bien commun et d’appliquer aux environnements numériques les principes de gouvernance qu’Ostrom propose pour les autres bien communs.
Selon Broca, cela détermine un changement important. La notion de « commun » ne fait pas seulement référence au fait qu’un bien est accessible à tout le monde, mais elle insiste sur l’aspect collectif de la production, de la jouissance et de la gouvernance de ces biens. De cette manière, la notion de commun prend également en compte l’ensemble des facteurs et des situations sociales et économiques permettant de produire et de distribuer ce qui est commun. Dans le cas des technologies numériques, cette approche permet de s’interroger non seulement sur la liberté d’accéder au code et de le modifier, mais aussi sur l’ensemble des conditions de la production de ce code, sur les modèles économiques, sur les enjeux sociaux :
Un commun, ce n’est pas uniquement un bien dont l’accès et l’utilisation sont partagés. Derrière ce bien se trouve toujours un collectif qui s’organise, dans un contexte déterminé, pour le faire vivre. Lorsqu’on parle du logiciel libre comme d’un commun, on ne considère donc plus simplement une ressource librement accessible, sur laquelle les utilisateurs ont certains droits. On prend aussi en compte les conditions économiques et sociales qui permettent, ou ne permettent pas, à des individus de produire et distribuer ce code libre26.
La notion de commun nous invite à prendre au sérieux la nécessité d’une dimension collective, la même qui émergeait dans notre discussion sur les espaces publics. La question n’est pas seulement – ni principalement – celle des libertés individuelles. Il s’agit plus précisément d’imaginer comment faire émerger une série de lieux publics, chacun pouvant être le lieu d’une communauté ou d’un collectif particulier, portant ses visions du monde, ses besoins, ses valeurs, sa culture et son histoire.
Les collectifs peuvent partager des intérêts et des objectifs qui les guideront dans le développement, l’adaptation et l’appropriation d’environnements et de technologies numériques qui seront ensuite les leurs : les formes de contribution, les modes d’évolution de ces environnements, les règles de gouvernance pourront et devront être établis par les collectifs eux-mêmes.
De cette manière, on réalise dans une certaine mesure l’idée de liberté comme autonomie dont on parlait en ouverture de ce chapitre. Les communautés qui s’engagent dans la production d’environnements numériques libres en tant que biens communs se libèrent de la dépendance des grandes entreprises et développent une autonomie qui n’est pas le rêve individualiste consistant à se débrouiller tout·e seul·e, mais la reconstruction d’« interdépendances personnelles permettant de desserrer l’étau des dépendances anonymes27 ».
Le monde du libre interprété ainsi nous donne donc une autonomie des GAFAM, nous oblige à nous rassembler en collectifs qui partagent leurs intérêts et leurs compétences pour réaliser les architectures et les environnements dont nous avons besoin.
Un exemple peut nous aider à saisir les implications, les possibilités et les limites des environnements numériques pour produire de véritables lieux publics et de réels biens communs : celui du protocole de versionnage git et des plateformes comme Gitlab ou Github qui l’implémentent. Git est un protocole développé en 2005 par Linus Torvalds – qui est aussi le créateur de Linux. Il permet de versionner des fichiers – de code ou de texte – et de suivre leur évolution en traçant les différents changements qui sont apportés à ces fichiers. Le protocole permet aussi la synchronisation des fichiers avec un serveur, en ouvrant à la possibilité d’un travail collectif : je crée un fichier, je le synchronise avec un serveur, quelqu’un d’autre contribue en apportant des changements et des modifications, je reprends son travail et je le continue. Le protocole est riche et complexe : il permet la création de « branches », des versions parallèles qui peuvent ensuite être comparées, fusionnées, reprises, etc. Il modélise ainsi une véritable action collective et partagée, il permet la création d’un espace commun et l’émergence de communautés concernées par des intérêts et des objectifs communs.
Autour de ce protocole sont nées plusieurs plateformes en ligne, dont la plus connue est Github. Github implémente le protocole git et permet de synchroniser des dossiers – des repositories – et de les partager avec une communauté. Rapidement, Github est devenu un véritable lieu, où des collectifs peuvent se rencontrer, discuter autour des applications, des environnements ou des projets qu’ils créent, en utilisant une multiplicité de fonctionnalités, comme les issues des billets qui permettent de discuter sur des bugs, sur des améliorations ou, plus généralement, sur les objectifs et les visées relatifs au projet en question. Github bénéficie d’une visibilité immense et les différentes communautés s’y retrouvent pour produire ensemble des technologies disparates.
La possibilité de partage et de discussion, celle de s’intéresser et de collaborer à des projets portés par des collectifs éparpillés dans le monde deviennent de véritables catalyseurs pour l’émergence d’espaces libres et ouverts. La plateforme est initialement créée avec ce seul objectif : sa gouvernance est relativement ouverte et n’est pas pilotée par une grande entreprise. Mais, en 2018, Microsoft la rachète. Se vérifie donc ce que nous venons de décrire comme l’un des risques du libre : sa reprise par les GAFAM.
Aujourd’hui, les communautés qui veulent partager des espaces ou développer leurs projets, leur code – ainsi que leurs textes, étant donné que git peut être utilisé aussi pour mettre en place un travail collectif sur des textes qui ne sont pas du code – se retrouvent face à un choix difficile : rester sur Github et renoncer donc à une partie de leur liberté, car la plateforme et sa gouvernance sont désormais dans les mains de Microsoft, ou chercher d’autres lieux, peut-être plus libres, mais moins visibles et qui peuvent donc attirer un nombre décidément plus réduit de personnes. On est face à l’opposition entre l’espace, universel, toujours traversable, auquel tout le monde peut (en théorie) accéder, mais qui est unitaire et finalement élitiste, et un lieu, spécifique, qui incarne des valeurs spécifiques d’une communauté précise, mais qui nous demande de renoncer à l’universalité fonctionnelle de l’espace.
Il y a une panoplie d’autres plateformes qui implémentent le protocole git, des plateformes moins visibles, moins centrales, avec des communautés plus petites. En France, par exemple, dans le domaine des sciences humaines et sociales, Huma-Num met à disposition une plateforme Gitlab qui permet de faire ce que propose Github. Mais, évidemment, les communautés qui se retrouvent dans ce lieu seront moins larges que celles qui se retrouvent sur Github. Au moment où je décide de développer mon projet sur le Gitlab d’Huma-Num, je sais qu’il y aura beaucoup moins de chances qu’une personne ne faisant pas partie de la communauté des sciences humaines et sociales françaises puisse y collaborer. Sur Github, j’ai une visibilité presque illimitée, ce qui permet au projet de se développer plus rapidement et de profiter de l’intérêt d’un très grand nombre de personnes. Sur Huma-Num, il faudra œuvrer pour créer cette communauté, pour bâtir les collectifs qui resteront toujours plus restreints. Choisir le lieu et abandonner l’espace implique de renoncer à une certaine forme de fonctionnement. Mais, en renonçant au rêve d’une collaboration potentiellement infinie, nous choisissons aussi de reprendre en main la définition des frontières et des règles des lieux que nous habitons. Pour rester sur notre métaphore, d’une part, nous avons l’agriculture industrielle de Github et, de l’autre, la culture d’un petit jardin dans lequel, en revanche, nous restons autonomes.
La dimension collective et l’approche des environnements numériques inspirées des communs ouvrent une réflexion plus globale sur des principes partagés qui devraient orienter les choix et les développements technologiques. Comment mettre en place des environnements durables et soutenables collectivement ? Cette question est liée à trois préoccupations importantes.
La première concerne l’impact écologique et environnemental des technologies numériques. Le high tech, comme le montre par exemple Fabrice Flipo28, a un impact néfaste sur l’environnement. Les coûts matériels et énergétiques sont de plus en plus élevés, l’obsolescence programmée nous porte à produire toujours plus d’artefacts technologiques. Il y a là aussi un problème de disponibilité des ressources.
Le deuxième souci est de donner à des collectifs et à des communautés multiples la possibilité de produire et de maintenir leurs propres technologies. La haute technologie est réservée à qui peut la consommer et qui peut la produire. D’une part, il y a des fractures dans l’accès entre riches et pauvres. D’autre part, la haute technologie ne peut être produite que par des acteurs détenant les moyens industriels nécessaires : de grandes entreprises. Dans le domaine du numérique, cela veut dire, en l’état actuel des choses, que les logiciels, les environnements et les applications les plus complexes sont aux mains des GAFAM. Si nous voulons un serveur constamment allumé, si nous voulons être certain·es de ne pas perdre nos données, nous dépendons forcément d’une infrastructure complexe et coûteuse : des centres de données avec de puissantes connexions et des miroirs partout dans le monde pour pallier les pannes…
La troisième préoccupation a trait à la possibilité de comprendre et de critiquer ces dispositifs. Plus une technologie est complexe, moins elle est compréhensible. Ce sont les voitures récentes dont parle Crawford29, qui dissimulent tous leurs mécanismes compliqués que seul l’ordinateur du constructeur peut manipuler. Le niveau de complexité devient tel que personne, même quelqu’un de très compétent, ne peut comprendre ce que la technologie est en train de faire. La complexité devient une boîte noire, ce qui nous rend encore plus dépendant·es.
Que faire ? Des éléments de réponse proviennent du mouvement croissant du low tech : la basse technologie, en opposition à la haute technologie. Comme l’affirme Philippe Bihouix30 dans L’Âge des low tech, on ne peut plus se fier à la haute technologie pour résoudre les différentes crises environnementales, climatiques, énergétiques et de ressources. Il n’est plus envisageable de s’en remettre au progrès et d’« appuyer sur l’accélérateur » : « Qu’on le veuille ou non, ne reste donc que l’option, très rationnelle, d’appuyer sur la pédale de frein : réduire, au plus vite et drastiquement, la consommation de ressources par personne. »
Ce constat est à la base du mouvement du low tech, approche qui prend ses fondements au sein d’une réflexion théorique plus générale sur la décroissance développée à partir des années 197031. Pour commencer à changer de rhétorique, il faut cesser de croire au progrès infini, à une production et à un enrichissement en croissance constante. Il faut accepter, si nous voulons survivre, la nécessité d’aller à contre-courant, de ne plus privilégier la croissance et le progrès, de ne plus viser le « plus » mais bien le « moins ».
Cette perspective peut sembler peu alléchante : il s’agit de renoncer à une série de « biens », de « conforts » et d’habitudes que nous avons désormais prises et que nous considérons comme acquises. En même temps, il faut s’interroger : ces habitudes sont-elles vraiment nécessaires ? Répondent-elles véritablement à nos besoins ?
Cette réflexion, qui était déjà au cœur du projet épicurien il y a deux millénaires, vaut évidemment pour tous les domaines de nos sociétés, mais elle prend une forme spécifique dans le secteur numérique.
Comme nous l’avons souligné à plusieurs reprises, le problème fondamental de l’économie numérique réside dans le fait que les produits nous sont proposés sans que nous ayons été partie prenante lors de l’identification des besoins. C’est le principe de base du solutionnisme dénoncé par Morozov32. En d’autres mots : nous nous laissons convaincre d’avoir des besoins de plus en plus coûteux en termes de technologie, des besoins auxquels seules de hautes technologies peuvent répondre. Est-ce la réalité ? Le principe fondateur de l’approche low tech n’est pas de renoncer systématiquement à la technologie, mais de commencer par s’interroger sur les besoins avant de choisir la technologie la moins coûteuse – en termes de complexité, de ressources, d’énergie demandée, etc. – afin de répondre à ces besoins. Cela nous portera à comprendre que, dans plusieurs cas, réduire le niveau de technologie utilisé n’implique pas seulement d’arriver à consommer moins et donc d’être plus durable et plus autonome, mais aussi de mieux répondre à un besoin. Pour présenter cette idée de manière imagée : tuer une mouche avec un bazooka n’est pas seulement inutilement dispendieux, c’est aussi une mauvaise manière de répondre à un besoin. La mouche ne sera pas plus morte que si on l’avait tuée avec un torchon et le mur de notre cuisine sera détruit sans raison (un concept très bien suggéré par le verbe anglais overkill).
Pour bien saisir cette notion, il est utile de s’arrêter un instant sur un aspect fondamental lié à la définition des besoins : une définition précise des besoins demande des compétences approfondies. Choisir le low tech n’est pas la solution de quelqu’un qui ne serait pas assez compétent pour utiliser une technologie plus avancée, mais c’est au contraire le choix éclairé d’une personne très compétente. Le low tech, comme le souligne Gauthier Roussilhe, demande un haut degré de compétences techniques de la part des personnes qui l’adoptent. À partir de cette idée, Roussilhe propose une sorte d’équation : plus de « haute technologie » implique moins de compétences techniques et vice versa :
Nous pouvons raisonnablement estimer que les appellations « high-tech » et « low-tech » ont toujours été insuffisantes. Si nous souhaitons jouer le jeu d’un régime binaire, nous pourrions dire que la « high-tech » signifierait « high-technology & low-technics » et que « low-tech » correspondrait à « low-technology & high-technics ».
La « high-technology & low-technics » se référerait à un ensemble social et technique où sont déployés massivement des objets et dispositifs qui ne montrent pas leur fonctionnement mais produisent des opérations phénoménales de transformation du milieu (le « high-technology »). Le pendant de cet ensemble est l’accumulation des savoirs techniques à un nombre très restreint d’individus et l’appauvrissement technique d’une grande partie de la population qui ne développe plus de culture de la réparation, du bricolage, de l’entretien (le « low-technics »). À l’inverse, la « low-technology & high-technics » est un ensemble social et technique où des objets et dispositifs de pointe sont utilisés avec parcimonie et où la production technologique s’inscrit dans une logique de soutenabilité du milieu (le « low-technology »). De l’autre côté, les objets et dispositifs ainsi conçus favorisent le développement d’une culture technique forte partagée dans le groupe social (le « high-technics »)33.
Le low tech ne répond donc pas seulement aux deux premières préoccupations que nous avons identifiées – à savoir le problème de l’impact écologique et celui de l’accessibilité des ressources – mais aussi à la troisième : la nécessité de comprendre les modèles sur lesquels une technologie est fondée. Si nous développons nos compétences techniques tout en réduisant la complexité de la technologie utilisée, nous en finirons avec ces boîtes noires qui prennent des décisions à notre place.
Dans une tendance semblable à du low tech ainsi interprété, on peut inscrire une autre approche : celle du minimal computing, tel que défini notamment par Roopika Risam et Alex Gil34. L’idée à la base du minimal computing est de n’utiliser que les ressources nécessaires et indispensables et de s’intéresser en premier lieu à la possibilité de comprendre et maîtriser les modèles représentationnels et fonctionnels qui structurent les technologies que nous choisissons d’utiliser. L’objectif n’est pas d’avoir la dernière technologie à la mode, mais d’être capable de comprendre au mieux celle que nous utilisons. Encore une fois, on privilégie un rapport entre technologie et compétences où les dernières sont plus élevées que la première.
La meilleure manière pour comprendre ces enjeux est de donner quelques exemples. Le premier, et le plus évident à mon sens, est celui qui concerne la manipulation des textes. La lecture et l’écriture de textes font partie des activités les plus courantes dans nos pratiques numériques : les ordinateurs et les dispositifs mobiles nous servent – très souvent – à lire et à écrire du texte. Or la manipulation du texte est une opération simple et très peu coûteuse en termes technologiques : nous pouvons écrire et lire du texte avec des ordinateurs très peu puissants car ces actions requièrent peu de calculs. Pourtant, nous avons l’impression que, même pour accomplir ces tâches, nous avons besoin de changer d’ordinateur régulièrement. Pour effectuer une opération que nous aurions pu accomplir sans problème avec une machine d’il y a trente ans, nous avons besoin d’acheter un ordinateur neuf dont la puissance de calcul est incommensurable par rapport à notre besoin. Cela est dû au fait que les applications et les logiciels que nous utilisons sont de plus en plus lourds et demandent toujours plus de ressources informatiques. Les versions des logiciels changent, leur rétrocompatibilité est problématique et cela fait partie des politiques des entreprises qui programment l’obsolescence afin de nous pousser à l’achat. Nous nous retrouvons incapables de lire, avec une machine d’il y a cinq ans, un simple texte qui aurait pu être lu avec un ordinateur des années 1970. En échange, nul avantage : nous ne gérons ni ne structurons mieux le texte. Celui-ci prend une place de stockage grandissante et demande une plus grande puissance de calcul, poussant à de nouveaux achats de matériel. Dans plusieurs occasions – comme dans le cas du mot « Bonjour » dont nous avons parlé dans le chapitre 2 –, nous produisons une quantité d’informations immense, non seulement inutile mais nuisible par rapport à nos besoins. Avec la volonté simple d’écrire « Bonjour », nous produisons des centaines de lettres qui ne feront que parasiter l’information initiale, en la rendant plus difficilement lisible et accessible, en la rendant moins durable et en augmentant notre dépendance aux entreprises qui produisent les logiciels et les ordinateurs. Dans ce cas, utiliser un éditeur de texte brut au lieu d’un logiciel de traitement de texte est une « solution » qui permet de réduire les coûts technologiques, mais aussi de produire une information plus pertinente, plus accessible et plus durable. De cette manière, en revoyant nos besoins et en les limitant à ce qui est essentiel grâce à une augmentation de notre compréhension de l’environnement technique, nous réduisons notre dépendance et nous gagnons en liberté.
Autre exemple : l’habitude de passer par un moteur de recherche – majoritairement Google Search – pour accéder à un contenu, alors même qu’on pourrait y accéder directement en utilisant l’URL de la ressource. Au lieu de taper dans la barre d’adresse de mon navigateur l’URL umontreal.ca, je cherche sur Google « université de Montréal » puis je clique sur le premier résultat qui s’affiche. Il est évident que cette pratique ne répond pas à un besoin particulier : taper directement l’URL nous ferait même épargner du temps. Dans un très grand nombre de cas, l’URL peut être facilement mémorisée, dans d’autres, elle sera enregistrée dans l’historique de navigation du navigateur et il suffira de taper quelques lettres dans la barre d’adresse (ici « Univ ») pour que le navigateur nous propose le bon site. Passer par le moteur de recherche est un réflexe inutile. Nous ne nous rendons pas compte d’à quel point ce réflexe est coûteux. Il nécessite la mobilisation d’une infrastructure informatique complexe pour réaliser une tâche simple. Cela a un impact qui nous dépasse largement. En 2009, un physicien américain, Alex Wissner-Gross35, a affirmé que chaque recherche sur Google engendrait 14 grammes d’émission de carbone, ce qui correspond environ à l’empreinte d’une bouilloire électrique. Considérons que le standard EU de consommation par kilomètre en voiture est de 140 grammes : cela signifierait que dix requêtes sur le moteur de recherche correspondent à un kilomètre en voiture. Google a critiqué cette affirmation36 en soutenant qu’il s’agissait de bien moins : 0,2 gramme au lieu de 14. En admettant que Google dise vrai, cela reste énorme. Selon les statistiques les plus récentes37, il y aurait environ 2,5 millions de recherches Google par minute, ce qui, en se fiant aux données de Google, correspondrait à l’émission carbone engendrée en parcourant 3 428 kilomètres en voiture, 2,5 millions de kilomètres par jour. Il s’agit d’une consommation immense, aux impacts néfastes et qui ne correspond pas du tout à un besoin ou à un confort, mais à une habitude qui s’est installée à cause de l’omniprésence de l’entreprise américaine. Parallèlement, et au-delà de toutes considérations environnementales, cette pratique implique une augmentation importante de notre dépendance à Google et de l’autorité que nous accordons à cette compagnie : Google devient le seul moyen d’accès à l’ensemble des informations et des contenus disponibles sur le Web. L’espace libre de partage de documents et de contenus devient un espace fermé, protégé par un entonnoir unique et privé.
Nous avons pris l’habitude de « progrès » constants dans le domaine de la technologie numérique, qui nous poussent à l’achat dès qu’une nouvelle version d’un ordinateur ou d’un téléphone apparaît. Nous semblons croire que ne pas le faire nous obligerait à renoncer à quelque chose, à un confort, à une « facilité » qui restent assez flous dans notre esprit : en effet, elles ne correspondent presque jamais à une réalité. Dans ce sens, le mouvement du low tech peut nous aider à mieux analyser nos besoins, à les comprendre et à choisir les outils et les environnements qui y répondent le plus précisément. Certes, cet effort ne peut pas être uniquement individuel. Alors que j’écris ce chapitre, j’essaie de me connecter au site de mon fournisseur d’accès Internet et cela m’est impossible car le site me demande d’utiliser la dernière version du navigateur. Or j’ai mis à jour Firefox il y a moins d’une semaine… Quelles sont les fonctionnalités à ce point indispensables que le navigateur d’il y a une semaine ne peut pas fournir ? Est-ce vrai que, il y a une semaine, j’avais des besoins inférieurs à ceux que j’ai aujourd’hui ? Il en est de même pour une série d’acteurs incontournables dans nos sociétés : les services publics, les banques, les services de santé… Tous ces acteurs s’alignent au rythme du « progrès » imposé par la rhétorique de la haute technologie et, de fait, obligent les utilisateurs et les utilisatrices à en faire autant. Je me retrouve aujourd’hui obligé de changer d’ordinateur si je veux continuer à accéder à mes factures de fournisseur Internet ou à la gestion de mon compte bancaire. Mon conseiller affirme que je dois acheter un smartphone pour des « raisons de sécurité », mon employeur – l’université – aussi. Quand on regarde de près ces dispositifs de sécurité, ils sont en réalité assez simples et pourraient être réalisés avec des technologies moins puissantes et plus durables.
Je vais conclure par une anecdote personnelle. À la fin des années 1990, j’étais étudiant à Pise en Italie. L’université avait décidé de proposer l’accès à une connexion Ethernet dans les logements étudiants, pour le plus grand plaisir de mes colocataires et moi. Nous signâmes le contrat avec l’université qui fournissait l’accès jusqu’à notre appartement et nous câblâmes nous-mêmes les cinq chambres pour que chacun d’entre nous ait sa propre connexion. C’était incroyable (pour l’époque) ! La connexion était un luxe très récent, certaines personnes n’en avaient pas chez leurs parents et, pour les plus privilégié·es, c’était une connexion téléphonique, limitée, payante et extrêmement lente. L’accès à une connexion Ethernet à « haut débit », gratuite 24 heures sur 24, était un changement radical. Pendant que nous passions les câbles, l’un d’entre nous blaguait : pour un prix dérisoire (l’équivalent de quelques euros) et plusieurs mètres de câble en plus, nous aurions pu avoir une connexion Internet dans notre salle de bains. Sa remarque nous fit rire une soirée entière. Vingt ans plus tard, à Montréal, je me suis vu demander au technicien de mon fournisseur d’accès s’il pouvait intervenir pour que j’aie une meilleure couverture wifi dans la salle de bains, où on captait mal. Qu’est-ce qui m’a convaincu, en l’espace de vingt ans, que j’avais besoin d’être connecté à Internet haute vitesse dans ma salle de bains ? À quel besoin cela répond-il ? Est-ce vraiment mon besoin ? Qu’est-ce qui nous a convaincus, en une poignée d’années, qu’il est indispensable d’être joignables partout, en tout temps, par message ou par courriel, d’être géolocalisé, d’avoir accès à des millions de documents, d’audios, de vidéos dans une qualité dont on n’imaginait même pas la possibilité il y a dix ans ? Est-ce vraiment notre besoin ? Cela correspond-il vraiment à notre vision du monde, à nos valeurs ? Et finalement : qui est ce « nous » ?
Dans plusieurs cas, il est en effet nécessaire d’écouter la recommandation de Laïnae et Alep et de résister à la propagation insensée de technologies électroniques. Low tech peut être aussi synonyme d’aucune technologie : se déconnecter devient la meilleure décision.
« Cela est bien dit, répondit Candide, mais il faut cultiver notre jardin » : c’est la réplique finale du roman de Voltaire et celle-ci s’adapte bien à notre raisonnement en proposant un pont entre un jardin ancien, celui d’Épicure, et des jardins modernes. Il faut cultiver notre jardin. Cultiver un jardin n’est pas toujours facile, ni satisfaisant, ni productif. Le jardin est un refuge nous permettant de nous retrouver dans un lieu qui n’est pas structuré par les grands pouvoirs étatiques et économiques de notre époque. C’est un lieu plus petit, ouvert, en plein air, mais protégé. Le jardin n’est pas un lieu d’exploitation extensive, on ne le cultive pas comme on cultive les grandes étendues. Le jardin est un lieu et non un espace. Mais il y a aussi un autre élément crucial – présent dans la réplique de Candide également : le jardin peut – et doit – être partagé. C’est notre jardin et pas mon jardin. Le jardin et sa culture nous renvoient finalement à la nécessité de faire nous-mêmes des choses que nous ne voulons pas déléguer aux grandes entreprises numériques et de les faire ensemble. « Perdre » donc du temps en se consacrant à des occupations matérielles qui sont autant méprisées par la rhétorique de l’immatérialité mais qui seules peuvent nous redonner notre autonomie perdue.
Dans La Démocratie aux champs, la philosophe Joëlle Zask38 affirme que, pour comprendre la véritable nature de la démocratie, il faut analyser les formes de gestion typiques des campagnes, en particulier une façon spécifique de gérer les biens communs : le paradigme des jardins partagés, qui a, dit-elle, « ceci de singulier et de rare qu’il associe étroitement le commun, le social, le personnel et l’individuel39 ». Le jardin partagé est un lieu public, ouvert, où se développe un collectif, tout en permettant aussi à chacun d’avoir son coin à soi. De cette manière, les intérêts collectifs et individuels sont mis ensemble et dialoguent.
Le jardin peut aussi être dysfonctionnel, au sens d’être cultivé selon des valeurs et des objectifs divergeant de l’impératif fonctionnel. Dans le jardin, un collectif peut prendre le temps, il peut ne pas être efficace, il peut décider quelles visions du monde implémenter dans une activité ou une culture particulière. Le jardin peut être multiple, diversifié, complexe. Cultiver le jardin, par ailleurs, demande du temps.
C’est une occupation oisive, c’est ce que les Grecs appelaient skholé (σχολή), d’où vient le français « école », qui signifie initialement oisiveté, temps libre. En grec ancien, la skholé s’oppose à l’ascholia : le temps occupé, les affaires. Il est nécessaire d’être libre et oisif pour pouvoir se dédier à la philosophie et aux arts. Il est nécessaire d’avoir du temps libre pour se dédier à cultiver notre jardin. L’oisiveté, la skholé, devient une valeur positive – s’opposant radicalement à l’impératif fonctionnel qui nous demande sans cesse de la productivité. Le jardin demande du temps vide, du temps volé à la production de valeur marchande. Il faut perdre du temps. Soulignons-le encore une fois : être libre de perdre du temps ne consiste pas à être délivré·e des tâches matérielles pour pouvoir se dédier à des activités plus élevées. Ce n’est pas l’idée de Ford que nous défendons ici, mais son opposé : être libre de perdre du temps signifie être libre de cultiver sa propre autonomie en se dédiant à des tâches matérielles qui sont normalement méprisées par l’impératif fonctionnel.
« Perdre » du temps avec les environnements numériques semble souvent une aberration. Pour illustrer cette sensibilité largement répandue, je raconterai une autre anecdote. En 2018, j’écrivis un billet de blog pour The Conversation au titre provocateur : « Les chercheurs en SHS savent-ils écrire40 ? » J’y soulignais l’importance des choix de formats et des outils d’écriture lorsqu’on écrit un article scientifique en sciences humaines et sociales. La provocation eut sans doute ses effets : plusieurs collègues réagirent avec indignation. Comment osais-je dire que les professionnel·les, les spécialistes des sciences du texte ne savaient pas écrire ? Un tweet était particulièrement intéressant : « Nan mais lis le texte… Caricature de geekerie. Le genre qui passe son temps à bidouiller LaTeX au lieu de bosser41. »
Cette affirmation résume bien le ressenti que nous avons essayé de critiquer dans ce livre :
1. tout ce qui est matériel n’a pas d’importance, ce qui compte c’est la pensée ;
2. puisque ce qui est matériel est neutre, il n’y a pas plusieurs modèles épistémologiques portés par les outils, mais un seul ;
3. il faut produire (« bosser ») et non perdre du temps à « bidouiller ».
Ce tweet représente parfaitement les trois problèmes identifiés dans ce livre : l’impératif fonctionnel (chapitre 1), l’idée d’« un » numérique unique (chapitre 2) et la rhétorique de l’immatérialité (chapitre 3).
Comment lui faire résistance avec une stratégie du dysfonctionnement ? Comment profiter des bugs pour faire exister une société différente ? En pensant que « bidouiller » avec LaTeX – ou avec n’importe quel autre environnement – signifie cultiver son jardin.
La notion du jardin nous permet d’opposer le temps de la skholé au temps de l’ascholia : d’une part, le temps « perdu » à réfléchir, à s’interroger, à penser ; de l’autre, celui qui est destiné à la productivité du travail.
Dans mon cas, je cultive mon jardin partagé numérique et cela me fait certes perdre du temps. Je ne suis pas productif, cela ne fonctionne pas. C’est donc l’espace et le temps de la skholé, l’oisiveté de la pensée, de la réflexion et de la résistance contre l’impératif fonctionnel.
Je prendrai l’exemple d’un aménagement d’espace numérique qui me concerne pour mieux expliquer cette démarche. Et le premier espace numérique à aménager est l’ordinateur. L’ordinateur est le seul dispositif électronique permettant une appropriation et une organisation de l’espace de vie qui correspondent à des valeurs que nous choisissons. Dans le cas des tablettes et des téléphones, il est impossible de sortir de l’environnement défini par Google et Apple – tout comme de savoir ce que fait le code. L’ordinateur est encore un espace de liberté relative, en dehors des systèmes d’exploitation propriétaires – Windows et MacOS – qui empêchent désormais toute prise en main de la machine. La seule manière d’être protagoniste de l’organisation de notre espace de vie numérique est donc d’avoir une machine avec un système libre, comme Linux.
S’ouvre alors, comme nous l’avons déjà mentionné dans le chapitre 1 sur l’impératif fonctionnel, un monde complexe, riche et pluriel. Linux, nous l’avons dit, n’est pas un système d’exploitation, mais des milliers de distributions différentes, toutes hautement modulables et personnalisables. Pour poursuivre la métaphore de l’aménagement : MacOS et Windows sont des appartements modèles déjà meublés, tous à l’identique. Même espace, même architecture, mêmes meubles, même décoration. Linux est un bout de terre libre et c’est là que nous pouvons construire notre jardin. Vous pouvez construire quelque chose, cultiver, planter, structurer comme bon vous semble. Commençons à parler de mon espace spécifique – qui n’a pas vocation à être un modèle pour les autres, juste un exemple.
Depuis toujours, j’utilise des systèmes Linux. J’ai utilisé plusieurs distributions (RedHat, Fedora, Suse, Ubuntu, PureOS, Trisquel, Debian…) et une multiplicité de GUI (interface graphique). Dans le monde de Linux, l’interface graphique ne vient pas avec le système d’exploitation. Vous pouvez ainsi choisir ce qui vous convient le mieux en combinant distribution et interface graphique.
Ma dernière préoccupation était le fait que mes ordinateurs gardaient un BIOS propriétaire. J’étais sur Dell depuis une dizaine d’années, des machines plutôt bonnes, très compatibles avec Linux et, en particulier, avec Ubuntu. Mais Ubuntu devenant une imitation de MacOs – en particulier avec l’implémentation de Gnome par défaut et d’une série de petites applications Apple-like –, il semblait de plus en plus rejoindre l’idéologie des GAFAM et répondre à l’impératif fonctionnel. Je cherchais une machine complètement libre.
Le seul producteur construisant un ordinateur libre à 100 % (à savoir sans Intel Management Engine et avec un BIOS libre) est Purism. Si on cherche un ordinateur neuf avec ces caractéristiques, il faut l’acheter chez eux. L’autre solution est d’acheter un ordinateur reconditionné chez Viking.net. Cette compagnie, basée en Allemagne, fait un travail remarquable. Elle reprend de vieux X200 Lenovo et les reconditionne, installant un bon disque dur, ajoutant de la RAM, supprimant tout ce qui est propriétaire, configurant LibreBot… Le X200 est une machine connue pour sa facilité à être démontée et personnalisée ainsi que pour sa résistance : elle est indestructible – ou presque.
J’ai choisi cette solution, en partie grâce au retour d’expérience de mon collègue Robert Alessi, et je me suis retrouvé avec un X200 flambant neuf (tout étant relatif, il doit dater de 2008) entre les mains. Les relations avec les autres deviennent ici fondamentales : on discute, on échange, on essaie de comprendre ensemble les enjeux, on partage des idées, des bouts de code pour personnaliser sa machine. Il ne s’agit pas d’une pratique solitaire et individuelle ; il s’agit de s’inscrire dans une dynamique de groupe, de rencontrer des communautés, de développer des amitiés, de se dédier à des occupations matérielles – faire du code, comme cultiver des plantes – avec des ami·es.
Ce n’est que le point de départ pour cultiver notre jardin. S’ouvre une série de choix infinie : réfléchir aux besoins, aux valeurs et aux visions du monde qui doivent s’incarner dans l’environnement que nous voulons aménager. Le principe de base est pour moi de mettre en place un environnement numérique me permettant de faire tout ce dont j’ai besoin en utilisant uniquement les ressources nécessaires. La question du low tech est donc centrale, comme celle d’être libre, d’avoir accès au code et de pouvoir personnaliser finement le comportement des différentes applications. Cela implique de sélectionner tous les modules dont j’ai besoin, un par un, et de faire des compromis : mes compétences informatiques ont des limites et la configuration demandée par des petits modules est parfois trop poussée. Je dois établir un équilibre entre mon principe de fond et le temps ainsi que les compétences dont je dispose ; encore une fois, je dois me situer dans l’équation de Roussilhe : plus de compétences, moins de haute technologie. L’accompagnement et la discussion avec les personnes qui partagent mes besoins et mes visions ont été ici fondamentaux. Ils m’ont permis de choisir tous les composants de mon système : du système d’initialisation (le premier logiciel lancé par l’ordinateur et le « parent » de tous les autres processus) à l’interface graphique (j’ai préféré un simple système de gestion des fenêtres, Awesome), en passant par les différentes applications et leur configuration. Sur le chemin, j’ai dû apprendre un grand nombre de choses qui m’étaient inconnues. Il m’a fallu prendre le temps d’étudier le fonctionnement d’un « système d’initialisation », la différence entre une interface graphique et un système de gestion des fenêtres, les accords passés entre les producteurs de processeurs et les producteurs d’ordinateurs, etc.
Ces choix ne sont que le début : un jardin se cultive au jour le jour. Quotidiennement, il est nécessaire de s’interroger sur l’état de sa machine, les mises à jour, les logiciels qui ne sont plus utilisés et peuvent être effacés, d’autres qui peuvent être remplacés, les plugins, modules, extensions qui sont développés au fur et à mesure par la communauté et méritent d’être testés. L’ordinateur n’est donc pas l’outil universel déjà prêt à être utilisé, identique pour tout le monde. Il n’est pas l’espace homogène où n’importe quelle portion peut être remplacée par une portion de la même taille. Il est mon lieu habitable.
Mon ordinateur, qui a plus de 15 ans, est souvent lent. Plusieurs applications que j’utilise ont des bugs et « ne marchent » pas toujours. D’autres applications sont inutilisables et cela m’empêche de faire certaines actions, notamment tout ce qui requiert un téléphone ou une application propriétaire.
Mais la lenteur de la machine me permet de réaliser ce qui est en train de se dérouler. Par exemple, du côté du développement de sites Web, de plus en plus de scripts doivent être exécutés côté client (par mon ordinateur). Puisque c’est lent, j’ai le temps d’analyser ce que font ces scripts. La plupart font des actions que je n’ai pas demandées, dont je n’ai pas besoin et qui, souvent, me dérangent (comme analyser mes comportements de navigation à des fins publicitaires). Quand cela ne fonctionne pas, je m’interroge sur les politiques des organismes publics qui rendent nécessaire l’usage d’un logiciel propriétaire pour accomplir des tâches d’intérêt public. Pour devenir citoyen canadien, il m’a fallu remplir un document qui ne pouvait être édité qu’à partir du logiciel de lecture de PDF d’Adobe : cela revient à dire que, pour avoir la citoyenneté canadienne, il est obligatoire de passer par une entreprise privée… Ce n’est pas normal, mon système dysfonctionnel me l’a révélé. Si j’avais utilisé un Mac flambant neuf, je n’aurais pas remarqué ce problème.
En bref : une grande perte de temps. Mais cette perte de temps constitue et produit la littératie. Et la littératie est le moyen de devenir les protagonistes des espaces que nous habitons, de reconquérir notre autonomie, de redevenir libres en diminuant notre dépendance aux grands pouvoirs des entreprises numériques, de résister au tout-numérique.
Faire l’éloge du bug signifie faire l’éloge des inadapté·es et des récalcitrant·es, comme le Gregor Samsa dont l’histoire a ouvert ce livre. Cela signifie faire l’éloge des personnes incapables de répondre aux impératifs qui semblent caractériser notre société. Il ne faut pas avoir de lampe magique, pas de génie prêt à résoudre tous nos problèmes. Cela sera souvent considéré comme de la folie – tel est le cas pour Jill et McBain, qui semblent chercher l’or où, clairement, il n’y en a pas.
Mais cette résistance ne doit pas être confondue avec une posture réactionnaire. Cela ne signifie pas ne pas vouloir comprendre les technologies et afficher une sorte de supériorité face à ces questions. Cette dernière attitude est celle de celui ou celle qui considère la technique comme trop triviale pour s’y intéresser. C’est la posture de mon collègue qui me traitait de geek parce que je perdais mon temps à faire un travail « de secrétaire ». Cette attitude appuie la rhétorique de la délivrance, selon laquelle les activités matérielles seraient banales et devraient être déléguées – à des petites mains, ou au génie de la lampe.
Je propose ici tout le contraire : l’éloge des inadapté·es lettré·es, des bidouilleurs et des bidouilleuses, des personnes qui ont envie de perdre du temps pour comprendre et de se salir les mains – avec le carburateur, comme le dit Crawford. L’éloge donc d’un très haut degré de compétences qui permettent de nous libérer, non pas des tâches « triviales », mais des compagnies privées dont nous dépendons de plus en plus.
Cette résistance peut parfois marginaliser ; elle peut nous enlever de la valeur symbolique apparente. C’est être inadapté·e comme l’est Socrate qui se bloque au milieu de la rue. C’est l’être comme Épicure qui reste en marge d’Athènes non pas parce qu’il est incapable de faire, non pas parce qu’il veut être délivré des tâches les plus simples, mais au contraire parce qu’il est en mesure de pourvoir à ses propres besoins, parce qu’il est libre.
Être libre à l’époque du numérique signifie comprendre pour résister, comprendre pour trouver son propre chemin, comprendre pour savoir cultiver son jardin.
1. FORD MOTOR COMPANY, « Ford news », 8 août 1925, p. 304 (ma traduction).
2. Henry FORD, My Life and Work, op. cit., p. 1 (ma traduction).
3. Aurélien BERLAN, Terre et liberté, op. cit., p. 204.
4. John Perry BARLOW, « A declaration of the independence of cyberspace », art. cit.
5. William GIBSON, Neuromancer, New York, Ace, 1984.
6. Voir Pierre LÉVY, Qu’est-ce que le virtuel ?, Paris, La Découverte, 1995 ; Stéphane VIAL, L’Être et l’Écran. Comment le numérique change la perception : essai de phénoménologie historique des techniques, Paris, PUF, 2013 ; Marcello VITALI-ROSATI, S’orienter dans le virtuel, Paris, Hermann, 2012, pour ne citer que des textes en français.
7. Marcello VITALI-ROSATI, On Editorialization. Structuring Space and Authority in the Digital Age, Amsterdam, Institute of Network Cultures, 2018.
8. Louise MERZEAU, « Le profil : une rhétorique dispositive », Itinéraires. Littérature, textes, cultures, no 2015-3, juin 2016.
9. Jürgen. HABERMAS, L’Espace public. Archéologie de la publicité comme dimension constitutive de la société bourgeoise, traduit par Marc B. de Launay, Paris, Payot, 1993 [1962].
10. Ibid., p. 13-14.
11. Nancy FRASER, « Rethinking the public sphere : a contribution to the critique of actually existing democracy », Social Text, no 25/26, 1990, p. 56-80 ; Lionel RUFFEL, Brouhaha. Les mondes du contemporain, Lagrasse, Verdier, 2016.
12. Luca PALTRINIERI, « Connexion, calcul, échange : le numérique comme méta-économie », conférence donnée le mardi 25 avril 2023 à l’université de Montréal, vidéo disponible sur Youtube.
13. Franco FARINELLI, Blinding Polyphemus. Geography and the Models of the World, Calcutta, Seagull Books, 2018.
14. Giuseppe CAVALLARI, Performativité de l’être-en-ligne. Pour une phénoménologie de la présence numérique, op. cit.
15. Ibid., p. 14.
16. Louise MERZEAU, « Le profil », art. cit.
17. Enrico AGOSTINI-MARCHESE, « Pour une esthétique géolocalisée : espace, imaginaire et littérature à l’époque du numérique », thèse de doctorat, université de Montréal, 2020.
18. Ibid., p. 352.
19. Dominique CARDON et Antonio A. CASILLI, Qu’est-ce que le digital labor ?, op. cit.
20. Sébastien BROCA, Utopie du logiciel libre. Du bricolage informatique à la réinvention sociale, Neuvy-en-Champagne, Le Passager clandestin, 2013.
21. FREE SOFTWARE FOUNDATION, Qu’est-ce que le logiciel libre ? Projet GNU, Free Software Foundation, 11 août 2017.
22. Sébastien BROCA, Utopie du logiciel libre, op. cit.
23. Dominique CARDON, La Démocratie Internet. Promesses et limites, Paris, Seuil, 2010.
24. Sébastien BROCA, « Du modèle du logiciel libre au modèle productif des communs. Les licences pair à pair contre le free software ? », document de travail, février 2018.
25. Elinor OSTROM, Governing the Commons. The Evolution of Institutions for Collective Action, Cambridge, Cambridge University Press, 2015 [1990].
26. Sébastien BROCA, « Du modèle du logiciel libre au modèle productif des communs », art. cit., p. 10.
27. Aurélien BERLAN, Terre et liberté, op. cit., p. 170.
28. Fabrice FLIPO, La Numérisation du monde, op. cit.
29. Matthew CRAWFORD, Éloge du carburateur, op. cit.
30. Philippe BIHOUIX, L’Âge des low tech. Vers une civilisation techniquement soutenable, Paris, Seuil, 2014.
31. Cette réflexion a été propulsée, entre autres, par un rapport de 1972 qui mettait en évidence les effets insoutenables de la croissance économique. Voir Donella H. MEADOWS et al., The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind, New York, Universe Books, 1972.
32. Evgeny MOROZOV, To Save Everything, Click Here, op. cit.
33. Gauthier ROUSSILHE, « Une erreur de “tech” », gauthierroussilhe.com, mars 2020.
34. Roopika RISAM et Alex GIL, « Introduction : the questions of minimal computing », Digital Humanities Quarterly, vol. 16, no 2, 2022.
35. Le Monde, « Une recherche Google a un coût… énergétique », LeMonde.fr, 12 janvier 2009.
36. GOOGLE, « Powering a Google search », Official Google Blog, 11 janvier 2009.
37. FIRSTSITEGUIDE, « Google Search statistics (2022) : 17 + facts you need to know », FirstSiteGuide, janvier 2020.
38. Joëlle ZASK, La Démocratie aux champs. Du jardin d’Éden aux jardins partagés, comment l’agriculture cultive les valeurs démocratiques, Paris, La Découverte, « Les Empêcheurs de penser en rond », 2016.
39. Ibid., p. 69.
40. Marcello VITALI-ROSATI, « Les chercheurs en SHS savent-ils écrire ? », The Conversation, 11 mars 2018 ; J’ai ensuite répondu aux commentaires des lecteurs et des lectrices dans Marcello VITALI-ROSATI, « Les chercheurs en SHS savent-ils écrire ? Quelques réponses aux commentaires des lecteurs », Culture numérique. Pour une philosophie du numérique, 13 mars 2018.
41. Pierre CHARBONNIER, « @Kinkybambou Nan mais lis le texte… Caricature de geekerie. Le genre qui passe son temps à bidouiller LaTeX au lieu de bosser », Twitter, mars 2018.
Kim Adams et Saronik Bosu sont deux universitaires qui animent depuis 2020 un podcast s’intitulant High Theory. Dans chaque épisode de leur émission, ils invitent des spécialistes d’un domaine en sciences humaines et leur posent des questions sur un concept important de leur champ de recherche : « différence sexuelle », « désintermédiation », « trace », « archives »… La dernière question de l’émission est toujours la même : comment cette théorie peut-elle sauver le monde ? Dans l’épisode sur l’auto-fictionnalisation1, Claus Elholm Andersen y répond ainsi : elle ne le sauvera pas. Andersen poursuit avec une série de considérations sur le rôle des sciences humaines et souligne qu’il n’est pas souhaitable de poser cette question utilitariste de façon systématique. Certaines choses ne sont pas faites pour servir et n’ont pas vocation à sauver le monde.
Je me pose la même question au sujet de ce livre et, plus généralement, vis-à-vis de mon activité de chercheur et de philosophe : cela peut-il sauver le monde ? Le bug peut-il sauver le monde ? Plus modestement : cela sert-il à quelque chose ? Et, comme Andersen, j’ai envie de répondre : non, cela ne sert à rien et cela ne sauvera rien.
Accepter de répondre de façon positive à cette question revient à admettre le paradigme que ce livre essaie de critiquer : tout doit fonctionner, produire des résultats, avoir des effets, être efficace. Or ce n’est pas mon but, et ce n’est pas ce qu’aspire à faire ce livre. Le bug ne « sert » à rien car il renverse le paradigme selon lequel tout doit « servir » et doit « fonctionner ». Le bug a une ambition différente : celle de créer un autre paradigme. Sa force révolutionnaire est là : il nous fait comprendre que, au-delà de l’impératif fonctionnel, on peut imaginer autre chose, des sociétés complètement différentes, des mondes complètement autres.
Car l’idée de sauver le monde reste profondément liée à la notion de progrès, un progrès linéaire et unique qui nous tire dans une direction unique et que l’on ne peut et ne doit pas questionner.
Ce livre reste celui d’un humaniste et le rôle des sciences humaines est plutôt de perdre du temps que d’en faire gagner, de complexifier plutôt que de simplifier, de faire dysfonctionner plutôt que de faire fonctionner, de chérir les bugs plutôt que de les résoudre.
Car, finalement, même la littératie et la liberté dont la recherche a été le but ultime de nos analyses ne servent à rien. Elles dysfonctionnent elles aussi. Et la liberté qui en dérive n’est pas « utile » pour faire « avancer » le monde vers son plus grand épanouissement, mais plutôt pour s’interroger sur les directions possibles que nous voulons prendre.
La liberté qui s’acquiert en augmentant notre autonomie ne produit pas quelque chose qui fonctionne. Au contraire, elle contribue à faire émerger des bugs dans le système. Son objectif est davantage de détraquer les grands systèmes capitalistes que de les faire fonctionner.
Nous pouvons reprendre rapidement les résultats de notre réflexion afin de voir ce qu’il en reste à l’issue de ce parcours et de montrer plus précisément le rôle et le sens des bugs et du dysfonctionnement qu’ils produisent.
Nous avons affirmé qu’une littératie réinventée ne réside pas dans la capacité de se servir des outils numériques. Si tel était le cas, la littératie fonctionnerait : elle nous permettrait de devenir plus efficaces, plus productif·ves, plus rapides. Ce type de capacité – qui, à mon avis, n’a rien d’une connaissance – est celle que prônent les GAFAM, qui veulent « rendre le monde meilleur ». C’est l’idée d’une liberté qui se fonde sur la délivrance : ce sont les GAFAM qui se chargent de faire pour nous en augmentant notre dépendance. Ce n’est donc pas une véritable liberté, c’est au contraire un renforcement des dispositifs de domination.
Selon notre analyse, au contraire, la littératie est constituée par la conscience de la multiplicité des modèles, la recherche de complexité et la maîtrise de l’activité. Ces trois caractéristiques font perdre du temps, elles diminuent notre productivité et notre efficacité parce qu’elles nous obligent à reprendre en main les occupations dont la rhétorique de la délivrance voulait nous « libérer ». Elle ne nous rend pas plus adapté·es à notre monde et à notre société, mais, au contraire, plus inadapté·es.
Par ailleurs, nous avons expliqué que l’acquisition d’une telle littératie demande de passer par des étapes critiques de prise de conscience de la matérialité et des modèles puis par la recherche de solutions. Encore une fois, ces étapes nous font perdre du temps. Nous allons nous poser des questions, hésiter, douter des implications de chaque choix.
Devant la promesse alléchante de « solutions » intuitives, « simples », fonctionnelles et efficaces, je propose de nous arrêter, de nous laisser bloquer par les bugs, de perdre du temps. Et j’affirme que cela ne sauvera pas le monde. Pourquoi ?
« Pourquoi ? » : c’est peut-être en effet la bonne question. Question à laquelle ne répond même pas la rhétorique du fonctionnement. Pourquoi produire ? Pourquoi vouloir être efficace ? Et pourquoi se demander « pourquoi » ?
N’est-ce pas ce type de réflexe – comme celui de nous demander « pourquoi ? » – qui nous fait perdre du temps ?
Arrêtons-nous, pour conclure, sur ce que signifie perdre du temps. Pour cela, revenons au Phèdre de Platon. Nous avons parlé du démon de Socrate, qui le bloque quand il est sur le point de traverser la rivière, l’arrête et l’empêche de faire des choses. Socrate ne part pas, mais il fait à Phèdre un discours sur l’amour. Même après ce discours, le dialogue n’est pas terminé : les deux personnages se retrouvent sous la chaleur de midi et s’interrogent sur quoi faire. Deux possibilités s’offrent à eux : s’allonger à l’ombre et se reposer, ou profiter de ce temps libre pour poursuivre leur discussion. C’est alors que Socrate raconte une histoire, probablement inventée sur-le-champ : le mythe des cigales. Ce mythe renverse de façon étonnante la morale de la fameuse fable d’Ésope où, après un été d’oisiveté, la cigale meurt de faim quand vient l’hiver tandis que les fourmis, qui ont travaillé tout l’été, ont de quoi manger. Socrate raconte que, jadis, les cigales étaient des êtres humains, tellement amoureux des arts des Muses qu’ils passaient leur vie à chanter et oubliaient de manger ou de boire jusqu’à en mourir. Pour cela, ils furent récompensés et transformés en cigales, afin qu’ils puissent continuer à dédier leur vie aux arts des Muses sans devoir se préoccuper de rien d’autre. Les cigales de Socrate passent leur vie dans la skholé, l’oisiveté dont nous avons parlé. Elles ne travaillent pas et c’est ce qui les rend divines. Socrate raconte ce mythe pour démontrer que Phèdre et lui ne doivent pas s’endormir bercés par le chant des cigales. Ce serait indigne de ces divins insectes : il faut faire comme eux, se consacrer à la skholé et continuer à discuter. Cela pourrait sembler contradictoire : les cigales sont oisives, ne faudrait-il pas que Socrate et Phèdre le soient aussi pour les honorer ? Oui, en effet, mais la skholé n’est pas un repos passif, elle est une oisiveté active, une oisiveté engagée. Les cigales ne sont pas flemmardes, inactives ou fatiguées, elles se dédient activement à l’oisiveté qui consiste à chanter, à perdre du temps certes, mais en le remplissant avec les arts des Muses. Si Socrate et Phèdre s’endormaient à l’ombre, cela signifierait qu’ils sont fatigués, mais ne sont fatigués que ceux qui ont travaillé, qui sont du côté de l’ascholia, de l’occupation, des affaires : il est au contraire nécessaire de se situer du côté de la skholé et de se dédier activement à la perte de temps.
Revenons à l’opposition entre Ford et Épicure : il ne s’agit pas de dormir après que les technologies nous ont fait gagner du temps. Il s’agit au contraire de perdre du temps en s’occupant à faire tout ce qui n’est pas considéré comme valorisant selon l’impératif fonctionnel.
La skholé est une oisiveté active, une perte de temps engagée, militante. Cela rappelle ce que dit Pekka Himanen2 à propos de l’éthique des hackers. Les hackers, affirme Himanen, sont du côté d’une éthique du dimanche s’opposant à l’éthique du vendredi. L’éthique du vendredi est l’éthique du travail, à la base du système capitaliste, comme l’affirme Max Weber dans son célèbre L’Éthique protestante et l’esprit du capitalisme3. L’éthique des hackers est quant à elle une éthique du divertissement, du jeu. C’est cette éthique qui permet de questionner les environnements techniques, de les démonter, de bidouiller pour créer de nouvelles choses. L’éthique du dimanche est donc une éthique qui nous invite à cultiver notre jardin, à faire ce qui nous rend autonomes au lieu de faire ce qui profite à l’impératif fonctionnel. Cette éthique du dimanche est aussi celle des humanistes qui, dans le sillage de Phèdre et Socrate, perdent activement leur temps en se dédiant aux arts des Muses. Mais ces arts consistent aussi à choisir son environnement d’écriture, à faire du code, à s’occuper de toutes les choses matérielles dont les GAFAM voudraient nous délivrer. Les humanistes doivent savoir se salir les mains en cultivant leur jardin. Ce n’est donc pas une éthique aristocrate opposée à une éthique bourgeoise du travail : c’est une éthique épicurienne, une éthique du jardin.
Ce livre sera réussi non pas s’il arrive à sauver le monde ou s’il vous incite à mieux configurer votre ordinateur, mais s’il parvient à vous faire perdre du temps et à vous mettre dans l’esprit de la skholé grecque, cette oisiveté active qui permet l’émergence de la pensée et le développement de la liberté et de l’autonomie.
Le bug est donc l’élément qui peut le mieux représenter les lettres, les sciences humaines et leur rôle. Celui d’imiter le démon de Socrate, de nous bloquer quand nous sommes en train de faire quelque chose et de nous plonger dans la skholé. C’est ici qu’émerge la complexité des choses, que l’on s’aperçoit des implications de la matérialité, que l’on comprend qu’il n’y a jamais de solution unique, mais des milliers, voire aucune. C’est là que l’on s’arrête, que l’on cherche, que l’on réfléchit et que l’on critique. Devant un ordinateur qui bugge, sans téléphone portable, face à un script qui ne fait pas ce que l’on souhaiterait, avec une imprimante qui ne se connecte pas faute de pilote propriétaire, on essaie de saisir ce qui se produit, de comprendre pourquoi, d’identifier des causes, des implications, des enjeux politiques, sociaux, culturels…
Tout cela est une perte de temps. Comme le sont, en effet, toutes formes de véritable liberté, de pensée et de philosophie.
1. Kim ADAMS et Saronik BOSU, « Autofictionalization », High Theory, 16 janvier 2022.
2. Pekka HIMANEN, The Hacker Ethic and the Spirit of the Information Age, New York, Random House, 2001.
3. Max WEBER, L’Éthique protestante et l’esprit du capitalisme, suivi d’autres essais, traduit par Jean-Pierre Grossein, Paris, Gallimard, 2004 [1905].